WO2022154546A1 - Wearable device for performing automatic volume control - Google Patents

Wearable device for performing automatic volume control Download PDF

Info

Publication number
WO2022154546A1
WO2022154546A1 PCT/KR2022/000690 KR2022000690W WO2022154546A1 WO 2022154546 A1 WO2022154546 A1 WO 2022154546A1 KR 2022000690 W KR2022000690 W KR 2022000690W WO 2022154546 A1 WO2022154546 A1 WO 2022154546A1
Authority
WO
WIPO (PCT)
Prior art keywords
audio signal
volume
external device
processor
user
Prior art date
Application number
PCT/KR2022/000690
Other languages
French (fr)
Korean (ko)
Inventor
남명우
권오채
김희진
황인제
Original Assignee
삼성전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자 주식회사 filed Critical 삼성전자 주식회사
Publication of WO2022154546A1 publication Critical patent/WO2022154546A1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/165Management of the audio stream, e.g. setting of volume, audio stream path
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/163Wearable computers, e.g. on a belt
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L17/00Speaker identification or verification techniques
    • G10L17/26Recognition of special voice characteristics, e.g. for use in lie detectors; Recognition of animal voices
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • G10L21/0208Noise filtering
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R3/00Circuits for transducers, loudspeakers or microphones
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R3/00Circuits for transducers, loudspeakers or microphones
    • H04R3/005Circuits for transducers, loudspeakers or microphones for combining the signals of two or more microphones
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R2430/00Signal processing covered by H04R, not provided for in its groups
    • H04R2430/01Aspects of volume control, not necessarily automatic, in sound systems

Definitions

  • Various embodiments according to the present disclosure relate to a wearable device that controls the volume of an external device that outputs a sound, and more particularly, controls the volume of the external device based on the location and space of a user wearing the wearable device It's about technology.
  • Wearable electronic devices that are worn on the user's body (eg, wrist) to control external electronic devices (eg, headset, earphone, smart glasses, head mounted device: HMD); Smart watch (smart watch) is becoming popular.
  • the number of users who use various services (eg, listening to music, watching a video, and making a voice call) by using a wearable electronic device is increasing.
  • a wearable device connects to an external electronic device (eg, a TV, Bluetooth speaker, smart phone, tablet PC, notebook, desktop, or wearable device) wired or wirelessly to provide various services (eg: Watching broadcasts, listening to music, watching videos) can be provided.
  • an external electronic device eg, a TV, Bluetooth speaker, smart phone, tablet PC, notebook, desktop, or wearable device
  • the wearable device may provide various services by being connected to an external electronic device that outputs audio by wire or wirelessly.
  • the position of the user wearing the wearable device may continuously change, but when the external electronic device is in a fixed position, an obstacle may occur in effective service provision.
  • the size of the audio volume recognized by the user may vary according to the user's distance from the external electronic device including the video display device or the audio device.
  • a perceived volume based on a sound output from the external electronic device may decrease.
  • a perceived volume based on a sound output from the external electronic device may increase.
  • the external electronic device since the external electronic device is in a fixed position, the user has no intention to listen to the sound output from the external electronic device, so even when the user moves to a different space from the external electronic device, the external electronic device continues to output sound and makes unnecessary noise. This can happen.
  • a perceived volume of a sound output from a specific external electronic device may vary according to a distance between the plurality of external electronic devices and the user.
  • the conversation may be interrupted by the sound of the external electronic device.
  • the wearable device includes a microphone, a communication circuit for transmitting and receiving a control signal to and from an external device, and at least one processor electrically connected to the microphone and the communication circuit, wherein the at least one processor is configured to allow the wearable device to operate on the user's body.
  • a first audio signal is obtained from an external device using a microphone in a state of being worn
  • a second audio signal is obtained from an external device using a microphone in response to the lapse of a set time
  • a first audio signal and a second audio signal may determine the type of the user's wearing space based on the , and control the volume of the external device using the communication circuit based on the audio output control method corresponding to the type of the wearing space.
  • the wearable device receives a first audio signal from an external device using a microphone while the wearable device is worn on a user's body.
  • a wearable device includes a microphone, a communication circuit for transmitting and receiving control signals to and from a plurality of external devices, and at least one processor electrically connected to the microphone and the communication circuit, wherein the at least one processor includes the wearable device
  • a third audio signal is obtained from each of a plurality of devices using a microphone in a state worn on the user's body
  • a fourth audio signal is obtained from each of a plurality of external devices using a microphone in response to the lapse of a set time, , determine the distances between the user and the plurality of external devices based on the third audio signal and the fourth audio signal, and control the volume of at least one of the plurality of external devices using a communication circuit based on the determination result have.
  • a wearable device may automatically control an audio output of an external device including an audio device or an image display device.
  • a wearable device may automatically control the volume of an external device only with a microphone and a processor included in the wearable device without a separate sensor in the space for detecting or calculating the user's space or location.
  • the wearable device according to the present disclosure may increase the user's convenience by controlling the volume of the external device using a different control method according to the type of the user's wearing space.
  • the wearable device may output a sound capable of providing a perceived volume similar to the initially set volume without receiving a user input for adjusting the volume of the external device even if the location of the user changes.
  • the wearable device may control the volume of the external device so that the sound output by the external device does not interfere with conversation.
  • FIG. 1 is a diagram illustrating an example of a system including a wearable device and an external device connected through wireless communication according to an embodiment.
  • FIG. 2 is a block diagram illustrating a configuration of a wearable device according to an exemplary embodiment.
  • FIG. 3 is a diagram illustrating an example of a type of wearing space divided based on an external device.
  • 4A is a diagram illustrating controlling a volume of an external device based on a change in a user's position in a first space, according to an exemplary embodiment.
  • 4B is a diagram illustrating a change in an audio signal based on a user's movement in a first space according to an exemplary embodiment.
  • FIG. 5 is a diagram for describing a signal processing method for determining a distance between a user and an external device based on acquired audio signals, according to an exemplary embodiment.
  • 6A is a diagram illustrating movement of a user from a first space to a second space, according to an exemplary embodiment.
  • 6B is a diagram illustrating a change in a received audio signal as a user moves from a first space to a second space, according to an embodiment.
  • FIG. 7A is a diagram illustrating movement of a user from a first space to a third space, according to an exemplary embodiment.
  • FIG. 7B is a diagram illustrating a change in a received audio signal as a user moves from a first space to a third space, according to an exemplary embodiment.
  • FIG. 8 is a flowchart of a process of controlling a volume of an external device based on a user's location in a wearable device according to an exemplary embodiment.
  • FIG. 9 is a flowchart of a process of controlling a volume of an external device by classifying a user's space type in a wearable device according to an exemplary embodiment.
  • FIG. 10 is a diagram illustrating control of a volume of an external device according to a user's utterance in a wearable device according to an exemplary embodiment.
  • 11A is a diagram illustrating a location of a user with respect to a plurality of external devices, according to an exemplary embodiment.
  • 11B is a diagram illustrating controlling a volume of at least one external device based on a distance from a plurality of external devices, according to an exemplary embodiment.
  • FIG. 12 is a block diagram of an electronic device in a network environment according to an embodiment.
  • FIG. 1 is a diagram illustrating an example in which a wearable device is connected to an external device by wireless communication according to an exemplary embodiment.
  • the wearable device 100 of FIG. 1 may be a smart watch as shown.
  • the present invention is not limited thereto, and the wearable device 100 may be a device of various types that can be used while being attached to a user's body.
  • the wearable device 100 may include a head mounted device (HMD) or smart glasses.
  • HMD head mounted device
  • the wearable device 100 may include the strap 130 , and the strap 130 may be attached to the user's body by being wound around the user's wrist.
  • the present invention is not limited thereto, and the wearable device 100 may be attached to various body parts of the user according to the shape and size of the wearable device 100 .
  • the wearable device 100 may also be attached to a hand, the back of a hand, a finger, a fingernail, a fingertip, or the like.
  • the external device 110 of FIG. 1 may be a speaker as shown.
  • the present invention is not limited thereto, and the external device 110 may be various types of electronic devices that output sound at a temporarily fixed position.
  • it may include an audio device (eg, a connected speaker) and an image display device (eg, a network TV, HBBTV, smart TV, smart phone, notebook computer, tablet PC).
  • an audio device eg, a connected speaker
  • an image display device eg, a network TV, HBBTV, smart TV, smart phone, notebook computer, tablet PC.
  • the external device 110 may output audio data (eg, music data, audio data included in a moving picture) stored in the internal memory.
  • the external device 110 may establish a wireless communication channel with the wearable device 100 .
  • the communication circuit 230 is a communication module of Bluetooth (Bluetooth), RF (Radio Frequency) communication, infrared (IR) communication, Wi-Fi (WIFI), UWB (Ultra-wideband) and / or Zigbee (Zigbee) communication module. is available.
  • the external device 110 may receive and output audio data from the wearable device 100 through a channel connection.
  • FIG. 2 is a block diagram illustrating a configuration of a wearable device according to an exemplary embodiment.
  • the wearable device 100 may include a processor 210 , a microphone 220 , a communication circuit 230 , and a memory 240 .
  • the wearable device 100 may include additional components in addition to the components illustrated in FIG. 2 or may omit at least one of the components illustrated in FIG. 2 .
  • the components listed above may be operatively or electrically connected to each other.
  • the wearable device 100 may omit at least some of the components illustrated in FIG. 2 or may further include other components. Some of the components of the wearable device 100 illustrated in FIG. 2 may be replaced with other components performing similar functions.
  • the components illustrated in FIG. 2 may include at least one piece of hardware.
  • the processor 210 may control the overall operation of the wearable device 100 .
  • the processor 210 may be electrically connected to the microphone 220 , the communication circuit 230 , and the memory 240 to perform a specified operation.
  • the processor 210 may execute an operation or data processing related to control and/or communication of at least one other component of the wearable device 100 using instructions stored in the memory 240 .
  • the processor 210 includes a central processing unit (CPU), a graphics processing unit (GPU), a micro controller unit (MCU), a sensor hub, a supplementary processor, a communication processor, and an application. It may include at least one of a processor (application processor), application specific integrated circuit (ASIC), and field programmable gate arrays (FPGA), and may have a plurality of cores.
  • the microphone 220 may acquire an external sound and analyze the acquired external sound. For example, the microphone 220 may obtain a sound from the external device 110 and convert it into an audio signal. According to an embodiment, the microphone 220 may receive the user's utterance of the wearable device 100 and convert it into an electrical signal.
  • the communication circuit 230 may communicate with the external device 110 described with reference to FIG. 1 .
  • the wearable device 100 may transmit a control signal to the external device 110 using the communication circuit 230 .
  • the wearable device 100 may transmit audio data to the external device 110 using the communication circuit 230 .
  • the memory 240 may store various data acquired or used by at least one component (eg, a processor, a microphone) of the wearable device 100 .
  • the memory 240 may store audio data to be output through the external device 110 .
  • the memory 240 may store information about the user's utterance of the wearable device 100 acquired using the microphone 220 .
  • the processor 210 may obtain an audio signal from the external device 110 using the microphone 220 while the wearable device 100 is worn on the user's body. For example, when the external device 110 outputs sound (audio data), the microphone 220 may convert the detected sound into an electrical signal and provide it to the processor 210 . According to an embodiment, the external device 110 may output a sound based on audio data stored in an internal memory of the external device 110 or audio data received from the wearable device 100 .
  • the processor 210 may control the volume of the external device 110 using the communication circuit 230 .
  • the processor 210 may control the volume of the external device 110 based on a user input (eg, a volume control button touch input, a voice signal input) for controlling the volume of the external device 110 .
  • a user input eg, a volume control button touch input, a voice signal input
  • the processor 210 transmits a volume control signal to the external device 110 using the communication circuit 230 , and the external device 110 adjusts the volume of the output sound based on the received volume control signal.
  • the processor 210 may acquire the first audio signal through the microphone 220 based on the volume control of the external device 110 through a user input. For example, when there is no user input for a predetermined time after continuous user input for volume control, the processor 210 may obtain the first audio signal through the microphone 220 . Accordingly, the processor 210 includes information on the sound detected by the wearable device 100 through the microphone 220 while the external device 110 outputs the sound based on the volume adjusted by the user input. A first audio signal may be obtained. That is, when the processor 210 performs an input for controlling the volume of the external device 110 according to the user's desired volume, the first audio signal from the external device 110 through the microphone 220 based on the user input can be obtained. The processor 210 may store the first audio signal in the memory 240 .
  • the processor 210 may obtain the second audio signal from the external device 110 using the microphone 220 .
  • the processor 210 may acquire the second audio signal after a set time elapses after acquiring the first audio signal. For example, the processor 210 may periodically acquire the second audio signal every 10 seconds after there is a user input for volume control.
  • the processor 210 may continuously acquire the second audio signal from the external device 110 using the microphone 220 .
  • the processor 210 may acquire the second audio signal in response to the movement of the wearable device 100 .
  • the processor 210 detects movement information (eg, an acceleration value) of the wearable apparatus 100 using a motion sensor included in the wearable apparatus 100 , and the size of the movement information is critical. When the value is greater than or equal to the value, the second audio signal may be acquired.
  • movement information eg, an acceleration value
  • the processor 210 may determine the type of the user's wearable device 100 wearing space based on the first audio signal and the second audio signal. A description of the type of the wearing space according to an embodiment will be described later with reference to FIG. 3 .
  • the processor 210 may determine the type of the wearing space of the wearable device 100 by comparing the first audio signal and the second audio signal. For example, it may be determined whether it is in the same space as the external device 110 among a plurality of separated spaces. According to an embodiment, the processor 210 may determine the distance from the external device 110 to the user wearing the wearable device 100 by comparing the first audio signal and the second audio signal. For example, the processor 210 may determine the distance between the user and the external device 110 when acquiring the first audio signal and the distance between the user and the external device 110 when acquiring the second audio signal. have. Accordingly, the processor 210 may determine a change in the distance of the user from the external device 110 according to the time point at which the first audio signal is obtained and the time point at which the second audio signal is obtained.
  • the processor 210 controls the volume of the external device 110 using the communication circuit 230 based on a volume control method corresponding to the type of the wearing space of the user wearing the wearable device 100 .
  • the processor 210 sets the types of the wearing space of the plurality of wearable devices 100 and stores data on the volume control method of the external device 110 corresponding to each of the types of the wearing space in memory. (240) can be stored.
  • the processor 210 may control the volume of the external device 110 in a volume control method corresponding to the determined type of wearing space based on the volume control method stored in the memory 240 .
  • the processor 210 may transmit the volume control signal to the external device 110 through the communication circuit 230 based on the volume control method corresponding to the type of the wearing space.
  • the external device 110 may receive a volume control signal and output a sound based on the received volume control signal.
  • FIG. 3 is a diagram illustrating an example of a type of wearing space divided based on an external device.
  • the type of the wearing space of the user who wears the wearable device 100 may be divided into a plurality of types. According to various embodiments, the type of the wearing space is not limited to the type of the wearing space described with reference to FIG. 3 , and may be distinguished through various criteria.
  • the type of the wearing space may be classified based on various criteria. For example, the type of the wearing space may be classified based on the size of the space and the existence of an object disposed in the space. According to an embodiment, the type of the wearing space may be classified based on the location of the external device 300 (eg, the external device 110 of FIG. 1 ) in the space and the location of the user. According to an embodiment, the type of the wearing space may be divided into a first space 310 , a second space 320 , and a third space 330 .
  • the first space 310 may represent an open space in which there is no object such as a wall disposed between the external device 300 and the user.
  • the first space 310 may represent a living space in which the external device 300 for outputting audio is located.
  • the second space 320 may represent a space in which an object such as a wall is disposed between the external device 300 and the user.
  • the second space 320 may represent a space in which an audio signal output from the external device 300 is refracted and delivered to the user by being blocked by a structure such as a wall between the external device 300 and the user.
  • the second space is a space partially blocked by a structure such as a wall between the external device 300 and the user, and may represent a half opened space.
  • the wearable device 100 user's general home is described as a reference
  • the second space 310 is a living room through a structure such as a wall while the external device 300 for outputting audio is located in the living space. and may represent a partially separated kitchen.
  • the third space 330 may represent a space completely separated by an object such as a wall between the external device 300 and the user. Specifically, the third space 330 may represent a space blocked in all directions by a structure such as a wall between the external device 300 and the user. According to an embodiment, the third space 330 is a space between the external device 300 and a user blocked by a structure such as a wall, and may represent a closed space. For example, if the wearable device 100 user's general home is described as the basis, the third space 330 is separated through a structure such as a wall while the external device 300 for outputting audio is located in the living space. This can represent a room that can be accessed through a door. Accordingly, when the user is located in the third space 330 , it may be assumed that the user has no intention to listen to the audio output through the external device 110 .
  • the wearable device 100 may identify whether the type of space in which the wearable device 100 is located has changed based on a comparison result between audio signals received through the microphone 220 .
  • the division of the wearing space shown in FIG. 3 is for explaining an embodiment, and the type of space divided by the wearable device 100 may be divided into other forms.
  • 4A is a diagram illustrating controlling a volume of an external device based on a change in a user's position in a first space, according to an exemplary embodiment.
  • 4B is a diagram illustrating a change in an audio signal based on a user's movement in a first space according to an exemplary embodiment.
  • an audio signal may be expressed based on a frequency.
  • a vertical axis may represent a volume
  • a horizontal axis may represent a frequency.
  • the horizontal axis of the graph may represent the low-pitched sound part LF to the high-pitched sound part HF.
  • a user wearing the wearable device 100 on the body may move in the first space 310 .
  • the user may move from the first location 410 to the second location 420 away from the external device 300 by a first distance a.
  • the second location 420 may indicate a location separated by a second distance b from the external device 300 .
  • the processor 210 may obtain the first audio signal 411 from the external device 300 using the microphone 220 at the first location 410 .
  • the processor 210 may determine a position where the volume of the external device 300 is controlled as the first position 410 based on a user input received by the wearable device 100 .
  • the processor 210 obtains at least one user input for controlling the volume of the external device 300 at the first location 410 , and a specified time after the at least one user input is obtained. If an additional user input is not obtained during this time, the first audio signal 411 may be obtained.
  • the processor 210 repeatedly receives a user input for increasing the volume of the external device 300 in three steps to increase the volume by three steps, and then, if the user input is not received for 2 seconds, the microphone 220 ) to obtain an audio signal.
  • the processor 210 may obtain the second audio signal 421 from the external device 300 using the microphone 220 at the second location 420 .
  • the size of the audio signal output from the external device 300 acquired through the microphone 220 may change. have.
  • the volume of the audio signal received through the microphone 220 may be decreased or increased.
  • the processor 210 may determine that the user's location has changed based on a change in the volume of the received audio signal. For example, the processor 210 may determine that the user's location has changed with respect to the external device 300 based on the first audio signal 411 and the second audio signal 421 .
  • the processor 210 may determine that the volume of the low-pitched sound part LF and the high-pitched sound part HF has been reduced in the second audio signal 421 as compared to the first audio signal 411 . Accordingly, the processor 210 may determine that the distance of the user from the external device 300 has increased based on the overall decrease in the volume. For convenience of explanation, only the second audio signal 421 based on the user's distance from the external device 300 is shown through FIG. 4B , but the distance between the user and the external device 300 may be variously changed.
  • the processor 210 may identify a change in the distance between the user and the external device 300 based on the second audio signal 421 .
  • the processor 210 may determine the distance between the external device 300 and the user based on a time or volume difference between the first audio signal 411 and the second audio signal 421 .
  • the content of determining the change in the user's location will be described later with reference to FIG. 5 .
  • the processor 210 may transmit a control signal for controlling the volume of the external device 300 based on a change in the distance between the external device 300 and the user through the communication circuit 230 .
  • the first distance a is smaller than the second distance b (or when the volume of the first audio signal is greater than the volume of the second audio signal, or when the first audio signal is 2, when a time delay occurs in the audio signal), that is, as the user's location from the external device 300 changes from the first location 410 to the second location 420, it may be assumed that the user moves away from each other.
  • the volume of the audio output from the external device 300 recognized by the user may be reduced.
  • the processor 210 receives a control signal for increasing the volume of the external device 300 when the user's location is further away from the external device 300 in the second location 420 compared to the first location 410 . It can be transmitted to the external device 300 . According to an embodiment, the external device 300 may increase the volume based on the received control signal.
  • the first distance (a) is greater than the second distance (b), that is, as the user's location from the external device 300 changes from the first location 410 to the second location 420 . It can be assumed that close According to an embodiment, when the distance of the user from the external device 300 is increased, the volume of the audio output from the external device 300 recognized by the user may be increased. Accordingly, when the position of the wearable device in the second position 420 is closer to the external device 300 than in the first position 410 , the processor 210 decreases the volume of the external device 300 . may be transmitted to the external device 300 . According to an embodiment, the external device 300 may reduce the volume based on the received control signal.
  • the wearable device 100 determines a change in the user's position based on the audio signal of the external device 300 acquired through the microphone 220 and automatically controls the volume, the wearable device 100 A user of can listen to the audio output from the external device 300 at a similar perceived volume.
  • the processor 210 may control the volume of the external device 300 within a predetermined range. For example, the processor 210 may set a minimum volume and a maximum volume of the volume of the external device 300 , and may control the volume of the external device 300 in a range from the minimum volume to the maximum volume. According to an embodiment, the minimum volume and the maximum volume may be set based on a user input received by the wearable device 100 .
  • FIG. 5 is a diagram illustrating determination of a distance between a user and an external device based on acquired audio signals 500 according to an exemplary embodiment.
  • the acquired audio signals 500 include an original audio signal 510 of audio data output through the external device 300 , a first audio signal 520 acquired at a first position, and a change in position. It may include the second audio signal 523 obtained according to .
  • the processor 210 may determine the distance between the user and the external device 300 based on the acquired audio signals 500 . According to an embodiment, when the external device 300 outputs audio data stored in the internal memory, the processor 210 controls the original audio signal ( 510) can be obtained. According to another embodiment, when the external device 300 receives and outputs audio data from the wearable device 100 , the processor 210 may acquire the original audio signal 510 stored in the memory 240 . According to another embodiment, the processor 210 may receive the original audio signal 510 from the external device 300 or a separate external server (not shown) through the communication circuit 230 .
  • the processor 210 may remove the first noise 521 included in the first audio signal 520 with reference to the original audio signal 510 . According to an embodiment, the processor 210 may obtain the second audio signal 523 from which noise has been removed by referring to the original audio signal 510 . Accordingly, the processor 210 may obtain the first audio signal and the second audio signal from which the noise has been removed.
  • the processor 210 determines the type of the user's wearing space based on the noise-removed first audio signal and the noise-removed second audio signal 523 , and communicates with the external device 300 and the external device 300 . It is possible to determine the distance of the user. For example, based on the time difference t or the volume difference a between the noise-removed first audio signal and the noise-removed second audio signal 523, the external device 300 and the user distance can be determined.
  • the processor 210 may determine the distance between the user and the external device 300 by using the acquired audio signals 500 and various distance measurement techniques. For example, the processor 210 may determine the distance between the electronic device 100 and the external device 300 using ultra-wideband communication with the external device 300 . As another example, the processor 210 may perform a communication between the electronic device 100 and the external device 300 based on a received signal strength indicator (RSSI) of a wireless communication signal received from the external device 300 . You can also judge the distance.
  • RSSI received signal strength indicator
  • 6A is a diagram illustrating movement of a user from a first space to a second space, according to an exemplary embodiment.
  • 6B is a diagram illustrating a change in a received audio signal as a user moves from a first space to a second space, according to an embodiment.
  • a user wearing the wearable device 100 on the body may move from the first space 310 to the second space 320 .
  • the user may move from a first location 410 in the first space 310 to a third location 610 in the second space 320 .
  • the processor 210 may obtain the first audio signal 411 from the external device 300 using the microphone 220 at the first location 410 .
  • the processor 210 may acquire the third audio signal 611 from the external device 300 using the microphone 220 at the third location 610 .
  • the size of the audio output of the external device 300 obtained through the microphone 220 may be changed. Also, as the user moves from the first space 310 to the second space 320 .
  • the audio signal may be received with a different volume for each frequency. For example, as the type of the user's wearing space of the wearable device 100 is changed to the second space 320 which is a semi-open/closed space, the sound wave in the low frequency band is transmitted to the microphone 220 by the diffraction phenomenon and , high-frequency band sound waves can be blocked.
  • the treble frequency region may indicate a frequency region of 1 kHz or more.
  • the processor 210 determines the type of the user's wearing space based on the change in the volume for each frequency of the third audio signal 611 acquired using the microphone 220 at the third location 610 . It may be determined that the first space 310 is changed to the second space 320 . For example, the processor 210 compares the first audio signal 411 with the type of the wearing space based on the difference between the volume decay rate of the high-pitched frequency region and the volume decay rate of the low-pitched frequency region of the third audio signal 611 . It may be determined that this is the second space 320 .
  • the processor 210 is configured to allow the external device 300 to maintain the volume based on the change of the user's wearing space from the first space 310 to the second space 320, so that the communication circuit 230 ) to transmit a control signal. For example, if the type of the user's wearing space corresponds to the second space 320 , the processor 210 determines that the wearable device 100 receives the external device ( The external device 300 may be controlled to maintain the volume of the sound output from the 300 . Accordingly, even if the user's location changes with respect to the external device 300 , the processor 210 may adjust the volume of the external device 300 within a predetermined range. For example, when the high-frequency band volume of the third audio signal 611 is attenuated, the electronic device 100 may increase the high-frequency band volume of the sound output from the external device 300 .
  • 7A is a diagram illustrating movement of a user from a first space to a third space, according to an exemplary embodiment.
  • 7B is a diagram illustrating a change in a received audio signal as a user moves from a first space to a third space, according to an exemplary embodiment.
  • a user wearing the wearable device 100 on the body may move from the first space 310 to the third space 330 .
  • the user may move from the first location 410 to the fourth location 710 in the third space 330 .
  • the processor 210 may acquire the first audio signal 411 from the external device 300 using a microphone at the first location 410 . In an embodiment, the processor 210 may obtain the fourth audio signal 711 from the external device 300 using the microphone 220 at the fourth location 710 .
  • the size of the audio output of the external device 300 obtained through the microphone 220 may be changed.
  • the audio output of the external device 300 obtained through the microphone 220 is The volume can be greatly reduced.
  • the volume level of the fourth audio signal 711 for each frequency may be greatly reduced.
  • the processor 210 determines the type of the user's wearing space to be the first based on the change in the volume of the fourth audio signal 711 acquired using the microphone 220 at the fourth location 710 . It may be determined that the space 310 is changed to the third space 330 . For example, the processor 210 may set a threshold value for determining that it is the third space 330 . The processor 210 may determine that the user's location is changed from the first space 310 to the third space 330 when the volume of each frequency of the fourth audio signal 711 is equal to or less than a threshold value. According to various embodiments, the threshold value may be set in various ways. According to an embodiment, the threshold value may be determined based on the first audio signal 411 . For example, a value (eg, a quarter value of the volume) reduced by a predetermined level based on the first audio signal 411 may be set as the threshold value.
  • a value eg, a quarter value of the volume
  • the processor 210 communicates so that the external device 300 sets the volume to the minimum volume based on the change in the type of the user's wearing space from the first space 310 to the third space 330 .
  • a control signal may be transmitted through the circuit 230 .
  • the processor 210 determines that the user no longer has a will to listen, and controls the volume of the external device 300 to the minimum volume.
  • the reference of the minimum volume may be preset to various values by the processor 210 .
  • the processor 210 may reduce unnecessary sound output by controlling the volume of the external device 300 to the minimum volume based on the change in the type of the user's wearing space to the third space 330 . have.
  • FIG. 8 is a flowchart 800 of a process of controlling a volume of an external device based on a user's location in a wearable device according to an embodiment.
  • the processor 210 of the wearable device 100 may acquire a first audio signal at a first location through the microphone 220 in operation 801 .
  • the first audio signal may be obtained from the external device 300 through the microphone 220 .
  • the microphone 220 may obtain a sound output from the external device 300 and convert the obtained sound into a first audio signal.
  • the first location may be determined based on a user input controlling the volume of the external device 300 .
  • the processor 210 sets a first position based on a user input for controlling the volume of the external device 300 and obtains a first position using the microphone 220 at the first position.
  • a first audio signal may be obtained based on the sound.
  • the processor 210 may acquire the first audio signal based on the last user input. . According to another embodiment, when starting audio reproduction through the external device 300 , the processor 210 may acquire the first audio signal.
  • the processor 210 may acquire a second audio signal from the external device 300 at a second location using the microphone 220 .
  • the second location may indicate a location of the first space 310 , the second space 320 , or the third space 330 described with reference to FIG. 3 .
  • the processor 210 may determine the type of the wearable space of the user of the wearable device 100 based on the first audio signal and the second audio signal. For example, the processor 210 obtains a sound output from the external device 300 using the microphone 220 , and determines the type of the wearing space based on a first audio signal and a second audio signal based on the obtained sound. can judge The processor 210 may determine the type of the wearing space based on the change amount of the second audio signal based on the first audio signal. According to an embodiment, the type of the wearing space may include the first space 310 , the second space 320 , or the third space 330 .
  • the processor 210 may control the volume of the external device 300 based on the audio output control method of the external device 300 corresponding to the determined type of wearing space. .
  • the processor 210 may transmit a control signal through the communication circuit 230 based on an audio output control method corresponding to the type of the wearing space.
  • the external device 300 may control the audio output based on the received control signal.
  • the processor 210 may control the audio output of the external device 300 differently according to the type of the wearing space.
  • FIG. 9 is a flowchart 900 of a process of controlling a volume of an external device by classifying a user's space type in a wearable device according to an embodiment.
  • the processor 210 may acquire the first audio signal in response to the user's volume setting.
  • the processor 210 may obtain the first audio signal from the external device 300 using the microphone 220 .
  • the processor 210 sets a position at which the volume of the external device 300 is controlled to a first position based on a user input of the wearable device 100 , and the audio signal obtained from the first position is the second position. 1 may be an audio signal.
  • the processor 210 may share information related to the original audio signal with the external device 300 .
  • audio data stored in the internal memory of the external device 300 may be output.
  • the external device 300 may receive and output audio data from the wearable device 100 .
  • the processor 210 may receive information about the original audio data from the external device 300 using the communication circuit 230 .
  • the processor 210 may omit operation 903 .
  • the wearable device 100 receives audio data from the external server or the external device 300 . You may.
  • the processor 210 may acquire the second audio signal from the external device 300 using the microphone 220 in operation 905 . According to an embodiment, the processor 210 may acquire the second audio signal as a set time elapses after acquiring the first audio signal. In an embodiment, the processor 210 may continuously acquire the second audio signal.
  • the processor 210 may determine whether the type of the user's wearing space is the first space 310 based on the first audio signal and the second audio signal. For example, when the volume of the second audio signal is decreased or increased compared to the first audio signal, the processor 210 may determine that the type of the user's wearing space is the first space 310 . According to an embodiment, when it is determined that the user is in the first space 310 , the processor 210 may determine the distance between the user and the external device 300 in operation 909 . According to an embodiment, the processor 210 may separate noise from the first audio signal based on the information related to the original audio signal obtained in operation 903 .
  • the processor 210 may separate noise from the second audio signal based on information related to the original audio signal. According to an embodiment, the processor 210 may determine the distance between the external device 300 and the user based on the first audio signal and the second audio signal from which the noise is separated. For example, the processor 210 compares the distance between the user and the external device 300 when acquiring the first audio signal to determine whether the distance between the external device 300 and the user is greater when acquiring the second audio signal. You can determine whether it is close or not. In an embodiment, when the volume of the second audio signal is increased compared to the first audio signal, the processor 210 may determine that the distance between the external device 300 and the user is getting closer. In another embodiment, when the volume of the second audio signal is reduced compared to the first audio signal, the processor 210 may determine that the distance between the external device 300 and the user is increased.
  • the processor 210 may control the volume of the external device 300 based on the determined distance in operation 911 . According to an embodiment, the processor 210 may transmit a control signal for controlling the volume of the external device 300 through the communication circuit 230 based on the determined distance. In an embodiment, when the distance between the user and the external device 300 is closer than when obtaining the first audio signal, the processor 210 generates a control signal for reducing the volume of the external device 300, The communication circuit 230 may be used to transmit. In another embodiment, when the distance between the user and the external device 300 is greater than when acquiring the first audio signal, the processor 210 generates a control signal for increasing the volume of the external device 300, The communication circuit 230 may be used to transmit. Accordingly, the user may listen at a perceived volume similar to that when acquiring the first audio signal without directly controlling the volume of the external device 300 .
  • the processor 210 determines whether the type of the user's wearing space is the second space 320 .
  • the processor 210 may determine whether the type of the user's wearing space is the second space 320 based on the first audio signal and the second audio signal.
  • the processor 210 determines the type of the user's wearing space. It may be determined that it is the second space 320 .
  • the processor 210 may transmit a control signal through the communication circuit 230 so that the volume of the external device 300 is not increased or decreased even when the user's location changes. According to an embodiment, the processor 210 may control the external device 300 to maintain the last volume before it is determined as the second space 320 . According to an embodiment, the external device 300 may maintain the volume based on a control signal for maintaining the volume.
  • the processor 210 may determine that the type of the user's wearing space is the third space 330 .
  • the processor 210 determines that the type of the user's wearing space is the third space 330 .
  • the threshold value may be a value predefined by the processor 210 .
  • the processor 210 may set a threshold value based on the first audio signal.
  • the processor 210 may generate a control signal to control the volume of the external device 300 to a minimum volume, and transmit the control signal through the communication circuit 230 .
  • the processor 210 may set the minimum volume.
  • the external device 300 may output audio at a minimum volume based on the received control signal.
  • FIG. 10 is a diagram illustrating control of a volume of an external device according to a user's utterance in a wearable device according to an exemplary embodiment.
  • the processor 210 may determine whether the user's utterance is included in the second audio signal described with reference to FIG. 9 .
  • the processor 210 may acquire the sound of the user and the external device 300 through the microphone 220 .
  • the processor 210 may use the user's utterance information stored in the memory 240 to determine whether the user's utterance is included.
  • the memory 240 may store information about the user's voice of the wearable device 100 . The information about the voice may be obtained when the user makes a utterance.
  • the processor 210 may control the volume of the external device 300 to be less than or equal to a reference value.
  • the processor 210 may set the reference value at a volume level that does not interfere with the user's utterance.
  • the processor 210 may generate a control signal for controlling the volume of the external device 300 to be less than or equal to a reference value, and transmit the generated control signal through the communication circuit 230 .
  • the processor 210 reduces the volume of the external device 300 to a reference value or less when the user's speech starts, and determines when the speech ends to reduce the volume of the external device 300 to the original volume.
  • the processor 210 may determine that the user's speech has started. In addition, when the user's voice is not included in the audio signal acquired through the microphone 220 for a specified time, the processor 210 may determine that the user's utterance has ended.
  • 11A is a diagram illustrating a location of a user with respect to a plurality of external devices, according to an exemplary embodiment.
  • 11B is a diagram illustrating controlling a volume of at least one external device based on a distance from a plurality of external devices, according to an exemplary embodiment.
  • the user of the wearable device 100 may listen to audio output from the plurality of external devices A to D using the plurality of external devices A to D. have.
  • the user's location may change to the first location 1110 , the second location 1120 , and/or the third location 1130 based on the plurality of external devices A to D. .
  • the first location 1110 may indicate a location where the distance of the user from each of the plurality of external devices A to D is the same.
  • the second location 1120 has a shorter distance between the first external device A and the user, and the second to fourth external devices B, C, and D, compared to the first location 1110 .
  • Fields and distances may indicate distant locations.
  • the third location 1130 is closer to the third and fourth external devices C and D than the first location 1110 , and the first and second external devices A , B) and the distance can represent distant locations.
  • the four external devices A to D and the first to third positions 1110 to 1130 have been described as the basis, but the number of external devices and the location of the user are not limited thereto. can be varied.
  • the user's Perceived loudness can vary.
  • the processor 210 acquires the sound output from the plurality of external devices A to D using the microphone 220 , and uses an audio signal based on the acquired sound to determine the user's position at the first position ( 1110) can be determined.
  • the processor 210 may set the plurality of external devices A to D so that the volumes of the plurality of external devices A to D are all the same based on the user's location being the first location 1110 . can be controlled.
  • the distance between the first external device A and the user may be close, and the distance from the second to fourth external devices B, C, and D may be greater. Accordingly, the perceived volume of each of the plurality of external devices A to D perceived by the user may be different. For example, as the user's position changes to the second position 1120 , the perceived volume of the sound output from the first external device A increases, and the second to fourth external devices B to D The perceived volume of the output sound may be decreased.
  • the processor 210 acquires the sound output from the plurality of external devices A to D using the microphone 220, and uses an audio signal based on the acquired sound to determine the user's position at the second position ( 1120) can be determined. In an embodiment, the processor 210 reduces the volume of the first external device A and the volume of the second to fourth external devices B to D based on the user's location being the second location 1120 . may control the plurality of external devices A to D to increase the .
  • the third location graph 1131 indicating the distance and the volume of the plurality of external devices A to D based on the third location
  • the distance from the third and fourth external devices C and D may be close, and the distance from the first and second external devices A and B may be far. Accordingly, the perceived volume of each of the plurality of external devices A to D perceived by the user may be different. For example, as the user's location changes to the third location 1130 , the perceived volume of sounds output from the third and fourth external devices C and D increases, and the first and second external devices C and D increase. The perceived volume of the sound output from (A, B) may be reduced.
  • the processor 210 acquires the sound output from the plurality of external devices A to D using the microphone 220, and uses an audio signal based on the acquired sound to determine the user's position at the third position ( 1130) can be determined. In an embodiment, the processor 210 increases the volume of the first and second external devices A and B based on the user's location being the third location 1130, and increases the volume of the third and fourth external devices ( The plurality of external devices A to D may be controlled to increase the volume of C and D).
  • the processor 210 may utilize various distance measurement techniques to determine the user's location.
  • the processor 210 may utilize not only the audio signal acquired through the microphone 220 but also the ultra-wideband wireless distance measurement technology.
  • FIG. 12 is a block diagram of an electronic device 1201 in a network environment 1200, according to various embodiments.
  • the electronic device 1201 communicates with the electronic device 1202 through a first network 1298 (eg, a short-range wireless communication network) or a second network 1299 . It may communicate with at least one of the electronic device 1204 and the server 1208 through (eg, a long-distance wireless communication network). According to an embodiment, the electronic device 1201 may communicate with the electronic device 1204 through the server 1208 .
  • a first network 1298 eg, a short-range wireless communication network
  • a second network 1299 e.g., a second network 1299
  • the electronic device 1201 may communicate with the electronic device 1204 through the server 1208 .
  • the electronic device 1201 includes a processor 1220 , a memory 1230 , an input module 1250 , a sound output module 1255 , a display module 1260 , an audio module 1270 , and a sensor module ( 1276), interface 1277, connection terminal 1278, haptic module 1279, camera module 1280, power management module 1288, battery 1289, communication module 1290, subscriber identification module 1296 , or an antenna module 1297 .
  • at least one of these components eg, the connection terminal 1278
  • some of these components are integrated into one component (eg, display module 1260). can be
  • the processor 1220 executes software (eg, a program 1240) to execute at least one other component (eg, a hardware or software component) of the electronic device 1201 connected to the processor 1220. It can control and perform various data processing or operations. According to one embodiment, as at least part of data processing or operation, the processor 1220 may store commands or data received from other components (eg, the sensor module 1276 or the communication module 1290 ) into the volatile memory 1232 . may be stored in , process commands or data stored in the volatile memory 1232 , and store the result data in the non-volatile memory 1234 .
  • software eg, a program 1240
  • the processor 1220 may store commands or data received from other components (eg, the sensor module 1276 or the communication module 1290 ) into the volatile memory 1232 .
  • the processor 1220 is the main processor 1221 (eg, a central processing unit or an application processor) or a secondary processor 1223 (eg, a graphics processing unit, a neural network processing unit) a neural processing unit (NPU), an image signal processor, a sensor hub processor, or a communication processor).
  • the main processor 1221 e.g, a central processing unit or an application processor
  • a secondary processor 1223 e.g, a graphics processing unit, a neural network processing unit
  • a neural processing unit e.g., a neural processing unit (NPU), an image signal processor, a sensor hub processor, or a communication processor.
  • the coprocessor 1223 may be, for example, on behalf of the main processor 1221 while the main processor 1221 is in an inactive (eg, sleep) state, or the main processor 1221 is active (eg, executing an application). ), together with the main processor 1221, at least one of the components of the electronic device 1201 (eg, the display module 1260, the sensor module 1276, or the communication module 1290) It is possible to control at least some of the related functions or states.
  • coprocessor 1223 eg, image signal processor or communication processor
  • may be implemented as part of another functionally related component eg, camera module 1280 or communication module 1290. have.
  • the auxiliary processor 1223 may include a hardware structure specialized for processing an artificial intelligence model.
  • Artificial intelligence models can be created through machine learning. Such learning may be performed, for example, in the electronic device 1201 itself on which the artificial intelligence model is performed, or may be performed through a separate server (eg, the server 1208).
  • the learning algorithm may include, for example, supervised learning, unsupervised learning, semi-supervised learning, or reinforcement learning, but in the above example not limited
  • the artificial intelligence model may include a plurality of artificial neural network layers.
  • Artificial neural networks include deep neural networks (DNNs), convolutional neural networks (CNNs), recurrent neural networks (RNNs), restricted boltzmann machines (RBMs), deep belief networks (DBNs), bidirectional recurrent deep neural networks (BRDNNs), It may be one of deep Q-networks or a combination of two or more of the above, but is not limited to the above example.
  • the artificial intelligence model may include, in addition to, or alternatively, a software structure in addition to the hardware structure.
  • the memory 1230 may store various data used by at least one component of the electronic device 1201 (eg, the processor 1220 or the sensor module 1276).
  • the data may include, for example, input data or output data for software (eg, a program 1240) and instructions related thereto.
  • the memory 1230 may include a volatile memory 1232 or a non-volatile memory 1234 .
  • the program 1240 may be stored as software in the memory 1230 , and may include, for example, an operating system 1242 , middleware 1244 , or an application 1246 .
  • the input module 1250 may receive a command or data to be used by a component (eg, the processor 1220 ) of the electronic device 1201 from the outside (eg, a user) of the electronic device 1201 .
  • the input module 1250 may include, for example, a microphone, a mouse, a keyboard, a key (eg, a button), or a digital pen (eg, a stylus pen).
  • the sound output module 1255 may output a sound signal to the outside of the electronic device 1201 .
  • the sound output module 1255 may include, for example, a speaker or a receiver.
  • the speaker can be used for general purposes such as multimedia playback or recording playback.
  • the receiver can be used to receive incoming calls. According to one embodiment, the receiver may be implemented separately from or as part of the speaker.
  • the display module 1260 may visually provide information to the outside (eg, a user) of the electronic device 1201 .
  • the display module 1260 may include, for example, a display, a hologram device, or a projector and a control circuit for controlling the corresponding device.
  • the display module 1260 may include a touch sensor configured to sense a touch or a pressure sensor configured to measure the intensity of a force generated by the touch.
  • the audio module 1270 may convert a sound into an electric signal or, conversely, convert an electric signal into a sound. According to an embodiment, the audio module 1270 acquires a sound through the input module 1250 or an external electronic device (eg, a sound output module 1255 ) directly or wirelessly connected to the electronic device 1201 .
  • the electronic device 1202) eg, a speaker or headphones
  • the sensor module 1276 detects an operating state (eg, power or temperature) of the electronic device 1201 or an external environmental state (eg, user state), and generates an electrical signal or data value corresponding to the sensed state. can do.
  • the sensor module 1276 may include, for example, a gesture sensor, a gyro sensor, a barometric pressure sensor, a magnetic sensor, an acceleration sensor, a grip sensor, a proximity sensor, a color sensor, an IR (infrared) sensor, a biometric sensor, It may include a temperature sensor, a humidity sensor, or an illuminance sensor.
  • the interface 1277 may support one or more specified protocols that may be used for the electronic device 1201 to directly or wirelessly connect with an external electronic device (eg, the electronic device 1202 ).
  • the interface 1277 may include, for example, a high definition multimedia interface (HDMI), a universal serial bus (USB) interface, an SD card interface, or an audio interface.
  • HDMI high definition multimedia interface
  • USB universal serial bus
  • SD card interface Secure Digital Card
  • connection terminal 1278 may include a connector through which the electronic device 1201 can be physically connected to an external electronic device (eg, the electronic device 1202 ).
  • the connection terminal 1278 may include, for example, an HDMI connector, a USB connector, an SD card connector, or an audio connector (eg, a headphone connector).
  • the haptic module 1279 may convert an electrical signal into a mechanical stimulus (eg, vibration or movement) or an electrical stimulus that the user can perceive through tactile or kinesthetic sense.
  • the haptic module 1279 may include, for example, a motor, a piezoelectric element, or an electrical stimulation device.
  • the camera module 1280 may capture still images and moving images. According to one embodiment, the camera module 1280 may include one or more lenses, image sensors, image signal processors, or flashes.
  • the power management module 1288 may manage power supplied to the electronic device 1201 .
  • the power management module 1288 may be implemented as, for example, at least a part of a power management integrated circuit (PMIC).
  • PMIC power management integrated circuit
  • the battery 1289 may supply power to at least one component of the electronic device 1201 .
  • battery 1289 may include, for example, a non-rechargeable primary cell, a rechargeable secondary cell, or a fuel cell.
  • the communication module 1290 is a direct (eg, wired) communication channel or a wireless communication channel between the electronic device 1201 and an external electronic device (eg, the electronic device 1202, the electronic device 1204, or the server 1208). It can support establishment and communication performance through the established communication channel.
  • the communication module 1290 operates independently of the processor 1220 (eg, an application processor) and may include one or more communication processors supporting direct (eg, wired) communication or wireless communication.
  • the communication module 1290 may include a wireless communication module 1292 (eg, a cellular communication module, a short-range wireless communication module, or a global navigation satellite system (GNSS) communication module) or a wired communication module 1294 (eg, : It may include a local area network (LAN) communication module, or a power line communication module).
  • a corresponding communication module among these communication modules is a first network 1298 (eg, a short-range communication network such as Bluetooth, wireless fidelity (WiFi) direct, or infrared data association (IrDA)) or a second network 1299 (eg, legacy).
  • a first network 1298 eg, a short-range communication network such as Bluetooth, wireless fidelity (WiFi) direct, or infrared data association (IrDA)
  • a second network 1299 eg, legacy
  • the wireless communication module 1292 uses subscriber information (eg, International Mobile Subscriber Identifier (IMSI)) stored in the subscriber identification module 1296 within a communication network, such as the first network 1298 or the second network 1299 .
  • the electronic device 1201 may be identified or authenticated.
  • the wireless communication module 1292 may support a 5G network after a 4G network and a next-generation communication technology, for example, a new radio access technology (NR).
  • NR access technology includes high-speed transmission of high-capacity data (eMBB (enhanced mobile broadband)), minimization of terminal power and access to multiple terminals (mMTC (massive machine type communications)), or high reliability and low latency (URLLC (ultra-reliable and low-latency) -latency communications)).
  • eMBB enhanced mobile broadband
  • mMTC massive machine type communications
  • URLLC ultra-reliable and low-latency
  • the wireless communication module 1292 may support a high frequency band (eg, mmWave band) to achieve a high data rate, for example.
  • a high frequency band eg, mmWave band
  • the wireless communication module 1292 uses various technologies for securing performance in a high frequency band, for example, beamforming, massive multiple-input and multiple-output (MIMO), and all-dimensional multiplexing. It may support technologies such as full dimensional MIMO (FD-MIMO), an array antenna, analog beam-forming, or a large scale antenna.
  • the wireless communication module 1292 may support various requirements specified in the electronic device 1201 , an external electronic device (eg, the electronic device 1204 ), or a network system (eg, the second network 1299 ).
  • the wireless communication module 1292 includes a peak data rate (eg, 20 Gbps or more) for realization of eMBB, loss coverage for realization of mMTC (eg, 164 dB or less), or U-plane latency (for URLLC realization) ( Example: Downlink (DL) and uplink (UL) each 0.5 ms or less, or round trip 1 ms or less) can be supported.
  • a peak data rate eg, 20 Gbps or more
  • mMTC eg, 164 dB or less
  • U-plane latency for URLLC realization
  • the antenna module 1297 may transmit or receive a signal or power to the outside (eg, an external electronic device).
  • the antenna module 1297 may include an antenna including a conductor formed on a substrate (eg, a PCB) or a radiator formed of a conductive pattern.
  • the antenna module 1297 may include a plurality of antennas (eg, an array antenna). In this case, at least one antenna suitable for a communication method used in a communication network such as the first network 1298 or the second network 1299 is connected from the plurality of antennas by, for example, the communication module 1290 . can be selected. A signal or power may be transmitted or received between the communication module 1290 and an external electronic device through the selected at least one antenna.
  • other components eg, a radio frequency integrated circuit (RFIC)
  • RFIC radio frequency integrated circuit
  • the antenna module 1297 may form a mmWave antenna module.
  • the mmWave antenna module comprises a printed circuit board, an RFIC disposed on or adjacent to a first side (eg, bottom side) of the printed circuit board and capable of supporting a designated high frequency band (eg, mmWave band); and a plurality of antennas (eg, an array antenna) disposed on or adjacent to a second side (eg, top or side) of the printed circuit board and capable of transmitting or receiving signals of the designated high frequency band. can do.
  • peripheral devices eg, a bus, general purpose input and output (GPIO), serial peripheral interface (SPI), or mobile industry processor interface (MIPI)
  • GPIO general purpose input and output
  • SPI serial peripheral interface
  • MIPI mobile industry processor interface
  • the command or data may be transmitted or received between the electronic device 1201 and the external electronic device 1204 through the server 1208 connected to the second network 1299 .
  • Each of the external electronic devices 1202 or 1204 may be the same or a different type of the electronic device 1201 .
  • all or a part of the operations executed in the electronic device 1201 may be executed in one or more of the external electronic devices 1202 , 1204 , or 1208 .
  • the electronic device 1201 may perform the function or service by itself instead of executing the function or service itself.
  • one or more external electronic devices may be requested to perform at least a part of the function or the service.
  • One or more external electronic devices that have received the request may execute at least a part of the requested function or service, or an additional function or service related to the request, and transmit a result of the execution to the electronic device 1201 .
  • the electronic device 1201 may process the result as it is or additionally and provide it as at least a part of a response to the request.
  • cloud computing, distributed computing, mobile edge computing (MEC), or client-server computing technology may be used.
  • the electronic device 1201 may provide an ultra-low latency service using, for example, distributed computing or mobile edge computing.
  • the external electronic device 1204 may include an Internet of things (IoT) device.
  • IoT Internet of things
  • the server 1208 may be an intelligent server using machine learning and/or neural networks. According to an embodiment, the external electronic device 1204 or the server 1208 may be included in the second network 1299 .
  • the electronic device 1201 may be applied to an intelligent service (eg, smart home, smart city, smart car, or health care) based on 5G communication technology and IoT-related technology.
  • the electronic device may have various types of devices.
  • the electronic device may include, for example, a portable communication device (eg, a smart phone), a computer device, a portable multimedia device, a portable medical device, a camera, a wearable device, or a home appliance device.
  • a portable communication device eg, a smart phone
  • a computer device e.g., a smart phone
  • a portable multimedia device e.g., a portable medical device
  • a camera e.g., a portable medical device
  • a camera e.g., a portable medical device
  • a camera e.g., a portable medical device
  • a wearable device e.g., a smart bracelet
  • a home appliance device e.g., a home appliance
  • first”, “second”, or “first” or “second” may simply be used to distinguish an element from other such elements, and may refer elements to other aspects (e.g., importance or order) is not limited. It is said that one (eg, first) component is “coupled” or “connected” to another (eg, second) component, with or without the terms “functionally” or “communicatively”. When referenced, it means that one component can be connected to the other component directly (eg by wire), wirelessly, or through a third component.
  • module used in various embodiments of this document may include a unit implemented in hardware, software, or firmware, and is interchangeable with terms such as, for example, logic, logic block, component, or circuit.
  • a module may be an integrally formed part or a minimum unit or a part of the part that performs one or more functions.
  • the module may be implemented in the form of an application-specific integrated circuit (ASIC).
  • ASIC application-specific integrated circuit
  • Various embodiments of the present document include one or more instructions stored in a storage medium (eg, internal memory 1236 or external memory 1238) readable by a machine (eg, electronic device 1201). may be implemented as software (eg, a program 1240) including
  • a processor eg, processor 1220
  • a device eg, electronic device 1201
  • the one or more instructions may include code generated by a compiler or code executable by an interpreter.
  • the device-readable storage medium may be provided in the form of a non-transitory storage medium.
  • 'non-transitory' only means that the storage medium is a tangible device and does not contain a signal (eg, electromagnetic wave), and this term is used in cases where data is semi-permanently stored in the storage medium and It does not distinguish between temporary storage cases.
  • a signal eg, electromagnetic wave
  • the method according to various embodiments disclosed in this document may be provided as included in a computer program product.
  • Computer program products may be traded between sellers and buyers as commodities.
  • the computer program product is distributed in the form of a machine-readable storage medium (eg compact disc read only memory (CD-ROM)), or via an application store (eg Play Store TM ) or on two user devices ( It can be distributed (eg downloaded or uploaded) directly or online between smartphones (eg: smartphones).
  • a part of the computer program product may be temporarily stored or temporarily created in a machine-readable storage medium such as a memory of a server of a manufacturer, a server of an application store, or a relay server.
  • each component eg, a module or a program of the above-described components may include a singular or a plurality of entities, and some of the plurality of entities may be separately disposed in other components. have.
  • one or more components or operations among the above-described corresponding components may be omitted, or one or more other components or operations may be added.
  • a plurality of components eg, a module or a program
  • the integrated component may perform one or more functions of each component of the plurality of components identically or similarly to those performed by the corresponding component among the plurality of components prior to the integration. .
  • operations performed by a module, program, or other component are executed sequentially, in parallel, repeatedly, or heuristically, or one or more of the operations are executed in a different order, or omitted. , or one or more other operations may be added.
  • the wearable device eg, the wearable device 100 of FIG. 2
  • the wearable device includes a microphone (eg, the microphone 220 of FIG. 2 ) and a communication circuit for transmitting and receiving a control signal to and from an external device ( For example: the communication circuit 23 of FIG. 2 ), the microphone, and at least one processor electrically connected to the communication circuit (eg, the processor 210 of FIG.
  • the at least one processor is the wearable In a state in which the device is worn on the user's body, obtaining a first audio signal from the external device using the microphone, and in response to the lapse of a set time, obtaining a second audio signal from the external device using the microphone, The type of the user's wearing space is determined based on the first audio signal and the second audio signal, and the volume level of the external device is determined using the communication circuit based on an audio output control method corresponding to the type of the wearing space. can be controlled.
  • the at least one processor receives an original audio signal from the external device using the communication circuit, and generates noise from each of the first audio signal and the second audio signal based on the original audio signal. may be separated, and the type of the wearing space may be determined based on the first audio signal and the second audio signal from which the noise is separated.
  • the at least one processor in response to the type of the wearing space being the first type, the at least one processor, based on a time or volume difference between the first audio signal and the second audio signal, the external device and a change in the distance between the user and the user may be determined, and the volume of the external device may be adjusted based on the change in the distance.
  • the at least one processor may determine the type of the wearing space as the third type in response to a volume level of the second audio signal being equal to or less than a first reference value.
  • the at least one processor may control the volume of the external device to a minimum volume.
  • the at least one processor may determine whether the type of the wearing space is the second type, based on a result of comparing the volume of each frequency of the first audio signal and the second audio signal. have.
  • the at least one processor of an embodiment is configured to provide a control signal such that the frequency-specific volume of the second audio signal is maintained as the frequency-specific volume of the first audio signal. can be transmitted.
  • the at least one processor is configured to respond to a difference between a first volume decay rate of a high-pitched frequency region included in the second audio signal and a second volume decay rate of a low-pitched frequency region included in the second audio signal. It may be determined based on whether the type of the wearing space is the second type.
  • the at least one processor may control the microphone to acquire the first audio signal in response to receiving a user input for adjusting the volume of the external device.
  • the at least one processor may determine the location of the electronic device with respect to the external device using ultra-wideband communication with the external device.
  • the at least one processor in response to determining whether the user's utterance is included in the second audio signal, and determining that the user's utterance is included in the second audio signal, the at least one processor, in response to determining whether the user's utterance is included in the second audio signal, and determining that the user's utterance is included in the second audio signal, The volume of the external device may be controlled to be less than or equal to a third reference value.
  • the at least one processor identifies the end of the user's speech based on the second audio signal, and sets the volume of the external device to be less than or equal to the third reference value based on the identification of the end of the speech. You can control to change the volume to the previous volume.
  • a method of operating a wearable device including a microphone (eg, the microphone 220 of FIG. 2 ) and a communication circuit (eg, the communication circuit 230 of FIG. 2 ) for transmitting and receiving a control signal to and from an external device,
  • An operation of acquiring a first audio signal from the external device using the microphone while the wearable device is worn on the user's body, and receiving a second audio signal from the external device using the microphone in response to a set time elapse Based on an operation of acquiring, an operation of determining the type of the user's wearing space based on the first audio signal and the second audio signal, and an audio output control method corresponding to the type of the wearing space, using the communication circuit It may include an operation of controlling the volume of the external device.
  • the operation of controlling the volume of the external device may include, in response to the type of the wearing space being the first type, the external device and the second audio signal based on the first audio signal and the second audio signal. It may include an operation of determining the user's distance and an operation of adjusting a volume of the external device to be proportional to the determined distance.
  • the determining of the type of the wearing space includes determining the type of the wearing space as the third type in response to a volume level of the second audio signal being less than or equal to a first reference value, ,
  • the operation of controlling the volume of the external device may include controlling the volume of the external device to a predetermined minimum volume in response to determining that the type of the wearing space is the third type.
  • the determining of the type of the wearing space may include setting the type of the wearing space to the second type based on a first frequency of the first audio signal and a second frequency of the second audio signal. and determining, wherein the controlling of the volume of the external device may include: in response to determining that the type of the wearing space is the second type, the volume of the second audio signal for each frequency of the first audio signal It may include an operation of transmitting a control signal to maintain the volume for each frequency.
  • the operation of acquiring the first audio signal may be an operation of acquiring the first audio signal in response to the user adjusting the volume of the external device.
  • the method of operating the wearable device may include determining whether the user's utterance is included in the second audio signal, and responding to determining whether the user's utterance is included in the second audio signal
  • the operation of controlling the volume of the external device to be less than or equal to a third reference value may be further included.
  • the determining of the distance of the user may include determining the location of the electronic device with respect to the external device using ultra-wideband communication with the external device.
  • a wearable device (eg, the wearable device 100 of FIG. 2 ) according to an embodiment includes a microphone (eg, the microphone 220 of FIG. 2 ) and a communication circuit (eg, the microphone 220 of FIG. 2 ) for transmitting and receiving a control signal to and from a plurality of external devices: The communication circuit 230 of FIG. 2), the microphone, and at least one processor (eg, the processor 210 of FIG.
  • a third audio signal is obtained from each of the plurality of devices using the microphone in a state worn on the user's body, and in response to the lapse of a set time, a fourth audio signal is obtained from each of the plurality of external devices using the microphone acquire a signal, determine distances between the user and each of the plurality of external devices based on the third audio signal and the fourth audio signal, and use the communication circuit based on the determination result to determine the plurality of external devices
  • the volume of at least one of the devices may be controlled.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Health & Medical Sciences (AREA)
  • Acoustics & Sound (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Multimedia (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • General Health & Medical Sciences (AREA)
  • Computer Hardware Design (AREA)
  • Quality & Reliability (AREA)
  • Computational Linguistics (AREA)
  • Otolaryngology (AREA)
  • Circuit For Audible Band Transducer (AREA)
  • Electrophonic Musical Instruments (AREA)
  • Selective Calling Equipment (AREA)

Abstract

A wearable device in one embodiment comprises: a microphone; a communication circuit for transmitting/receiving a control signal to/from an external device; and at least one processor electrically connected to the microphone and the communication circuit, wherein the at least one processor can acquire a first audio signal from the external device by using the microphone while the wearable device is worn on a body of a user, acquire a second signal from the external device by using the microphone in response to the elapse of the set time, determine the type of wearable space of the user on the basis of the first audio signal and the second audio signal, and control the volume of the external device by using the communication circuit on the basis of an audio output control mode corresponding to the type of wearable space.

Description

자동 음량 제어를 수행하는 웨어러블 장치Wearable device performing automatic volume control
본 개시에 따른 다양한 실시 예들은, 소리를 출력하는 외부 장치의 음량을 제어하는 웨어러블 장치에 관한 것으로, 보다 상세하게는, 웨어러블 장치를 착용한 사용자의 위치 및 공간에 기초하여 외부 장치의 음량을 제어하는 기술에 관한 것이다.Various embodiments according to the present disclosure relate to a wearable device that controls the volume of an external device that outputs a sound, and more particularly, controls the volume of the external device based on the location and space of a user wearing the wearable device It's about technology.
사용자의 신체(예: 손목)에 착용되어 외부 전자 장치를 제어할 수 있는 웨어러블 전자 장치들(예: 헤드 셋, 이어폰, 스마트 글래스(smart glasses), 머리 착용형 장치(head mounted device: HMD), 스마트 워치(smart watch))이 보급화 되고 있다. 웨어러블 전자 장치를 이용하여 다양한 서비스(예: 음악 감상, 동영상 시청, 음성 통화)를 이용하는 사용자들이 증가하고 있다. 예를 들어, 웨어러블 장치는 외부 전자 장치(예: TV, 블루투스 스피커, 스마트 폰, 태블릿 PC, 노트북, 데스크 탑, 또는 착용형(wearable) 단말))에 유선 또는 무선으로 연결하여 다양한 서비스(예: 방송 시청, 음악 감상, 동영상 시청)를 제공할 수 있다.Wearable electronic devices that are worn on the user's body (eg, wrist) to control external electronic devices (eg, headset, earphone, smart glasses, head mounted device: HMD); Smart watch (smart watch) is becoming popular. The number of users who use various services (eg, listening to music, watching a video, and making a voice call) by using a wearable electronic device is increasing. For example, a wearable device connects to an external electronic device (eg, a TV, Bluetooth speaker, smart phone, tablet PC, notebook, desktop, or wearable device) wired or wirelessly to provide various services (eg: Watching broadcasts, listening to music, watching videos) can be provided.
웨어러블 장치는 오디오를 출력하는 외부 전자 장치에 유선 또는 무선으로 연결하여, 다양한 서비스를 제공할 수 있다. 다만, 웨어러블 장치를 착용한 사용자의 위치는 계속해서 변화할 수 있으나, 외부 전자 장치는 고정된 위치에 있는 경우 효과적인 서비스 제공에 장애가 발생할 수 있다. 예를 들어, 영상 표시 기기 또는 오디오 기기를 포함한 외부 전자 장치로부터 사용자의 거리에 따라 사용자가 인식하는 오디오 음량의 크기는 다를 수 있다. 사용자가 외부 전자 장치로부터 멀어진 경우, 외부 전자 장치로부터 출력되는 소리에 기반한 인지 음량은 줄어들 수 있다. 또한, 사용자가 외부 전자 장치로부터 가까워진 경우, 외부 전자 장치로부터 출력되는 소리에 기반한 인지 음량이 높아질 수 있다. 다른 예로, 외부 전자 장치는 고정된 위치에 있기 때문에, 사용자가 외부 전자 장치로부터 출력되는 소리를 청취할 의지가 없어 외부 전자 장치와 다른 공간으로 이동한 경우에도 불구하고 계속해서 소리를 출력하여 불필요한 소음이 발생될 수 있다.The wearable device may provide various services by being connected to an external electronic device that outputs audio by wire or wirelessly. However, the position of the user wearing the wearable device may continuously change, but when the external electronic device is in a fixed position, an obstacle may occur in effective service provision. For example, the size of the audio volume recognized by the user may vary according to the user's distance from the external electronic device including the video display device or the audio device. When the user moves away from the external electronic device, a perceived volume based on a sound output from the external electronic device may decrease. Also, when the user approaches the external electronic device, a perceived volume based on a sound output from the external electronic device may increase. As another example, since the external electronic device is in a fixed position, the user has no intention to listen to the sound output from the external electronic device, so even when the user moves to a different space from the external electronic device, the external electronic device continues to output sound and makes unnecessary noise. This can happen.
복수 개의 외부 전자 장치들을 이용해 사용자가 소리를 듣는 경우, 복수 개의 외부 전자 장치들과 사용자의 거리에 따라, 특정 외부 전자 장치에서 출력되는 소리에 대한 인지 음량이 달라질 수 있다. When a user hears a sound using a plurality of external electronic devices, a perceived volume of a sound output from a specific external electronic device may vary according to a distance between the plurality of external electronic devices and the user.
사용자가 외부 전자 장치를 이용하여 음악을 감상하거나 영상을 시청하던 중 타인과 대화를 위해 발화하는 경우, 외부 전자 장치의 소리로 인해 대화에 방해를 받을 수 있다.When a user speaks for a conversation with another while listening to music or watching an image using the external electronic device, the conversation may be interrupted by the sound of the external electronic device.
본 개시의 다양한 실시예에서 이루고자 하는 기술적 과제는 이상에서 언급한 기술적 과제로 제한되지 않으며, 언급되지 않은 또 다른 기술적 과제들은 아래의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.The technical problems to be achieved in various embodiments of the present disclosure are not limited to the technical problems mentioned above, and other technical problems not mentioned are clear to those of ordinary skill in the art to which the present invention belongs from the description below. will be able to be understood
일 실시 예에서의 웨어러블 장치는, 마이크, 외부 장치로 제어 신호를 송수신하는 통신 회로, 마이크 및 통신 회로와 전기적으로 연결되는 적어도 하나의 프로세서를 포함하고, 적어도 하나의 프로세서는 웨어러블 장치가 사용자의 신체에 착용된 상태에서 마이크를 이용해 외부 장치로부터 제1 오디오 신호를 획득하고, 설정된 시간이 지남에 응답하여, 마이크를 이용해 외부 장치로부터 제2 오디오 신호를 획득하고, 제1 오디오 신호 및 제2 오디오 신호에 기반하여 사용자의 착용 공간의 유형을 판단하고, 착용 공간의 유형에 대응되는 오디오 출력 제어 방식에 기반하여, 통신 회로를 이용해 외부 장치의 음량을 제어할 수 있다.The wearable device according to an embodiment includes a microphone, a communication circuit for transmitting and receiving a control signal to and from an external device, and at least one processor electrically connected to the microphone and the communication circuit, wherein the at least one processor is configured to allow the wearable device to operate on the user's body. A first audio signal is obtained from an external device using a microphone in a state of being worn, and a second audio signal is obtained from an external device using a microphone in response to the lapse of a set time, and a first audio signal and a second audio signal may determine the type of the user's wearing space based on the , and control the volume of the external device using the communication circuit based on the audio output control method corresponding to the type of the wearing space.
일 실시 예에 따른, 마이크 및 외부 장치로 제어 신호를 송수신하는 통신 회로를 포함하는 웨어러블 장치의 동작 방법은, 웨어러블 장치가 사용자의 신체에 착용된 상태에서 마이크를 이용해 외부 장치로부터 제1 오디오 신호를 획득하는 동작, 설정된 시간이 지남에 응답하여, 마이크를 이용해 외부 장치로부터 제2 오디오 신호를 획득하는 동작, 제1 오디오 신호 및 제2 오디오 신호에 기반하여 사용자의 착용 공간의 유형을 판단하는 동작 및 착용 공간의 유형에 대응되는 오디오 출력 제어 방식에 기반하여, 통신 회로를 이용해 외부 장치의 음량을 제어하는 동작을 포함할 수 있다.According to an embodiment, in a method of operating a wearable device including a microphone and a communication circuit for transmitting and receiving a control signal to and from an external device, the wearable device receives a first audio signal from an external device using a microphone while the wearable device is worn on a user's body. an operation of acquiring, an operation of acquiring a second audio signal from an external device using a microphone in response to the lapse of a set time, an operation of determining the type of the user's wearing space based on the first audio signal and the second audio signal, and It may include an operation of controlling a volume of an external device using a communication circuit based on an audio output control method corresponding to the type of the wearing space.
일 실시 예에 따른 웨어러블 장치는, 마이크, 복수 개의 외부 장치들과 제어 신호를 송수신하는 통신 회로, 마이크 및 통신 회로와 전기적으로 연결되는 적어도 하나의 프로세서를 포함하고, 적어도 하나의 프로세서는 웨어러블 장치가 사용자의 신체에 착용된 상태에서 마이크를 이용해 복수 개의 장치들 각각으로부터 제3 오디오 신호를 획득하고, 설정된 시간이 지남에 응답하여, 마이크를 이용해 복수 개의 외부 장치들 각각으로부터 제4 오디오 신호를 획득하고, 제3 오디오 신호 및 제4 오디오 신호에 기반하여 사용자와 복수 개의 외부 장치들 각각의 거리들을 판단하고, 판단 결과에 기반하여 통신 회로를 이용해 복수 개의 외부 장치들 중 적어도 하나의 음량을 제어할 수 있다.A wearable device according to an embodiment includes a microphone, a communication circuit for transmitting and receiving control signals to and from a plurality of external devices, and at least one processor electrically connected to the microphone and the communication circuit, wherein the at least one processor includes the wearable device A third audio signal is obtained from each of a plurality of devices using a microphone in a state worn on the user's body, and a fourth audio signal is obtained from each of a plurality of external devices using a microphone in response to the lapse of a set time, , determine the distances between the user and the plurality of external devices based on the third audio signal and the fourth audio signal, and control the volume of at least one of the plurality of external devices using a communication circuit based on the determination result have.
본 개시에 따른 다양한 실시 예들에 따른 웨어러블 장치는 오디오 기기 또는 영상 표시 기기를 포함한 외부 장치의 오디오 출력을 자동으로 제어할 수 있다. A wearable device according to various embodiments of the present disclosure may automatically control an audio output of an external device including an audio device or an image display device.
본 개시에 따른 다양한 실시 예들에 따른 웨어러블 장치는 사용자의 공간 또는 위치를 파악하거나 계산하기 위한 공간 내의 별도의 센서 없이 웨어러블 장치에 포함된 마이크와 프로세서 만으로 외부 장치의 음량을 자동으로 제어할 수 있다. 본 개시에 따른 웨어러블 장치는 사용자의 착용 공간의 유형에 따라 다른 제어 방식을 사용해 외부 장치의 음량을 제어함으로써, 사용자의 편의성을 증가시킬 수 있다.A wearable device according to various embodiments of the present disclosure may automatically control the volume of an external device only with a microphone and a processor included in the wearable device without a separate sensor in the space for detecting or calculating the user's space or location. The wearable device according to the present disclosure may increase the user's convenience by controlling the volume of the external device using a different control method according to the type of the user's wearing space.
본 개시에 따른 다양한 실시 예들에 따라, 웨어러블 장치는 사용자의 위치가 변화하더라도 외부 장치의 음량을 조절하는 사용자 입력을 수신할 필요 없이 최초로 설정한 음량과 유사한 인지 음량을 제공할 수 있는 음향을 출력할 수 있다.According to various embodiments of the present disclosure, the wearable device may output a sound capable of providing a perceived volume similar to the initially set volume without receiving a user input for adjusting the volume of the external device even if the location of the user changes. can
본 개시에 따른 다양한 실시 예들에 따른 웨어러블 장치는, 외부 장치에 의해 출력되는 음향이 대화에 방해가 되지 않도록 외부 장치의 음량을 제어할 수 있다. The wearable device according to various embodiments of the present disclosure may control the volume of the external device so that the sound output by the external device does not interfere with conversation.
본 개시에서 얻을 수 있는 효과는 이상에서 언급한 효과들로 제한되지 않으며, 언급하지 않은 또 다른 효과들은 아래의 기재로부터 본 개시가 속하는 기술 분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.Effects obtainable in the present disclosure are not limited to the above-mentioned effects, and other effects not mentioned may be clearly understood by those of ordinary skill in the art to which the present disclosure belongs from the description below. will be.
도 1은 일 실시 예에 따른 웨어러블 장치와 무선 통신을 통해서 연결된 외부 장치로 구성된 시스템의 예를 나타내는 도면이다.1 is a diagram illustrating an example of a system including a wearable device and an external device connected through wireless communication according to an embodiment.
도 2는 일 실시 예에 따른 웨어러블 장치의 구성을 도시한 블록도이다.2 is a block diagram illustrating a configuration of a wearable device according to an exemplary embodiment.
도 3은 외부 장치를 기준으로 구분된 착용 공간의 유형에 대한 예시를 나타내는 도면이다.3 is a diagram illustrating an example of a type of wearing space divided based on an external device.
도 4a는 일 실시 예에 따라, 제1 공간에서 사용자의 위치 변화에 기반하여 외부 장치의 음량을 제어하는 것을 나타내는 도면이다.4A is a diagram illustrating controlling a volume of an external device based on a change in a user's position in a first space, according to an exemplary embodiment.
도 4b는 일 실시 예에 따른 제1 공간에서, 사용자 이동에 기반한 오디오 신호의 변화를 나타내는 도면이다.4B is a diagram illustrating a change in an audio signal based on a user's movement in a first space according to an exemplary embodiment.
도 5는 일 실시 예에 따라 획득한 오디오 신호들에 기초하여 사용자와 외부 장치의 거리를 판단하기 위한 신호 처리 방법을 설명하기 위한 도면이다.5 is a diagram for describing a signal processing method for determining a distance between a user and an external device based on acquired audio signals, according to an exemplary embodiment.
도 6a는 일 실시 예에 따라, 제1 공간에서 제2 공간으로 사용자가 이동하는 것을 나타내는 도면이다.6A is a diagram illustrating movement of a user from a first space to a second space, according to an exemplary embodiment.
도 6b는 일 실시 예에 따라, 제1 공간에서 제2 공간으로 사용자가 이동함에 따라서 수신되는 오디오 신호의 변화를 나타내는 도면이다.6B is a diagram illustrating a change in a received audio signal as a user moves from a first space to a second space, according to an embodiment.
도 7a는 일 실시 예에 따라, 제1 공간에서 제3 공간으로 사용자가 이동하는 것을 나타내는 도면이다.7A is a diagram illustrating movement of a user from a first space to a third space, according to an exemplary embodiment.
도 7b는 일 실시 예에 따라, 제1 공간에서 제3 공간으로 사용자가 이동함에 따라서 수신되는 오디오 신호의 변화를 나타내는 도면이다.7B is a diagram illustrating a change in a received audio signal as a user moves from a first space to a third space, according to an exemplary embodiment.
도 8은 일 실시 예에 따른 웨어러블 장치에서, 사용자의 위치에 기반하여 외부 장치의 음량을 제어하는 프로세스에 대한 흐름도이다.8 is a flowchart of a process of controlling a volume of an external device based on a user's location in a wearable device according to an exemplary embodiment.
도 9는 일 실시 예에 따른 웨어러블 장치에서, 사용자의 공간 유형을 구분하여 외부 장치의 음량을 제어하는 프로세스에 대한 흐름도이다.9 is a flowchart of a process of controlling a volume of an external device by classifying a user's space type in a wearable device according to an exemplary embodiment.
도 10은 일 실시 예에 따른 웨어러블 장치에서, 사용자의 발화에 따라 외부 장치의 음량을 제어하는 것을 나타내는 도면이다.10 is a diagram illustrating control of a volume of an external device according to a user's utterance in a wearable device according to an exemplary embodiment.
도 11a는 일 실시 예에 따라 복수 개의 외부 장치들에 대한 사용자의 위치를 나타내는 도면이다.11A is a diagram illustrating a location of a user with respect to a plurality of external devices, according to an exemplary embodiment.
도 11b는 일 실시 예에 따라 복수 개의 외부 장치들과 거리에 기반하여 적어도 하나의 외부 장치의 음량을 제어하는 것을 나타내는 도면이다.11B is a diagram illustrating controlling a volume of at least one external device based on a distance from a plurality of external devices, according to an exemplary embodiment.
도 12는 일 실시 예에 따른 네트워크 환경 내의 전자 장치의 블록도이다.12 is a block diagram of an electronic device in a network environment according to an embodiment.
도면의 설명과 관련하여, 동일 또는 유사한 구성요소에 대해서는 동일 또는 유사한 참조 부호가 사용될 수 있다.In connection with the description of the drawings, the same or similar reference numerals may be used for the same or similar components.
도 1은 일 실시 예에 따른 웨어러블 장치가 외부 장치와 무선 통신 연결된 예를 나타내는 도면이다.1 is a diagram illustrating an example in which a wearable device is connected to an external device by wireless communication according to an exemplary embodiment.
일 실시 예에 따르면, 도 1의 웨어러블 장치(100)는 도시된 바와 같이 스마트 워치(smart watch)일 수 있다. 이에 한하지 않고, 웨어러블 장치(100)는 사용자의 신체에 부착되어 사용될 수 있는 다양한 형태의 장치일 수 있다. 예를 들면, 웨어러블 장치(100)는 머리 착용형 장치(head mounted device: HMD), 또는 스마트 글래스(smart glasses)를 포함할 수 있다.According to an embodiment, the wearable device 100 of FIG. 1 may be a smart watch as shown. The present invention is not limited thereto, and the wearable device 100 may be a device of various types that can be used while being attached to a user's body. For example, the wearable device 100 may include a head mounted device (HMD) or smart glasses.
일 실시 예에 따르면, 웨어러블 장치(100)는 스트랩(130)을 구비하여, 스트랩(130)이 사용자의 팔목에 감김으로써 사용자의 신체에 부착될 수 있다. 이에 한하지 않고, 웨어러블 장치(100)는 웨어러블 장치(100)의 형태, 크기 등에 따라서 사용자의 다양한 신체에 부착될 수 있다. 예를 들면, 웨어러블 장치(100)는 손, 손등, 손가락, 손톱, 손 끝(fingertip) 등에도 부착될 수 있다.According to an embodiment, the wearable device 100 may include the strap 130 , and the strap 130 may be attached to the user's body by being wound around the user's wrist. The present invention is not limited thereto, and the wearable device 100 may be attached to various body parts of the user according to the shape and size of the wearable device 100 . For example, the wearable device 100 may also be attached to a hand, the back of a hand, a finger, a fingernail, a fingertip, or the like.
일 실시 예에 따르면, 도 1의 외부 장치(110)는 도시된 바와 같이 스피커일 수 있다. 이에 한하지 않고, 외부 장치(110)는 일시적으로 고정된 위치에서 소리를 출력하는 다양한 형태의 전자 장치일 수 있다. 예를 들면, 오디오 기기(예: 커넥티드 스피커(connected speaker)), 영상 표시 기기(예: 네트워크 TV, HBBTV, 스마트 TV, 스마트폰, 노트북, 태블릿PC)를 포함할 수 있다.According to an embodiment, the external device 110 of FIG. 1 may be a speaker as shown. However, the present invention is not limited thereto, and the external device 110 may be various types of electronic devices that output sound at a temporarily fixed position. For example, it may include an audio device (eg, a connected speaker) and an image display device (eg, a network TV, HBBTV, smart TV, smart phone, notebook computer, tablet PC).
일 실시 예에 따르면, 외부 장치(110)는 내부 메모리에 저장된 오디오 데이터(예: 음악 데이터, 동영상에 포함된 오디오 데이터)를 출력할 수 있다. 일 실시 예에 따르면, 외부 장치(110)는 웨어러블 장치(100)와 무선 통신 채널을 연결(establish)할 수 있다. 예를 들어, 통신 회로(230)는 블루투스(Blutooth), RF(Radio Frequency) 통신, 적외선(IR) 통신, 와이파이(WIFI), UWB(Ultra-wideband) 및/또는 지그비(Zigbee) 방식의 통신 모듈을 이용할 수 있다. 일 실시 예에서, 외부 장치(110)는 채널 연결을 통해 웨어러블 장치(100)로부터 오디오 데이터를 수신하여 출력할 수 있다.According to an embodiment, the external device 110 may output audio data (eg, music data, audio data included in a moving picture) stored in the internal memory. According to an embodiment, the external device 110 may establish a wireless communication channel with the wearable device 100 . For example, the communication circuit 230 is a communication module of Bluetooth (Bluetooth), RF (Radio Frequency) communication, infrared (IR) communication, Wi-Fi (WIFI), UWB (Ultra-wideband) and / or Zigbee (Zigbee) communication module. is available. In an embodiment, the external device 110 may receive and output audio data from the wearable device 100 through a channel connection.
도 2는 일 실시 예에 따른 웨어러블 장치의 구성을 도시한 블록도이다. 2 is a block diagram illustrating a configuration of a wearable device according to an exemplary embodiment.
도 2를 참조하면, 웨어러블 장치(100)는 프로세서(210), 마이크(220), 통신 회로(230) 및 메모리(240)를 포함할 수 있다. 다양한 실시 예에서, 웨어러블 장치(100)는 도 2에 도시된 구성요소 외에 추가적인 구성요소를 포함하거나, 도 2에 도시된 구성요소 중 적어도 하나를 생략할 수 있다. 상기 열거된 구성요소들은 서로 작동적으로 또는 전기적으로 연결될 수 있다. 웨어러블 장치(100)는 도 2에 도시된 구성요소 중 적어도 일부를 생략하거나, 다른 구성요소를 더 포함할 수도 있다. 도 2에 도시된 웨어러블 장치(100)의 구성요소 중 일부는 유사한 기능을 수행하는 다른 구성요소로 대체될 수도 있다. 도 2에 도시된 구성요소들은 적어도 하나의 하드웨어를 포함할 수 있다.Referring to FIG. 2 , the wearable device 100 may include a processor 210 , a microphone 220 , a communication circuit 230 , and a memory 240 . In various embodiments, the wearable device 100 may include additional components in addition to the components illustrated in FIG. 2 or may omit at least one of the components illustrated in FIG. 2 . The components listed above may be operatively or electrically connected to each other. The wearable device 100 may omit at least some of the components illustrated in FIG. 2 or may further include other components. Some of the components of the wearable device 100 illustrated in FIG. 2 may be replaced with other components performing similar functions. The components illustrated in FIG. 2 may include at least one piece of hardware.
일 실시 예에 따르면, 프로세서(210)는 웨어러블 장치(100)의 전반적인 동작을 제어할 수 있다. 예를 들어, 프로세서(210)는 마이크(220), 통신 회로(230) 및 메모리(240)와 전기적으로 연결되어 지정된 동작을 수행할 수 있다. 일 실시 예에 따르면, 프로세서(210)는 메모리(240)에 저장된 인스트럭션들을 이용하여 웨어러블 장치(100)의 적어도 하나의 다른 구성요소들의 제어 및/또는 통신에 관한 연산이나 데이터 처리를 실행할 수 있다. 일 실시 예에 따르면, 프로세서(210)는 중앙처리장치(CPU), 그래픽처리장치(GPU), MCU(micro controller unit), 센서 허브, 보조프로세서(supplementary processor), 통신 프로세서(communication processor), 애플리케이션 프로세서(application processor), ASIC(application specific integrated circuit), FPGA(field programmable gate arrays) 중 적어도 하나를 포함할 수 있으며, 복수의 코어를 가질 수 있다.According to an embodiment, the processor 210 may control the overall operation of the wearable device 100 . For example, the processor 210 may be electrically connected to the microphone 220 , the communication circuit 230 , and the memory 240 to perform a specified operation. According to an embodiment, the processor 210 may execute an operation or data processing related to control and/or communication of at least one other component of the wearable device 100 using instructions stored in the memory 240 . According to an embodiment, the processor 210 includes a central processing unit (CPU), a graphics processing unit (GPU), a micro controller unit (MCU), a sensor hub, a supplementary processor, a communication processor, and an application. It may include at least one of a processor (application processor), application specific integrated circuit (ASIC), and field programmable gate arrays (FPGA), and may have a plurality of cores.
일 실시 예에 따르면, 마이크(220)는 외부 소리를 획득하고, 획득된 외부 소리를 분석할 수 있다. 예를 들어, 마이크(220)는 외부 장치(110)로부터 소리를 획득하여 오디오 신호로 변환할 수 있다. 일 실시 예에 따르면, 마이크(220)는 웨어러블 장치(100)의 사용자 발화를 수신하여, 전기적 신호로 변환할 수 있다.According to an embodiment, the microphone 220 may acquire an external sound and analyze the acquired external sound. For example, the microphone 220 may obtain a sound from the external device 110 and convert it into an audio signal. According to an embodiment, the microphone 220 may receive the user's utterance of the wearable device 100 and convert it into an electrical signal.
일 실시 예에 따르면, 통신 회로(230)는 도 1을 참조하며 설명된 외부 장치(110)와 통신할 수 있다. 예를 들어, 웨어러블 장치(100)는 통신 회로(230)를 이용해 외부 장치(110)로 제어 신호를 송신할 수 있다. 또한, 웨어러블 장치(100)는 통신 회로(230)를 이용해 외부 장치(110)로 오디오 데이터를 송신할 수 있다.According to an embodiment, the communication circuit 230 may communicate with the external device 110 described with reference to FIG. 1 . For example, the wearable device 100 may transmit a control signal to the external device 110 using the communication circuit 230 . Also, the wearable device 100 may transmit audio data to the external device 110 using the communication circuit 230 .
일 실시 예에 따르면, 메모리(240)는 웨어러블 장치(100)의 적어도 하나의 구성요소(예: 프로세서, 마이크)에 의해 획득되거나 사용되는 다양한 데이터를 저장할 수 있다. 예를 들어, 메모리(240)는 외부 장치(110)를 통해 출력될 오디오 데이터를 저장할 수 있다. 또한, 메모리(240)는 마이크(220)를 이용해 획득한 웨어러블 장치(100)의 사용자 발화에 대한 정보를 저장할 수 있다.According to an embodiment, the memory 240 may store various data acquired or used by at least one component (eg, a processor, a microphone) of the wearable device 100 . For example, the memory 240 may store audio data to be output through the external device 110 . In addition, the memory 240 may store information about the user's utterance of the wearable device 100 acquired using the microphone 220 .
일 실시 예에 따르면, 프로세서(210)는 웨어러블 장치(100)가 사용자의 신체에 착용된 상태에서 마이크(220)를 이용해 외부 장치(110)로부터 오디오 신호를 획득할 수 있다. 예를 들어, 외부 장치(110)가 소리(오디오 데이터)를 출력하면, 마이크(220)는 검출된 소리를 전기적 신호로 전환하여 프로세서(210)로 제공할 수 있다. 일 실시 예에 따르면, 외부 장치(110)는 외부 장치(110)의 내부 메모리에 저장된 오디오 데이터 또는 웨어러블 장치(100)로부터 수신된 오디오 데이터에 기초하여 음향을 출력할 수 있다.According to an embodiment, the processor 210 may obtain an audio signal from the external device 110 using the microphone 220 while the wearable device 100 is worn on the user's body. For example, when the external device 110 outputs sound (audio data), the microphone 220 may convert the detected sound into an electrical signal and provide it to the processor 210 . According to an embodiment, the external device 110 may output a sound based on audio data stored in an internal memory of the external device 110 or audio data received from the wearable device 100 .
일 실시 예에 따르면, 프로세서(210)는 통신 회로(230)를 이용해 외부 장치(110)의 음량을 제어할 수 있다. 일 실시 예에서, 프로세서(210)는 외부 장치(110)의 음량 제어를 위한 사용자의 입력(예: 볼륨 조절 버튼 터치 입력, 음성 신호 입력)에 기반하여 외부 장치(110)의 음량을 제어할 수 있다. 예를 들어, 프로세서(210)는 통신 회로(230)를 이용해 외부 장치(110)로 음량 제어 신호를 송신하고, 외부 장치(110)는 수신된 음량 제어 신호에 기반하여 출력되는 소리의 음량을 조절할 수 있다. According to an embodiment, the processor 210 may control the volume of the external device 110 using the communication circuit 230 . In an embodiment, the processor 210 may control the volume of the external device 110 based on a user input (eg, a volume control button touch input, a voice signal input) for controlling the volume of the external device 110 . have. For example, the processor 210 transmits a volume control signal to the external device 110 using the communication circuit 230 , and the external device 110 adjusts the volume of the output sound based on the received volume control signal. can
일 실시 예에 따르면, 프로세서(210)는 사용자 입력을 통한 외부 장치(110)의 음량 제어를 기초로, 마이크(220)를 통해 제1 오디오 신호를 획득할 수 있다. 예를 들어, 음량 제어를 위한 연속적인 사용자 입력이 있은 뒤, 일정 시간동안 사용자 입력이 없는 경우 프로세서(210)는 마이크(220)를 통해 제1 오디오 신호로서 획득할 수 있다. 따라서, 프로세서(210)는 외부 장치(110)가 사용자 입력에 의해 조절된 음량에 기반하여 음향을 출력하고 있는 동안 마이크(220)를 통해서 웨어러블 장치(100)에서 검출되는 음향에 대한 정보를 포함하는 제1 오디오 신호를 획득할 수 있다. 즉, 프로세서(210)는 사용자가 원하는 음량에 맞춰 외부 장치(110)의 음량을 제어하기 위한 입력을 수행하면, 사용자 입력에 기초하여 외부 장치(110)로부터 마이크(220)를 통해 제1 오디오 신호를 획득할 수 있다. 프로세서(210)는 제1 오디오 신호를 메모리(240)에 저장할 수 있다.According to an embodiment, the processor 210 may acquire the first audio signal through the microphone 220 based on the volume control of the external device 110 through a user input. For example, when there is no user input for a predetermined time after continuous user input for volume control, the processor 210 may obtain the first audio signal through the microphone 220 . Accordingly, the processor 210 includes information on the sound detected by the wearable device 100 through the microphone 220 while the external device 110 outputs the sound based on the volume adjusted by the user input. A first audio signal may be obtained. That is, when the processor 210 performs an input for controlling the volume of the external device 110 according to the user's desired volume, the first audio signal from the external device 110 through the microphone 220 based on the user input can be obtained. The processor 210 may store the first audio signal in the memory 240 .
일 실시 예에서, 프로세서(210)는 제1 오디오 신호를 획득한 후, 마이크(220)를 이용해 외부 장치(110)로부터 제2 오디오 신호를 획득할 수 있다. 일 실시 예에 따르면, 프로세서(210)는 제1 오디오 신호를 획득한 후 설정된 시간이 경과한 이후에 제2 오디오 신호를 획득할 수 있다. 예를 들어, 프로세서(210)는 음량 제어를 위한 사용자 입력이 있은 후 10초마다 주기적으로 제2 오디오 신호를 획득할 수 있다. 다른 실시 예에 따르면, 프로세서(210)는 마이크(220)를 이용해 연속적으로 외부 장치(110)로부터 제2 오디오 신호를 획득할 수 있다. 또 다른 실시 예에 따르면, 프로세서(210)는 웨어러블 장치(100)의 움직임에 응답하여 제2 오디오 신호를 획득할 수도 있다. 예를 들어, 프로세서(210)는 웨어러블 장치(100)에 포함된 움직임 센서를 이용하여 웨어러블 장치(100)의 움직임에 대한 정보(예: 가속도 값)를 검출하고, 움직임에 대한 정보의 크기가 임계값 이상인 경우 제2 오디오 신호를 획득할 수도 있다.In an embodiment, after obtaining the first audio signal, the processor 210 may obtain the second audio signal from the external device 110 using the microphone 220 . According to an embodiment, the processor 210 may acquire the second audio signal after a set time elapses after acquiring the first audio signal. For example, the processor 210 may periodically acquire the second audio signal every 10 seconds after there is a user input for volume control. According to another embodiment, the processor 210 may continuously acquire the second audio signal from the external device 110 using the microphone 220 . According to another embodiment, the processor 210 may acquire the second audio signal in response to the movement of the wearable device 100 . For example, the processor 210 detects movement information (eg, an acceleration value) of the wearable apparatus 100 using a motion sensor included in the wearable apparatus 100 , and the size of the movement information is critical. When the value is greater than or equal to the value, the second audio signal may be acquired.
일 실시 예에 따르면, 프로세서(210)는 제1 오디오 신호 및 제2 오디오 신호에 기반하여 사용자의 웨어러블 장치(100) 착용 공간의 유형을 판단할 수 있다. 일 실시 예에 따른 착용 공간의 유형에 대한 설명은 도 3을 참조하여 후술된다.According to an embodiment, the processor 210 may determine the type of the user's wearable device 100 wearing space based on the first audio signal and the second audio signal. A description of the type of the wearing space according to an embodiment will be described later with reference to FIG. 3 .
일 실시 예에 따른 프로세서(210)는 제1 오디오 신호와 제2 오디오 신호를 비교하여 웨어러블 장치(100)의 착용 공간의 유형을 판단할 수 있다. 예를 들어, 복수 개의 분리된 공간들 중 외부 장치(110)와 동일한 공간에 있는지 여부를 판단할 수 있다. 일 실시 예에 따르면, 프로세서(210)는 제1 오디오 신호 및 제2 오디오 신호를 비교하여, 외부 장치(110)로부터 웨어러블 장치(100)를 착용한 사용자까지 거리를 판단할 수 있다. 예를 들어, 프로세서(210)는 제1 오디오 신호를 획득할 때의 외부 장치(110)와 사용자의 거리와 제2 오디오 신호를 획득할 때의 외부 장치(110)와 사용자의 거리를 판단할 수 있다. 따라서, 프로세서(210)는 제1 오디오 신호를 획득할 시점과 제2 오디오 신호를 획득할 시점에 따른 외부 장치(110)로부터 사용자의 거리의 변화를 판단할 수 있다.The processor 210 according to an embodiment may determine the type of the wearing space of the wearable device 100 by comparing the first audio signal and the second audio signal. For example, it may be determined whether it is in the same space as the external device 110 among a plurality of separated spaces. According to an embodiment, the processor 210 may determine the distance from the external device 110 to the user wearing the wearable device 100 by comparing the first audio signal and the second audio signal. For example, the processor 210 may determine the distance between the user and the external device 110 when acquiring the first audio signal and the distance between the user and the external device 110 when acquiring the second audio signal. have. Accordingly, the processor 210 may determine a change in the distance of the user from the external device 110 according to the time point at which the first audio signal is obtained and the time point at which the second audio signal is obtained.
일 실시 예에 따르면, 프로세서(210)는 웨어러블 장치(100)를 착용한 사용자의 착용 공간의 유형에 대응되는 음량 제어 방식에 기반하여, 통신 회로(230)를 이용해 외부 장치(110)의 음량을 제어할 수 있다. 일 실시 예에 따르면, 프로세서(210)는 복수 개의 웨어러블 장치(100)의 착용 공간의 유형들을 설정하고, 착용 공간의 유형들 각각에 대응되는 외부 장치(110)의 음량 제어 방식에 대한 데이터를 메모리(240)에 저장할 수 있다. 일 실시 예에서, 프로세서(210)는 메모리(240)에 저장된 음량 제어 방식에 기초하여, 판단된 착용 공간의 유형에 대응되는 음량 제어 방식으로 외부 장치(110)의 음량을 제어할 수 있다. 즉, 프로세서(210)는 착용 공간의 유형에 대응되는 음량 제어 방식에 기초하여 통신 회로(230)를 통해 음량 제어 신호를 외부 장치(110)로 송신할 수 있다. 외부 장치(110)는 음량 제어 신호를 수신하고, 수신된 음량 제어 신호에 기초하여 소리를 출력할 수 있다.According to an embodiment, the processor 210 controls the volume of the external device 110 using the communication circuit 230 based on a volume control method corresponding to the type of the wearing space of the user wearing the wearable device 100 . can be controlled According to an embodiment, the processor 210 sets the types of the wearing space of the plurality of wearable devices 100 and stores data on the volume control method of the external device 110 corresponding to each of the types of the wearing space in memory. (240) can be stored. In an embodiment, the processor 210 may control the volume of the external device 110 in a volume control method corresponding to the determined type of wearing space based on the volume control method stored in the memory 240 . That is, the processor 210 may transmit the volume control signal to the external device 110 through the communication circuit 230 based on the volume control method corresponding to the type of the wearing space. The external device 110 may receive a volume control signal and output a sound based on the received volume control signal.
도 3은 외부 장치를 기준으로 구분된 착용 공간의 유형에 대한 예시를 나타내는 도면이다.3 is a diagram illustrating an example of a type of wearing space divided based on an external device.
도 3을 참조하면, 웨어러블 장치(100)를 착용한 사용자의 착용 공간의 유형은 복수 개의 유형들로 구분될 수 있다. 다양한 실시 예들에 따르면, 착용 공간의 유형은 도 3을 참조하여 설명된 착용 공간의 유형에 제한되지 않고, 다양한 기준을 통해 구분될 수 있다.Referring to FIG. 3 , the type of the wearing space of the user who wears the wearable device 100 may be divided into a plurality of types. According to various embodiments, the type of the wearing space is not limited to the type of the wearing space described with reference to FIG. 3 , and may be distinguished through various criteria.
다양한 실시 예들에 따르면, 착용 공간의 유형은 다양한 기준에 기초하여 구분될 수 있다. 예를 들어, 착용 공간의 유형은 공간의 크기, 공간에 배치된 오브젝트 존재 여부를 기준으로 구분될 수 있다. 일 실시 예에 따르면, 착용 공간의 유형은 공간에 대한 외부 장치(300)(예: 도 1의 외부 장치(110))의 위치 및 사용자의 위치를 기준으로 구분될 수 있다. 일 실시 예에 따르면, 착용 공간의 유형은 제1 공간(310), 제2 공간(320) 및 제3 공간(330)으로 구분될 수 있다. According to various embodiments, the type of the wearing space may be classified based on various criteria. For example, the type of the wearing space may be classified based on the size of the space and the existence of an object disposed in the space. According to an embodiment, the type of the wearing space may be classified based on the location of the external device 300 (eg, the external device 110 of FIG. 1 ) in the space and the location of the user. According to an embodiment, the type of the wearing space may be divided into a first space 310 , a second space 320 , and a third space 330 .
일 실시 예에 따르면, 제1 공간(310)은 외부 장치(300)와 사용자 사이에 배치된 벽과 같은 오브젝트가 없는 열린 공간(opened space)을 나타낼 수 있다. 예를 들어, 웨어러블 장치(100) 사용자의 일반 가정집을 기준으로 설명하면, 제1 공간(310)은 오디오를 출력하는 외부 장치(300)가 있는 거실 공간을 나타낼 수 있다. According to an embodiment, the first space 310 may represent an open space in which there is no object such as a wall disposed between the external device 300 and the user. For example, if the wearable device 100 user's general home is described as a reference, the first space 310 may represent a living space in which the external device 300 for outputting audio is located.
일 실시 예에 따르면, 제2 공간(320)은 외부 장치(300)와 사용자 사이에 배치된 벽과 같은 오브젝트가 있는 공간을 나타낼 수 있다. 구체적으로, 제2 공간(320)은 외부 장치(300)와 사용자 사이에 벽과 같은 구조물로 가로막혀서 외부 장치(300)로부터 출력되는 오디오 신호가 굴절되어 사용자에게 전달되는 공간을 나타낼 수 있다. 일 실시 예에 따르면, 제2 공간은 외부 장치(300)와 사용자 사이에 일부가 벽과 같은 구조물로 가로막힌 공간으로, 반 열린/닫힌 공간(half opened space)을 나타낼 수 있다. 예를 들어, 웨어러블 장치(100) 사용자의 일반 가정집을 기준으로 설명하면, 제2 공간(310)은 오디오를 출력하는 외부 장치(300)가 거실 공간에 위치한 상태에서, 벽과 같은 구조물을 통해 거실과 일부가 분리된 주방을 나타낼 수 있다. According to an embodiment, the second space 320 may represent a space in which an object such as a wall is disposed between the external device 300 and the user. Specifically, the second space 320 may represent a space in which an audio signal output from the external device 300 is refracted and delivered to the user by being blocked by a structure such as a wall between the external device 300 and the user. According to an embodiment, the second space is a space partially blocked by a structure such as a wall between the external device 300 and the user, and may represent a half opened space. For example, if the wearable device 100 user's general home is described as a reference, the second space 310 is a living room through a structure such as a wall while the external device 300 for outputting audio is located in the living space. and may represent a partially separated kitchen.
일 실시 예에 따르면, 제3 공간(330)은 외부 장치(300)와 사용자 사이에 벽과 같은 오브젝트로 인해 완전히 분리된 공간을 나타낼 수 있다. 구체적으로, 제3 공간(330)은 외부 장치(300)와 사용자 사이에 벽과 같은 구조물로 사방이 가로막힌 공간을 나타낼 수 있다. 일 실시 예에 따르면, 제3 공간(330)은 외부 장치(300)와 사용자 사이가 벽과 같은 구조물로 가로막힌 공간으로, 닫힌 공간(closed space)을 나타낼 수 있다. 예를 들어, 웨어러블 장치(100) 사용자의 일반 가정집을 기준으로 설명하면, 제3 공간(330)은 오디오를 출력하는 외부 장치(300)가 거실 공간에 위치한 상태에서, 벽과 같은 구조물을 통해 분리되어 문을 통해 출입할 수 있는 방을 나타낼 수 있다. 따라서, 사용자가 제3 공간(330)에 위치한 경우, 외부 장치(110)를 통해 출력된 오디오를 청취할 의지가 없음이 가정될 수 있다.According to an embodiment, the third space 330 may represent a space completely separated by an object such as a wall between the external device 300 and the user. Specifically, the third space 330 may represent a space blocked in all directions by a structure such as a wall between the external device 300 and the user. According to an embodiment, the third space 330 is a space between the external device 300 and a user blocked by a structure such as a wall, and may represent a closed space. For example, if the wearable device 100 user's general home is described as the basis, the third space 330 is separated through a structure such as a wall while the external device 300 for outputting audio is located in the living space. This can represent a room that can be accessed through a door. Accordingly, when the user is located in the third space 330 , it may be assumed that the user has no intention to listen to the audio output through the external device 110 .
웨어러블 장치(100)는 마이크(220)를 통해서 수신된 오디오 신호들 사이의 비교 결과에 기초하여 웨어러블 장치(100)가 위치한 공간의 유형이 변화하였는지 여부를 식별할 수 있다.The wearable device 100 may identify whether the type of space in which the wearable device 100 is located has changed based on a comparison result between audio signals received through the microphone 220 .
도 3에 도시된 착용 공간의 구분은 일 실시 예를 설명하기 위한 것이며, 웨어러블 장치(100)가 구분하는 공간의 유형은 다른 형태로 구분될 수도 있다.The division of the wearing space shown in FIG. 3 is for explaining an embodiment, and the type of space divided by the wearable device 100 may be divided into other forms.
도 4a는 일 실시 예에 따라, 제1 공간에서 사용자의 위치 변화에 기반하여 외부 장치의 음량을 제어하는 것을 나타내는 도면이다. 도 4b는 일 실시 예에 따른 제1 공간에서, 사용자 이동에 기반한 오디오 신호의 변화를 나타내는 도면이다. 4A is a diagram illustrating controlling a volume of an external device based on a change in a user's position in a first space, according to an exemplary embodiment. 4B is a diagram illustrating a change in an audio signal based on a user's movement in a first space according to an exemplary embodiment.
도 4b를 참조하면, 오디오 신호는 주파수를 기준으로 표현될 수 있다. 도 4b에 표시된 그래프의 세로축은 음량을 표현하고, 가로축은 주파수를 나타낼 수 있다. 그래프의 가로축은 저음부(LF) 부터 고음부(HF)를 나타낼 수 있다.Referring to FIG. 4B , an audio signal may be expressed based on a frequency. In the graph shown in FIG. 4B , a vertical axis may represent a volume, and a horizontal axis may represent a frequency. The horizontal axis of the graph may represent the low-pitched sound part LF to the high-pitched sound part HF.
일 실시 예에 따르면, 웨어러블 장치(100)를 신체에 착용한 사용자는 제1 공간(310) 안에서 이동할 수 있다. 예를 들어, 사용자는 외부 장치(300)로부터 제1 거리(a) 만큼 떨어진 제1 위치(410)에서 제2 위치(420)로 이동할 수 있다. 일 실시 예에서, 제2 위치(420)는 외부 장치(300)로부터 제2 거리(b)만큼 떨어진 위치를 나타낼 수 있다. According to an embodiment, a user wearing the wearable device 100 on the body may move in the first space 310 . For example, the user may move from the first location 410 to the second location 420 away from the external device 300 by a first distance a. In an embodiment, the second location 420 may indicate a location separated by a second distance b from the external device 300 .
일 실시 예에 따르면, 프로세서(210)는 제1 위치(410)에서 마이크(220)를 이용해 외부 장치(300)로부터 제1 오디오 신호(411)를 획득할 수 있다. 일 실시 예에 따르면, 프로세서(210)는 웨어러블 장치(100)가 수신한 사용자의 입력에 기반하여 외부 장치(300)의 음량이 제어된 위치를 제1 위치(410)로 판단할 수 있다. 예를 들어, 프로세서(210)는 제1 위치(410)에서 외부 장치(300)의 음량을 제어하기 위한 적어도 하나의 사용자의 입력을 획득하고, 상기 적어도 하나의 사용자 입력이 획득된 이후에 지정된 시간 동안 추가적인 사용자의 입력이 획득되지 않으면 제1 오디오 신호(411)를 획득할 수 있다. 예를 들어, 프로세서(210)는 외부 장치(300)의 음량을 3단계 증가시키기 위하여 음량을 증가시키기 위한 사용자 입력을 3회 반복하여 수신한 후, 2초 동안 사용자 입력이 수신되지 않으면 마이크(220)를 통해서 오디오 신호를 획득할 수 있다.According to an embodiment, the processor 210 may obtain the first audio signal 411 from the external device 300 using the microphone 220 at the first location 410 . According to an embodiment, the processor 210 may determine a position where the volume of the external device 300 is controlled as the first position 410 based on a user input received by the wearable device 100 . For example, the processor 210 obtains at least one user input for controlling the volume of the external device 300 at the first location 410 , and a specified time after the at least one user input is obtained. If an additional user input is not obtained during this time, the first audio signal 411 may be obtained. For example, the processor 210 repeatedly receives a user input for increasing the volume of the external device 300 in three steps to increase the volume by three steps, and then, if the user input is not received for 2 seconds, the microphone 220 ) to obtain an audio signal.
일 실시 예에 따르면, 프로세서(210)는 제2 위치(420)에서 마이크(220)를 이용해 외부 장치(300)로부터 제2 오디오 신호(421)를 획득할 수 있다. 일 실시 예에 따르면, 사용자가 제1 위치(410)에서 제2 위치(420)로 이동함에 따라, 마이크(220)를 통해 획득되는 외부 장치(300)로부터 출력된 오디오 신호의 크기가 변경될 수 있다. 예를 들어, 마이크(220)를 통해 수신되는 오디오 신호의 음량은 줄어들거나 높아질 수 있다. 일 실시 예에서, 프로세서(210)는 수신된 오디오 신호의 음량이 변경됨에 기초하여, 사용자의 위치가 변경되었음을 판단할 수 있다. 예를 들어, 프로세서(210)는 제1 오디오 신호(411) 및 제2 오디오 신호(421)에 기반하여 외부 장치(300)를 기준으로 사용자의 위치가 변화되었음을 판단할 수 있다. 일 실시 예에서, 프로세서(210)는 제2 오디오 신호(421)는 제1 오디오 신호(411)와 비교하여, 저음부(LF) 및 고음부(HF)의 음량이 전체적으로 줄어들었음을 판단할 수 있다. 따라서, 프로세서(210)는 음량이 전체적으로 줄어들었음에 기반하여, 외부 장치(300)로부터 사용자의 거리가 멀어졌음을 판단할 수 있다. 설명의 편의를 위해, 도 4b를 통해서 외부 장치(300)로부터 사용자의 거리가 멀어짐에 기반한 제2 오디오 신호(421)만을 도시하였지만, 사용자와 외부 장치(300)의 거리는 다양하게 변화할 수 있다.According to an embodiment, the processor 210 may obtain the second audio signal 421 from the external device 300 using the microphone 220 at the second location 420 . According to an embodiment, as the user moves from the first location 410 to the second location 420 , the size of the audio signal output from the external device 300 acquired through the microphone 220 may change. have. For example, the volume of the audio signal received through the microphone 220 may be decreased or increased. In an embodiment, the processor 210 may determine that the user's location has changed based on a change in the volume of the received audio signal. For example, the processor 210 may determine that the user's location has changed with respect to the external device 300 based on the first audio signal 411 and the second audio signal 421 . In an embodiment, the processor 210 may determine that the volume of the low-pitched sound part LF and the high-pitched sound part HF has been reduced in the second audio signal 421 as compared to the first audio signal 411 . Accordingly, the processor 210 may determine that the distance of the user from the external device 300 has increased based on the overall decrease in the volume. For convenience of explanation, only the second audio signal 421 based on the user's distance from the external device 300 is shown through FIG. 4B , but the distance between the user and the external device 300 may be variously changed.
일 실시 예에 따르면, 프로세서(210)는 제2 오디오 신호(421)에 기반하여, 사용자와 외부 장치(300)의 거리 변화를 식별할 수 있다. 예를 들어, 프로세서(210)는 제1 오디오 신호(411) 및 제2 오디오 신호(421)의 시간 또는 음량 차이에 기반하여 외부 장치(300)와 사용자 사이의 거리를 판단할 수 있다. 일 실시 예에 따라, 사용자의 위치 변화를 판단하는 내용은 도 5를 참조하여 후술된다.According to an embodiment, the processor 210 may identify a change in the distance between the user and the external device 300 based on the second audio signal 421 . For example, the processor 210 may determine the distance between the external device 300 and the user based on a time or volume difference between the first audio signal 411 and the second audio signal 421 . According to an embodiment, the content of determining the change in the user's location will be described later with reference to FIG. 5 .
일 실시 예에 따르면, 프로세서(210)는 외부 장치(300)와 사용자 사이의 거리 변화에 기반하여 외부 장치(300)의 음량을 제어하는 제어 신호를 통신 회로(230)를 통해 송신할 수 있다. 일 실시 예에서, 제1 거리(a)가 제2 거리(b)보다 작은 경우 (또는, 제1 오디오 신호의 음량이 제2 오디오 신호의 음량보다 큰 경우, 또는 제1 오디오 신호에 대비하여 제2 오디오 신호에 시간 지연이 발생한 경우), 즉 외부 장치(300)로부터 사용자의 위치가 제1 위치(410)에서 제2 위치(420)로 변화됨에 따라, 멀어진 경우를 가정할 수 있다. 일 실시 예에 따르면, 외부 장치(300)로부터 사용자의 거리가 멀어진 경우, 사용자가 인지하는 외부 장치(300)로부터 출력된 오디오의 음량은 줄어들 수 있다. 따라서, 프로세서(210)는 제1 위치(410)와 비교하여, 제2 위치(420)에서 사용자의 위치가 외부 장치(300)로부터 더 멀어진 경우, 외부 장치(300)의 음량을 높이는 제어 신호를 외부 장치(300)로 송신할 수 있다. 일 실시 예에 따르면, 외부 장치(300)는 수신된 제어 신호에 기반하여 음량을 높일 수 있다. According to an embodiment, the processor 210 may transmit a control signal for controlling the volume of the external device 300 based on a change in the distance between the external device 300 and the user through the communication circuit 230 . In an embodiment, when the first distance a is smaller than the second distance b (or when the volume of the first audio signal is greater than the volume of the second audio signal, or when the first audio signal is 2, when a time delay occurs in the audio signal), that is, as the user's location from the external device 300 changes from the first location 410 to the second location 420, it may be assumed that the user moves away from each other. According to an embodiment, when the user's distance from the external device 300 increases, the volume of the audio output from the external device 300 recognized by the user may be reduced. Accordingly, the processor 210 receives a control signal for increasing the volume of the external device 300 when the user's location is further away from the external device 300 in the second location 420 compared to the first location 410 . It can be transmitted to the external device 300 . According to an embodiment, the external device 300 may increase the volume based on the received control signal.
일 실시 예에서, 제1 거리(a)가 제2 거리(b)보다 큰 경우, 즉 외부 장치(300)로부터 사용자의 위치가 제1 위치(410)에서 제2 위치(420)로 변화됨에 따라 가까워진 경우를 가정할 수 있다. 일 실시 예에 따르면, 외부 장치(300)로부터 사용자의 거리가 가까워진 경우, 사용자가 인지하는 외부 장치(300)로부터 출력된 오디오의 음량은 높아질 수 있다. 따라서, 프로세서(210)는 제1 위치(410)와 비교하여, 제2 위치(420)에서 웨어러블 장치의 위치가 외부 장치(300)로부터 더 가까워진 경우, 외부 장치(300)의 음량을 줄이는 제어 신호를 외부 장치(300)로 송신할 수 있다. 일 실시 예에 따르면, 외부 장치(300)는 수신된 제어 신호에 기반하여 음량을 줄일 수 있다. In an embodiment, when the first distance (a) is greater than the second distance (b), that is, as the user's location from the external device 300 changes from the first location 410 to the second location 420 , It can be assumed that close According to an embodiment, when the distance of the user from the external device 300 is increased, the volume of the audio output from the external device 300 recognized by the user may be increased. Accordingly, when the position of the wearable device in the second position 420 is closer to the external device 300 than in the first position 410 , the processor 210 decreases the volume of the external device 300 . may be transmitted to the external device 300 . According to an embodiment, the external device 300 may reduce the volume based on the received control signal.
일 실시 예에 따르면, 프로세서(210)가 마이크(220)를 통해 획득한 외부 장치(300)의 오디오 신호에 기반하여 사용자의 위치 변화를 판단하고 자동으로 음량을 제어함에 따라, 웨어러블 장치(100)의 사용자는 외부 장치(300)로부터 출력된 오디오를 유사한 인지 음량으로 들을 수 있다. 일 실시 예에 따르면, 프로세서(210)는 일정 범위 내에서 외부 장치(300)의 음량을 제어할 수 있다. 예를 들어, 프로세서(210)는 외부 장치(300)의 음량의 최소 음량 및 최대 음량을 설정하고, 최소 음량부터 최대 음량의 범위에서 외부 장치(300)의 음량을 제어할 수 있다. 일 실시 예에 따르면, 최소 음량 및 최대 음량은 웨어러블 장치(100)가 수신한 사용자입력에 기초하여 설정될 수 있다.According to an embodiment, as the processor 210 determines a change in the user's position based on the audio signal of the external device 300 acquired through the microphone 220 and automatically controls the volume, the wearable device 100 A user of can listen to the audio output from the external device 300 at a similar perceived volume. According to an embodiment, the processor 210 may control the volume of the external device 300 within a predetermined range. For example, the processor 210 may set a minimum volume and a maximum volume of the volume of the external device 300 , and may control the volume of the external device 300 in a range from the minimum volume to the maximum volume. According to an embodiment, the minimum volume and the maximum volume may be set based on a user input received by the wearable device 100 .
도 5는 일 실시 예에 따라 획득한 오디오 신호들(500)에 기초하여 사용자와 외부 장치의 거리를 판단하는 것을 나타내는 도면이다.5 is a diagram illustrating determination of a distance between a user and an external device based on acquired audio signals 500 according to an exemplary embodiment.
도 5를 참조하면, 획득한 오디오 신호들(500)은 외부 장치(300)를 통해 출력되는 오디오 데이터의 원본 오디오 신호(510), 제1 위치에서 획득한 제1 오디오 신호(520), 위치 변화에 따라 획득한 제2 오디오 신호(523)를 포함할 수 있다. Referring to FIG. 5 , the acquired audio signals 500 include an original audio signal 510 of audio data output through the external device 300 , a first audio signal 520 acquired at a first position, and a change in position. It may include the second audio signal 523 obtained according to .
일 실시 예에 따르면, 프로세서(210)는 획득한 오디오 신호들(500)에 기반하여 사용자와 외부 장치(300)의 거리를 판단할 수 있다. 일 실시 예에 따르면, 외부 장치(300)가 내부 메모리에 저장된 오디오 데이터를 출력하는 경우, 프로세서(210)는 통신 회로(230)를 통해 외부 장치(300)로부터 출력되는 오디오 데이터의 원본 오디오 신호(510)를 획득할 수 있다. 다른 실시 예에 따르면, 외부 장치(300)가 웨어러블 장치(100)로부터 오디오 데이터를 수신하여 출력하는 경우, 프로세서(210)는 메모리(240)에 저장된 원본 오디오 신호(510)를 획득할 수 있다. 다른 실시 예에 따르면, 프로세서(210)는 외부 장치(300) 또는 별도의 외부 서버(도시되지 않음)로부터 통신 회로(230)를 통해서 원본 오디오 신호(510)를 수신할 수도 있다.According to an embodiment, the processor 210 may determine the distance between the user and the external device 300 based on the acquired audio signals 500 . According to an embodiment, when the external device 300 outputs audio data stored in the internal memory, the processor 210 controls the original audio signal ( 510) can be obtained. According to another embodiment, when the external device 300 receives and outputs audio data from the wearable device 100 , the processor 210 may acquire the original audio signal 510 stored in the memory 240 . According to another embodiment, the processor 210 may receive the original audio signal 510 from the external device 300 or a separate external server (not shown) through the communication circuit 230 .
일 실시 예에 따르면, 프로세서(210)는 원본 오디오 신호(510)를 참조하여, 제1 오디오 신호(520)에 포함된 제1 잡음(521)을 제거할 수 있다. 일 실시 예에 따르면, 프로세서(210)는 원본 오디오 신호(510)를 참조하여, 잡음이 제거된 제2 오디오 신호(523)를 획득할 수 있다. 따라서, 프로세서(210)는 잡음이 제거된 제1 오디오 신호 및 제2 오디오 신호를 획득할 수 있다.According to an embodiment, the processor 210 may remove the first noise 521 included in the first audio signal 520 with reference to the original audio signal 510 . According to an embodiment, the processor 210 may obtain the second audio signal 523 from which noise has been removed by referring to the original audio signal 510 . Accordingly, the processor 210 may obtain the first audio signal and the second audio signal from which the noise has been removed.
일 실시 예에 따르면, 프로세서(210)는 잡음이 제거된 제1 오디오 신호와 잡음이 제거된 제2 오디오 신호(523)에 기반하여, 사용자의 착용 공간의 유형을 판단하고 외부 장치(300)와 사용자의 거리를 판단할 수 있다. 예를 들어, 잡음이 제거된 제1 오디오 신호를 기준으로, 잡음이 제거된 제2 오디오 신호(523)의 시간 차이(t) 또는 음량 차이(a)에 기초하여 외부 장치(300)와 사용자의 거리를 판단할 수 있다.According to an embodiment, the processor 210 determines the type of the user's wearing space based on the noise-removed first audio signal and the noise-removed second audio signal 523 , and communicates with the external device 300 and the external device 300 . It is possible to determine the distance of the user. For example, based on the time difference t or the volume difference a between the noise-removed first audio signal and the noise-removed second audio signal 523, the external device 300 and the user distance can be determined.
다양한 실시 예들에 따르면, 프로세서(210)는 획득한 오디오 신호들(500) 및 다양한 거리 측정 기술들을 활용하여 사용자와 외부 장치(300)의 거리를 판단할 수 있다. 예를 들어, 프로세서(210)는 외부 장치(300)와의 초광대역 무선(ultra-wideband) 통신을 이용하여 전자 장치(100)와 외부 장치(300) 사이의 거리를 판단할 수 있다. 다른 예를 들면, 프로세서(210)는 외부 장치(300)로부터 수신되는 무선 통신 신호의 수신 신호 강도 지시자(Received Signal Strength Indicator, RSSI)에 기반하여 전자 장치(100)와 외부 장치(300) 사이의 거리를 판단할 수도 있다.According to various embodiments, the processor 210 may determine the distance between the user and the external device 300 by using the acquired audio signals 500 and various distance measurement techniques. For example, the processor 210 may determine the distance between the electronic device 100 and the external device 300 using ultra-wideband communication with the external device 300 . As another example, the processor 210 may perform a communication between the electronic device 100 and the external device 300 based on a received signal strength indicator (RSSI) of a wireless communication signal received from the external device 300 . You can also judge the distance.
도 6a는 일 실시 예에 따라, 제1 공간에서 제2 공간으로 사용자가 이동하는 것을 나타내는 도면이다. 도 6b는 일 실시 예에 따라, 제1 공간에서 제2 공간으로 사용자가 이동함에 따라서 수신되는 오디오 신호의 변화를 나타내는 도면이다.6A is a diagram illustrating movement of a user from a first space to a second space, according to an exemplary embodiment. 6B is a diagram illustrating a change in a received audio signal as a user moves from a first space to a second space, according to an embodiment.
일 실시 예에 따르면, 웨어러블 장치(100)를 신체에 착용한 사용자는 제1 공간(310)에서 제2 공간(320)으로 이동할 수 있다. 예를 들어, 사용자는 제1 공간(310)의 제1 위치(410)에서, 제2 공간(320)의 제3 위치(610)로 이동할 수 있다. According to an embodiment, a user wearing the wearable device 100 on the body may move from the first space 310 to the second space 320 . For example, the user may move from a first location 410 in the first space 310 to a third location 610 in the second space 320 .
일 실시 예에 따르면, 프로세서(210)는 제1 위치(410)에서 마이크(220)를 이용해 외부 장치(300)로부터 제1 오디오 신호(411)를 획득할 수 있다. 일 실시 예에 따른 프로세서(210)는, 제3 위치(610)에서 마이크(220)를 이용해 외부 장치(300)로부터 제3 오디오 신호(611)를 획득할 수 있다.According to an embodiment, the processor 210 may obtain the first audio signal 411 from the external device 300 using the microphone 220 at the first location 410 . The processor 210 according to an embodiment may acquire the third audio signal 611 from the external device 300 using the microphone 220 at the third location 610 .
일 실시 예에 따르면, 사용자가 제1 위치(410)에서 제3 위치(610)로 이동함에 따라, 마이크(220)를 통해 획득되는 외부 장치(300)의 오디오 출력의 크기가 변경될 수 있다. 또한, 사용자가 제1 공간(310)에서 제2 공간(320)으로 이동함에 따라. 오디오 신호의 주파수별 음량이 다르게 수신될 수 있다. 예를 들어, 웨어러블 장치(100)의 사용자의 착용 공간의 유형이 반 열림/닫힘 공간인 제2 공간(320)으로 변경됨에 따라, 저주파수 대역의 음파는 회절 현상에 의해 마이크(220)로 전달되고, 고주파수 대역의 음파는 차단될 수 있다. 일 실시 예에 따르면, 고음 주파수 영역은 1kHZ 이상의 주파수 영역을 나타낼 수 있다. According to an embodiment, as the user moves from the first location 410 to the third location 610 , the size of the audio output of the external device 300 obtained through the microphone 220 may be changed. Also, as the user moves from the first space 310 to the second space 320 . The audio signal may be received with a different volume for each frequency. For example, as the type of the user's wearing space of the wearable device 100 is changed to the second space 320 which is a semi-open/closed space, the sound wave in the low frequency band is transmitted to the microphone 220 by the diffraction phenomenon and , high-frequency band sound waves can be blocked. According to an embodiment, the treble frequency region may indicate a frequency region of 1 kHz or more.
일 실시 예에 따르면, 프로세서(210)는 제3 위치(610)에서 마이크(220)를 이용해 획득한 제3 오디오 신호(611)의 주파수별 음량이 변경된 것에 기초하여, 사용자의 착용 공간의 유형이 제1 공간(310)에서 제2 공간(320)으로 변경되었음을 판단할 수 있다. 예를 들어, 프로세서(210)는 제1 오디오 신호(411)와 비교하여, 제3 오디오 신호(611)의 고음 주파수 영역의 음량 감쇄율과 저음 주파수 영역의 음량 감쇄율의 차이에 기초하여 착용 공간의 유형이 제2 공간(320)임을 판단할 수 있다.According to an embodiment, the processor 210 determines the type of the user's wearing space based on the change in the volume for each frequency of the third audio signal 611 acquired using the microphone 220 at the third location 610 . It may be determined that the first space 310 is changed to the second space 320 . For example, the processor 210 compares the first audio signal 411 with the type of the wearing space based on the difference between the volume decay rate of the high-pitched frequency region and the volume decay rate of the low-pitched frequency region of the third audio signal 611 . It may be determined that this is the second space 320 .
일 실시 예에 따르면, 프로세서(210)는 사용자의 착용 공간이 제1 공간(310)에서 제2 공간(320)으로 변경되었음에 기초하여, 외부 장치(300)가 음량을 유지하도록 통신 회로(230)를 통해 제어 신호를 송신할 수 있다. 예를 들어, 프로세서(210)는 사용자의 착용 공간의 유형이 제2 공간(320)에 해당하면, 외부 장치(300)와 사용자의 거리가 변경되더라도, 웨어러블 장치(100)가 수신하는 외부 장치(300)로부터 출력된 음향의 음량이 유지되도록 외부 장치(300)를 제어할 수 있다. 따라서, 외부 장치(300)를 기준으로 사용자의 위치가 변화하더라도, 프로세서(210)는 일정 범위 내에서 외부 장치(300)의 음량을 조절할 수 있다. 예를 들어, 제3 오디오 신호(611)의 고주파 대역의 음량이 감쇄된 경우, 전자 장치(100)는 외부 장치(300)에서 출력되는 음향의 고주파 대역 음량을 증가시킬 수 있다.According to an embodiment, the processor 210 is configured to allow the external device 300 to maintain the volume based on the change of the user's wearing space from the first space 310 to the second space 320, so that the communication circuit 230 ) to transmit a control signal. For example, if the type of the user's wearing space corresponds to the second space 320 , the processor 210 determines that the wearable device 100 receives the external device ( The external device 300 may be controlled to maintain the volume of the sound output from the 300 . Accordingly, even if the user's location changes with respect to the external device 300 , the processor 210 may adjust the volume of the external device 300 within a predetermined range. For example, when the high-frequency band volume of the third audio signal 611 is attenuated, the electronic device 100 may increase the high-frequency band volume of the sound output from the external device 300 .
도 7a는 일 실시 예에 따라, 제1 공간에서 제3 공간으로 사용자가 이동하는 것을 나타내는 도면이다. 도 7b는 일 실시 예에 따라, 제1 공간에서 제3 공간으로 사용자가 이동함에 따라서 수신되는 오디오 신호의 변화를 나타내는 도면이다.7A is a diagram illustrating movement of a user from a first space to a third space, according to an exemplary embodiment. 7B is a diagram illustrating a change in a received audio signal as a user moves from a first space to a third space, according to an exemplary embodiment.
일 실시 예에 따르면, 웨어러블 장치(100)를 신체에 착용한 사용자는 제1 공간(310)에서 제3 공간(330)으로 이동할 수 있다. 예를 들어, 사용자는 제1 위치(410)에서, 제3 공간(330)의 제4 위치(710)로 이동할 수 있다.According to an embodiment, a user wearing the wearable device 100 on the body may move from the first space 310 to the third space 330 . For example, the user may move from the first location 410 to the fourth location 710 in the third space 330 .
일 실시 예에 따르면, 프로세서(210)는 제1 위치(410)에서 마이크를 이용해 외부 장치(300)로부터 제1 오디오 신호(411)를 획득할 수 있다. 일 실시 예에서, 프로세서(210)는 제4 위치(710)에서 마이크(220)를 이용해 외부 장치(300)로부터 제4 오디오 신호(711)를 획득할 수 있다.According to an embodiment, the processor 210 may acquire the first audio signal 411 from the external device 300 using a microphone at the first location 410 . In an embodiment, the processor 210 may obtain the fourth audio signal 711 from the external device 300 using the microphone 220 at the fourth location 710 .
일 실시 예에 따르면, 사용자가 제1 위치(410)에서 제4 위치(710)로 이동함에 따라, 마이크(220)를 통해 획득되는 외부 장치(300)의 오디오 출력의 크기가 변경될 수 있다. 예를 들어, 착용 공간의 유형이 열린 공간인 제1 공간(310)에서 닫힌 공간인 제3 공간(330)으로 변경됨에 따라, 마이크(220)를 통해 획득되는 외부 장치(300)의 오디오 출력의 음량은 크게 감소될 수 있다. 예를 들어, 제1 오디오 신호(411)와 비교하여 제4 오디오 신호(711)의 주파수별 음량의 크기는 크게 감소될 수 있다.According to an embodiment, as the user moves from the first location 410 to the fourth location 710 , the size of the audio output of the external device 300 obtained through the microphone 220 may be changed. For example, as the type of the wearing space is changed from the first space 310 which is an open space to the third space 330 which is a closed space, the audio output of the external device 300 obtained through the microphone 220 is The volume can be greatly reduced. For example, compared to the first audio signal 411 , the volume level of the fourth audio signal 711 for each frequency may be greatly reduced.
일 실시 예에 따르면, 프로세서(210)는 제4 위치(710)에서 마이크(220)를 이용해 획득한 제4 오디오 신호(711)의 음량이 변경된 것에 기초하여, 사용자의 착용 공간의 유형이 제1 공간(310)에서 제3 공간(330)으로 변경되었음을 판단할 수 있다. 예를 들어, 프로세서(210)는 제3 공간(330)임을 판단하기위한 임계 값을 설정할 수 있다. 프로세서(210)는 제4 오디오 신호(711)의 주파수별 음량이 임계 값 이하인 경우, 사용자의 위치가 제1 공간(310)에서 제3 공간(330)으로 변경된 것을 판단할 수 있다. 다양한 실시 예들에 따라, 임계 값은 다양하게 설정될 수 있다. 일 실시 예에 따르면, 임계 값은 제1 오디오 신호(411)에 기초하여 결정될 수 있다. 예를 들어, 제1 오디오 신호(411)에 기초하여 일정 수준 감소된 값(예: 음량의 4분의 1 값)을 임계 값으로 설정할 수 있다. According to an embodiment, the processor 210 determines the type of the user's wearing space to be the first based on the change in the volume of the fourth audio signal 711 acquired using the microphone 220 at the fourth location 710 . It may be determined that the space 310 is changed to the third space 330 . For example, the processor 210 may set a threshold value for determining that it is the third space 330 . The processor 210 may determine that the user's location is changed from the first space 310 to the third space 330 when the volume of each frequency of the fourth audio signal 711 is equal to or less than a threshold value. According to various embodiments, the threshold value may be set in various ways. According to an embodiment, the threshold value may be determined based on the first audio signal 411 . For example, a value (eg, a quarter value of the volume) reduced by a predetermined level based on the first audio signal 411 may be set as the threshold value.
일 실시 예에 따른 프로세서(210)는 사용자의 착용 공간의 유형이 제1 공간(310)에서 제3 공간(330)으로 변경된 것에 기초하여, 외부 장치(300)가 음량을 최소 음량으로 설정하도록 통신 회로(230)를 통해 제어 신호를 송신할 수 있다. 예를 들어, 프로세서(210)는 사용자의 착용 공간의 유형이 제3 공간(330)에 해당하면, 사용자에게 더 이상 청취 의지가 없다고 판단하고, 외부 장치(300)의 음량을 최소 음량으로 제어할 수 있다. 다양한 실시 예들에 따르면, 최소 음량의 기준은 프로세서(210)에 의해 다양한 값으로 미리 설정될 수 있다. 일 실시 예에 따른 프로세서(210)는 사용자의 착용 공간의 유형이 제3 공간(330)으로 변경된 것에 기초하여, 외부 장치(300)의 음량을 최소 음량으로 제어함으로써, 불필요한 음향 출력을 저감할 수 있다.The processor 210 according to an embodiment communicates so that the external device 300 sets the volume to the minimum volume based on the change in the type of the user's wearing space from the first space 310 to the third space 330 . A control signal may be transmitted through the circuit 230 . For example, if the type of the user's wearing space corresponds to the third space 330 , the processor 210 determines that the user no longer has a will to listen, and controls the volume of the external device 300 to the minimum volume. can According to various embodiments, the reference of the minimum volume may be preset to various values by the processor 210 . The processor 210 according to an embodiment may reduce unnecessary sound output by controlling the volume of the external device 300 to the minimum volume based on the change in the type of the user's wearing space to the third space 330 . have.
도 8은 일 실시 예에 따른 웨어러블 장치에서, 사용자의 위치에 기반하여 외부 장치의 음량을 제어하는 프로세스에 대한 흐름도(800)이다.8 is a flowchart 800 of a process of controlling a volume of an external device based on a user's location in a wearable device according to an embodiment.
도 8을 참조하면, 웨어러블 장치(100)의 프로세서(210)는 동작 801에서 마이크(220)를 통해 제1 위치에서 제1 오디오 신호를 획득할 수 있다. 일 실시 예에 따르면, 제1 오디오 신호는 외부 장치(300)로부터 마이크(220)를 통해 획득할 수 있다. 일 실시 예에서, 마이크(220)는 외부 장치(300)로부터 출력된 소리를 획득하고, 획득한 소리를 제1 오디오 신호로 변환할 수 있다. 일 실시 예에 따르면, 제1 위치는 외부 장치(300)의 음량을 제어하는 사용자의 입력에 기초하여 결정될 수 있다. 일 실시 예에 따르면, 프로세서(210)는 동작 801에서 외부 장치(300)의 음량을 제어하기 위한 사용자의 입력에 기초하여, 제1 위치를 설정하고 제1 위치에서 마이크(220)를 이용해 획득한 소리에 기초하여 제1 오디오 신호를 획득할 수 있다. 일 실시 예에 따르면, 외부 장치(300)의 음량을 제어하기 위한 사용자의 입력이 일정 시간동안 연속적으로 수행되는 경우, 프로세서(210)는 마지막 사용자 입력에 기초하여 제1 오디오 신호를 획득할 수 있다. 다른 실시 예에 따르면, 프로세서(210)는 외부 장치(300)를 통해서 오디오 재생을 시작하는 경우, 제1 오디오 신호를 획득할 수도 있다.Referring to FIG. 8 , the processor 210 of the wearable device 100 may acquire a first audio signal at a first location through the microphone 220 in operation 801 . According to an embodiment, the first audio signal may be obtained from the external device 300 through the microphone 220 . In an embodiment, the microphone 220 may obtain a sound output from the external device 300 and convert the obtained sound into a first audio signal. According to an embodiment, the first location may be determined based on a user input controlling the volume of the external device 300 . According to an embodiment, in operation 801 , the processor 210 sets a first position based on a user input for controlling the volume of the external device 300 and obtains a first position using the microphone 220 at the first position. A first audio signal may be obtained based on the sound. According to an embodiment, when a user input for controlling the volume of the external device 300 is continuously performed for a predetermined time, the processor 210 may acquire the first audio signal based on the last user input. . According to another embodiment, when starting audio reproduction through the external device 300 , the processor 210 may acquire the first audio signal.
일 실시 예에 따른 프로세서(210)는 동작 803에서, 마이크(220)를 이용해 제2 위치에서 외부 장치(300)로부터 제2 오디오 신호를 획득할 수 있다. 일 실시 예에 따르면, 제2 위치는 도 3을 참조하여 설명된 제1 공간(310), 제2 공간(320) 또는 제3 공간(330)의 위치를 나타낼 수 있다.In operation 803 , the processor 210 according to an embodiment may acquire a second audio signal from the external device 300 at a second location using the microphone 220 . According to an embodiment, the second location may indicate a location of the first space 310 , the second space 320 , or the third space 330 described with reference to FIG. 3 .
일 실시 예에 따르면, 프로세서(210)는 동작 805에서, 제1 오디오 신호 및 제2 오디오 신호에 기반하여 웨어러블 장치(100)의 사용자의 착용 공간의 유형을 판단할 수 있다. 예를 들어, 프로세서(210)는 마이크(220)를 이용해 외부 장치(300)로부터 출력된 소리를 획득하고, 획득된 소리에 기반한 제1 오디오 신호 및 제2 오디오 신호에 기반하여 착용 공간의 유형을 판단할 수 있다. 프로세서(210)는 제1 오디오 신호를 기준으로, 제2 오디오 신호의 변화량에 기초하여 착용 공간의 유형을 판단할 수 있다. 일 실시 예에 따르면, 착용 공간의 유형은 제1 공간(310), 제2 공간(320) 또는 제3 공간(330)을 포함할 수 있다.According to an embodiment, in operation 805 , the processor 210 may determine the type of the wearable space of the user of the wearable device 100 based on the first audio signal and the second audio signal. For example, the processor 210 obtains a sound output from the external device 300 using the microphone 220 , and determines the type of the wearing space based on a first audio signal and a second audio signal based on the obtained sound. can judge The processor 210 may determine the type of the wearing space based on the change amount of the second audio signal based on the first audio signal. According to an embodiment, the type of the wearing space may include the first space 310 , the second space 320 , or the third space 330 .
일 실시 예에 따르면, 프로세서(210)는 동작 807에서, 판단된 착용 공간의 유형에 대응되는 외부 장치(300)의 오디오 출력 제어 방식에 기반하여, 외부 장치(300)의 볼륨을 제어할 수 있다. 일 실시 예에서, 프로세서(210)는 착용 공간의 유형에 대응되는 오디오 출력 제어 방식에 기초하여 통신 회로(230)를 통해 제어 신호를 송신할 수 있다. 일 실시 예에 따르면, 외부 장치(300)는 수신된 제어 신호에 기초하여, 오디오 출력을 제어할 수 있다. 일 실시 예에 따르면, 프로세서(210)는 착용 공간의 유형에 따라 다르게 외부 장치(300)의 오디오 출력을 제어할 수 있다.According to an embodiment, in operation 807 , the processor 210 may control the volume of the external device 300 based on the audio output control method of the external device 300 corresponding to the determined type of wearing space. . In an embodiment, the processor 210 may transmit a control signal through the communication circuit 230 based on an audio output control method corresponding to the type of the wearing space. According to an embodiment, the external device 300 may control the audio output based on the received control signal. According to an embodiment, the processor 210 may control the audio output of the external device 300 differently according to the type of the wearing space.
도 9는 일 실시 예에 따른 웨어러블 장치에서, 사용자의 공간 유형을 구분하여 외부 장치의 음량을 제어하는 프로세스에 대한 흐름도(900)이다.9 is a flowchart 900 of a process of controlling a volume of an external device by classifying a user's space type in a wearable device according to an embodiment.
일 실시 예에 따르면, 프로세서(210)는 동작 901에서, 사용자의 음량 설정에 응답하여 제1 오디오 신호를 획득할 수 있다. 일 실시 예에서, 프로세서(210)는 마이크(220)를 이용해 외부 장치(300)로부터 제1 오디오 신호를 획득할 수 있다. 예를 들어, 프로세서(210)는 웨어러블 장치(100) 사용자의 입력에 기반하여, 외부 장치(300)의 음량이 제어된 위치를 제1 위치로 설정하고, 제1 위치에서 획득된 오디오 신호는 제1 오디오 신호일 수 있다. According to an embodiment, in operation 901 , the processor 210 may acquire the first audio signal in response to the user's volume setting. In an embodiment, the processor 210 may obtain the first audio signal from the external device 300 using the microphone 220 . For example, the processor 210 sets a position at which the volume of the external device 300 is controlled to a first position based on a user input of the wearable device 100 , and the audio signal obtained from the first position is the second position. 1 may be an audio signal.
일 실시 예에 따르면, 동작 903에서, 프로세서(210)는 외부 장치(300)와 원본 오디오 신호에 관련된 정보를 공유할 수 있다. 일 실시 예에 따르면, 외부 장치(300) 내부 메모리에 저장된 오디오 데이터를 출력할 수 있다. 다른 실시 예에서, 외부 장치(300)는 웨어러블 장치(100)로부터 오디오 데이터를 수신하여 출력할 수 있다. 일 실시 예에 따르면, 외부 장치(300)가 내부 메모리에 저장된 오디오 데이터를 출력하는 경우, 프로세서(210)는 통신 회로(230)를 이용해 외부 장치(300)로부터 원본 오디오 데이터에 관한 정보를 수신할 수 있다. 다른 실시 예에서, 외부 장치(300)가 웨어러블 장치(100)로부터 오디오 데이터를 수신하여 출력하는 경우, 프로세서(210)는 동작 903을 생략할 수 있다. 또 다른 실시 예에 따르면, 외부 장치(300)가 외부 서버로부터 제공되는 스트리밍(streaming) 서비스를 통해서 음향을 출력하는 경우, 웨어러블 장치(100)는 외부 서버 또는 외부 장치(300)로부터 오디오 데이터를 수신할 수도 있다.According to an embodiment, in operation 903 , the processor 210 may share information related to the original audio signal with the external device 300 . According to an embodiment, audio data stored in the internal memory of the external device 300 may be output. In another embodiment, the external device 300 may receive and output audio data from the wearable device 100 . According to an embodiment, when the external device 300 outputs audio data stored in the internal memory, the processor 210 may receive information about the original audio data from the external device 300 using the communication circuit 230 . can In another embodiment, when the external device 300 receives and outputs audio data from the wearable device 100 , the processor 210 may omit operation 903 . According to another embodiment, when the external device 300 outputs sound through a streaming service provided from an external server, the wearable device 100 receives audio data from the external server or the external device 300 . You may.
일 실시 예에 따르면, 프로세서(210)는 동작 905에서 마이크(220)를 이용해 외부 장치(300)로부터 제2 오디오 신호를 획득할 수 있다. 일 실시 예에 따르면, 프로세서(210)는 제1 오디오 신호를 획득한 뒤 설정된 시간이 지남에 따라, 제2 오디오 신호를 획득할 수 있다. 일 실시 예에서, 프로세서(210)는 연속적으로 제2 오디오 신호를 획득할 수 있다. According to an embodiment, the processor 210 may acquire the second audio signal from the external device 300 using the microphone 220 in operation 905 . According to an embodiment, the processor 210 may acquire the second audio signal as a set time elapses after acquiring the first audio signal. In an embodiment, the processor 210 may continuously acquire the second audio signal.
일 실시 예에 따르면, 프로세서(210)는 동작 907에서, 제1 오디오 신호 및 제2 오디오 신호에 기반하여 사용자의 착용 공간의 유형이 제1 공간(310)인지 판단할 수 있다. 예를 들어, 제1 오디오 신호와 비교하여 제2 오디오 신호의 음량이 줄어들거나 늘어난 경우, 프로세서(210)는 사용자의 착용 공간의 유형이 제1 공간(310)임을 판단할 수 있다. 일 실시 예에 따르면, 프로세서(210)는 사용자가 제1 공간(310)에 있다고 판단되는 경우, 동작 909에서, 사용자와 외부 장치(300)의 거리를 판단할 수 있다. 일 실시 예에 따르면, 프로세서(210)는 동작 903에서 획득한 원본 오디오 신호와 관련된 정보에 기초하여, 제1 오디오 신호로부터 잡음을 분리할 수 있다. 또한, 프로세서(210)는 원본 오디오 신호와 관련된 정보에 기초하여 제2 오디오 신호로부터 잡음을 분리할 수 있다. 일 실시 예에 따르면, 프로세서(210)는 잡음이 분리된 제1 오디오 신호 및 제2 오디오 신호에 기초하여, 외부 장치(300)와 사용자의 거리를 판단할 수 있다. 예를 들어, 프로세서(210)는 제1 오디오 신호를 획득할 때 외부 장치(300)와 사용자의 거리에 비교하여, 제2 오디오 신호를 획득할 때 외부 장치(300)와 사용자의 거리가 멀어졌는지 가까워졌는지 여부를 판단할 수 있다. 일 실시 예에서, 프로세서(210)는 제1 오디오 신호와 비교하여 제2 오디오 신호의 음량이 늘어난 경우, 외부 장치(300)와 사용자의 거리가 더 가까워진 것으로 판단할 수 있다. 다른 실시 예에서, 프로세서(210)는 제1 오디오 신호와 비교하여 제2 오디오 신호의 음량이 줄어든 경우, 외부 장치(300)와 사용자의 거리가 더 멀어진 것으로 판단할 수 있다. According to an embodiment, in operation 907 , the processor 210 may determine whether the type of the user's wearing space is the first space 310 based on the first audio signal and the second audio signal. For example, when the volume of the second audio signal is decreased or increased compared to the first audio signal, the processor 210 may determine that the type of the user's wearing space is the first space 310 . According to an embodiment, when it is determined that the user is in the first space 310 , the processor 210 may determine the distance between the user and the external device 300 in operation 909 . According to an embodiment, the processor 210 may separate noise from the first audio signal based on the information related to the original audio signal obtained in operation 903 . Also, the processor 210 may separate noise from the second audio signal based on information related to the original audio signal. According to an embodiment, the processor 210 may determine the distance between the external device 300 and the user based on the first audio signal and the second audio signal from which the noise is separated. For example, the processor 210 compares the distance between the user and the external device 300 when acquiring the first audio signal to determine whether the distance between the external device 300 and the user is greater when acquiring the second audio signal. You can determine whether it is close or not. In an embodiment, when the volume of the second audio signal is increased compared to the first audio signal, the processor 210 may determine that the distance between the external device 300 and the user is getting closer. In another embodiment, when the volume of the second audio signal is reduced compared to the first audio signal, the processor 210 may determine that the distance between the external device 300 and the user is increased.
일 실시 예에 따르면, 프로세서(210)는 동작 911에서, 판단된 거리에 기초하여 외부 장치(300)의 음량을 제어할 수 있다. 일 실시 예에 따르면, 프로세서(210)는 판단된 거리에 기초하여, 외부 장치(300)의 음량을 제어하기 위한 제어 신호를 통신 회로(230)를 통해 송신할 수 있다. 일 실시 예에서, 사용자와 외부 장치(300)의 거리가 제1 오디오 신호를 획득할 때와 비교하여 가까워진 경우, 프로세서(210)는 외부 장치(300)의 음량을 줄이기 위한 제어 신호를 생성하고, 통신 회로(230)를 이용해 송신할 수 있다. 다른 실시 예에서, 사용자와 외부 장치(300)의 거리가 제1 오디오 신호를 획득할 때와 비교하여 멀어진 경우, 프로세서(210)는 외부 장치(300)의 음량을 높이기 위한 제어 신호를 생성하고, 통신 회로(230)를 이용해 송신할 수 있다. 따라서, 사용자는 외부 장치(300)의 음량을 직접 제어하지 않고, 제1 오디오 신호를 획득할 때와 유사한 인지 음량으로 들을 수 있다. According to an embodiment, the processor 210 may control the volume of the external device 300 based on the determined distance in operation 911 . According to an embodiment, the processor 210 may transmit a control signal for controlling the volume of the external device 300 through the communication circuit 230 based on the determined distance. In an embodiment, when the distance between the user and the external device 300 is closer than when obtaining the first audio signal, the processor 210 generates a control signal for reducing the volume of the external device 300, The communication circuit 230 may be used to transmit. In another embodiment, when the distance between the user and the external device 300 is greater than when acquiring the first audio signal, the processor 210 generates a control signal for increasing the volume of the external device 300, The communication circuit 230 may be used to transmit. Accordingly, the user may listen at a perceived volume similar to that when acquiring the first audio signal without directly controlling the volume of the external device 300 .
일 실시 예에 따르면, 사용자의 착용 공간의 유형이 제1 공간(310)이 아닌 경우, 프로세서(210)는 동작 913에서, 사용자의 착용 공간의 유형이 제2 공간(320)인지 여부를 판단할 수 있다. 일 실시 예에 따르면, 프로세서(210)는 제1 오디오 신호 및 제2 오디오 신호에 기반하여, 사용자의 착용 공간의 유형이 제2 공간(320)인지 여부를 판단할 수 있다. 일 실시 예에 따르면, 프로세서(210)는 제1 오디오 신호와 비교하여 제2 오디오 신호의 저음 주파수 영역이 굴절되고, 고음 주파수 영역이 소실된 경우, 프로세서(210)는 사용자의 착용 공간의 유형이 제2 공간(320)임을 판단할 수 있다. 일 실시 예에 따르면, 동작 915에서, 프로세서(210)는 사용자의 위치 변화에도 외부 장치(300)의 음량이 증감되지 않도록 통신 회로(230)를 통해 제어 신호를 송신할 수 있다. 일 실시 예에 따르면, 프로세서(210)는 제2 공간(320)으로 판단되기 전 마지막 음량을 유지하도록 외부 장치(300)를 제어할 수 있다. 일 실시 예에 따르면, 외부 장치(300)는 음량을 유지하기 위한 제어 신호에 기초하여, 음량을 유지할 수 있다.According to an embodiment, when the type of the user's wearing space is not the first space 310 , in operation 913 , the processor 210 determines whether the type of the user's wearing space is the second space 320 . can According to an embodiment, the processor 210 may determine whether the type of the user's wearing space is the second space 320 based on the first audio signal and the second audio signal. According to an embodiment, when the low-pitched frequency region of the second audio signal is refracted compared to the first audio signal and the high-pitched frequency region is lost, the processor 210 determines the type of the user's wearing space. It may be determined that it is the second space 320 . According to an embodiment, in operation 915 , the processor 210 may transmit a control signal through the communication circuit 230 so that the volume of the external device 300 is not increased or decreased even when the user's location changes. According to an embodiment, the processor 210 may control the external device 300 to maintain the last volume before it is determined as the second space 320 . According to an embodiment, the external device 300 may maintain the volume based on a control signal for maintaining the volume.
일 실시 예에 따르면, 프로세서(210)는 사용자의 착용 공간의 유형이 제2 공간(320)이 아니라고 판단된 경우 사용자의 착용 공간의 유형이 제3 공간(330)인 것으로 판단할 수 있다. 일 실시 예에 따르면, 프로세서(210)는 제1 오디오 신호와 비교하여 제2 오디오 신호의 음량이 임계 값 이하로 줄어든 경우, 프로세서(210)는 사용자의 착용 공간의 유형이 제3 공간(330)임을 판단할 수 있다. 일 실시 예에 따르면, 임계 값은 프로세서(210)에 의해 미리 정의된 값일 수 있다. 예를 들어, 프로세서(210)는 제1 오디오 신호에 기초하여 임계 값을 설정할 수 있다. 일 실시 예에 따르면, 동작 917에서 프로세서(210)는 외부 장치(300)의 음량을 최소 음량으로 제어하도록 제어 신호를 생성하고, 통신 회로(230)를 통해 제어 신호를 송신할 수 있다. 일 실시 예에서, 프로세서(210)는 최소 음량을 설정할 수 있다. 외부 장치(300)는 수신된 제어 신호에 기초하여, 최소 음량으로 오디오를 출력할 수 있다.According to an embodiment, when it is determined that the type of the user's wearing space is not the second space 320 , the processor 210 may determine that the type of the user's wearing space is the third space 330 . According to an embodiment, when the volume of the second audio signal is reduced to less than or equal to a threshold value in comparison with the first audio signal, the processor 210 determines that the type of the user's wearing space is the third space 330 . It can be judged that According to an embodiment, the threshold value may be a value predefined by the processor 210 . For example, the processor 210 may set a threshold value based on the first audio signal. According to an embodiment, in operation 917 , the processor 210 may generate a control signal to control the volume of the external device 300 to a minimum volume, and transmit the control signal through the communication circuit 230 . In an embodiment, the processor 210 may set the minimum volume. The external device 300 may output audio at a minimum volume based on the received control signal.
도 10은 일 실시 예에 따른 웨어러블 장치에서, 사용자의 발화에 따라 외부 장치의 음량을 제어하는 것을 나타내는 도면이다.10 is a diagram illustrating control of a volume of an external device according to a user's utterance in a wearable device according to an exemplary embodiment.
도 10을 참조하면, 시간에 따른 외부 장치(300)의 음량을 나타내는 그래프(1000)가 도시된다. 일 실시 예에 따르면, 프로세서(210)는 도 9를 참조하여 설명된 제2 오디오 신호에 사용자의 발화가 포함되어 있는지 여부를 판단할 수 있다. 일 실시 예에 따르면, 사용자가 발화하는 경우, 프로세서(210)는 마이크(220)를 통해 사용자 및 외부 장치(300)의 소리를 획득할 수 있다. 일 실시 예에서, 프로세서(210)는 사용자의 발화가 포함되어 있는지 여부를 판단하기 위해, 메모리(240)에 저장된 사용자 발화 정보를 이용할 수 있다. 예를 들어, 메모리(240)는 웨어러블 장치(100)의 사용자의 음성에 관한 정보를 저장할 수 있다. 음성에 관한 정보는 사용자가 발화를 할 때 획득될 수 있다. Referring to FIG. 10 , a graph 1000 indicating the volume of the external device 300 according to time is shown. According to an embodiment, the processor 210 may determine whether the user's utterance is included in the second audio signal described with reference to FIG. 9 . According to an embodiment, when the user speaks, the processor 210 may acquire the sound of the user and the external device 300 through the microphone 220 . In an embodiment, the processor 210 may use the user's utterance information stored in the memory 240 to determine whether the user's utterance is included. For example, the memory 240 may store information about the user's voice of the wearable device 100 . The information about the voice may be obtained when the user makes a utterance.
일 실시 예에 따르면, 프로세서(210)는 제2 오디오 신호에 사용자의 발화가 포함된 것에 응답하여, 외부 장치(300)의 음량을 기준 값 이하로 제어할 수 있다. 일 실시 예에 따르면, 프로세서(210)는 사용자의 발화에 방해가 되지 않을 정도의 음량으로 기준 값을 설정할 수 있다. 일 실시 예에서, 프로세서(210)는 외부 장치(300)의 음량을 기준 값 이하로 제어하기 위한 제어 신호를 생성하고, 생성된 제어 신호를 통신 회로(230)를 통해 송신할 수 있다. 일 실시 예에서, 프로세서(210)는 사용자의 발화가 시작된 시점에 외부 장치(300)의 음량을 기준 값 이하로 줄이고, 발화가 종료된 시점을 판단하여 외부 장치(300)의 음량을 원래의 음량으로 제어할 수 있다. 예를 들어, 마이크(220)를 통해서 획득된 오디오 신호에 포함된 사용자의 음성이 식별된 경우, 프로세서(210)는 사용자의 발화가 시작된 것으로 판단할 수 있다. 또한, 마이크(220)를 통해서 획득된 오디오 신호에 사용자의 음성이 지정된 시간 동안 포함되지 않은 경우 프로세서(210)는 사용자의 발화가 종료된 것으로 판단할 수 있다.According to an embodiment, in response to the user's utterance being included in the second audio signal, the processor 210 may control the volume of the external device 300 to be less than or equal to a reference value. According to an embodiment, the processor 210 may set the reference value at a volume level that does not interfere with the user's utterance. In an embodiment, the processor 210 may generate a control signal for controlling the volume of the external device 300 to be less than or equal to a reference value, and transmit the generated control signal through the communication circuit 230 . In an embodiment, the processor 210 reduces the volume of the external device 300 to a reference value or less when the user's speech starts, and determines when the speech ends to reduce the volume of the external device 300 to the original volume. can be controlled with For example, when the user's voice included in the audio signal acquired through the microphone 220 is identified, the processor 210 may determine that the user's speech has started. In addition, when the user's voice is not included in the audio signal acquired through the microphone 220 for a specified time, the processor 210 may determine that the user's utterance has ended.
도 11a는 일 실시 예에 따라 복수 개의 외부 장치들에 대한 사용자의 위치를 나타내는 도면이다. 도 11b는 일 실시 예에 따라 복수 개의 외부 장치들과 거리에 기반하여 적어도 하나의 외부 장치의 음량을 제어하는 것을 나타내는 도면이다.11A is a diagram illustrating a location of a user with respect to a plurality of external devices, according to an exemplary embodiment. 11B is a diagram illustrating controlling a volume of at least one external device based on a distance from a plurality of external devices, according to an exemplary embodiment.
도 11a를 참조하면, 일 실시 예에 따르면, 웨어러블 장치(100)의 사용자는 복수 개의 외부 장치들(A 내지 D)을 이용해 복수 개의 외부 장치들(A 내지 D)이 출력하는 오디오를 청취할 수 있다. 일 실시 예에 따르면, 복수 개의 외부 장치들(A 내지 D)를 기준으로 사용자의 위치는 제1 위치(1110), 제2 위치(1120) 및/또는 제3 위치(1130)로 변화할 수 있다. Referring to FIG. 11A , according to an embodiment, the user of the wearable device 100 may listen to audio output from the plurality of external devices A to D using the plurality of external devices A to D. have. According to an embodiment, the user's location may change to the first location 1110 , the second location 1120 , and/or the third location 1130 based on the plurality of external devices A to D. .
일 실시 예에 따르면, 제1 위치(1110)는 복수 개의 외부 장치들(A 내지 D) 각각으로부터 사용자의 거리가 모두 동일한 위치를 나타낼 수 있다. 일 실시 예에 따르면, 제2 위치(1120)는 제1 위치(1110)와 비교하여, 제1 외부 장치(A)와 사용자의 거리는 가깝고, 제2 내지 제4 외부 장치(B, C, D)들과 거리는 먼 위치를 나타낼 수 있다. 일 실시 예에 따르면, 제3 위치(1130)는 제1 위치(1110)와 비교하여, 제3 및 제4 외부 장치들(C, D)과 거리는 가깝고, 제1 및 제2 외부 장치들(A, B)과 거리는 먼 위치를 나타낼 수 있다. 본 개시에 따르면, 설명의 편의를 위해 4개의 외부 장치(A 내지 D) 및 제1 내지 제3 위치(1110 내지 1130)를 기준으로 설명하였지만, 외부 장치의 개수 및 사용자의 위치는 이에 제한되지 않고 다양할 수 있다.According to an embodiment, the first location 1110 may indicate a location where the distance of the user from each of the plurality of external devices A to D is the same. According to an embodiment, the second location 1120 has a shorter distance between the first external device A and the user, and the second to fourth external devices B, C, and D, compared to the first location 1110 . Fields and distances may indicate distant locations. According to an embodiment, the third location 1130 is closer to the third and fourth external devices C and D than the first location 1110 , and the first and second external devices A , B) and the distance can represent distant locations. According to the present disclosure, for convenience of explanation, the four external devices A to D and the first to third positions 1110 to 1130 have been described as the basis, but the number of external devices and the location of the user are not limited thereto. can be varied.
일 실시 예에 따르면, 사용자의 위치가 제1 위치(1110), 제2 위치(1120) 및/또는 제3 위치(1130)로 변화함에 따라 복수 개의 오디오 장치들(A 내지 D)을 통한 사용자의 인지 음량은 변화할 수 있다. According to an embodiment, as the user's location changes to the first location 1110 , the second location 1120 , and/or the third location 1130 , the user's Perceived loudness can vary.
일 실시 예에서, 제1 위치에 기초하여 거리 및 복수 개의 외부 장치들(A 내지 D)의 음량을 나타낸 제1 위치 그래프(1111)를 참조하면, 사용자의 위치가 제1 위치(1110)인 경우 복수 개의 외부 장치들(A 내지 D)과 사용자의 거리는 모두 동일할 수 있다. 따라서, 사용자가 인지하는 복수 개의 외부 장치들(A 내지 D) 각각의 인지 음량은 모두 동일할 수 있다. 일 실시 예에서 프로세서(210)는 마이크(220)를 이용해 복수 개의 외부 장치들(A 내지 D)로부터 출력되는 소리를 획득하고, 획득된 소리에 기반한 오디오 신호를 이용해 사용자의 위치가 제1 위치(1110)임을 판단할 수 있다. 일 실시 예에서 프로세서(210)는 사용자의 위치가 제1 위치(1110)임에 기반하여, 복수 개의 외부 장치들(A 내지 D)의 음량이 모두 동일하도록 복수 개의 외부 장치들(A 내지 D)을 제어할 수 있다.In an embodiment, referring to the first location graph 1111 indicating the distance and the volume of the plurality of external devices A to D based on the first location, when the user's location is the first location 1110 The distance between the plurality of external devices A to D and the user may be the same. Accordingly, the perceived volume of each of the plurality of external devices A to D perceived by the user may be the same. In an embodiment, the processor 210 acquires the sound output from the plurality of external devices A to D using the microphone 220 , and uses an audio signal based on the acquired sound to determine the user's position at the first position ( 1110) can be determined. In an exemplary embodiment, the processor 210 may set the plurality of external devices A to D so that the volumes of the plurality of external devices A to D are all the same based on the user's location being the first location 1110 . can be controlled.
일 실시 예에서, 제2 위치에 기초하여 거리 및 복수 개의 외부 장치들(A 내지 D)의 음량을 나타낸 제2 위치 그래프(1121)를 참조하면, 사용자의 위치가 제2 위치(1120)인 경우, 제1 위치(1110)와 비교하여 제1 외부 장치(A)와 사용자의 거리는 가깝고, 제2 내지 제4 외부 장치(B, C, D)들과 거리는 멀 수 있다. 따라서, 사용자가 인지하는 복수 개의 외부 장치들(A 내지 D) 각각의 인지 음량은 상이할 수 있다. 예를 들어, 사용자의 위치가 제2 위치(1120)로 변화함에 따라, 제1 외부 장치(A)에서 출력되는 소리의 인지 음량은 커지고, 제2 내지 제4 외부 장치들(B 내지 D)에서 출력되는 소리의 인지 음량은 작아질 수 있다. 일 실시 예에서 프로세서(210)는 마이크(220)를 이용해 복수 개의 외부 장치들(A 내지 D)로부터 출력되는 소리를 획득하고, 획득된 소리에 기반한 오디오 신호를 이용해 사용자의 위치가 제2 위치(1120)임을 판단할 수 있다. 일 실시 예에서 프로세서(210)는 사용자의 위치가 제2 위치(1120)임에 기반하여, 제1 외부 장치(A) 음량은 줄이고, 제2 내지 제4 외부 장치들(B 내지 D)의 음량은 높이도록 복수 개의 외부 장치들(A 내지 D)을 제어할 수 있다. In an embodiment, referring to the second location graph 1121 indicating the distance and the volume of the plurality of external devices A to D based on the second location, when the user's location is the second location 1120 , compared to the first location 1110 , the distance between the first external device A and the user may be close, and the distance from the second to fourth external devices B, C, and D may be greater. Accordingly, the perceived volume of each of the plurality of external devices A to D perceived by the user may be different. For example, as the user's position changes to the second position 1120 , the perceived volume of the sound output from the first external device A increases, and the second to fourth external devices B to D The perceived volume of the output sound may be decreased. In an embodiment, the processor 210 acquires the sound output from the plurality of external devices A to D using the microphone 220, and uses an audio signal based on the acquired sound to determine the user's position at the second position ( 1120) can be determined. In an embodiment, the processor 210 reduces the volume of the first external device A and the volume of the second to fourth external devices B to D based on the user's location being the second location 1120 . may control the plurality of external devices A to D to increase the .
일 실시 예에서, 제3 위치에 기초하여 거리 및 복수 개의 외부 장치들(A 내지 D)의 음량을 나타낸 제3 위치 그래프(1131)를 참조하면, 사용자의 위치가 제3 위치(1130)인 경우 제3 및 제4 외부 장치들(C, D)과 거리는 가깝고, 제1 및 제2 외부 장치들(A, B)과 거리는 멀 수 있다. 따라서, 사용자가 인지하는 복수 개의 외부 장치들(A 내지 D) 각각의 인지 음량은 상이할 수 있다. 예를 들어, 사용자의 위치가 제3 위치(1130)로 변화함에 따라, 제3 및 제4 외부 장치들(C, D)에서 출력되는 소리의 인지 음량은 커지고, 제1 및 제2 외부 장치들(A, B)에서 출력되는 소리의 인지 음량은 작아질 수 있다. 일 실시 예에서 프로세서(210)는 마이크(220)를 이용해 복수 개의 외부 장치들(A 내지 D)로부터 출력되는 소리를 획득하고, 획득된 소리에 기반한 오디오 신호를 이용해 사용자의 위치가 제3 위치(1130)임을 판단할 수 있다. 일 실시 예에서 프로세서(210)는 사용자의 위치가 제3 위치(1130)임에 기반하여, 제1 및 제2 외부 장치들(A, B) 음량은 높이고, 제3 및 제4 외부 장치들(C, D)의 음량은 높이도록 복수 개의 외부 장치들(A 내지 D)을 제어할 수 있다. In an embodiment, referring to the third location graph 1131 indicating the distance and the volume of the plurality of external devices A to D based on the third location, when the user's location is the third location 1130 The distance from the third and fourth external devices C and D may be close, and the distance from the first and second external devices A and B may be far. Accordingly, the perceived volume of each of the plurality of external devices A to D perceived by the user may be different. For example, as the user's location changes to the third location 1130 , the perceived volume of sounds output from the third and fourth external devices C and D increases, and the first and second external devices C and D increase. The perceived volume of the sound output from (A, B) may be reduced. In one embodiment, the processor 210 acquires the sound output from the plurality of external devices A to D using the microphone 220, and uses an audio signal based on the acquired sound to determine the user's position at the third position ( 1130) can be determined. In an embodiment, the processor 210 increases the volume of the first and second external devices A and B based on the user's location being the third location 1130, and increases the volume of the third and fourth external devices ( The plurality of external devices A to D may be controlled to increase the volume of C and D).
다양한 실시 예들에 따라, 프로세서(210)는 사용자의 위치를 판단하기 위해, 다양한 거리 측정 기술을 활용할 수 있다. 예를 들어, 프로세서(210)는 마이크(220)를 통해 획득한 오디오 신호 뿐 아니라 초광대역 무선의 거리 측정 기술을 활용할 수 있다.According to various embodiments, the processor 210 may utilize various distance measurement techniques to determine the user's location. For example, the processor 210 may utilize not only the audio signal acquired through the microphone 220 but also the ultra-wideband wireless distance measurement technology.
도 12는, 다양한 실시예들에 따른, 네트워크 환경(1200) 내의 전자 장치(1201)의 블록도이다. 12 is a block diagram of an electronic device 1201 in a network environment 1200, according to various embodiments.
도 12를 참조하면, 네트워크 환경(1200)에서 전자 장치(1201)는 제 1 네트워크(1298)(예: 근거리 무선 통신 네트워크)를 통하여 전자 장치(1202)와 통신하거나, 또는 제 2 네트워크(1299)(예: 원거리 무선 통신 네트워크)를 통하여 전자 장치(1204) 또는 서버(1208) 중 적어도 하나와 통신할 수 있다. 일실시예에 따르면, 전자 장치(1201)는 서버(1208)를 통하여 전자 장치(1204)와 통신할 수 있다. 일실시예에 따르면, 전자 장치(1201)는 프로세서(1220), 메모리(1230), 입력 모듈(1250), 음향 출력 모듈(1255), 디스플레이 모듈(1260), 오디오 모듈(1270), 센서 모듈(1276), 인터페이스(1277), 연결 단자(1278), 햅틱 모듈(1279), 카메라 모듈(1280), 전력 관리 모듈(1288), 배터리(1289), 통신 모듈(1290), 가입자 식별 모듈(1296), 또는 안테나 모듈(1297)을 포함할 수 있다. 어떤 실시예에서는, 전자 장치(1201)에는, 이 구성요소들 중 적어도 하나(예: 연결 단자(1278))가 생략되거나, 하나 이상의 다른 구성요소가 추가될 수 있다. 어떤 실시예에서는, 이 구성요소들 중 일부들(예: 센서 모듈(1276), 카메라 모듈(1280), 또는 안테나 모듈(1297))은 하나의 구성요소(예: 디스플레이 모듈(1260))로 통합될 수 있다.Referring to FIG. 12 , in a network environment 1200 , the electronic device 1201 communicates with the electronic device 1202 through a first network 1298 (eg, a short-range wireless communication network) or a second network 1299 . It may communicate with at least one of the electronic device 1204 and the server 1208 through (eg, a long-distance wireless communication network). According to an embodiment, the electronic device 1201 may communicate with the electronic device 1204 through the server 1208 . According to an embodiment, the electronic device 1201 includes a processor 1220 , a memory 1230 , an input module 1250 , a sound output module 1255 , a display module 1260 , an audio module 1270 , and a sensor module ( 1276), interface 1277, connection terminal 1278, haptic module 1279, camera module 1280, power management module 1288, battery 1289, communication module 1290, subscriber identification module 1296 , or an antenna module 1297 . In some embodiments, at least one of these components (eg, the connection terminal 1278 ) may be omitted or one or more other components may be added to the electronic device 1201 . In some embodiments, some of these components (eg, sensor module 1276, camera module 1280, or antenna module 1297) are integrated into one component (eg, display module 1260). can be
프로세서(1220)는, 예를 들면, 소프트웨어(예: 프로그램(1240))를 실행하여 프로세서(1220)에 연결된 전자 장치(1201)의 적어도 하나의 다른 구성요소(예: 하드웨어 또는 소프트웨어 구성요소)를 제어할 수 있고, 다양한 데이터 처리 또는 연산을 수행할 수 있다. 일실시예에 따르면, 데이터 처리 또는 연산의 적어도 일부로서, 프로세서(1220)는 다른 구성요소(예: 센서 모듈(1276) 또는 통신 모듈(1290))로부터 수신된 명령 또는 데이터를 휘발성 메모리(1232)에 저장하고, 휘발성 메모리(1232)에 저장된 명령 또는 데이터를 처리하고, 결과 데이터를 비휘발성 메모리(1234)에 저장할 수 있다. 일실시예에 따르면, 프로세서(1220)는 메인 프로세서(1221)(예: 중앙 처리 장치 또는 어플리케이션 프로세서) 또는 이와는 독립적으로 또는 함께 운영 가능한 보조 프로세서(1223)(예: 그래픽 처리 장치, 신경망 처리 장치(NPU: neural processing unit), 이미지 시그널 프로세서, 센서 허브 프로세서, 또는 커뮤니케이션 프로세서)를 포함할 수 있다. 예를 들어, 전자 장치(1201)가 메인 프로세서(1221) 및 보조 프로세서(1223)를 포함하는 경우, 보조 프로세서(1223)는 메인 프로세서(1221)보다 저전력을 사용하거나, 지정된 기능에 특화되도록 설정될 수 있다. 보조 프로세서(1223)는 메인 프로세서(1221)와 별개로, 또는 그 일부로서 구현될 수 있다.The processor 1220, for example, executes software (eg, a program 1240) to execute at least one other component (eg, a hardware or software component) of the electronic device 1201 connected to the processor 1220. It can control and perform various data processing or operations. According to one embodiment, as at least part of data processing or operation, the processor 1220 may store commands or data received from other components (eg, the sensor module 1276 or the communication module 1290 ) into the volatile memory 1232 . may be stored in , process commands or data stored in the volatile memory 1232 , and store the result data in the non-volatile memory 1234 . According to an embodiment, the processor 1220 is the main processor 1221 (eg, a central processing unit or an application processor) or a secondary processor 1223 (eg, a graphics processing unit, a neural network processing unit) a neural processing unit (NPU), an image signal processor, a sensor hub processor, or a communication processor). For example, when the electronic device 1201 includes a main processor 1221 and a sub-processor 1223 , the sub-processor 1223 uses less power than the main processor 1221 or is set to be specialized for a specified function. can The secondary processor 1223 may be implemented separately from or as part of the main processor 1221 .
보조 프로세서(1223)는, 예를 들면, 메인 프로세서(1221)가 인액티브(예: 슬립) 상태에 있는 동안 메인 프로세서(1221)를 대신하여, 또는 메인 프로세서(1221)가 액티브(예: 어플리케이션 실행) 상태에 있는 동안 메인 프로세서(1221)와 함께, 전자 장치(1201)의 구성요소들 중 적어도 하나의 구성요소(예: 디스플레이 모듈(1260), 센서 모듈(1276), 또는 통신 모듈(1290))와 관련된 기능 또는 상태들의 적어도 일부를 제어할 수 있다. 일실시예에 따르면, 보조 프로세서(1223)(예: 이미지 시그널 프로세서 또는 커뮤니케이션 프로세서)는 기능적으로 관련 있는 다른 구성요소(예: 카메라 모듈(1280) 또는 통신 모듈(1290))의 일부로서 구현될 수 있다. 일실시예에 따르면, 보조 프로세서(1223)(예: 신경망 처리 장치)는 인공지능 모델의 처리에 특화된 하드웨어 구조를 포함할 수 있다. 인공지능 모델은 기계 학습을 통해 생성될 수 있다. 이러한 학습은, 예를 들어, 인공지능 모델이 수행되는 전자 장치(1201) 자체에서 수행될 수 있고, 별도의 서버(예: 서버(1208))를 통해 수행될 수도 있다. 학습 알고리즘은, 예를 들어, 지도형 학습(supervised learning), 비지도형 학습(unsupervised learning), 준지도형 학습(semi-supervised learning) 또는 강화 학습(reinforcement learning)을 포함할 수 있으나, 전술한 예에 한정되지 않는다. 인공지능 모델은, 복수의 인공 신경망 레이어들을 포함할 수 있다. 인공 신경망은 심층 신경망(DNN: deep neural network), CNN(convolutional neural network), RNN(recurrent neural network), RBM(restricted boltzmann machine), DBN(deep belief network), BRDNN(bidirectional recurrent deep neural network), 심층 Q-네트워크(deep Q-networks) 또는 상기 중 둘 이상의 조합 중 하나일 수 있으나, 전술한 예에 한정되지 않는다. 인공지능 모델은 하드웨어 구조 이외에, 추가적으로 또는 대체적으로, 소프트웨어 구조를 포함할 수 있다. The coprocessor 1223 may be, for example, on behalf of the main processor 1221 while the main processor 1221 is in an inactive (eg, sleep) state, or the main processor 1221 is active (eg, executing an application). ), together with the main processor 1221, at least one of the components of the electronic device 1201 (eg, the display module 1260, the sensor module 1276, or the communication module 1290) It is possible to control at least some of the related functions or states. According to one embodiment, coprocessor 1223 (eg, image signal processor or communication processor) may be implemented as part of another functionally related component (eg, camera module 1280 or communication module 1290). have. According to an embodiment, the auxiliary processor 1223 (eg, a neural network processing unit) may include a hardware structure specialized for processing an artificial intelligence model. Artificial intelligence models can be created through machine learning. Such learning may be performed, for example, in the electronic device 1201 itself on which the artificial intelligence model is performed, or may be performed through a separate server (eg, the server 1208). The learning algorithm may include, for example, supervised learning, unsupervised learning, semi-supervised learning, or reinforcement learning, but in the above example not limited The artificial intelligence model may include a plurality of artificial neural network layers. Artificial neural networks include deep neural networks (DNNs), convolutional neural networks (CNNs), recurrent neural networks (RNNs), restricted boltzmann machines (RBMs), deep belief networks (DBNs), bidirectional recurrent deep neural networks (BRDNNs), It may be one of deep Q-networks or a combination of two or more of the above, but is not limited to the above example. The artificial intelligence model may include, in addition to, or alternatively, a software structure in addition to the hardware structure.
메모리(1230)는, 전자 장치(1201)의 적어도 하나의 구성요소(예: 프로세서(1220) 또는 센서 모듈(1276))에 의해 사용되는 다양한 데이터를 저장할 수 있다. 데이터는, 예를 들어, 소프트웨어(예: 프로그램(1240)) 및, 이와 관련된 명령에 대한 입력 데이터 또는 출력 데이터를 포함할 수 있다. 메모리(1230)는, 휘발성 메모리(1232) 또는 비휘발성 메모리(1234)를 포함할 수 있다. The memory 1230 may store various data used by at least one component of the electronic device 1201 (eg, the processor 1220 or the sensor module 1276). The data may include, for example, input data or output data for software (eg, a program 1240) and instructions related thereto. The memory 1230 may include a volatile memory 1232 or a non-volatile memory 1234 .
프로그램(1240)은 메모리(1230)에 소프트웨어로서 저장될 수 있으며, 예를 들면, 운영 체제(1242), 미들 웨어(1244) 또는 어플리케이션(1246)을 포함할 수 있다. The program 1240 may be stored as software in the memory 1230 , and may include, for example, an operating system 1242 , middleware 1244 , or an application 1246 .
입력 모듈(1250)은, 전자 장치(1201)의 구성요소(예: 프로세서(1220))에 사용될 명령 또는 데이터를 전자 장치(1201)의 외부(예: 사용자)로부터 수신할 수 있다. 입력 모듈(1250)은, 예를 들면, 마이크, 마우스, 키보드, 키(예: 버튼), 또는 디지털 펜(예: 스타일러스 펜)을 포함할 수 있다. The input module 1250 may receive a command or data to be used by a component (eg, the processor 1220 ) of the electronic device 1201 from the outside (eg, a user) of the electronic device 1201 . The input module 1250 may include, for example, a microphone, a mouse, a keyboard, a key (eg, a button), or a digital pen (eg, a stylus pen).
음향 출력 모듈(1255)은 음향 신호를 전자 장치(1201)의 외부로 출력할 수 있다. 음향 출력 모듈(1255)은, 예를 들면, 스피커 또는 리시버를 포함할 수 있다. 스피커는 멀티미디어 재생 또는 녹음 재생과 같이 일반적인 용도로 사용될 수 있다. 리시버는 착신 전화를 수신하기 위해 사용될 수 있다. 일실시예에 따르면, 리시버는 스피커와 별개로, 또는 그 일부로서 구현될 수 있다.The sound output module 1255 may output a sound signal to the outside of the electronic device 1201 . The sound output module 1255 may include, for example, a speaker or a receiver. The speaker can be used for general purposes such as multimedia playback or recording playback. The receiver can be used to receive incoming calls. According to one embodiment, the receiver may be implemented separately from or as part of the speaker.
디스플레이 모듈(1260)은 전자 장치(1201)의 외부(예: 사용자)로 정보를 시각적으로 제공할 수 있다. 디스플레이 모듈(1260)은, 예를 들면, 디스플레이, 홀로그램 장치, 또는 프로젝터 및 해당 장치를 제어하기 위한 제어 회로를 포함할 수 있다. 일실시예에 따르면, 디스플레이 모듈(1260)은 터치를 감지하도록 설정된 터치 센서, 또는 상기 터치에 의해 발생되는 힘의 세기를 측정하도록 설정된 압력 센서를 포함할 수 있다. The display module 1260 may visually provide information to the outside (eg, a user) of the electronic device 1201 . The display module 1260 may include, for example, a display, a hologram device, or a projector and a control circuit for controlling the corresponding device. According to an embodiment, the display module 1260 may include a touch sensor configured to sense a touch or a pressure sensor configured to measure the intensity of a force generated by the touch.
오디오 모듈(1270)은 소리를 전기 신호로 변환시키거나, 반대로 전기 신호를 소리로 변환시킬 수 있다. 일실시예에 따르면, 오디오 모듈(1270)은, 입력 모듈(1250)을 통해 소리를 획득하거나, 음향 출력 모듈(1255), 또는 전자 장치(1201)와 직접 또는 무선으로 연결된 외부 전자 장치(예: 전자 장치(1202))(예: 스피커 또는 헤드폰)를 통해 소리를 출력할 수 있다.The audio module 1270 may convert a sound into an electric signal or, conversely, convert an electric signal into a sound. According to an embodiment, the audio module 1270 acquires a sound through the input module 1250 or an external electronic device (eg, a sound output module 1255 ) directly or wirelessly connected to the electronic device 1201 . The electronic device 1202) (eg, a speaker or headphones) may output a sound.
센서 모듈(1276)은 전자 장치(1201)의 작동 상태(예: 전력 또는 온도), 또는 외부의 환경 상태(예: 사용자 상태)를 감지하고, 감지된 상태에 대응하는 전기 신호 또는 데이터 값을 생성할 수 있다. 일실시예에 따르면, 센서 모듈(1276)은, 예를 들면, 제스처 센서, 자이로 센서, 기압 센서, 마그네틱 센서, 가속도 센서, 그립 센서, 근접 센서, 컬러 센서, IR(infrared) 센서, 생체 센서, 온도 센서, 습도 센서, 또는 조도 센서를 포함할 수 있다. The sensor module 1276 detects an operating state (eg, power or temperature) of the electronic device 1201 or an external environmental state (eg, user state), and generates an electrical signal or data value corresponding to the sensed state. can do. According to an embodiment, the sensor module 1276 may include, for example, a gesture sensor, a gyro sensor, a barometric pressure sensor, a magnetic sensor, an acceleration sensor, a grip sensor, a proximity sensor, a color sensor, an IR (infrared) sensor, a biometric sensor, It may include a temperature sensor, a humidity sensor, or an illuminance sensor.
인터페이스(1277)는 전자 장치(1201)가 외부 전자 장치(예: 전자 장치(1202))와 직접 또는 무선으로 연결되기 위해 사용될 수 있는 하나 이상의 지정된 프로토콜들을 지원할 수 있다. 일실시예에 따르면, 인터페이스(1277)는, 예를 들면, HDMI(high definition multimedia interface), USB(universal serial bus) 인터페이스, SD카드 인터페이스, 또는 오디오 인터페이스를 포함할 수 있다.The interface 1277 may support one or more specified protocols that may be used for the electronic device 1201 to directly or wirelessly connect with an external electronic device (eg, the electronic device 1202 ). According to an embodiment, the interface 1277 may include, for example, a high definition multimedia interface (HDMI), a universal serial bus (USB) interface, an SD card interface, or an audio interface.
연결 단자(1278)는, 그를 통해서 전자 장치(1201)가 외부 전자 장치(예: 전자 장치(1202))와 물리적으로 연결될 수 있는 커넥터를 포함할 수 있다. 일실시예에 따르면, 연결 단자(1278)는, 예를 들면, HDMI 커넥터, USB 커넥터, SD 카드 커넥터, 또는 오디오 커넥터(예: 헤드폰 커넥터)를 포함할 수 있다.The connection terminal 1278 may include a connector through which the electronic device 1201 can be physically connected to an external electronic device (eg, the electronic device 1202 ). According to an embodiment, the connection terminal 1278 may include, for example, an HDMI connector, a USB connector, an SD card connector, or an audio connector (eg, a headphone connector).
햅틱 모듈(1279)은 전기적 신호를 사용자가 촉각 또는 운동 감각을 통해서 인지할 수 있는 기계적인 자극(예: 진동 또는 움직임) 또는 전기적인 자극으로 변환할 수 있다. 일실시예에 따르면, 햅틱 모듈(1279)은, 예를 들면, 모터, 압전 소자, 또는 전기 자극 장치를 포함할 수 있다.The haptic module 1279 may convert an electrical signal into a mechanical stimulus (eg, vibration or movement) or an electrical stimulus that the user can perceive through tactile or kinesthetic sense. According to an embodiment, the haptic module 1279 may include, for example, a motor, a piezoelectric element, or an electrical stimulation device.
카메라 모듈(1280)은 정지 영상 및 동영상을 촬영할 수 있다. 일실시예에 따르면, 카메라 모듈(1280)은 하나 이상의 렌즈들, 이미지 센서들, 이미지 시그널 프로세서들, 또는 플래시들을 포함할 수 있다.The camera module 1280 may capture still images and moving images. According to one embodiment, the camera module 1280 may include one or more lenses, image sensors, image signal processors, or flashes.
전력 관리 모듈(1288)은 전자 장치(1201)에 공급되는 전력을 관리할 수 있다. 일실시예에 따르면, 전력 관리 모듈(1288)은, 예를 들면, PMIC(power management integrated circuit)의 적어도 일부로서 구현될 수 있다.The power management module 1288 may manage power supplied to the electronic device 1201 . According to an embodiment, the power management module 1288 may be implemented as, for example, at least a part of a power management integrated circuit (PMIC).
배터리(1289)는 전자 장치(1201)의 적어도 하나의 구성요소에 전력을 공급할 수 있다. 일실시예에 따르면, 배터리(1289)는, 예를 들면, 재충전 불가능한 1차 전지, 재충전 가능한 2차 전지 또는 연료 전지를 포함할 수 있다.The battery 1289 may supply power to at least one component of the electronic device 1201 . According to one embodiment, battery 1289 may include, for example, a non-rechargeable primary cell, a rechargeable secondary cell, or a fuel cell.
통신 모듈(1290)은 전자 장치(1201)와 외부 전자 장치(예: 전자 장치(1202), 전자 장치(1204), 또는 서버(1208)) 간의 직접(예: 유선) 통신 채널 또는 무선 통신 채널의 수립, 및 수립된 통신 채널을 통한 통신 수행을 지원할 수 있다. 통신 모듈(1290)은 프로세서(1220)(예: 어플리케이션 프로세서)와 독립적으로 운영되고, 직접(예: 유선) 통신 또는 무선 통신을 지원하는 하나 이상의 커뮤니케이션 프로세서를 포함할 수 있다. 일실시예에 따르면, 통신 모듈(1290)은 무선 통신 모듈(1292)(예: 셀룰러 통신 모듈, 근거리 무선 통신 모듈, 또는 GNSS(global navigation satellite system) 통신 모듈) 또는 유선 통신 모듈(1294)(예: LAN(local area network) 통신 모듈, 또는 전력선 통신 모듈)을 포함할 수 있다. 이들 통신 모듈 중 해당하는 통신 모듈은 제 1 네트워크(1298)(예: 블루투스, WiFi(wireless fidelity) direct 또는 IrDA(infrared data association)와 같은 근거리 통신 네트워크) 또는 제 2 네트워크(1299)(예: 레거시 셀룰러 네트워크, 5G 네트워크, 차세대 통신 네트워크, 인터넷, 또는 컴퓨터 네트워크(예: LAN 또는 WAN)와 같은 원거리 통신 네트워크)를 통하여 외부의 전자 장치(1204)와 통신할 수 있다. 이런 여러 종류의 통신 모듈들은 하나의 구성요소(예: 단일 칩)로 통합되거나, 또는 서로 별도의 복수의 구성요소들(예: 복수 칩들)로 구현될 수 있다. 무선 통신 모듈(1292)은 가입자 식별 모듈(1296)에 저장된 가입자 정보(예: 국제 모바일 가입자 식별자(IMSI))를 이용하여 제 1 네트워크(1298) 또는 제 2 네트워크(1299)와 같은 통신 네트워크 내에서 전자 장치(1201)를 확인 또는 인증할 수 있다. The communication module 1290 is a direct (eg, wired) communication channel or a wireless communication channel between the electronic device 1201 and an external electronic device (eg, the electronic device 1202, the electronic device 1204, or the server 1208). It can support establishment and communication performance through the established communication channel. The communication module 1290 operates independently of the processor 1220 (eg, an application processor) and may include one or more communication processors supporting direct (eg, wired) communication or wireless communication. According to one embodiment, the communication module 1290 may include a wireless communication module 1292 (eg, a cellular communication module, a short-range wireless communication module, or a global navigation satellite system (GNSS) communication module) or a wired communication module 1294 (eg, : It may include a local area network (LAN) communication module, or a power line communication module). A corresponding communication module among these communication modules is a first network 1298 (eg, a short-range communication network such as Bluetooth, wireless fidelity (WiFi) direct, or infrared data association (IrDA)) or a second network 1299 (eg, legacy). It may communicate with the external electronic device 1204 through a cellular network, a 5G network, a next-generation communication network, the Internet, or a computer network (eg, a telecommunication network such as a LAN or a WAN). These various types of communication modules may be integrated into one component (eg, a single chip) or may be implemented as a plurality of components (eg, multiple chips) separate from each other. The wireless communication module 1292 uses subscriber information (eg, International Mobile Subscriber Identifier (IMSI)) stored in the subscriber identification module 1296 within a communication network, such as the first network 1298 or the second network 1299 . The electronic device 1201 may be identified or authenticated.
무선 통신 모듈(1292)은 4G 네트워크 이후의 5G 네트워크 및 차세대 통신 기술, 예를 들어, NR 접속 기술(new radio access technology)을 지원할 수 있다. NR 접속 기술은 고용량 데이터의 고속 전송(eMBB(enhanced mobile broadband)), 단말 전력 최소화와 다수 단말의 접속(mMTC(massive machine type communications)), 또는 고신뢰도와 저지연(URLLC(ultra-reliable and low-latency communications))을 지원할 수 있다. 무선 통신 모듈(1292)은, 예를 들어, 높은 데이터 전송률 달성을 위해, 고주파 대역(예: mmWave 대역)을 지원할 수 있다. 무선 통신 모듈(1292)은 고주파 대역에서의 성능 확보를 위한 다양한 기술들, 예를 들어, 빔포밍(beamforming), 거대 배열 다중 입출력(massive MIMO(multiple-input and multiple-output)), 전차원 다중입출력(FD-MIMO: full dimensional MIMO), 어레이 안테나(array antenna), 아날로그 빔형성(analog beam-forming), 또는 대규모 안테나(large scale antenna)와 같은 기술들을 지원할 수 있다. 무선 통신 모듈(1292)은 전자 장치(1201), 외부 전자 장치(예: 전자 장치(1204)) 또는 네트워크 시스템(예: 제 2 네트워크(1299))에 규정되는 다양한 요구사항을 지원할 수 있다. 일실시예에 따르면, 무선 통신 모듈(1292)은 eMBB 실현을 위한 Peak data rate(예: 20Gbps 이상), mMTC 실현을 위한 손실 Coverage(예: 164dB 이하), 또는 URLLC 실현을 위한 U-plane latency(예: 다운링크(DL) 및 업링크(UL) 각각 0.5ms 이하, 또는 라운드 트립 1ms 이하)를 지원할 수 있다.The wireless communication module 1292 may support a 5G network after a 4G network and a next-generation communication technology, for example, a new radio access technology (NR). NR access technology includes high-speed transmission of high-capacity data (eMBB (enhanced mobile broadband)), minimization of terminal power and access to multiple terminals (mMTC (massive machine type communications)), or high reliability and low latency (URLLC (ultra-reliable and low-latency) -latency communications)). The wireless communication module 1292 may support a high frequency band (eg, mmWave band) to achieve a high data rate, for example. The wireless communication module 1292 uses various technologies for securing performance in a high frequency band, for example, beamforming, massive multiple-input and multiple-output (MIMO), and all-dimensional multiplexing. It may support technologies such as full dimensional MIMO (FD-MIMO), an array antenna, analog beam-forming, or a large scale antenna. The wireless communication module 1292 may support various requirements specified in the electronic device 1201 , an external electronic device (eg, the electronic device 1204 ), or a network system (eg, the second network 1299 ). According to an embodiment, the wireless communication module 1292 includes a peak data rate (eg, 20 Gbps or more) for realization of eMBB, loss coverage for realization of mMTC (eg, 164 dB or less), or U-plane latency (for URLLC realization) ( Example: Downlink (DL) and uplink (UL) each 0.5 ms or less, or round trip 1 ms or less) can be supported.
안테나 모듈(1297)은 신호 또는 전력을 외부(예: 외부의 전자 장치)로 송신하거나 외부로부터 수신할 수 있다. 일실시예에 따르면, 안테나 모듈(1297)은 서브스트레이트(예: PCB) 위에 형성된 도전체 또는 도전성 패턴으로 이루어진 방사체를 포함하는 안테나를 포함할 수 있다. 일실시예에 따르면, 안테나 모듈(1297)은 복수의 안테나들(예: 어레이 안테나)을 포함할 수 있다. 이런 경우, 제 1 네트워크(1298) 또는 제 2 네트워크(1299)와 같은 통신 네트워크에서 사용되는 통신 방식에 적합한 적어도 하나의 안테나가, 예를 들면, 통신 모듈(1290)에 의하여 상기 복수의 안테나들로부터 선택될 수 있다. 신호 또는 전력은 상기 선택된 적어도 하나의 안테나를 통하여 통신 모듈(1290)과 외부의 전자 장치 간에 송신되거나 수신될 수 있다. 어떤 실시예에 따르면, 방사체 이외에 다른 부품(예: RFIC(radio frequency integrated circuit))이 추가로 안테나 모듈(1297)의 일부로 형성될 수 있다. The antenna module 1297 may transmit or receive a signal or power to the outside (eg, an external electronic device). According to an embodiment, the antenna module 1297 may include an antenna including a conductor formed on a substrate (eg, a PCB) or a radiator formed of a conductive pattern. According to an embodiment, the antenna module 1297 may include a plurality of antennas (eg, an array antenna). In this case, at least one antenna suitable for a communication method used in a communication network such as the first network 1298 or the second network 1299 is connected from the plurality of antennas by, for example, the communication module 1290 . can be selected. A signal or power may be transmitted or received between the communication module 1290 and an external electronic device through the selected at least one antenna. According to some embodiments, other components (eg, a radio frequency integrated circuit (RFIC)) other than the radiator may be additionally formed as a part of the antenna module 1297 .
다양한 실시예에 따르면, 안테나 모듈(1297)은 mmWave 안테나 모듈을 형성할 수 있다. 일실시예에 따르면, mmWave 안테나 모듈은 인쇄 회로 기판, 상기 인쇄 회로 기판의 제 1 면(예: 아래 면)에 또는 그에 인접하여 배치되고 지정된 고주파 대역(예: mmWave 대역)을 지원할 수 있는 RFIC, 및 상기 인쇄 회로 기판의 제 2 면(예: 윗 면 또는 측 면)에 또는 그에 인접하여 배치되고 상기 지정된 고주파 대역의 신호를 송신 또는 수신할 수 있는 복수의 안테나들(예: 어레이 안테나)을 포함할 수 있다.According to various embodiments, the antenna module 1297 may form a mmWave antenna module. According to one embodiment, the mmWave antenna module comprises a printed circuit board, an RFIC disposed on or adjacent to a first side (eg, bottom side) of the printed circuit board and capable of supporting a designated high frequency band (eg, mmWave band); and a plurality of antennas (eg, an array antenna) disposed on or adjacent to a second side (eg, top or side) of the printed circuit board and capable of transmitting or receiving signals of the designated high frequency band. can do.
상기 구성요소들 중 적어도 일부는 주변 기기들간 통신 방식(예: 버스, GPIO(general purpose input and output), SPI(serial peripheral interface), 또는 MIPI(mobile industry processor interface))을 통해 서로 연결되고 신호(예: 명령 또는 데이터)를 상호간에 교환할 수 있다.At least some of the components are connected to each other through a communication method between peripheral devices (eg, a bus, general purpose input and output (GPIO), serial peripheral interface (SPI), or mobile industry processor interface (MIPI)) and a signal ( e.g. commands or data) can be exchanged with each other.
일실시예에 따르면, 명령 또는 데이터는 제 2 네트워크(1299)에 연결된 서버(1208)를 통해서 전자 장치(1201)와 외부의 전자 장치(1204)간에 송신 또는 수신될 수 있다. 외부의 전자 장치(1202, 또는 1204) 각각은 전자 장치(1201)와 동일한 또는 다른 종류의 장치일 수 있다. 일실시예에 따르면, 전자 장치(1201)에서 실행되는 동작들의 전부 또는 일부는 외부의 전자 장치들(1202, 1204, 또는 1208) 중 하나 이상의 외부의 전자 장치들에서 실행될 수 있다. 예를 들면, 전자 장치(1201)가 어떤 기능이나 서비스를 자동으로, 또는 사용자 또는 다른 장치로부터의 요청에 반응하여 수행해야 할 경우에, 전자 장치(1201)는 기능 또는 서비스를 자체적으로 실행시키는 대신에 또는 추가적으로, 하나 이상의 외부의 전자 장치들에게 그 기능 또는 그 서비스의 적어도 일부를 수행하라고 요청할 수 있다. 상기 요청을 수신한 하나 이상의 외부의 전자 장치들은 요청된 기능 또는 서비스의 적어도 일부, 또는 상기 요청과 관련된 추가 기능 또는 서비스를 실행하고, 그 실행의 결과를 전자 장치(1201)로 전달할 수 있다. 전자 장치(1201)는 상기 결과를, 그대로 또는 추가적으로 처리하여, 상기 요청에 대한 응답의 적어도 일부로서 제공할 수 있다. 이를 위하여, 예를 들면, 클라우드 컴퓨팅, 분산 컴퓨팅, 모바일 에지 컴퓨팅(MEC: mobile edge computing), 또는 클라이언트-서버 컴퓨팅 기술이 이용될 수 있다. 전자 장치(1201)는, 예를 들어, 분산 컴퓨팅 또는 모바일 에지 컴퓨팅을 이용하여 초저지연 서비스를 제공할 수 있다. 다른 실시예에 있어서, 외부의 전자 장치(1204)는 IoT(internet of things) 기기를 포함할 수 있다. 서버(1208)는 기계 학습 및/또는 신경망을 이용한 지능형 서버일 수 있다. 일실시예에 따르면, 외부의 전자 장치(1204) 또는 서버(1208)는 제 2 네트워크(1299) 내에 포함될 수 있다. 전자 장치(1201)는 5G 통신 기술 및 IoT 관련 기술을 기반으로 지능형 서비스(예: 스마트 홈, 스마트 시티, 스마트 카, 또는 헬스 케어)에 적용될 수 있다. According to an embodiment, the command or data may be transmitted or received between the electronic device 1201 and the external electronic device 1204 through the server 1208 connected to the second network 1299 . Each of the external electronic devices 1202 or 1204 may be the same or a different type of the electronic device 1201 . According to an embodiment, all or a part of the operations executed in the electronic device 1201 may be executed in one or more of the external electronic devices 1202 , 1204 , or 1208 . For example, when the electronic device 1201 needs to perform a function or service automatically or in response to a request from a user or other device, the electronic device 1201 may perform the function or service by itself instead of executing the function or service itself. Alternatively or additionally, one or more external electronic devices may be requested to perform at least a part of the function or the service. One or more external electronic devices that have received the request may execute at least a part of the requested function or service, or an additional function or service related to the request, and transmit a result of the execution to the electronic device 1201 . The electronic device 1201 may process the result as it is or additionally and provide it as at least a part of a response to the request. For this purpose, for example, cloud computing, distributed computing, mobile edge computing (MEC), or client-server computing technology may be used. The electronic device 1201 may provide an ultra-low latency service using, for example, distributed computing or mobile edge computing. In another embodiment, the external electronic device 1204 may include an Internet of things (IoT) device. The server 1208 may be an intelligent server using machine learning and/or neural networks. According to an embodiment, the external electronic device 1204 or the server 1208 may be included in the second network 1299 . The electronic device 1201 may be applied to an intelligent service (eg, smart home, smart city, smart car, or health care) based on 5G communication technology and IoT-related technology.
본 문서에 개시된 다양한 실시예들에 따른 전자 장치는 다양한 형태의 장치가 될 수 있다. 전자 장치는, 예를 들면, 휴대용 통신 장치(예: 스마트폰), 컴퓨터 장치, 휴대용 멀티미디어 장치, 휴대용 의료 기기, 카메라, 웨어러블 장치, 또는 가전 장치를 포함할 수 있다. 본 문서의 실시예에 따른 전자 장치는 전술한 기기들에 한정되지 않는다.The electronic device according to various embodiments disclosed in this document may have various types of devices. The electronic device may include, for example, a portable communication device (eg, a smart phone), a computer device, a portable multimedia device, a portable medical device, a camera, a wearable device, or a home appliance device. The electronic device according to the embodiment of the present document is not limited to the above-described devices.
본 문서의 다양한 실시예들 및 이에 사용된 용어들은 본 문서에 기재된 기술적 특징들을 특정한 실시예들로 한정하려는 것이 아니며, 해당 실시예의 다양한 변경, 균등물, 또는 대체물을 포함하는 것으로 이해되어야 한다. 도면의 설명과 관련하여, 유사한 또는 관련된 구성요소에 대해서는 유사한 참조 부호가 사용될 수 있다. 아이템에 대응하는 명사의 단수 형은 관련된 문맥상 명백하게 다르게 지시하지 않는 한, 상기 아이템 한 개 또는 복수 개를 포함할 수 있다. 본 문서에서, "A 또는 B", "A 및 B 중 적어도 하나", "A 또는 B 중 적어도 하나", "A, B 또는 C", "A, B 및 C 중 적어도 하나", 및 "A, B, 또는 C 중 적어도 하나"와 같은 문구들 각각은 그 문구들 중 해당하는 문구에 함께 나열된 항목들 중 어느 하나, 또는 그들의 모든 가능한 조합을 포함할 수 있다. "제 1", "제 2", 또는 "첫째" 또는 "둘째"와 같은 용어들은 단순히 해당 구성요소를 다른 해당 구성요소와 구분하기 위해 사용될 수 있으며, 해당 구성요소들을 다른 측면(예: 중요성 또는 순서)에서 한정하지 않는다. 어떤(예: 제 1) 구성요소가 다른(예: 제 2) 구성요소에, "기능적으로" 또는 "통신적으로"라는 용어와 함께 또는 이런 용어 없이, "커플드" 또는 "커넥티드"라고 언급된 경우, 그것은 상기 어떤 구성요소가 상기 다른 구성요소에 직접적으로(예: 유선으로), 무선으로, 또는 제 3 구성요소를 통하여 연결될 수 있다는 것을 의미한다.The various embodiments of this document and terms used therein are not intended to limit the technical features described in this document to specific embodiments, but it should be understood to include various modifications, equivalents, or substitutions of the embodiments. In connection with the description of the drawings, like reference numerals may be used for similar or related components. The singular form of the noun corresponding to the item may include one or more of the item, unless the relevant context clearly dictates otherwise. As used herein, "A or B", "at least one of A and B", "at least one of A or B", "A, B or C", "at least one of A, B and C", and "A , B, or C" each may include any one of the items listed together in the corresponding one of the phrases, or all possible combinations thereof. Terms such as “first”, “second”, or “first” or “second” may simply be used to distinguish an element from other such elements, and may refer elements to other aspects (e.g., importance or order) is not limited. It is said that one (eg, first) component is "coupled" or "connected" to another (eg, second) component, with or without the terms "functionally" or "communicatively". When referenced, it means that one component can be connected to the other component directly (eg by wire), wirelessly, or through a third component.
본 문서의 다양한 실시예들에서 사용된 용어 "모듈"은 하드웨어, 소프트웨어 또는 펌웨어로 구현된 유닛을 포함할 수 있으며, 예를 들면, 로직, 논리 블록, 부품, 또는 회로와 같은 용어와 상호 호환적으로 사용될 수 있다. 모듈은, 일체로 구성된 부품 또는 하나 또는 그 이상의 기능을 수행하는, 상기 부품의 최소 단위 또는 그 일부가 될 수 있다. 예를 들면, 일실시예에 따르면, 모듈은 ASIC(application-specific integrated circuit)의 형태로 구현될 수 있다. The term “module” used in various embodiments of this document may include a unit implemented in hardware, software, or firmware, and is interchangeable with terms such as, for example, logic, logic block, component, or circuit. can be used as A module may be an integrally formed part or a minimum unit or a part of the part that performs one or more functions. For example, according to an embodiment, the module may be implemented in the form of an application-specific integrated circuit (ASIC).
본 문서의 다양한 실시예들은 기기(machine)(예: 전자 장치(1201)) 의해 읽을 수 있는 저장 매체(storage medium)(예: 내장 메모리(1236) 또는 외장 메모리(1238))에 저장된 하나 이상의 명령어들을 포함하는 소프트웨어(예: 프로그램(1240))로서 구현될 수 있다. 예를 들면, 기기(예: 전자 장치(1201))의 프로세서(예: 프로세서(1220))는, 저장 매체로부터 저장된 하나 이상의 명령어들 중 적어도 하나의 명령을 호출하고, 그것을 실행할 수 있다. 이것은 기기가 상기 호출된 적어도 하나의 명령어에 따라 적어도 하나의 기능을 수행하도록 운영되는 것을 가능하게 한다. 상기 하나 이상의 명령어들은 컴파일러에 의해 생성된 코드 또는 인터프리터에 의해 실행될 수 있는 코드를 포함할 수 있다. 기기로 읽을 수 있는 저장 매체는, 비일시적(non-transitory) 저장 매체의 형태로 제공될 수 있다. 여기서, '비일시적'은 저장 매체가 실재(tangible)하는 장치이고, 신호(signal)(예: 전자기파)를 포함하지 않는다는 것을 의미할 뿐이며, 이 용어는 데이터가 저장 매체에 반영구적으로 저장되는 경우와 임시적으로 저장되는 경우를 구분하지 않는다.Various embodiments of the present document include one or more instructions stored in a storage medium (eg, internal memory 1236 or external memory 1238) readable by a machine (eg, electronic device 1201). may be implemented as software (eg, a program 1240) including For example, a processor (eg, processor 1220 ) of a device (eg, electronic device 1201 ) may call at least one command among one or more commands stored from a storage medium and execute it. This makes it possible for the device to be operated to perform at least one function in accordance with the called at least one command. The one or more instructions may include code generated by a compiler or code executable by an interpreter. The device-readable storage medium may be provided in the form of a non-transitory storage medium. Here, 'non-transitory' only means that the storage medium is a tangible device and does not contain a signal (eg, electromagnetic wave), and this term is used in cases where data is semi-permanently stored in the storage medium and It does not distinguish between temporary storage cases.
일실시예에 따르면, 본 문서에 개시된 다양한 실시예들에 따른 방법은 컴퓨터 프로그램 제품(computer program product)에 포함되어 제공될 수 있다. 컴퓨터 프로그램 제품은 상품으로서 판매자 및 구매자 간에 거래될 수 있다. 컴퓨터 프로그램 제품은 기기로 읽을 수 있는 저장 매체(예: compact disc read only memory(CD-ROM))의 형태로 배포되거나, 또는 어플리케이션 스토어(예: 플레이 스토어TM)를 통해 또는 두 개의 사용자 장치들(예: 스마트 폰들) 간에 직접, 온라인으로 배포(예: 다운로드 또는 업로드)될 수 있다. 온라인 배포의 경우에, 컴퓨터 프로그램 제품의 적어도 일부는 제조사의 서버, 어플리케이션 스토어의 서버, 또는 중계 서버의 메모리와 같은 기기로 읽을 수 있는 저장 매체에 적어도 일시 저장되거나, 임시적으로 생성될 수 있다.According to one embodiment, the method according to various embodiments disclosed in this document may be provided as included in a computer program product. Computer program products may be traded between sellers and buyers as commodities. The computer program product is distributed in the form of a machine-readable storage medium (eg compact disc read only memory (CD-ROM)), or via an application store (eg Play Store TM ) or on two user devices ( It can be distributed (eg downloaded or uploaded) directly or online between smartphones (eg: smartphones). In the case of online distribution, at least a part of the computer program product may be temporarily stored or temporarily created in a machine-readable storage medium such as a memory of a server of a manufacturer, a server of an application store, or a relay server.
다양한 실시예들에 따르면, 상기 기술한 구성요소들의 각각의 구성요소(예: 모듈 또는 프로그램)는 단수 또는 복수의 개체를 포함할 수 있으며, 복수의 개체 중 일부는 다른 구성요소에 분리 배치될 수도 있다. 다양한 실시예들에 따르면, 전술한 해당 구성요소들 중 하나 이상의 구성요소들 또는 동작들이 생략되거나, 또는 하나 이상의 다른 구성요소들 또는 동작들이 추가될 수 있다. 대체적으로 또는 추가적으로, 복수의 구성요소들(예: 모듈 또는 프로그램)은 하나의 구성요소로 통합될 수 있다. 이런 경우, 통합된 구성요소는 상기 복수의 구성요소들 각각의 구성요소의 하나 이상의 기능들을 상기 통합 이전에 상기 복수의 구성요소들 중 해당 구성요소에 의해 수행되는 것과 동일 또는 유사하게 수행할 수 있다. 다양한 실시예들에 따르면, 모듈, 프로그램 또는 다른 구성요소에 의해 수행되는 동작들은 순차적으로, 병렬적으로, 반복적으로, 또는 휴리스틱하게 실행되거나, 상기 동작들 중 하나 이상이 다른 순서로 실행되거나, 생략되거나, 또는 하나 이상의 다른 동작들이 추가될 수 있다.According to various embodiments, each component (eg, a module or a program) of the above-described components may include a singular or a plurality of entities, and some of the plurality of entities may be separately disposed in other components. have. According to various embodiments, one or more components or operations among the above-described corresponding components may be omitted, or one or more other components or operations may be added. Alternatively or additionally, a plurality of components (eg, a module or a program) may be integrated into one component. In this case, the integrated component may perform one or more functions of each component of the plurality of components identically or similarly to those performed by the corresponding component among the plurality of components prior to the integration. . According to various embodiments, operations performed by a module, program, or other component are executed sequentially, in parallel, repeatedly, or heuristically, or one or more of the operations are executed in a different order, or omitted. , or one or more other operations may be added.
상술한 바와 같이, 일 실시 예에 따른 웨어러블 장치(예: 도 2의 웨어러블 장치(100))는, 마이크(예: 도 2의 마이크(220)), 외부 장치로 제어 신호를 송수신하는 통신 회로(예: 도 2의 통신 회로(23)), 상기 마이크 및 상기 통신 회로와 전기적으로 연결되는 적어도 하나의 프로세서(예: 도 2의 프로세서(210))를 포함하고, 상기 적어도 하나의 프로세서는 상기 웨어러블 장치가 사용자의 신체에 착용된 상태에서 상기 마이크를 이용해 상기 외부 장치로부터 제1 오디오 신호를 획득하고, 설정된 시간이 지남에 응답하여, 상기 마이크를 이용해 상기 외부 장치로부터 제2 오디오 신호를 획득하고, 상기 제1 오디오 신호 및 제2 오디오 신호에 기반하여 상기 사용자의 착용 공간의 유형을 판단하고, 상기 착용 공간의 유형에 대응되는 오디오 출력 제어 방식에 기반하여, 상기 통신 회로를 이용해 상기 외부 장치의 음량을 제어할 수 있다.As described above, the wearable device (eg, the wearable device 100 of FIG. 2 ) according to an embodiment includes a microphone (eg, the microphone 220 of FIG. 2 ) and a communication circuit for transmitting and receiving a control signal to and from an external device ( For example: the communication circuit 23 of FIG. 2 ), the microphone, and at least one processor electrically connected to the communication circuit (eg, the processor 210 of FIG. 2 ), wherein the at least one processor is the wearable In a state in which the device is worn on the user's body, obtaining a first audio signal from the external device using the microphone, and in response to the lapse of a set time, obtaining a second audio signal from the external device using the microphone, The type of the user's wearing space is determined based on the first audio signal and the second audio signal, and the volume level of the external device is determined using the communication circuit based on an audio output control method corresponding to the type of the wearing space. can be controlled.
일 실시 예에 따르면, 상기 적어도 하나의 프로세서는, 상기 통신 회로를 이용하여 상기 외부 장치로부터 원본 오디오 신호를 수신하고, 상기 원본 오디오 신호에 기반하여 상기 제1 오디오 신호 및 제2 오디오 신호 각각으로부터 잡음을 분리하고, 상기 잡음이 분리된 제1 오디오 신호 및 제2 오디오 신호에 기반하여 상기 착용 공간의 유형을 판단할 수 있다.According to an embodiment, the at least one processor receives an original audio signal from the external device using the communication circuit, and generates noise from each of the first audio signal and the second audio signal based on the original audio signal. may be separated, and the type of the wearing space may be determined based on the first audio signal and the second audio signal from which the noise is separated.
일 실시 예에 따르면, 상기 적어도 하나의 프로세서는, 상기 착용 공간의 유형이 제1 유형임에 응답하여, 상기 제1 오디오 신호 및 상기 제2 오디오 신호의 시간 또는 음량 차이에 기반하여, 상기 외부 장치와 상기 사용자 사이의 거리의 변화를 판단하고, 상기 거리의 변화에 기초하여 상기 외부 장치의 음량을 조절할 수 있다.According to an embodiment, in response to the type of the wearing space being the first type, the at least one processor, based on a time or volume difference between the first audio signal and the second audio signal, the external device and a change in the distance between the user and the user may be determined, and the volume of the external device may be adjusted based on the change in the distance.
일 실시 예에 따르면, 상기 적어도 하나의 프로세서는, 상기 제2 오디오 신호의 음량이 제1 기준 값 이하임에 응답하여, 상기 착용 공간의 유형을 제3 유형으로 판단할 수 있다.According to an embodiment, the at least one processor may determine the type of the wearing space as the third type in response to a volume level of the second audio signal being equal to or less than a first reference value.
일 실시 예에 따르면, 상기 적어도 하나의 프로세서는, 상기 착용 공간의 유형이 상기 제3 유형으로 판단됨에 응답하여, 상기 외부 장치의 음량을 최소 음량으로 제어할 수 있다.According to an embodiment, in response to determining that the type of the wearing space is the third type, the at least one processor may control the volume of the external device to a minimum volume.
일 실시 예에서, 상기 적어도 하나의 프로세서는, 상기 제1 오디오 신호 및 상기 제2 오디오 신호의 주파수별 음량을 비교한 결과에 기초하여, 상기 착용 공간의 유형이 제2 유형인지 여부를 판단할 수 있다.In an embodiment, the at least one processor may determine whether the type of the wearing space is the second type, based on a result of comparing the volume of each frequency of the first audio signal and the second audio signal. have.
일 실시 예의 상기 적어도 하나의 프로세서는, 상기 착용 공간의 유형이 상기 제2 유형으로 판단됨에 응답하여, 상기 제2 오디오 신호의 주파수별 음량이 상기 제1 오디오 신호의 주파수별 음량으로 유지되도록 제어 신호를 전송할 수 있다.In response to determining that the type of the wearing space is the second type, the at least one processor of an embodiment is configured to provide a control signal such that the frequency-specific volume of the second audio signal is maintained as the frequency-specific volume of the first audio signal. can be transmitted.
일 실시 예에 따르면, 상기 적어도 하나의 프로세서는, 상기 제2 오디오 신호에 포함된 고음 주파수 영역의 제1 음량 감쇄율과, 상기 제2 오디오 신호에 포함된 저음 주파수 영역의 제2 음량 감쇄율의 차이에 기초하여 상기 착용 공간의 유형이 상기 제2 유형인지 여부를 판단할 수 있다.According to an embodiment, the at least one processor is configured to respond to a difference between a first volume decay rate of a high-pitched frequency region included in the second audio signal and a second volume decay rate of a low-pitched frequency region included in the second audio signal. It may be determined based on whether the type of the wearing space is the second type.
일 실시 예에 따르면, 상기 적어도 하나의 프로세서는, 상기 외부 장치의 음량을 조절하는 사용자 입력의 수신에 응답하여 상기 제1 오디오 신호를 획득하도록 상기 마이크를 제어할 수 있다.According to an embodiment, the at least one processor may control the microphone to acquire the first audio signal in response to receiving a user input for adjusting the volume of the external device.
일 실시 예에 따르면, 상기 적어도 하나의 프로세서는, 상기 외부 장치와의 초광대역 무선(ultra-wideband) 통신을 이용하여 상기 외부 장치에 대한 상기 전자 장치의 위치를 판단할 수 있다.According to an embodiment, the at least one processor may determine the location of the electronic device with respect to the external device using ultra-wideband communication with the external device.
일 실시 예에 따라, 상기 적어도 하나의 프로세서는, 상기 제2 오디오 신호에 사용자의 발화가 포함되었는지 여부를 판단하고, 상기 제2 오디오 신호에 상기 사용자의 발화가 포함된 것으로 판단하는 것에 응답하여, 상기 외부 장치의 음량을 제3 기준 값 이하로 제어할 수 있다.According to an embodiment, the at least one processor, in response to determining whether the user's utterance is included in the second audio signal, and determining that the user's utterance is included in the second audio signal, The volume of the external device may be controlled to be less than or equal to a third reference value.
일 실시 예에서, 상기 적어도 하나의 프로세서는, 상기 제2 오디오 신호에 기반하여 상기 사용자의 발화 종료를 식별하고, 상기 발화 종료의 식별에 기반하여, 상기 외부 장치의 음량을 상기 제3 기준값 이하로 제어하기 이전의 음량으로 변경되도록 제어할 수 있다.In an embodiment, the at least one processor identifies the end of the user's speech based on the second audio signal, and sets the volume of the external device to be less than or equal to the third reference value based on the identification of the end of the speech. You can control to change the volume to the previous volume.
상술한 바와 같이, 마이크(예: 도 2의 마이크(220)) 및 외부 장치로 제어 신호를 송수신하는 통신 회로(예: 도 2의 통신 회로(230))를 포함하는 웨어러블 장치의 동작 방법은, 상기 웨어러블 장치가 사용자의 신체에 착용된 상태에서 상기 마이크를 이용해 상기 외부 장치로부터 제1 오디오 신호를 획득하는 동작, 설정된 시간이 지남에 응답하여, 상기 마이크를 이용해 상기 외부 장치로부터 제2 오디오 신호를 획득하는 동작, 상기 제1 오디오 신호 및 제2 오디오 신호에 기반하여 상기 사용자의 착용 공간의 유형을 판단하는 동작 및 상기 착용 공간의 유형에 대응되는 오디오 출력 제어 방식에 기반하여, 상기 통신 회로를 이용해 상기 외부 장치의 음량을 제어하는 동작을 포함할 수 있다. As described above, a method of operating a wearable device including a microphone (eg, the microphone 220 of FIG. 2 ) and a communication circuit (eg, the communication circuit 230 of FIG. 2 ) for transmitting and receiving a control signal to and from an external device, An operation of acquiring a first audio signal from the external device using the microphone while the wearable device is worn on the user's body, and receiving a second audio signal from the external device using the microphone in response to a set time elapse Based on an operation of acquiring, an operation of determining the type of the user's wearing space based on the first audio signal and the second audio signal, and an audio output control method corresponding to the type of the wearing space, using the communication circuit It may include an operation of controlling the volume of the external device.
일 실시 예에 따르면, 상기 외부 장치의 음량을 제어하는 동작은, 상기 착용 공간의 유형이 제1 유형임에 응답하여, 상기 제1 오디오 신호 및 상기 제2 오디오 신호에 기반하여 상기 외부 장치와 상기 사용자의 거리를 판단하는 동작 및 상기 판단된 거리에 비례하도록 상기 외부 장치의 음량을 조절하는 동작을 포함할 수 있다.According to an embodiment, the operation of controlling the volume of the external device may include, in response to the type of the wearing space being the first type, the external device and the second audio signal based on the first audio signal and the second audio signal. It may include an operation of determining the user's distance and an operation of adjusting a volume of the external device to be proportional to the determined distance.
일 실시 예에 따르면, 상기 착용 공간의 유형을 판단하는 동작은, 상기 제2 오디오 신호의 음량이 제1 기준 값 이하임에 응답하여 상기 착용 공간의 유형을 제3 유형으로 판단하는 동작을 포함하고, 상기 외부 장치의 음량을 제어하는 동작은, 상기 착용 공간의 유형이 상기 제3 유형으로 판단됨에 응답하여, 상기 외부 장치의 음량을 미리 정해진 최소 음량으로 제어하는 동작을 포함할 수 있다.According to an embodiment, the determining of the type of the wearing space includes determining the type of the wearing space as the third type in response to a volume level of the second audio signal being less than or equal to a first reference value, , The operation of controlling the volume of the external device may include controlling the volume of the external device to a predetermined minimum volume in response to determining that the type of the wearing space is the third type.
일 실시 예에 따르면, 상기 착용 공간의 유형을 판단하는 동작은, 상기 제1 오디오 신호의 제1 주파수 및 상기 제2 오디오 신호의 제2 주파수에 기초하여, 상기 착용 공간의 유형을 제2 유형으로 판단하는 동작을 포함하고, 상기 외부 장치의 음량을 제어하는 동작은, 상기 착용 공간의 유형이 상기 제2 유형으로 판단됨에 응답하여, 상기 제2 오디오 신호의 주파수별 음량이 상기 제1 오디오 신호의 주파수별 음량으로 유지되도록 제어 신호를 전송하는 동작을 포함할 수 있다.According to an embodiment, the determining of the type of the wearing space may include setting the type of the wearing space to the second type based on a first frequency of the first audio signal and a second frequency of the second audio signal. and determining, wherein the controlling of the volume of the external device may include: in response to determining that the type of the wearing space is the second type, the volume of the second audio signal for each frequency of the first audio signal It may include an operation of transmitting a control signal to maintain the volume for each frequency.
일 실시 예에 따르면, 제1 오디오 신호를 획득하는 동작은, 상기 사용자가 상기 외부 장치의 음량을 조절함에 응답하여 제1 오디오 신호를 획득하는 동작일 수 있다.According to an embodiment, the operation of acquiring the first audio signal may be an operation of acquiring the first audio signal in response to the user adjusting the volume of the external device.
일 실시 예에 따르면, 상기 웨어러블 장치의 동작 방법은, 상기 제2 오디오 신호에 사용자의 발화가 포함되었는지 여부를 판단하는 동작, 상기 제2 오디오 신호에 상기 사용자의 발화가 포함된 것으로 판단하는 것에 응답하여, 상기 외부 장치의 음량을 제3 기준 값 이하로 제어하는 동작을 더 포함할 수 있다. According to an embodiment of the present disclosure, the method of operating the wearable device may include determining whether the user's utterance is included in the second audio signal, and responding to determining whether the user's utterance is included in the second audio signal Thus, the operation of controlling the volume of the external device to be less than or equal to a third reference value may be further included.
일 실시 예에 따르면, 상기 사용자의 거리를 판단하는 동작은, 상기 외부 장치와의 초광대역 무선(ultra-wideband) 통신을 이용하여 상기 외부 장치에 대한 상기 전자 장치의 위치를 판단하는 동작을 포함할 수 있다.According to an embodiment, the determining of the distance of the user may include determining the location of the electronic device with respect to the external device using ultra-wideband communication with the external device. can
일 실시 예에 따른 웨어러블 장치(예: 도 2의 웨어러블 장치(100))는, 마이크(예: 도 2의 마이크(220)), 복수 개의 외부 장치들과 제어 신호를 송수신하는 통신 회로(예: 도 2의 통신 회로(230)), 상기 마이크 및 상기 통신 회로와 전기적으로 연결되는 적어도 하나의 프로세서(예: 도 2의 프로세서(210))를 포함하고, 상기 적어도 하나의 프로세서는 상기 웨어러블 장치가 사용자의 신체에 착용된 상태에서 상기 마이크를 이용해 상기 복수 개의 장치들 각각으로부터 제3 오디오 신호를 획득하고, 설정된 시간이 지남에 응답하여, 상기 마이크를 이용해 상기 복수 개의 외부 장치들 각각으로부터 제4 오디오 신호를 획득하고, 상기 제3 오디오 신호 및 상기 제4 오디오 신호에 기반하여 상기 사용자와 상기 복수 개의 외부 장치들 각각의 거리들을 판단하고, 상기 판단 결과에 기반하여 상기 통신 회로를 이용해 상기 복수 개의 외부 장치들 중 적어도 하나의 음량을 제어할 수 있다.A wearable device (eg, the wearable device 100 of FIG. 2 ) according to an embodiment includes a microphone (eg, the microphone 220 of FIG. 2 ) and a communication circuit (eg, the microphone 220 of FIG. 2 ) for transmitting and receiving a control signal to and from a plurality of external devices: The communication circuit 230 of FIG. 2), the microphone, and at least one processor (eg, the processor 210 of FIG. 2 ) electrically connected to the communication circuit, wherein the at least one processor is configured to enable the wearable device A third audio signal is obtained from each of the plurality of devices using the microphone in a state worn on the user's body, and in response to the lapse of a set time, a fourth audio signal is obtained from each of the plurality of external devices using the microphone acquire a signal, determine distances between the user and each of the plurality of external devices based on the third audio signal and the fourth audio signal, and use the communication circuit based on the determination result to determine the plurality of external devices The volume of at least one of the devices may be controlled.

Claims (15)

  1. 웨어러블 장치에 있어서,In the wearable device,
    마이크;MIC;
    외부 장치로 제어 신호를 송수신하는 통신 회로;a communication circuit for transmitting and receiving control signals to and from an external device;
    상기 마이크 및 상기 통신 회로와 전기적으로 연결되는 적어도 하나의 프로세서를 포함하고,at least one processor electrically connected to the microphone and the communication circuit;
    상기 적어도 하나의 프로세서는:The at least one processor comprises:
    상기 웨어러블 장치가 사용자의 신체에 착용된 상태에서 상기 마이크를 이용해 상기 외부 장치로부터 제1 오디오 신호를 획득하고,obtaining a first audio signal from the external device using the microphone while the wearable device is worn on the user's body;
    설정된 시간이 지남에 응답하여, 상기 마이크를 이용해 상기 외부 장치로부터 제2 오디오 신호를 획득하고,In response to the lapse of a set time, acquiring a second audio signal from the external device using the microphone,
    상기 제1 오디오 신호 및 상기 제2 오디오 신호에 기반하여 상기 사용자의 착용 공간의 유형을 판단하고,determining the type of the user's wearing space based on the first audio signal and the second audio signal;
    상기 착용 공간의 유형에 대응되는 오디오 출력 제어 방식에 기반하여, 상기 통신 회로를 통해 상기 외부 장치의 음량을 제어하는 웨어러블 장치.A wearable device for controlling a volume of the external device through the communication circuit based on an audio output control method corresponding to the type of the wearing space.
  2. 청구항 1에 있어서,The method according to claim 1,
    상기 적어도 하나의 프로세서는, 상기 통신 회로를 이용하여 상기 외부 장치로부터 원본 오디오 신호를 수신하고, The at least one processor receives an original audio signal from the external device using the communication circuit,
    상기 원본 오디오 신호에 기반하여 상기 제1 오디오 신호 및 상기 제2 오디오 신호 각각으로부터 잡음을 분리하고,separating noise from each of the first audio signal and the second audio signal based on the original audio signal;
    상기 잡음이 분리된 제1 오디오 신호 및 제2 오디오 신호에 기반하여 상기 착용 공간의 유형을 판단하는 웨어러블 장치.A wearable device for determining the type of the wearing space based on a first audio signal and a second audio signal from which the noise is separated.
  3. 청구항 1에 있어서,The method according to claim 1,
    상기 적어도 하나의 프로세서는, 상기 착용 공간의 유형이 제1 유형임에 응답하여,The at least one processor, in response to the type of the wearing space being the first type,
    상기 제1 오디오 신호 및 상기 제2 오디오 신호의 시간 또는 음량 차이에 기반하여, 상기 외부 장치와 상기 사용자 사이의 거리 변화를 판단하고,determining a change in the distance between the external device and the user based on a time or volume difference between the first audio signal and the second audio signal,
    상기 거리 변화에 기초하여 상기 외부 장치의 음량을 조절하는 웨어러블 장치.A wearable device for adjusting a volume of the external device based on the change in the distance.
  4. 청구항 1에 있어서,The method according to claim 1,
    상기 적어도 하나의 프로세서는, 상기 제2 오디오 신호의 음량이 제1 기준 값 이하임에 응답하여, 상기 착용 공간의 유형을 제3 유형으로 판단하는 웨어러블 장치.The at least one processor is configured to determine the type of the wearing space as a third type in response to a volume level of the second audio signal being equal to or less than a first reference value.
  5. 청구항 4에 있어서,5. The method according to claim 4,
    상기 적어도 하나의 프로세서는, 상기 착용 공간의 유형이 상기 제3 유형으로 판단됨에 응답하여, 상기 외부 장치의 음량을 최소 음량으로 제어하는 웨어러블 장치.The at least one processor controls the volume of the external device to a minimum volume in response to determining that the type of the wearing space is the third type.
  6. 청구항 1에 있어서, The method according to claim 1,
    상기 적어도 하나의 프로세서는, 상기 제1 오디오 신호 및 상기 제2 오디오 신호의 주파수별 음량을 비교하고,The at least one processor compares the volume of each frequency of the first audio signal and the second audio signal,
    상기 비교 결과에 기초하여 상기 착용 공간의 유형이 제2 유형인지 여부를 판단하는 웨어러블 장치.A wearable device for determining whether the type of the wearing space is a second type based on the comparison result.
  7. 청구항 6에 있어서,7. The method of claim 6,
    상기 적어도 하나의 프로세서는, 상기 착용 공간의 유형이 상기 제2 유형으로 판단됨에 응답하여, 상기 제2 오디오 신호의 주파수별 음량이 상기 제1 오디오 신호의 주파수별 음량으로 유지되도록 제어 신호를 상기 외부 장치로 전송하는 웨어러블 장치.The at least one processor, in response to determining that the type of the wearing space is the second type, transmits a control signal to the external so that the volume for each frequency of the second audio signal is maintained as the volume for each frequency of the first audio signal. A wearable device that transmits to the device.
  8. 청구항 6에 있어서,7. The method of claim 6,
    상기 적어도 하나의 프로세서는, 상기 제2 오디오 신호에 포함된 고음 주파수 영역의 제1 음량 감쇄율과 상기 제2 오디오 신호에 포함된 저음 주파수 영역의 제2 음량 감쇄율의 차이에 기초하여, 상기 착용 공간의 유형이 상기 제2 유형인지 여부를 판단하는 웨어러블 장치.The at least one processor is configured to: based on a difference between a first volume decay rate of a high-pitched frequency region included in the second audio signal and a second volume decay rate of a low-pitched frequency region included in the second audio signal, A wearable device that determines whether the type is the second type.
  9. 청구항 1에 있어서,The method according to claim 1,
    상기 적어도 하나의 프로세서는, 상기 외부 장치의 음량을 조절하는 입력의 수신에 응답하여 상기 제1 오디오 신호를 획득하도록 상기 마이크를 제어하는 웨어러블 장치.The at least one processor controls the microphone to acquire the first audio signal in response to receiving an input for adjusting a volume of the external device.
  10. 청구항 1에 있어서,The method according to claim 1,
    상기 적어도 하나의 프로세서는, 초광대역 무선(ultra-wideband) 통신을 이용하여 상기 외부 장치에 대한 상기 웨어러블 장치의 위치를 판단하는 웨어러블 장치.The at least one processor is configured to determine a position of the wearable device with respect to the external device using ultra-wideband communication.
  11. 청구항 1에 있어서,The method according to claim 1,
    상기 적어도 하나의 프로세서는, the at least one processor,
    상기 제2 오디오 신호에 상기 사용자의 발화가 포함되었는지 여부를 판단하고,determining whether the user's utterance is included in the second audio signal,
    상기 제2 오디오 신호에 상기 사용자의 발화가 포함된 것으로 판단하는 것에 응답하여, 상기 외부 장치의 음량을 제3 기준 값 이하로 제어하는 웨어러블 장치.In response to determining that the second audio signal includes the user's utterance, the wearable device controls the volume of the external device to be less than or equal to a third reference value.
  12. 청구항 11에 있어서,12. The method of claim 11,
    상기 적어도 하나의 프로세서는, the at least one processor,
    상기 제2 오디오 신호에 기반하여 상기 사용자의 발화 종료를 식별하고,identifying the end of the user's speech based on the second audio signal;
    상기 발화 종료를 식별함에 기반하여, 상기 외부 장치의 음량을 상기 제3 기준 값 이하로 제어하기 전의 음량으로 제어하는 웨어러블 장치.A wearable device for controlling the volume of the external device to a volume before controlling the volume to be lower than or equal to the third reference value based on identification of the end of the speech.
  13. 마이크 및 외부 장치로 제어 신호를 송수신하는 통신 회로를 포함하는 웨어러블 장치의 동작 방법에 있어서,A method of operating a wearable device comprising a microphone and a communication circuit for transmitting and receiving a control signal to and from an external device, the method comprising:
    상기 웨어러블 장치가 사용자의 신체에 착용된 상태에서 상기 마이크를 이용해 상기 외부 장치로부터 제1 오디오 신호를 획득하는 동작;acquiring a first audio signal from the external device using the microphone while the wearable device is worn on the user's body;
    설정된 시간이 지남에 응답하여, 상기 마이크를 이용해 상기 외부 장치로부터 제2 오디오 신호를 획득하는 동작;acquiring a second audio signal from the external device using the microphone in response to the lapse of a set time;
    상기 제1 오디오 신호 및 상기 제2 오디오 신호에 기반하여 상기 사용자의 착용 공간의 유형을 판단하는 동작; 및 determining the type of the user's wearing space based on the first audio signal and the second audio signal; and
    상기 착용 공간의 유형에 대응되는 오디오 출력 제어 방식에 기반하여, 상기 통신 회로를 통해 상기 외부 장치의 음량을 제어하는 동작을 포함하는 웨어러블 장치의 동작 방법.and controlling a volume of the external device through the communication circuit based on an audio output control method corresponding to the type of the wearing space.
  14. 청구항 13에 있어서, 14. The method of claim 13,
    상기 외부 장치의 음량을 제어하는 동작은, 상기 착용 공간의 유형이 제1 유형임에 따라, 상기 제1 오디오 신호 및 상기 제2 오디오 신호에 기반하여 상기 외부 장치와 상기 사용자의 거리를 판단하는 동작; 및The controlling of the volume of the external device includes determining a distance between the external device and the user based on the first audio signal and the second audio signal when the type of the wearing space is the first type ; and
    상기 판단된 거리에 비례하도록 상기 외부 장치의 음량을 조절하는 동작을 포함하는 웨어러블 장치의 동작 방법.and adjusting a volume of the external device in proportion to the determined distance.
  15. 청구항 13에 있어서,14. The method of claim 13,
    상기 착용 공간의 유형을 판단하는 동작은, 상기 제2 오디오 신호의 음량이 제1 기준 값 이하임에 응답하여 상기 착용 공간의 유형을 제3 유형으로 판단하는 동작을 포함하고,The determining of the type of the wearing space includes determining the type of the wearing space as the third type in response to a volume level of the second audio signal being less than or equal to a first reference value,
    상기 외부 장치의 음량을 제어하는 동작은, 상기 착용 공간의 유형이 상기 제3 유형으로 판단됨에 응답하여, 상기 외부 장치의 음량을 미리 정해진 최소 음량으로 제어하는 동작을 포함하는, 웨어러블 장치의 동작 방법.The operation of controlling the volume of the external device includes controlling the volume of the external device to a predetermined minimum volume in response to determining that the type of the wearing space is the third type. .
PCT/KR2022/000690 2021-01-15 2022-01-14 Wearable device for performing automatic volume control WO2022154546A1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020210006300A KR20220103543A (en) 2021-01-15 2021-01-15 Wearable device and method performing automatic sound control
KR10-2021-0006300 2021-01-15

Publications (1)

Publication Number Publication Date
WO2022154546A1 true WO2022154546A1 (en) 2022-07-21

Family

ID=82447696

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2022/000690 WO2022154546A1 (en) 2021-01-15 2022-01-14 Wearable device for performing automatic volume control

Country Status (2)

Country Link
KR (1) KR20220103543A (en)
WO (1) WO2022154546A1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024138600A1 (en) * 2022-12-30 2024-07-04 Huawei Technologies Co., Ltd. Using on-body microphone to improve user interaction with smart devices

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024029644A1 (en) * 2022-08-03 2024-02-08 엘지전자 주식회사 Wireless audio reception apparatus, wireless audio transmission apparatus, and wireless audio output system comprising same
WO2024106796A1 (en) * 2022-11-15 2024-05-23 삼성전자 주식회사 Method for controlling audio setting and wearable electronic device supporting same

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20130156207A1 (en) * 2011-12-16 2013-06-20 Qualcomm Incorporated Optimizing audio processing functions by dynamically compensating for variable distances between speaker(s) and microphone(s) in an accessory device
KR20160108051A (en) * 2015-03-06 2016-09-19 삼성전자주식회사 Wearable electronic device and method for controlling thereof
KR20180048044A (en) * 2016-11-02 2018-05-10 현대자동차주식회사 Apparatus and method for providing geo-fencing service via in-vehicle electric device
KR20200065930A (en) * 2018-11-30 2020-06-09 삼성전자주식회사 Electronic device and Method of controlling thereof
KR20200084080A (en) * 2019-01-02 2020-07-10 올리브유니온(주) Adaptive solid hearing system according to environmental changes and noise changes, and the method thereof

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20130156207A1 (en) * 2011-12-16 2013-06-20 Qualcomm Incorporated Optimizing audio processing functions by dynamically compensating for variable distances between speaker(s) and microphone(s) in an accessory device
KR20160108051A (en) * 2015-03-06 2016-09-19 삼성전자주식회사 Wearable electronic device and method for controlling thereof
KR20180048044A (en) * 2016-11-02 2018-05-10 현대자동차주식회사 Apparatus and method for providing geo-fencing service via in-vehicle electric device
KR20200065930A (en) * 2018-11-30 2020-06-09 삼성전자주식회사 Electronic device and Method of controlling thereof
KR20200084080A (en) * 2019-01-02 2020-07-10 올리브유니온(주) Adaptive solid hearing system according to environmental changes and noise changes, and the method thereof

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024138600A1 (en) * 2022-12-30 2024-07-04 Huawei Technologies Co., Ltd. Using on-body microphone to improve user interaction with smart devices

Also Published As

Publication number Publication date
KR20220103543A (en) 2022-07-22

Similar Documents

Publication Publication Date Title
WO2022154546A1 (en) Wearable device for performing automatic volume control
WO2022055068A1 (en) Electronic device for identifying command included in voice and operation method therefor
WO2022119287A1 (en) Electronic device including flexible display and method for operating same
WO2022005248A1 (en) Method and electronic device for detecting ambient audio signal
WO2022030882A1 (en) Electronic device for processing audio data, and method for operating same
WO2022203456A1 (en) Electronic device and method for processing voice signal
WO2022154440A1 (en) Electronic device for processing audio data and method for operating same
WO2022114648A1 (en) Electronic device for setting background screen and operating method therefor
WO2021201429A1 (en) Electronic device and method for controlling audio output of same
WO2022025452A1 (en) Electronic device and method for operating electronic device
WO2021221440A1 (en) Method for enhancing sound quality, and device therefor
WO2022154321A1 (en) Electronic device switching communication connection in accordance with noise environment, and method for controlling same
WO2024076043A1 (en) Electronic device and method for generating vibration sound signal
WO2023158268A1 (en) External noise-based microphone and sensor control method and electronic device
WO2023080401A1 (en) Method and device for sound recording by electronic device using earphones
WO2024076061A1 (en) Foldable electronic device and method for decreasing echo generation
WO2024034784A1 (en) Electronic device, method, and non-transitory computer-readable storage medium for performing advertising process synchronized with advertising process in another electronic device
WO2024053931A1 (en) Method for switching microphone, and electronic device
WO2024136196A1 (en) Electronic device for outputting sound from external device, operation method thereof, and storage medium
WO2023149720A1 (en) Electronic device including sensor module
WO2023085642A1 (en) Operation control method and electronic device therefor
WO2023063627A1 (en) Electronic device for controlling ambient sound on basis of audio scene, and operating method thereof
WO2024215063A1 (en) First electronic device for outputting sound, second electronic device for controlling same, and operating method of first electronic device
WO2022154394A1 (en) Electronic device for reducing internal noise, and operation method thereof
WO2024029728A1 (en) Wearable electronic device for touch recognition, operating method therefor, and storage medium

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 22739739

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 22739739

Country of ref document: EP

Kind code of ref document: A1