KR20220103543A - Wearable device and method performing automatic sound control - Google Patents
Wearable device and method performing automatic sound control Download PDFInfo
- Publication number
- KR20220103543A KR20220103543A KR1020210006300A KR20210006300A KR20220103543A KR 20220103543 A KR20220103543 A KR 20220103543A KR 1020210006300 A KR1020210006300 A KR 1020210006300A KR 20210006300 A KR20210006300 A KR 20210006300A KR 20220103543 A KR20220103543 A KR 20220103543A
- Authority
- KR
- South Korea
- Prior art keywords
- audio signal
- external device
- volume
- user
- processor
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/16—Sound input; Sound output
- G06F3/165—Management of the audio stream, e.g. setting of volume, audio stream path
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F1/00—Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
- G06F1/16—Constructional details or arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F1/00—Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
- G06F1/16—Constructional details or arrangements
- G06F1/1613—Constructional details or arrangements for portable computers
- G06F1/163—Wearable computers, e.g. on a belt
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/16—Sound input; Sound output
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L17/00—Speaker identification or verification
- G10L17/26—Recognition of special voice characteristics, e.g. for use in lie detectors; Recognition of animal voices
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L21/00—Processing of the speech or voice signal to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
- G10L21/02—Speech enhancement, e.g. noise reduction or echo cancellation
- G10L21/0208—Noise filtering
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04R—LOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
- H04R3/00—Circuits for transducers, loudspeakers or microphones
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04R—LOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
- H04R3/00—Circuits for transducers, loudspeakers or microphones
- H04R3/005—Circuits for transducers, loudspeakers or microphones for combining the signals of two or more microphones
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04R—LOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
- H04R2430/00—Signal processing covered by H04R, not provided for in its groups
- H04R2430/01—Aspects of volume control, not necessarily automatic, in sound systems
Abstract
Description
본 개시에 따른 다양한 실시 예들은, 소리를 출력하는 외부 장치의 음량을 제어하는 웨어러블 장치에 관한 것으로, 보다 상세하게는, 웨어러블 장치를 착용한 사용자의 위치 및 공간에 기초하여 외부 장치의 음량을 제어하는 기술에 관한 것이다.Various embodiments according to the present disclosure relate to a wearable device that controls the volume of an external device that outputs a sound, and more particularly, controls the volume of the external device based on the location and space of a user wearing the wearable device It's about technology.
사용자의 신체(예: 손목)에 착용되어 외부 전자 장치를 제어할 수 있는 웨어러블 전자 장치들(예: 헤드 셋, 이어폰, 스마트 글래스(smart glasses), 머리 착용형 장치(head mounted device: HMD), 스마트 워치(smart watch))이 보급화 되고 있다. 웨어러블 전자 장치를 이용하여 다양한 서비스(예: 음악 감상, 동영상 시청, 음성 통화)를 이용하는 사용자들이 증가하고 있다. 예를 들어, 웨어러블 장치는 외부 전자 장치(예: TV, 블루투스 스피커, 스마트 폰, 태블릿 PC, 노트북, 데스크 탑, 또는 착용형(wearable) 단말))에 유선 또는 무선으로 연결하여 다양한 서비스(예: 방송 시청, 음악 감상, 동영상 시청)를 제공할 수 있다.Wearable electronic devices that are worn on the user's body (eg, wrist) to control external electronic devices (eg, headset, earphone, smart glasses, head mounted device: HMD); Smart watch (smart watch) is becoming popular. The number of users who use various services (eg, listening to music, watching a video, and making a voice call) by using a wearable electronic device is increasing. For example, a wearable device connects to an external electronic device (eg, a TV, Bluetooth speaker, smart phone, tablet PC, notebook, desktop, or wearable device) wired or wirelessly to provide various services (eg: Watching broadcasts, listening to music, watching videos) can be provided.
웨어러블 장치는 오디오를 출력하는 외부 전자 장치에 유선 또는 무선으로 연결하여, 다양한 서비스를 제공할 수 있다. 다만, 웨어러블 장치를 착용한 사용자의 위치는 계속해서 변화할 수 있으나, 외부 전자 장치는 고정된 위치에 있는 경우 효과적인 서비스 제공에 장애가 발생할 수 있다. 예를 들어, 영상 표시 기기 또는 오디오 기기를 포함한 외부 전자 장치로부터 사용자의 거리에 따라 사용자가 인식하는 오디오 음량의 크기는 다를 수 있다. 사용자가 외부 전자 장치로부터 멀어진 경우, 외부 전자 장치로부터 출력되는 소리에 기반한 인지 음량은 줄어들 수 있다. 또한, 사용자가 외부 전자 장치로부터 가까워진 경우, 외부 전자 장치로부터 출력되는 소리에 기반한 인지 음량이 높아질 수 있다. 다른 예로, 외부 전자 장치는 고정된 위치에 있기 때문에, 사용자가 외부 전자 장치로부터 출력되는 소리를 청취할 의지가 없어 외부 전자 장치와 다른 공간으로 이동한 경우에도 불구하고 계속해서 소리를 출력하여 불필요한 소음이 발생될 수 있다.The wearable device may provide various services by being connected to an external electronic device that outputs audio by wire or wirelessly. However, the position of the user wearing the wearable device may continuously change, but when the external electronic device is in a fixed position, an obstacle may occur in effective service provision. For example, the size of the audio volume recognized by the user may vary according to the user's distance from the external electronic device including the video display device or the audio device. When the user moves away from the external electronic device, a perceived volume based on a sound output from the external electronic device may decrease. Also, when the user approaches the external electronic device, a perceived volume based on a sound output from the external electronic device may increase. As another example, since the external electronic device is in a fixed position, the user does not have the will to listen to the sound output from the external electronic device, so even when the user moves to a different space from the external electronic device, the external electronic device continues to output sound and makes unnecessary noise. This can happen.
복수 개의 외부 전자 장치들을 이용해 사용자가 소리를 듣는 경우, 복수 개의 외부 전자 장치들과 사용자의 거리에 따라, 특정 외부 전자 장치에서 출력되는 소리에 대한 인지 음량이 달라질 수 있다. When a user hears a sound using a plurality of external electronic devices, a perceived volume of a sound output from a specific external electronic device may vary according to a distance between the plurality of external electronic devices and the user.
사용자가 외부 전자 장치를 이용하여 음악을 감상하거나 영상을 시청하던 중 타인과 대화를 위해 발화하는 경우, 외부 전자 장치의 소리로 인해 대화에 방해를 받을 수 있다.When a user speaks for a conversation with another while listening to music or watching an image using the external electronic device, the conversation may be interrupted by the sound of the external electronic device.
본 개시의 다양한 실시예에서 이루고자 하는 기술적 과제는 이상에서 언급한 기술적 과제로 제한되지 않으며, 언급되지 않은 또 다른 기술적 과제들은 아래의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.The technical problems to be achieved in various embodiments of the present disclosure are not limited to the technical problems mentioned above, and other technical problems not mentioned are clear to those of ordinary skill in the art to which the present invention belongs from the description below. will be able to understand
일 실시 예에서의 웨어러블 장치는, 마이크, 외부 장치로 제어 신호를 송수신하는 통신 회로, 마이크 및 통신 회로와 전기적으로 연결되는 적어도 하나의 프로세서를 포함하고, 적어도 하나의 프로세서는 웨어러블 장치가 사용자의 신체에 착용된 상태에서 마이크를 이용해 외부 장치로부터 제1 오디오 신호를 획득하고, 설정된 시간이 지남에 응답하여, 마이크를 이용해 외부 장치로부터 제2 오디오 신호를 획득하고, 제1 오디오 신호 및 제2 오디오 신호에 기반하여 사용자의 착용 공간의 유형을 판단하고, 착용 공간의 유형에 대응되는 오디오 출력 제어 방식에 기반하여, 통신 회로를 이용해 외부 장치의 음량을 제어할 수 있다.The wearable device according to an embodiment includes a microphone, a communication circuit for transmitting and receiving a control signal to and from an external device, and at least one processor electrically connected to the microphone and the communication circuit, wherein the at least one processor is configured to allow the wearable device to operate on the user's body. A first audio signal is obtained from an external device using a microphone in a state of being worn, and a second audio signal is obtained from an external device using a microphone in response to the lapse of a set time, and a first audio signal and a second audio signal may determine the type of the user's wearing space based on the , and control the volume of the external device using the communication circuit based on the audio output control method corresponding to the type of the wearing space.
일 실시 예에 따른, 마이크 및 외부 장치로 제어 신호를 송수신하는 통신 회로를 포함하는 웨어러블 장치의 동작 방법은, 웨어러블 장치가 사용자의 신체에 착용된 상태에서 마이크를 이용해 외부 장치로부터 제1 오디오 신호를 획득하는 동작, 설정된 시간이 지남에 응답하여, 마이크를 이용해 외부 장치로부터 제2 오디오 신호를 획득하는 동작, 제1 오디오 신호 및 제2 오디오 신호에 기반하여 사용자의 착용 공간의 유형을 판단하는 동작 및 착용 공간의 유형에 대응되는 오디오 출력 제어 방식에 기반하여, 통신 회로를 이용해 외부 장치의 음량을 제어하는 동작을 포함할 수 있다.According to an embodiment, in a method of operating a wearable device including a microphone and a communication circuit for transmitting and receiving a control signal to and from an external device, the wearable device receives a first audio signal from an external device using a microphone while the wearable device is worn on a user's body. an operation of acquiring, an operation of acquiring a second audio signal from an external device using a microphone in response to the lapse of a set time, an operation of determining the type of the user's wearing space based on the first audio signal and the second audio signal, and It may include an operation of controlling a volume of an external device using a communication circuit based on an audio output control method corresponding to the type of the wearing space.
일 실시 예에 따른 웨어러블 장치는, 마이크, 복수 개의 외부 장치들과 제어 신호를 송수신하는 통신 회로, 마이크 및 통신 회로와 전기적으로 연결되는 적어도 하나의 프로세서를 포함하고, 적어도 하나의 프로세서는 웨어러블 장치가 사용자의 신체에 착용된 상태에서 마이크를 이용해 복수 개의 장치들 각각으로부터 제3 오디오 신호를 획득하고, 설정된 시간이 지남에 응답하여, 마이크를 이용해 복수 개의 외부 장치들 각각으로부터 제4 오디오 신호를 획득하고, 제3 오디오 신호 및 제4 오디오 신호에 기반하여 사용자와 복수 개의 외부 장치들 각각의 거리들을 판단하고, 판단 결과에 기반하여 통신 회로를 이용해 복수 개의 외부 장치들 중 적어도 하나의 음량을 제어할 수 있다.A wearable device according to an embodiment includes a microphone, a communication circuit for transmitting and receiving control signals to and from a plurality of external devices, and at least one processor electrically connected to the microphone and the communication circuit, wherein the at least one processor includes the wearable device A third audio signal is obtained from each of a plurality of devices using a microphone in a state worn on the user's body, and a fourth audio signal is obtained from each of a plurality of external devices using a microphone in response to the lapse of a set time, , determine the distances between the user and the plurality of external devices based on the third audio signal and the fourth audio signal, and control the volume of at least one of the plurality of external devices using a communication circuit based on the determination result have.
본 개시에 따른 다양한 실시 예들에 따른 웨어러블 장치는 오디오 기기 또는 영상 표시 기기를 포함한 외부 장치의 오디오 출력을 자동으로 제어할 수 있다. A wearable device according to various embodiments of the present disclosure may automatically control an audio output of an external device including an audio device or an image display device.
본 개시에 따른 다양한 실시 예들에 따른 웨어러블 장치는 사용자의 공간 또는 위치를 파악하거나 계산하기 위한 공간 내의 별도의 센서 없이 웨어러블 장치에 포함된 마이크와 프로세서 만으로 외부 장치의 음량을 자동으로 제어할 수 있다. 본 개시에 따른 웨어러블 장치는 사용자의 착용 공간의 유형에 따라 다른 제어 방식을 사용해 외부 장치의 음량을 제어함으로써, 사용자의 편의성을 증가시킬 수 있다.A wearable device according to various embodiments of the present disclosure may automatically control the volume of an external device only with a microphone and a processor included in the wearable device without a separate sensor in the space for detecting or calculating the user's space or location. The wearable device according to the present disclosure may increase the user's convenience by controlling the volume of the external device using a different control method according to the type of the user's wearing space.
본 개시에 따른 다양한 실시 예들에 따라, 웨어러블 장치는 사용자의 위치가 변화하더라도 외부 장치의 음량을 조절하는 사용자 입력을 수신할 필요 없이 최초로 설정한 음량과 유사한 인지 음량을 제공할 수 있는 음향을 출력할 수 있다.According to various embodiments of the present disclosure, the wearable device may output a sound capable of providing a perceived volume similar to the initially set volume without receiving a user input for adjusting the volume of the external device even if the location of the user changes. can
본 개시에 따른 다양한 실시 예들에 따른 웨어러블 장치는, 외부 장치에 의해 출력되는 음향이 대화에 방해가 되지 않도록 외부 장치의 음량을 제어할 수 있다. The wearable device according to various embodiments of the present disclosure may control the volume of the external device so that the sound output by the external device does not interfere with conversation.
본 개시에서 얻을 수 있는 효과는 이상에서 언급한 효과들로 제한되지 않으며, 언급하지 않은 또 다른 효과들은 아래의 기재로부터 본 개시가 속하는 기술 분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.Effects obtainable in the present disclosure are not limited to the above-mentioned effects, and other effects not mentioned may be clearly understood by those of ordinary skill in the art to which the present disclosure belongs from the description below. will be.
도 1은 일 실시 예에 따른 웨어러블 장치와 무선 통신을 통해서 연결된 외부 장치로 구성된 시스템의 예를 나타내는 도면이다.
도 2는 일 실시 예에 따른 웨어러블 장치의 구성을 도시한 블록도이다.
도 3은 외부 장치를 기준으로 구분된 착용 공간의 유형에 대한 예시를 나타내는 도면이다.
도 4a는 일 실시 예에 따라, 제1 공간에서 사용자의 위치 변화에 기반하여 외부 장치의 음량을 제어하는 것을 나타내는 도면이다.
도 4b는 일 실시 예에 따른 제1 공간에서, 사용자 이동에 기반한 오디오 신호의 변화를 나타내는 도면이다.
도 5는 일 실시 예에 따라 획득한 오디오 신호들에 기초하여 사용자와 외부 장치의 거리를 판단하기 위한 신호 처리 방법을 설명하기 위한 도면이다.
도 6a는 일 실시 예에 따라, 제1 공간에서 제2 공간으로 사용자가 이동하는 것을 나타내는 도면이다.
도 6b는 일 실시 예에 따라, 제1 공간에서 제2 공간으로 사용자가 이동함에 따라서 수신되는 오디오 신호의 변화를 나타내는 도면이다.
도 7a는 일 실시 예에 따라, 제1 공간에서 제3 공간으로 사용자가 이동하는 것을 나타내는 도면이다.
도 7b는 일 실시 예에 따라, 제1 공간에서 제3 공간으로 사용자가 이동함에 따라서 수신되는 오디오 신호의 변화를 나타내는 도면이다.
도 8은 일 실시 예에 따른 웨어러블 장치에서, 사용자의 위치에 기반하여 외부 장치의 음량을 제어하는 프로세스에 대한 흐름도이다.
도 9는 일 실시 예에 따른 웨어러블 장치에서, 사용자의 공간 유형을 구분하여 외부 장치의 음량을 제어하는 프로세스에 대한 흐름도이다.
도 10은 일 실시 예에 따른 웨어러블 장치에서, 사용자의 발화에 따라 외부 장치의 음량을 제어하는 것을 나타내는 도면이다.
도 11a는 일 실시 예에 따라 복수 개의 외부 장치들에 대한 사용자의 위치를 나타내는 도면이다.
도 11b는 일 실시 예에 따라 복수 개의 외부 장치들과 거리에 기반하여 적어도 하나의 외부 장치의 음량을 제어하는 것을 나타내는 도면이다.
도 12는 일 실시 예에 따른 네트워크 환경 내의 전자 장치의 블록도이다.
도면의 설명과 관련하여, 동일 또는 유사한 구성요소에 대해서는 동일 또는 유사한 참조 부호가 사용될 수 있다.1 is a diagram illustrating an example of a system including a wearable device and an external device connected through wireless communication according to an embodiment.
2 is a block diagram illustrating a configuration of a wearable device according to an exemplary embodiment.
3 is a diagram illustrating an example of a type of wearing space divided based on an external device.
4A is a diagram illustrating controlling a volume of an external device based on a change in a user's position in a first space, according to an exemplary embodiment.
4B is a diagram illustrating a change in an audio signal based on a user's movement in a first space according to an exemplary embodiment.
5 is a diagram for describing a signal processing method for determining a distance between a user and an external device based on acquired audio signals, according to an exemplary embodiment.
6A is a diagram illustrating movement of a user from a first space to a second space, according to an exemplary embodiment.
6B is a diagram illustrating a change in a received audio signal as a user moves from a first space to a second space, according to an embodiment.
7A is a diagram illustrating movement of a user from a first space to a third space, according to an exemplary embodiment.
7B is a diagram illustrating a change in a received audio signal as a user moves from a first space to a third space, according to an exemplary embodiment.
8 is a flowchart of a process of controlling a volume of an external device based on a user's location in a wearable device according to an exemplary embodiment.
9 is a flowchart of a process of controlling a volume of an external device by classifying a user's space type in a wearable device according to an exemplary embodiment.
10 is a diagram illustrating control of a volume of an external device according to a user's utterance in a wearable device according to an exemplary embodiment.
11A is a diagram illustrating a location of a user with respect to a plurality of external devices, according to an exemplary embodiment.
11B is a diagram illustrating controlling a volume of at least one external device based on a distance from a plurality of external devices, according to an exemplary embodiment.
12 is a block diagram of an electronic device in a network environment according to an embodiment.
In connection with the description of the drawings, the same or similar reference numerals may be used for the same or similar components.
도 1은 일 실시 예에 따른 웨어러블 장치가 외부 장치와 무선 통신 연결된 예를 나타내는 도면이다.1 is a diagram illustrating an example in which a wearable device is connected to an external device by wireless communication according to an exemplary embodiment.
일 실시 예에 따르면, 도 1의 웨어러블 장치(100)는 도시된 바와 같이 스마트 워치(smart watch)일 수 있다. 이에 한하지 않고, 웨어러블 장치(100)는 사용자의 신체에 부착되어 사용될 수 있는 다양한 형태의 장치일 수 있다. 예를 들면, 웨어러블 장치(100)는 머리 착용형 장치(head mounted device: HMD), 또는 스마트 글래스(smart glasses)를 포함할 수 있다.According to an embodiment, the
일 실시 예에 따르면, 웨어러블 장치(100)는 스트랩(130)을 구비하여, 스트랩(130)이 사용자의 팔목에 감김으로써 사용자의 신체에 부착될 수 있다. 이에 한하지 않고, 웨어러블 장치(100)는 웨어러블 장치(100)의 형태, 크기 등에 따라서 사용자의 다양한 신체에 부착될 수 있다. 예를 들면, 웨어러블 장치(100)는 손, 손등, 손가락, 손톱, 손 끝(fingertip) 등에도 부착될 수 있다.According to an embodiment, the
일 실시 예에 따르면, 도 1의 외부 장치(110)는 도시된 바와 같이 스피커일 수 있다. 이에 한하지 않고, 외부 장치(110)는 일시적으로 고정된 위치에서 소리를 출력하는 다양한 형태의 전자 장치일 수 있다. 예를 들면, 오디오 기기(예: 커넥티드 스피커(connected speaker)), 영상 표시 기기(예: 네트워크 TV, HBBTV, 스마트 TV, 스마트폰, 노트북, 태블릿PC)를 포함할 수 있다.According to an embodiment, the
일 실시 예에 따르면, 외부 장치(110)는 내부 메모리에 저장된 오디오 데이터(예: 음악 데이터, 동영상에 포함된 오디오 데이터)를 출력할 수 있다. 일 실시 예에 따르면, 외부 장치(110)는 웨어러블 장치(100)와 무선 통신 채널을 연결(establish)할 수 있다. 예를 들어, 통신 회로(230)는 블루투스(Blutooth), RF(Radio Frequency) 통신, 적외선(IR) 통신, 와이파이(WIFI), UWB(Ultra-wideband) 및/또는 지그비(Zigbee) 방식의 통신 모듈을 이용할 수 있다. 일 실시 예에서, 외부 장치(110)는 채널 연결을 통해 웨어러블 장치(100)로부터 오디오 데이터를 수신하여 출력할 수 있다.According to an embodiment, the
도 2는 일 실시 예에 따른 웨어러블 장치의 구성을 도시한 블록도이다. 2 is a block diagram illustrating a configuration of a wearable device according to an exemplary embodiment.
도 2를 참조하면, 웨어러블 장치(100)는 프로세서(210), 마이크(220), 통신 회로(230) 및 메모리(240)를 포함할 수 있다. 다양한 실시 예에서, 웨어러블 장치(100)는 도 2에 도시된 구성요소 외에 추가적인 구성요소를 포함하거나, 도 2에 도시된 구성요소 중 적어도 하나를 생략할 수 있다. 상기 열거된 구성요소들은 서로 작동적으로 또는 전기적으로 연결될 수 있다. 웨어러블 장치(100)는 도 2에 도시된 구성요소 중 적어도 일부를 생략하거나, 다른 구성요소를 더 포함할 수도 있다. 도 2에 도시된 웨어러블 장치(100)의 구성요소 중 일부는 유사한 기능을 수행하는 다른 구성요소로 대체될 수도 있다. 도 2에 도시된 구성요소들은 적어도 하나의 하드웨어를 포함할 수 있다.Referring to FIG. 2 , the
일 실시 예에 따르면, 프로세서(210)는 웨어러블 장치(100)의 전반적인 동작을 제어할 수 있다. 예를 들어, 프로세서(210)는 마이크(220), 통신 회로(230) 및 메모리(240)와 전기적으로 연결되어 지정된 동작을 수행할 수 있다. 일 실시 예에 따르면, 프로세서(210)는 메모리(240)에 저장된 인스트럭션들을 이용하여 웨어러블 장치(100)의 적어도 하나의 다른 구성요소들의 제어 및/또는 통신에 관한 연산이나 데이터 처리를 실행할 수 있다. 일 실시 예에 따르면, 프로세서(210)는 중앙처리장치(CPU), 그래픽처리장치(GPU), MCU(micro controller unit), 센서 허브, 보조프로세서(supplementary processor), 통신 프로세서(communication processor), 애플리케이션 프로세서(application processor), ASIC(application specific integrated circuit), FPGA(field programmable gate arrays) 중 적어도 하나를 포함할 수 있으며, 복수의 코어를 가질 수 있다.According to an embodiment, the processor 210 may control the overall operation of the
일 실시 예에 따르면, 마이크(220)는 외부 소리를 획득하고, 획득된 외부 소리를 분석할 수 있다. 예를 들어, 마이크(220)는 외부 장치(110)로부터 소리를 획득하여 오디오 신호로 변환할 수 있다. 일 실시 예에 따르면, 마이크(220)는 웨어러블 장치(100)의 사용자 발화를 수신하여, 전기적 신호로 변환할 수 있다.According to an embodiment, the microphone 220 may acquire an external sound and analyze the acquired external sound. For example, the microphone 220 may obtain a sound from the
일 실시 예에 따르면, 통신 회로(230)는 도 1을 참조하며 설명된 외부 장치(110)와 통신할 수 있다. 예를 들어, 웨어러블 장치(100)는 통신 회로(230)를 이용해 외부 장치(110)로 제어 신호를 송신할 수 있다. 또한, 웨어러블 장치(100)는 통신 회로(230)를 이용해 외부 장치(110)로 오디오 데이터를 송신할 수 있다.According to an embodiment, the communication circuit 230 may communicate with the
일 실시 예에 따르면, 메모리(240)는 웨어러블 장치(100)의 적어도 하나의 구성요소(예: 프로세서, 마이크)에 의해 획득되거나 사용되는 다양한 데이터를 저장할 수 있다. 예를 들어, 메모리(240)는 외부 장치(110)를 통해 출력될 오디오 데이터를 저장할 수 있다. 또한, 메모리(240)는 마이크(220)를 이용해 획득한 웨어러블 장치(100)의 사용자 발화에 대한 정보를 저장할 수 있다.According to an embodiment, the memory 240 may store various data acquired or used by at least one component (eg, a processor, a microphone) of the
일 실시 예에 따르면, 프로세서(210)는 웨어러블 장치(100)가 사용자의 신체에 착용된 상태에서 마이크(220)를 이용해 외부 장치(110)로부터 오디오 신호를 획득할 수 있다. 예를 들어, 외부 장치(110)가 소리(오디오 데이터)를 출력하면, 마이크(220)는 검출된 소리를 전기적 신호로 전환하여 프로세서(210)로 제공할 수 있다. 일 실시 예에 따르면, 외부 장치(110)는 외부 장치(110)의 내부 메모리에 저장된 오디오 데이터 또는 웨어러블 장치(100)로부터 수신된 오디오 데이터에 기초하여 음향을 출력할 수 있다.According to an embodiment, the processor 210 may obtain an audio signal from the
일 실시 예에 따르면, 프로세서(210)는 통신 회로(230)를 이용해 외부 장치(110)의 음량을 제어할 수 있다. 일 실시 예에서, 프로세서(210)는 외부 장치(110)의 음량 제어를 위한 사용자의 입력(예: 볼륨 조절 버튼 터치 입력, 음성 신호 입력)에 기반하여 외부 장치(110)의 음량을 제어할 수 있다. 예를 들어, 프로세서(210)는 통신 회로(230)를 이용해 외부 장치(110)로 음량 제어 신호를 송신하고, 외부 장치(110)는 수신된 음량 제어 신호에 기반하여 출력되는 소리의 음량을 조절할 수 있다. According to an embodiment, the processor 210 may control the volume of the
일 실시 예에 따르면, 프로세서(210)는 사용자 입력을 통한 외부 장치(110)의 음량 제어를 기초로, 마이크(220)를 통해 제1 오디오 신호를 획득할 수 있다. 예를 들어, 음량 제어를 위한 연속적인 사용자 입력이 있은 뒤, 일정 시간동안 사용자 입력이 없는 경우 프로세서(210)는 마이크(220)를 통해 제1 오디오 신호로서 획득할 수 있다. 따라서, 프로세서(210)는 외부 장치(110)가 사용자 입력에 의해 조절된 음량에 기반하여 음향을 출력하고 있는 동안 마이크(220)를 통해서 웨어러블 장치(100)에서 검출되는 음향에 대한 정보를 포함하는 제1 오디오 신호를 획득할 수 있다. 즉, 프로세서(210)는 사용자가 원하는 음량에 맞춰 외부 장치(110)의 음량을 제어하기 위한 입력을 수행하면, 사용자 입력에 기초하여 외부 장치(110)로부터 마이크(220)를 통해 제1 오디오 신호를 획득할 수 있다. 프로세서(210)는 제1 오디오 신호를 메모리(240)에 저장할 수 있다.According to an embodiment, the processor 210 may acquire the first audio signal through the microphone 220 based on the volume control of the
일 실시 예에서, 프로세서(210)는 제1 오디오 신호를 획득한 후, 마이크(220)를 이용해 외부 장치(110)로부터 제2 오디오 신호를 획득할 수 있다. 일 실시 예에 따르면, 프로세서(210)는 제1 오디오 신호를 획득한 후 설정된 시간이 경과한 이후에 제2 오디오 신호를 획득할 수 있다. 예를 들어, 프로세서(210)는 음량 제어를 위한 사용자 입력이 있은 후 10초마다 주기적으로 제2 오디오 신호를 획득할 수 있다. 다른 실시 예에 따르면, 프로세서(210)는 마이크(220)를 이용해 연속적으로 외부 장치(110)로부터 제2 오디오 신호를 획득할 수 있다. 또 다른 실시 예에 따르면, 프로세서(210)는 웨어러블 장치(100)의 움직임에 응답하여 제2 오디오 신호를 획득할 수도 있다. 예를 들어, 프로세서(210)는 웨어러블 장치(100)에 포함된 움직임 센서를 이용하여 웨어러블 장치(100)의 움직임에 대한 정보(예: 가속도 값)를 검출하고, 움직임에 대한 정보의 크기가 임계값 이상인 경우 제2 오디오 신호를 획득할 수도 있다.In an embodiment, after obtaining the first audio signal, the processor 210 may obtain the second audio signal from the
일 실시 예에 따르면, 프로세서(210)는 제1 오디오 신호 및 제2 오디오 신호에 기반하여 사용자의 웨어러블 장치(100) 착용 공간의 유형을 판단할 수 있다. 일 실시 예에 따른 착용 공간의 유형에 대한 설명은 도 3을 참조하여 후술된다.According to an embodiment, the processor 210 may determine the type of the user's
일 실시 예에 따른 프로세서(210)는 제1 오디오 신호와 제2 오디오 신호를 비교하여 웨어러블 장치(100)의 착용 공간의 유형을 판단할 수 있다. 예를 들어, 복수 개의 분리된 공간들 중 외부 장치(110)와 동일한 공간에 있는지 여부를 판단할 수 있다. 일 실시 예에 따르면, 프로세서(210)는 제1 오디오 신호 및 제2 오디오 신호를 비교하여, 외부 장치(110)로부터 웨어러블 장치(100)를 착용한 사용자까지 거리를 판단할 수 있다. 예를 들어, 프로세서(210)는 제1 오디오 신호를 획득할 때의 외부 장치(110)와 사용자의 거리와 제2 오디오 신호를 획득할 때의 외부 장치(110)와 사용자의 거리를 판단할 수 있다. 따라서, 프로세서(210)는 제1 오디오 신호를 획득할 시점과 제2 오디오 신호를 획득할 시점에 따른 외부 장치(110)로부터 사용자의 거리의 변화를 판단할 수 있다.The processor 210 according to an embodiment may determine the type of the wearing space of the
일 실시 예에 따르면, 프로세서(210)는 웨어러블 장치(100)를 착용한 사용자의 착용 공간의 유형에 대응되는 음량 제어 방식에 기반하여, 통신 회로(230)를 이용해 외부 장치(110)의 음량을 제어할 수 있다. 일 실시 예에 따르면, 프로세서(210)는 복수 개의 웨어러블 장치(100)의 착용 공간의 유형들을 설정하고, 착용 공간의 유형들 각각에 대응되는 외부 장치(110)의 음량 제어 방식에 대한 데이터를 메모리(240)에 저장할 수 있다. 일 실시 예에서, 프로세서(210)는 메모리(240)에 저장된 음량 제어 방식에 기초하여, 판단된 착용 공간의 유형에 대응되는 음량 제어 방식으로 외부 장치(110)의 음량을 제어할 수 있다. 즉, 프로세서(210)는 착용 공간의 유형에 대응되는 음량 제어 방식에 기초하여 통신 회로(230)를 통해 음량 제어 신호를 외부 장치(110)로 송신할 수 있다. 외부 장치(110)는 음량 제어 신호를 수신하고, 수신된 음량 제어 신호에 기초하여 소리를 출력할 수 있다.According to an embodiment, the processor 210 controls the volume of the
도 3은 외부 장치를 기준으로 구분된 착용 공간의 유형에 대한 예시를 나타내는 도면이다.3 is a diagram illustrating an example of a type of wearing space divided based on an external device.
도 3을 참조하면, 웨어러블 장치(100)를 착용한 사용자의 착용 공간의 유형은 복수 개의 유형들로 구분될 수 있다. 다양한 실시 예들에 따르면, 착용 공간의 유형은 도 3을 참조하여 설명된 착용 공간의 유형에 제한되지 않고, 다양한 기준을 통해 구분될 수 있다.Referring to FIG. 3 , the type of the wearing space of the user who wears the
다양한 실시 예들에 따르면, 착용 공간의 유형은 다양한 기준에 기초하여 구분될 수 있다. 예를 들어, 착용 공간의 유형은 공간의 크기, 공간에 배치된 오브젝트 존재 여부를 기준으로 구분될 수 있다. 일 실시 예에 따르면, 착용 공간의 유형은 공간에 대한 외부 장치(300)(예: 도 1의 외부 장치(110))의 위치 및 사용자의 위치를 기준으로 구분될 수 있다. 일 실시 예에 따르면, 착용 공간의 유형은 제1 공간(310), 제2 공간(320) 및 제3 공간(330)으로 구분될 수 있다. According to various embodiments, the type of the wearing space may be classified based on various criteria. For example, the type of the wearing space may be classified based on the size of the space and the existence of an object disposed in the space. According to an embodiment, the type of the wearing space may be classified based on the location of the external device 300 (eg, the
일 실시 예에 따르면, 제1 공간(310)은 외부 장치(300)와 사용자 사이에 배치된 벽과 같은 오브젝트가 없는 열린 공간(opened space)을 나타낼 수 있다. 예를 들어, 웨어러블 장치(100) 사용자의 일반 가정집을 기준으로 설명하면, 제1 공간(310)은 오디오를 출력하는 외부 장치(300)가 있는 거실 공간을 나타낼 수 있다. According to an embodiment, the first space 310 may represent an open space in which there is no object such as a wall disposed between the
일 실시 예에 따르면, 제2 공간(320)은 외부 장치(300)와 사용자 사이에 배치된 벽과 같은 오브젝트가 있는 공간을 나타낼 수 있다. 구체적으로, 제2 공간(320)은 외부 장치(300)와 사용자 사이에 벽과 같은 구조물로 가로막혀서 외부 장치(300)로부터 출력되는 오디오 신호가 굴절되어 사용자에게 전달되는 공간을 나타낼 수 있다. 일 실시 예에 따르면, 제2 공간은 외부 장치(300)와 사용자 사이에 일부가 벽과 같은 구조물로 가로막힌 공간으로, 반 열린/닫힌 공간(half opened space)을 나타낼 수 있다. 예를 들어, 웨어러블 장치(100) 사용자의 일반 가정집을 기준으로 설명하면, 제2 공간(310)은 오디오를 출력하는 외부 장치(300)가 거실 공간에 위치한 상태에서, 벽과 같은 구조물을 통해 거실과 일부가 분리된 주방을 나타낼 수 있다. According to an embodiment, the second space 320 may represent a space in which an object such as a wall is disposed between the
일 실시 예에 따르면, 제3 공간(330)은 외부 장치(300)와 사용자 사이에 벽과 같은 오브젝트로 인해 완전히 분리된 공간을 나타낼 수 있다. 구체적으로, 제3 공간(330)은 외부 장치(300)와 사용자 사이에 벽과 같은 구조물로 사방이 가로막힌 공간을 나타낼 수 있다. 일 실시 예에 따르면, 제3 공간(330)은 외부 장치(300)와 사용자 사이가 벽과 같은 구조물로 가로막힌 공간으로, 닫힌 공간(closed space)을 나타낼 수 있다. 예를 들어, 웨어러블 장치(100) 사용자의 일반 가정집을 기준으로 설명하면, 제3 공간(330)은 오디오를 출력하는 외부 장치(300)가 거실 공간에 위치한 상태에서, 벽과 같은 구조물을 통해 분리되어 문을 통해 출입할 수 있는 방을 나타낼 수 있다. 따라서, 사용자가 제3 공간(330)에 위치한 경우, 외부 장치(110)를 통해 출력된 오디오를 청취할 의지가 없음이 가정될 수 있다.According to an embodiment, the third space 330 may represent a space completely separated by an object such as a wall between the
웨어러블 장치(100)는 마이크(220)를 통해서 수신된 오디오 신호들 사이의 비교 결과에 기초하여 웨어러블 장치(100)가 위치한 공간의 유형이 변화하였는지 여부를 식별할 수 있다.The
도 3에 도시된 착용 공간의 구분은 일 실시 예를 설명하기 위한 것이며, 웨어러블 장치(100)가 구분하는 공간의 유형은 다른 형태로 구분될 수도 있다.The division of the wearing space shown in FIG. 3 is for explaining an embodiment, and the type of space divided by the
도 4a는 일 실시 예에 따라, 제1 공간에서 사용자의 위치 변화에 기반하여 외부 장치의 음량을 제어하는 것을 나타내는 도면이다. 도 4b는 일 실시 예에 따른 제1 공간에서, 사용자 이동에 기반한 오디오 신호의 변화를 나타내는 도면이다. 4A is a diagram illustrating controlling a volume of an external device based on a change in a user's position in a first space, according to an exemplary embodiment. 4B is a diagram illustrating a change in an audio signal based on a user's movement in a first space according to an exemplary embodiment.
도 4b를 참조하면, 오디오 신호는 주파수를 기준으로 표현될 수 있다. 도 4b에 표시된 그래프의 세로축은 음량을 표현하고, 가로축은 주파수를 나타낼 수 있다. 그래프의 가로축은 저음부(LF) 부터 고음부(HF)를 나타낼 수 있다.Referring to FIG. 4B , an audio signal may be expressed based on a frequency. The vertical axis of the graph shown in FIG. 4B may represent the volume, and the horizontal axis may represent the frequency. The horizontal axis of the graph may represent the low-pitched sound part LF to the high-pitched sound part HF.
일 실시 예에 따르면, 웨어러블 장치(100)를 신체에 착용한 사용자는 제1 공간(310) 안에서 이동할 수 있다. 예를 들어, 사용자는 외부 장치(300)로부터 제1 거리(a) 만큼 떨어진 제1 위치(410)에서 제2 위치(420)로 이동할 수 있다. 일 실시 예에서, 제2 위치(420)는 외부 장치(300)로부터 제2 거리(b)만큼 떨어진 위치를 나타낼 수 있다. According to an embodiment, a user wearing the
일 실시 예에 따르면, 프로세서(210)는 제1 위치(410)에서 마이크(220)를 이용해 외부 장치(300)로부터 제1 오디오 신호(411)를 획득할 수 있다. 일 실시 예에 따르면, 프로세서(210)는 웨어러블 장치(100)가 수신한 사용자의 입력에 기반하여 외부 장치(300)의 음량이 제어된 위치를 제1 위치(410)로 판단할 수 있다. 예를 들어, 프로세서(210)는 제1 위치(410)에서 외부 장치(300)의 음량을 제어하기 위한 적어도 하나의 사용자의 입력을 획득하고, 상기 적어도 하나의 사용자 입력이 획득된 이후에 지정된 시간 동안 추가적인 사용자의 입력이 획득되지 않으면 제1 오디오 신호(411)를 획득할 수 있다. 예를 들어, 프로세서(210)는 외부 장치(300)의 음량을 3단계 증가시키기 위하여 음량을 증가시키기 위한 사용자 입력을 3회 반복하여 수신한 후, 2초 동안 사용자 입력이 수신되지 않으면 마이크(220)를 통해서 오디오 신호를 획득할 수 있다.According to an embodiment, the processor 210 may obtain the
일 실시 예에 따르면, 프로세서(210)는 제2 위치(420)에서 마이크(220)를 이용해 외부 장치(300)로부터 제2 오디오 신호(421)를 획득할 수 있다. 일 실시 예에 따르면, 사용자가 제1 위치(410)에서 제2 위치(420)로 이동함에 따라, 마이크(220)를 통해 획득되는 외부 장치(300)로부터 출력된 오디오 신호의 크기가 변경될 수 있다. 예를 들어, 마이크(220)를 통해 수신되는 오디오 신호의 음량은 줄어들거나 높아질 수 있다. 일 실시 예에서, 프로세서(210)는 수신된 오디오 신호의 음량이 변경됨에 기초하여, 사용자의 위치가 변경되었음을 판단할 수 있다. 예를 들어, 프로세서(210)는 제1 오디오 신호(411) 및 제2 오디오 신호(421)에 기반하여 외부 장치(300)를 기준으로 사용자의 위치가 변화되었음을 판단할 수 있다. 일 실시 예에서, 프로세서(210)는 제2 오디오 신호(421)는 제1 오디오 신호(411)와 비교하여, 저음부(LF) 및 고음부(HF)의 음량이 전체적으로 줄어들었음을 판단할 수 있다. 따라서, 프로세서(210)는 음량이 전체적으로 줄어들었음에 기반하여, 외부 장치(300)로부터 사용자의 거리가 멀어졌음을 판단할 수 있다. 설명의 편의를 위해, 도 4b를 통해서 외부 장치(300)로부터 사용자의 거리가 멀어짐에 기반한 제2 오디오 신호(421)만을 도시하였지만, 사용자와 외부 장치(300)의 거리는 다양하게 변화할 수 있다.According to an embodiment, the processor 210 may obtain the
일 실시 예에 따르면, 프로세서(210)는 제2 오디오 신호(421)에 기반하여, 사용자와 외부 장치(300)의 거리 변화를 식별할 수 있다. 예를 들어, 프로세서(210)는 제1 오디오 신호(411) 및 제2 오디오 신호(421)의 시간 또는 음량 차이에 기반하여 외부 장치(300)와 사용자 사이의 거리를 판단할 수 있다. 일 실시 예에 따라, 사용자의 위치 변화를 판단하는 내용은 도 5를 참조하여 후술된다.According to an embodiment, the processor 210 may identify a change in the distance between the user and the
일 실시 예에 따르면, 프로세서(210)는 외부 장치(300)와 사용자 사이의 거리 변화에 기반하여 외부 장치(300)의 음량을 제어하는 제어 신호를 통신 회로(230)를 통해 송신할 수 있다. 일 실시 예에서, 제1 거리(a)가 제2 거리(b)보다 작은 경우 (또는, 제1 오디오 신호의 음량이 제2 오디오 신호의 음량보다 큰 경우, 또는 제1 오디오 신호에 대비하여 제2 오디오 신호에 시간 지연이 발생한 경우), 즉 외부 장치(300)로부터 사용자의 위치가 제1 위치(410)에서 제2 위치(420)로 변화됨에 따라, 멀어진 경우를 가정할 수 있다. 일 실시 예에 따르면, 외부 장치(300)로부터 사용자의 거리가 멀어진 경우, 사용자가 인지하는 외부 장치(300)로부터 출력된 오디오의 음량은 줄어들 수 있다. 따라서, 프로세서(210)는 제1 위치(410)와 비교하여, 제2 위치(420)에서 사용자의 위치가 외부 장치(300)로부터 더 멀어진 경우, 외부 장치(300)의 음량을 높이는 제어 신호를 외부 장치(300)로 송신할 수 있다. 일 실시 예에 따르면, 외부 장치(300)는 수신된 제어 신호에 기반하여 음량을 높일 수 있다. According to an embodiment, the processor 210 may transmit a control signal for controlling the volume of the
일 실시 예에서, 제1 거리(a)가 제2 거리(b)보다 큰 경우, 즉 외부 장치(300)로부터 사용자의 위치가 제1 위치(410)에서 제2 위치(420)로 변화됨에 따라 가까워진 경우를 가정할 수 있다. 일 실시 예에 따르면, 외부 장치(300)로부터 사용자의 거리가 가까워진 경우, 사용자가 인지하는 외부 장치(300)로부터 출력된 오디오의 음량은 높아질 수 있다. 따라서, 프로세서(210)는 제1 위치(410)와 비교하여, 제2 위치(420)에서 웨어러블 장치의 위치가 외부 장치(300)로부터 더 가까워진 경우, 외부 장치(300)의 음량을 줄이는 제어 신호를 외부 장치(300)로 송신할 수 있다. 일 실시 예에 따르면, 외부 장치(300)는 수신된 제어 신호에 기반하여 음량을 줄일 수 있다. In an embodiment, when the first distance (a) is greater than the second distance (b), that is, as the user's location from the
일 실시 예에 따르면, 프로세서(210)가 마이크(220)를 통해 획득한 외부 장치(300)의 오디오 신호에 기반하여 사용자의 위치 변화를 판단하고 자동으로 음량을 제어함에 따라, 웨어러블 장치(100)의 사용자는 외부 장치(300)로부터 출력된 오디오를 유사한 인지 음량으로 들을 수 있다. 일 실시 예에 따르면, 프로세서(210)는 일정 범위 내에서 외부 장치(300)의 음량을 제어할 수 있다. 예를 들어, 프로세서(210)는 외부 장치(300)의 음량의 최소 음량 및 최대 음량을 설정하고, 최소 음량부터 최대 음량의 범위에서 외부 장치(300)의 음량을 제어할 수 있다. 일 실시 예에 따르면, 최소 음량 및 최대 음량은 웨어러블 장치(100)가 수신한 사용자입력에 기초하여 설정될 수 있다.According to an embodiment, as the processor 210 determines a change in the user's position based on the audio signal of the
도 5는 일 실시 예에 따라 획득한 오디오 신호들(500)에 기초하여 사용자와 외부 장치의 거리를 판단하는 것을 나타내는 도면이다.5 is a diagram illustrating determination of a distance between a user and an external device based on acquired
도 5를 참조하면, 획득한 오디오 신호들(500)은 외부 장치(300)를 통해 출력되는 오디오 데이터의 원본 오디오 신호(510), 제1 위치에서 획득한 제1 오디오 신호(520), 위치 변화에 따라 획득한 제2 오디오 신호(523)를 포함할 수 있다. Referring to FIG. 5 , the acquired
일 실시 예에 따르면, 프로세서(210)는 획득한 오디오 신호들(500)에 기반하여 사용자와 외부 장치(300)의 거리를 판단할 수 있다. 일 실시 예에 따르면, 외부 장치(300)가 내부 메모리에 저장된 오디오 데이터를 출력하는 경우, 프로세서(210)는 통신 회로(230)를 통해 외부 장치(300)로부터 출력되는 오디오 데이터의 원본 오디오 신호(510)를 획득할 수 있다. 다른 실시 예에 따르면, 외부 장치(300)가 웨어러블 장치(100)로부터 오디오 데이터를 수신하여 출력하는 경우, 프로세서(210)는 메모리(240)에 저장된 원본 오디오 신호(510)를 획득할 수 있다. 다른 실시 예에 따르면, 프로세서(210)는 외부 장치(300) 또는 별도의 외부 서버(도시되지 않음)로부터 통신 회로(230)를 통해서 원본 오디오 신호(510)를 수신할 수도 있다.According to an embodiment, the processor 210 may determine the distance between the user and the
일 실시 예에 따르면, 프로세서(210)는 원본 오디오 신호(510)를 참조하여, 제1 오디오 신호(520)에 포함된 제1 잡음(521)을 제거할 수 있다. 일 실시 예에 따르면, 프로세서(210)는 원본 오디오 신호(510)를 참조하여, 잡음이 제거된 제2 오디오 신호(523)를 획득할 수 있다. 따라서, 프로세서(210)는 잡음이 제거된 제1 오디오 신호 및 제2 오디오 신호를 획득할 수 있다.According to an embodiment, the processor 210 may remove the
일 실시 예에 따르면, 프로세서(210)는 잡음이 제거된 제1 오디오 신호와 잡음이 제거된 제2 오디오 신호(523)에 기반하여, 사용자의 착용 공간의 유형을 판단하고 외부 장치(300)와 사용자의 거리를 판단할 수 있다. 예를 들어, 잡음이 제거된 제1 오디오 신호를 기준으로, 잡음이 제거된 제2 오디오 신호(523)의 시간 차이(t) 또는 음량 차이(a)에 기초하여 외부 장치(300)와 사용자의 거리를 판단할 수 있다.According to an embodiment, the processor 210 determines the type of the user's wearing space based on the noise-removed first audio signal and the noise-removed
다양한 실시 예들에 따르면, 프로세서(210)는 획득한 오디오 신호들(500) 및 다양한 거리 측정 기술들을 활용하여 사용자와 외부 장치(300)의 거리를 판단할 수 있다. 예를 들어, 프로세서(210)는 외부 장치(300)와의 초광대역 무선(ultra-wideband) 통신을 이용하여 전자 장치(100)와 외부 장치(300) 사이의 거리를 판단할 수 있다. 다른 예를 들면, 프로세서(210)는 외부 장치(300)로부터 수신되는 무선 통신 신호의 수신 신호 강도 지시자(Received Signal Strength Indicator, RSSI)에 기반하여 전자 장치(100)와 외부 장치(300) 사이의 거리를 판단할 수도 있다.According to various embodiments, the processor 210 may determine the distance between the user and the
도 6a는 일 실시 예에 따라, 제1 공간에서 제2 공간으로 사용자가 이동하는 것을 나타내는 도면이다. 도 6b는 일 실시 예에 따라, 제1 공간에서 제2 공간으로 사용자가 이동함에 따라서 수신되는 오디오 신호의 변화를 나타내는 도면이다.6A is a diagram illustrating movement of a user from a first space to a second space, according to an exemplary embodiment. 6B is a diagram illustrating a change in a received audio signal as a user moves from a first space to a second space, according to an embodiment.
일 실시 예에 따르면, 웨어러블 장치(100)를 신체에 착용한 사용자는 제1 공간(310)에서 제2 공간(320)으로 이동할 수 있다. 예를 들어, 사용자는 제1 공간(310)의 제1 위치(410)에서, 제2 공간(320)의 제3 위치(610)로 이동할 수 있다. According to an embodiment, a user wearing the
일 실시 예에 따르면, 프로세서(210)는 제1 위치(410)에서 마이크(220)를 이용해 외부 장치(300)로부터 제1 오디오 신호(411)를 획득할 수 있다. 일 실시 예에 따른 프로세서(210)는, 제3 위치(610)에서 마이크(220)를 이용해 외부 장치(300)로부터 제3 오디오 신호(611)를 획득할 수 있다.According to an embodiment, the processor 210 may obtain the
일 실시 예에 따르면, 사용자가 제1 위치(410)에서 제3 위치(610)로 이동함에 따라, 마이크(220)를 통해 획득되는 외부 장치(300)의 오디오 출력의 크기가 변경될 수 있다. 또한, 사용자가 제1 공간(310)에서 제2 공간(320)으로 이동함에 따라. 오디오 신호의 주파수별 음량이 다르게 수신될 수 있다. 예를 들어, 웨어러블 장치(100)의 사용자의 착용 공간의 유형이 반 열림/닫힘 공간인 제2 공간(320)으로 변경됨에 따라, 저주파수 대역의 음파는 회절 현상에 의해 마이크(220)로 전달되고, 고주파수 대역의 음파는 차단될 수 있다. 일 실시 예에 따르면, 고음 주파수 영역은 1kHZ 이상의 주파수 영역을 나타낼 수 있다. According to an embodiment, as the user moves from the
일 실시 예에 따르면, 프로세서(210)는 제3 위치(610)에서 마이크(220)를 이용해 획득한 제3 오디오 신호(611)의 주파수별 음량이 변경된 것에 기초하여, 사용자의 착용 공간의 유형이 제1 공간(310)에서 제2 공간(320)으로 변경되었음을 판단할 수 있다. 예를 들어, 프로세서(210)는 제1 오디오 신호(411)와 비교하여, 제3 오디오 신호(611)의 고음 주파수 영역의 음량 감쇄율과 저음 주파수 영역의 음량 감쇄율의 차이에 기초하여 착용 공간의 유형이 제2 공간(320)임을 판단할 수 있다.According to an embodiment, the processor 210 determines the type of the user's wearing space based on the change in the volume for each frequency of the
일 실시 예에 따르면, 프로세서(210)는 사용자의 착용 공간이 제1 공간(310)에서 제2 공간(320)으로 변경되었음에 기초하여, 외부 장치(300)가 음량을 유지하도록 통신 회로(230)를 통해 제어 신호를 송신할 수 있다. 예를 들어, 프로세서(210)는 사용자의 착용 공간의 유형이 제2 공간(320)에 해당하면, 외부 장치(300)와 사용자의 거리가 변경되더라도, 웨어러블 장치(100)가 수신하는 외부 장치(300)로부터 출력된 음향의 음량이 유지되도록 외부 장치(300)를 제어할 수 있다. 따라서, 외부 장치(300)를 기준으로 사용자의 위치가 변화하더라도, 프로세서(210)는 일정 범위 내에서 외부 장치(300)의 음량을 조절할 수 있다. 예를 들어, 제3 오디오 신호(611)의 고주파 대역의 음량이 감쇠된 경우, 전자 장치(100)는 외부 장치(300)에서 출력되는 음향의 고주파 대역 음량을 증가시킬 수 있다.According to an embodiment, the processor 210 is configured to allow the
도 7a는 일 실시 예에 따라, 제1 공간에서 제3 공간으로 사용자가 이동하는 것을 나타내는 도면이다. 도 7b는 일 실시 예에 따라, 제1 공간에서 제3 공간으로 사용자가 이동함에 따라서 수신되는 오디오 신호의 변화를 나타내는 도면이다.7A is a diagram illustrating movement of a user from a first space to a third space, according to an exemplary embodiment. 7B is a diagram illustrating a change in a received audio signal as a user moves from a first space to a third space, according to an exemplary embodiment.
일 실시 예에 따르면, 웨어러블 장치(100)를 신체에 착용한 사용자는 제1 공간(310)에서 제3 공간(330)으로 이동할 수 있다. 예를 들어, 사용자는 제1 위치(410)에서, 제3 공간(330)의 제4 위치(710)로 이동할 수 있다.According to an embodiment, a user wearing the
일 실시 예에 따르면, 프로세서(210)는 제1 위치(410)에서 마이크를 이용해 외부 장치(300)로부터 제1 오디오 신호(411)를 획득할 수 있다. 일 실시 예에서, 프로세서(210)는 제4 위치(710)에서 마이크(220)를 이용해 외부 장치(300)로부터 제4 오디오 신호(711)를 획득할 수 있다.According to an embodiment, the processor 210 may acquire the
일 실시 예에 따르면, 사용자가 제1 위치(410)에서 제4 위치(710)로 이동함에 따라, 마이크(220)를 통해 획득되는 외부 장치(300)의 오디오 출력의 크기가 변경될 수 있다. 예를 들어, 착용 공간의 유형이 열린 공간인 제1 공간(310)에서 닫힌 공간인 제3 공간(330)으로 변경됨에 따라, 마이크(220)를 통해 획득되는 외부 장치(300)의 오디오 출력의 음량은 크게 감소될 수 있다. 예를 들어, 제1 오디오 신호(411)와 비교하여 제4 오디오 신호(711)의 주파수별 음량의 크기는 크게 감소될 수 있다.According to an embodiment, as the user moves from the
일 실시 예에 따르면, 프로세서(210)는 제4 위치(710)에서 마이크(220)를 이용해 획득한 제4 오디오 신호(711)의 음량이 변경된 것에 기초하여, 사용자의 착용 공간의 유형이 제1 공간(310)에서 제3 공간(330)으로 변경되었음을 판단할 수 있다. 예를 들어, 프로세서(210)는 제3 공간(330)임을 판단하기위한 임계 값을 설정할 수 있다. 프로세서(210)는 제4 오디오 신호(711)의 주파수별 음량이 임계 값 이하인 경우, 사용자의 위치가 제1 공간(310)에서 제3 공간(330)으로 변경된 것을 판단할 수 있다. 다양한 실시 예들에 따라, 임계 값은 다양하게 설정될 수 있다. 일 실시 예에 따르면, 임계 값은 제1 오디오 신호(411)에 기초하여 결정될 수 있다. 예를 들어, 제1 오디오 신호(411)에 기초하여 일정 수준 감소된 값(예: 음량의 4분의 1 값)을 임계 값으로 설정할 수 있다. According to an embodiment, the processor 210 determines the type of the user's wearing space to be the first based on the change in the volume of the
일 실시 예에 따른 프로세서(210)는 사용자의 착용 공간의 유형이 제1 공간(310)에서 제3 공간(330)으로 변경된 것에 기초하여, 외부 장치(300)가 음량을 최소 음량으로 설정하도록 통신 회로(230)를 통해 제어 신호를 송신할 수 있다. 예를 들어, 프로세서(210)는 사용자의 착용 공간의 유형이 제3 공간(330)에 해당하면, 사용자에게 더 이상 청취 의지가 없다고 판단하고, 외부 장치(300)의 음량을 최소 음량으로 제어할 수 있다. 다양한 실시 예들에 따르면, 최소 음량의 기준은 프로세서(210)에 의해 다양한 값으로 미리 설정될 수 있다. 일 실시 예에 따른 프로세서(210)는 사용자의 착용 공간의 유형이 제3 공간(330)으로 변경된 것에 기초하여, 외부 장치(300)의 음량을 최소 음량으로 제어함으로써, 불필요한 음향 출력을 저감할 수 있다.The processor 210 according to an embodiment communicates so that the
도 8은 일 실시 예에 따른 웨어러블 장치에서, 사용자의 위치에 기반하여 외부 장치의 음량을 제어하는 프로세스에 대한 흐름도(800)이다.8 is a
도 8을 참조하면, 웨어러블 장치(100)의 프로세서(210)는 동작 801에서 마이크(220)를 통해 제1 위치에서 제1 오디오 신호를 획득할 수 있다. 일 실시 예에 따르면, 제1 오디오 신호는 외부 장치(300)로부터 마이크(220)를 통해 획득할 수 있다. 일 실시 예에서, 마이크(220)는 외부 장치(300)로부터 출력된 소리를 획득하고, 획득한 소리를 제1 오디오 신호로 변환할 수 있다. 일 실시 예에 따르면, 제1 위치는 외부 장치(300)의 음량을 제어하는 사용자의 입력에 기초하여 결정될 수 있다. 일 실시 예에 따르면, 프로세서(210)는 동작 801에서 외부 장치(300)의 음량을 제어하기 위한 사용자의 입력에 기초하여, 제1 위치를 설정하고 제1 위치에서 마이크(220)를 이용해 획득한 소리에 기초하여 제1 오디오 신호를 획득할 수 있다. 일 실시 예에 따르면, 외부 장치(300)의 음량을 제어하기 위한 사용자의 입력이 일정 시간동안 연속적으로 수행되는 경우, 프로세서(210)는 마지막 사용자 입력에 기초하여 제1 오디오 신호를 획득할 수 있다. 다른 실시 예에 따르면, 프로세서(210)는 외부 장치(300)를 통해서 오디오 재생을 시작하는 경우, 제1 오디오 신호를 획득할 수도 있다.Referring to FIG. 8 , the processor 210 of the
일 실시 예에 따른 프로세서(210)는 동작 803에서, 마이크(220)를 이용해 제2 위치에서 외부 장치(300)로부터 제2 오디오 신호를 획득할 수 있다. 일 실시 예에 따르면, 제2 위치는 도 3을 참조하여 설명된 제1 공간(310), 제2 공간(320) 또는 제3 공간(330)의 위치를 나타낼 수 있다.In
일 실시 예에 따르면, 프로세서(210)는 동작 805에서, 제1 오디오 신호 및 제2 오디오 신호에 기반하여 웨어러블 장치(100)의 사용자의 착용 공간의 유형을 판단할 수 있다. 예를 들어, 프로세서(210)는 마이크(220)를 이용해 외부 장치(300)로부터 출력된 소리를 획득하고, 획득된 소리에 기반한 제1 오디오 신호 및 제2 오디오 신호에 기반하여 착용 공간의 유형을 판단할 수 있다. 프로세서(210)는 제1 오디오 신호를 기준으로, 제2 오디오 신호의 변화량에 기초하여 착용 공간의 유형을 판단할 수 있다. 일 실시 예에 따르면, 착용 공간의 유형은 제1 공간(310), 제2 공간(320) 또는 제3 공간(330)을 포함할 수 있다.According to an embodiment, in
일 실시 예에 따르면, 프로세서(210)는 동작 807에서, 판단된 착용 공간의 유형에 대응되는 외부 장치(300)의 오디오 출력 제어 방식에 기반하여, 외부 장치(300)의 볼륨을 제어할 수 있다. 일 실시 예에서, 프로세서(210)는 착용 공간의 유형에 대응되는 오디오 출력 제어 방식에 기초하여 통신 회로(230)를 통해 제어 신호를 송신할 수 있다. 일 실시 예에 따르면, 외부 장치(300)는 수신된 제어 신호에 기초하여, 오디오 출력을 제어할 수 있다. 일 실시 예에 따르면, 프로세서(210)는 착용 공간의 유형에 따라 다르게 외부 장치(300)의 오디오 출력을 제어할 수 있다.According to an embodiment, in
도 9는 일 실시 예에 따른 웨어러블 장치에서, 사용자의 공간 유형을 구분하여 외부 장치의 음량을 제어하는 프로세스에 대한 흐름도(900)이다.9 is a
일 실시 예에 따르면, 프로세서(210)는 동작 901에서, 사용자의 음량 설정에 응답하여 제1 오디오 신호를 획득할 수 있다. 일 실시 예에서, 프로세서(210)는 마이크(220)를 이용해 외부 장치(300)로부터 제1 오디오 신호를 획득할 수 있다. 예를 들어, 프로세서(210)는 웨어러블 장치(100) 사용자의 입력에 기반하여, 외부 장치(300)의 음량이 제어된 위치를 제1 위치로 설정하고, 제1 위치에서 획득된 오디오 신호는 제1 오디오 신호일 수 있다. According to an embodiment, in
일 실시 예에 따르면, 동작 903에서, 프로세서(210)는 외부 장치(300)와 원본 오디오 신호에 관련된 정보를 공유할 수 있다. 일 실시 예에 따르면, 외부 장치(300) 내부 메모리에 저장된 오디오 데이터를 출력할 수 있다. 다른 실시 예에서, 외부 장치(300)는 웨어러블 장치(100)로부터 오디오 데이터를 수신하여 출력할 수 있다. 일 실시 예에 따르면, 외부 장치(300)가 내부 메모리에 저장된 오디오 데이터를 출력하는 경우, 프로세서(210)는 통신 회로(230)를 이용해 외부 장치(300)로부터 원본 오디오 데이터에 관한 정보를 수신할 수 있다. 다른 실시 예에서, 외부 장치(300)가 웨어러블 장치(100)로부터 오디오 데이터를 수신하여 출력하는 경우, 프로세서(210)는 동작 903을 생략할 수 있다. 또 다른 실시 예에 따르면, 외부 장치(300)가 외부 서버로부터 제공되는 스트리밍(streaming) 서비스를 통해서 음향을 출력하는 경우, 웨어러블 장치(100)는 외부 서버 또는 외부 장치(300)로부터 오디오 데이터를 수신할 수도 있다.According to an embodiment, in
일 실시 예에 따르면, 프로세서(210)는 동작 905에서 마이크(220)를 이용해 외부 장치(300)로부터 제2 오디오 신호를 획득할 수 있다. 일 실시 예에 따르면, 프로세서(210)는 제1 오디오 신호를 획득한 뒤 설정된 시간이 지남에 따라, 제2 오디오 신호를 획득할 수 있다. 일 실시 예에서, 프로세서(210)는 연속적으로 제2 오디오 신호를 획득할 수 있다. According to an embodiment, the processor 210 may acquire the second audio signal from the
일 실시 예에 따르면, 프로세서(210)는 동작 907에서, 제1 오디오 신호 및 제2 오디오 신호에 기반하여 사용자의 착용 공간의 유형이 제1 공간(310)인지 판단할 수 있다. 예를 들어, 제1 오디오 신호와 비교하여 제2 오디오 신호의 음량이 줄어들거나 늘어난 경우, 프로세서(210)는 사용자의 착용 공간의 유형이 제1 공간(310)임을 판단할 수 있다. 일 실시 예에 따르면, 프로세서(210)는 사용자가 제1 공간(310)에 있다고 판단되는 경우, 동작 909에서, 사용자와 외부 장치(300)의 거리를 판단할 수 있다. 일 실시 예에 따르면, 프로세서(210)는 동작 903에서 획득한 원본 오디오 신호와 관련된 정보에 기초하여, 제1 오디오 신호로부터 잡음을 분리할 수 있다. 또한, 프로세서(210)는 원본 오디오 신호와 관련된 정보에 기초하여 제2 오디오 신호로부터 잡음을 분리할 수 있다. 일 실시 예에 따르면, 프로세서(210)는 잡음이 분리된 제1 오디오 신호 및 제2 오디오 신호에 기초하여, 외부 장치(300)와 사용자의 거리를 판단할 수 있다. 예를 들어, 프로세서(210)는 제1 오디오 신호를 획득할 때 외부 장치(300)와 사용자의 거리에 비교하여, 제2 오디오 신호를 획득할 때 외부 장치(300)와 사용자의 거리가 멀어졌는지 가까워졌는지 여부를 판단할 수 있다. 일 실시 예에서, 프로세서(210)는 제1 오디오 신호와 비교하여 제2 오디오 신호의 음량이 늘어난 경우, 외부 장치(300)와 사용자의 거리가 더 가까워진 것으로 판단할 수 있다. 다른 실시 예에서, 프로세서(210)는 제1 오디오 신호와 비교하여 제2 오디오 신호의 음량이 줄어든 경우, 외부 장치(300)와 사용자의 거리가 더 멀어진 것으로 판단할 수 있다. According to an embodiment, in
일 실시 예에 따르면, 프로세서(210)는 동작 911에서, 판단된 거리에 기초하여 외부 장치(300)의 음량을 제어할 수 있다. 일 실시 예에 따르면, 프로세서(210)는 판단된 거리에 기초하여, 외부 장치(300)의 음량을 제어하기 위한 제어 신호를 통신 회로(230)를 통해 송신할 수 있다. 일 실시 예에서, 사용자와 외부 장치(300)의 거리가 제1 오디오 신호를 획득할 때와 비교하여 가까워진 경우, 프로세서(210)는 외부 장치(300)의 음량을 줄이기 위한 제어 신호를 생성하고, 통신 회로(230)를 이용해 송신할 수 있다. 다른 실시 예에서, 사용자와 외부 장치(300)의 거리가 제1 오디오 신호를 획득할 때와 비교하여 멀어진 경우, 프로세서(210)는 외부 장치(300)의 음량을 높이기 위한 제어 신호를 생성하고, 통신 회로(230)를 이용해 송신할 수 있다. 따라서, 사용자는 외부 장치(300)의 음량을 직접 제어하지 않고, 제1 오디오 신호를 획득할 때와 유사한 인지 음량으로 들을 수 있다. According to an embodiment, the processor 210 may control the volume of the
일 실시 예에 따르면, 사용자의 착용 공간의 유형이 제1 공간(310)이 아닌 경우, 프로세서(210)는 동작 913에서, 사용자의 착용 공간의 유형이 제2 공간(320)인지 여부를 판단할 수 있다. 일 실시 예에 따르면, 프로세서(210)는 제1 오디오 신호 및 제2 오디오 신호에 기반하여, 사용자의 착용 공간의 유형이 제2 공간(320)인지 여부를 판단할 수 있다. 일 실시 예에 따르면, 프로세서(210)는 제1 오디오 신호와 비교하여 제2 오디오 신호의 저음 주파수 영역이 굴절되고, 고음 주파수 영역이 소실된 경우, 프로세서(210)는 사용자의 착용 공간의 유형이 제2 공간(320)임을 판단할 수 있다. 일 실시 예에 따르면, 동작 915에서, 프로세서(210)는 사용자의 위치 변화에도 외부 장치(300)의 음량이 증감되지 않도록 통신 회로(230)를 통해 제어 신호를 송신할 수 있다. 일 실시 예에 따르면, 프로세서(210)는 제2 공간(320)으로 판단되기 전 마지막 음량을 유지하도록 외부 장치(300)를 제어할 수 있다. 일 실시 예에 따르면, 외부 장치(300)는 음량을 유지하기 위한 제어 신호에 기초하여, 음량을 유지할 수 있다.According to an embodiment, when the type of the user's wearing space is not the first space 310 , in
일 실시 예에 따르면, 프로세서(210)는 사용자의 착용 공간의 유형이 제2 공간(320)이 아니라고 판단된 경우 사용자의 착용 공간의 유형이 제3 공간(330)인 것으로 판단할 수 있다. 일 실시 예에 따르면, 프로세서(210)는 제1 오디오 신호와 비교하여 제2 오디오 신호의 음량이 임계 값 이하로 줄어든 경우, 프로세서(210)는 사용자의 착용 공간의 유형이 제3 공간(330)임을 판단할 수 있다. 일 실시 예에 따르면, 임계 값은 프로세서(210)에 의해 미리 정의된 값일 수 있다. 예를 들어, 프로세서(210)는 제1 오디오 신호에 기초하여 임계 값을 설정할 수 있다. 일 실시 예에 따르면, 동작 917에서 프로세서(210)는 외부 장치(300)의 음량을 최소 음량으로 제어하도록 제어 신호를 생성하고, 통신 회로(230)를 통해 제어 신호를 송신할 수 있다. 일 실시 예에서, 프로세서(210)는 최소 음량을 설정할 수 있다. 외부 장치(300)는 수신된 제어 신호에 기초하여, 최소 음량으로 오디오를 출력할 수 있다.According to an embodiment, when it is determined that the type of the user's wearing space is not the second space 320 , the processor 210 may determine that the type of the user's wearing space is the third space 330 . According to an embodiment, when the volume of the second audio signal is reduced to less than or equal to a threshold value in comparison with the first audio signal, the processor 210 determines that the type of the user's wearing space is the third space 330 . It can be judged that According to an embodiment, the threshold value may be a value predefined by the processor 210 . For example, the processor 210 may set a threshold value based on the first audio signal. According to an embodiment, in
도 10은 일 실시 예에 따른 웨어러블 장치에서, 사용자의 발화에 따라 외부 장치의 음량을 제어하는 것을 나타내는 도면이다.10 is a diagram illustrating control of a volume of an external device according to a user's utterance in a wearable device according to an exemplary embodiment.
도 10을 참조하면, 시간에 따른 외부 장치(300)의 음량을 나타내는 그래프(1000)가 도시된다. 일 실시 예에 따르면, 프로세서(210)는 도 9를 참조하여 설명된 제2 오디오 신호에 사용자의 발화가 포함되어 있는지 여부를 판단할 수 있다. 일 실시 예에 따르면, 사용자가 발화하는 경우, 프로세서(210)는 마이크(220)를 통해 사용자 및 외부 장치(300)의 소리를 획득할 수 있다. 일 실시 예에서, 프로세서(210)는 사용자의 발화가 포함되어 있는지 여부를 판단하기 위해, 메모리(240)에 저장된 사용자 발화 정보를 이용할 수 있다. 예를 들어, 메모리(240)는 웨어러블 장치(100)의 사용자의 음성에 관한 정보를 저장할 수 있다. 음성에 관한 정보는 사용자가 발화를 할 때 획득될 수 있다. Referring to FIG. 10 , a
일 실시 예에 따르면, 프로세서(210)는 제2 오디오 신호에 사용자의 발화가 포함된 것에 응답하여, 외부 장치(300)의 음량을 기준 값 이하로 제어할 수 있다. 일 실시 예에 따르면, 프로세서(210)는 사용자의 발화에 방해가 되지 않을 정도의 음량으로 기준 값을 설정할 수 있다. 일 실시 예에서, 프로세서(210)는 외부 장치(300)의 음량을 기준 값 이하로 제어하기 위한 제어 신호를 생성하고, 생성된 제어 신호를 통신 회로(230)를 통해 송신할 수 있다. 일 실시 예에서, 프로세서(210)는 사용자의 발화가 시작된 시점에 외부 장치(300)의 음량을 기준 값 이하로 줄이고, 발화가 종료된 시점을 판단하여 외부 장치(300)의 음량을 원래의 음량으로 제어할 수 있다. 예를 들어, 마이크(220)를 통해서 획득된 오디오 신호에 포함된 사용자의 음성이 식별된 경우, 프로세서(210)는 사용자의 발화가 시작된 것으로 판단할 수 있다. 또한, 마이크(220)를 통해서 획득된 오디오 신호에 사용자의 음성이 지정된 시간 동안 포함되지 않은 경우 프로세서(210)는 사용자의 발화가 종료된 것으로 판단할 수 있다.According to an embodiment, in response to the user's utterance being included in the second audio signal, the processor 210 may control the volume of the
도 11a는 일 실시 예에 따라 복수 개의 외부 장치들에 대한 사용자의 위치를 나타내는 도면이다. 도 11b는 일 실시 예에 따라 복수 개의 외부 장치들과 거리에 기반하여 적어도 하나의 외부 장치의 음량을 제어하는 것을 나타내는 도면이다.11A is a diagram illustrating a location of a user with respect to a plurality of external devices, according to an exemplary embodiment. 11B is a diagram illustrating controlling a volume of at least one external device based on a distance from a plurality of external devices, according to an exemplary embodiment.
도 11a를 참조하면, 일 실시 예에 따르면, 웨어러블 장치(100)의 사용자는 복수 개의 외부 장치들(A 내지 D)을 이용해 복수 개의 외부 장치들(A 내지 D)이 출력하는 오디오를 청취할 수 있다. 일 실시 예에 따르면, 복수 개의 외부 장치들(A 내지 D)를 기준으로 사용자의 위치는 제1 위치(1110), 제2 위치(1120) 및/또는 제3 위치(1130)로 변화할 수 있다. Referring to FIG. 11A , according to an embodiment, the user of the
일 실시 예에 따르면, 제1 위치(1110)는 복수 개의 외부 장치들(A 내지 D) 각각으로부터 사용자의 거리가 모두 동일한 위치를 나타낼 수 있다. 일 실시 예에 따르면, 제2 위치(1120)는 제1 위치(1110)와 비교하여, 제1 외부 장치(A)와 사용자의 거리는 가깝고, 제2 내지 제4 외부 장치(B, C, D)들과 거리는 먼 위치를 나타낼 수 있다. 일 실시 예에 따르면, 제3 위치(1130)는 제1 위치(1110)와 비교하여, 제3 및 제4 외부 장치들(C, D)과 거리는 가깝고, 제1 및 제2 외부 장치들(A, B)과 거리는 먼 위치를 나타낼 수 있다. 본 개시에 따르면, 설명의 편의를 위해 4개의 외부 장치(A 내지 D) 및 제1 내지 제3 위치(1110 내지 1130)를 기준으로 설명하였지만, 외부 장치의 개수 및 사용자의 위치는 이에 제한되지 않고 다양할 수 있다.According to an embodiment, the
일 실시 예에 따르면, 사용자의 위치가 제1 위치(1110), 제2 위치(1120) 및/또는 제3 위치(1130)로 변화함에 따라 복수 개의 오디오 장치들(A 내지 D)을 통한 사용자의 인지 음량은 변화할 수 있다. According to an embodiment, as the user's location changes to the
일 실시 예에서, 제1 위치에 기초하여 거리 및 복수 개의 외부 장치들(A 내지 D)의 음량을 나타낸 제1 위치 그래프(1111)를 참조하면, 사용자의 위치가 제1 위치(1110)인 경우 복수 개의 외부 장치들(A 내지 D)과 사용자의 거리는 모두 동일할 수 있다. 따라서, 사용자가 인지하는 복수 개의 외부 장치들(A 내지 D) 각각의 인지 음량은 모두 동일할 수 있다. 일 실시 예에서 프로세서(210)는 마이크(220)를 이용해 복수 개의 외부 장치들(A 내지 D)로부터 출력되는 소리를 획득하고, 획득된 소리에 기반한 오디오 신호를 이용해 사용자의 위치가 제1 위치(1110)임을 판단할 수 있다. 일 실시 예에서 프로세서(210)는 사용자의 위치가 제1 위치(1110)임에 기반하여, 복수 개의 외부 장치들(A 내지 D)의 음량이 모두 동일하도록 복수 개의 외부 장치들(A 내지 D)을 제어할 수 있다.In an embodiment, referring to the
일 실시 예에서, 제2 위치에 기초하여 거리 및 복수 개의 외부 장치들(A 내지 D)의 음량을 나타낸 제2 위치 그래프(1121)를 참조하면, 사용자의 위치가 제2 위치(1120)인 경우, 제1 위치(1110)와 비교하여 제1 외부 장치(A)와 사용자의 거리는 가깝고, 제2 내지 제4 외부 장치(B, C, D)들과 거리는 멀 수 있다. 따라서, 사용자가 인지하는 복수 개의 외부 장치들(A 내지 D) 각각의 인지 음량은 상이할 수 있다. 예를 들어, 사용자의 위치가 제2 위치(1120)로 변화함에 따라, 제1 외부 장치(A)에서 출력되는 소리의 인지 음량은 커지고, 제2 내지 제4 외부 장치들(B 내지 D)에서 출력되는 소리의 인지 음량은 작아질 수 있다. 일 실시 예에서 프로세서(210)는 마이크(220)를 이용해 복수 개의 외부 장치들(A 내지 D)로부터 출력되는 소리를 획득하고, 획득된 소리에 기반한 오디오 신호를 이용해 사용자의 위치가 제2 위치(1120)임을 판단할 수 있다. 일 실시 예에서 프로세서(210)는 사용자의 위치가 제2 위치(1120)임에 기반하여, 제1 외부 장치(A) 음량은 줄이고, 제2 내지 제4 외부 장치들(B 내지 D)의 음량은 높이도록 복수 개의 외부 장치들(A 내지 D)을 제어할 수 있다. In an embodiment, referring to the
일 실시 예에서, 제3 위치에 기초하여 거리 및 복수 개의 외부 장치들(A 내지 D)의 음량을 나타낸 제3 위치 그래프(1131)를 참조하면, 사용자의 위치가 제3 위치(1130)인 경우 제3 및 제4 외부 장치들(C, D)과 거리는 가깝고, 제1 및 제2 외부 장치들(A, B)과 거리는 멀 수 있다. 따라서, 사용자가 인지하는 복수 개의 외부 장치들(A 내지 D) 각각의 인지 음량은 상이할 수 있다. 예를 들어, 사용자의 위치가 제3 위치(1130)로 변화함에 따라, 제3 및 제4 외부 장치들(C, D)에서 출력되는 소리의 인지 음량은 커지고, 제1 및 제2 외부 장치들(A, B)에서 출력되는 소리의 인지 음량은 작아질 수 있다. 일 실시 예에서 프로세서(210)는 마이크(220)를 이용해 복수 개의 외부 장치들(A 내지 D)로부터 출력되는 소리를 획득하고, 획득된 소리에 기반한 오디오 신호를 이용해 사용자의 위치가 제3 위치(1130)임을 판단할 수 있다. 일 실시 예에서 프로세서(210)는 사용자의 위치가 제3 위치(1130)임에 기반하여, 제1 및 제2 외부 장치들(A, B) 음량은 높이고, 제3 및 제4 외부 장치들(C, D)의 음량은 높이도록 복수 개의 외부 장치들(A 내지 D)을 제어할 수 있다. In an embodiment, referring to the
다양한 실시 예들에 따라, 프로세서(210)는 사용자의 위치를 판단하기 위해, 다양한 거리 측정 기술을 활용할 수 있다. 예를 들어, 프로세서(210)는 마이크(220)를 통해 획득한 오디오 신호 뿐 아니라 초광대역 무선의 거리 측정 기술을 활용할 수 있다.According to various embodiments, the processor 210 may utilize various distance measurement techniques to determine the user's location. For example, the processor 210 may utilize not only the audio signal acquired through the microphone 220 but also the ultra-wideband wireless distance measurement technology.
도 12는, 다양한 실시예들에 따른, 네트워크 환경(1200) 내의 전자 장치(1201)의 블록도이다. 12 is a block diagram of an electronic device 1201 in a
도 12를 참조하면, 네트워크 환경(1200)에서 전자 장치(1201)는 제 1 네트워크(1298)(예: 근거리 무선 통신 네트워크)를 통하여 전자 장치(1202)와 통신하거나, 또는 제 2 네트워크(1299)(예: 원거리 무선 통신 네트워크)를 통하여 전자 장치(1204) 또는 서버(1208) 중 적어도 하나와 통신할 수 있다. 일실시예에 따르면, 전자 장치(1201)는 서버(1208)를 통하여 전자 장치(1204)와 통신할 수 있다. 일실시예에 따르면, 전자 장치(1201)는 프로세서(1220), 메모리(1230), 입력 모듈(1250), 음향 출력 모듈(1255), 디스플레이 모듈(1260), 오디오 모듈(1270), 센서 모듈(1276), 인터페이스(1277), 연결 단자(1278), 햅틱 모듈(1279), 카메라 모듈(1280), 전력 관리 모듈(1288), 배터리(1289), 통신 모듈(1290), 가입자 식별 모듈(1296), 또는 안테나 모듈(1297)을 포함할 수 있다. 어떤 실시예에서는, 전자 장치(1201)에는, 이 구성요소들 중 적어도 하나(예: 연결 단자(1278))가 생략되거나, 하나 이상의 다른 구성요소가 추가될 수 있다. 어떤 실시예에서는, 이 구성요소들 중 일부들(예: 센서 모듈(1276), 카메라 모듈(1280), 또는 안테나 모듈(1297))은 하나의 구성요소(예: 디스플레이 모듈(1260))로 통합될 수 있다.Referring to FIG. 12 , in a
프로세서(1220)는, 예를 들면, 소프트웨어(예: 프로그램(1240))를 실행하여 프로세서(1220)에 연결된 전자 장치(1201)의 적어도 하나의 다른 구성요소(예: 하드웨어 또는 소프트웨어 구성요소)를 제어할 수 있고, 다양한 데이터 처리 또는 연산을 수행할 수 있다. 일실시예에 따르면, 데이터 처리 또는 연산의 적어도 일부로서, 프로세서(1220)는 다른 구성요소(예: 센서 모듈(1276) 또는 통신 모듈(1290))로부터 수신된 명령 또는 데이터를 휘발성 메모리(1232)에 저장하고, 휘발성 메모리(1232)에 저장된 명령 또는 데이터를 처리하고, 결과 데이터를 비휘발성 메모리(1234)에 저장할 수 있다. 일실시예에 따르면, 프로세서(1220)는 메인 프로세서(1221)(예: 중앙 처리 장치 또는 어플리케이션 프로세서) 또는 이와는 독립적으로 또는 함께 운영 가능한 보조 프로세서(1223)(예: 그래픽 처리 장치, 신경망 처리 장치(NPU: neural processing unit), 이미지 시그널 프로세서, 센서 허브 프로세서, 또는 커뮤니케이션 프로세서)를 포함할 수 있다. 예를 들어, 전자 장치(1201)가 메인 프로세서(1221) 및 보조 프로세서(1223)를 포함하는 경우, 보조 프로세서(1223)는 메인 프로세서(1221)보다 저전력을 사용하거나, 지정된 기능에 특화되도록 설정될 수 있다. 보조 프로세서(1223)는 메인 프로세서(1221)와 별개로, 또는 그 일부로서 구현될 수 있다.The
보조 프로세서(1223)는, 예를 들면, 메인 프로세서(1221)가 인액티브(예: 슬립) 상태에 있는 동안 메인 프로세서(1221)를 대신하여, 또는 메인 프로세서(1221)가 액티브(예: 어플리케이션 실행) 상태에 있는 동안 메인 프로세서(1221)와 함께, 전자 장치(1201)의 구성요소들 중 적어도 하나의 구성요소(예: 디스플레이 모듈(1260), 센서 모듈(1276), 또는 통신 모듈(1290))와 관련된 기능 또는 상태들의 적어도 일부를 제어할 수 있다. 일실시예에 따르면, 보조 프로세서(1223)(예: 이미지 시그널 프로세서 또는 커뮤니케이션 프로세서)는 기능적으로 관련 있는 다른 구성요소(예: 카메라 모듈(1280) 또는 통신 모듈(1290))의 일부로서 구현될 수 있다. 일실시예에 따르면, 보조 프로세서(1223)(예: 신경망 처리 장치)는 인공지능 모델의 처리에 특화된 하드웨어 구조를 포함할 수 있다. 인공지능 모델은 기계 학습을 통해 생성될 수 있다. 이러한 학습은, 예를 들어, 인공지능 모델이 수행되는 전자 장치(1201) 자체에서 수행될 수 있고, 별도의 서버(예: 서버(1208))를 통해 수행될 수도 있다. 학습 알고리즘은, 예를 들어, 지도형 학습(supervised learning), 비지도형 학습(unsupervised learning), 준지도형 학습(semi-supervised learning) 또는 강화 학습(reinforcement learning)을 포함할 수 있으나, 전술한 예에 한정되지 않는다. 인공지능 모델은, 복수의 인공 신경망 레이어들을 포함할 수 있다. 인공 신경망은 심층 신경망(DNN: deep neural network), CNN(convolutional neural network), RNN(recurrent neural network), RBM(restricted boltzmann machine), DBN(deep belief network), BRDNN(bidirectional recurrent deep neural network), 심층 Q-네트워크(deep Q-networks) 또는 상기 중 둘 이상의 조합 중 하나일 수 있으나, 전술한 예에 한정되지 않는다. 인공지능 모델은 하드웨어 구조 이외에, 추가적으로 또는 대체적으로, 소프트웨어 구조를 포함할 수 있다. The coprocessor 1223 may be, for example, on behalf of the
메모리(1230)는, 전자 장치(1201)의 적어도 하나의 구성요소(예: 프로세서(1220) 또는 센서 모듈(1276))에 의해 사용되는 다양한 데이터를 저장할 수 있다. 데이터는, 예를 들어, 소프트웨어(예: 프로그램(1240)) 및, 이와 관련된 명령에 대한 입력 데이터 또는 출력 데이터를 포함할 수 있다. 메모리(1230)는, 휘발성 메모리(1232) 또는 비휘발성 메모리(1234)를 포함할 수 있다. The memory 1230 may store various data used by at least one component (eg, the
프로그램(1240)은 메모리(1230)에 소프트웨어로서 저장될 수 있으며, 예를 들면, 운영 체제(1242), 미들 웨어(1244) 또는 어플리케이션(1246)을 포함할 수 있다. The program 1240 may be stored as software in the memory 1230 , and may include, for example, an
입력 모듈(1250)은, 전자 장치(1201)의 구성요소(예: 프로세서(1220))에 사용될 명령 또는 데이터를 전자 장치(1201)의 외부(예: 사용자)로부터 수신할 수 있다. 입력 모듈(1250)은, 예를 들면, 마이크, 마우스, 키보드, 키(예: 버튼), 또는 디지털 펜(예: 스타일러스 펜)을 포함할 수 있다. The
음향 출력 모듈(1255)은 음향 신호를 전자 장치(1201)의 외부로 출력할 수 있다. 음향 출력 모듈(1255)은, 예를 들면, 스피커 또는 리시버를 포함할 수 있다. 스피커는 멀티미디어 재생 또는 녹음 재생과 같이 일반적인 용도로 사용될 수 있다. 리시버는 착신 전화를 수신하기 위해 사용될 수 있다. 일실시예에 따르면, 리시버는 스피커와 별개로, 또는 그 일부로서 구현될 수 있다.The
디스플레이 모듈(1260)은 전자 장치(1201)의 외부(예: 사용자)로 정보를 시각적으로 제공할 수 있다. 디스플레이 모듈(1260)은, 예를 들면, 디스플레이, 홀로그램 장치, 또는 프로젝터 및 해당 장치를 제어하기 위한 제어 회로를 포함할 수 있다. 일실시예에 따르면, 디스플레이 모듈(1260)은 터치를 감지하도록 설정된 터치 센서, 또는 상기 터치에 의해 발생되는 힘의 세기를 측정하도록 설정된 압력 센서를 포함할 수 있다. The
오디오 모듈(1270)은 소리를 전기 신호로 변환시키거나, 반대로 전기 신호를 소리로 변환시킬 수 있다. 일실시예에 따르면, 오디오 모듈(1270)은, 입력 모듈(1250)을 통해 소리를 획득하거나, 음향 출력 모듈(1255), 또는 전자 장치(1201)와 직접 또는 무선으로 연결된 외부 전자 장치(예: 전자 장치(1202))(예: 스피커 또는 헤드폰)를 통해 소리를 출력할 수 있다.The audio module 1270 may convert a sound into an electric signal or, conversely, convert an electric signal into a sound. According to an embodiment, the audio module 1270 acquires a sound through the
센서 모듈(1276)은 전자 장치(1201)의 작동 상태(예: 전력 또는 온도), 또는 외부의 환경 상태(예: 사용자 상태)를 감지하고, 감지된 상태에 대응하는 전기 신호 또는 데이터 값을 생성할 수 있다. 일실시예에 따르면, 센서 모듈(1276)은, 예를 들면, 제스처 센서, 자이로 센서, 기압 센서, 마그네틱 센서, 가속도 센서, 그립 센서, 근접 센서, 컬러 센서, IR(infrared) 센서, 생체 센서, 온도 센서, 습도 센서, 또는 조도 센서를 포함할 수 있다. The
인터페이스(1277)는 전자 장치(1201)가 외부 전자 장치(예: 전자 장치(1202))와 직접 또는 무선으로 연결되기 위해 사용될 수 있는 하나 이상의 지정된 프로토콜들을 지원할 수 있다. 일실시예에 따르면, 인터페이스(1277)는, 예를 들면, HDMI(high definition multimedia interface), USB(universal serial bus) 인터페이스, SD카드 인터페이스, 또는 오디오 인터페이스를 포함할 수 있다.The
연결 단자(1278)는, 그를 통해서 전자 장치(1201)가 외부 전자 장치(예: 전자 장치(1202))와 물리적으로 연결될 수 있는 커넥터를 포함할 수 있다. 일실시예에 따르면, 연결 단자(1278)는, 예를 들면, HDMI 커넥터, USB 커넥터, SD 카드 커넥터, 또는 오디오 커넥터(예: 헤드폰 커넥터)를 포함할 수 있다.The
햅틱 모듈(1279)은 전기적 신호를 사용자가 촉각 또는 운동 감각을 통해서 인지할 수 있는 기계적인 자극(예: 진동 또는 움직임) 또는 전기적인 자극으로 변환할 수 있다. 일실시예에 따르면, 햅틱 모듈(1279)은, 예를 들면, 모터, 압전 소자, 또는 전기 자극 장치를 포함할 수 있다.The
카메라 모듈(1280)은 정지 영상 및 동영상을 촬영할 수 있다. 일실시예에 따르면, 카메라 모듈(1280)은 하나 이상의 렌즈들, 이미지 센서들, 이미지 시그널 프로세서들, 또는 플래시들을 포함할 수 있다.The
전력 관리 모듈(1288)은 전자 장치(1201)에 공급되는 전력을 관리할 수 있다. 일실시예에 따르면, 전력 관리 모듈(1288)은, 예를 들면, PMIC(power management integrated circuit)의 적어도 일부로서 구현될 수 있다.The
배터리(1289)는 전자 장치(1201)의 적어도 하나의 구성요소에 전력을 공급할 수 있다. 일실시예에 따르면, 배터리(1289)는, 예를 들면, 재충전 불가능한 1차 전지, 재충전 가능한 2차 전지 또는 연료 전지를 포함할 수 있다.The
통신 모듈(1290)은 전자 장치(1201)와 외부 전자 장치(예: 전자 장치(1202), 전자 장치(1204), 또는 서버(1208)) 간의 직접(예: 유선) 통신 채널 또는 무선 통신 채널의 수립, 및 수립된 통신 채널을 통한 통신 수행을 지원할 수 있다. 통신 모듈(1290)은 프로세서(1220)(예: 어플리케이션 프로세서)와 독립적으로 운영되고, 직접(예: 유선) 통신 또는 무선 통신을 지원하는 하나 이상의 커뮤니케이션 프로세서를 포함할 수 있다. 일실시예에 따르면, 통신 모듈(1290)은 무선 통신 모듈(1292)(예: 셀룰러 통신 모듈, 근거리 무선 통신 모듈, 또는 GNSS(global navigation satellite system) 통신 모듈) 또는 유선 통신 모듈(1294)(예: LAN(local area network) 통신 모듈, 또는 전력선 통신 모듈)을 포함할 수 있다. 이들 통신 모듈 중 해당하는 통신 모듈은 제 1 네트워크(1298)(예: 블루투스, WiFi(wireless fidelity) direct 또는 IrDA(infrared data association)와 같은 근거리 통신 네트워크) 또는 제 2 네트워크(1299)(예: 레거시 셀룰러 네트워크, 5G 네트워크, 차세대 통신 네트워크, 인터넷, 또는 컴퓨터 네트워크(예: LAN 또는 WAN)와 같은 원거리 통신 네트워크)를 통하여 외부의 전자 장치(1204)와 통신할 수 있다. 이런 여러 종류의 통신 모듈들은 하나의 구성요소(예: 단일 칩)로 통합되거나, 또는 서로 별도의 복수의 구성요소들(예: 복수 칩들)로 구현될 수 있다. 무선 통신 모듈(1292)은 가입자 식별 모듈(1296)에 저장된 가입자 정보(예: 국제 모바일 가입자 식별자(IMSI))를 이용하여 제 1 네트워크(1298) 또는 제 2 네트워크(1299)와 같은 통신 네트워크 내에서 전자 장치(1201)를 확인 또는 인증할 수 있다. The communication module 1290 is a direct (eg, wired) communication channel or a wireless communication channel between the electronic device 1201 and an external electronic device (eg, the
무선 통신 모듈(1292)은 4G 네트워크 이후의 5G 네트워크 및 차세대 통신 기술, 예를 들어, NR 접속 기술(new radio access technology)을 지원할 수 있다. NR 접속 기술은 고용량 데이터의 고속 전송(eMBB(enhanced mobile broadband)), 단말 전력 최소화와 다수 단말의 접속(mMTC(massive machine type communications)), 또는 고신뢰도와 저지연(URLLC(ultra-reliable and low-latency communications))을 지원할 수 있다. 무선 통신 모듈(1292)은, 예를 들어, 높은 데이터 전송률 달성을 위해, 고주파 대역(예: mmWave 대역)을 지원할 수 있다. 무선 통신 모듈(1292)은 고주파 대역에서의 성능 확보를 위한 다양한 기술들, 예를 들어, 빔포밍(beamforming), 거대 배열 다중 입출력(massive MIMO(multiple-input and multiple-output)), 전차원 다중입출력(FD-MIMO: full dimensional MIMO), 어레이 안테나(array antenna), 아날로그 빔형성(analog beam-forming), 또는 대규모 안테나(large scale antenna)와 같은 기술들을 지원할 수 있다. 무선 통신 모듈(1292)은 전자 장치(1201), 외부 전자 장치(예: 전자 장치(1204)) 또는 네트워크 시스템(예: 제 2 네트워크(1299))에 규정되는 다양한 요구사항을 지원할 수 있다. 일실시예에 따르면, 무선 통신 모듈(1292)은 eMBB 실현을 위한 Peak data rate(예: 20Gbps 이상), mMTC 실현을 위한 손실 Coverage(예: 164dB 이하), 또는 URLLC 실현을 위한 U-plane latency(예: 다운링크(DL) 및 업링크(UL) 각각 0.5ms 이하, 또는 라운드 트립 1ms 이하)를 지원할 수 있다.The
안테나 모듈(1297)은 신호 또는 전력을 외부(예: 외부의 전자 장치)로 송신하거나 외부로부터 수신할 수 있다. 일실시예에 따르면, 안테나 모듈(1297)은 서브스트레이트(예: PCB) 위에 형성된 도전체 또는 도전성 패턴으로 이루어진 방사체를 포함하는 안테나를 포함할 수 있다. 일실시예에 따르면, 안테나 모듈(1297)은 복수의 안테나들(예: 어레이 안테나)을 포함할 수 있다. 이런 경우, 제 1 네트워크(1298) 또는 제 2 네트워크(1299)와 같은 통신 네트워크에서 사용되는 통신 방식에 적합한 적어도 하나의 안테나가, 예를 들면, 통신 모듈(1290)에 의하여 상기 복수의 안테나들로부터 선택될 수 있다. 신호 또는 전력은 상기 선택된 적어도 하나의 안테나를 통하여 통신 모듈(1290)과 외부의 전자 장치 간에 송신되거나 수신될 수 있다. 어떤 실시예에 따르면, 방사체 이외에 다른 부품(예: RFIC(radio frequency integrated circuit))이 추가로 안테나 모듈(1297)의 일부로 형성될 수 있다.
The
다양한 실시예에 따르면, 안테나 모듈(1297)은 mmWave 안테나 모듈을 형성할 수 있다. 일실시예에 따르면, mmWave 안테나 모듈은 인쇄 회로 기판, 상기 인쇄 회로 기판의 제 1 면(예: 아래 면)에 또는 그에 인접하여 배치되고 지정된 고주파 대역(예: mmWave 대역)을 지원할 수 있는 RFIC, 및 상기 인쇄 회로 기판의 제 2 면(예: 윗 면 또는 측 면)에 또는 그에 인접하여 배치되고 상기 지정된 고주파 대역의 신호를 송신 또는 수신할 수 있는 복수의 안테나들(예: 어레이 안테나)을 포함할 수 있다.According to various embodiments, the
상기 구성요소들 중 적어도 일부는 주변 기기들간 통신 방식(예: 버스, GPIO(general purpose input and output), SPI(serial peripheral interface), 또는 MIPI(mobile industry processor interface))을 통해 서로 연결되고 신호(예: 명령 또는 데이터)를 상호간에 교환할 수 있다.At least some of the components are connected to each other through a communication method between peripheral devices (eg, a bus, general purpose input and output (GPIO), serial peripheral interface (SPI), or mobile industry processor interface (MIPI)) and a signal ( e.g. commands or data) can be exchanged with each other.
일실시예에 따르면, 명령 또는 데이터는 제 2 네트워크(1299)에 연결된 서버(1208)를 통해서 전자 장치(1201)와 외부의 전자 장치(1204)간에 송신 또는 수신될 수 있다. 외부의 전자 장치(1202, 또는 1204) 각각은 전자 장치(1201)와 동일한 또는 다른 종류의 장치일 수 있다. 일실시예에 따르면, 전자 장치(1201)에서 실행되는 동작들의 전부 또는 일부는 외부의 전자 장치들(1202, 1204, 또는 1208) 중 하나 이상의 외부의 전자 장치들에서 실행될 수 있다. 예를 들면, 전자 장치(1201)가 어떤 기능이나 서비스를 자동으로, 또는 사용자 또는 다른 장치로부터의 요청에 반응하여 수행해야 할 경우에, 전자 장치(1201)는 기능 또는 서비스를 자체적으로 실행시키는 대신에 또는 추가적으로, 하나 이상의 외부의 전자 장치들에게 그 기능 또는 그 서비스의 적어도 일부를 수행하라고 요청할 수 있다. 상기 요청을 수신한 하나 이상의 외부의 전자 장치들은 요청된 기능 또는 서비스의 적어도 일부, 또는 상기 요청과 관련된 추가 기능 또는 서비스를 실행하고, 그 실행의 결과를 전자 장치(1201)로 전달할 수 있다. 전자 장치(1201)는 상기 결과를, 그대로 또는 추가적으로 처리하여, 상기 요청에 대한 응답의 적어도 일부로서 제공할 수 있다. 이를 위하여, 예를 들면, 클라우드 컴퓨팅, 분산 컴퓨팅, 모바일 에지 컴퓨팅(MEC: mobile edge computing), 또는 클라이언트-서버 컴퓨팅 기술이 이용될 수 있다. 전자 장치(1201)는, 예를 들어, 분산 컴퓨팅 또는 모바일 에지 컴퓨팅을 이용하여 초저지연 서비스를 제공할 수 있다. 다른 실시예에 있어서, 외부의 전자 장치(1204)는 IoT(internet of things) 기기를 포함할 수 있다. 서버(1208)는 기계 학습 및/또는 신경망을 이용한 지능형 서버일 수 있다. 일실시예에 따르면, 외부의 전자 장치(1204) 또는 서버(1208)는 제 2 네트워크(1299) 내에 포함될 수 있다. 전자 장치(1201)는 5G 통신 기술 및 IoT 관련 기술을 기반으로 지능형 서비스(예: 스마트 홈, 스마트 시티, 스마트 카, 또는 헬스 케어)에 적용될 수 있다. According to an embodiment, the command or data may be transmitted or received between the electronic device 1201 and the external
본 문서에 개시된 다양한 실시예들에 따른 전자 장치는 다양한 형태의 장치가 될 수 있다. 전자 장치는, 예를 들면, 휴대용 통신 장치(예: 스마트폰), 컴퓨터 장치, 휴대용 멀티미디어 장치, 휴대용 의료 기기, 카메라, 웨어러블 장치, 또는 가전 장치를 포함할 수 있다. 본 문서의 실시예에 따른 전자 장치는 전술한 기기들에 한정되지 않는다.The electronic device according to various embodiments disclosed in this document may have various types of devices. The electronic device may include, for example, a portable communication device (eg, a smart phone), a computer device, a portable multimedia device, a portable medical device, a camera, a wearable device, or a home appliance device. The electronic device according to the embodiment of the present document is not limited to the above-described devices.
본 문서의 다양한 실시예들 및 이에 사용된 용어들은 본 문서에 기재된 기술적 특징들을 특정한 실시예들로 한정하려는 것이 아니며, 해당 실시예의 다양한 변경, 균등물, 또는 대체물을 포함하는 것으로 이해되어야 한다. 도면의 설명과 관련하여, 유사한 또는 관련된 구성요소에 대해서는 유사한 참조 부호가 사용될 수 있다. 아이템에 대응하는 명사의 단수 형은 관련된 문맥상 명백하게 다르게 지시하지 않는 한, 상기 아이템 한 개 또는 복수 개를 포함할 수 있다. 본 문서에서, "A 또는 B", "A 및 B 중 적어도 하나", "A 또는 B 중 적어도 하나", "A, B 또는 C", "A, B 및 C 중 적어도 하나", 및 "A, B, 또는 C 중 적어도 하나"와 같은 문구들 각각은 그 문구들 중 해당하는 문구에 함께 나열된 항목들 중 어느 하나, 또는 그들의 모든 가능한 조합을 포함할 수 있다. "제 1", "제 2", 또는 "첫째" 또는 "둘째"와 같은 용어들은 단순히 해당 구성요소를 다른 해당 구성요소와 구분하기 위해 사용될 수 있으며, 해당 구성요소들을 다른 측면(예: 중요성 또는 순서)에서 한정하지 않는다. 어떤(예: 제 1) 구성요소가 다른(예: 제 2) 구성요소에, "기능적으로" 또는 "통신적으로"라는 용어와 함께 또는 이런 용어 없이, "커플드" 또는 "커넥티드"라고 언급된 경우, 그것은 상기 어떤 구성요소가 상기 다른 구성요소에 직접적으로(예: 유선으로), 무선으로, 또는 제 3 구성요소를 통하여 연결될 수 있다는 것을 의미한다.The various embodiments of this document and terms used therein are not intended to limit the technical features described in this document to specific embodiments, but it should be understood to include various modifications, equivalents, or substitutions of the embodiments. In connection with the description of the drawings, like reference numerals may be used for similar or related components. The singular form of the noun corresponding to the item may include one or more of the item, unless the relevant context clearly dictates otherwise. As used herein, "A or B", "at least one of A and B", "at least one of A or B", "A, B or C", "at least one of A, B and C", and "A , B, or C," each of which may include any one of the items listed together in the corresponding one of the phrases, or all possible combinations thereof. Terms such as "first", "second", or "first" or "second" may simply be used to distinguish an element from other elements in question, and may refer elements to other aspects (e.g., importance or order) is not limited. It is said that one (eg, first) component is “coupled” or “connected” to another (eg, second) component, with or without the terms “functionally” or “communicatively”. When referenced, it means that one component can be connected to the other component directly (eg by wire), wirelessly, or through a third component.
본 문서의 다양한 실시예들에서 사용된 용어 "모듈"은 하드웨어, 소프트웨어 또는 펌웨어로 구현된 유닛을 포함할 수 있으며, 예를 들면, 로직, 논리 블록, 부품, 또는 회로와 같은 용어와 상호 호환적으로 사용될 수 있다. 모듈은, 일체로 구성된 부품 또는 하나 또는 그 이상의 기능을 수행하는, 상기 부품의 최소 단위 또는 그 일부가 될 수 있다. 예를 들면, 일실시예에 따르면, 모듈은 ASIC(application-specific integrated circuit)의 형태로 구현될 수 있다. The term “module” used in various embodiments of this document may include a unit implemented in hardware, software, or firmware, and is interchangeable with terms such as, for example, logic, logic block, component, or circuit. can be used as A module may be an integrally formed part or a minimum unit or a part of the part that performs one or more functions. For example, according to an embodiment, the module may be implemented in the form of an application-specific integrated circuit (ASIC).
본 문서의 다양한 실시예들은 기기(machine)(예: 전자 장치(1201)) 의해 읽을 수 있는 저장 매체(storage medium)(예: 내장 메모리(1236) 또는 외장 메모리(1238))에 저장된 하나 이상의 명령어들을 포함하는 소프트웨어(예: 프로그램(1240))로서 구현될 수 있다. 예를 들면, 기기(예: 전자 장치(1201))의 프로세서(예: 프로세서(1220))는, 저장 매체로부터 저장된 하나 이상의 명령어들 중 적어도 하나의 명령을 호출하고, 그것을 실행할 수 있다. 이것은 기기가 상기 호출된 적어도 하나의 명령어에 따라 적어도 하나의 기능을 수행하도록 운영되는 것을 가능하게 한다. 상기 하나 이상의 명령어들은 컴파일러에 의해 생성된 코드 또는 인터프리터에 의해 실행될 수 있는 코드를 포함할 수 있다. 기기로 읽을 수 있는 저장 매체는, 비일시적(non-transitory) 저장 매체의 형태로 제공될 수 있다. 여기서, '비일시적'은 저장 매체가 실재(tangible)하는 장치이고, 신호(signal)(예: 전자기파)를 포함하지 않는다는 것을 의미할 뿐이며, 이 용어는 데이터가 저장 매체에 반영구적으로 저장되는 경우와 임시적으로 저장되는 경우를 구분하지 않는다.Various embodiments of the present document include one or more instructions stored in a storage medium (eg,
일실시예에 따르면, 본 문서에 개시된 다양한 실시예들에 따른 방법은 컴퓨터 프로그램 제품(computer program product)에 포함되어 제공될 수 있다. 컴퓨터 프로그램 제품은 상품으로서 판매자 및 구매자 간에 거래될 수 있다. 컴퓨터 프로그램 제품은 기기로 읽을 수 있는 저장 매체(예: compact disc read only memory(CD-ROM))의 형태로 배포되거나, 또는 어플리케이션 스토어(예: 플레이 스토어TM)를 통해 또는 두 개의 사용자 장치들(예: 스마트 폰들) 간에 직접, 온라인으로 배포(예: 다운로드 또는 업로드)될 수 있다. 온라인 배포의 경우에, 컴퓨터 프로그램 제품의 적어도 일부는 제조사의 서버, 어플리케이션 스토어의 서버, 또는 중계 서버의 메모리와 같은 기기로 읽을 수 있는 저장 매체에 적어도 일시 저장되거나, 임시적으로 생성될 수 있다.According to one embodiment, the method according to various embodiments disclosed in this document may be provided in a computer program product (computer program product). Computer program products may be traded between sellers and buyers as commodities. The computer program product is distributed in the form of a machine-readable storage medium (eg compact disc read only memory (CD-ROM)), or through an application store (eg Play Store™) or on two user devices ( It can be distributed (eg downloaded or uploaded) directly, online between smartphones (eg: smartphones). In the case of online distribution, at least a portion of the computer program product may be temporarily stored or temporarily created in a machine-readable storage medium such as a memory of a server of a manufacturer, a server of an application store, or a relay server.
다양한 실시예들에 따르면, 상기 기술한 구성요소들의 각각의 구성요소(예: 모듈 또는 프로그램)는 단수 또는 복수의 개체를 포함할 수 있으며, 복수의 개체 중 일부는 다른 구성요소에 분리 배치될 수도 있다. 다양한 실시예들에 따르면, 전술한 해당 구성요소들 중 하나 이상의 구성요소들 또는 동작들이 생략되거나, 또는 하나 이상의 다른 구성요소들 또는 동작들이 추가될 수 있다. 대체적으로 또는 추가적으로, 복수의 구성요소들(예: 모듈 또는 프로그램)은 하나의 구성요소로 통합될 수 있다. 이런 경우, 통합된 구성요소는 상기 복수의 구성요소들 각각의 구성요소의 하나 이상의 기능들을 상기 통합 이전에 상기 복수의 구성요소들 중 해당 구성요소에 의해 수행되는 것과 동일 또는 유사하게 수행할 수 있다. 다양한 실시예들에 따르면, 모듈, 프로그램 또는 다른 구성요소에 의해 수행되는 동작들은 순차적으로, 병렬적으로, 반복적으로, 또는 휴리스틱하게 실행되거나, 상기 동작들 중 하나 이상이 다른 순서로 실행되거나, 생략되거나, 또는 하나 이상의 다른 동작들이 추가될 수 있다. According to various embodiments, each component (eg, a module or a program) of the above-described components may include a singular or a plurality of entities, and some of the plurality of entities may be separately disposed in other components. have. According to various embodiments, one or more components or operations among the above-described corresponding components may be omitted, or one or more other components or operations may be added. Alternatively or additionally, a plurality of components (eg, a module or a program) may be integrated into one component. In this case, the integrated component may perform one or more functions of each component of the plurality of components identically or similarly to those performed by the corresponding component among the plurality of components prior to the integration. . According to various embodiments, operations performed by a module, program, or other component are executed sequentially, in parallel, repeatedly, or heuristically, or one or more of the operations are executed in a different order, or omitted. , or one or more other operations may be added.
상술한 바와 같이, 일 실시 예에 따른 웨어러블 장치(예: 도 2의 웨어러블 장치(100))는, 마이크(예: 도 2의 마이크(220)), 외부 장치로 제어 신호를 송수신하는 통신 회로(예: 도 2의 통신 회로(23)), 상기 마이크 및 상기 통신 회로와 전기적으로 연결되는 적어도 하나의 프로세서(예: 도 2의 프로세서(210))를 포함하고, 상기 적어도 하나의 프로세서는 상기 웨어러블 장치가 사용자의 신체에 착용된 상태에서 상기 마이크를 이용해 상기 외부 장치로부터 제1 오디오 신호를 획득하고, 설정된 시간이 지남에 응답하여, 상기 마이크를 이용해 상기 외부 장치로부터 제2 오디오 신호를 획득하고, 상기 제1 오디오 신호 및 제2 오디오 신호에 기반하여 상기 사용자의 착용 공간의 유형을 판단하고, 상기 착용 공간의 유형에 대응되는 오디오 출력 제어 방식에 기반하여, 상기 통신 회로를 이용해 상기 외부 장치의 음량을 제어할 수 있다.As described above, the wearable device (eg, the
일 실시 예에 따르면, 상기 적어도 하나의 프로세서는, 상기 통신 회로를 이용하여 상기 외부 장치로부터 원본 오디오 신호를 수신하고, 상기 원본 오디오 신호에 기반하여 상기 제1 오디오 신호 및 제2 오디오 신호 각각으로부터 잡음을 분리하고, 상기 잡음이 분리된 제1 오디오 신호 및 제2 오디오 신호에 기반하여 상기 착용 공간의 유형을 판단할 수 있다.According to an embodiment, the at least one processor receives an original audio signal from the external device using the communication circuit, and generates noise from each of the first audio signal and the second audio signal based on the original audio signal. may be separated, and the type of the wearing space may be determined based on the first audio signal and the second audio signal from which the noise is separated.
일 실시 예에 따르면, 상기 적어도 하나의 프로세서는, 상기 착용 공간의 유형이 제1 유형임에 응답하여, 상기 제1 오디오 신호 및 상기 제2 오디오 신호의 시간 또는 음량 차이에 기반하여, 상기 외부 장치와 상기 사용자 사이의 거리의 변화를 판단하고, 상기 거리의 변화에 기초하여 상기 외부 장치의 음량을 조절할 수 있다.According to an embodiment, in response to the type of the wearing space being the first type, the at least one processor, based on a time or volume difference between the first audio signal and the second audio signal, the external device and a change in the distance between the user and the user may be determined, and the volume of the external device may be adjusted based on the change in the distance.
일 실시 예에 따르면, 상기 적어도 하나의 프로세서는, 상기 제2 오디오 신호의 음량이 제1 기준 값 이하임에 응답하여, 상기 착용 공간의 유형을 제3 유형으로 판단할 수 있다.According to an embodiment, the at least one processor may determine the type of the wearing space as the third type in response to a volume level of the second audio signal being equal to or less than a first reference value.
일 실시 예에 따르면, 상기 적어도 하나의 프로세서는, 상기 착용 공간의 유형이 상기 제3 유형으로 판단됨에 응답하여, 상기 외부 장치의 음량을 최소 음량으로 제어할 수 있다.According to an embodiment, in response to determining that the type of the wearing space is the third type, the at least one processor may control the volume of the external device to a minimum volume.
일 실시 예에서, 상기 적어도 하나의 프로세서는, 상기 제1 오디오 신호 및 상기 제2 오디오 신호의 주파수별 음량을 비교한 결과에 기초하여, 상기 착용 공간의 유형이 제2 유형인지 여부를 판단할 수 있다.In an embodiment, the at least one processor may determine whether the type of the wearing space is the second type, based on a result of comparing the volume of each frequency of the first audio signal and the second audio signal. have.
일 실시 예의 상기 적어도 하나의 프로세서는, 상기 착용 공간의 유형이 상기 제2 유형으로 판단됨에 응답하여, 상기 제2 오디오 신호의 주파수별 음량이 상기 제1 오디오 신호의 주파수별 음량으로 유지되도록 제어 신호를 전송할 수 있다.The at least one processor of an embodiment is, in response to determining that the type of the wearing space is the second type, a control signal to maintain the volume for each frequency of the second audio signal as the volume for each frequency of the first audio signal can be transmitted.
일 실시 예에 따르면, 상기 적어도 하나의 프로세서는, 상기 제2 오디오 신호에 포함된 고음 주파수 영역의 제1 음량 감쇄율과, 상기 제2 오디오 신호에 포함된 저음 주파수 영역의 제2 음량 감쇄율의 차이에 기초하여 상기 착용 공간의 유형이 상기 제2 유형인지 여부를 판단할 수 있다.According to an embodiment, the at least one processor is configured to respond to a difference between a first volume decay rate of a high-pitched frequency region included in the second audio signal and a second volume decay rate of a low-pitched frequency region included in the second audio signal. It may be determined based on whether the type of the wearing space is the second type.
일 실시 예에 따르면, 상기 적어도 하나의 프로세서는, 상기 외부 장치의 음량을 조절하는 사용자 입력의 수신에 응답하여 상기 제1 오디오 신호를 획득하도록 상기 마이크를 제어할 수 있다.According to an embodiment, the at least one processor may control the microphone to acquire the first audio signal in response to receiving a user input for adjusting the volume of the external device.
일 실시 예에 따르면, 상기 적어도 하나의 프로세서는, 상기 외부 장치와의 초광대역 무선(ultra-wideband) 통신을 이용하여 상기 외부 장치에 대한 상기 전자 장치의 위치를 판단할 수 있다.According to an embodiment, the at least one processor may determine the location of the electronic device with respect to the external device using ultra-wideband communication with the external device.
일 실시 예에 따라, 상기 적어도 하나의 프로세서는, 상기 제2 오디오 신호에 사용자의 발화가 포함되었는지 여부를 판단하고, 상기 제2 오디오 신호에 상기 사용자의 발화가 포함된 것으로 판단하는 것에 응답하여, 상기 외부 장치의 음량을 제3 기준 값 이하로 제어할 수 있다.According to an embodiment, the at least one processor, in response to determining whether the user's utterance is included in the second audio signal, and determining that the user's utterance is included in the second audio signal, The volume of the external device may be controlled to be less than or equal to a third reference value.
일 실시 예에서, 상기 적어도 하나의 프로세서는, 상기 제2 오디오 신호에 기반하여 상기 사용자의 발화 종료를 식별하고, 상기 발화 종료의 식별에 기반하여, 상기 외부 장치의 음량을 상기 제3 기준값 이하로 제어하기 이전의 음량으로 변경되도록 제어할 수 있다.In an embodiment, the at least one processor identifies the end of the user's speech based on the second audio signal, and sets the volume of the external device to be less than or equal to the third reference value based on the identification of the end of the speech. It can be controlled to change to the previous volume level.
상술한 바와 같이, 마이크(예: 도 2의 마이크(220)) 및 외부 장치로 제어 신호를 송수신하는 통신 회로(예: 도 2의 통신 회로(230))를 포함하는 웨어러블 장치의 동작 방법은, 상기 웨어러블 장치가 사용자의 신체에 착용된 상태에서 상기 마이크를 이용해 상기 외부 장치로부터 제1 오디오 신호를 획득하는 동작, 설정된 시간이 지남에 응답하여, 상기 마이크를 이용해 상기 외부 장치로부터 제2 오디오 신호를 획득하는 동작, 상기 제1 오디오 신호 및 제2 오디오 신호에 기반하여 상기 사용자의 착용 공간의 유형을 판단하는 동작 및 상기 착용 공간의 유형에 대응되는 오디오 출력 제어 방식에 기반하여, 상기 통신 회로를 이용해 상기 외부 장치의 음량을 제어하는 동작을 포함할 수 있다. As described above, the method of operating a wearable device including a microphone (eg, the microphone 220 of FIG. 2 ) and a communication circuit (eg, the communication circuit 230 of FIG. 2 ) for transmitting and receiving a control signal to and from an external device, An operation of acquiring a first audio signal from the external device using the microphone while the wearable device is worn on the user's body, and receiving a second audio signal from the external device using the microphone in response to a set time elapses Based on an operation of acquiring, an operation of determining the type of the user's wearing space based on the first audio signal and the second audio signal, and an audio output control method corresponding to the type of the wearing space, using the communication circuit It may include an operation of controlling the volume of the external device.
일 실시 예에 따르면, 상기 외부 장치의 음량을 제어하는 동작은, 상기 착용 공간의 유형이 제1 유형임에 응답하여, 상기 제1 오디오 신호 및 상기 제2 오디오 신호에 기반하여 상기 외부 장치와 상기 사용자의 거리를 판단하는 동작 및 상기 판단된 거리에 비례하도록 상기 외부 장치의 음량을 조절하는 동작을 포함할 수 있다.According to an embodiment, the operation of controlling the volume of the external device may include, in response to the type of the wearing space being the first type, the external device and the second audio signal based on the first audio signal and the second audio signal. It may include an operation of determining the user's distance and an operation of adjusting a volume of the external device to be proportional to the determined distance.
일 실시 예에 따르면, 상기 착용 공간의 유형을 판단하는 동작은, 상기 제2 오디오 신호의 음량이 제1 기준 값 이하임에 응답하여 상기 착용 공간의 유형을 제3 유형으로 판단하는 동작을 포함하고, 상기 외부 장치의 음량을 제어하는 동작은, 상기 착용 공간의 유형이 상기 제3 유형으로 판단됨에 응답하여, 상기 외부 장치의 음량을 미리 정해진 최소 음량으로 제어하는 동작을 포함할 수 있다.According to an embodiment, the determining of the type of the wearing space includes determining the type of the wearing space as the third type in response to a volume level of the second audio signal being less than or equal to a first reference value, , The operation of controlling the volume of the external device may include controlling the volume of the external device to a predetermined minimum volume in response to determining that the type of the wearing space is the third type.
일 실시 예에 따르면, 상기 착용 공간의 유형을 판단하는 동작은, 상기 제1 오디오 신호의 제1 주파수 및 상기 제2 오디오 신호의 제2 주파수에 기초하여, 상기 착용 공간의 유형을 제2 유형으로 판단하는 동작을 포함하고, 상기 외부 장치의 음량을 제어하는 동작은, 상기 착용 공간의 유형이 상기 제2 유형으로 판단됨에 응답하여, 상기 제2 오디오 신호의 주파수별 음량이 상기 제1 오디오 신호의 주파수별 음량으로 유지되도록 제어 신호를 전송하는 동작을 포함할 수 있다.According to an embodiment, the determining of the type of the wearing space may include setting the type of the wearing space to the second type based on a first frequency of the first audio signal and a second frequency of the second audio signal. and determining, wherein the controlling of the volume of the external device may include: in response to determining that the type of the wearing space is the second type, the volume of the second audio signal for each frequency of the first audio signal It may include an operation of transmitting a control signal to maintain the volume for each frequency.
일 실시 예에 따르면, 제1 오디오 신호를 획득하는 동작은, 상기 사용자가 상기 외부 장치의 음량을 조절함에 응답하여 제1 오디오 신호를 획득하는 동작일 수 있다.According to an embodiment, the operation of acquiring the first audio signal may be an operation of acquiring the first audio signal in response to the user adjusting the volume of the external device.
일 실시 예에 따르면, 상기 웨어러블 장치의 동작 방법은, 상기 제2 오디오 신호에 사용자의 발화가 포함되었는지 여부를 판단하는 동작, 상기 제2 오디오 신호에 상기 사용자의 발화가 포함된 것으로 판단하는 것에 응답하여, 상기 외부 장치의 음량을 제3 기준 값 이하로 제어하는 동작을 더 포함할 수 있다. According to an embodiment of the present disclosure, the method of operating the wearable device may include determining whether the user's utterance is included in the second audio signal, and responding to determining whether the user's utterance is included in the second audio signal Thus, the method may further include controlling the volume of the external device to be less than or equal to a third reference value.
일 실시 예에 따르면, 상기 사용자의 거리를 판단하는 동작은, 상기 외부 장치와의 초광대역 무선(ultra-wideband) 통신을 이용하여 상기 외부 장치에 대한 상기 전자 장치의 위치를 판단하는 동작을 포함할 수 있다.According to an embodiment, the determining of the distance of the user may include determining the location of the electronic device with respect to the external device using ultra-wideband communication with the external device. can
일 실시 예에 따른 웨어러블 장치(예: 도 2의 웨어러블 장치(100))는, 마이크(예: 도 2의 마이크(220)), 복수 개의 외부 장치들과 제어 신호를 송수신하는 통신 회로(예: 도 2의 통신 회로(230)), 상기 마이크 및 상기 통신 회로와 전기적으로 연결되는 적어도 하나의 프로세서(예: 도 2의 프로세서(210))를 포함하고, 상기 적어도 하나의 프로세서는 상기 웨어러블 장치가 사용자의 신체에 착용된 상태에서 상기 마이크를 이용해 상기 복수 개의 장치들 각각으로부터 제3 오디오 신호를 획득하고, 설정된 시간이 지남에 응답하여, 상기 마이크를 이용해 상기 복수 개의 외부 장치들 각각으로부터 제4 오디오 신호를 획득하고, 상기 제3 오디오 신호 및 상기 제4 오디오 신호에 기반하여 상기 사용자와 상기 복수 개의 외부 장치들 각각의 거리들을 판단하고, 상기 판단 결과에 기반하여 상기 통신 회로를 이용해 상기 복수 개의 외부 장치들 중 적어도 하나의 음량을 제어할 수 있다.A wearable device (eg, the
Claims (20)
마이크;
외부 장치로 제어 신호를 송수신하는 통신 회로;
상기 마이크 및 상기 통신 회로와 전기적으로 연결되는 적어도 하나의 프로세서를 포함하고,
상기 적어도 하나의 프로세서는:
상기 웨어러블 장치가 사용자의 신체에 착용된 상태에서 상기 마이크를 이용해 상기 외부 장치로부터 제1 오디오 신호를 획득하고,
설정된 시간이 지남에 응답하여, 상기 마이크를 이용해 상기 외부 장치로부터 제2 오디오 신호를 획득하고,
상기 제1 오디오 신호 및 제2 오디오 신호에 기반하여 상기 사용자의 착용 공간의 유형을 판단하고,
상기 착용 공간의 유형에 대응되는 오디오 출력 제어 방식에 기반하여, 상기 통신 회로를 이용해 상기 외부 장치의 음량을 제어하는 웨어러블 장치.In the wearable device,
MIC;
a communication circuit for transmitting and receiving control signals to and from an external device;
at least one processor electrically connected to the microphone and the communication circuit;
The at least one processor comprises:
obtaining a first audio signal from the external device using the microphone while the wearable device is worn on the user's body;
In response to the lapse of a set time, acquiring a second audio signal from the external device using the microphone,
determining the type of the user's wearing space based on the first audio signal and the second audio signal;
A wearable device for controlling a volume of the external device using the communication circuit based on an audio output control method corresponding to the type of the wearing space.
상기 적어도 하나의 프로세서는, 상기 통신 회로를 이용하여 상기 외부 장치로부터 원본 오디오 신호를 수신하고,
상기 원본 오디오 신호에 기반하여 상기 제1 오디오 신호 및 제2 오디오 신호 각각으로부터 잡음을 분리하고,
상기 잡음이 분리된 제1 오디오 신호 및 제2 오디오 신호에 기반하여 상기 착용 공간의 유형을 판단하는 웨어러블 장치.The method according to claim 1,
The at least one processor receives an original audio signal from the external device using the communication circuit,
separating noise from each of the first audio signal and the second audio signal based on the original audio signal;
A wearable device for determining the type of the wearing space based on a first audio signal and a second audio signal from which the noise is separated.
상기 적어도 하나의 프로세서는, 상기 착용 공간의 유형이 제1 유형임에 응답하여,
상기 제1 오디오 신호 및 상기 제2 오디오 신호의 시간 또는 음량 차이에 기반하여, 상기 외부 장치와 상기 사용자 사이의 거리의 변화를 판단하고,
상기 거리의 변화에 기초하여 상기 외부 장치의 음량을 조절하는 웨어러블 장치.The method according to claim 1,
The at least one processor, in response to the type of the wearing space being the first type,
determining a change in the distance between the external device and the user based on a time or volume difference between the first audio signal and the second audio signal,
A wearable device for adjusting a volume of the external device based on a change in the distance.
상기 적어도 하나의 프로세서는, 상기 제2 오디오 신호의 음량이 제1 기준 값 이하임에 응답하여, 상기 착용 공간의 유형을 제3 유형으로 판단하는 웨어러블 장치.The method according to claim 1,
The at least one processor is configured to determine the type of the wearing space as a third type in response to a volume level of the second audio signal being equal to or less than a first reference value.
상기 적어도 하나의 프로세서는, 상기 착용 공간의 유형이 상기 제3 유형으로 판단됨에 응답하여, 상기 외부 장치의 음량을 최소 음량으로 제어하는 웨어러블 장치.5. The method according to claim 4,
The at least one processor is configured to control a volume of the external device to a minimum volume in response to determining that the type of the wearing space is the third type.
상기 적어도 하나의 프로세서는, 상기 제1 오디오 신호 및 상기 제2 오디오 신호의 주파수별 음량을 비교한 결과에 기초하여, 상기 착용 공간의 유형이 제2 유형인지 여부를 판단하는 웨어러블 장치.The method according to claim 1,
The at least one processor is configured to determine whether the type of the wearing space is a second type, based on a result of comparing the volume of each frequency of the first audio signal and the second audio signal.
상기 적어도 하나의 프로세서는, 상기 착용 공간의 유형이 상기 제2 유형으로 판단됨에 응답하여, 상기 제2 오디오 신호의 주파수별 음량이 상기 제1 오디오 신호의 주파수별 음량으로 유지되도록 제어 신호를 전송하는 웨어러블 장치.7. The method of claim 6,
The at least one processor, in response to determining that the type of the wearing space is the second type, transmits a control signal so that the volume for each frequency of the second audio signal is maintained as the volume for each frequency of the first audio signal wearable devices.
상기 적어도 하나의 프로세서는, 상기 제2 오디오 신호에 포함된 고음 주파수 영역의 제1 음량 감쇄율과, 상기 제2 오디오 신호에 포함된 저음 주파수 영역의 제2 음량 감쇄율의 차이에 기초하여 상기 착용 공간의 유형이 상기 제2 유형인지 여부를 판단하는 웨어러블 장치.7. The method of claim 6,
The at least one processor is configured to: Based on a difference between a first volume decay rate of the high-pitched frequency region included in the second audio signal and a second volume decay rate of the low-pitched frequency region included in the second audio signal, A wearable device that determines whether the type is the second type.
상기 적어도 하나의 프로세서는, 상기 외부 장치의 음량을 조절하는 사용자 입력의 수신에 응답하여 상기 제1 오디오 신호를 획득하도록 상기 마이크를 제어하는 웨어러블 장치.The method according to claim 1,
The at least one processor controls the microphone to acquire the first audio signal in response to receiving a user input for adjusting a volume of the external device.
상기 적어도 하나의 프로세서는, 상기 외부 장치와의 초광대역 무선(ultra-wideband) 통신을 이용하여 상기 외부 장치에 대한 상기 웨어러블 장치의 위치를 판단하는 웨어러블 장치.The method according to claim 1,
The at least one processor is configured to determine a position of the wearable device with respect to the external device using ultra-wideband communication with the external device.
상기 적어도 하나의 프로세서는,
상기 제2 오디오 신호에 사용자의 발화가 포함되었는지 여부를 판단하고,
상기 제2 오디오 신호에 상기 사용자의 발화가 포함된 것으로 판단하는 것에 응답하여, 상기 외부 장치의 음량을 제3 기준 값 이하로 제어하는 웨어러블 장치.The method according to claim 1,
the at least one processor,
determining whether a user's utterance is included in the second audio signal,
In response to determining that the second audio signal includes the user's utterance, the wearable device controls the volume of the external device to be less than or equal to a third reference value.
상기 적어도 하나의 프로세서는,
상기 제2 오디오 신호에 기반하여 상기 사용자의 발화 종료를 식별하고,
상기 발화 종료의 식별에 기반하여, 상기 외부 장치의 음량을 상기 제3 기준 값 이하로 제어하기 이전의 음량으로 변경되도록 제어하는 웨어러블 장치.12. The method of claim 11,
the at least one processor,
identifying the end of the user's speech based on the second audio signal;
A wearable device for controlling the volume of the external device to be changed to a volume before controlling the volume of the external device to be less than or equal to the third reference value based on the identification of the end of the speech.
상기 웨어러블 장치가 사용자의 신체에 착용된 상태에서 상기 마이크를 이용해 상기 외부 장치로부터 제1 오디오 신호를 획득하는 동작;
설정된 시간이 지남에 응답하여, 상기 마이크를 이용해 상기 외부 장치로부터 제2 오디오 신호를 획득하는 동작;
상기 제1 오디오 신호 및 제2 오디오 신호에 기반하여 상기 사용자의 착용 공간의 유형을 판단하는 동작; 및
상기 착용 공간의 유형에 대응되는 오디오 출력 제어 방식에 기반하여, 상기 통신 회로를 이용해 상기 외부 장치의 음량을 제어하는 동작을 포함하는 웨어러블 장치의 동작 방법.A method of operating a wearable device comprising a microphone and a communication circuit for transmitting and receiving a control signal to and from an external device, the method comprising:
acquiring a first audio signal from the external device using the microphone while the wearable device is worn on the user's body;
acquiring a second audio signal from the external device using the microphone in response to the lapse of a set time;
determining the type of the user's wearing space based on the first audio signal and the second audio signal; and
and controlling a volume of the external device using the communication circuit based on an audio output control method corresponding to the type of the wearing space.
상기 외부 장치의 음량을 제어하는 동작은, 상기 착용 공간의 유형이 제1 유형임에 응답하여, 상기 제1 오디오 신호 및 상기 제2 오디오 신호에 기반하여 상기 외부 장치와 상기 사용자의 거리를 판단하는 동작; 및
상기 판단된 거리에 비례하도록 상기 외부 장치의 음량을 조절하는 동작을 포함하는 웨어러블 장치의 동작 방법.14. The method of claim 13,
The operation of controlling the volume of the external device may include determining a distance between the external device and the user based on the first audio signal and the second audio signal in response to the type of the wearing space being the first type. movement; and
and adjusting a volume of the external device in proportion to the determined distance.
상기 착용 공간의 유형을 판단하는 동작은, 상기 제2 오디오 신호의 음량이 제1 기준 값 이하임에 응답하여 상기 착용 공간의 유형을 제3 유형으로 판단하는 동작을 포함하고,
상기 외부 장치의 음량을 제어하는 동작은, 상기 착용 공간의 유형이 상기 제3 유형으로 판단됨에 응답하여, 상기 외부 장치의 음량을 미리 정해진 최소 음량으로 제어하는 동작을 포함하는, 웨어러블 장치의 동작 방법.14. The method of claim 13,
The determining of the type of the wearing space includes determining the type of the wearing space as the third type in response to a volume level of the second audio signal being less than or equal to a first reference value,
The operation of controlling the volume of the external device includes controlling the volume of the external device to a predetermined minimum volume in response to determining that the type of the wearing space is the third type. .
상기 착용 공간의 유형을 판단하는 동작은, 상기 제1 오디오 신호의 제1 주파수 및 상기 제2 오디오 신호의 제2 주파수에 기초하여, 상기 착용 공간의 유형을 제2 유형으로 판단하는 동작을 포함하고,
상기 외부 장치의 음량을 제어하는 동작은, 상기 착용 공간의 유형이 상기 제2 유형으로 판단됨에 응답하여, 상기 제2 오디오 신호의 주파수별 음량이 상기 제1 오디오 신호의 주파수별 음량으로 유지되도록 제어 신호를 전송하는 동작을 포함하는, 웨어러블 장치의 동작 방법.14. The method of claim 13,
The determining of the type of the wearing space includes determining the type of the wearing space as the second type based on a first frequency of the first audio signal and a second frequency of the second audio signal, ,
The operation of controlling the volume of the external device may include controlling the frequency-specific volume of the second audio signal to be maintained as the frequency-specific volume of the first audio signal in response to determining that the type of the wearing space is the second type. A method of operating a wearable device, comprising the operation of transmitting a signal.
제1 오디오 신호를 획득하는 동작은, 상기 사용자가 상기 외부 장치의 음량을 조절함에 응답하여 제1 오디오 신호를 획득하는 동작인 웨어러블 장치의 동작 방법.14. The method of claim 13,
The operation of acquiring the first audio signal is an operation of acquiring the first audio signal in response to the user adjusting a volume of the external device.
상기 제2 오디오 신호에 상기 사용자의 발화가 포함된 것으로 판단하는 것에 응답하여, 상기 외부 장치의 음량을 제3 기준 값 이하로 제어하는 동작을 더 포함하는 웨어러블 장치의 동작 방법.The method of claim 13 , further comprising: determining whether a user's utterance is included in the second audio signal;
and controlling a volume of the external device to be less than or equal to a third reference value in response to determining that the second audio signal includes the user's utterance.
상기 사용자의 거리를 판단하는 동작은, 상기 외부 장치와의 초광대역 무선(ultra-wideband) 통신을 이용하여 상기 외부 장치에 대한 상기 웨어러블 장치의 위치를 판단하는 동작을 포함하는 웨어러블 장치의 동작 방법.15. The method of claim 14,
The operation of determining the distance of the user includes determining a position of the wearable device with respect to the external device using ultra-wideband communication with the external device.
마이크;
복수 개의 외부 장치들과 제어 신호를 송수신하는 통신 회로;
상기 마이크 및 상기 통신 회로와 전기적으로 연결되는 적어도 하나의 프로세서를 포함하고,
상기 적어도 하나의 프로세서는:
상기 웨어러블 장치가 사용자의 신체에 착용된 상태에서 상기 마이크를 이용해 상기 복수 개의 장치들 각각으로부터 제3 오디오 신호를 획득하고,
설정된 시간이 지남에 응답하여, 상기 마이크를 이용해 상기 복수 개의 외부 장치들 각각으로부터 제4 오디오 신호를 획득하고,
상기 제3 오디오 신호 및 상기 제4 오디오 신호에 기반하여 상기 사용자와 상기 복수 개의 외부 장치들 각각의 거리들을 판단하고,
상기 판단 결과에 기반하여 상기 통신 회로를 이용해 상기 복수 개의 외부 장치들 중 적어도 하나의 음량을 제어하는 웨어러블 장치.
In the wearable device,
MIC;
a communication circuit for transmitting and receiving control signals to and from a plurality of external devices;
at least one processor electrically connected to the microphone and the communication circuit;
The at least one processor comprises:
obtaining a third audio signal from each of the plurality of devices using the microphone while the wearable device is worn on the user's body;
In response to the lapse of a set time, obtaining a fourth audio signal from each of the plurality of external devices using the microphone,
determining distances between the user and each of the plurality of external devices based on the third audio signal and the fourth audio signal;
A wearable device for controlling a volume of at least one of the plurality of external devices by using the communication circuit based on the determination result.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020210006300A KR20220103543A (en) | 2021-01-15 | 2021-01-15 | Wearable device and method performing automatic sound control |
PCT/KR2022/000690 WO2022154546A1 (en) | 2021-01-15 | 2022-01-14 | Wearable device for performing automatic volume control |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020210006300A KR20220103543A (en) | 2021-01-15 | 2021-01-15 | Wearable device and method performing automatic sound control |
Publications (1)
Publication Number | Publication Date |
---|---|
KR20220103543A true KR20220103543A (en) | 2022-07-22 |
Family
ID=82447696
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020210006300A KR20220103543A (en) | 2021-01-15 | 2021-01-15 | Wearable device and method performing automatic sound control |
Country Status (2)
Country | Link |
---|---|
KR (1) | KR20220103543A (en) |
WO (1) | WO2022154546A1 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2024029644A1 (en) * | 2022-08-03 | 2024-02-08 | 엘지전자 주식회사 | Wireless audio reception apparatus, wireless audio transmission apparatus, and wireless audio output system comprising same |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9654609B2 (en) * | 2011-12-16 | 2017-05-16 | Qualcomm Incorporated | Optimizing audio processing functions by dynamically compensating for variable distances between speaker(s) and microphone(s) in an accessory device |
KR102318887B1 (en) * | 2015-03-06 | 2021-10-29 | 삼성전자주식회사 | Wearable electronic device and method for controlling thereof |
KR101876737B1 (en) * | 2016-11-02 | 2018-08-09 | 현대자동차주식회사 | Apparatus and method for providing geo-fencing service via in-vehicle electric device |
KR102607787B1 (en) * | 2018-11-30 | 2023-11-30 | 삼성전자주식회사 | Electronic device and Method of controlling thereof |
KR102151433B1 (en) * | 2019-01-02 | 2020-09-03 | 올리브유니온(주) | Adaptive solid hearing system according to environmental changes and noise changes, and the method thereof |
-
2021
- 2021-01-15 KR KR1020210006300A patent/KR20220103543A/en unknown
-
2022
- 2022-01-14 WO PCT/KR2022/000690 patent/WO2022154546A1/en active Application Filing
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2024029644A1 (en) * | 2022-08-03 | 2024-02-08 | 엘지전자 주식회사 | Wireless audio reception apparatus, wireless audio transmission apparatus, and wireless audio output system comprising same |
Also Published As
Publication number | Publication date |
---|---|
WO2022154546A1 (en) | 2022-07-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR20220034571A (en) | Electronic device for identifying a command included in voice and method of opearating the same | |
US20230179912A1 (en) | Electronic apparatus comprising sound radiation unit | |
KR20220103543A (en) | Wearable device and method performing automatic sound control | |
US20220225008A1 (en) | Electronic device for reducing internal noise and method thereof | |
KR20220103548A (en) | Electronic device for processing voice data and operating methiod thereof | |
US20230140204A1 (en) | Method and device for recording sound of electronic device using earphones | |
EP4207801A1 (en) | Electronic device switching communication connection in accordance with noise environment, and method for controlling same | |
US20230154478A1 (en) | Electronic device for performing audio streaming and operating method thereof | |
US20230152450A1 (en) | Method for sensing wearing of electronic device and electronic device applied the same | |
US20220353330A1 (en) | Electronic device and method for recording audio data acquired from multiple devices | |
EP4358536A1 (en) | Ambient sound control method and electronic device for same | |
US20230156394A1 (en) | Electronic device for sensing touch input and method therefor | |
KR20220015716A (en) | Apparatus and method for providing an augmented reality audio data | |
US20230413002A1 (en) | Electronic device for applying directionality to audio signal, and method therefor | |
US20230188885A1 (en) | Acoustic device and electronic device including the same | |
KR20230064509A (en) | Method and apparatus for recording sound of electronic device using earphones | |
KR20230125700A (en) | Electronic device and method for controlling mic and sensor based on external noise | |
KR20240049074A (en) | Electronic device and method for generating vibration sound signal | |
KR20240041784A (en) | Electronic device for outputting audio signal in state in which external object is identified and method thereof | |
KR20220073136A (en) | Electronic device for setting background image and operating method thereof | |
KR20220101866A (en) | Electronic device switching communication connection according to noise environment and method for controlling thereof | |
KR20230099580A (en) | Electronic device for processing noise for each area during video call and operating method thereof | |
KR20240022940A (en) | Electronic device, method, and non-transitory computer readable storage medium performing advertising process synchronized with advertising process of another electronic device | |
KR20220034530A (en) | Electronic device for outputing sound and method of operating the same | |
KR20240047278A (en) | Foldable electronic device and method for reducing echo generation |