KR20230094926A - Method and electronic device for connecting external electronic device - Google Patents
Method and electronic device for connecting external electronic device Download PDFInfo
- Publication number
- KR20230094926A KR20230094926A KR1020220030927A KR20220030927A KR20230094926A KR 20230094926 A KR20230094926 A KR 20230094926A KR 1020220030927 A KR1020220030927 A KR 1020220030927A KR 20220030927 A KR20220030927 A KR 20220030927A KR 20230094926 A KR20230094926 A KR 20230094926A
- Authority
- KR
- South Korea
- Prior art keywords
- electronic device
- microphone
- audio signal
- user
- external electronic
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01B—MEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
- G01B11/00—Measuring arrangements characterised by the use of optical techniques
- G01B11/02—Measuring arrangements characterised by the use of optical techniques for measuring length, width or thickness
- G01B11/022—Measuring arrangements characterised by the use of optical techniques for measuring length, width or thickness by means of tv-camera scanning
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/0093—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/16—Sound input; Sound output
- G06F3/165—Management of the audio stream, e.g. setting of volume, audio stream path
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/18—Eye characteristics, e.g. of the iris
- G06V40/19—Sensors therefor
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04R—LOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
- H04R3/00—Circuits for transducers, loudspeakers or microphones
- H04R3/005—Circuits for transducers, loudspeakers or microphones for combining the signals of two or more microphones
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Human Computer Interaction (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Optics & Photonics (AREA)
- Multimedia (AREA)
- Otolaryngology (AREA)
- Signal Processing (AREA)
- Ophthalmology & Optometry (AREA)
- Acoustics & Sound (AREA)
- Audiology, Speech & Language Pathology (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
다양한 실시예에 따르면, 전자 장치는, 외부 전자 장치와의 연결을 위한 통신 모듈, 적어도 하나의 제 1 마이크, 메모리, 및 상기 통신 모듈, 상기 적어도 하나의 제 1 마이크, 및 상기 메모리에 전기적으로 연결된 프로세서를 포함할 수 있다. 상기 프로세서는, 상기 외부 전자 장치로부터 전송된 착용 신호의 수신에 응답하여, 상기 외부 전자 장치가 인체에 착용되었음을 확인하고, 상기 외부 전자 장치의 착용에 응답하여, 상기 메모리에 저장된, 상기 외부 전자 장치의 타입을 확인하고, 상기 확인된 타입을 기반으로, 상기 적어도 하나의 제 1 마이크 및 상기 인체에 착용된 외부 전자 장치에 포함된 적어도 하나의 제 2 마이크 중에서, 적어도 하나의 마이크를 선택하고, 상기 선택된 적어도 하나의 마이크를 사용하여 오디오 신호를 획득할 수 있다. 그 밖에 다양한 실시예들이 가능할 수 있다.According to various embodiments, an electronic device includes a communication module for connection with an external electronic device, at least one first microphone, a memory, and electrically connected to the communication module, the at least one first microphone, and the memory. may include a processor. The processor, in response to receiving a wearing signal transmitted from the external electronic device, confirms that the external electronic device is worn on the human body, and in response to wearing the external electronic device, the external electronic device stored in the memory. checks the type of , selects at least one microphone from among the at least one first microphone and at least one second microphone included in the external electronic device worn on the human body, based on the identified type; An audio signal may be obtained using at least one selected microphone. Other various embodiments may be possible.
Description
본 발명의 다양한 실시 예는 외부 전자 장치와의 연결 방법 및 전자 장치에 관한 것이다.Various embodiments of the present disclosure relate to a method for connecting to an external electronic device and an electronic device.
디지털 기술의 발달과 함께 이동통신 단말기, PDA(personal digital assistant), 전자수첩, 스마트 폰, 태블릿 PC(personal computer), 웨어러블 디바이스(wearable device)와 같은 다양한 유형의 전자 장치가 널리 사용되고 있다. 이러한, 전자 장치는 기능 지지 및 증대를 위해, 전자 장치의 하드웨어 및/또는 소프트웨어가 지속적으로 개량되고 있다.With the development of digital technology, various types of electronic devices such as mobile communication terminals, personal digital assistants (PDAs), electronic notebooks, smart phones, tablet PCs (personal computers), and wearable devices have been widely used. In order to support and increase functions of such electronic devices, hardware and/or software of electronic devices are continuously being improved.
일례로, 전자 장치는 컴퓨터로 만들어 놓은 가상의 세계에서 사용자가 실제와 같은 체험을 할 수 있도록 하는 가상 현실(virtual reality; VR)을 제공할 수 있다. 또한, 전자 장치는 현실 세계에 가상 정보(또는 객체)를 더해 보여주는 증강 현실(augmented reality; AR), 가상 현실과 증강 현실을 혼합한 혼합 현실(mixed reality; MR)을 제공할 수 있다. 전자 장치는 이러한, 가상 현실 및 증강 현실을 제공하기 위한 AR(augmented reality) 전자 장치(예: 헤드업 디스플레이(head up display))를 포함할 수 있다.For example, an electronic device may provide virtual reality (VR), which allows a user to experience the same as real life in a virtual world created by a computer. In addition, the electronic device may provide augmented reality (AR) in which virtual information (or objects) is added to the real world and mixed reality (MR) in which virtual reality and augmented reality are mixed. The electronic device may include an augmented reality (AR) electronic device (eg, a head-up display) for providing virtual reality and augmented reality.
AR 전자 장치는 사용자의 머리 부분에 착용이 가능하며, 사용자에게 가상 현실을 제공하기 위한 디스플레이 모듈을 포함할 수 있다. AR 전자 장치는 디스플레이 모듈이 사용자의 눈 위치에 대응하여 배치되도록, 사용자의 귀에 적어도 부분적으로 거치될 수 있다. 일 실시예에 따르면, AR 전자 장치를 사용 중에 다른 종류의 외부 전자 장치(예: 주변 전자 장치, 무선 이어폰, 및/또는 TWS(true wireless stereo))와 통신하는 상황(예: WiFi 통신, BT 통신 및/또는 BLE 통신)이 발생할 수 있으며, AR 전자 장치와 외부 전자 장치 간의 통신 설정을 위한 정책이 필요할 수 있다. The AR electronic device may be worn on a user's head and may include a display module for providing virtual reality to the user. The AR electronic device may be mounted at least partially on the user's ear so that the display module is disposed corresponding to the user's eye position. According to an embodiment, a situation in which an AR electronic device communicates with another type of external electronic device (eg, a peripheral electronic device, a wireless earphone, and/or a true wireless stereo (TWS)) while in use (eg, WiFi communication, BT communication) and/or BLE communication) may occur, and a policy for establishing communication between an AR electronic device and an external electronic device may be required.
전자 장치(예: AR 전자 장치)는 외부 오디오를 수신하기 위한 마이크를 포함하고 있고, 전자 장치와 통신 연결된 외부 전자 장치(예: 주변 전자 장치, 무선 이어폰)도 외부 오디오를 수신하기 위한 마이크를 포함할 수 있다. An electronic device (e.g., an AR electronic device) includes a microphone for receiving external audio, and an external electronic device (e.g., peripheral electronic device, wireless earphone) in communication with the electronic device includes a microphone for receiving external audio. can do.
전자 장치와 외부 전자 장치가 연동되어 동작할 때, 전자 장치 및 외부 전자 장치에 포함된 마이크 사용에 대한 정책이 적용되지 않는 경우, 전자 장치는 사용자에게 충분한 오디오 서비스를 제공하지 못할 수 있다. 예를 들어, 하나의 장치가 권한을 위임 받아 단독으로 오디오 관련 동작을 수행할 지, 또는, 복수 개의 장치가 함께 오디오 관련 동작을 수행할 지에 대한 정책이 필요할 수 있다.When an electronic device and an external electronic device interlock and operate, if a policy for using a microphone included in the electronic device and the external electronic device is not applied, the electronic device may not be able to provide a sufficient audio service to the user. For example, a policy may be required regarding whether one device receives authority and performs an audio-related operation alone, or whether a plurality of devices perform an audio-related operation together.
일 실시예에 따르면, 전자 장치는 외부 전자 장치와의 연결 시, 전자 장치에 포함된 제 1 마이크 및 외부 전자 장치에 포함된 제 2 마이크 중에서 적어도 하나의 마이크를 선택하여 오디오 신호를 획득할 수 있다.According to an embodiment, when connecting to an external electronic device, the electronic device may acquire an audio signal by selecting at least one microphone from among a first microphone included in the electronic device and a second microphone included in the external electronic device. .
다양한 실시예에 따르면, 전자 장치는, 외부 전자 장치와의 연결을 위한 통신 모듈, 적어도 하나의 제 1 마이크, 메모리, 및 상기 통신 모듈, 상기 적어도 하나의 제 1 마이크, 및 상기 메모리에 전기적으로 연결된 프로세서를 포함할 수 있다. 상기 프로세서는, 상기 외부 전자 장치로부터 전송된 착용 신호의 수신에 응답하여, 상기 외부 전자 장치가 인체에 착용되었음을 확인하고, 상기 외부 전자 장치의 착용에 응답하여, 상기 메모리에 저장된, 상기 외부 전자 장치의 타입을 확인하고, 상기 확인된 타입을 기반으로, 상기 적어도 하나의 제 1 마이크 및 상기 인체에 착용된 외부 전자 장치에 포함된 적어도 하나의 제 2 마이크 중에서, 적어도 하나의 마이크를 선택하고, 상기 선택된 적어도 하나의 마이크를 사용하여 오디오 신호를 획득할 수 있다. According to various embodiments, an electronic device includes a communication module for connection with an external electronic device, at least one first microphone, a memory, and electrically connected to the communication module, the at least one first microphone, and the memory. may include a processor. The processor, in response to receiving a wearing signal transmitted from the external electronic device, confirms that the external electronic device is worn on the human body, and in response to wearing the external electronic device, the external electronic device stored in the memory. checks the type of , selects at least one microphone from among the at least one first microphone and at least one second microphone included in the external electronic device worn on the human body, based on the identified type; An audio signal may be obtained using at least one selected microphone.
다양한 실시예에 따른 방법에 있어서, 외부 전자 장치로부터 전송된 착용 신호의 수신에 응답하여, 상기 외부 전자 장치가 인체에 착용되었음을 확인하는 동작, 상기 외부 전자 장치의 착용에 응답하여, 상기 외부 전자 장치의 타입을 확인하는 동작, 상기 확인된 타입을 기반으로, 전자 장치에 포함된 적어도 하나의 제 1 마이크 및 상기 인체에 착용된 외부 전자 장치에 포함된 적어도 하나의 제 2 마이크 중에서, 적어도 하나의 마이크를 선택하는 동작, 및 상기 선택된 적어도 하나의 마이크를 사용하여 오디오 신호를 획득하는 동작을 포함할 수 있다.In the method according to various embodiments, an operation of confirming that the external electronic device is worn on a human body in response to receiving a wearing signal transmitted from the external electronic device; and, in response to wearing the external electronic device, the external electronic device Operation of checking the type of at least one microphone among at least one first microphone included in the electronic device and at least one second microphone included in the external electronic device worn on the human body, based on the identified type It may include an operation of selecting, and an operation of obtaining an audio signal using the selected at least one microphone.
본 발명의 다양한 실시예들은 전자 장치와 외부 전자 장치(예: 주변 전자 장치)가 연결될 때, 전자 장치에 포함된 제 1 마이크 및/또는 외부 전자 장치에 포함된 제 2 마이크를 기반으로, 사용자에게 향상된 오디오 서비스를 제공하기 위한 마이크를 결정할 수 있다. Various embodiments of the present disclosure provide information to a user based on a first microphone included in the electronic device and/or a second microphone included in the external electronic device when an electronic device and an external electronic device (eg, a peripheral electronic device) are connected. A microphone for providing an enhanced audio service may be determined.
일 실시예에 따르면, 전자 장치는 외부 전자 장치에 포함된 제 2 마이크의 위치를 확인할 수 있고, 복수 개의 마이크(예: 제 1 마이크 및/또는 제 2 마이크)를 활용하여, 외부 오디오를 효율적으로 획득할 수 있다. According to an embodiment, the electronic device may check the position of the second microphone included in the external electronic device, and utilize a plurality of microphones (eg, the first microphone and/or the second microphone) to efficiently receive external audio. can be obtained
일 실시예에 따르면, 전자 장치는 사용자가 응시하는 방향 및/또는 위치를 확인하고, 확인된 방향 및/또는 위치에 대한 빔포밍 동작을 수행할 수 있다. 전자 장치는 사용자에게 향상된 오디오 서비스를 제공할 수 있다. According to an embodiment, the electronic device may check the direction and/or location of the user's gaze and perform a beamforming operation for the checked direction and/or location. An electronic device may provide an enhanced audio service to a user.
이 외에, 본 문서를 통해 직접적 또는 간접적으로 파악되는 다양한 효과들이 제공될 수 있다.In addition to this, various effects identified directly or indirectly through this document may be provided.
도면의 설명과 관련하여, 동일 또는 유사한 구성 요소에 대해서는 동일 또는 유사한 참조 부호가 사용될 수 있다.
도 1은 본 발명의 다양한 실시예들에 따른 전자 장치와 외부 전자 장치 간의 통신 연결을 도시한 예시도이다.
도 2는 본 발명의 다양한 실시예에 따른 적어도 하나의 마이크가 포함된 전자 장치의 전체 구성도이다.
도 3은 본 발명의 다양한 실시예에 따른 전자 장치 및 외부 전자 장치의 블록도이다.
도 4는 본 발명의 다양한 실시예에 따른 전자 장치와 외부 전자 장치의 연결에 따른 마이크를 설정하는 방법을 도시한 흐름도이다.
도 5는 본 발명의 다양한 실시예에 따른 사용자가 응시하는 위치에 기반한 빔포밍 동작을 수행하는 방법을 도시한 흐름도이다.
도 6은 본 발명의 다양한 실시예에 따른 전자 장치와 외부 전자 장치가 연결된 상태에서 복수 개의 마이크를 기반으로 빔포밍 동작을 수행하는 방법을 도시한 흐름도이다.
도 7은 본 발명의 다양한 실시예에 따른 전자 장치와 외부 전자 장치가 연결된 상태에서 빔포밍 동작을 수행하는 도중, 외부 전자 장치와의 연결이 해제되는 경우의 빔포밍 동작을 수행하는 방법을 도시한 흐름도이다.
도 8은 본 발명의 다양한 실시예에 따른 전자 장치와 외부 전자 장치가 연결된 상태에서 오디오 신호가 출력되는 도중, 외부 전자 장치와의 연결이 해제되는 경우의 동작을 수행하는 방법을 도시한 흐름도이다.
도 9는 본 발명의 다양한 실시예에 따른 전자 장치와 외부 전자 장치가 연결된 상태에서 spatial 방식의 오디오 신호가 출력되는 도중, 외부 전자 장치가 인체 일부로부터 탈착되는 경우 stereo 방식의 오디오 신호를 출력하는 방법을 도시한 흐름도이다.
도 10은 본 발명의 다양한 실시예에 따른 전자 장치와 외부 전자 장치가 연결된 상태에서 오디오 신호가 출력되는 도중, 전자 장치가 인체 일부로부터 탈착되는 경우의 동작을 수행하는 방법을 도시한 흐름도이다.
도 11a는 본 발명의 다양한 실시예에 따른 전자 장치에 포함된 카메라를 사용하여 사용자의 시선 방향 및/또는 동공의 움직임을 추적하는 방법을 도시한 제 1 예시도이다.
도 11b는 본 발명의 다양한 실시예에 따른 전자 장치에 포함된 카메라를 사용하여 사용자의 시선 방향 및/또는 동공의 움직임을 추적하는 방법을 도시한 제 2 예시도이다.
도 12a는 본 발명의 다양한 실시예에 따른 전자 장치에 포함된 카메라를 사용하여 동공의 움직임에 따른 초점 위치를 확인하는 방법을 도시한 제 1 예시도이다.
도 12b는 본 발명의 다양한 실시예에 따른 전자 장치에 포함된 카메라를 사용하여 동공의 움직임에 따른 초점 위치를 확인하는 방법을 도시한 제 2 예시도이다.
도 12c는 본 발명의 다양한 실시예에 따른 전자 장치에 포함된 카메라를 사용하여 동공의 움직임에 따른 초점 위치를 확인하는 방법을 도시한 제 3 예시도이다.
도 12d는 본 발명의 다양한 실시예에 따른 전자 장치에 포함된 카메라를 사용하여 동공의 움직임에 따른 초점 위치를 확인하는 방법을 도시한 제 4 예시도이다.
도 13a는 본 발명의 다양한 실시예에 따른 2D 기반으로 사용자의 초점 위치를 확인하는 방법을 도시한 예시도이다.
도 13b는 본 발명의 다양한 실시예에 따른 3D 기반으로 사용자의 초점 위치를 확인하는 방법을 도시한 예시도이다.
도 14는 본 발명의 다양한 실시예에 따른 가상 현실에서 구현된 가상의 객체를 기반으로, 사용자의 초점 위치를 확인하는 방법을 도시한 예시도이다.
도 15는 본 발명의 다양한 실시예들에 따른 제 1 전자 장치, 제 2 전자 장치 및/또는 휴대용 전자 장치 간의 통신 연결을 도시한 예시도이다.
도 16a는 본 발명의 다양한 실시예들에 따른 복수 개의 마이크를 기반으로, 오디오 신호가 발생하는 위치를 확인하고, 적어도 하나의 마이크를 선택하는 방법을 도시한 제 1 예시도이다.
도 16b는 본 발명의 다양한 실시예들에 따른 복수 개의 마이크를 기반으로, 오디오 신호가 발생하는 위치를 확인하고, 적어도 하나의 마이크를 선택하는 방법을 도시한 제 2 예시도이다.In connection with the description of the drawings, the same or similar reference numerals may be used for the same or similar elements.
1 is an exemplary diagram illustrating a communication connection between an electronic device and an external electronic device according to various embodiments of the present disclosure.
2 is an overall configuration diagram of an electronic device including at least one microphone according to various embodiments of the present disclosure.
3 is a block diagram of an electronic device and an external electronic device according to various embodiments of the present disclosure.
4 is a flowchart illustrating a method of setting a microphone according to connection between an electronic device and an external electronic device according to various embodiments of the present disclosure.
5 is a flowchart illustrating a method of performing a beamforming operation based on a user's gaze position according to various embodiments of the present invention.
6 is a flowchart illustrating a method of performing a beamforming operation based on a plurality of microphones in a state in which an electronic device and an external electronic device are connected according to various embodiments of the present disclosure.
7 illustrates a method of performing a beamforming operation when a connection with an external electronic device is disconnected while performing a beamforming operation in a state in which an electronic device and an external electronic device are connected according to various embodiments of the present invention. It is a flow chart.
8 is a flowchart illustrating a method of performing an operation when a connection with an external electronic device is disconnected while an audio signal is being output while the electronic device and the external electronic device are connected according to various embodiments of the present disclosure.
9 is a method of outputting a stereo-type audio signal when an external electronic device is detached from a part of a human body while a spatial-type audio signal is being output in a state in which an electronic device and an external electronic device are connected according to various embodiments of the present invention. It is a flow chart showing
10 is a flowchart illustrating a method of performing an operation when an electronic device is detached from a part of a human body while an audio signal is being output while an electronic device and an external electronic device are connected according to various embodiments of the present disclosure.
11A is a first exemplary diagram illustrating a method of tracking a user's gaze direction and/or pupil movement using a camera included in an electronic device according to various embodiments of the present disclosure.
11B is a second exemplary diagram illustrating a method of tracking a user's gaze direction and/or pupil movement using a camera included in an electronic device according to various embodiments of the present disclosure.
12A is a first exemplary diagram illustrating a method of checking a focal position according to pupil movement using a camera included in an electronic device according to various embodiments of the present disclosure.
12B is a second exemplary diagram illustrating a method of checking a focal position according to pupil movement using a camera included in an electronic device according to various embodiments of the present disclosure.
12C is a third exemplary diagram illustrating a method of checking a focus position according to pupil movement using a camera included in an electronic device according to various embodiments of the present disclosure.
12D is a fourth exemplary view illustrating a method of checking a focus position according to pupil movement using a camera included in an electronic device according to various embodiments of the present disclosure.
13A is an exemplary diagram illustrating a method of determining a user's focus position based on 2D according to various embodiments of the present disclosure.
13B is an exemplary view illustrating a method of determining a user's focus position based on 3D according to various embodiments of the present disclosure.
14 is an exemplary diagram illustrating a method of confirming a focus position of a user based on a virtual object implemented in virtual reality according to various embodiments of the present disclosure.
15 is an exemplary diagram illustrating a communication connection between a first electronic device, a second electronic device, and/or a portable electronic device according to various embodiments of the present disclosure.
16A is a first exemplary diagram illustrating a method of identifying a location where an audio signal is generated and selecting at least one microphone based on a plurality of microphones according to various embodiments of the present invention.
FIG. 16B is a second exemplary diagram illustrating a method of determining a location where an audio signal is generated based on a plurality of microphones and selecting at least one microphone according to various embodiments of the present disclosure.
도 1은 본 발명의 다양한 실시예들에 따른 전자 장치와 외부 전자 장치 간의 통신 연결을 도시한 예시도이다.1 is an exemplary diagram illustrating a communication connection between an electronic device and an external electronic device according to various embodiments of the present disclosure.
도 1을 참조하면, 전자 장치(101)는 사용자의 인체 일부에 착용 가능한 웨어러블 전자 장치(wearable electronic device)를 포함할 수 있다. 예를 들어, 전자 장치(101)는 AR 글래스(glass)(예: AR 전자 장치 및/또는 AR 안경 장치)를 포함하며, 사용자에게 AR(augment reality), VR(virtual reality), MR(mixed reality), 및/또는, XR(extend reality) 중 적어도 하나의 경험을 제공할 수 있다. 전자 장치(101)는 사용자의 양쪽 귀에 거치되는 형태로 착용될 수 있고, 사용자의 눈에 인접한 렌즈를 통해, AR 서비스(예: 가상 현실 서비스, 증강 현실 서비스)를 제공할 수 있다. 전자 장치(101)는 외부 오디오 신호를 수신하기 위한 적어도 하나의 마이크를 포함할 수 있고, 외부로 오디오 신호를 출력하기 위한 적어도 하나의 스피커를 포함할 수 있다. 전자 장치(101)는 다른 전자 장치(예: 외부 전자 장치(102), 주변 전자 장치)와의 통신을 위한 통신 모듈을 포함할 수 있다.Referring to FIG. 1 , the
전자 장치(101)는 통신 모듈을 통해, 외부 전자 장치(102)(예: 오디오 장치(audio device), 및/또는 무선 이어폰(wireless ear phone))와 작동적으로 연결될 수 있다. 예를 들어, 전자 장치(101)는 외부 전자 장치인 오디오 장치(102)와 연동될 수 있으며, 사용자에게 오디오 서비스를 제공하기 위한 셋팅(setting)(예: 환경 설정, 오디오 서비스와 관련된 입출력 설정)을 수행할 수 있다. 오디오 장치(102)는 사용자의 인체 일부(예: 귀)에 착용되는 웨어러블 전자 장치일 수 있으며, 착용 시, 귓 속(예: 외이도)으로 오디오 신호를 출력할 수 있다. 오디오 장치(102)는 외부 오디오 신호를 수신하기 위한 마이크 및 오디오 신호를 출력하기 위한 스피커를 포함할 수 있다.The
전자 장치(101) 및 오디오 장치(102)는 통신 연결(예: Bluetooth, WiFi)을 통해 상호 간에 연동될 수 있고, 사용자에게 최적의 오디오 서비스를 제공하기 위한 셋팅을 필요로 할 수 있다. 예를 들어, 오디오 신호를 출력할 때, 전자 장치(101)는 전자 장치(101) 및 오디오 장치(102) 중 적어도 하나의 장치를 선택할 수 있고, 선택된 장치를 통해, 단독으로 오디오 신호를 출력하거나, 또는 전자 장치(101)와 오디오 장치(102)가 동시에 오디오 신호를 출력할 수 있다. 또한, 외부 오디오 신호를 수신할 때, 전자 장치(101)는 전자 장치(101)의 마이크(예: 제 1 마이크) 및/또는 오디오 장치(102)의 마이크(예: 제 2 마이크) 중 어느 마이크를 사용할지를 결정할 수 있다.The
일 실시예에 따르면, 전자 장치(101)는 외부 전자 장치(예: 오디오 장치(102), 주변 전자 장치)와 작동적으로 연결(예: 무선 통신 연결)될 때, 사용자에게 향상된 오디오 서비스를 제공하기 위해, 오디오 모듈(예: 마이크, 스피커)과 관련된 환경 설정을 수행할 수 있다.According to an embodiment, when the
도 2는 본 발명의 다양한 실시예에 따른 적어도 하나의 마이크(microphone)가 포함된 전자 장치(예: 도 1의 전자 장치(101), 웨어러블 장치(wearable device), 및/또는 웨어러블 안경(wearable glasses))의 전체 구성도이다.FIG. 2 illustrates an electronic device including at least one microphone according to various embodiments of the present disclosure (eg, the
도 2를 참조하면, 다양한 실시예에서, 전자 장치(101)는 사용자의 머리 부분에 착용되어, 사용자에게 증강 현실 서비스와 관련된 영상을 제공하는 형태로 제작된 전자 장치(101)일 수 있다. 예를 들어, 전자 장치(101)는 안경(glasses), 고글(goggles), 헬멧 및/또는 모자 중 적어도 하나의 형태로 구현될 수 있으나, 이에 한정되지는 않는다.Referring to FIG. 2 , in various embodiments, the
일 실시예에 따르면, 전자 장치(101)는 사용자의 시야각(FoV, field of view)으로 판단되는 영역을 기반으로 적어도 하나의 가상 객체가 겹쳐 보이도록 출력하는 증강 현실 서비스(augmented reality; AR)와 관련된 영상을 제공할 수 있다. 예를 들어, 사용자의 시야각으로 판단되는 영역은 전자 장치(101)를 착용한 사용자가 전자 장치(101)를 통해 인지할 수 있다고 판단되는 영역으로, 전자 장치(101)의 디스플레이 모듈(예: 도 3의 디스플레이 모듈(160))의 전체 또는 적어도 일부를 포함할 수 있다. 일 실시예에 따르면, 전자 장치(101)는 사용자의 양안(예: 좌안 및/또는 우안), 각각에 대응하는 복수 개의 투명 부재(예: 제 1 투명 부재(220) 및/또는 제 2 투명 부재(230))를 포함할 수 있다. 복수 개의 투명 부재는 디스플레이 모듈(예: 도 3의 디스플레이 모듈(160))의 적어도 일부를 포함할 수 있다. 예를 들어, 사용자의 좌안에 대응되는 제 1 투명 부재(220)에는 제 1 디스플레이 모듈이 포함되고, 사용자의 우안에 대응되는 제 2 투명 부재(230)에는 제 2 디스플레이 모듈이 포함될 수 있다. 제 1 디스플레이 모듈 및 제 2 디스플레이 모듈은 실질적으로 동일하게 구성되며, 전자 장치(101)의 디스플레이 모듈에 포함될 수 있다.According to an embodiment, the
도 2를 참조하면, 전자 장치(101)는 적어도 하나의 투명 부재(예: 제 1 투명 부재(220), 제 2 투명 부재(230)), 적어도 하나의 디스플레이 모듈(예: 제 1 디스플레이 모듈(214-1), 제 2 디스플레이 모듈(214-2)), 카메라 모듈(예: 촬영용 카메라(213), 동공 추적 카메라(212), 인식용 카메라(211-1, 211-2), 도 3의 카메라 모듈(180)), 오디오 모듈(예: 스피커, 마이크, 도 3의 오디오 모듈(170)), 제 1 지지부(221), 및/또는 제 2 지지부(222)를 포함할 수 있다. 일 실시예에 따르면, 카메라 모듈(180)은 사용자의 시야각(FoV, field of view)에 대응되는 영상을 촬영하거나 및/또는 객체와의 거리를 측정하기 위한 촬영용 카메라(213), 사용자가 바라보는 시선의 방향을 확인하기 위한 동공 추적 카메라(eye tracking camera)(212), 및/또는 일정 공간을 인식하기 위한 인식용 카메라(gesture camera)(211-1, 211-2)를 포함할 수 있다. 일 실시예에 따르면, 제 1 지지부(221) 및/또는 제 2 지지부(222)는 적어도 부분적으로 인쇄 회로 기판(PCB, printed circuit board)(231-1, 231-2), 스피커(speaker)(232-1, 232-2), 마이크(microphone)(241-1, 241-2, 241-3, 241-4) 및/또는 배터리(233-1, 233-2)를 포함할 수 있다.Referring to FIG. 2 , the
도 2를 참조하면, 전자 장치(101)는 본체부(223), 지지부(예: 제 1 지지부(221), 및/또는 제 2 지지부(222)), 및/또는 힌지부(예: 제1 힌지부(240-1), 제2 힌지부(240-2))로 구성될 수 있고, 본체부(223)와 지지부(221, 222)는 힌지부(240-1, 240-2)를 통해 작동적으로 연결될 수 있다. 본체부(223)는 제 1 투명 부재(220), 제 2 투명 부재(230) 및/또는 적어도 하나의 카메라(예: 인식용 카메라(211-1, 211-2), 동공 추적 카메라(212), 촬영용 카메라(213))를 포함할 수 있다. 본체부(223)는 사용자의 코에 적어도 부분적으로 거치될 수 있고, 디스플레이 모듈(예: 도 3의 디스플레이 모듈(160)) 및 카메라 모듈(예: 도 3의 카메라 모듈(180))을 적어도 부분적으로 포함할 수 있다. 지지부(221, 222)는 사용자의 귀에 거치되는 지지 부재를 포함하고, 왼쪽 귀에 거치되는 제 1 지지부(221) 및/또는 오른쪽 귀에 거치되는 제 2 지지부(222)를 포함할 수 있다. 일 실시예에 따르면, 제 1 지지부(221) 또는 제 2 지지부(222)는 적어도 부분적으로 배터리(예: 제 1 배터리(233-1), 및/또는 제 2 배터리(233-2))를 포함할 수 있다. 배터리(233-1, 233-2)는 전력 관리 모듈과 전기적으로 연결될 수 있다. 일 실시예에 따르면, 제 1 배터리(233-1)는 제 1 배터리(233-1)로부터 방전되는 전류를 적어도 부분적으로 제어하기 위한 제 1 전류 제어 모듈에 전기적으로 연결될 수 있다. 제 2 배터리(233-2)는 제 2 배터리(233-2)로부터 방전되는 전류를 적어도 부분적으로 제어하기 위한 제 2 전류 제어 모듈에 전기적으로 연결될 수 있다. 일 실시예에 따르면, 전자 장치(101)는 복수 개의 배터리(233-1, 233-2), 각각에 대응되는 제 1 전류 제어 모듈 및/또는 제 2 전류 제어 모듈을 포함할 수 있다. 예를 들어, 복수 개의 전류 제어 모듈은 복수 개의 인쇄 회로 기판(231-1, 231-2)에 개별적으로 배치될 수 있고, 복수 개의 배터리로부터 방전되는 전류를 적어도 부분적으로 제어할 수 있다.Referring to FIG. 2 , the
일 실시예에 따르면, 제 1 힌지부(240-1)는 제 1 지지부(221)가 본체부(223)에 대해 회전 가능하도록 제 1 지지부(221)와 본체부(223)를 연결할 수 있다. 제 2 힌지부(240-2)는 제 2 지지부(222)가 본체부(223)에 대해 회전 가능하도록 제 2 지지부(222)와 본체부(223)를 연결할 수 있다. 다른 실시예에 따르면, 전자 장치(101)의 힌지부(240-1, 240-2)는 생략될 수도 있으며, 본체부(223)와 지지부(221, 222)는 직접적으로 연결될 수도 있다.According to one embodiment, the first hinge part 240 - 1 may connect the
도 2의 전자 장치(101)는 디스플레이 모듈(214-1, 214-2)에서 생성된 광이 투명 부재(예: 제 1 투명 부재(220), 제 2 투명 부재(230))에 투영되어 정보를 표시할 수 있다. 예를 들어, 제1 디스플레이 모듈(214-1)에서 생성된 광은 제1 투명 부재(220)에 투영될 수 있고, 제2 디스플레이 모듈(214-2)에서 생성된 광은 제2 투명 부재(230)에 투영될 수 있다. 적어도 일부가 투명한 소재로 형성된 투명 부재(220, 230)에 가상 객체를 표시할 수 있는 광이 투영됨으로써, 사용자는 가상 객체가 중첩된 현실을 인지할 수 있다. 전자 장치(101)의 디스플레이 모듈(160)은 디스플레이 모듈(214-1, 214-2) 및 투명 부재(220, 230)를 포함하는 것으로 이해될 수 있다. 다만, 본 발명에서 설명되는 전자 장치(101)가 앞서 설명한 방식을 통해 정보를 표시하는 것으로 한정되는 것은 아니다. 전자 장치(101)에 포함될 수 있는 디스플레이 모듈은 다양한 방식의 정보 표시 방법을 포함하는 디스플레이 모듈로 변경될 수 있다. 예를 들어, 투명 부재(220, 230) 자체에 투명 소재의 발광 소자를 포함하는 디스플레이 패널이 내장된 경우에는 별도의 디스플레이 모듈(예: 제1 디스플레이 모듈(214-1), 제2 디스플레이 모듈(214-2))없이 정보를 표시할 수도 있다. 이 경우, 디스플레이 모듈(160)은 투명 부재(220, 230)와 투명 부재(220, 230)를 포함되는 디스플레이 패널을 의미할 수 있다.In the
일 실시예에 따르면, 디스플레이 모듈(214-1, 214-2)을 통해 출력되는 가상 객체는 전자 장치(101)에서 실행되는 어플리케이션 프로그램과 관련된 정보 및/또는 사용자가 투명 부재(220, 230)를 통해 인지하는 실제 공간에 위치한 외부 객체와 관련된 정보를 포함할 수 있다. 외부 객체는 실제 공간에 존재하는 사물을 포함할 수 있다. 사용자가 투명 부재(220, 230)를 통해 인지하는 실제 공간을 이하에서는 사용자의 시야각(field of view; FoV) 영역으로 호칭하기로 한다. 예를 들어, 전자 장치(200)는 전자 장치(200)의 카메라 모듈(예: 촬영용 카메라 모듈(213))을 통해 획득한 실제 공간과 관련된 영상 정보에서 사용자의 시야각(FoV)으로 판단되는 영역의 적어도 일부에 포함된 외부 객체를 확인할 수 있다. 전자 장치(200)는 확인한 외부 객체와 관련된 가상 객체를 디스플레이 모듈(214-1, 214-2)을 통해 출력할 수 있다.According to an embodiment, the virtual object output through the display modules 214-1 and 214-2 is information related to an application program running on the
일 실시예에 따르면, 디스플레이 모듈(160)은 제 1 투명 부재(220) 및 제 2 투명 부재(230)를 포함하고, 상기 제 1 투명 부재(220) 및 상기 제 2 투명 부재(230)를 통해 사용자에게 시각적인 정보를 제공할 수 있다. 전자 장치(101)는 좌안에 대응하는 제 1 투명 부재(220) 및/또는 우안에 대응하는 제 2 투명 부재(230)를 포함할 수 있다. 일 실시예에 따르면, 디스플레이 모듈(160)은 디스플레이 패널, 보호 패널(예: 보호 레이어(layer)) 및/또는 렌즈를 포함할 수 있다. 예를 들어, 디스플레이 패널은 유리 또는 플라스틱과 같은 투명한 재질을 포함할 수 있다.According to one embodiment, the
일 실시예에 따르면, 투명 부재(예: 제 1 투명 부재(220) 및 제 2 투명 부재(230))는 집광 렌즈(미도시) 및/또는 도파관(미도시)(예: 가상 객체의 표시를 위한 도파관(예: RGB 도파관), 및/또는, IR(infrared ray, 적외선) 광의 전달을 위한 도파관(예: IR 도파관)을 포함하고 가상 객체가 표시되는 표시 영역(예: 표시 영역(220-1) 및/또는 표시 영역(230-1))을 포함할 수 있다. 예를 들어, 표시 영역(220-1)은 제1 투명 부재(220)에 부분적으로 위치할 수 있고, 표시 영역(230-1)은 제2 투명 부재(230)에 부분적으로 위치할 수 있다. 일 실시예에 따르면, 디스플레이 모듈(214-1, 214-2)에서 방출된 광은 투명 부재(220, 230)에 포함된 표시 영역(220-1, 230-1)의 일면으로 입사될 수 있다. 투명 부재(220, 230)에 포함된 표시 영역(220-1, 230-1)의 일면으로 입사된 광은 표시 영역(220-1, 230-1)내에 위치한 도파관(미도시)을 통해 사용자에게 전달될 수 있다. 예를 들어, 표시 영역(220-1, 230-1)에 포함된 도파관은 글래스, 플라스틱, 또는 폴리머로 제작될 수 있으며, 내부 또는 외부의 일표면에 형성된 나노 패턴을 포함할 수 있다. 예를 들어, 나노 패턴은 다각형 또는 곡면 형상의 격자 구조(grating structure)를 포함할 수 있다. 일 실시예에 따르면, 투명 부재(220, 230)에 포함된 표시 영역(220-1, 230-1)의 일면으로 입사된 광은 나노 패턴에 의해 도파관 내부에서 전파 또는 반사되어 사용자에게 전달될 수 있다. 일 실시예에 따르면, 표시 영역(220-1, 230-1)에 포함된 도파관은 적어도 하나의 회절 요소(예: DOE(diffractive optical element), HOE(holographic optical element)) 또는 반사 요소(예: 반사 거울) 중 적어도 하나를 포함할 수 있다. 일 실시예에 따르면, 표시 영역(220-1, 230-1)에 포함된 도파관은 적어도 하나의 회절 요소 또는 반사 요소를 이용하여 디스플레이 모듈(214-1, 214-2)로부터 방출된 광을 사용자의 눈동자로 유도할 수 있다.According to an embodiment, the transparent member (eg, the first
일 실시예에 따르면, 디스플레이 모듈(160)에 포함된 제 1 투명 부재(220) 및/또는 제 2 투명 부재(230)는 제 1 표시 영역 및 제 2 표시 영역으로 구분될 수 있다. 예를 들어, 제 1 표시 영역은 사용자에게 증강 현실 서비스가 제공되는 영역으로 정의될 수 있고, 표시 영역(220-1, 230-1)을 포함할 수 있다. 제 2 표시 영역은 적어도 하나의 투명 부재(220, 230)에 포함되고, 상기 제 1 표시 영역(예: 표시 영역(220-1, 230-1))을 제외한 나머지 영역으로 정의될 수 있다. 일 실시예에 따르면, 사용자는 제 1 표시 영역 및 제 2 표시 영역을 기반으로, 증강 현실 서비스에 의해 생성된 가상 객체 및 실제 객체를 볼 수 있다.According to an embodiment, the first
일 실시예에 따르면, 전자 장치(101)는 제 1 지지부(221)에 포함된 제 1 배터리(233-1) 및 제 2 지지부(222)에 포함된 제 2 배터리(233-2)를 사용하여, 제 1 표시 영역(예: 표시 영역(220-1, 230-1))에 대한 증강 현실 서비스를 제공할 수 있다. 전자 장치(101)는 제 1 배터리(233-1) 및 제 2 배터리(233-2)로부터 방전되는 전류량을 통합하여, 증강 현실 서비스를 제공할 수 있다. 다른 실시예에 따르면, 전자 장치(101)는 제 1 배터리(233-1)로부터 방전되는 제 1 전류 및 제 2 배터리(233-2)로부터 방전되는 제 2 전류를 각각 독립적으로 운용할 수도 있다. 예를 들어, 전자 장치(101)는 개별적으로 제 1 전류를 기반으로 좌측 표시 영역(220-1)에 대한 증강 현실 서비스를 제공하고, 제 2 전류를 기반으로 우측 표시 영역(230-1)에 대한 증강 현실 서비스를 제공할 수도 있다.According to an embodiment, the
일 실시예에 따르면, 도파관(waveguide)은 제 1 표시 영역을 기반으로, 증강 현실 서비스에 따른 가상 객체를 표시하기 위한 도파관(예: RGB 도파관) 및 제 2 표시 영역을 기반으로, IR광(예: 적외선)을 전달하기 위한 도파관(예: IR 도파관)으로 구분될 수 있다. 일 실시예에 따르면, 전자 장치(101)는 제 1 표시 영역에 배치되는 도파관을 통해, 사용자에게 가상 객체를 제공할 수 있다. 예를 들어, 제 1 표시 영역은 가상 객체가 표시되는 영역일 수 있다. 일 실시예에 따르면, 전자 장치(101)는 제 2 표시 영역에 배치되는 도파관을 통해, 사용자의 시선을 추적할 수 있다. 예를 들어, 제 2 표시 영역은 가상 객체가 표시되지 않는 영역으로, 실제 객체가 표시될 수 있다. According to an embodiment, a waveguide (eg, an RGB waveguide) for displaying a virtual object according to an augmented reality service based on a first display area and an IR light (eg, an IR light) based on a second display area. : Infrared) can be divided into waveguides for transmitting (e.g. IR waveguides). According to an embodiment, the
일 실시예에 따르면, 제 1 표시 영역(예: 표시 영역(220-1, 230-1))은 투명 부재(220, 230)의 적어도 일부에 위치하는 도파관(예: RGB 도파관)을 통해, 방출된 광을 기반으로, 증강 현실 서비스와 관련된 적어도 하나의 객체가 표시되는 영역일 수 있다. According to an embodiment, the first display area (eg, the display areas 220-1 and 230-1) emits light through a waveguide (eg, an RGB waveguide) positioned on at least a part of the
일 실시예에 따르면, 광원 모듈(미도시)로부터 생성된 광이 제 2 표시 영역에 위치하는 도파관(예: IR 도파관)에 형성된 패턴에 의해 반사되어, 사용자의 눈동자에서 반사되더라도, 실질적으로 사용자는 상기 방출된 광을 감지하지 못할 수 있다. 광원 모듈(310)로부터 방출된 광(예: 적외선, IR 광)은 제 2 표시 영역에 배치된 도파관(미도시)을 기반으로, 사용자의 눈동자에 전달되므로, 사용자는 상기 광이 전달되는 상황을 감지할 수 없다. 일 실시예에 따르면, 전자 장치(101)는 사용자의 눈동자로 전달된 광을 기반으로, 사용자의 눈동자의 움직임(예: 시선)을 감지할 수 있다.According to an embodiment, even if the light generated from the light source module (not shown) is reflected by a pattern formed on a waveguide (eg, an IR waveguide) located in the second display area and reflected from the user's pupil, substantially the user The emitted light may not be detected. Since the light emitted from the light source module 310 (eg, infrared light, IR light) is transmitted to the user's pupil based on a waveguide (not shown) disposed in the second display area, the user can monitor the transmission of the light. Undetectable. According to an embodiment, the
다른 실시예에 따르면, 제 1 투명 부재(220) 및/또는 제 2 투명 부재(230)는 투명 소자로 구성될 수 있고, 사용자가 제 1 투명 부재(220) 및/또는 제 2 투명 부재(230)를 통해, 후면의 실제 공간을 인지할 수 있다. 제 1 투명 부재(220) 및/또는 제 2 투명 부재(230)는 사용자에게 실제 공간의 적어도 일부에 가상 객체가 덧붙여진 것으로 보여지도록 투명 소자의 적어도 일부 영역(예: 표시 영역(220-1, 230-1))에 가상 객체를 표시할 수 있다. 제 1 투명 부재(220) 및/또는 제 2 투명 부재(230)는 사용자의 양안(예: 좌안(left eye) 및/또는 우안(right eye)), 각각에 대응하여, 복수의 패널을 포함할 수 있다. 다른 실시예에 따르면, 제 1 투명 부재(220) 및/또는 제 2 투명 부재(230)가 투명 uLED인 경우 투명 부재 내에 도파관 구성이 생략될 수도 있다. 일 실시예에 따르면, 전자 장치(101)는 VR(virtual reality) 장치(예: 가상 현실 장치)를 포함할 수 있다. According to another embodiment, the first
도 2를 참조하면, 제 1 지지부(221) 및/또는 제 2 지지부(222)는 전자 장치(101)의 각 구성요소에 전기적 신호를 전달하기 위한 인쇄 회로 기판(231-1, 231-2), 오디오 신호를 출력하기 위한 스피커(예: 제 1 스피커(232-1), 제 2 스피커(232-2)), 배터리(233-1, 233-2) 및/또는 전자 장치(101)의 본체부(223)에 적어도 부분적으로 결합하기 위한 힌지부(240-1, 240-2)를 포함할 수 있다. 일 실시예에 따르면, 스피커(232-1, 232-2)는 사용자의 좌측 귀에 오디오 신호를 전달하기 위한 제 1 스피커(232-1) 및 사용자의 우측 귀에 오디오 신호를 전달하기 위한 제 2 스피커(232-2)를 포함할 수 있다. 일 실시예에 따르면, 전자 장치(101)는 복수 개의 배터리(예: 제 1 배터리(233-1) 및/또는 제 2 배터리(233-2))가 구비될 수 있고, 전력 관리 모듈을 통해, 인쇄 회로 기판(예: 제 1 인쇄 회로 기판(231-1) 및/또는 제 2 인쇄 회로 기판(231-2))에 전력을 공급할 수 있다. 일 실시예에 따르면, 전자 장치(101)는 제 1 배터리(233-1)로부터 방전되는 제 1 전류를 제어하기 위한 제 1 전류 제어 모듈 및/또는 제 2 배터리(233-2)로부터 방전되는 제 2 전류를 제어하기 위한 제 2 전류 제어 모듈을 포함할 수 있다. 예를 들어, 제 1 전류 제어 모듈은 제 1 인쇄 회로 기판(231-1)에 배치될 수 있고, 제 1 배터리(233-1)에 전기적으로 연결될 수 있다. 제 2 전류 제어 모듈은 제 2 인쇄 회로 기판(231-2)에 배치될 수 있고, 제 2 배터리(233-2)에 전기적으로 연결될 수 있다.Referring to FIG. 2 , the
도 2를 참조하면, 전자 장치(101)는 사용자의 음성 및 주변 소리를 수신하기 위한 적어도 하나의 마이크(microphone)(241-1, 241-2, 241-3, 241-4)를 포함할 수 있다. 예를 들어, 마이크(241-1, 241-2, 241-3, 241-4)는 도 3의 오디오 모듈(170)에 포함될 수 있다. 마이크는 제 1 지지부(221)에 포함된 제 1 마이크(241-1, 241-2) 및 제2 지지부(222)에 포함된 제 2 마이크(241-3, 241-4)로 구분될 수 있다. Referring to FIG. 2 , the
일 실시예에 따르면, 전자 장치(101)는 주변 밝기를 확인하기 위한 조도 센서(242-1, 242-2)를 포함할 수 있다. 전자 장치(101)는 오브젝트(예: 주변에 위치한 피사체)에 대한 근접 여부를 감지하기 위한 근접 센서를 포함할 수 있다. 다른 예를 들어, 전자 장치(101)는 오브젝트와의 거리 감지가 가능한 카메라 모듈(예: 촬영용 카메라(213))을 근접 센서로 활용할 수도 있다. 도시하지 않았지만, 전자 장치(101)는 사용자의 머리 움직임을 감지하기 위한 적어도 하나의 모션 센서(예: 자이로 센서 및/또는 가속도 센서)를 포함할 수 있다. 전자 장치(101)는 적어도 하나의 모션 센서를 사용하여, 머리의 이동 방향 및/또는 움직임을 확인할 수 있다.According to an embodiment, the
도 3은 본 발명의 다양한 실시예에 따른 전자 장치 및 외부 전자 장치의 블록도이다.3 is a block diagram of an electronic device and an external electronic device according to various embodiments of the present disclosure.
도 3의 전자 장치(예: 도 1의 전자 장치(101))는 도 2의 전자 장치(101)(예: AR 장치, 웨어러블 전자 장치)와 적어도 일부 유사하거나, 전자 장치(101)의 다른 실시예들을 더 포함할 수 있다. 도 3의 외부 전자 장치(301)는 도 1의 오디오 장치(102)와 적어도 일부 유사하거나, 오디오 장치(102)의 다른 실시예들을 더 포함할 수 있다.The electronic device of FIG. 3 (eg, the
일 실시예에 따르면, 전자 장치(101)는 사용자의 머리 부분에 착용되어, 증강 현실 서비스를 제공하는 AR(augmented reality) 전자 장치를 포함할 수 있다. 예를 들어, 전자 장치(101)는 안경(glasses), 고글(goggles), 헬멧 및/또는 모자 중 적어도 하나의 형태로 구성될 수 있으나, 이에 한정되지는 않는다. 일 실시예에 따르면, 외부 전자 장치(301)는 인체의 일부(예: 귀)에 착용되는 웨어러블 전자 장치를 포함할 수 있다. 일 실시예에 따르면, 전자 장치(101)는 외부 전자 장치(301)가 인체의 일부(예: 귀)에 착용되는 상황에 응답하여, 외부 전자 장치(301)와 작동적으로 연결(예: 무선 통신 연결)될 수 있고, 외부 전자 장치(301)를 적어도 부분적으로 제어할 수 있다. 예를 들어, 외부 전자 장치(301)의 센서 모듈(376)(예: 모션 센서(377), 근접 센서)을 통해, 외부 전자 장치(301)가 인체의 일부에 착용이 완료되었음이 확인되면, 전자 장치(101)는 오디오 모듈(170)에 포함된 제 1 마이크(171)(예: 제 1-1 마이크(171-1) 및/또는 제 1-2 마이크(171-2)) 및 착용이 완료된 외부 전자 장치(301)의 오디오 모듈(370)에 포함된 제 2 마이크(371)(예: 제 2-1 마이크(371-1) 및/또는 제 2-2 마이크(371-2)) 중 적어도 하나의 마이크를 선택할 수 있다. 예를 들어, 전자 장치(101)는 오디오 신호를 생성하는 오브젝트의 위치를 기준으로, 상대적으로 가깝게 배치된, 적어도 하나의 마이크를 선택할 수 있다. 전자 장치(101)는 선택된 적어도 하나의 마이크를 기반으로 빔포밍 동작을 수행할 수 있다. 예를 들어, 빔포밍 동작은 전자 장치(101)에 의해 선택된 적어도 하나의 마이크를 이용하여 오디오 신호를 수신하는 경우, 수신되는 오디오 채널 및/또는, 오디오 신호가 발생한 방향(예: 오브젝트(피사체)가 위치한 방향, 오브젝트의 위치)에 가중치를 부여하는 동작을 포함할 수 있다. 전자 장치(101)는 빔포밍 동작의 수행 시, 선택된 적어도 하나의 마이크의 하드웨어 설정을 변경하거나, 및/또는, 소프트웨어(예: 명령어)를 이용하여 선택된 적어도 하나의 마이크의 설정 정보를 변경할 수 있다. 빔포밍 동작의 수행 시, 전자 장치(101)는 선택된 적어도 하나의 마이크를 사용하여, 특정 채널 및/또는 특정 방향에 대응되는 오디오 신호를 획득할 수 있다. 전자 장치(101)는 빔포밍 동작에 따른 향상된 오디오 서비스를 사용자에게 제공할 수 있다. 일 실시예에 따르면, 전자 장치(101)는 빔포밍 동작에 따른, 적어도 하나의 마이크의 설정 정보(예: 마이크에 대한 오디오 수신 gain값)를 변경할 수 있고, 상기 설정 정보가 변경된 적어도 하나의 마이크를 사용하여, 외부의 오디오 신호(예: 오브젝트(피사체)로부터 생성된 오디오 신호)를 획득할 수 있다.According to an embodiment, the
일 실시예에 따르면, 전자 장치(101)는 복수 개의 마이크들(예: 전자 장치(101)의 제 1 마이크(171)(예: 제 1-1 마이크(171-1) 및/또는 제 1-2 마이크(171-2)) 및/또는 외부 전자 장치(301)의 제 2 마이크(371)(예: 제 2-1 마이크(371-1) 및/또는 제 2-2 마이크(371-2)) 중에서, 빔포밍 동작에 따른 적어도 하나의 마이크를 선별할 수 있다. 전자 장치(101)는 상기 선별된 적어도 하나의 마이크에 대한 설정 정보를 변경할 수 있고, 상기 설정 정보가 변경된 적어도 하나의 마이크를 사용하여 오디오 신호를 획득할 수 있다. 일 실시예에 따르면, 전자 장치(101)는 사용자에게 향상된 오디오 서비스를 제공하기 위해 적어도 하나의 마이크를 선별할 수 있고, 선별된 적어도 하나의 마이크를 사용하여, 오디오 신호를 획득할 수 있다. 예를 들어, 오디오 서비스는 획득된 오디오 신호를 처리하여 미디어 데이터로 변환하고, 변환된 미디어 데이터(예: 녹음 및/또는 통화를 위한 음성 데이터)를 메모리(130)에 적어도 일시적으로 저장하는 동작을 포함할 수 있다.According to an embodiment, the
도 3을 참조하면, 전자 장치(101)는 프로세서(120), 메모리(130), 디스플레이 모듈(160), 오디오 모듈(170), 센서 모듈(176), 카메라 모듈(180), 및/또는 통신 모듈(190)을 포함할 수 있다. 외부 전자 장치(301)는 프로세서(320), 오디오 모듈(370), 센서 모듈(376), 및/또는 통신 모듈(390)을 포함할 수 있다.Referring to FIG. 3 , the
일 실시예에 따르면, 전자 장치(101)의 프로세서(120)는 메모리(130)에 저장된 프로그램(예: 도 1의 프로그램(140))을 실행하여, 적어도 하나의 다른 구성 요소(예: 하드웨어 또는 소프트웨어 구성 요소)를 제어할 수 있고, 다양한 데이터 처리 및/또는 연산을 수행할 수 있다. 예를 들어, 프로세서(120)는 메모리(130)에 저장된 오디오 모듈(170)에 대한 설정 정보(예: 마이크에 대한 오디오 수신 gain값 및/또는 스피커에 대한 오디오 출력값)를 기반으로, 오디오 모듈(170)에 포함된 제 1 마이크(171)(예: 제 1-1 마이크(171-1) 및/또는 제 1-2 마이크(171-2)) 및 스피커(173)에 대한 셋팅을 수행할 수 있다. 프로세서(120)는 카메라 모듈(180)에 포함된 동공 추적 카메라(181)(예: 도 2의 동공 추적 카메라(212))를 사용하여, 동공에 대한 움직임 및 시선 방향을 추적할 수 있고, 추적된 정보에 기초하여, 오브젝트(예: 피사체)의 위치를 확인할 수 있다. 프로세서(120)는 확인된 오브젝트의 위치에 기반하여 빔포밍 동작을 수행할 수 있고, 빔포밍 동작에 따른, 오디오 모듈(170)에 대한 설정 정보(예: 오디오 수신 gain값)를 변경할 수 있다. According to an embodiment, the processor 120 of the
일 실시예에 따르면, 전자 장치(101)는 통신 모듈(190)을 통해, 외부 전자 장치(301)(예: 웨어러블 전자 장치, 무선 이어폰)와 무선 통신을 수행할 수 있고, 외부 전자 장치(301)의 오디오 모듈(370)에 대한 설정 정보를 조정할 수 있다. 예를 들어, 전자 장치(101)는 외부 전자 장치(301)의 오디오 모듈(371)에 포함된 제2 마이크(371)(예: 제 2-1 마이크(371-1) 및/또는 제 2-2 마이크(371-2))에 대한 셋팅을 수행할 수 있다. 전자 장치(101)는 전자 장치(101)에 대한 사용자 정보, 환경 정보 및/또는 외부 오디오 신호에 대한 정보(예: 오디오 신호가 발생된 위치(예: 오브젝트(피사체)의 위치) 및/또는 영역에 대한 정보) 중 적어도 일부에 기반하여, 오디오 모듈(370)에 대한 설정 정보(예: 오디오 수신 gain값)를 조정할 수 있다.According to an embodiment, the
메모리(130)는 오디오 모듈(170)에 포함된 제 1 마이크(171) 및/또는 스피커(173)에 대한 설정 정보(예: 제 1 마이크(171) 및/또는 스피커(173)에 대한 최초 설정 정보(예: default 값, 마이크의 수신 gain 값, 및/또는 스피커의 오디오 출력값)를 저장할 수 있다. 예를 들어, 프로세서(120)는 오디오 모듈(170)이 활성화되는 경우, 메모리(130)에 저장된 설정 정보를 기반으로, 오디오 모듈(170)에 대한 셋팅을 수행할 수 있다. 일 실시예에 따르면, 설정 정보는 제 1 마이크(171)(예: 제 1-1 마이크(171-1) 및/또는 제 1-2 마이크(171-2))에 대한 위치 정보와 빔포밍할 대상인 오브젝트의 상대적인 위치 정보(예: 카메라 모듈(180)을 통해 확인된 오브젝트의 위치 정보)를 기반으로 결정된 제 1 마이크(171)에 대한 설정 정보(예: 오디오 수신 gain값)를 포함할 수 있다. 예를 들어, 설정 정보는 제 1 마이크(171)를 사용하여 오디오 신호를 획득할 때, 제 1 마이크(171)에 대한 오디오 설정값(예: 수신 gain값)을 포함할 수 있다. 설정 정보는 적어도 하나의 마이크(예: 제 1 마이크(171))와 오브젝트 간의 상대적인 배치 위치에 따라, 결정된 테스트 데이터(예: 빔포밍 파라미터)를 포함하고, 테이블 형태로 메모리(130)에 미리 저장될 수 있다.The
일 실시예에 따르면, 메모리(130)는 외부 전자 장치(301)(예: 도 1의 오디오 장치(102), 무선 이어폰)에 대한 타입(type) 정보(예: 모델명, 모델 정보, 제품 정보) 및/또는 외부 전자 장치(301)에 포함된 오디오 모듈(370)과 관련된 정보(예: 제 2 마이크(371)(예: 제 2-1 마이크(371-1) 및/또는 제 2-2 마이크(371-2))에 대한 설정 정보)를 저장할 수 있다. 일 실시예에 따르면, 프로세서(120)는 외부 전자 장치(301)와 무선 통신을 하는 경우, 메모리(130)에 저장된 외부 전자 장치(301)에 대한 타입 정보를 확인할 수 있고, 확인된 타입 정보를 기반으로 외부 전자 장치(301)에 실장된 마이크(예: 제 2 마이크(371))의 위치를 확인할 수 있다.According to an embodiment, the
프로세서(120)는 전자 장치(101)의 오디오 모듈(170)에 포함된 제 1 마이크(171)(예: 제 1-1 마이크(171-1) 및/또는 제 1-2 마이크(171-2)) 및/또는 외부 전자 장치(301)의 오디오 모듈(370)에 포함된 제 2 마이크(371)(예: 제 2-1 마이크(371-1) 및/또는 제 2-2 마이크(371-2)) 중에서 적어도 하나의 마이크를 선택할 수 있고, 선택된 적어도 하나의 마이크를 사용하여, 오디오 신호를 획득할 수 있다. 프로세서(120)는 획득된 오디오 신호를 기반으로 사용자에게 오디오 서비스(예: 오디오 신호 출력, 오디오 신호 수신 및/또는 녹음)를 제공할 수 있다. 일 실시예에 따르면, 전자 장치(101)는 복수 개의 마이크들 중에서 적어도 하나의 마이크를 선별할 수 있고, 선별된 적어도 하나의 마이크에 대한 빔포밍 동작을 수행할 수 있다. 전자 장치(101)는 빔포밍 동작에 따른 향상된 오디오 서비스를 사용자에게 제공할 수 있다.The processor 120 includes a
디스플레이 모듈(160)은 사용자에게 시각적인 정보(예: GUI(graphical user interface))를 표시하는 구성부로서, 좌안에 대응되는 제 1 투명 부재(예: 도 2의 제 1 투명 부재(220)) 및 우안에 대응되는 제 2 투명 부재(예: 도 2의 제 2 투명 부재(230))를 포함할 수 있다. 일 실시예에 따르면, 프로세서(120)는 디스플레이 모듈(160)을 통해, 오디오 설정과 관련된 정보를 사용자에게 제공할 수 있다. 예를 들어, 전자 장치(101)가 외부 전자 장치(301)와 작동적으로 연결되는 경우, 전자 장치(101)는 디스플레이 모듈(160)을 통해, 외부 전자 장치(301)와 관련된 다양한 정보(예: 외부 전자 장치의 모델명, 모델 정보, 및/또는 제품 정보)를 표시할 수 있다. 전자 장치(101)는 외부 전자 장치(301)가 인체 일부(예: 귀)로부터 탈착되는 상황을 확인할 수 있고, 디스플레이 모듈(160)을 통해, 상기 외부 전자 장치(301)에 대한 탈착 관련 정보(예: 탈착 알림 메시지)를 표시할 수 있다. 예를 들어, 외부 전자 장치(301)는 센서 모듈(376)(예: 모션 센서(377), 근접 센서(미도시)) 중 적어도 일부를 사용하여, 외부 전자 장치(301)가 인체로부터 탈착되었음을 감지할 수 있고, 탈착 신호를 전자 장치(101)에 전송할 수 있다. 전자 장치(101)는 외부 전자 장치(301)로부터 탈착 신호가 수신되는 경우, 디스플레이 모듈(160)을 통해, 외부 전자 장치(301)가 인체 일부로부터 탈착되었음을 알리는 탈착 알림 메시지를 표시할 수 있다.The
오디오 모듈(170)은 외부의 오디오 신호를 수신하기 위한 제 1 마이크(171)(예: 제 1-1 마이크(171-1) 및/또는 제 1-2 마이크(171-2)) 및 오디오 신호를 외부 환경으로 출력하기 위한 스피커(미도시)를 포함할 수 있다. 예를 들어, 제 1 마이크(171)는 도 2의 전자 장치(101)의 제 1 지지부(221)(예: 좌측 안경 다리)를 기반으로 배치된 제 1-1 마이크(171-1)(예: 도 2의 마이크(241-1, 241-2)) 및/또는 제 2 지지부(222)(예: 우측 안경 다리)를 기반으로 배치된 제 1-2 마이크(171-2)(예: 도 2의 마이크(241-3, 241-4))를 포함할 수 있다. The
일 실시예에 따르면, 전자 장치(101)는 외부의 오디오 신호를 수신할 때, 제 1 마이크(171)(예: 제 1-1 마이크(171-1) 및/또는 제 1-2 마이크(171-2))를 사용하여 오디오 신호가 발생된 발원지의 방향 및/또는 영역을 확인할 수 있고, 상기 확인된 방향 및/또는 영역에 대응되는 적어도 하나의 마이크를 선택하여, 오디오 신호를 수신할 수 있다. 예를 들어, 전자 장치(101)를 착용한 사용자가 전방을 응시할 때, 전자 장치(101)(예: 전방을 향해 배치된 전자 장치(101))를 기준으로, 좌측 방향에서 제 1 오디오 신호가 발생했다면, 프로세서(120)는 좌측 방향에 대응하여 배치된 제 1-1 마이크(171-1)를 선택할 수 있고, 선택된 제 1-1 마이크(171-1)를 사용하여 제 1 오디오 신호를 획득할 수 있다. 다른 예를 들어, 전자 장치(101)를 착용한 사용자가 전방을 응시할 때, 전자 장치(101)(예: 전방을 향해 배치된 전자 장치(101))를 기준으로 우측 방향에서 제 2 오디오 신호가 발생했다면, 프로세서(120)는 우측 방향에 대응하여 배치된 제 1-2 마이크(171-2)를 선택할 수 있고, 선택된 제 1-2 마이크(171-2)를 사용하여 제 2 오디오 신호를 획득할 수 있다. 일 실시예에 따르면, 마이크 및 스피커에 대한 개수 및 배치 위치는 한정되지 않으며, 다양한 방식으로 구현될 수 있다. 일 실시예에 따르면, 전자 장치(101)는 복수 개의 마이크를 사용하여, 오디오 신호가 발생된 발원지에 대한 방향 및/또는 위치(영역)를 확인할 수 있고, 복수 개의 마이크 중에서 적어도 하나의 마이크를 선별할 수 있다. 전자 장치(101)는 선별된 적어도 하나의 마이크를 사용하여, 오디오 신호의 발원지가 위치한 방향 및/또는 영역을 기반으로, 빔포밍 동작을 수행할 수 있고, 빔포밍 동작의 수행에 따른 선별된 적어도 하나의 마이크에 대한 설정 정보(예: 마이크에 대한 오디오 수신 gain값)를 조정할 수 있다. 전자 장치(101)는 설정 정보가 조정된, 적어도 하나의 마이크를 통해, 오디오 신호를 획득할 수 있고, 향상된 오디오 서비스를 사용자에게 제공할 수 있다. 예를 들어, 오디오 서비스는 획득된 오디오 신호를 처리하여 미디어 데이터로 변환하고, 변환된 미디어 데이터(예: 녹음 및/또는 통화를 위한 음성 데이터)를 메모리(130)에 적어도 일시적으로 저장하는 동작을 포함할 수 있다. 일 실시예에 따르면, 오디오 모듈(170)은 하드웨어 모듈(예: 하드웨어 구성 요소)로 해석되거나, 또는, 개념적으로 소프트웨어 모듈(예: 소프트웨어 구성 요소)로 해석될 수 있다.According to an embodiment, when the
센서 모듈(176)은 전자 장치(101)의 움직임(예: 이동 방향, 이동 속도, 및/또는 자세)을 감지하기 위한 모션 센서(177)를 포함할 수 있다. 예를 들어, 모션 센서(177)는 자이로(gyro) 센서(미도시) 및/또는 가속도 센서(미도시)를 포함할 수 있다. 일 실시예에 따르면, 프로세서(120)는 모션 센서(177)를 사용하여 전자 장치(101)의 움직임을 확인할 수 있다. 전자 장치(101)는 사용자의 머리 부분에 착용되는 웨어러블 장치로, 사용자 머리에 착용된 상태인지, 또는 사용자 머리로부터 탈착된 상태인지 여부를 확인할 수도 있다. 프로세서(120)는 센서 모듈(176)을 사용하여, 사용자의 머리가 향하는 방향을 확인할 수 있고, 확인된 방향에 기반하여 빔포밍 동작을 수행할 수 있다.The
카메라 모듈(180)은 전자 장치(101)에 적어도 부분적으로 배치된 다양한 종류의 카메라를 포함할 수 있다. 카메라 모듈(180)은 사용자의 시야각(FoV, field of view)에 대응되는 영상을 촬영하거나 및/또는 객체(예: 오브젝트)와의 거리를 측정하기 위한 촬영용 카메라(예: 도 2의 촬영용 카메라(213)), 사용자가 바라보는 시선의 방향 및 영역을 확인하기 위한 동공 추적 카메라(181)(예: 도 2의 동공 추적 카메라(212)), 및/또는 일정 공간을 인식하기 위한 인식용 카메라(예: 도 2의 인식용 카메라(211-1, 211-2) 중 적어도 하나를 포함할 수 있다. 일 실시예에 따르면, 동공 추적 카메라(181)는 사용자의 동공의 움직임을 추적할 수 있으며, 좌안에 대한 동공 움직임을 추적하기 위한 제 1 동공 추적 카메라 및/또는 우안에 대한 동공 움직임을 추적하기 위한 제 2 동공 추적 카메라를 포함할 수 있다. 일 실시예에 따르면, 전자 장치(101)는 동공 추적 카메라(181)를 사용하여, 사용자가 응시하는 시선 방향, 및 시선 영역을 추적할 수 있다. 전자 장치(101)는 2D(dimension)에 기반한 시선 방향 및/또는 3D에 기반한 시선 영역을 기반으로 오디오 모듈(170)에 대한 설정 정보의 적어도 일부를 조정할 수 있다.The
통신 모듈(190)은 전자 장치(101)와 외부 전자 장치(301)(예: 도 1의 외부 전자 장치(102), 무선 이어폰) 간의 직접(예: 유선) 통신 채널 또는 무선 통신 채널의 수립, 및/또는 수립된 통신 채널을 통한 통신 수행을 지원할 수 있다. 예를 들어, 전자 장치(101)는 통신 모듈(190)을 통해, 외부 전자 장치(301)와 작동적으로 연결(예: 무선 통신 연결)되는 경우, 외부 전자 장치(301)를 적어도 부분적으로 제어할 수 있다. 예를 들어, 프로세서(120)는 외부 전자 장치(301)에 포함된 오디오 모듈(370)(예: 제 2 마이크(371))에 대한 설정 정보의 적어도 일부를 조정할 수 있다. 프로세서(120)는 메모리(130)에 저장된, 외부 전자 장치(301)에 대한 설정 정보(예: 오디오 수신 gain값)를 확인하고, 변경된 설정 정보가 포함된 신호를 외부 전자 장치(301)에 전송할 수 있다. 외부 전자 장치(301)의 프로세서(320)는 상기 전송된 신호를 기반으로 제 2 마이크(371)(예: 제 2-1 마이크(371-1) 및/또는 제 2-2 마이크(371-2))에 대한 설정 정보를 조정할 수 있다. 일 실시예에 따르면, 전자 장치(101)는 전자 장치(101)의 제 1 마이크(171) 및/또는 외부 전자 장치(301)의 제 2 마이크(371) 중에서 적어도 하나의 마이크를 선택할 수 있고, 상기 선택된 적어도 하나의 마이크에 대한 설정 정보를 변경할 수 있다. 전자 장치(101)는 설정 정보가 변경된 적어도 하나의 마이크를 사용하여, 오디오 신호를 획득할 수 있다. 전자 장치(101)는 획득된 오디오 신호를 기반으로, 향상된 오디오 서비스를 사용자에게 제공할 수 있다.The
도 3을 참조하면, 외부 전자 장치(301)는 프로세서(320), 오디오 모듈(370), 센서 모듈(376), 및/또는 통신 모듈(390)을 포함할 수 있다. 외부 전자 장치(301)는 전자 장치(101)와 작동적으로 연결(예: 무선 통신 연결)될 수 있으며, 전자 장치(101)의 제어 하에, 오디오 모듈(370) 및/또는 센서 모듈(376)의 기능이 적어도 부분적으로 제어될 수 있다.Referring to FIG. 3 , the external
일 실시예에 따르면, 전자 장치(101)(예: 제 1 전자 장치)의 프로세서(120)는 통신 모듈(190)을 통해 외부 전자 장치(301)(예: 제 2 전자 장치)와 작동적으로 연결(예: 무선 통신 연결)될 수 있고, 외부 전자 장치(301)에 대한 타입을 확인할 수 있다. 예를 들어, 프로세서(120)는 외부 전자 장치(301)의 타입을 기반으로, 외부 전자 장치(301)의 하우징에 적어도 부분적으로 배치된 오디오 모듈(370)과 관련된 정보(예: 제 2 마이크(371)(예: 제 2-1 마이크(371-1) 및/또는 제 2-2 마이크(371-2))의 배치 위치, 스피커(미도시)의 배치 위치)를 확인할 수 있다. 프로세서(120)는 전자 장치(101)의 제 1 마이크(171)의 위치 정보 및/또는 외부 전자 장치(301)의 제 2 마이크(371)의 위치 정보를 기반으로 적어도 하나의 마이크를 선별할 수 있고, 상기 선별된 적어도 하나의 마이크에 대한 설정 정보를 조정할 수 있다.According to an embodiment, the processor 120 of the electronic device 101 (eg, the first electronic device) operates with the external electronic device 301 (eg, the second electronic device) through the
일 실시예에 따르면, 전자 장치(101)의 프로세서(120)는 카메라 모듈(180)에 포함된 동공 추적 카메라(181)를 통해 사용자의 시선 방향 및/또는 시선 영역을 확인할 수 있다. 프로세서(120)는 확인된 시선 방향 및/또는 시선 영역을 기반으로, 선별된 적어도 하나의 마이크에 대한 빔포밍 동작을 수행할 수 있다. 예를 들어, 프로세서(120)는 사용자에게 향상된 오디오 서비스가 제공되도록, 선별된 적어도 하나의 마이크에 대한 설정 정보를 조정할 수 있다.According to an embodiment, the processor 120 of the
일 실시예에 따르면, 프로세서(120)는 외부 전자 장치(301)의 타입이 확인되지 않는 경우, 전자 장치(101)의 제 1 마이크(171) 및/또는 외부 전자 장치(301)의 제 2 마이크(371)를 기반으로, 외부 오디오 신호를 수신할 수 있고, 수신된 외부 오디오 신호를 기반으로 외부 오디오 신호가 발생된 발원지에 대한 위치 정보 및 영역 정보를 확인할 수 있다. 프로세서(120)는 확인된 위치 정보 및 영역 정보를 기반으로 적어도 하나의 마이크를 선별할 수 있고, 선별된 적어도 하나의 마이크에 대한 빔포밍 동작을 수행할 수 있다. 프로세서(120)는 선별된 적어도 하나의 마이크에 대한 설정 정보를 조정할 수 있다.According to an embodiment, when the type of the external
일 실시예에 따르면, 프로세서(120)는 빔포밍 동작에 따른 향상된 오디오 서비스를 사용자에게 제공하는 중에, 인체에 착용된 전자 장치(101)의 탈착 및/또는 인체 일부(예: 귀)에 착용된 외부 전자 장치(301)의 탈착을 확인할 수 있다. 프로세서(120)는 전자 장치(101) 및/또는 외부 전자 장치(301) 중에서 탈착된 장치를 확인하고, 아직 탈착되지 않은 장치에 대한 오디오 설정 정보를 조정할 수 있다. 예를 들어, 외부 전자 장치(301)가 인체 일부로부터 탈착되는 경우, 전자 장치(101)는 전자 장치(101)의 제 1 마이크(171)에 대한 설정 정보를 변경할 수 있고, 변경된 설정 정보를 기반으로 오디오 신호를 획득(또는, 수신)할 수 있다. 다른 예를 들어, 전자 장치(101)가 인체로부터 탈착되는 경우, 전자 장치(101)는 외부 전자 장치(301)의 제 2 마이크(371)에 대한 설정 정보를 변경할 수 있고, 변경된 설정 정보를 기반으로 오디오 신호를 획득할 수 있다.According to an embodiment, while providing an enhanced audio service according to a beamforming operation to the user, the processor 120 may attach or detach the
다양한 실시예에 따르면, 전자 장치(예: 도 1의 전자 장치(101))는, 외부 전자 장치(예: 도 1의 외부 전자 장치(102), 도 3의 외부 전자 장치(301))와의 연결을 위한 통신 모듈(예: 도 3의 통신 모듈(190)), 적어도 하나의 제 1 마이크(예: 도 3의 제 1 마이크(171)), 메모리(예: 도 3의 메모리(130)), 및 상기 통신 모듈(190), 상기 적어도 하나의 제 1 마이크(171), 및 상기 메모리(130)에 전기적으로 연결된 프로세서(예: 도 3의 프로세서(120))를 포함할 수 있다. 상기 프로세서(120)는, 상기 외부 전자 장치(301)로부터 전송된 착용 신호의 수신에 응답하여, 상기 외부 전자 장치(301)가 인체에 착용되었음을 확인하고, 상기 외부 전자 장치(301)의 착용에 응답하여, 상기 메모리(130)에 저장된, 상기 외부 전자 장치(301)의 타입(예: 오디오 관련 정보)을 확인하고, 상기 확인된 타입을 기반으로, 상기 적어도 하나의 제 1 마이크(171) 및 상기 인체에 착용된 외부 전자 장치(301)에 포함된 적어도 하나의 제 2 마이크(예: 도 3의 제 2 마이크(371)) 중에서, 적어도 하나의 마이크를 선택하고, 상기 선택된 적어도 하나의 마이크를 사용하여 오디오 신호를 획득할 수 있다.According to various embodiments, an electronic device (eg, the
일 실시예에 따른 전자 장치(101)는 동공 움직임을 추적하기 위한 동공 추적 카메라(예: 도 3의 동공 추적 카메라(181))를 더 포함하고, 상기 프로세서(120)는, 상기 동공 추적 카메라(181)를 사용하여 사용자의 시선 방향 및 위치를 확인하고, 상기 확인된 사용자의 시선 방향 및 위치를 기반으로, 상기 적어도 하나의 제 1 마이크(171) 및 상기 적어도 하나의 제 2 마이크(371) 중에서 상기 적어도 하나의 마이크를 선택할 수 있다.The
일 실시예에 따른 전자 장치(101)는 상기 전자 장치(101)의 움직임을 감지하기 위한 센서 모듈(예: 도 3의 센서 모듈(176))을 더 포함하고, 상기 프로세서(120)는, 상기 센서 모듈(176)을 사용하여 상기 전자 장치(101)가 향하는 방향 및 상기 전자 장치(101)의 자세를 확인하고, 상기 확인된 전자 장치(101)가 향하는 방향 및 상기 전자 장치(101)의 자세를 기반으로 선택된, 상기 적어도 하나의 제 1 마이크(171) 및 상기 적어도 하나의 제 2 마이크(371) 중에서 상기 적어도 하나의 마이크를 선택할 수 있다.The
일 실시예에 따르면, 상기 프로세서(120)는, 상기 외부 전자 장치(301)로부터 전송된 탈착 신호의 수신에 응답하여, 상기 외부 전자 장치(301)가 상기 인체로부터 탈착되었는지 여부를 확인하고, 상기 외부 전자 장치(301)의 탈착에 응답하여, 상기 동공 추적 카메라(181)를 사용하여 상기 사용자의 시선 방향 및 위치를 확인하고, 상기 확인된 사용자의 시선 방향 및 위치를 기반으로, 상기 적어도 하나의 제 1 마이크(171)를 선택할 수 있다.According to an embodiment, the processor 120 determines whether the external
일 실시예에 따르면, 상기 프로세서(120)는, 상기 확인된 사용자의 시선 방향 및 위치에 대응하여 적어도 하나의 오브젝트를 확인하고, 상기 적어도 하나의 오브젝트가 가상 객체인지 여부를 확인하고, 상기 적어도 하나의 오브젝트가 상기 가상 객체인 경우, 상기 가상 객체를 기반으로 상기 적어도 하나의 제 1 마이크(171) 및 상기 적어도 하나의 제 2 마이크(371)에 대한 설정 정보를 결정할 수 있다.According to an embodiment, the processor 120 checks at least one object corresponding to the identified user's gaze direction and position, determines whether the at least one object is a virtual object, and determines whether the at least one object is a virtual object. If the object of is the virtual object, setting information for the at least one
일 실시예에 따르면, 상기 프로세서(120)는, 상기 센서 모듈(176)을 통해, 상기 전자 장치(101)가 상기 인체로부터 탈착되었는지 여부를 확인하고, 상기 전자 장치(101)의 탈착에 응답하여, 상기 외부 전자 장치(301)에 포함된 상기 적어도 하나의 제 2 마이크(371)를 기반으로, 상기 오디오 신호가 생성된 오브젝트의 방향 및 위치를 확인하고, 상기 확인된 오브젝트의 방향 및 위치를 기반으로 상기 적어도 하나의 제 2 마이크(371)를 선택할 수 있다.According to an embodiment, the processor 120 checks whether the
일 실시예에 따르면, 상기 프로세서(120)는, 상기 외부 전자 장치(301)의 타입이 상기 메모리(130)에 저장되지 않은 경우, 상기 적어도 하나의 제 1 마이크(171)를 통한 제 1 오디오 신호 및 상기 적어도 하나의 제 2 마이크(371)를 통한 제 2 오디오 신호를 획득하고, 상기 획득된 제 1 오디오 신호 및 제 2 오디오 신호를 기반으로 상기 적어도 하나의 제 2 마이크(371)의 위치를 확인하고, 상기 적어도 하나의 제 1 마이크(171) 및 상기 적어도 하나의 제 2 마이크(371) 중에서, 상기 적어도 하나의 마이크를 선택할 수 있다.According to one embodiment, the processor 120, when the type of the external
일 실시예에 따르면, 상기 외부 전자 장치(301)의 타입(예: 오디오 관련 정보)은 상기 외부 전자 장치(301)에 포함된 상기 적어도 하나의 제 2 마이크(371)에 대한 위치 정보, 상기 외부 전자 장치(301)에 포함된 스피커에 대한 위치 정보, 및 상기 제 2 마이크(371) 및 상기 스피커에 대한 설정 정보를 포함할 수 있다.According to an embodiment, the type (eg, audio-related information) of the external
일 실시예에 따르면, 상기 프로세서(120)는, 상기 적어도 하나의 제 1 마이크(171) 및 상기 적어도 하나의 제 2 마이크(371)를 활성화하고, 상기 적어도 하나의 제 1 마이크(171)를 통해 획득된 제 1 오디오 신호 및 상기 적어도 하나의 제 2 마이크(371)를 통해 획득된 제 2 오디오 신호를 기반으로, 상기 오디오 신호가 생성된 오브젝트의 방향 및 위치를 확인하고, 상기 확인된 오브젝트의 방향 및 위치를 기반으로, 상기 적어도 하나의 제 1 마이크(171) 및 상기 적어도 하나의 제 2 마이크(371) 중에서, 적어도 하나의 마이크를 선택할 수 있다.According to an embodiment, the processor 120 activates the at least one
일 실시예에 따른 전자 장치(101)는 상기 오디오 신호가 생성된 오브젝트와의 거리를 측정하기 위한 거리 측정 카메라를 더 포함하고, 상기 프로세서(120)는, 상기 거리 측정 카메라를 사용하여 상기 오브젝트와의 거리를 측정하고, 상기 측정된 거리를 기반으로, 상기 적어도 하나의 제 1 마이크(171) 및 상기 적어도 하나의 제 2 마이크(371) 중에서, 적어도 하나의 마이크를 선택할 수 있다.The
일 실시예에 따르면, 상기 전자 장치(101)는 사용자의 머리에 거치되는 형태로 인체에 착용되는 AR(augmented reality) 전자 장치를 포함하고, 상기 외부 전자 장치(301)는 사용자의 귀에 삽입되는 형태로 인체에 착용되는 무선 이어폰을 포함할 수 있다.According to an embodiment, the
도 4는 본 발명의 다양한 실시예에 따른 전자 장치와 외부 전자 장치의 연결에 따른 마이크를 설정하는 방법을 도시한 흐름도이다.4 is a flowchart illustrating a method of setting a microphone according to connection between an electronic device and an external electronic device according to various embodiments of the present disclosure.
도 4의 제 1 전자 장치(예: 도 1의 전자 장치(101))는 도 2의 전자 장치(101)(예: AR 장치, 웨어러블 전자 장치)와 적어도 일부 유사하거나, 전자 장치(101)의 다른 실시예들을 더 포함할 수 있다. 도 4의 제 1 전자 장치(101)는 도 3의 전자 장치(101)에 포함된 적어도 하나의 구성부들을 포함할 수 있다. 도 4의 제 2 전자 장치(예: 도 1의 외부 전자 장치(102), 도 3의 외부 전자 장치(301))는 외부 전자 장치로써, 사용자의 인체 일부(예: 귀)에 착용 가능한 무선 이어폰(예: 웨어러블 전자 장치)을 포함할 수 있다. 도 4의 제 2 전자 장치(301)는 도 3의 외부 전자 장치(301)에 포함된 적어도 하나의 구성부들을 포함할 수 있다.The first electronic device of FIG. 4 (eg, the
동작 401에서 제 1 전자 장치(101)의 프로세서(예: 도 3의 프로세서(120))는 제 2 전자 장치(301)의 착용에 응답하여, 제 1 전자 장치(101) 및 제 2 전자 장치(301) 간의 무선 통신 연결을 수행할 수 있다. 예를 들어, 제 1 전자 장치(101)는 사용자의 머리에 착용되는AR 글래스를 포함하며, 단독으로 사용자에게 오디오 서비스를 제공하는 상태에서, 제 2 전자 장치(301)가 인체 일부(예: 귀)에 착용되었음을 확인할 수 있다. 예를 들어, 제 2 전자 장치(301)의 프로세서(예: 도 3의 프로세서(320))는 센서 모듈(376)을 사용하여, 제 2 전자 장치(301)가 인체 일부에 착용되었음을 감지할 수 있고, 착용 정보가 포함된 신호를 제 1 전자 장치(101)에 전송할 수 있다. 제 1 전자 장치(101)는 제 2 전자 장치(301)로부터 전송된 신호를 기반으로, 제 2 전자 장치(301)가 인체 일부에 착용되었음을 확인할 수 있다.In
제 1 전자 장치(101)의 프로세서(120)는 제 2 전자 장치(301)의 착용에 응답하여, 통신 모듈(예: 도 3의 통신 모듈(190))을 통해, 제 2 전자 장치(301)와의 무선 통신 연결(예: Bluetooth 연결)을 수행할 수 있다.In response to the wearing of the second
다른 예를 들면, 제 1 전자 장치(101)는 제 2 전자 장치(301)와의 무선 통신 연결(예: Bluetooth 연결) 수립 절차가 완료되면, 제 2 전자 장치(301)와 작동적으로 연결될 수 있다. 일 실시예에 따르면, 제 1 전자 장치(101)는 제 2 전자 장치(301)가 사용자에게 착용되었는지 여부를 더 확인할 수 있다. 예를 들어, 제 2 전자 장치(301)는 센서 모듈(예: 도 3의 센서 모듈(376), 착용 감지 센서, 근접 센서)을 통해, 제 2 전자 장치(301)가 인체 일부(예: 귀)에 물리적으로 접촉되었는지 여부를 확인할 수 있다. 제 2 전자 장치(301)가 설정된 시간 동안 인체 일부에 접촉된 상태를 유지하는 경우, 제 2 전자 장치(301)는 착용이 완료되었음을 나타내는 신호를 제 1 전자 장치(101)에 전송할 수 있다. 제 1 전자 장치(101)는 상기 신호의 수신에 응답하여, 제 2 전자 장치(301)와 작동적으로 연결된 것으로 결정할 수 있다.For another example, the first
동작 403에서 프로세서(120)는 제 2 전자 장치(301)와의 연결에 응답하여, 제 2 전자 장치(301)에 대한 타입(예: 모델 정보)을 확인할 수 있다. 예를 들어, 프로세서(120)는 메모리(130)에 저장된 제 2 전자 장치(301)의 관련 정보를 기반으로, 제 2 전자 장치(301)에 대한 타입을 확인할 수 있다. 제 1 전자 장치(101)는 제 2 전자 장치(301)의 관련 정보(예: 오디오 관련 정보)가 메모리(130)에 이미 저장된 상태일 수 있다. 제 1 전자 장치(101)는 외부 전자 장치(예: 웨어러블 전자 장치, 주변 전자 장치)로 활용 가능한 제 2 전자 장치(301)에 대한 리스트 정보를 메모리(130)에 저장할 수 있고, 이는 동작 401 이전에 수행될 수 있다. 일 실시예에 따르면, 제 2 전자 장치(301)의 타입을 확인하는 것은 제 2 전자 장치(301)에 포함된 오디오 모듈(예: 도 3의 오디오 모듈(370), 제 2 마이크(371))과 관련된 정보(예: 오디오 관련 정보, 위치 정보, 설정 정보)를 확인하는 것을 의미할 수 있다.In
동작 405에서 프로세서(120)는 제 2 전자 장치(301)의 타입에 따른 마이크 정보(예: 제 2 마이크(371)의 위치 정보)가 확인되는지 여부를 판단할 수 있다. 예를 들어, 제 2 전자 장치(301)의 타입에 따른 마이크 정보는 제 2 전자 장치(301)에 포함된 마이크(예: 제 2 마이크(371))의 종류, 개수, 배치 위치, 및/또는 설정 정보를 포함할 수 있다. 일 실시예에 따르면, 제 1 전자 장치(101)는 제 2 전자 장치(301)(예: 외부 전자 장치, 주변 전자 장치)와 관련하여, 마이크(예: 제 2 마이크(371))의 타입 정보 및 타입 정보에 따른 오디오 설정 정보가 메모리(130)에 저장된 상태일 수 있다. 다른 예를 들어, 메모리(130)에는 제 1 전자 장치(101)의 제 1 마이크(171)의 위치, 제 2 전자 장치(301)의 제 2 마이크(371)의 위치, 및/또는 오디오 신호를 생성하는 오브젝트의 위치를 기반으로 결정된, 빔포밍 동작에 최적화된 테스트 데이터(예: 빔포밍 파라미터(parameter) 정보)가 저장될 수 있다. 예를 들어, 테스트 데이터는 제 1 마이크(171), 제 2 마이크(371), 오브젝트에 대한 상대적인 위치를 기반으로, 빔포밍 동작에 이용되는, 제 1 마이크(171)의 설정 정보 및/또는 제 2 마이크(371)의 설정 정보를 포함할 수 있다. 테스트 데이터는 빔포밍 동작에 따른 오디오 신호의 수신 감도를 높여주는 계산값 및/또는 실험값을 포함할 수 있다. In
동작 405에서 제 2 전자 장치(301)의 타입에 따른 마이크 정보가 확인되면(동작 405-Yes), 동작 407에서 프로세서(120)는 제 1 전자 장치(101)의 오디오 모듈(170)에 포함된 제 1 마이크(171) 및/또는 제 2 전자 장치(301)의 오디오 모듈(370)에 포함된 제 2 마이크(371) 중에서 적어도 하나의 마이크를 선택할 수 있다. 예를 들어, 제 1 전자 장치(101)와 제 2 전자 장치(301)가 상호 간에 연동된 상태(예: 무선 통신 연결된 상태)에서, 프로세서(120)는 복수 개의 마이크들(예: 제 1 전자 장치(101)의 제 1 마이크(171) 및/또는 제 2 전자 장치(301)의 제 2 마이크(371)) 중에서 적어도 하나의 마이크를 선택할 수 있다. 예를 들어, 프로세서(120)는 오브젝트에서 발생된 오디오 신호를 획득함에 있어서, 오브젝트의 상대적인 위치를 기반으로, 적어도 하나의 마이크를 선택할 수 있다. 프로세서(120)는 상대적으로 오브젝트와 더 가까운 위치에 배치된, 적어도 하나의 마이크를 선택할 수 있다.If the microphone information according to the type of the second
동작 409에서 프로세서(120)는 선택된 적어도 하나의 마이크를 사용하여 오디오 신호를 획득할 수 있다. 예를 들어, 오디오 신호는 오브젝트에서 발생된 오디오 신호를 포함할 수 있다. In
동작 405에서 제 2 전자 장치(301)의 타입에 따른 마이크 정보가 확인되지 않으면(동작 407-No), 동작 411에서 프로세서(120)는 제 1 전자 장치(101)의 제 1 마이크(171)를 통해 획득된 제 1 오디오 신호 및/또는 제 2 전자 장치(301)의 제 2 마이크(371)를 통해 획득된 제 2 오디오 신호를 비교 및/또는 분석할 수 있다. 예를 들어, 프로세서(120)는 제 2 전자 장치(301)에 포함된 마이크 정보(예: 마이크의 종류, 개수, 배치된 위치 및/또는 설정 정보)가 확인되지 않으므로, 제 1 마이크(171)에 대한 제 1 오디오 신호 및/또는 제 2 마이크(371)에 대한 제 2 오디오 신호를 비교하거나, 또는 분석하여, 제 2 마이크(371)의 위치를 확인할 수 있다.If the microphone information according to the type of the second
동작 413에서 프로세서(120)는 동작 411에서의 비교 및/또는 분석을 기반으로, 제 2 전자 장치(301)의 제 2 마이크(371)의 위치를 확인할 수 있다. 예를 들어, 제 1 전자 장치(101)의 제 1 마이크(171)의 위치를 기준으로, 제 2 전자 장치(301)의 제 2 마이크(371)가 상대적으로 상기 제 1 마이크(171) 대비, 어느 방향에 위치하는지 여부를 확인할 수 있다. 프로세서(120)는 제 1 마이크(171) 및/또는 제 2 마이크(371) 중에서, 상대적으로 오브젝트에 보다 가깝게 위치한 마이크를 확인할 수 있다. 다른 예를 들어, 제 1 전자 장치(101)의 제 1 마이크(171)의 위치를 기준으로, 제 2 전자 장치(301)의 제 2 마이크(371)가 오디오 신호가 발생된 발원지(예: 오브젝트)로부터 상대적으로 가깝게 위치하는지, 및/또는 상대적으로 멀리 위치하는지 여부를 확인할 수 있다.In
동작 413에서 제 2 전자 장치(301)의 제 2 마이크(371)의 위치가 확인되면, 동작 407에서 프로세서(120)는 제 1 전자 장치(101)의 제 1 마이크(171) 및/또는 제 2 전자 장치(301)의 제 2 마이크(371) 중에서 적어도 하나의 마이크를 선택할 수 있다.When the location of the
일 실시예에 따르면, 제 1 전자 장치(101)는 제 2 전자 장치(301)가 인체 일부(예: 귀)에 착용되는 상황에 응답하여, 제 2 전자 장치(301)와 무선 통신 연결될 수 있다. 제 1 전자 장치(101)는 제 2 전자 장치(301)와의 연결에 따른 제 2 전자 장치(301)의 타입(예: 오디오 모듈(370)의 정보)을 확인할 수 있다. 제 2 전자 장치(301)에 대한 타입이 확인(예: 제 2 전자 장치(301)의 제 2 마이크(371)의 위치가 확인)되면, 제 1 전자 장치(101)는 제1 전자 장치(101)의 제 1 마이크(171) 및/또는 제 2 전자 장치(301)의 제 2 마이크(371) 중에서 적어도 하나의 마이크를 선택할 수 있다. 예를 들어, 제 1 전자 장치(101)는 오디오 신호를 생성하는 오브젝트의 위치를 기준으로, 상대적으로 가깝게 배치된, 적어도 하나의 마이크를 선택할 수 있다. 제 1 전자 장치(101)는 선택된 적어도 하나의 마이크를 사용하여 오디오 신호를 획득(또는, 수신)할 수 있다. 일 실시예에 따르면, 제 1 전자 장치(101)는 복수 개의 마이크들(예: 제 1 마이크(171) 및/또는 제 2 마이크(371)) 중에서, 빔포밍 동작에 최적화된 적어도 하나의 마이크를 선별할 수 있고, 선별된 적어도 하나의 마이크를 사용하여 오디오 신호를 획득할 수 있다. 제 1 전자 장치(101)는 획득된 오디오 신호를 기반으로 사용자에게 오디오 서비스를 제공할 수 있다. 사용자는 향상된 오디오 서비스를 제공받을 수 있다.According to an embodiment, the first
도 5는 본 발명의 다양한 실시예에 따른 사용자가 응시하는 위치에 기반한 빔포밍 동작을 수행하는 방법을 도시한 흐름도이다.5 is a flowchart illustrating a method of performing a beamforming operation based on a user's gaze position according to various embodiments of the present invention.
도 5의 제 1 전자 장치(예: 도 1의 전자 장치(101))는 도 2의 전자 장치(101)(예: AR 장치, 웨어러블 전자 장치)와 적어도 일부 유사하거나, 전자 장치(101)의 다른 실시예들을 더 포함할 수 있다. 도 5의 제 1 전자 장치(101)는 도 3의 전자 장치(101)에 포함된 적어도 하나의 구성부들을 포함할 수 있다. 도 5의 제 2 전자 장치(예: 도 1의 외부 전자 장치(102), 도 3의 외부 전자 장치(301))는 외부 전자 장치로써, 사용자의 인체 일부(예: 귀)에 착용 가능한 무선 이어폰(예: 웨어러블 전자 장치)을 포함할 수 있다. 도 5의 제 2 전자 장치(301)는 도 3의 외부 전자 장치(301)에 포함된 적어도 하나의 구성부들을 포함할 수 있다.The first electronic device of FIG. 5 (eg, the
동작 501에서 제 1 전자 장치(101)의 프로세서(예: 도 3의 프로세서(120)는 카메라 모듈(예: 도 3의 카메라 모듈(180))을 사용하여 사용자의 동공 움직임(예: 시선 방향)을 추적할 수 있다. 제 1 전자 장치(101)는 AR 글래스를 포함하고, 카메라 모듈(180)은 사용자의 좌안에 대응되는 제 1 동공 추적 카메라(212-1) 및/또는 사용자의 우안에 대응되는 제 2 동공 추적 카메라(212-2)를 포함할 수 있다. 제 1 동공 추적 카메라(212-1)는 좌안의 움직임을 추적할 수 있고, 제 2 동공 추적 카메라(212-2)는 우안의 움직임을 추적할 수 있다. 예를 들어, 프로세서(120)는 좌안에 기반한 동공 움직임 및/또는 우안에 기반한 동공 움직임을 개별적으로 및/또는 종합적으로 분석할 수 있고, 사용자의 동공 움직임을 추적할 수 있다. In
동작 503에서 프로세서(120)는 사용자가 응시하는 방향 및/또는 위치를 확인할 수 있다. 예를 들어, 프로세서(120)는 좌안에 의한 제 1 시선 방향 및/또는 우안에 의한 제 2 시선 방향을 기반으로, 제 1 시선 방향 및/또는 제 2 시선 방향이 적어도 부분적으로 일치하는 방향, 지점 및/또는 영역 중 적어도 일부를 확인할 수 있다. 예를 들어, 프로세서(120)는 2D에 기반한 사용자의 응시 방향을 확인하거나, 또는 3D에 기반한 사용자의 응시 위치(예: 영역)를 확인할 수 있다.In
동작 505에서 프로세서(120)는 확인된 방향 및/또는 위치를 기반으로, 제 1 전자 장치(101)의 제 1 마이크(171)(예: 제 1-1 마이크(171-1) 및/또는 제 1-2 마이크(171-2)) 및/또는 제 2 전자 장치(301)의 제 2 마이크(371)(예: 제 2-1 마이크(371-1) 및/또는 제 2-2 마이크(371-2)) 중에서 적어도 하나의 마이크를 선택할 수 있다. 예를 들어, 프로세서(120)는 확인된 방향 및/또는 위치를 기준으로, 상대적으로 가깝게 위치한 적어도 하나의 마이크를 선택할 수 있다. 확인된 방향 및/또는 위치에서 오디오 신호가 발생하는 경우, 프로세서(120)는 상기 확인된 방향 및/또는 위치에 보다 가깝게 위치한 마이크를 선택하고, 신호 품질이 향상된 오디오 신호를 획득할 수 있다.In
동작 507에서 프로세서(120)는 선택된 적어도 하나의 마이크를 기반으로, 빔포밍 동작에 따른 설정 정보를 변경할 수 있다. 예를 들어, 프로세서(120)는 상기 선택된 적어도 하나의 마이크에 대한 수신 gain값이 높아지도록, 마이크의 설정 정보를 변경할 수 있다. 일 실시예에 따르면, 제 1 전자 장치(101)는 특정 방향 및/또는 특정 위치에서 발생되는 오디오 신호의 획득이 용이하도록, 선택된 적어도 하나의 마이크의 설정 정보를 변경할 수 있다.In
동작 509에서 프로세서(120)는 설정 정보가 변경된 적어도 하나의 마이크를 사용하여 오디오 신호를 획득(또는 수신)할 수 있다. 예를 들어, 프로세서(120)는 적어도 하나의 마이크에 대한 수신 gain값을 높게 설정하여, 신호 품질이 향상된 오디오 신호를 획득할 수 있다. 일 실시예에 따르면, 제 1 전자 장치(101)는 신호 품질이 향상된 오디오 신호를 기반으로, 사용자에게 향상된 오디오 서비스를 제공할 수 있다.In
일 실시예에 따르면, 제 1 전자 장치(101)(예: AR 글래스)는 카메라 모듈(180)(예: 도 3의 동공 추적 카메라(181))를 사용하여, 사용자가 응시하는 방향 및/또는 위치를 확인할 수 있고, 상기 확인된 방향 및/또는 위치를 기반으로 적어도 하나의 마이크를 선별할 수 있다. 제 1 전자 장치(101)는 선별된 적어도 하나의 마이크를 사용하여, 빔포밍 동작에 따른 오디오 신호를 획득할 수 있다.According to an embodiment, the first electronic device 101 (eg, AR glasses) uses a camera module 180 (eg, the pupil tracking camera 181 of FIG. 3 ) to determine the direction the user gazes and/or A location may be identified, and at least one microphone may be selected based on the identified direction and/or location. The first
도 6은 본 발명의 다양한 실시예에 따른 전자 장치와 외부 전자 장치가 연결된 상태에서 복수 개의 마이크를 기반으로 빔포밍 동작을 수행하는 방법을 도시한 흐름도이다.6 is a flowchart illustrating a method of performing a beamforming operation based on a plurality of microphones in a state in which an electronic device and an external electronic device are connected according to various embodiments of the present disclosure.
도 6의 제 1 전자 장치(예: 도 1의 전자 장치(101))는 도 2의 전자 장치(101)(예: AR 장치, 웨어러블 전자 장치)와 적어도 일부 유사하거나, 전자 장치(101)의 다른 실시예들을 더 포함할 수 있다. 도 6의 제 1 전자 장치(101)는 도 3의 전자 장치(101)에 포함된 적어도 하나의 구성부들을 포함할 수 있다. 도 6의 제 2 전자 장치(예: 도 1의 외부 전자 장치(102), 도 3의 외부 전자 장치(301))는 외부 전자 장치로써, 사용자의 인체 일부(예: 귀)에 착용 가능한 무선 이어폰(예: 웨어러블 전자 장치)을 포함할 수 있다. 도 6의 제 2 전자 장치(301)는 도 3의 외부 전자 장치(301)에 포함된 적어도 하나의 구성부들을 포함할 수 있다.The first electronic device of FIG. 6 (eg, the
동작 601에서 제 1 전자 장치(101)의 프로세서(예: 도 3의 프로세서(120))는 제 2 전자 장치(301)의 착용에 응답하여, 제 1 전자 장치(101) 및 제 2 전자 장치(301) 간의 무선 통신 연결을 수행할 수 있다. 프로세서(120)는 통신 모듈(예: 도 3의 통신 모듈(190))을 통해, 제 2 전자 장치(301)(예: 도 1의 외부 전자 장치(102))와의 통신 연결을 확인할 수 있다. 예를 들어, 제1 전자 장치(101)는 제2 전자 장치(301)와의 무선 통신 연결 수립 절차가 완료되면 제2 전자 장치(301)와의 연결을 확인할 수 있다. 다른 예를 들어, 제 1 전자 장치(101)는 제 2 전자 장치(301)로부터 제2 전자 장치(301)가 사용자에게 착용되었음을 나타내는 신호(예: 제 2 전자 장치(301)가 사용자의 인체 일부에 착용되었을 때, 제 2 전자 장치(301)에서 생성되는 신호)를 수신하게 되면, 제2 전자 장치(301)와의 연결을 확인할 수 있다. In
동작 603에서 프로세서(120)는 마이크에 대한 설정 정보를 결정하기 위한 방법을 선택할 수 있다. 프로세서(120)는 여러 방식들(예: 제 1 방식, 제 2 방식, 제 3 방식) 중에서 적어도 하나의 마이크를 선택하기 위한 하나의 방식을 선택할 수 있다. 제 1전자 장치(101)는 다양한 방식을 사용하여, 제 1 전자 장치(101)의 제 1 마이크(171) 및/또는 제 2 전자 장치(301)의 제 2 마이크(371) 중에서 적어도 하나의 마이크를 선택하고, 선택된 적어도 하나의 마이크에 대한 설정 정보를 변경할 수 있다. 도 6을 참조하면, 다양한 방식은 동작 605 내지 동작 607에 기반한 제 1 방식, 동작 609 내지 동작 611에 기반한 제 2 방식, 및/또는 동작 613 내지 동작 615에 기반한 제 3 방식 중 하나를 포함할 수 있다. 일 실시예에 따르면, 제 1 전자 장치(101)는 다양한 방식들 중에서 하나의 방식을 선택하거나, 또는, 하나 이상의 방식을 조합하는 형태로 동작할 수 있다.In
제 1 방식에 따르면, 동작 605에서 프로세서(120)는 카메라 모듈(예: 도 3의 카메라 모듈(180), 도 3의 동공 추적 카메라(181))을 사용하여 사용자가 응시하는 방향 및/또는 위치를 확인할 수 있다. 예를 들어, 카메라 모듈(180)이 비활성화 상태인 경우, 프로세서(120)는 카메라 모듈(180)을 적어도 부분적으로 활성화시켜서 사용자가 응시하는 방향 및/또는 위치를 확인할 수 있다. 동작 607에서 프로세서(120)는 확인된 방향 및/또는 위치를 기반으로, 제 1 전자 장치(101)의 제 1 마이크(171) 및/또는 제 2 전자 장치(301)의 제 2 마이크(371) 중에서 적어도 하나의 마이크를 선택할 수 있다. 예를 들어, 프로세서(120)는 확인된 방향 및/또는 위치를 기반으로, 복수 개의 마이크들 중에서, 상대적으로 가깝게 배치된 적어도 하나의 마이크를 선택할 수 있다.According to the first method, in
제 2 방식에 따르면, 동작 609에서 프로세서(120)는 오디오 신호가 생성된 발원지(예: 오디오 신호를 생성하는 오브젝트)의 방향 및/또는 위치를 확인하기 위해, 제 1 전자 장치(101)의 제 1 마이크(171)를 통해 획득된 제 1 오디오 신호 및/또는 제 2 전자 장치(301)의 제 2 마이크(371)를 통해 획득된 제 2 오디오 신호를 기반으로 오디오 신호가 생성된 방향 및/또는 위치를 확인할 수 있다. 예를 들어, 프로세서(120)는 제 1 오디오 신호 및/또는 제2 오디오 신호를 비교하거나, 또는 분석하여, 오디오 신호가 생성되는 발원지의 상대적인 방향을 확인할 수 있다. 동작 611에서 프로세서(120)는 확인된 방향 및/또는 위치를 기반으로, 제 1 마이크(171) 및/또는 제 2 마이크(371) 중에서 적어도 하나의 마이크를 선택할 수 있다. According to the second method, in
제 3 방식에 따르면, 동작 613에서 프로세서(120)는 카메라 모듈(180)(예: 도 2의 촬영용 카메라(213), 거리 측정 카메라)을 사용하여, 오디오 신호가 생성된 오브젝트의 방향 및/또는 오브젝트까지의 거리를 확인할 수 있다. 동작 615에서 프로세서(120)는 확인된 오브젝트의 방향 및/또는 오브젝트까지의 거리를 기반으로, 제 1 마이크(171) 및/또는 제 2 마이크(371) 중에서 적어도 하나의 마이크를 선택할 수 있다. According to the third method, in
동작 617에서 프로세서(120)는 전술된 3가지의 방식(예: 제 1 방식, 제2 방식 및/또는 제 3 방식) 중 적어도 하나에 기반하여, 선택된 적어도 하나의 마이크에 대한 설정 정보(예: 마이크에 대한 오디오 수신 gain값)를 결정할 수 있다.In operation 617, the processor 120 performs setting information (eg: audio reception gain value for the microphone) can be determined.
동작 619에서 프로세서(120)는 설정 정보가 변경된 적어도 하나의 마이크를 사용하여 오디오 신호를 획득(또는, 수신)할 수 있다. 일 실시예에 따르면, 빔포밍 동작의 수행을 위해, 적어도 하나의 마이크를 선택하는 다양한 방법이 있을 수 있다. 제 1 전자 장치(101)는 카메라 모듈(180)(예: 동공 추적 카메라(181))을 사용하여 확인된 사용자의 시선 방향 및/또는 위치를 기반으로 적어도 하나의 마이크를 선택하는 제 1 방식, 복수 개의 마이크(예: 제 1 마이크(171) 및/또는 제 2 마이크(371))를 사용하여 확인된 오디오 신호가 생성된 방향 및/또는 위치를 기반으로 적어도 하나의 마이크를 선택하는 제 2 방식, 및/또는 카메라 모듈(180)(예: 촬영용 카메라(213) 및/또는 거리 측정 카메라)을 사용하여 확인된 오브젝트의 방향 및/또는 오브젝트까지의 거리를 기반으로 적어도 하나의 마이크를 선택하는 제 3 방식 중 적어도 하나의 방식을 선택할 수 있다. 제 1 전자 장치(101)는 선택된 방식에 의해, 적어도 하나의 마이크를 결정할 수 있고, 상기 적어도 하나의 마이크의 설정 정보(예: 오디오 수신 gain값)를 변경할 수 있다. 제 1 전자 장치(101)는 설정 정보가 변경된 적어도 하나의 마이크를 사용하여 오디오 신호를 획득할 수 있다. 일 실시예에 따르면, 제 1 전자 장치(101)는 선택된 적어도 하나의 마이크를 사용하여, 빔포밍 동작에 따른 오디오 신호를 획득할 수 있으며, 사용자에게 향상된 오디오 서비스를 제공할 수 있다.In
도 7은 본 발명의 다양한 실시예에 따른 전자 장치와 외부 전자 장치가 연결된 상태에서 빔포밍 동작을 수행하는 도중, 외부 전자 장치와의 연결이 해제되는 경우의 빔포밍 동작을 수행하는 방법을 도시한 흐름도이다.7 illustrates a method of performing a beamforming operation when a connection with an external electronic device is disconnected while performing a beamforming operation in a state in which an electronic device and an external electronic device are connected according to various embodiments of the present invention. It is a flow chart.
도 7의 제 1 전자 장치(예: 도 1의 전자 장치(101))는 도 2의 전자 장치(101)(예: AR 장치, 웨어러블 전자 장치)와 적어도 일부 유사하거나, 전자 장치(101)의 다른 실시예들을 더 포함할 수 있다. 도 7의 제 1 전자 장치(101)는 도 3의 전자 장치(101)에 포함된 적어도 하나의 구성부들을 포함할 수 있다. 도 7의 제 2 전자 장치(예: 도 1의 외부 전자 장치(102), 도 3의 외부 전자 장치(301))는 외부 전자 장치로써, 사용자의 인체 일부(예: 귀)에 착용 가능한 무선 이어폰(예: 웨어러블 전자 장치)을 포함할 수 있다. 도 7의 제 2 전자 장치(301)는 도 3의 외부 전자 장치(301)에 포함된 적어도 하나의 구성부들을 포함할 수 있다.The first electronic device of FIG. 7 (eg, the
동작 701에서 제 1 전자 장치(101)의 프로세서(예: 도 3의 프로세서(120))는 인체 일부(예: 귀)로부터 제 2 전자 장치(301)가 탈착되는 상황을 확인할 수 있다. 예를 들어, 제 1 전자 장치(101)는 제 1 전자 장치(101)에 포함된 제 1 마이크(171) 및/또는 제 2 전자 장치(301)에 포함된 제 2 마이크(371)를 사용하여 오디오 신호를 획득하는 상황에서, 제 2 전자 장치(301)가 인체의 일부(예: 귀)로부터 착용이 해제되는 상황을 확인할 수 있다. 예를 들어, 제 2 전자 장치(301)는 센서 모듈(376)(예: 근접 센서, 모션 센서, 착용 감지 센서)을 통해, 제 2 전자 장치(301)가 인체 일부에서 물리적으로 떨어진 상황을 확인하고, 제 2 전자 장치(301)가 탈착된 상황을 나타내는 신호를 제 1 전자 장치(101)에 전송할 수 있다. 제 1 전자 장치(101)는 상기 신호의 수신에 응답하여, 제 2 전자 장치(301)가 인체 일부로부터 탈착되었음을 확인할 수 있다. 동작 701은 사용자가 제 1 전자 장치(101) 및/또는 제 2 전자 장치(301)를 기반으로 증강 현실 서비스를 제공 받는 상황에서, 사용자가 제 2 전자 장치(301)(예: 무선 이어폰)를 귀에서 분리한 상황을 포함할 수 있다. 제 2 전자 장치(301)가 인체 일부로부터 탈착된 것은 빔포밍 동작을 위한 마이크의 재설정이 필요하다는 의미일 수 있다.In
동작 703에서 프로세서(120)는 제 1 전자 장치(101)의 제 1 마이크(171)에 대한 설정 정보를 확인할 수 있다. 예를 들어, 제 1 마이크(171)에 대한 설정 정보는 동작 701에서 제 1 마이크(171) 및/또는 제 2 마이크(371)에 기반한 빔포밍 동작에 따른, 제 1 마이크(171)의 설정 정보를 포함할 수 있다. 동작 703에서 프로세서(120)는 빔포밍 동작에 활용되던 제 2 마이크(371)(예: 제 2 전자 장치(301))가 인체 일부로부터 탈착됨에 따라, 제 1 마이크(171)의 설정 정보를 변경하고자, 제 1 마이크(171)의 설정 정보를 확인할 수 있다.In
동작 705에서 프로세서(120)는 사용자의 동공 움직임을 추적하기 위한 동공 추적 카메라(예: 도 2의 동공 추적 카메라(212, 212-1, 212-2), 도 3의 동공 추적 카메라(181))를 활성화시킬 수 있다. 동작 705에서 프로세서(120)는 제 1 마이크(171)만을 사용한 빔포밍 동작을 위해, 제 1 전자 장치(101)에 포함된 동공 추적 카메라(181)를 활용할 수 있다.In
동작 707에서 프로세서(120)는 동공 추적 카메라(181)를 사용하여 사용자가 응시하는 방향 및/또는 위치를 확인할 수 있다. 예를 들어, 동작 707은 제 1 전자 장치(101)가 착용된 상태를 유지하면서, 사용자가 오디오 신호가 발생되는 발원지(예: 오브젝트)를 응시하는 상황일 수 있다.In
동작 709에서 프로세서(120)는 확인된 방향 및/또는 위치를 기반으로, 제 1 전자 장치(101)의 제 1 마이크(171)에 대한 설정 정보(예: 오디오 수신 gain값)를 변경할 수 있다. 예를 들어, 동작 703에서 확인된 제 1 마이크(171)의 설정 정보는 제 1 마이크(171) 및/또는 제 2 마이크(371)에 기반한 빔포밍 동작에 따른 설정 정보(예: 제 1 설정 정보)이고, 동작 709에서 프로세서(120)는 상기 제 1 설정 정보를, 제 1 마이크(171)에 기반한 빔포밍 동작에 따른 설정 정보(예: 제 2 설정 정보)로 변경할 수 있다. In
동작 711에서 프로세서(120)는 설정 정보가 변경된 제 1 마이크(171)를 사용하여 오디오 신호를 획득할 수 있다. 프로세서(120)는 제 1 마이크(171)에 기반한 빔포밍 동작을 수행하면서, 오디오 신호를 획득할 수 있다.In
일 실시예에 따르면, 제 1 전자 장치(101)는 제 2 전자 장치(301)와의 연동에 따른 빔포밍 동작(예: 제 1 빔포밍 동작)을 수행하는 중에, 제 2 전자 장치(301)가 인체 일부로부터 탈착되더라도, 제 1 전자 장치(101)에 기반한 빔포밍 동작(예: 제 2 빔포밍 동작)으로 변경할 수 있고, 계속적으로 향상된 오디오 서비스를 사용자에게 제공할 수 있다.According to an embodiment, while the first
도 8은 본 발명의 다양한 실시예에 따른 전자 장치와 외부 전자 장치가 연결된 상태에서 오디오 신호가 출력되는 도중, 외부 전자 장치와의 연결이 해제되는 경우의 동작을 수행하는 방법을 도시한 흐름도이다.8 is a flowchart illustrating a method of performing an operation when a connection with an external electronic device is disconnected while an audio signal is being output while the electronic device and the external electronic device are connected according to various embodiments of the present disclosure.
도 8의 제 1 전자 장치(예: 도 1의 전자 장치(101))는 도 2의 전자 장치(101)(예: AR 장치, 웨어러블 전자 장치)와 적어도 일부 유사하거나, 전자 장치(101)의 다른 실시예들을 더 포함할 수 있다. 도 8의 제 1 전자 장치(101)는 도 3의 전자 장치(101)에 포함된 적어도 하나의 구성부들을 포함할 수 있다. 도 8의 제 2 전자 장치(예: 도 1의 외부 전자 장치(102), 도 3의 외부 전자 장치(301))는 외부 전자 장치로써, 사용자의 인체 일부(예: 귀)에 착용 가능한 무선 이어폰(예: 웨어러블 전자 장치)을 포함할 수 있다. 도 8의 제 2 전자 장치(301)는 도 3의 외부 전자 장치(301)에 포함된 적어도 하나의 구성부들을 포함할 수 있다.The first electronic device of FIG. 8 (eg, the
동작 801에서 제 1 전자 장치(101)의 프로세서(예: 도 3의 프로세서(120))는 제 1 전자 장치(101)와 제 2 전자 장치(301)가 상호 간에 연결(예: 무선 통신 연결)된 상태에서, 제 2 전자 장치(301)를 통한 오디오 신호가 출력 중인 상태일 수 있다.In
동작 803에서 제 1 전자 장치(101)는 제 2 전자 장치(301)에 대한 연결이 해제되었는지 여부를 확인할 수 있다. 예를 들어, 동작 803은 사용자가 제 1 전자 장치(101)(예: AR 글래스) 및/또는 제 2 전자 장치(301)(예: 무선 이어폰)를 기반으로 증강 현실 서비스를 제공 받는 도중, 제 2 전자 장치(301)에 대한 연결(예: 무선 통신 연결)이 해제된 상황을 포함할 수 있다. 예를 들어, 제1 전자 장치(101)는 제 2 전자 장치(301)와의 무선 통신 연결 해제 절차가 수행되거나, 제 2 전자 장치(301)로부터의 신호가 지정된 시간 이상 감지되지 않으면, 제 2 전자 장치(301)와의 연결이 해제된 것으로 결정할 수 있다.In
동작 803에서 제 2 전자 장치(301)(예: 오디오 신호의 출력을 담당한 외부 전자 장치)에 대한 연결이 해제되면(동작 803-Yes), 동작 805에서 프로세서(120)는 오디오 출력과 관련하여, 매너 모드가 설정되어 있는지 여부를 확인할 수 있다. 예를 들어, 매너 모드는 스피커를 통해 오디오 신호가 출력되지 않는 모드를 포함할 수 있다. 동작 805에서 프로세서(120)는 제 2 전자 장치(301)에 대한 연결이 해제됨에 따라, 오디오 신호의 출력과 관련된 매너 모드가 설정되어 있는지 여부를 확인할 수 있다. 다양한 실시예에 따른 매너 모드는 설명의 편의를 위해 지칭하는 용어에 불과하며, 제2 전자 장치(301)가 연결 및/또는 해제된 경우 제 1 전자 장치(101)의 스피커를 통한 오디오 출력을 제어하기 위한 설정이라면 그 종류에 제한이 없음을 당업자는 용이하게 이해할 것이다. 동작 803에서 제 2 전자 장치(301)에 대한 연결이 해제되지 않으면(동작 803-No), 제 1 전자 장치(101)는 제 2 전자 장치(301)를 통한 오디오 신호의 출력을 유지할 수 있다.When the connection to the second electronic device 301 (eg, the external electronic device responsible for outputting the audio signal) is released in operation 803 (operation 803-Yes), in
동작 805에서 매너 모드가 설정되어 있다면(동작 805-Yes), 동작 807에서 프로세서(120)는 제 1 전자 장치(101)의 디스플레이(예: 도 2의 디스플레이 모듈(160))를 통해, 해제 관련 메시지를 표시할 수 있다. 예를 들어, 해제 관련 메시지는 “제 2 전자 장치(301)의 연결이 해제되었습니다.”와 같은 알림 메시지를 포함할 수 있다. 매너 모드로 설정된 상태이므로, 제 1 전자 장치(101)는 GUI(graphic user interface) 형태(예: 텍스트, 아이콘)의 해제 관련 메시지를 디스플레이를 통해, 표시할 수 있다. 제 1 전자 장치(101)는 오디오 신호의 출력을 중단할 수 있다. 예를 들어, 재생 중이던 컨텐츠의 재생을 중지하여, 오디오 신호의 출력을 중지할 수 있다.If the manner mode is set in operation 805 (operation 805-Yes), in
동작 807에서 매너 모드가 설정되어 있지 않다면(동작 807-No), 동작 809에서 프로세서(120)는 제 1 전자 장치(101)의 스피커에 대한 설정 정보(예: 오디오 출력값)를 기반으로, 제 1 전자 장치(101)를 통한 오디오 신호를 출력할 수 있다. 매너 모드로 설정된 상태가 아니므로, 제 1 전자 장치(101)는 스피커를 통해 오디오 신호의 적어도 일부를 출력할 수 있다. 예를 들어, 제 2 전자 장치(301)가 해제되었다는 내용의 오디오 신호 및/또는 재생 중인 컨텐츠의 오디오 신호를 출력할 수 있다. 다른 예를 들어, 제 1 전자 장치(101)는 오디오 신호 출력의 연속성을 위해 오디오 신호를 출력하는 컨텐츠가 재생 중인 경우 제 2 전자 장치(301)의 해제와 관련된 GUI 형태의 메시지를 디스플레이를 통해 표시하고, 컨텐츠의 사운드 신호는 제 1 전자 장치(101)의 스피커를 통해 출력할 수도 있다. In
일 실시예에 따르면, 제 1 전자 장치(101) 및 제 2 전자 장치(301)가 상호 간에 연동된 상태에서, 제 1 전자 장치(101)는 제 2 전자 장치(301)를 통해 오디오 서비스를 사용자에게 제공할 수 있다. 제 1 전자 장치(101)는 제 2 전자 장치(301)에 대한 연결(예: 무선 통신 연결)이 해제되는 상황에서, 매너 모드로의 설정 유무를 확인할 수 있고, 매너 모드가 설정된 경우, 오디오 신호를 GUI형태의 해제 관련 메시지로 변환할 수 있고, 상기 해제 관련 메시지를 디스플레이를 통해 표시할 수 있다. 한편, 제 1 전자 장치(101)는 매너 모드가 설정되지 않은 경우, 제 1 전자 장치(101)에 포함된 오디오 모듈(180)을 통해, 제 2 전자 장치(301)가 해제되었다는 내용의 오디오 신호를 출력할 수 있다.According to an embodiment, in a state in which the first
도 9는 본 발명의 다양한 실시예에 따른 전자 장치와 외부 전자 장치가 연결된 상태에서 spatial 방식의 오디오 신호가 출력되는 도중, 외부 전자 장치가 인체 일부로부터 탈착되는 경우 stereo 방식의 오디오 신호를 출력하는 방법을 도시한 흐름도이다.9 is a method of outputting a stereo-type audio signal when an external electronic device is detached from a part of a human body while a spatial-type audio signal is being output in a state in which an electronic device and an external electronic device are connected according to various embodiments of the present invention. It is a flow chart showing
도 9의 제 1 전자 장치(예: 도 1의 전자 장치(101))는 도 2의 전자 장치(101)(예: AR 장치, 웨어러블 전자 장치)와 적어도 일부 유사하거나, 전자 장치(101)의 다른 실시예들을 더 포함할 수 있다. 도 9의 제 1 전자 장치(101)는 도 3의 전자 장치(101)에 포함된 적어도 하나의 구성부들을 포함할 수 있다. 도 9의 제 2 전자 장치(예: 도 1의 외부 전자 장치(102), 도 3의 외부 전자 장치(301))는 외부 전자 장치로써, 사용자의 인체 일부(예: 귀)에 착용 가능한 무선 이어폰(예: 웨어러블 전자 장치)을 포함할 수 있다. 도 9의 제 2 전자 장치(301)는 도 3의 외부 전자 장치(301)에 포함된 적어도 하나의 구성부들을 포함할 수 있다.The first electronic device of FIG. 9 (eg, the
동작 901에서 제 1 전자 장치(101)의 프로세서(예: 도 3의 프로세서(120))는 제 1 전자 장치(101)와 제 2 전자 장치(301)가 상호 간에 연결(예: 무선 통신 연결)된 상태를 확인할 수 있다.In
동작 903에서 프로세서(120)는 제 1 전자 장치(101)에서 생성된 spatial 방식의 오디오 신호를 제 2 전자 장치(301)를 통해 출력하는 상태일 수 있다. 예를 들어, 제 1 전자 장치(101)는 AR 글래스로서, 공간적인 요소가 고려된 spatial 방식의 오디오 신호를 생성할 수 있고, 제 1 전자 장치(101)와 작동적으로 연결된 제 2 전자 장치(301)를 통해 spatial 방식의 오디오 신호가 출력되도록, 제 2 전자 장치(301)를 적어도 부분적으로 제어할 수 있다.In
동작 905에서 프로세서(120)는 제 1 전자 장치(101)가 인체 일부(예: 귓바퀴)로부터 탈착되었는지 여부를 판단할 수 있다. 예를 들어, 프로세서(120)는 동공 추적 카메라(예: 도 2의 동공 추적 카메라(212, 212-1, 212-2), 도 3의 동공 추적 카메라(181))를 통해, 사용자의 동공이 존재하는지 여부를 확인할 수 있고, 동공이 확인되지 않는 경우, 제 1 전자 장치(101)가 인체 일부로부터 탈착되었음을 판단할 수 있으나, 제1 전자 장치(101)의 탈착 여부를 판단하는 방법은 이에 한정되지 않는다. 예를 들어, 제1 전자 장치(101)는 근접 센서 및/또는 모션 센서(예: 도 3의 모션 센서(177))를 포함하고, 근접 센서 및/또는 모션 센서(177)에 기반하여 탈착 여부를 판단할 수도 있다.In
동작 905에서 제 1 전자 장치(101)가 인체 일부로부터 탈착된 경우, 동작 907에서 프로세서(120)는 제 1 전자 장치(101)에서 stereo 방식의 오디오 신호를 생성할 수 있다.In
동작 907에서 프로세서(120)는 제 1 전자 장치(101)에서 생성된 stereo 방식의 오디오 신호를 제 2 전자 장치(301)를 통해 출력할 수 있다.In
일 실시예에 따르면, 제 1 전자 장치(101) 및 제 2 전자 장치(301)가 상호 간에 연동된 상태에서, 제 2 전자 장치(301)를 통해, spatial 방식의 오디오 신호가 출력될 수 있다. 제 1 전자 장치(101)가 인체 일부로부터 탈착되는 상황에서, 제 1 전자 장치(101)는 stereo 방식의 오디오 신호를 생성할 수 있고, 제 2 전자 장치(301)를 통해, stereo 방식의 오디오 신호를 출력할 수 있다.According to an embodiment, in a state in which the first
도 10은 본 발명의 다양한 실시예에 따른 전자 장치와 외부 전자 장치가 연결된 상태에서 오디오 신호가 출력되는 도중, 전자 장치가 인체 일부로부터 탈착되는 경우의 동작을 수행하는 방법을 도시한 흐름도이다.10 is a flowchart illustrating a method of performing an operation when an electronic device is detached from a part of a human body while an audio signal is being output while an electronic device and an external electronic device are connected according to various embodiments of the present disclosure.
도 10의 제 1 전자 장치(예: 도 1의 전자 장치(101))는 도 2의 전자 장치(101)(예: AR 장치, 웨어러블 전자 장치)와 적어도 일부 유사하거나, 전자 장치(101)의 다른 실시예들을 더 포함할 수 있다. 도 10의 제 1 전자 장치(101)는 도 3의 전자 장치(101)에 포함된 적어도 하나의 구성부들을 포함할 수 있다. 도 10의 제 2 전자 장치(예: 도 1의 외부전자 장치(102), 도 3의 외부 전자 장치(301))는 외부 전자 장치로써, 사용자의 인체 일부(예: 귀)에 착용 가능한 무선 이어폰(예: 웨어러블 전자 장치)을 포함할 수 있다. 도 10의 제 2 전자 장치(301)는 도 3의 외부 전자 장치(301)에 포함된 적어도 하나의 구성부들을 포함할 수 있다.The first electronic device of FIG. 10 (eg, the
동작 1001에서 제 1 전자 장치(101)의 프로세서(예: 도 3의 프로세서(120))는 제 1 전자 장치(101)와 제 2 전자 장치(301)가 상호 간에 연결(예: 무선 통신 연결)된 상태를 확인할 수 있다.In
동작 1003에서 프로세서(120)는 제 1 전자 장치(101)의 동공 추적 카메라(예: 도 2의 동공 추적 카메라(212, 212-1, 212-2), 도 3의 동공 추적 카메라(181))를 사용하여 사용자가 응시하는 방향 및/또는 위치를 확인할 수 있다. 예를 들어, 동공 추적 카메라(181)는 양안에 대한 눈동자 움직임을 추적하여, 시선에 따른 초점을 확인할 수 있고, 확인된 초점을 기반으로, 사용자가 응시하는 방향 및/또는 위치를 확인할 수 있다.In
동작 1005에서 프로세서(120)는 확인된 방향 및/또는 위치를 기반으로, 제 1 전자 장치(101)의 제 1 마이크(171) 및/또는 제 2 전자 장치(301)의 제 2 마이크(371)에 대한 빔포밍 동작을 수행할 수 있다. 예를 들어, 프로세서(120)는 제 1 마이크(171) 및/또는 제 2 마이크(371)를 기반으로, 확인된 방향 및/또는 위치에 대응되는 오디오 신호를 획득할 수 있다. 예를 들어, 확인된 방향 및/또는 위치로부터 수신되는 오디오 신호가 그 외의 다른 방향 및/또는 위치로부터 수신되는 오디오 신호보다 큰 볼륨으로 수신될 수 있다.In
동작 1007에서 프로세서(120)는 제 1 전자 장치(101)가 인체 일부로부터 탈착되었는지 여부를 판단할 수 있다. 예를 들어, 제 1 전자 장치(101)는 AR 글래스로, 사용자의 귓바퀴에 거치되는 형태로 착용될 수 있고, 제 2 전자 장치(301)는 무선 이어폰으로, 사용자의 귀 속에 삽입되는 형태로 착용될 수 있다. 일 실시예에 따르면, 사용자에 의해, 제 1 전자 장치(101)가 인체 일부(예: 귓바퀴, 머리)로부터 탈착될 수 있으며, 프로세서(120)는 제 1 전자 장치(101)에 대한 탈착 여부를 판단할 수 있다. 예를 들어, 프로세서(120)는 동공 추적 카메라(예: 도 2의 동공 추적 카메라(212, 212-1, 212-2), 도 3의 동공 추적 카메라(181))를 통해, 사용자의 동공이 존재하는지 여부를 확인할 수 있고, 동공이 확인되지 않는 경우, 제 1 전자 장치(101)가 인체 일부로부터 탈착되었음을 판단할 수 있다. 제 1 전자 장치(101)의 탈착 여부를 판단하는 방법은 동공 추적 카메라(181)를 사용한 방법에 한정되지 않는다. 예를 들어, 제1 전자 장치(101)는 근접 센서 및/또는 모션 센서(예: 도 3의 모션 센서(177))를 포함하고, 근접 센서 및/또는 모션 센서(177)에 기반하여 탈착 여부를 판단할 수도 있다.In
동작 1007에서 제 1 전자 장치(101)가 인체 일부로부터 탈착된 경우(동작 1007-Yes) 동작 1009에서 프로세서(120)는 제 2 전자 장치(301)의 제 2 마이크(371)를 통해 획득된 오디오 신호를 기반으로 오디오 신호가 생성된 방향 및/또는 위치를 확인할 수 있다. 제 1 전자 장치(101)가 인체 일부로부터 탈착되었으므로, 동작 1009에서 프로세서(120)는 동공 추적 카메라(181)를 사용하기 어려운 상태일 수 있다. 동작 1009에서 프로세서(120)는 인체 일부에 착용된 상태를 유지하고 있는 제 2 전자 장치(301)의 제 2 마이크(371)를 통해 오디오 신호를 획득할 수 있고, 획득된 오디오 신호를 기반으로 오디오 신호가 생성된 방향 및/또는 위치를 확인할 수 있다. 동작 1007에서 제 1 전자 장치(101)가 인체 일부로부터 탈착되지 않는 경우(동작 1007-No) 동작 1015에서 프로세서(120)는 확인된 방향 및/또는 위치를 기반으로 빔포밍 동작의 수행을 유지할 수 있다. 프로세서(120)는 제 1 마이크(171) 및/또는 제 2 마이크(371)에 기반한 빔포밍 동작을 유지할 수 있다.In
동작 1011에서 프로세서(120)는 확인된 방향 및/또는 위치를 기반으로 제 2 전자 장치(301)의 제 2 마이크(371)에 대한 빔포밍 동작을 수행할 수 있다. 일 실시예에 따르면, 제 1 전자 장치(101)는 제 1 전자 장치(101)가 인체 일부로부터 탈착되어 기존의 빔포밍 동작(예: 제 1 빔포밍 동작)이 수행되지 못할지라도, 제 2 전자 장치(301)의 제 2 마이크(371)에 기반한 빔포밍 동작(예: 제2 빔포밍 동작)이 수행되도록 제 2 전자 장치(301)를 적어도 부분적으로 제어할 수 있다.In
동작 1013에서 프로세서(120)는 제 1 전자 장치(101)가 다시 인체 일부에 착용되었는지 여부를 판단할 수 있다. 예를 들어, 동작 1009에서 탈착된 제 1 전자 장치(101)가 다시 착용되는 경우(동작 1013-Yes), 동작 1003에서 프로세서(120)는 제 1 전자 장치(101)의 동공 추적 카메라(181)에 기반한 빔포밍 동작(예: 제 1 빔포밍 동작)을 다시 수행할 수 있다. 동작 1013에서 제 1 전자 장치(101)가 다시 인체 일부에 착용되지 않으면(동작 1013-No), 동작 1009에서 프로세서(120)는 제 2 전자 장치(301)의 제 2 마이크(371)에 기반한 빔포밍 동작(예: 제 2 빔포밍 동작)을 수행할 수 있다. In
일 실시예에 따르면, 제 1 전자 장치(101) 및 제 2 전자 장치(301)가 상호 간에 연동된 상태에서, 제 1 마이크(171) 및/또는 제 2 마이크(371)에 기반한 빔포밍 동작(예: 제 1 빔포밍 동작)이 수행 중인 상태일 수 있다. 제 1 전자 장치(101)는 제 1 전자 장치(101)가 인체 일부로부터 탈착되는 상황에 응답하여, 제 2 전자 장치(301)의 제 2 마이크(371)에 기반한 빔포밍 동작(예: 제 2 빔포밍 동작)을 수행할 수 있다. 제 1 전자 장치(101)는 제 1 전자 장치(101)가 인체 일부에 다시 착용되는 상황에 응답하여, 제 1 마이크(171) 및/또는 제 2 마이크(371)에 기반한 빔포밍 동작(예: 제 1 빔포밍 동작)을 다시 수행할 수 있다. 일 실시예에 따르면, 제 1 전자 장치(101) 및 제 2 전자 장치(301)가 상호 간에 연동된 상태에서, 제 1 전자 장치(101)는 제 1 전자 장치(101)가 인체 일부로부터 탈착되는 제 1 상황, 또는 제 2 전자 장치(301)가 인체 일부로부터 탈착되는 제 2 상황에 응답하여, 제 1 전자 장치(101) 및/또는 제 2 전자 장치(301) 간의 빔포밍 동작을 전환할 수 있다. 예를 들어, 제 1 전자 장치(101)는 제 1 전자 장치(101)가 인체로부터 탈착되는 상황에 응답하여, 제 1 빔포밍 동작을 제 2 빔포밍 동작으로 전환할 수 있다. 제 1 전자 장치(101)는 제 2 빔포밍 동작으로 전환된 상태에서, 제 1 전자 장치(101)가 다시 인체에 착용되는 상황에 응답하여, 제 2 빔포밍 동작을 제 1 빔포밍 동작으로 전환할 수 있다.According to an embodiment, in a state in which the first
도 11a는 본 발명의 다양한 실시예에 따른 전자 장치에 포함된 카메라를 사용하여 사용자의 시선 방향 및/또는 동공의 움직임을 추적하는 방법을 도시한 제 1 예시도이다.11A is a first exemplary diagram illustrating a method of tracking a user's gaze direction and/or pupil movement using a camera included in an electronic device according to various embodiments of the present disclosure.
도 11a의 전자 장치(예: 도 1의 전자 장치(101))는 도 2의 전자 장치(101)(예: AR 장치, 웨어러블 전자 장치)와 적어도 일부 유사하거나, 전자 장치(101)의 다른 실시예들을 더 포함할 수 있다. 도 11a의 전자 장치(101)는 도 3의 전자 장치(101)에 포함된 적어도 하나의 구성부들을 포함할 수 있다.The electronic device of FIG. 11A (eg, the
도 11a를 참조하면, 전자 장치(101)는 사용자의 머리(head)에 착용되는 웨어러블 전자 장치(예: AR 장치)를 포함하고, 사용자의 머리가 가리키는 방향을 기반으로 빔포밍 동작을 수행할 수 있다. 예를 들어, 전자 장치(101)는 전자 장치(101)에 포함된 적어도 하나의 모션 센서(예: 자이로 센서, 가속도 센서, 도 3의 모션 센서(181))를 사용하여, 사용자의 머리 이동에 따른 방향 변화를 감지할 수 있고, 변화된 방향에 기반한 빔포밍 동작을 수행할 수 있다. 도 11a는 사용자의 머리 방향에 따른 제 1 상태(1110) 및 제 2 상태(1120)를 도시한다.Referring to FIG. 11A , the
제 1 상태(1110)에서 전자 장치(101)는 ?x축 및/또는 y축에 기반한 대각선 방향(예: 제 1 방향(1112))을 따라 배치될 수 있으며, 전자 장치(101)의 프로세서(예: 도 3의 프로세서(120))는 제 1 방향(1112)에 기반한 제 1 지점(1111)을 빔포밍 동작을 위한 지점으로 결정할 수 있다. 제 1 상태(1110)의 전자 장치(101)는 제 1 지점(1111)을 기반으로 빔포밍 동작을 수행할 수 있다.In the
제 2 상태(1120)에서 전자 장치(101)는 y축을 따라 형성된 방향(예: 제 2 방향(1122))을 따라 배치될 수 있으며, 프로세서(120)는 제 2 방향(1122)에 기반한 제 2 지점(1121)을 빔포밍 동작을 위한 지점으로 결정할 수 있다. 제 2 상태(1120)의 전자 장치(101)는 제 2 지점(1121)을 기반으로 빔포밍 동작을 수행할 수 있다.In the
일 실시예에 따르면, 전자 장치(101)는 적어도 하나의 모션 센서를 통해 사용자의 머리 방향(예: 움직임)에 따른 전자 장치(101)의 방향 및/또는 자세를 감지할 수 있고, 사용자의 머리 방향에 기반한 빔포밍 동작을 수행할 수 있다.According to an embodiment, the
도 11b는 본 발명의 다양한 실시예에 따른 전자 장치에 포함된 카메라를 사용하여 사용자의 시선 방향 및/또는 동공의 움직임을 추적하는 방법을 도시한 제 2 예시도이다.11B is a second exemplary diagram illustrating a method of tracking a user's gaze direction and/or pupil movement using a camera included in an electronic device according to various embodiments of the present disclosure.
도 11b의 전자 장치(예: 도 1의 전자 장치(101))는 도 2의 전자 장치(101)(예: AR 장치, 웨어러블 전자 장치)와 적어도 일부 유사하거나, 전자 장치(101)의 다른 실시예들을 더 포함할 수 있다. 도 11b의 전자 장치(101)는 도 3의 전자 장치(101)에 포함된 적어도 하나의 구성부들을 포함할 수 있다.The electronic device of FIG. 11B (eg, the
도 11b를 참조하면, 전자 장치(101)는 사용자의 머리(head)에 착용되는 웨어러블 전자 장치(예: AR 장치)를 포함하고, 동공 추적 카메라(예: 도 2의 동공 추적 카메라(212, 212-1, 212-2), 도 3의 동공 추적 카메라(181))를 사용하여, 사용자의 눈동자 움직임을 추적할 수 있다. 전자 장치(101)는 눈동자 움직임에 따른 시선 방향을 확인할 수 있고, 확인된 시선 방향을 기반으로 빔포밍 동작을 수행할 수 있다. 동공 추적 카메라(212)는 좌안(left eye)의 움직임을 추적하는 좌안 카메라(212-1) 및/또는 우안(right eye)의 움직임을 추적하는 우안 카메라(212-2)를 포함할 수 있다. 전자 장치(101)는 좌안 카메라(212-1)를 통해 확인된 좌안의 방향 및 우안 카메라(212-2)를 통해 확인된 우안의 방향을 기반으로, 사용자의 시선 방향 및/또는 위치를 확인할 수 있고, 확인된 시선 방향 및/또는 위치에 기반한 빔포밍 동작을 수행할 수 있다.Referring to FIG. 11B , the
일 실시예에 따르면, 전자 장치(101)는 동공 추적 카메라(212, 212-1, 212-2)를 사용하여, 사용자의 시선 방향에 따른 다양한 방향(예: 좌상항(left-up direction)(1131), 우상향(right-up direction)(1132), 좌하향(left-down direction)(1133), 및/또는 우하향(right-down direction)(1134)) 중에서 사용자가 응시하는 방향을 확인할 수 있다. 전자 장치(101)는 동공 추적 카메라(212, 212-1, 212-2)를 사용하여 사용자의 시선 방향을 확인할 수 있고, 사용자의 시선 방향에 기반한 빔포밍 동작을 수행할 수 있다.According to an embodiment, the
도 12a는 본 발명의 다양한 실시예에 따른 전자 장치에 포함된 카메라를 사용하여 동공의 움직임에 따른 초점 위치를 확인하는 방법을 도시한 제 1 예시도이다.12A is a first exemplary diagram illustrating a method of checking a focus position according to pupil movement using a camera included in an electronic device according to various embodiments of the present disclosure.
도 12a를 참조하면, 사용자의 눈동자(1201)(예: 동공)가 정중앙에 위치했을 때의 이미지를 도시한다. 정중앙에 위치한 눈동자(1201)를 기준으로 약 4개의 영역(예: A존, B존, C존, 및/또는 D존)이 분할될 수 있다. 도 12a를 참조하면, 하나의 눈동자(예: 단안)가 도시되었으나, 좌안, 우안, 및/또는 양안에 각각 적용될 수 있다.Referring to FIG. 12A , an image when a pupil 1201 (eg, a pupil) of a user is positioned at the center is shown. Based on the
일 실시예에 따르면, 전자 장치(101)는 동공 추적 카메라(예: 도 2의 동공 추적 카메라(212), 도 3의 동공 추적 카메라(181))를 사용하여, 사용자의 동공 움직임을 추적할 수 있다. 전자 장치(101)는 도 12a와 같이, 동공이 움직이는 영역을 약 4개의 영역으로 분할하여, 사용자의 시선 방향을 확인할 수 있다.According to an embodiment, the
도 12b는 본 발명의 다양한 실시예에 따른 전자 장치에 포함된 카메라를 사용하여 동공의 움직임에 따른 초점 위치를 확인하는 방법을 도시한 제 2 예시도이다. 도 12c는 본 발명의 다양한 실시예에 따른 전자 장치에 포함된 카메라를 사용하여 동공의 움직임에 따른 초점 위치를 확인하는 방법을 도시한 제 3 예시도이다. 도 12d는 본 발명의 다양한 실시예에 따른 전자 장치에 포함된 카메라를 사용하여 동공의 움직임에 따른 초점 위치를 확인하는 방법을 도시한 제 4 예시도이다.12B is a second exemplary diagram illustrating a method of checking a focal position according to pupil movement using a camera included in an electronic device according to various embodiments of the present disclosure. 12C is a third exemplary diagram illustrating a method of checking a focus position according to pupil movement using a camera included in an electronic device according to various embodiments of the present disclosure. 12D is a fourth exemplary view illustrating a method of checking a focus position according to pupil movement using a camera included in an electronic device according to various embodiments of the present disclosure.
도 12b, 12c, 12d를 참조하면, 전자 장치(101)는 동공 추적 카메라(예: 도 2의 동공 추적 카메라(212), 도 3의 동공 추적 카메라(181))를 사용하여, 사용자의 양안(예: 좌안(1211), 및/또는 우안(1212))에 대한 동공 움직임을 추적할 수 있다. 도 12b, 12c, 12d를 참조하면, 사용자의 동공 움직임에 따른 5가지 예시가 도시되었으나, 이에 한정되지 않는다. 도 12b는 제 1 예시(1210) 및 제 2 예시(1220)를 도시하고, 도 12c는 제 3 예시(1230) 및 제 4 예시(1240)를 도시하고, 도 12d는 제 5 예시(1250)를 도시한다.Referring to FIGS. 12B, 12C, and 12D, the
제 1 예시(1210) 내지 제 4 예시(1240)는 좌안(1211) 및/또는 우안(1212)이 동일한 영역에 위치하는 경우의 시선 방향을 도시하고, 제 5 예시(1250)는 좌안(1211) 및/또는 우안(1212)이 다른 영역에 위치하는 경우의 시선 방향을 도시한다.The first examples 1210 to the fourth examples 1240 show gaze directions when the
제 1 예시(1210)에 따르면, 좌안(1211) 및/또는 우안(1212)은 C존(예: 도 12a의 C존)에 위치하게 되고, 전자 장치(101)는 동공의 움직임에 따른 제 1 초점 위치(1215)를 결정할 수 있다. 제 2 예시(1220)에 따르면, 좌안(1211) 및/또는 우안(1212)은 D존(예: 도 12a의 D존)에 위치하게 되고, 전자 장치(101)는 동공의 움직임에 따른 제 2 초점 위치(1225)를 결정할 수 있다. 제 3 예시(1230)에 따르면, 좌안(1211) 및/또는 우안(1212)은 A존(예: 도 12a의 A존)에 위치하게 되고, 전자 장치(101)는 동공의 움직임에 따른 제 3 초점 위치(1235)를 결정할 수 있다. 제 4 예시(1240)에 따르면, 좌안(1211) 및/또는 우안(1212)은 B존(예: 도 12a의 B존)에 위치하게 되고, 전자 장치(101)는 동공의 움직임에 따른 제 4 초점 위치(1245)를 결정할 수 있다.According to the first example 1210, the
제 5 예시(1250)에 따르면, 좌안(1211)은 C존에 위치하고, 우안(1212)은 D존에 위치할 수 있다. 예를 들어, 사용자의 시선 방향은 좌안(1211) 및/또는 우안(1212)의 사이로 결정될 수 있다. 전자 장치(101)는 동공의 움직임에 따른 제 5 초점 위치(1255)를 결정할 수 있다.According to the fifth example 1250, the
도 13a는 본 발명의 다양한 실시예에 따른 2D 기반으로 사용자의 초점 위치를 확인하는 방법을 도시한 예시도이다. 도 13b는 본 발명의 다양한 실시예에 따른 3D 기반으로 사용자의 초점 위치를 확인하는 방법을 도시한 예시도이다.13A is an exemplary diagram illustrating a method of determining a user's focus position based on 2D according to various embodiments of the present disclosure. 13B is an exemplary view illustrating a method of determining a user's focus position based on 3D according to various embodiments of the present disclosure.
도 13a 및 도 13b를 참조하면, 전자 장치(101)는 동공 추적 카메라(예: 도 2의 동공 추적 카메라(212))를 사용하여, 사용자의 양안(예: 좌안 및/또는 우안)에 대한 동공 움직임을 추적할 수 있고, 시선 방향에 따른 초점 위치(1311, 1312)를 결정할 수 있다. 전자 장치(101)는 도 13a와 같이, 2D에 기반한 초점 위치(1311)를 결정하거나, 또는, 도 13b와 같이, 3D에 기반한 초점 위치(1312)를 결정할 수 있다.Referring to FIGS. 13A and 13B , the
도 13b를 참조하면, 전자 장치(101)는 3D 방식에 따른 적어도 하나의 레이어(예: 제 1 레이어(1310), 제 2 레이어(1320), 및/또는 제 3 레이어(1330))를 설정하여 공간화할 수 있고, 3D 방식에 따른 사용자의 초점 위치를 결정할 수 있다. Referring to FIG. 13B , the
도 14는 본 발명의 다양한 실시예에 따른 가상 현실에서 구현된 가상의 객체를 기반으로, 사용자의 초점 위치를 확인하는 방법을 도시한 예시도이다.14 is an exemplary diagram illustrating a method of confirming a user's focus position based on a virtual object implemented in virtual reality according to various embodiments of the present disclosure.
도 14의 제 1 전자 장치(1401) 및/또는 제 2 전자 장치(1402)(예: 도 1의 전자 장치(101))는 도 2의 전자 장치(101)(예: AR 장치, 웨어러블 전자 장치)와 적어도 일부 유사하거나, 전자 장치(101)의 다른 실시예들을 더 포함할 수 있다. 도 14의 제 1 전자 장치(1401) 및/또는 제 2 전자 장치(1402)는 도 3의 전자 장치(101)에 포함된 적어도 하나의 구성부들을 포함할 수 있다.The first
도 14를 참조하면, 현실 세계가 배경화면으로 설정된 상태에서, 다양한 종류의 가상 객체(예: 제 1 가상 객체(1411), 제 2 가상 객체(1412), 제 3 가상 객체(1413))를 도시한다. 도 14를 참조하면, 가상 현실 서비스를 체험하고 있는 2명의 사용자(예: 제 1 사용자(1410), 제 2 사용자(1420))를 도시한다. 제 1 사용자(1410) 및/또는 제 2 사용자(1420)는 각각, 가상 현실 서비스를 제공하는 웨어러블 전자 장치(예: AR 장치, 제 1 전자 장치(1401), 및/또는 제 2 전자 장치(1402))를 머리에 착용한 상태일 수 있다. 예를 들어, 제 1 사용자(1410)는 제 1 가상 객체(1411)를 응시하는 상태이고, 제 2 사용자(1420)는 현실 객체(1421)를 응시하는 상태일 수 있다.Referring to FIG. 14, various types of virtual objects (eg, a first
도 14를 참조하면, 제 1 사용자(1410)의 머리에 착용된 제 1 전자 장치(1401)는 제 1 사용자(1410)의 시선 방향 및/또는 위치를 추적할 수 있고, 추적된 시선 방향 및/또는 위치에 기반하여, 제 1 사용자(1410)가 제 1 가상 객체(1411)를 응시하는 상태임을 확인할 수 있다. 제 1 전자 장치(1401)는 제 1 가상 객체(1411)에 대한 빔포밍 동작을 수행할 수 있다. 예를 들어, 제 1 전자 장치(1401)는 제 1 가상 객체(1411)로부터 생성된 오디오 신호를 중점적으로 획득하도록, 제 1 가상 객체(1411)에 대한 데이터(예: 오디오 신호)에 가중치를 높여서 획득할 수 있다. 제 1 전자 장치(1401)는 제 1 가상 객체(1411) 외의 나머지 가상 객체(예: 제 2 가상 객체(1412), 제 3 가상 객체(1413))에 대한 가중치를 상대적으로 낮게 설정하거나, 또는, 나머지 가상 객체들로부터 수신된 오디오 신호의 세기를 감소시키거나, 또는, 수신된 오디오 신호의 적어도 일부를 제거할 수 있다.Referring to FIG. 14 , the first
도 14를 참조하면, 제 2 사용자(1420)의 머리에 착용된 제 2 전자 장치(1402)는 제 2 사용자(1420)의 시선 방향 및/또는 위치를 추적할 수 있고, 추적된 시선 방향 및/또는 위치에 기반하여, 제 2 사용자(1420)가 현실 객체(1421)를 응시하는 상태임을 확인할 수 있다. 제 2 전자 장치(1402)는 현실 객체(1421)에 대한 빔포밍 동작을 수행할 수 있다. 예를 들어, 제 2 전자 장치(1402)는 가상 객체들(예: 제 1 가상 객체(1411), 제 2 가상 객체(1412), 제 3 가상 객체(1413))에 대한 데이터(예: 오디오 신호)를 삭제할 수도 있다.Referring to FIG. 14 , the second
일 실시예에 따르면, 전자 장치(101)는 현실 객체뿐만 아니라, 가상 객체에 대한 빔포밍 동작을 수행할 수도 있다. 가상 객체에 대한 빔포밍 동작을 수행할 때, 전자 장치(101)는 특정 가상 객체에 대한 오디오 신호에 가중치를 높게 설정하거나, 또는, 상기 오디오 신호에 가중치를 낮게 설정할 수 있다.According to an embodiment, the
도 15는 본 발명의 다양한 실시예들에 따른 제 1 전자 장치, 제 2 전자 장치 및/또는 휴대용 전자 장치 간의 통신 연결을 도시한 예시도이다.15 is an exemplary diagram illustrating a communication connection between a first electronic device, a second electronic device, and/or a portable electronic device according to various embodiments of the present disclosure.
도 15의 제 1 전자 장치(예: 도 1의 전자 장치(101))는 도 2의 전자 장치(101)(예: AR 장치, 웨어러블 전자 장치)와 적어도 일부 유사하거나, 전자 장치(101)의 다른 실시예들을 더 포함할 수 있다. 도 15의 제 1 전자 장치(101)는 도 3의 전자 장치(101)에 포함된 적어도 하나의 구성부들을 포함할 수 있다. 도 15의 제 2 전자 장치(예: 도 1의 외부전자 장치(102), 도 3의 외부 전자 장치(301))는 외부 전자 장치로써, 사용자의 인체 일부(예: 귀)에 착용 가능한 무선 이어폰(예: 웨어러블 전자 장치)을 포함할 수 있다. 도 15의 휴대용 전자 장치(1501)는 스마트 폰과 같이, 휴대가 용이한 외부 전자 장치를 포함할 수 있다.The first electronic device of FIG. 15 (eg, the
도 15을 참조하면, 제 1 전자 장치(101)는 제 2 전자 장치(301)와 작동적으로 연결될 수 있고, 제 1 전자 장치(101)와 제 2 전자 장치(301)가 서로 연동(예: 무선 통신 연결)될 때, 제 1 전자 장치(101)는 메인 전자 장치로 기능하며, 제 2 전자 장치(301)를 적어도 부분적으로 제어할 수 있다. 휴대용 전자 장치(1501)는 제 2 전자 장치(301)와 작동적으로 연결될 수 있고, 휴대용 전자 장치(1501)와 제 2 전자 장치(301)가 서로 연동될 때, 휴대용 전자 장치(1501)는 메인 전자 장치로 기능하며, 제 2 전자 장치(301)를 적어도 부분적으로 제어할 수 있다.Referring to FIG. 15 , the first
일 실시예에 따르면, 제 1 전자 장치(101), 제 2 전자 장치(301), 및/또는 휴대용 전자 장치(1501)가 함께 연동될 수 있으며, 이 경우, 제 1 전자 장치(101) 및/또는 휴대용 전자 장치(1501) 중 하나의 전자 장치가 메인 전자 장치로 기능할 수 있다. 예를 들어, 제 1 전자 장치(101)가 메인 전자 장치로 기능하는 경우, 제 1 전자 장치(101)는 복수 개의 마이크들(예: 제 1 전자 장치(101)의 제 1 마이크(171), 제 2 전자 장치(301)의 제 2 마이크(371), 및/또는 휴대용 전자 장치(1501)의 마이크)과 관련된 마이크 정보를 획득할 수 있다. 예를 들어, 제 2 전자 장치(301) 및/또는 휴대용 전자 장치(1501)는 제 1 전자 장치(101)에 마이크 관련 정보를 전송할 수 있다. 제 1 전자 장치(101)는 획득된 마이크 정보를 기반으로, 복수 개의 마이크들 중 적어도 하나의 마이크를 선택할 수 있고, 선택된 적어도 하나의 마이크에 기반한 빔포밍 동작을 수행하도록, 제 2 전자 장치(301) 및/또는 휴대용 전자 장치(1501)를 적어도 부분적으로 제어할 수 있다.According to an embodiment, the first
일 실시예에 따르면, 제 1 전자 장치(101)는 복수 개의 외부 전자 장치들과 연동될 수 있으며, 복수 개의 마이크들과 관련된 마이크 정보를 획득할 수 있다. 제 1 전자 장치(101)는 동공 추적 카메라(예: 도 2의 동공 추적 카메라(212, 212-1, 212-2), 도 3의 동공 추적 카메라(181))를 사용하여, 사용자가 응시하고 있는 시선 방향 및/또는 위치를 확인할 수 있고, 확인된 시선 방향 및/또는 위치에 기반한 빔포밍 동작을 수행할 수 있다. 예를 들어, 제 1 전자 장치(101)는 확인된 시선 방향 및/또는 위치를 기준으로, 상대적으로 가깝게 위치한 적어도 하나의 마이크를 선택할 수 있고, 선택된 적어도 하나의 마이크에 기반한 빔포밍 동작을 수행할 수 있다. 일 실시예에 따르면, 빔포밍 동작의 수행 시, 제 1 전자 장치(101)는 확인된 시선 방향 및/또는 위치가 아닌, 다른 방향에서 발생되는 오디오 신호에 대한 수신율을 적어도 부분적으로 감소시키거나, 차단하거나, 또는, 무시할 수 있다. According to an embodiment, the first
도 16a는 본 발명의 다양한 실시예들에 따른 복수 개의 마이크를 기반으로, 오디오 신호가 발생하는 위치를 확인하고, 적어도 하나의 마이크를 선택하는 방법을 도시한 제 1 예시도이다.FIG. 16A is a first exemplary diagram illustrating a method of identifying a location where an audio signal is generated and selecting at least one microphone based on a plurality of microphones according to various embodiments of the present invention.
도 16a의 제 1 전자 장치(예: 도 1의 전자 장치(101))는 도 2의 전자 장치(101)(예: AR 장치, 웨어러블 전자 장치)와 적어도 일부 유사하거나, 전자 장치(101)의 다른 실시예들을 더 포함할 수 있다. 도 16a의 제 1 전자 장치(101)는 도 3의 전자 장치(101)에 포함된 적어도 하나의 구성부들을 포함할 수 있다. 도 16a의 제 2 전자 장치(예: 도 1의 외부 전자 장치(102), 도 3의 외부 전자 장치(301))는 외부 전자 장치로써, 사용자의 인체 일부(예: 귀)에 착용 가능한 무선 이어폰(예: 웨어러블 전자 장치)을 포함할 수 있다. 도 16a의 제 2 전자 장치(301)는 도 3의 외부 전자 장치(301)에 포함된 적어도 하나의 구성부들을 포함할 수 있다.The first electronic device of FIG. 16A (eg, the
도 16a를 참조하면, 제 1 전자 장치(101)에 포함된 제 1-1 마이크(1601)(예: 도 3의 제 1-1 마이크(171-1)) 및/또는 제 1-2 마이크(1602)(예: 도 3의 제 1-2 마이크(171-2)), 제 2 전자 장치(301)에 포함된 제 2 마이크(1603)(예: 도 3의 제 2 마이크(371))를 도시한다. 도 16a를 참조하면, 서로 다른 방향 및/또는 위치에서 발생하는 제 1 오디오 신호(1610) 및/또는 제 2 오디오 신호(1620)를 도시한다. 일 실시예에 따르면, 제 1 전자 장치(101)는 복수 개의 마이크들(예: 제 1 마이크(1601), 제 2 마이크(1602), 및/또는 제 3 마이크(1603)) 중 적어도 하나의 마이크를 선택할 수 있고, 선택된 마이크에 기반한 빔포밍 동작을 수행할 수 있다. Referring to FIG. 16A , the 1-1
도 16a를 참조하면, 제 1 전자 장치(101)는 동공 추적 카메라(예: 도 3의 동공 추적 카메라(181))를 사용하여, 사용자가 제 1 오디오 신호(1610)가 발생된 발원지를 응시하고 있음을 확인할 수 있다. 제 1 전자 장치(101)는 복수 개의 마이크들(예: 제 1 마이크(1601), 제 2 마이크(1602), 및/또는 제 3 마이크(1603)) 중 제 1 오디오 신호(1610)와 상대적으로 근거리에 배치된 제 1 마이크(1601) 및/또는 제 2 마이크(1602)를 선택할 수 있고, 선택된 제 1 마이크(1601) 및/또는 제 2 마이크(1602)에 기반한 빔포밍 동작을 수행할 수 있다. 예를 들어, 제 1 마이크(1601)는 제 1 신호 경로(S1)(1611)에 따른 제 1 오디오 신호(1610)를 획득할 수 있고, 제 2 마이크(1602)는 제 2 신호 경로(S2)(1612)에 따른 제 1 오디오 신호(1610)를 획득할 수 있다.Referring to FIG. 16A , the first
도 16a를 참조하면, 제 1 전자 장치(101)는 제 1 오디오 신호(1610)가 아닌, 다른 오디오 신호(예: 제 2 오디오 신호(1620))를 노이즈(noise) 신호로 설정할 수 있고, 노이즈 신호로 설정된 제 2 오디오 신호(1620)의 수신을 적어도 부분적으로 감소시키거나, 차단하거나, 또는 삭제시킬 수 있다. 예를 들어, 제 1 전자 장치(101)는 제 1 노이즈 경로(n1)(1621)를 따라 제 1 마이크(1601)로 유입되는 제 1 노이즈 신호 및/또는 제 2 노이즈 경로(n2)(1622)를 따라 제 2 마이크(1602)로 유입되는 제 2 노이즈 신호를 적어도 부분적으로 감소시키거나, 차단하거나, 또는 삭제시킬 수 있다. 제 1 전자 장치(101)는 제 1 오디오 신호(1610)에 대한 빔포밍 동작을 수행하는 경우, 상기 제 1 오디오 신호(1610) 외의 다른 신호(예: 제 2 오디오 신호(1620), 노이즈 신호)의 유입을 적어도 부분적으로 감소시키거나, 차단하거나, 또는 삭제시킬 수 있다.Referring to FIG. 16A , the first
일 실시예에 따르면, 제 1 전자 장치(101)는 사용자가 응시하는 시선 방향 및/또는 위치를 기반으로 적어도 하나의 마이크를 선택할 수 있고, 상기 선택된 적어도 하나의 마이크에 대한 빔포밍 동작을 수행할 수 있다. According to an embodiment, the first
도 16b는 본 발명의 다양한 실시예들에 따른 복수 개의 마이크를 기반으로, 오디오 신호가 발생하는 위치를 확인하고, 적어도 하나의 마이크를 선택하는 방법을 도시한 제 2 예시도이다.16B is a second exemplary view illustrating a method of determining a location where an audio signal is generated based on a plurality of microphones and selecting at least one microphone according to various embodiments of the present disclosure.
도 16b의 제 1 전자 장치(예: 도 1의 전자 장치(101))는 도 2의 전자 장치(101)(예: AR 장치, 웨어러블 전자 장치)와 적어도 일부 유사하거나, 전자 장치(101)의 다른 실시예들을 더 포함할 수 있다. 도 16b의 제 1 전자 장치(101)는 도 3의 전자 장치(101)에 포함된 적어도 하나의 구성부들을 포함할 수 있다. 도 16b의 제 2 전자 장치(예: 도 1의 외부전자 장치(102), 도 3의 외부 전자 장치(301))는 외부 전자 장치로써, 사용자의 인체 일부(예: 귀)에 착용 가능한 무선 이어폰(예: 웨어러블 전자 장치)을 포함할 수 있다. 도 16b의 제 2 전자 장치(301)는 도 3의 외부 전자 장치(301)에 포함된 적어도 하나의 구성부들을 포함할 수 있다.The first electronic device of FIG. 16B (eg, the
도 16b를 참조하면, 제 1 전자 장치(101)에 포함된 제 1 마이크(1631)(예: 도 3의 제 1-1 마이크(171-1)), 제 2 마이크(1632)(예: 도 3의 제 1-2 마이크(171-2)), 및/또는 제 3 마이크(1633), 그리고 제 2 전자 장치(301)에 포함된 제 4 마이크(1634)(예: 도 3의 제 2 마이크(371))를 도시한다. 도 16b를 참조하면, 서로 다른 방향 및/또는 위치에서 발생하는 제 1 오디오 신호(1640) 및/또는 제 2 오디오 신호(1650)를 도시한다. 일 실시예에 따르면, 제 1 전자 장치(101)는 복수 개의 마이크들(예: 제 1 마이크(1631), 제 2 마이크(1632), 제 3 마이크(1633), 및/또는 제 4 마이크(1634)) 중 적어도 하나의 마이크를 선택할 수 있고, 선택된 마이크에 기반한 빔포밍 동작을 수행할 수 있다. Referring to FIG. 16B, a
도 16b를 참조하면, 제 1 전자 장치(101)는 동공 추적 카메라(예: 도 3의 동공 추적 카메라(181))를 사용하여, 사용자가 제 1 오디오 신호(1640)가 발생된 제 1 발원지(예: 관심 신호 방향 1)를 응시하고 있음을 확인할 수 있다. 제 1 전자 장치(101)는 복수 개의 마이크들(예: 제 1 마이크(1631), 제 2 마이크(1632), 제 3 마이크(1633), 및/또는 제 4 마이크(1634)) 중 제 1 오디오 신호(1640)와 상대적으로 근거리에 배치된 제 1 마이크(1631), 제 2 마이크(1632), 및/또는 제 3 마이크(1633)를 선택할 수 있고, 선택된 제 1 마이크(1631), 제 2 마이크(1632), 및/또는 제 3 마이크(1633)에 기반한 빔포밍 동작을 수행할 수 있다. 예를 들어, 제 1 마이크(1631)는 제 1 신호 경로(1641)에 따른 제 1 오디오 신호(1640)를 획득할 수 있고, 제 2 마이크(1632)는 제 2 신호 경로(1642)에 따른 제 1 오디오 신호(1640)를 획득할 수 있고, 제 3 마이크(1633)는 제 3 신호 경로(1643)에 따른 제 1 오디오 신호(1640)를 획득할 수 있다.Referring to FIG. 16B , the first
도 16b를 참조하면, 제 1 전자 장치(101)는 동공 추적 카메라(181)를 통해, 사용자의 시선 방향 및/또는 위치가 변경되는 상황을 감지할 수 있다. 예를 들어, 사용자의 시선 방향이 제 1 오디오 신호(1640)가 발생된 제 1 발원지로부터 제 2 오디오 신호(1650)가 발생된 제 2 발원지(예: 관심 신호 방향 2)로 변경될 수 있다. 제 1 전자 장치(101)는 복수 개의 마이크들(예: 제 1 마이크(1631), 제 2 마이크(1632), 제 3 마이크(1633), 및/또는 제 4 마이크(1634)) 중 제 2 오디오 신호(1650)의 발원지와 상대적으로 근거리에 배치된 제 2 마이크(1632), 제 3 마이크(1633), 및/또는 제 4 마이크(1634)를 선택할 수 있고, 선택된 제 2 마이크(1632), 제 3 마이크(1633), 및/또는 제 4 마이크(1634)에 기반한 빔포밍 동작을 수행할 수 있다. 예를 들어, 제 2 마이크(1632)는 제 4 신호 경로(1652)에 따른 제 2 오디오 신호(1650)를 획득할 수 있고, 제 3 마이크(1633)는 제 5 신호 경로(1653)에 따른 제 2 오디오 신호(1650)를 획득할 수 있고, 제 4 마이크(1634)는 제 6 신호 경로(1654)에 따른 제 2 오디오 신호(1650)를 획득할 수 있다.Referring to FIG. 16B , the first
도 16b를 참조하면, 제 1 전자 장치(101)는 제 1 오디오 신호(1640) 및/또는 제 2 오디오 신호(1650) 외에, 나머지 다른 오디오 신호(1661, 1662)를 노이즈 신호로 결정할 수 있다. 예를 들어, 제 1 전자 장치(101)는 노이즈 신호로 결정된 다른 오디오 신호(1661, 1662)의 수신을 적어도 부분적으로 감소시키거나, 차단하거나, 또는, 삭제시킬 수 있다. Referring to FIG. 16B , the first
일 실시예에 따르면, 제 1 전자 장치(101)는 제 1 마이크(1631), 제 2 마이크(1632), 및/또는 제 3 마이크(1633)를 기반으로 제 1 오디오 신호(1640)에 대한 제 1 빔포밍 동작을 수행하는 상태에서, 제 2 마이크(1632), 제 3 마이크(1633), 및/또는 제 4 마이크(1634)를 기반으로, 제 2 오디오 신호(1650)에 대한 제 2 빔포밍 동작을 수행하는 상태로 전환될 수 있다.According to an embodiment, the first
일 실시예에 따르면, 제 1 전자 장치(101)는 복수 개의 마이크들(예: 제 1 마이크(1631), 제 2 마이크(1632), 제 3 마이크(1633), 및/또는 제 4 마이크(1634))과 관련된 마이크 정보를 획득할 수 있다. 제 1 전자 장치(101)는 동공 추적 카메라(181)를 사용하여, 사용자가 응시하는 시선 방향 및/또는 위치를 확인할 수 있고, 확인된 시선 방향 및/또는 위치에 기반한 빔포밍 동작을 수행할 수 있다. 예를 들어, 제 1 전자 장치(101)는 제어 가능한 복수 개의 마이크들(예: 제 1 마이크(1631), 제 2 마이크(1632), 제 3 마이크(1633), 및/또는 제 4 마이크(1634)) 중에서, 확인된 시선 방향 및/또는 위치를 기준으로, 상대적으로 가깝게 위치한 적어도 하나의 마이크를 선택할 수 있다. 제 1 전자 장치(101)는 확인된 시선 방향 및/또는 위치에서 발생된 외부 오디오 신호(예: 제 1 오디오 신호(1640), 제 2 오디오 신호(1650))와 관련하여, 선택된 적어도 하나의 마이크의 설정 정보를 변경할 수 있다. 예를 들어, 제 1 전자 장치(101)는 확인된 시선 방향 및/또는 위치에서 발생된 외부 오디오 신호에 대한 오디오 수신율이 높아지도록 적어도 하나의 마이크의 설정 정보(예: 오디오 수신 gain값, 오디오 신호의 수신 가중치)를 변경할 수 있다. 제 1 전자 장치(101)는 상기 설정 정보가 변경된 적어도 하나의 마이크를 사용하여, 외부 오디오 신호에 대한 빔포밍 동작을 수행할 수 있다. According to an embodiment, the first
다양한 실시예에 따른 방법에 있어서, 외부 전자 장치(예: 도 1의 외부 전자 장치(102), 도 3의 외부 전자 장치(301))로부터 전송된 착용 신호의 수신에 응답하여, 상기 외부 전자 장치(301)가 인체에 착용되었음을 확인하는 동작, 상기 외부 전자 장치(301)의 착용에 응답하여, 상기 외부 전자 장치(301)의 타입을 확인하는 동작, 상기 확인된 타입을 기반으로, 전자 장치(예: 도 1의 전자 장치(101))에 포함된 적어도 하나의 제 1 마이크(예: 도 3의 제 1 마이크(171)) 및 상기 인체에 착용된 외부 전자 장치(301)에 포함된 적어도 하나의 제 2 마이크(예: 도 3의 제 2 마이크(371)) 중에서, 적어도 하나의 마이크를 선택하는 동작, 및 상기 선택된 적어도 하나의 마이크를 사용하여 오디오 신호를 획득하는 동작을 포함할 수 있다. In the method according to various embodiments, in response to receiving a wearing signal transmitted from an external electronic device (eg, the external
일 실시예에 따른 상기 적어도 하나의 마이크를 선택하는 동작은, 상기 전자 장치(101)에 포함된 동공 추적 카메라(예: 도 3의 동공 추적 카메라(181))를 사용하여 사용자의 시선 방향 및 위치를 확인하는 동작, 및 상기 확인된 사용자의 시선 방향 및 위치를 기반으로, 상기 적어도 하나의 제 1 마이크(171) 및 상기 적어도 하나의 제 2 마이크(371) 중에서 상기 적어도 하나의 마이크를 선택하는 동작을 포함할 수 있다.The operation of selecting the at least one microphone according to an embodiment may include the user's gaze direction and position using a pupil tracking camera (eg, the pupil tracking camera 181 of FIG. 3 ) included in the
일 실시예에 따른 상기 적어도 하나의 마이크를 선택하는 동작은, 상기 전자 장치(101)의 움직임을 감지하는 센서 모듈(예: 도 3의 센서 모듈(176))을 사용하여, 상기 전자 장치(101)가 향하는 방향 및 상기 전자 장치(101)의 자세를 확인하는 동작, 상기 확인된 전자 장치(101)가 향하는 방향 및 상기 전자 장치(101)의 자세를 기반으로 선택된, 상기 적어도 하나의 제 1 마이크(171) 및 상기 적어도 하나의 제 2 마이크(371) 중에서 상기 적어도 하나의 마이크를 선택하는 동작을 포함할 수 있다.The operation of selecting the at least one microphone according to an embodiment may be performed by using a sensor module (eg, the
일 실시예에 따른 방법은, 상기 외부 전자 장치(301)로부터 전송된 탈착 신호의 수신에 응답하여, 상기 외부 전자 장치(301)가 상기 인체로부터 탈착되었는지 여부를 확인하는 동작, 상기 외부 전자 장치(301)의 탈착에 응답하여, 상기 동공 추적 카메라(181)를 사용하여 상기 사용자의 시선 방향 및 위치를 확인하는 동작, 및 상기 확인된 사용자의 시선 방향 및 위치를 기반으로, 상기 적어도 하나의 제 1 마이크(171)를 선택하는 동작을 더 포함할 수 있다.The method according to an embodiment includes an operation of determining whether the external
일 실시예에 따른 방법은, 상기 확인된 사용자의 시선 방향 및 위치에 대응하여 적어도 하나의 오브젝트를 확인하는 동작, 상기 적어도 하나의 오브젝트가 가상 객체인지 여부를 확인하는 동작, 및 상기 적어도 하나의 오브젝트가 상기 가상 객체인 경우 상기 가상 객체를 기반으로 상기 적어도 하나의 제 1 마이크(171) 및 상기 적어도 하나의 제 2 마이크(371)에 대한 설정 정보를 결정하는 동작을 더 포함할 수 있다.The method according to an embodiment may include an operation of identifying at least one object corresponding to the identified direction and position of the user's gaze, an operation of determining whether the at least one object is a virtual object, and an operation of determining whether the at least one object is a virtual object. When is the virtual object, the method may further include determining setting information for the at least one
일 실시예에 따른 방법은, 상기 센서 모듈(176)을 통해, 상기 전자 장치(101)가 상기 인체로부터 탈착되었는지 여부를 확인하는 동작, 상기 전자 장치(101)의 탈착에 응답하여, 상기 외부 전자 장치(301)에 포함된 상기 적어도 하나의 제 2 마이크(371)를 기반으로, 상기 오디오 신호가 생성된 오브젝트의 방향 및 위치를 확인하는 동작, 및 상기 확인된 오브젝트의 방향 및 위치를 기반으로 상기 적어도 하나의 제 2 마이크(371)를 선택하는 동작을 더 포함할 수 있다.The method according to an embodiment includes an operation of checking whether the
일 실시예에 따른 방법은, 상기 외부 전자 장치(301)의 타입이 메모리(130)에 저장되지 않은 경우, 상기 적어도 하나의 제 1 마이크(171)를 통한 제 1 오디오 신호 및 상기 적어도 하나의 제 2 마이크(371)를 통한 제 2 오디오 신호를 획득하는 동작, 상기 획득된 제 1 오디오 신호 및 제 2 오디오 신호를 기반으로 상기 적어도 하나의 제 2 마이크(371)의 위치를 확인하는 동작, 및 상기 적어도 하나의 제 1 마이크(171) 및 상기 적어도 하나의 제 2 마이크(371) 중에서, 상기 적어도 하나의 마이크를 선택하는 동작을 더 포함할 수 있다.In the method according to an embodiment, when the type of the external
일 실시예에 따른 방법은, 상기 적어도 하나의 제 1 마이크(171) 및 상기 적어도 하나의 제 2 마이크(371)를 활성화하는 동작, 상기 적어도 하나의 제 1 마이크(171)를 통해 획득된 제 1 오디오 신호 및 상기 적어도 하나의 제 2 마이크(371)를 통해 획득된 제 2 오디오 신호를 기반으로, 상기 오디오 신호가 생성된 오브젝트의 방향 및 위치를 확인하는 동작, 및 상기 확인된 오브젝트의 방향 및 위치를 기반으로, 상기 적어도 하나의 제 1 마이크(171) 및 상기 적어도 하나의 제 2 마이크(371) 중에서, 적어도 하나의 마이크를 선택하는 동작을 더 포함할 수 있다.The method according to an embodiment includes an operation of activating the at least one
일 실시예에 따른 방법은, 상기 전자 장치(101)에 포함된 거리 측정 카메라를 사용하여 상기 오디오 신호가 생성된 오브젝트와의 거리를 측정하는 동작, 및 상기 측정된 거리를 기반으로, 상기 적어도 하나의 제 1 마이크(171) 및 상기 적어도 하나의 제 2 마이크(371) 중에서 적어도 하나의 마이크를 선택하는 동작을 더 포함할 수 있다.The method according to an embodiment includes an operation of measuring a distance to an object from which the audio signal is generated using a distance measuring camera included in the
본 문서에 개시된 다양한 실시예들에 따른 전자 장치는 다양한 형태의 장치가 될 수 있다. 전자 장치는, 예를 들면, 휴대용 통신 장치(예: 스마트폰), 컴퓨터 장치, 휴대용 멀티미디어 장치, 휴대용 의료 기기, 카메라, 웨어러블 장치, 또는 가전 장치를 포함할 수 있다. 본 문서의 실시예에 따른 전자 장치는 전술한 기기들에 한정되지 않는다.Electronic devices according to various embodiments disclosed in this document may be devices of various types. The electronic device may include, for example, a portable communication device (eg, a smart phone), a computer device, a portable multimedia device, a portable medical device, a camera, a wearable device, or a home appliance. An electronic device according to an embodiment of the present document is not limited to the aforementioned devices.
본 문서의 다양한 실시예들 및 이에 사용된 용어들은 본 문서에 기재된 기술적 특징들을 특정한 실시예들로 한정하려는 것이 아니며, 해당 실시예의 다양한 변경, 균등물, 또는 대체물을 포함하는 것으로 이해되어야 한다. 도면의 설명과 관련하여, 유사한 또는 관련된 구성요소에 대해서는 유사한 참조 부호가 사용될 수 있다. 아이템에 대응하는 명사의 단수 형은 관련된 문맥상 명백하게 다르게 지시하지 않는 한, 상기 아이템 한 개 또는 복수 개를 포함할 수 있다. 본 문서에서, "A 또는 B", "A 및 B 중 적어도 하나", "A 또는 B 중 적어도 하나", "A, B 또는 C", "A, B 및 C 중 적어도 하나", 및 "A, B, 또는 C 중 적어도 하나"와 같은 문구들 각각은 그 문구들 중 해당하는 문구에 함께 나열된 항목들 중 어느 하나, 또는 그들의 모든 가능한 조합을 포함할 수 있다. "제 1", "제 2", 또는 "첫째" 또는 "둘째"와 같은 용어들은 단순히 해당 구성요소를 다른 해당 구성요소와 구분하기 위해 사용될 수 있으며, 해당 구성요소들을 다른 측면(예: 중요성 또는 순서)에서 한정하지 않는다. 어떤(예: 제 1) 구성요소가 다른(예: 제 2) 구성요소에, "기능적으로" 또는 "통신적으로"라는 용어와 함께 또는 이런 용어 없이, "커플드" 또는 "커넥티드"라고 언급된 경우, 그것은 상기 어떤 구성요소가 상기 다른 구성요소에 직접적으로(예: 유선으로), 무선으로, 또는 제 3 구성요소를 통하여 연결될 수 있다는 것을 의미한다.Various embodiments of this document and terms used therein are not intended to limit the technical features described in this document to specific embodiments, but should be understood to include various modifications, equivalents, or substitutes of the embodiments. In connection with the description of the drawings, like reference numbers may be used for like or related elements. The singular form of a noun corresponding to an item may include one item or a plurality of items, unless the relevant context clearly dictates otherwise. In this document, "A or B", "at least one of A and B", "at least one of A or B", "A, B or C", "at least one of A, B and C", and "A Each of the phrases such as "at least one of , B, or C" may include any one of the items listed together in that phrase, or all possible combinations thereof. Terms such as "first", "second", or "first" or "secondary" may simply be used to distinguish a given component from other corresponding components, and may be used to refer to a given component in another aspect (eg, importance or order) is not limited. A (e.g., first) component is said to be "coupled" or "connected" to another (e.g., second) component, with or without the terms "functionally" or "communicatively." When mentioned, it means that the certain component may be connected to the other component directly (eg by wire), wirelessly, or through a third component.
본 문서의 다양한 실시예들에서 사용된 용어 "모듈"은 하드웨어, 소프트웨어 또는 펌웨어로 구현된 유닛을 포함할 수 있으며, 예를 들면, 로직, 논리 블록, 부품, 또는 회로와 같은 용어와 상호 호환적으로 사용될 수 있다. 모듈은, 일체로 구성된 부품 또는 하나 또는 그 이상의 기능을 수행하는, 상기 부품의 최소 단위 또는 그 일부가 될 수 있다. 예를 들면, 일실시예에 따르면, 모듈은 ASIC(application-specific integrated circuit)의 형태로 구현될 수 있다. The term "module" used in various embodiments of this document may include a unit implemented in hardware, software, or firmware, and is interchangeable with terms such as, for example, logic, logical blocks, parts, or circuits. can be used as A module may be an integrally constructed component or a minimal unit of components or a portion thereof that performs one or more functions. For example, according to one embodiment, the module may be implemented in the form of an application-specific integrated circuit (ASIC).
본 문서의 다양한 실시예들은 기기(machine)(예: 전자 장치(101)) 의해 읽을 수 있는 저장 매체(storage medium)(예: 내장 메모리(136) 또는 외장 메모리(138))에 저장된 하나 이상의 명령어들을 포함하는 소프트웨어(예: 프로그램(140))로서 구현될 수 있다. 예를 들면, 기기(예: 전자 장치(101))의 프로세서(예: 프로세서(120))는, 저장 매체로부터 저장된 하나 이상의 명령어들 중 적어도 하나의 명령을 호출하고, 그것을 실행할 수 있다. 이것은 기기가 상기 호출된 적어도 하나의 명령어에 따라 적어도 하나의 기능을 수행하도록 운영되는 것을 가능하게 한다. 상기 하나 이상의 명령어들은 컴파일러에 의해 생성된 코드 또는 인터프리터에 의해 실행될 수 있는 코드를 포함할 수 있다. 기기로 읽을 수 있는 저장 매체는, 비일시적(non-transitory) 저장 매체의 형태로 제공될 수 있다. 여기서, ‘비일시적’은 저장 매체가 실재(tangible)하는 장치이고, 신호(signal)(예: 전자기파)를 포함하지 않는다는 것을 의미할 뿐이며, 이 용어는 데이터가 저장 매체에 반영구적으로 저장되는 경우와 임시적으로 저장되는 경우를 구분하지 않는다.Various embodiments of this document provide one or more instructions stored in a storage medium (eg, internal memory 136 or external memory 138) readable by a machine (eg, electronic device 101). It may be implemented as software (eg, the program 140) including them. For example, a processor (eg, the processor 120 ) of a device (eg, the electronic device 101 ) may call at least one command among one or more instructions stored from a storage medium and execute it. This enables the device to be operated to perform at least one function according to the at least one command invoked. The one or more instructions may include code generated by a compiler or code executable by an interpreter. The device-readable storage medium may be provided in the form of a non-transitory storage medium. Here, 'non-temporary' only means that the storage medium is a tangible device and does not contain a signal (e.g. electromagnetic wave), and this term refers to the case where data is stored semi-permanently in the storage medium. It does not discriminate when it is temporarily stored.
일 실시예에 따르면, 본 문서에 개시된 다양한 실시예들에 따른 방법은 컴퓨터 프로그램 제품(computer program product)에 포함되어 제공될 수 있다. 컴퓨터 프로그램 제품은 상품으로서 판매자 및 구매자 간에 거래될 수 있다. 컴퓨터 프로그램 제품은 기기로 읽을 수 있는 저장 매체(예: compact disc read only memory(CD-ROM))의 형태로 배포되거나, 또는 어플리케이션 스토어(예: 플레이 스토어TM)를 통해 또는 두 개의 사용자 장치들(예: 스마트 폰들) 간에 직접, 온라인으로 배포(예: 다운로드 또는 업로드)될 수 있다. 온라인 배포의 경우에, 컴퓨터 프로그램 제품의 적어도 일부는 제조사의 서버, 어플리케이션 스토어의 서버, 또는 중계 서버의 메모리와 같은 기기로 읽을 수 있는 저장 매체에 적어도 일시 저장되거나, 임시적으로 생성될 수 있다.According to one embodiment, the method according to various embodiments disclosed in this document may be provided by being included in a computer program product. Computer program products may be traded between sellers and buyers as commodities. A computer program product is distributed in the form of a device-readable storage medium (e.g. compact disc read only memory (CD-ROM)), or through an application store (e.g. Play Store™) or on two user devices (e.g. It can be distributed (eg downloaded or uploaded) online, directly between smart phones. In the case of online distribution, at least part of the computer program product may be temporarily stored or temporarily created in a device-readable storage medium such as a manufacturer's server, an application store server, or a relay server's memory.
다양한 실시예들에 따르면, 상기 기술한 구성요소들의 각각의 구성요소(예: 모듈 또는 프로그램)는 단수 또는 복수의 개체를 포함할 수 있으며, 복수의 개체 중 일부는 다른 구성요소에 분리 배치될 수도 있다. 다양한 실시예들에 따르면, 전술한 해당 구성요소들 중 하나 이상의 구성요소들 또는 동작들이 생략되거나, 또는 하나 이상의 다른 구성요소들 또는 동작들이 추가될 수 있다. 대체적으로 또는 추가적으로, 복수의 구성요소들(예: 모듈 또는 프로그램)은 하나의 구성요소로 통합될 수 있다. 이런 경우, 통합된 구성요소는 상기 복수의 구성요소들 각각의 구성요소의 하나 이상의 기능들을 상기 통합 이전에 상기 복수의 구성요소들 중 해당 구성요소에 의해 수행되는 것과 동일 또는 유사하게 수행할 수 있다. 다양한 실시예들에 따르면, 모듈, 프로그램 또는 다른 구성요소에 의해 수행되는 동작들은 순차적으로, 병렬적으로, 반복적으로, 또는 휴리스틱하게 실행되거나, 상기 동작들 중 하나 이상이 다른 순서로 실행되거나, 생략되거나, 또는 하나 이상의 다른 동작들이 추가될 수 있다.According to various embodiments, each component (eg, module or program) of the above-described components may include a single object or a plurality of entities, and some of the plurality of entities may be separately disposed in other components. there is. According to various embodiments, one or more components or operations among the aforementioned corresponding components may be omitted, or one or more other components or operations may be added. Alternatively or additionally, a plurality of components (eg modules or programs) may be integrated into a single component. In this case, the integrated component may perform one or more functions of each of the plurality of components identically or similarly to those performed by a corresponding component of the plurality of components prior to the integration. . According to various embodiments, the actions performed by a module, program, or other component are executed sequentially, in parallel, iteratively, or heuristically, or one or more of the actions are executed in a different order, or omitted. or one or more other actions may be added.
101: 전자 장치
102, 301: 외부 전자 장치
120: 프로세서
130: 메모리
160: 디스플레이 모듈
170: 오디오 모듈
171: 제 1 마이크
171-1: 제 1-1 마이크
171-2: 제 1-2 마이크
176: 센서 모듈
177: 모션 센서
180: 카메라 모듈
181: 동공 추적 카메라
190: 통신 모듈
320: (외부 전자 장치의)프로세서
370: (외부 전자 장치의)오디오 모듈
371: (외부 전자 장치의)제 2 마이크
371-1: 제 2-1 마이크
371-2: 제 2-2 마이크
376: (외부 전자 장치의)센서 모듈
377: (외부 전자 장치의)모션 센서
390: (외부 전자 장치의)통신 모듈101:
120: processor 130: memory
160: display module 170: audio module
171: first microphone 171-1: first-first microphone
171-2: 1st-2nd microphone 176: sensor module
177: motion sensor 180: camera module
181: pupil tracking camera 190: communication module
320: processor (of external electronic device) 370: audio module (of external electronic device)
371: second microphone (of external electronic device) 371-1: second-first microphone
371-2: 2-2nd microphone 376: sensor module (of external electronic device)
377: motion sensor (of external electronic device) 390: communication module (of external electronic device)
Claims (20)
외부 전자 장치와의 연결을 위한 통신 모듈;
적어도 하나의 제 1 마이크;
메모리; 및
상기 통신 모듈, 상기 적어도 하나의 제 1 마이크, 및 상기 메모리에 작동적으로 연결된 프로세서를 포함하고,
상기 프로세서는,
상기 외부 전자 장치로부터 전송된 착용 신호의 수신에 응답하여, 상기 외부 전자 장치가 인체에 착용되었음을 확인하고,
상기 외부 전자 장치의 착용에 응답하여, 상기 메모리에 저장된, 상기 외부 전자 장치의 타입을 확인하고,
상기 확인된 타입을 기반으로, 상기 적어도 하나의 제 1 마이크 및 상기 인체에 착용된 외부 전자 장치에 포함된 적어도 하나의 제 2 마이크 중에서, 적어도 하나의 마이크를 선택하고,
상기 선택된 적어도 하나의 마이크를 사용하여 오디오 신호를 획득하는 전자 장치. In electronic devices,
A communication module for connection with an external electronic device;
at least one first microphone;
Memory; and
a processor operatively coupled to the communication module, the at least one first microphone, and the memory;
the processor,
In response to receiving a wearing signal transmitted from the external electronic device, confirming that the external electronic device is worn on the human body;
In response to the wearing of the external electronic device, confirming the type of the external electronic device stored in the memory;
Based on the identified type, at least one microphone is selected from among the at least one first microphone and the at least one second microphone included in the external electronic device worn on the human body;
An electronic device that obtains an audio signal using the selected at least one microphone.
동공 움직임을 추적하기 위한 동공 추적 카메라; 를 더 포함하고,
상기 프로세서는,
상기 동공 추적 카메라를 사용하여 사용자의 시선 방향 및 위치를 확인하고,
상기 확인된 사용자의 시선 방향 및 위치를 기반으로, 상기 적어도 하나의 제 1 마이크 및 상기 적어도 하나의 제 2 마이크 중에서 상기 적어도 하나의 마이크를 선택하는 전자 장치.According to claim 1,
a pupil tracking camera for tracking pupil movement; Including more,
the processor,
Checking the direction and position of the user's gaze using the pupil tracking camera;
The electronic device that selects the at least one microphone from among the at least one first microphone and the at least one second microphone based on the confirmed user's gaze direction and location.
상기 전자 장치의 움직임을 감지하기 위한 센서 모듈; 을 더 포함하고,
상기 프로세서는,
상기 센서 모듈을 사용하여 상기 전자 장치가 향하는 방향 및 상기 전자 장치의 자세를 확인하고,
상기 확인된 전자 장치가 향하는 방향 및 상기 전자 장치의 자세를 기반으로 선택된, 상기 적어도 하나의 제 1 마이크 및 상기 적어도 하나의 제 2 마이크 중에서 상기 적어도 하나의 마이크를 선택하는 전자 장치.According to claim 1,
a sensor module for sensing motion of the electronic device; Including more,
the processor,
Checking the direction the electronic device is facing and the attitude of the electronic device using the sensor module;
The electronic device that selects the at least one microphone from among the at least one first microphone and the at least one second microphone selected based on the direction the electronic device is facing and the posture of the electronic device.
상기 프로세서는,
상기 외부 전자 장치로부터 전송된 탈착 신호의 수신에 응답하여, 상기 외부 전자 장치가 상기 인체로부터 탈착되었는지 여부를 확인하고,
상기 외부 전자 장치의 탈착에 응답하여, 상기 동공 추적 카메라를 사용하여 상기 사용자의 시선 방향 및 위치를 확인하고,
상기 확인된 사용자의 시선 방향 및 위치를 기반으로, 상기 적어도 하나의 제 1 마이크를 선택하는 전자 장치.According to claim 2,
the processor,
In response to receiving a detachment signal transmitted from the external electronic device, determine whether the external electronic device is detached from the human body;
In response to the attachment or detachment of the external electronic device, the user's gaze direction and location are checked using the pupil tracking camera;
An electronic device that selects the at least one first microphone based on the identified user's gaze direction and position.
상기 프로세서는,
상기 확인된 사용자의 시선 방향 및 위치에 대응하여 적어도 하나의 오브젝트를 확인하고,
상기 적어도 하나의 오브젝트가 가상 객체인지 여부를 확인하고,
상기 적어도 하나의 오브젝트가 상기 가상 객체인 경우, 상기 가상 객체를 기반으로 상기 적어도 하나의 제 1 마이크 및 상기 적어도 하나의 제 2 마이크에 대한 설정 정보를 결정하는 전자 장치.According to claim 2,
the processor,
Checking at least one object corresponding to the checked direction and location of the user's gaze;
Check whether the at least one object is a virtual object;
If the at least one object is the virtual object, determining setting information for the at least one first microphone and the at least one second microphone based on the virtual object.
상기 프로세서는,
상기 센서 모듈을 통해, 상기 전자 장치가 상기 인체로부터 탈착되었는지 여부를 확인하고,
상기 전자 장치의 탈착에 응답하여, 상기 외부 전자 장치에 포함된 상기 적어도 하나의 제 2 마이크를 기반으로, 상기 오디오 신호가 생성된 오브젝트의 방향 및 위치를 확인하고,
상기 확인된 오브젝트의 방향 및 위치를 기반으로 상기 적어도 하나의 제 2 마이크를 선택하는 전자 장치.According to claim 3,
the processor,
Checking whether the electronic device is detached from the human body through the sensor module;
In response to the attachment/detachment of the electronic device, based on the at least one second microphone included in the external electronic device, confirming the direction and location of the object from which the audio signal is generated;
An electronic device that selects the at least one second microphone based on the direction and position of the identified object.
상기 프로세서는,
상기 외부 전자 장치의 타입이 상기 메모리에 저장되지 않은 경우, 상기 적어도 하나의 제 1 마이크를 통한 제 1 오디오 신호 및 상기 적어도 하나의 제 2 마이크를 통한 제 2 오디오 신호를 획득하고,
상기 획득된 제 1 오디오 신호 및 제 2 오디오 신호를 기반으로 상기 적어도 하나의 제 2 마이크의 위치를 확인하고,
상기 적어도 하나의 제 1 마이크 및 상기 적어도 하나의 제 2 마이크 중에서, 상기 적어도 하나의 마이크를 선택하는 전자 장치.According to claim 1,
the processor,
When the type of the external electronic device is not stored in the memory, obtaining a first audio signal through the at least one first microphone and a second audio signal through the at least one second microphone;
Checking the location of the at least one second microphone based on the obtained first and second audio signals;
An electronic device that selects the at least one microphone from among the at least one first microphone and the at least one second microphone.
상기 외부 전자 장치의 타입은 상기 외부 전자 장치에 포함된 상기 적어도 하나의 제 2 마이크에 대한 위치 정보, 상기 외부 전자 장치에 포함된 스피커에 대한 위치 정보, 및 상기 제 2 마이크 및 상기 스피커에 대한 설정 정보를 포함하는 전자 장치.According to claim 1,
The type of the external electronic device may include location information about the at least one second microphone included in the external electronic device, location information about a speaker included in the external electronic device, and settings for the second microphone and the speaker. An electronic device containing information.
상기 프로세서는,
상기 적어도 하나의 제 1 마이크 및 상기 적어도 하나의 제 2 마이크를 활성화하고,
상기 적어도 하나의 제 1 마이크를 통해 획득된 제 1 오디오 신호 및 상기 적어도 하나의 제 2 마이크를 통해 획득된 제 2 오디오 신호를 기반으로, 상기 오디오 신호가 생성된 오브젝트의 방향 및 위치을 확인하고,
상기 확인된 오브젝트의 방향 및 위치를 기반으로, 상기 적어도 하나의 제 1 마이크 및 상기 적어도 하나의 제 2 마이크 중에서, 적어도 하나의 마이크를 선택하는 전자 장치.According to claim 1,
the processor,
activate the at least one first microphone and the at least one second microphone;
Based on the first audio signal obtained through the at least one first microphone and the second audio signal obtained through the at least one second microphone, the direction and location of the object from which the audio signal is generated are identified;
An electronic device that selects at least one microphone from among the at least one first microphone and the at least one second microphone based on the direction and location of the identified object.
상기 오디오 신호가 생성된 오브젝트와의 거리를 측정하기 위한 거리 측정 카메라; 를 더 포함하고,
상기 프로세서는,
상기 거리 측정 카메라를 사용하여 상기 오브젝트와의 거리를 측정하고,
상기 측정된 거리를 기반으로, 상기 적어도 하나의 제 1 마이크 및 상기 적어도 하나의 제 2 마이크 중에서, 적어도 하나의 마이크를 선택하는 전자 장치.According to claim 1,
a distance measurement camera for measuring a distance to an object from which the audio signal is generated; Including more,
the processor,
Measuring a distance to the object using the distance measuring camera;
An electronic device that selects at least one microphone from among the at least one first microphone and the at least one second microphone based on the measured distance.
상기 전자 장치는 사용자의 머리에 거치되는 형태로 인체에 착용되는 AR(augmented reality) 전자 장치를 포함하고,
상기 외부 전자 장치는 사용자의 귀에 삽입되는 형태로 인체에 착용되는 무선 이어폰을 포함하는 전자 장치.According to claim 1,
The electronic device includes an augmented reality (AR) electronic device worn on the human body in a form mounted on the user's head,
The external electronic device includes a wireless earphone worn on a human body in a form inserted into the user's ear.
외부 전자 장치로부터 전송된 착용 신호의 수신에 응답하여, 상기 외부 전자 장치가 인체에 착용되었음을 확인하는 동작;
상기 외부 전자 장치의 착용에 응답하여, 상기 외부 전자 장치의 타입을 확인하는 동작;
상기 확인된 타입을 기반으로, 전자 장치에 포함된 적어도 하나의 제 1 마이크 및 상기 인체에 착용된 외부 전자 장치에 포함된 적어도 하나의 제 2 마이크 중에서, 적어도 하나의 마이크를 선택하는 동작; 및
상기 선택된 적어도 하나의 마이크를 사용하여 오디오 신호를 획득하는 동작; 을 포함하는 방법.in the method,
confirming that the external electronic device is worn on a human body in response to receiving a wearing signal transmitted from the external electronic device;
checking the type of the external electronic device in response to wearing of the external electronic device;
selecting at least one microphone from among at least one first microphone included in the electronic device and at least one second microphone included in the external electronic device worn on the human body, based on the identified type; and
obtaining an audio signal using the selected at least one microphone; How to include.
상기 적어도 하나의 마이크를 선택하는 동작은,
상기 전자 장치에 포함된 동공 추적 카메라를 사용하여 사용자의 시선 방향 및 위치를 확인하는 동작; 및
상기 확인된 사용자의 시선 방향 및 위치를 기반으로, 상기 적어도 하나의 제 1 마이크 및 상기 적어도 하나의 제 2 마이크 중에서 상기 적어도 하나의 마이크를 선택하는 동작; 을 포함하는 방법.According to claim 12,
The operation of selecting the at least one microphone,
checking a direction and location of a gaze of the user using a pupil tracking camera included in the electronic device; and
selecting the at least one microphone from among the at least one first microphone and the at least one second microphone based on the identified user's gaze direction and location; How to include.
상기 적어도 하나의 마이크를 선택하는 동작은,
상기 전자 장치의 움직임을 감지하는 센서 모듈을 사용하여, 상기 전자 장치가 향하는 방향 및 상기 전자 장치의 자세를 확인하는 동작; 및
상기 확인된 전자 장치가 향하는 방향 및 상기 전자 장치의 자세를 기반으로 선택된, 상기 적어도 하나의 제 1 마이크 및 상기 적어도 하나의 제 2 마이크 중에서 상기 적어도 하나의 마이크를 선택하는 동작; 을 포함하는 방법.According to claim 12,
The operation of selecting the at least one microphone,
checking a direction of the electronic device and a posture of the electronic device by using a sensor module that detects a movement of the electronic device; and
selecting the at least one microphone from among the at least one first microphone and the at least one second microphone selected based on the direction the electronic device is facing and the posture of the electronic device; How to include.
상기 외부 전자 장치로부터 전송된 탈착 신호의 수신에 응답하여, 상기 외부 전자 장치가 상기 인체로부터 탈착되었는지 여부를 확인하는 동작;
상기 외부 전자 장치의 탈착에 응답하여, 상기 동공 추적 카메라를 사용하여 상기 사용자의 시선 방향 및 위치를 확인하는 동작; 및
상기 확인된 사용자의 시선 방향 및 위치를 기반으로, 상기 적어도 하나의 제 1 마이크를 선택하는 동작; 을 더 포함하는 방법.According to claim 13,
determining whether the external electronic device is detached from the human body in response to receiving a detachment signal transmitted from the external electronic device;
checking a direction and position of the user's eye gaze using the pupil tracking camera in response to attachment or detachment of the external electronic device; and
selecting the at least one first microphone based on the identified user's gaze direction and position; How to include more.
상기 확인된 사용자의 시선 방향 및 위치에 대응하여 적어도 하나의 오브젝트를 확인하는 동작;
상기 적어도 하나의 오브젝트가 가상 객체인지 여부를 확인하는 동작; 및
상기 적어도 하나의 오브젝트가 상기 가상 객체인 경우 상기 가상 객체를 기반으로 상기 적어도 하나의 제 1 마이크 및 상기 적어도 하나의 제 2 마이크에 대한 설정 정보를 결정하는 동작; 을 더 포함하는 방법.According to claim 13,
checking at least one object corresponding to the checked direction and location of the user's gaze;
checking whether the at least one object is a virtual object; and
determining setting information for the at least one first microphone and the at least one second microphone based on the virtual object when the at least one object is the virtual object; How to include more.
상기 센서 모듈을 통해, 상기 전자 장치가 상기 인체로부터 탈착되었는지 여부를 확인하는 동작;
상기 전자 장치의 탈착에 응답하여, 상기 외부 전자 장치에 포함된 상기 적어도 하나의 제 2 마이크를 기반으로, 상기 오디오 신호가 생성된 오브젝트의 방향 및 위치를 확인하는 동작; 및
상기 확인된 오브젝트의 방향 및 위치를 기반으로 상기 적어도 하나의 제 2 마이크를 선택하는 동작; 을 더 포함하는 방법.15. The method of claim 14,
checking whether the electronic device is detached from the human body through the sensor module;
checking a direction and location of an object from which the audio signal is generated, based on the at least one second microphone included in the external electronic device, in response to the attachment or detachment of the electronic device; and
selecting the at least one second microphone based on the identified direction and location of the object; How to include more.
상기 외부 전자 장치의 타입이 상기 메모리에 저장되지 않은 경우, 상기 적어도 하나의 제 1 마이크를 통한 제 1 오디오 신호 및 상기 적어도 하나의 제 2 마이크를 통한 제 2 오디오 신호를 획득하는 동작;
상기 획득된 제 1 오디오 신호 및 제 2 오디오 신호를 기반으로 상기 적어도 하나의 제 2 마이크의 위치를 확인하는 동작; 및
상기 적어도 하나의 제 1 마이크 및 상기 적어도 하나의 제 2 마이크 중에서, 상기 적어도 하나의 마이크를 선택하는 동작; 을 더 포함하는 방법.According to claim 12,
obtaining a first audio signal through the at least one first microphone and a second audio signal through the at least one second microphone when the type of the external electronic device is not stored in the memory;
checking a position of the at least one second microphone based on the obtained first and second audio signals; and
selecting the at least one microphone from among the at least one first microphone and the at least one second microphone; How to include more.
상기 적어도 하나의 제 1 마이크 및 상기 적어도 하나의 제 2 마이크를 활성화하는 동작;
상기 적어도 하나의 제 1 마이크를 통해 획득된 제 1 오디오 신호 및 상기 적어도 하나의 제 2 마이크를 통해 획득된 제 2 오디오 신호를 기반으로, 상기 오디오 신호가 생성된 오브젝트의 방향 및 위치를 확인하는 동작; 및
상기 확인된 오브젝트의 방향 및 위치를 기반으로, 상기 적어도 하나의 제 1 마이크 및 상기 적어도 하나의 제 2 마이크 중에서, 적어도 하나의 마이크를 선택하는 동작; 을 더 포함하는 방법.According to claim 12,
activating the at least one first microphone and the at least one second microphone;
Based on the first audio signal obtained through the at least one first microphone and the second audio signal obtained through the at least one second microphone, determining a direction and location of an object from which the audio signal is generated. ; and
selecting at least one microphone from among the at least one first microphone and the at least one second microphone based on the direction and position of the identified object; How to include more.
상기 전자 장치에 포함된 거리 측정 카메라를 사용하여 상기 오디오 신호가 생성된 오브젝트와의 거리를 측정하는 동작; 및
상기 측정된 거리를 기반으로, 상기 적어도 하나의 제 1 마이크 및 상기 적어도 하나의 제 2 마이크 중에서 적어도 하나의 마이크를 선택하는 동작; 을 더 포함하는 방법.According to claim 12,
measuring a distance to an object from which the audio signal is generated using a distance measuring camera included in the electronic device; and
selecting at least one microphone from among the at least one first microphone and the at least one second microphone based on the measured distance; How to include more.
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR20210184227 | 2021-12-21 | ||
KR1020210184227 | 2021-12-21 |
Publications (1)
Publication Number | Publication Date |
---|---|
KR20230094926A true KR20230094926A (en) | 2023-06-28 |
Family
ID=86994400
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020220030927A KR20230094926A (en) | 2021-12-21 | 2022-03-11 | Method and electronic device for connecting external electronic device |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR20230094926A (en) |
-
2022
- 2022-03-11 KR KR1020220030927A patent/KR20230094926A/en unknown
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10891953B2 (en) | Multi-mode guard for voice commands | |
US11914835B2 (en) | Method for displaying user interface and electronic device therefor | |
US9100732B1 (en) | Hertzian dipole headphone speaker | |
US9720083B2 (en) | Using sounds for determining a worn state of a wearable computing device | |
CA2913650C (en) | Virtual object orientation and visualization | |
US9223136B1 (en) | Preparation of image capture device in response to pre-image-capture signal | |
US9547175B2 (en) | Adaptive piezoelectric array for bone conduction receiver in wearable computers | |
US9274599B1 (en) | Input detection | |
KR20210063928A (en) | Electronic device for providing augmented reality service and operating method thereof | |
JP2018142857A (en) | Head mounted display device, program, and control method of head mounted display device | |
US20170090557A1 (en) | Systems and Devices for Implementing a Side-Mounted Optical Sensor | |
US9223451B1 (en) | Active capacitive sensing on an HMD | |
JP2019128693A (en) | Head-mounted display, and method for controlling head-mounted display | |
KR20220067128A (en) | Method for wireless connection in augmented reality environment and electronic device therefor | |
US20230199328A1 (en) | Method of removing interference and electronic device performing the method | |
KR102582961B1 (en) | Wearable electronic devive for protecting display and method thereof | |
KR20230094926A (en) | Method and electronic device for connecting external electronic device | |
JP2021106447A (en) | Image display device, power feeding system, and method for feeding power to image display device | |
US20220230649A1 (en) | Wearable electronic device receiving information from external wearable electronic device and method for operating the same | |
US9535519B1 (en) | Smart housing for extending trackpad sensing | |
JP6766403B2 (en) | Head-mounted display device, head-mounted display device control method, computer program | |
JP2017142294A (en) | Display device and method for controlling display device | |
US12026297B2 (en) | Wearable electronic device and input structure using motion sensor in the same | |
US20230085129A1 (en) | Electronic device and operating method thereof | |
US20220214744A1 (en) | Wearable electronic device and input structure using motion sensor in the same |