KR20240043634A - Wearable electronic devices providing video call and operating method of wearable electronic device - Google Patents
Wearable electronic devices providing video call and operating method of wearable electronic device Download PDFInfo
- Publication number
- KR20240043634A KR20240043634A KR1020220149568A KR20220149568A KR20240043634A KR 20240043634 A KR20240043634 A KR 20240043634A KR 1020220149568 A KR1020220149568 A KR 1020220149568A KR 20220149568 A KR20220149568 A KR 20220149568A KR 20240043634 A KR20240043634 A KR 20240043634A
- Authority
- KR
- South Korea
- Prior art keywords
- user
- image
- reflector
- call
- electronic device
- Prior art date
Links
- 238000011017 operating method Methods 0.000 title 1
- 238000004891 communication Methods 0.000 claims abstract description 55
- 230000004044 response Effects 0.000 claims abstract description 19
- 238000000034 method Methods 0.000 claims description 99
- 230000015654 memory Effects 0.000 claims description 32
- 238000013528 artificial neural network Methods 0.000 claims description 14
- 230000001815 facial effect Effects 0.000 description 65
- 238000000605 extraction Methods 0.000 description 41
- 238000010586 diagram Methods 0.000 description 36
- 230000006641 stabilisation Effects 0.000 description 31
- 238000011105 stabilization Methods 0.000 description 31
- 238000001514 detection method Methods 0.000 description 20
- 230000006870 function Effects 0.000 description 19
- 239000000284 extract Substances 0.000 description 18
- 238000006243 chemical reaction Methods 0.000 description 16
- 238000012545 processing Methods 0.000 description 16
- 238000005516 engineering process Methods 0.000 description 12
- 230000008569 process Effects 0.000 description 11
- 238000003860 storage Methods 0.000 description 10
- 230000003190 augmentative effect Effects 0.000 description 9
- 230000008859 change Effects 0.000 description 7
- 238000004519 manufacturing process Methods 0.000 description 7
- 238000013135 deep learning Methods 0.000 description 6
- 230000008921 facial expression Effects 0.000 description 6
- 238000013473 artificial intelligence Methods 0.000 description 5
- 238000004590 computer program Methods 0.000 description 4
- 238000013136 deep learning model Methods 0.000 description 4
- 210000003128 head Anatomy 0.000 description 4
- 238000013527 convolutional neural network Methods 0.000 description 3
- 230000000638 stimulation Effects 0.000 description 3
- 238000013459 approach Methods 0.000 description 2
- 238000012790 confirmation Methods 0.000 description 2
- 230000007613 environmental effect Effects 0.000 description 2
- 239000011521 glass Substances 0.000 description 2
- 238000009434 installation Methods 0.000 description 2
- 238000010801 machine learning Methods 0.000 description 2
- 230000001537 neural effect Effects 0.000 description 2
- 230000002093 peripheral effect Effects 0.000 description 2
- 230000000306 recurrent effect Effects 0.000 description 2
- 241001465754 Metazoa Species 0.000 description 1
- 206010044565 Tremor Diseases 0.000 description 1
- 230000001133 acceleration Effects 0.000 description 1
- 230000002457 bidirectional effect Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 239000008280 blood Substances 0.000 description 1
- 210000004369 blood Anatomy 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000010267 cellular communication Effects 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 239000004020 conductor Substances 0.000 description 1
- 238000012217 deletion Methods 0.000 description 1
- 230000037430 deletion Effects 0.000 description 1
- 238000009826 distribution Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 210000004709 eyebrow Anatomy 0.000 description 1
- 239000000446 fuel Substances 0.000 description 1
- 230000014509 gene expression Effects 0.000 description 1
- 230000036541 health Effects 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 230000003155 kinesthetic effect Effects 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 239000002184 metal Substances 0.000 description 1
- 238000002310 reflectometry Methods 0.000 description 1
- 230000002787 reinforcement Effects 0.000 description 1
- 230000005236 sound signal Effects 0.000 description 1
- 239000000758 substrate Substances 0.000 description 1
- 238000012549 training Methods 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/14—Systems for two-way working
- H04N7/141—Systems for two-way working between two video terminals, e.g. videophone
- H04N7/142—Constructional details of the terminal equipment, e.g. arrangements of the camera and the display
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T13/00—Animation
- G06T13/20—3D [Three Dimensional] animation
- G06T13/40—3D [Three Dimensional] animation of characters, e.g. humans, animals or virtual beings
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/332—Displays for viewing with the aid of special glasses or head-mounted displays [HMD]
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Health & Medical Sciences (AREA)
- Human Computer Interaction (AREA)
- Telephone Function (AREA)
Abstract
일 실시예에 따른 웨어러블 전자 장치는 영상 통화를 위한 어플리케이션이 실행됨에 응답하여, 웨어러블 전자 장치를 착용한 사용자 주변의 실세계 영상을 획득하는 카메라 모듈을 포함할 수 있다. 웨어러블 전자 장치는 실세계 영상으로부터 반사체를 검출하고, 실세계 영상 중 반사체에 대응하는 영역의 영상으로부터 거리 및 방향을 포함하는 반사체의 위치 정보를 산출하며, 위치 정보에 따라 사용자를 반사체의 위치로 이동하도록 하는 안내를 제공하도록 출력 장치를 제어함으로써, 영상 통화의 상대방에게 전송할 사용자의 통화용 영상을 생성하는 프로세서를 포함할 수 있다. 웨어러블 전자 장치는 사용자의 통화용 영상을 전송하는 통신 모듈을 포함할 수 있다.A wearable electronic device according to an embodiment may include a camera module that acquires real-world images around a user wearing the wearable electronic device in response to execution of an application for a video call. A wearable electronic device detects a reflector from a real-world image, calculates the location information of the reflector including the distance and direction from the image of the area corresponding to the reflector in the real-world image, and moves the user to the location of the reflector according to the location information. By controlling the output device to provide guidance, it may include a processor that generates a video for the user's call to be transmitted to the other party of the video call. A wearable electronic device may include a communication module that transmits video for a user's call.
Description
아래의 개시는 영상 통화를 제공하는 웨어러블 전자 장치 및 웨어러블 전자 장치의 동작 방법에 관한 것이다.The disclosure below relates to a wearable electronic device that provides video calling and a method of operating the wearable electronic device.
가상 현실(virtual reality; VR) 기기, 증강 현실(augmented reality) 기기, 및/또는 혼합 현실(mixed reality; MR) 기기와 같은 다양한 웨어러블 전자 장치가 상용화 되고 있다. 웨어러블 전자 장치들은 예를 들어, 헤드 마운티드 디스플레이(head mounted display; HMD)와 같이 사용자가 머리 또는 눈에 착용하는 형태이므로, 가까운 곳의 사물을 보거나 마주보는 대상을 캡쳐할 수 있는 외부 렌즈를 포함하는 선글라스 또는 고글 형태를 가질 수 있다.Various wearable electronic devices, such as virtual reality (VR) devices, augmented reality devices, and/or mixed reality (MR) devices, are being commercialized. Wearable electronic devices are worn on the user's head or eyes, for example, a head mounted display (HMD), and therefore include an external lens that allows the user to view objects nearby or capture objects facing them. It may take the form of sunglasses or goggles.
일 실시예에 따르면, 웨어러블 전자 장치는 웨어러블 전자 장치에서 영상 통화를 위한 어플리케이션이 실행됨에 응답하여, 사용자 주변의 실세계 영상을 획득하는 카메라 모듈, 상기 실세계 영상으로부터 반사체를 검출하고, 상기 실세계 영상 중 상기 반사체에 대응하는 영역의 영상으로부터 거리 및 방향을 포함하는 상기 반사체의 위치 정보를 산출하며, 상기 위치 정보에 따라 상기 사용자가 상기 반사체의 위치로 이동하도록 하는 안내를 제공하도록 출력 장치를 제어함으로써, 상기 영상 통화의 상대방에게 전송할 상기 사용자의 통화용 영상을 생성하는 프로세서, 및 상기 사용자의 통화용 영상을 전송하는 통신 모듈을 포함할 수 있다. According to one embodiment, in response to execution of an application for a video call on the wearable electronic device, the wearable electronic device includes a camera module for acquiring a real-world image around the user, detecting a reflector from the real-world image, and By calculating location information of the reflector including distance and direction from the image of the area corresponding to the reflector, and controlling the output device to provide guidance for the user to move to the location of the reflector according to the location information, It may include a processor that generates a video for the user's call to be transmitted to the other party of the video call, and a communication module that transmits the video for the user's call.
일 실시예에 따르면, 웨어러블 전자 장치의 동작 방법은 웨어러블 전자 장치에서 영상 통화를 위한 어플리케이션이 실행됨에 응답하여, 사용자 주변의 실세계 영상을 획득하는 동작, 상기 실세계 영상으로부터 반사체를 검출하는 동작, 상기 실세계 영상 중 상기 반사체에 대응하는 영역의 영상으로부터 거리 및 방향을 포함하는 상기 반사체의 위치 정보를 산출하는 동작, 및 상기 위치 정보에 따라 상기 사용자가 상기 반사체의 위치로 이동하도록 하는 안내를 제공하도록 출력 장치를 제어함으로써, 상기 영상 통화의 상대방에게 전송할 상기 사용자의 통화용 영상을 생성하는 동작을 포함할 수 있다.According to one embodiment, a method of operating a wearable electronic device includes acquiring a real-world image around the user in response to execution of an application for video calling on the wearable electronic device, detecting a reflector from the real-world image, and detecting a reflector from the real-world image. An operation of calculating location information of the reflector including distance and direction from an image of an area corresponding to the reflector in an image, and an output device configured to provide guidance for the user to move to the location of the reflector according to the location information. By controlling , it may include an operation of generating a video for the user's call to be transmitted to the other party of the video call.
도 1은 일 실시예에 따른 네트워크 환경 내의 전자 장치의 구성을 도시하는 블록도이다.
도 2은 일 실시예에 따른 프로그램을 예시하는 블록도이다.
도 3은 일 실시예에 따른 웨어러블 전자 장치의 블록도이다.
도 4는 일 실시예에 따른 웨어러블 전자 장치에서 구동되는 영상 통화 어플리케이션의 구성을 도시한 도면이다.
도 5는 일 실시예에 따라 실세계 영상으로부터 반사체를 검출하는 과정을 설명하기 위한 도면이다.
도 6은 일 실시예에 따른 영상 통화 어플리케이션의 영상 안정화 모듈의 동작을 설명하기 위한 도면이다.
도 7은 일 실시예에 따른 영상 통화 어플리케이션의 얼굴 재현 모듈의 동작을 설명하기 위한 도면이다.
도 8은 일 실시예에 따른 웨어러블 전자 장치를 착용한 사용자가 영상 통화를 수행하는 방법을 설명하기 위한 도면이다.
도 9는 일 실시예에 따른 웨어러블 전자 장치를 착용한 사용자가 영상 통화를 수행하는 방법을 설명하기 위한 도면이다.
도 10은 일 실시예에 따른 웨어러블 전자 장치를 착용한 사용자가 영상 통화를 수행하는 방법을 설명하기 위한 도면이다.
도 11은 일 실시예에 따른 웨어러블 전자 장치의 동작 방법을 나타낸 흐름도이다.
도 12는 일 실시예에 따라 반사체에 비친 반사체에 대응하는 영역의 영상으로부터 위치 정보를 산출하는 방법을 나타낸 흐름도이다.
도 13은 일 실시예에 따라 영상 통화의 상대방에게 전송한 사용자의 통화용 영상을 생성하는 방법을 나타낸 흐름도이다.
도 14는 일 실시예에 따른 웨어러블 전자 장치의 동작 방법을 나타낸 흐름도이다.
도 15는 일 실시예에 따른 영상 통화 어플리케이션에 의해 송신자 단말과 수신자 단말 간에 영상 통화를 수행하는 방법을 설명하기 위한 도면이다.
도 16은 일 실시예에 따른 영상 통화 어플리케이션에 의해 송신자 단말과 수신자 단말 간에 영상 통화를 수행하는 방법을 설명하기 위한 도면이다.
도 17은 일 실시예에 따른 영상 통화 어플리케이션이 설치된 송신자 단말과 다른 영상 통화 어플리케이션이 설치된 수신자 단말 간에 영상 통화를 수행하는 방법을 설명하기 위한 도면이다.
도 18은 일 실시예에 따른 영상 통화 어플리케이션이 설치된 수신자 단말과 음성 통화 어플리케이션이 설치된 송신자 단말 간에 영상 통화를 수행하는 방법을 설명하기 위한 도면이다.FIG. 1 is a block diagram illustrating the configuration of an electronic device in a network environment according to an embodiment.
Figure 2 is a block diagram illustrating a program according to one embodiment.
Figure 3 is a block diagram of a wearable electronic device according to an embodiment.
FIG. 4 is a diagram illustrating the configuration of a video call application running on a wearable electronic device according to an embodiment.
FIG. 5 is a diagram illustrating a process for detecting a reflector from a real-world image according to an embodiment.
Figure 6 is a diagram for explaining the operation of a video stabilization module of a video call application according to an embodiment.
Figure 7 is a diagram for explaining the operation of a face reproduction module of a video call application according to an embodiment.
FIG. 8 is a diagram illustrating a method of making a video call by a user wearing a wearable electronic device according to an embodiment.
FIG. 9 is a diagram illustrating a method of making a video call by a user wearing a wearable electronic device according to an embodiment.
FIG. 10 is a diagram illustrating a method of making a video call by a user wearing a wearable electronic device according to an embodiment.
Figure 11 is a flowchart showing a method of operating a wearable electronic device according to an embodiment.
Figure 12 is a flowchart showing a method of calculating location information from an image of an area corresponding to a reflector reflected on a reflector according to an embodiment.
Figure 13 is a flowchart showing a method of generating a video for a user's call sent to the other party of a video call, according to an embodiment.
Figure 14 is a flowchart showing a method of operating a wearable electronic device according to an embodiment.
FIG. 15 is a diagram illustrating a method of performing a video call between a sender terminal and a recipient terminal using a video call application according to an embodiment.
FIG. 16 is a diagram illustrating a method of performing a video call between a sender terminal and a recipient terminal using a video call application according to an embodiment.
FIG. 17 is a diagram illustrating a method of performing a video call between a sender terminal on which a video call application is installed and a recipient terminal on which another video call application is installed, according to an embodiment.
FIG. 18 is a diagram illustrating a method of performing a video call between a recipient terminal on which a video call application is installed and a sender terminal on which a voice call application is installed, according to an embodiment.
이하, 실시예들을 첨부된 도면들을 참조하여 상세하게 설명한다. 첨부 도면을 참조하여 설명함에 있어, 도면 부호에 관계없이 동일한 구성 요소는 동일한 참조 부호를 부여하고, 이에 대한 중복되는 설명은 생략하기로 한다.Hereinafter, embodiments will be described in detail with reference to the attached drawings. In the description with reference to the accompanying drawings, identical components will be assigned the same reference numerals regardless of the reference numerals, and overlapping descriptions thereof will be omitted.
도 1은 일 실시예에 따른 네트워크 환경 내의 전자 장치의 구성을 도시하는 블록도이다. 도 1을 참조하면, 네트워크 환경(100)에서 전자 장치(101)는 제1 네트워크(198)(예: 근거리 무선 통신 네트워크)를 통하여 전자 장치(102)와 통신하거나, 또는 제 2 네트워크(199)(예: 원거리 무선 통신 네트워크)를 통하여 전자 장치(104) 또는 서버(108) 중 적어도 하나와 통신할 수 있다. 일실시예에 따르면, 전자 장치(101)는 서버(108)를 통하여 전자 장치(104)와 통신할 수 있다. 일실시예에 따르면, 전자 장치(101)는 프로세서(120), 메모리(130), 입력 모듈(150), 음향 출력 모듈(155), 디스플레이 모듈(160), 오디오 모듈(170), 센서 모듈(176), 인터페이스(177), 연결 단자(178), 햅틱 모듈(179), 카메라 모듈(180), 전력 관리 모듈(188), 배터리(189), 통신 모듈(190), 가입자 식별 모듈(196), 또는 안테나 모듈(197)을 포함할 수 있다. 어떤 실시예에서는, 전자 장치(101)에는, 이 구성요소들 중 적어도 하나(예: 연결 단자(178))가 생략되거나, 하나 이상의 다른 구성요소가 추가될 수 있다. 어떤 실시예에서는, 이 구성요소들 중 일부들(예: 센서 모듈(176), 카메라 모듈(180), 또는 안테나 모듈(197))은 하나의 구성요소(예: 디스플레이 모듈(160))로 통합될 수 있다.FIG. 1 is a block diagram illustrating the configuration of an electronic device in a network environment according to an embodiment. Referring to FIG. 1, in the
프로세서(120)는, 예를 들면, 소프트웨어(예: 프로그램(140))를 실행하여 프로세서(120)에 연결된 전자 장치(101)의 적어도 하나의 다른 구성요소(예: 하드웨어 또는 소프트웨어 구성요소)를 제어할 수 있고, 다양한 데이터 처리 또는 연산을 수행할 수 있다. 일실시예에 따르면, 데이터 처리 또는 연산의 적어도 일부로서, 프로세서(120)는 다른 구성요소(예: 센서 모듈(176) 또는 통신 모듈(190))로부터 수신된 명령 또는 데이터를 휘발성 메모리(132)에 저장하고, 휘발성 메모리(132)에 저장된 명령 또는 데이터를 처리하고, 결과 데이터를 비휘발성 메모리(134)에 저장할 수 있다. 일실시예에 따르면, 프로세서(120)는 메인 프로세서(121)(예: 중앙 처리 장치 또는 어플리케이션 프로세서) 또는 이와는 독립적으로 또는 함께 운영 가능한 보조 프로세서(123)(예: 그래픽 처리 장치, 신경망 처리 장치(NPU: neural processing unit), 이미지 시그널 프로세서, 센서 허브 프로세서, 또는 커뮤니케이션 프로세서)를 포함할 수 있다. 예를 들어, 전자 장치(101)가 메인 프로세서(121) 및 보조 프로세서(123)를 포함하는 경우, 보조 프로세서(123)는 메인 프로세서(121)보다 저전력을 사용하거나, 지정된 기능에 특화되도록 설정될 수 있다. 보조 프로세서(123)는 메인 프로세서(121)와 별개로, 또는 그 일부로서 구현될 수 있다.The processor 120, for example, executes software (e.g., program 140) to operate at least one other component (e.g., hardware or software component) of the electronic device 101 connected to the processor 120. It can be controlled and various data processing or calculations can be performed. According to one embodiment, as at least part of data processing or computation, the processor 120 stores commands or data received from another component (e.g., sensor module 176 or communication module 190) in volatile memory 132. The commands or data stored in the volatile memory 132 can be processed, and the resulting data can be stored in the non-volatile memory 134. According to one embodiment, the processor 120 includes a main processor 121 (e.g., a central processing unit or an application processor) or an auxiliary processor 123 that can operate independently or together (e.g., a graphics processing unit, a neural network processing unit ( It may include a neural processing unit (NPU), an image signal processor, a sensor hub processor, or a communication processor). For example, if the electronic device 101 includes a main processor 121 and a secondary processor 123, the secondary processor 123 may be set to use lower power than the main processor 121 or be specialized for a designated function. You can. The auxiliary processor 123 may be implemented separately from the main processor 121 or as part of it.
보조 프로세서(123)는, 예를 들면, 메인 프로세서(121)가 인액티브(예: 슬립) 상태에 있는 동안 메인 프로세서(121)를 대신하여, 또는 메인 프로세서(121)가 액티브(예: 어플리케이션 실행) 상태에 있는 동안 메인 프로세서(121)와 함께, 전자 장치(101)의 구성요소들 중 적어도 하나의 구성요소(예: 디스플레이 모듈(160), 센서 모듈(176), 또는 통신 모듈(190))와 관련된 기능 또는 상태들의 적어도 일부를 제어할 수 있다. 일실시예에 따르면, 보조 프로세서(123)(예: 이미지 시그널 프로세서 또는 커뮤니케이션 프로세서)는 기능적으로 관련 있는 다른 구성요소(예: 카메라 모듈(180) 또는 통신 모듈(190))의 일부로서 구현될 수 있다. 일실시예에 따르면, 보조 프로세서(123)(예: 신경망 처리 장치)는 인공지능 모델의 처리에 특화된 하드웨어 구조를 포함할 수 있다. 인공지능 모델은 기계 학습을 통해 생성될 수 있다. 이러한 학습은, 예를 들어, 인공지능 모델이 수행되는 전자 장치(101) 자체에서 수행될 수 있고, 별도의 서버(예: 서버(108))를 통해 수행될 수도 있다. 학습 알고리즘은, 예를 들어, 지도형 학습(supervised learning), 비지도형 학습(unsupervised learning), 준지도형 학습(semi-supervised learning) 또는 강화 학습(reinforcement learning)을 포함할 수 있으나, 전술한 예에 한정되지 않는다. 인공지능 모델은, 복수의 인공 신경망 레이어들을 포함할 수 있다. 인공 신경망은 심층 신경망(DNN: deep neural network), CNN(convolutional neural network), RNN(recurrent neural network), RBM(restricted boltzmann machine), DBN(deep belief network), BRDNN(bidirectional recurrent deep neural network), 심층 Q-네트워크(deep Q-networks) 또는 상기 중 둘 이상의 조합 중 하나일 수 있으나, 전술한 예에 한정되지 않는다. 인공지능 모델은 하드웨어 구조 이외에, 추가적으로 또는 대체적으로, 소프트웨어 구조를 포함할 수 있다.The auxiliary processor 123 may, for example, act on behalf of the main processor 121 while the main processor 121 is in an inactive (e.g., sleep) state, or while the main processor 121 is in an active (e.g., application execution) state. ), together with the main processor 121, at least one of the components of the electronic device 101 (e.g., the
메모리(130)는, 전자 장치(101)의 적어도 하나의 구성요소(예: 프로세서(120) 또는 센서 모듈(176))에 의해 사용되는 다양한 데이터를 저장할 수 있다. 데이터는, 예를 들어, 소프트웨어(예: 프로그램(140)) 및, 이와 관련된 명령에 대한 입력 데이터 또는 출력 데이터를 포함할 수 있다. 메모리(130)는, 휘발성 메모리(132) 또는 비휘발성 메모리(134)를 포함할 수 있다. The memory 130 may store various data used by at least one component (eg, the processor 120 or the sensor module 176) of the electronic device 101. Data may include, for example, input data or output data for software (e.g., program 140) and instructions related thereto. Memory 130 may include volatile memory 132 or non-volatile memory 134.
프로그램(140)은 메모리(130)에 소프트웨어로서 저장될 수 있으며, 예를 들면, 운영 체제(142), 미들 웨어(144) 또는 어플리케이션(146)을 포함할 수 있다. The program 140 may be stored as software in the memory 130 and may include, for example, an operating system 142, middleware 144, or application 146.
입력 모듈(150)은, 전자 장치(101)의 구성요소(예: 프로세서(120))에 사용될 명령 또는 데이터를 전자 장치(101)의 외부(예: 사용자)로부터 수신할 수 있다. 입력 모듈(150)은, 예를 들면, 마이크, 마우스, 키보드, 키(예: 버튼), 또는 디지털 펜(예: 스타일러스 펜)을 포함할 수 있다. The input module 150 may receive commands or data to be used in a component of the electronic device 101 (e.g., the processor 120) from outside the electronic device 101 (e.g., a user). The input module 150 may include, for example, a microphone, mouse, keyboard, keys (eg, buttons), or digital pen (eg, stylus pen).
음향 출력 모듈(155)은 음향 신호를 전자 장치(101)의 외부로 출력할 수 있다. 음향 출력 모듈(155)은, 예를 들면, 스피커 또는 리시버를 포함할 수 있다. 스피커는 멀티미디어 재생 또는 녹음 재생과 같이 일반적인 용도로 사용될 수 있다. 리시버는 착신 전화를 수신하기 위해 사용될 수 있다. 일실시예에 따르면, 리시버는 스피커와 별개로, 또는 그 일부로서 구현될 수 있다.The sound output module 155 may output sound signals to the outside of the electronic device 101. The sound output module 155 may include, for example, a speaker or a receiver. Speakers can be used for general purposes such as multimedia playback or recording playback. The receiver can be used to receive incoming calls. According to one embodiment, the receiver may be implemented separately from the speaker or as part of it.
디스플레이 모듈(160)은 전자 장치(101)의 외부(예: 사용자)로 정보를 시각적으로 제공할 수 있다. 디스플레이 모듈(160)은, 예를 들면, 디스플레이, 홀로그램 장치, 또는 프로젝터 및 해당 장치를 제어하기 위한 제어 회로를 포함할 수 있다. 일실시예에 따르면, 디스플레이 모듈(160)은 터치를 감지하도록 설정된 터치 센서, 또는 상기 터치에 의해 발생되는 힘의 세기를 측정하도록 설정된 압력 센서를 포함할 수 있다. The
오디오 모듈(170)은 소리를 전기 신호로 변환시키거나, 반대로 전기 신호를 소리로 변환시킬 수 있다. 일실시예에 따르면, 오디오 모듈(170)은, 입력 모듈(150)을 통해 소리를 획득하거나, 음향 출력 모듈(155), 또는 전자 장치(101)와 직접 또는 무선으로 연결된 외부 전자 장치(예: 전자 장치(102))(예: 스피커 또는 헤드폰)를 통해 소리를 출력할 수 있다.The audio module 170 can convert sound into an electrical signal or, conversely, convert an electrical signal into sound. According to one embodiment, the audio module 170 acquires sound through the input module 150, the sound output module 155, or an external electronic device (e.g., directly or wirelessly connected to the electronic device 101). Sound may be output through the electronic device 102 (e.g., speaker or headphone).
센서 모듈(176)은 전자 장치(101)의 작동 상태(예: 전력 또는 온도), 또는 외부의 환경 상태(예: 사용자 상태)를 감지하고, 감지된 상태에 대응하는 전기 신호 또는 데이터 값을 생성할 수 있다. 일실시예에 따르면, 센서 모듈(176)은, 예를 들면, 제스처 센서, 자이로 센서, 기압 센서, 마그네틱 센서, 가속도 센서, 그립 센서, 근접 센서, 컬러 센서, IR(infrared) 센서, 생체 센서, 온도 센서, 습도 센서, 또는 조도 센서를 포함할 수 있다. The sensor module 176 detects the operating state (e.g., power or temperature) of the electronic device 101 or the external environmental state (e.g., user state) and generates an electrical signal or data value corresponding to the detected state. can do. According to one embodiment, the sensor module 176 includes, for example, a gesture sensor, a gyro sensor, an air pressure sensor, a magnetic sensor, an acceleration sensor, a grip sensor, a proximity sensor, a color sensor, an IR (infrared) sensor, a biometric sensor, It may include a temperature sensor, humidity sensor, or light sensor.
인터페이스(177)는 전자 장치(101)가 외부 전자 장치(예: 전자 장치(102))와 직접 또는 무선으로 연결되기 위해 사용될 수 있는 하나 이상의 지정된 프로토콜들을 지원할 수 있다. 일실시예에 따르면, 인터페이스(177)는, 예를 들면, HDMI(high definition multimedia interface), USB(universal serial bus) 인터페이스, SD카드 인터페이스, 또는 오디오 인터페이스를 포함할 수 있다.The
연결 단자(178)는, 그를 통해서 전자 장치(101)가 외부 전자 장치(예: 전자 장치(102))와 물리적으로 연결될 수 있는 커넥터를 포함할 수 있다. 일실시예에 따르면, 연결 단자(178)는, 예를 들면, HDMI 커넥터, USB 커넥터, SD 카드 커넥터, 또는 오디오 커넥터(예: 헤드폰 커넥터)를 포함할 수 있다.The
햅틱 모듈(179)은 전기적 신호를 사용자가 촉각 또는 운동 감각을 통해서 인지할 수 있는 기계적인 자극(예: 진동 또는 움직임) 또는 전기적인 자극으로 변환할 수 있다. 일실시예에 따르면, 햅틱 모듈(179)은, 예를 들면, 모터, 압전 소자, 또는 전기 자극 장치를 포함할 수 있다.The haptic module 179 can convert electrical signals into mechanical stimulation (e.g., vibration or movement) or electrical stimulation that the user can perceive through tactile or kinesthetic senses. According to one embodiment, the haptic module 179 may include, for example, a motor, a piezoelectric element, or an electrical stimulation device.
카메라 모듈(180)은 정지 영상 및 동영상을 캡쳐할 수 있다. 일실시예에 따르면, 카메라 모듈(180)은 하나 이상의 렌즈들, 이미지 센서들, 이미지 시그널 프로세서들, 또는 플래시들을 포함할 수 있다.The
전력 관리 모듈(188)은 전자 장치(101)에 공급되는 전력을 관리할 수 있다. 일실시예에 따르면, 전력 관리 모듈(188)은, 예를 들면, PMIC(power management integrated circuit)의 적어도 일부로서 구현될 수 있다.The power management module 188 can manage power supplied to the electronic device 101. According to one embodiment, the power management module 188 may be implemented as at least a part of, for example, a power management integrated circuit (PMIC).
배터리(189)는 전자 장치(101)의 적어도 하나의 구성요소에 전력을 공급할 수 있다. 일실시예에 따르면, 배터리(189)는, 예를 들면, 재충전 불가능한 1차 전지, 재충전 가능한 2차 전지 또는 연료 전지를 포함할 수 있다.The
통신 모듈(190)은 전자 장치(101)와 외부 전자 장치(예: 전자 장치(102), 전자 장치(104), 또는 서버(108)) 간의 직접(예: 유선) 통신 채널 또는 무선 통신 채널의 수립, 및 수립된 통신 채널을 통한 통신 수행을 지원할 수 있다. 통신 모듈(190)은 프로세서(120)(예: 어플리케이션 프로세서)와 독립적으로 운영되고, 직접(예: 유선) 통신 또는 무선 통신을 지원하는 하나 이상의 커뮤니케이션 프로세서를 포함할 수 있다. 일실시예에 따르면, 통신 모듈(190)은 무선 통신 모듈(192)(예: 셀룰러 통신 모듈, 근거리 무선 통신 모듈, 또는 GNSS(global navigation satellite system) 통신 모듈) 또는 유선 통신 모듈(194)(예: LAN(local area network) 통신 모듈, 또는 전력선 통신 모듈)을 포함할 수 있다. 이들 통신 모듈 중 해당하는 통신 모듈은 제 1 네트워크(198)(예: 블루투스, WiFi(wireless fidelity) direct 또는 IrDA(infrared data association)와 같은 근거리 통신 네트워크) 또는 제 2 네트워크(199)(예: 레거시 셀룰러 네트워크, 5G 네트워크, 차세대 통신 네트워크, 인터넷, 또는 컴퓨터 네트워크(예: LAN 또는 WAN)와 같은 원거리 통신 네트워크)를 통하여 외부의 전자 장치(104)와 통신할 수 있다. 이런 여러 종류의 통신 모듈들은 하나의 구성요소(예: 단일 칩)로 통합되거나, 또는 서로 별도의 복수의 구성요소들(예: 복수 칩들)로 구현될 수 있다. 무선 통신 모듈(192)은 가입자 식별 모듈(196)에 저장된 가입자 정보(예: 국제 모바일 가입자 식별자(IMSI))를 이용하여 제 1 네트워크(198) 또는 제 2 네트워크(199)와 같은 통신 네트워크 내에서 전자 장치(101)를 확인 또는 인증할 수 있다. Communication module 190 is configured to provide a direct (e.g., wired) communication channel or wireless communication channel between electronic device 101 and an external electronic device (e.g.,
무선 통신 모듈(192)은 4G 네트워크 이후의 5G 네트워크 및 차세대 통신 기술, 예를 들어, NR 접속 기술(new radio access technology)을 지원할 수 있다. NR 접속 기술은 고용량 데이터의 고속 전송(eMBB(enhanced mobile broadband)), 단말 전력 최소화와 다수 단말의 접속(mMTC(massive machine type communications)), 또는 고신뢰도와 저지연(URLLC(ultra-reliable and low-latency communications))을 지원할 수 있다. 무선 통신 모듈(192)은, 예를 들어, 높은 데이터 전송률 달성을 위해, 고주파 대역(예: mmWave 대역)을 지원할 수 있다. 무선 통신 모듈(192)은 고주파 대역에서의 성능 확보를 위한 다양한 기술들, 예를 들어, 빔포밍(beamforming), 거대 배열 다중 입출력(massive MIMO(multiple-input and multiple-output)), 전차원 다중입출력(FD-MIMO: full dimensional MIMO), 어레이 안테나(array antenna), 아날로그 빔형성(analog beam-forming), 또는 대규모 안테나(large scale antenna)와 같은 기술들을 지원할 수 있다. 무선 통신 모듈(192)은 전자 장치(101), 외부 전자 장치(예: 전자 장치(104)) 또는 네트워크 시스템(예: 제 2 네트워크(199))에 규정되는 다양한 요구사항을 지원할 수 있다. 일실시예에 따르면, 무선 통신 모듈(192)은 eMBB 실현을 위한 Peak data rate(예: 20Gbps 이상), mMTC 실현을 위한 손실 Coverage(예: 164dB 이하), 또는 URLLC 실현을 위한 U-plane latency(예: 다운링크(DL) 및 업링크(UL) 각각 0.5ms 이하, 또는 라운드 트립 1ms 이하)를 지원할 수 있다.The wireless communication module 192 may support 5G networks after 4G networks and next-generation communication technologies, for example, NR access technology (new radio access technology). NR access technology provides high-speed transmission of high-capacity data (eMBB (enhanced mobile broadband)), minimization of terminal power and access to multiple terminals (mMTC (massive machine type communications)), or high reliability and low latency (URLLC (ultra-reliable and low latency). -latency communications)) can be supported. The wireless communication module 192 may support high frequency bands (eg, mmWave bands), for example, to achieve high data rates. The wireless communication module 192 uses various technologies to secure performance in high frequency bands, for example, beamforming, massive array multiple-input and multiple-output (MIMO), and full-dimensional multiplexing. It can support technologies such as input/output (FD-MIMO: full dimensional MIMO), array antenna, analog beam-forming, or large scale antenna. The wireless communication module 192 may support various requirements specified in the electronic device 101, an external electronic device (e.g., electronic device 104), or a network system (e.g., second network 199). According to one embodiment, the wireless communication module 192 supports Peak data rate (e.g., 20 Gbps or more) for realizing eMBB, loss coverage (e.g., 164 dB or less) for realizing mmTC, or U-plane latency (e.g., 164 dB or less) for realizing URLLC. Example: Downlink (DL) and uplink (UL) each of 0.5 ms or less, or round trip 1 ms or less) can be supported.
안테나 모듈(197)은 신호 또는 전력을 외부(예: 외부의 전자 장치)로 송신하거나 외부로부터 수신할 수 있다. 일실시예에 따르면, 안테나 모듈(197)은 서브스트레이트(예: PCB) 위에 형성된 도전체 또는 도전성 패턴으로 이루어진 방사체를 포함하는 안테나를 포함할 수 있다. 일실시예에 따르면, 안테나 모듈(197)은 복수의 안테나들(예: 어레이 안테나)을 포함할 수 있다. 이런 경우, 제 1 네트워크(198) 또는 제 2 네트워크(199)와 같은 통신 네트워크에서 사용되는 통신 방식에 적합한 적어도 하나의 안테나가, 예를 들면, 통신 모듈(190)에 의하여 상기 복수의 안테나들로부터 선택될 수 있다. 신호 또는 전력은 상기 선택된 적어도 하나의 안테나를 통하여 통신 모듈(190)과 외부의 전자 장치 간에 송신되거나 수신될 수 있다. 어떤 실시예에 따르면, 방사체 이외에 다른 부품(예: RFIC(radio frequency integrated circuit))이 추가로 안테나 모듈(197)의 일부로 형성될 수 있다. The
다양한 실시예에 따르면, 안테나 모듈(197)은 mmWave 안테나 모듈을 형성할 수 있다. 일실시예에 따르면, mmWave 안테나 모듈은 인쇄 회로 기판, 상기 인쇄 회로 기판의 제 1 면(예: 아래 면)에 또는 그에 인접하여 배치되고 지정된 고주파 대역(예: mmWave 대역)을 지원할 수 있는 RFIC, 및 상기 인쇄 회로 기판의 제 2 면(예: 윗 면 또는 측 면)에 또는 그에 인접하여 배치되고 상기 지정된 고주파 대역의 신호를 송신 또는 수신할 수 있는 복수의 안테나들(예: 어레이 안테나)을 포함할 수 있다.According to various embodiments, the
상기 구성요소들 중 적어도 일부는 주변 기기들간 통신 방식(예: 버스, GPIO(general purpose input and output), SPI(serial peripheral interface), 또는 MIPI(mobile industry processor interface))을 통해 서로 연결되고 신호(예: 명령 또는 데이터)를 상호간에 교환할 수 있다.At least some of the components are connected to each other through a communication method between peripheral devices (e.g., bus, general purpose input and output (GPIO), serial peripheral interface (SPI), or mobile industry processor interface (MIPI)) and signal ( (e.g. commands or data) can be exchanged with each other.
일실시예에 따르면, 명령 또는 데이터는 제 2 네트워크(199)에 연결된 서버(108)를 통해서 전자 장치(101)와 외부의 전자 장치(104)간에 송신 또는 수신될 수 있다. 외부의 전자 장치(102, 또는 104) 각각은 전자 장치(101)와 동일한 또는 다른 종류의 장치일 수 있다. 일실시예에 따르면, 전자 장치(101)에서 실행되는 동작들의 전부 또는 일부는 외부의 전자 장치들(102, 104, 또는 108) 중 하나 이상의 외부의 전자 장치들에서 실행될 수 있다. 예를 들면, 전자 장치(101)가 어떤 기능이나 서비스를 자동으로, 또는 사용자 또는 다른 장치로부터의 요청에 반응하여 수행해야 할 경우에, 전자 장치(101)는 기능 또는 서비스를 자체적으로 실행시키는 대신에 또는 추가적으로, 하나 이상의 외부의 전자 장치들에게 그 기능 또는 그 서비스의 적어도 일부를 수행하라고 요청할 수 있다. 상기 요청을 수신한 하나 이상의 외부의 전자 장치들은 요청된 기능 또는 서비스의 적어도 일부, 또는 상기 요청과 관련된 추가 기능 또는 서비스를 실행하고, 그 실행의 결과를 전자 장치(101)로 전달할 수 있다. 전자 장치(101)는 상기 결과를, 그대로 또는 추가적으로 처리하여, 상기 요청에 대한 응답의 적어도 일부로서 제공할 수 있다. 이를 위하여, 예를 들면, 클라우드 컴퓨팅, 분산 컴퓨팅, 모바일 에지 컴퓨팅(MEC: mobile edge computing), 또는 클라이언트-서버 컴퓨팅 기술이 이용될 수 있다. 전자 장치(101)는, 예를 들어, 분산 컴퓨팅 또는 모바일 에지 컴퓨팅을 이용하여 초저지연 서비스를 제공할 수 있다. 다른 실시예에 있어서, 외부의 전자 장치(104)는 IoT(internet of things) 기기를 포함할 수 있다. 서버(108)는 기계 학습 및/또는 신경망을 이용한 지능형 서버일 수 있다. 일실시예에 따르면, 외부의 전자 장치(104) 또는 서버(108)는 제 2 네트워크(199) 내에 포함될 수 있다. 전자 장치(101)는 5G 통신 기술 및 IoT 관련 기술을 기반으로 지능형 서비스(예: 스마트 홈, 스마트 시티, 스마트 카, 또는 헬스 케어)에 적용될 수 있다.According to one embodiment, commands or data may be transmitted or received between the electronic device 101 and the external
도 2은 일 실시예에 따른 프로그램(140)을 예시하는 블록도(200)이다. 일실시예에 따르면, 프로그램(140)은 전자 장치(101)의 하나 이상의 리소스들을 제어하기 위한 운영 체제(142), 미들웨어(144), 또는 상기 운영 체제(142)에서 실행 가능한 어플리케이션(146)을 포함할 수 있다. 운영 체제(142)는, 예를 들면, AndroidTM, iOSTM, WindowsTM, SymbianTM, TizenTM, 또는 BadaTM를 포함할 수 있다. 프로그램(140) 중 적어도 일부 프로그램은, 예를 들면, 제조 시에 전자 장치(101)에 프리로드되거나, 또는 사용자에 의해 사용 시 외부 전자 장치(예: 전자 장치(102 또는 104), 또는 서버(108))로부터 다운로드되거나 갱신될 수 있다.Figure 2 is a block diagram 200 illustrating program 140 according to one embodiment. According to one embodiment, the program 140 includes an operating system 142, middleware 144, or an application 146 executable on the operating system 142 for controlling one or more resources of the electronic device 101. It can be included. Operating system 142 may include, for example, AndroidTM, iOSTM, WindowsTM, SymbianTM, TizenTM, or BadaTM. At least some of the programs 140 are preloaded into the electronic device 101, for example, at the time of manufacture, or are stored in an external electronic device (e.g., the
운영 체제(142)는 전자 장치(101)의 하나 이상의 시스템 리소스들(예: 프로세스, 메모리, 또는 전원)의 관리(예: 할당 또는 회수)를 제어할 수 있다. 운영 체제(142)는, 추가적으로 또는 대체적으로, 전자 장치(101)의 다른 하드웨어 디바이스, 예를 들면, 입력 모듈(150), 음향 출력 모듈(155), 디스플레이 모듈(160), 오디오 모듈(170), 센서 모듈(176), 인터페이스(177), 햅틱 모듈(179), 카메라 모듈(180), 전력 관리 모듈(188), 배터리(189), 통신 모듈(190), 가입자 식별 모듈(196), 또는 안테나 모듈(197)을 구동하기 위한 하나 이상의 드라이버 프로그램들을 포함할 수 있다.The operating system 142 may control management (eg, allocation or retrieval) of one or more system resources (eg, process, memory, or power) of the electronic device 101 . Operating system 142 may additionally or alternatively operate on other hardware devices of electronic device 101, such as input module 150, audio output module 155,
미들웨어(144)는 전자 장치(101)의 하나 이상의 리소스들로부터 제공되는 기능 또는 정보가 어플리케이션(146)에 의해 사용될 수 있도록 다양한 기능들을 어플리케이션(146)으로 제공할 수 있다. 미들웨어(144)는, 예를 들면, 어플리케이션 매니저(201), 윈도우 매니저(203), 멀티미디어 매니저(205), 리소스 매니저(207), 파워 매니저(209), 데이터베이스 매니저(211), 패키지 매니저(213), 커넥티비티 매니저(215), 노티피케이션 매니저(217), 로케이션 매니저(219), 그래픽 매니저(221), 시큐리티 매니저(223), 통화 매니저(225), 또는 음성 인식 매니저(227)를 포함할 수 있다. The middleware 144 may provide various functions to the application 146 so that functions or information provided from one or more resources of the electronic device 101 can be used by the application 146. The middleware 144 includes, for example, an application manager 201, a window manager 203, a multimedia manager 205, a resource manager 207, a power manager 209, a database manager 211, and a package manager 213. ), connectivity manager (215), notification manager (217), location manager (219), graphics manager (221), security manager (223), call manager (225), or voice recognition manager (227). You can.
어플리케이션 매니저(201)는, 예를 들면, 어플리케이션(146)의 생명 주기를 관리할 수 있다. 윈도우 매니저(203)는, 예를 들면, 화면에서 사용되는 하나 이상의 GUI 자원들을 관리할 수 있다. 멀티미디어 매니저(205)는, 예를 들면, 미디어 파일들의 재생에 필요한 하나 이상의 포맷들을 파악하고, 그 중 선택된 해당하는 포맷에 맞는 코덱을 이용하여 상기 미디어 파일들 중 해당하는 미디어 파일의 인코딩 또는 디코딩을 수행할 수 있다. 리소스 매니저(207)는, 예를 들면, 어플리케이션(146)의 소스 코드 또는 메모리(130)의 메모리의 공간을 관리할 수 있다. 파워 매니저(209)는, 예를 들면, 배터리(189)의 용량, 온도 또는 전원을 관리하고, 이 중 해당 정보를 이용하여 전자 장치(101)의 동작에 필요한 관련 정보를 결정 또는 제공할 수 있다. 일실시예에 따르면, 파워 매니저(209)는 전자 장치(101)의 바이오스(BIOS: basic input/output system)(미도시)와 연동할 수 있다.The application manager 201 may, for example, manage the life cycle of the application 146. The window manager 203 may, for example, manage one or more GUI resources used on the screen. For example, the multimedia manager 205 identifies one or more formats required for playing media files, and encodes or decodes the corresponding media file using a codec suitable for the selected format. It can be done. The resource manager 207 may, for example, manage the source code of the application 146 or the memory space of the memory 130. The power manager 209 manages, for example, the capacity, temperature, or power of the
데이터베이스 매니저(211)는, 예를 들면, 어플리케이션(146)에 의해 사용될 데이터베이스를 생성, 검색, 또는 변경할 수 있다. 패키지 매니저(213)는, 예를 들면, 패키지 파일의 형태로 배포되는 어플리케이션의 설치 또는 갱신을 관리할 수 있다. 커넥티비티 매니저(215)는, 예를 들면, 전자 장치(101)와 외부 전자 장치 간의 무선 연결 또는 직접 연결을 관리할 수 있다. 노티피케이션 매니저(217)는, 예를 들면, 지정된 이벤트(예: 착신 통화, 메시지, 또는 알람)의 발생을 사용자에게 알리기 위한 기능을 제공할 수 있다. 로케이션 매니저(219)는, 예를 들면, 전자 장치(101)의 위치 정보를 관리할 수 있다. 그래픽 매니저(221)는, 예를 들면, 사용자에게 제공될 하나 이상의 그래픽 효과들 또는 이와 관련된 사용자 인터페이스를 관리할 수 있다. Database manager 211 may create, search, or change a database to be used by application 146, for example. The package manager 213 may, for example, manage the installation or update of applications distributed in the form of package files. The connectivity manager 215 may manage, for example, a wireless connection or direct connection between the electronic device 101 and an external electronic device. For example, the notification manager 217 may provide a function for notifying the user of the occurrence of a designated event (eg, an incoming call, message, or alarm). The
시큐리티 매니저(223)는, 예를 들면, 시스템 보안 또는 사용자 인증을 제공할 수 있다. 통화(telephony) 매니저(225)는, 예를 들면, 전자 장치(101)에 의해 제공되는 음성 통화 기능 또는 영상 통화 기능을 관리할 수 있다. 통화 매니저(225)는 후술하는 영상 통화 어플리케이션과 관련된 기능을 관리할 수 있다.
음성 인식 매니저(227)는, 예를 들면, 사용자의 음성 정보를 서버(108)로 전송하고, 그 음성 정보에 적어도 일부 기반하여 전자 장치(101)에서 수행될 기능에 대응하는 명령어(command), 또는 그 음성 정보에 적어도 일부 기반하여 변환된 문자 데이터를 서버(108)로부터 수신할 수 있다. 일실시예에 따르면, 미들웨어(244)는 동적으로 기존의 구성요소를 일부 삭제하거나 새로운 구성요소들을 추가할 수 있다. 일실시예에 따르면, 미들웨어(144)의 적어도 일부는 운영 체제(142)의 일부로 포함되거나, 또는 운영 체제(142)와는 다른 별도의 소프트웨어로 구현될 수 있다.For example, the voice recognition manager 227 transmits the user's voice information to the
어플리케이션(146)은, 예를 들면, 홈(251), 다이얼러(253), SMS/MMS(255), IM(instant message)(257), 브라우저(259), 카메라(261), 알람(263), 컨택트(265), 음성 인식(267), 이메일(269), 달력(271), 미디어 플레이어(273), 앨범(275), 와치(277), 헬스(279)(예: 운동량 또는 혈당과 같은 생체 정보를 측정), 또는 환경 정보(281)(예: 기압, 습도, 또는 온도 정보 측정) 어플리케이션을 포함할 수 있다. 일실시예에 따르면, 어플리케이션(146)은 전자 장치(101)와 외부 전자 장치 사이의 정보 교환을 지원할 수 있는 정보 교환 어플리케이션(미도시)을 더 포함할 수 있다. 정보 교환 어플리케이션은, 예를 들면, 외부 전자 장치로 지정된 정보 (예: 통화, 메시지, 또는 알람)를 전달하도록 설정된 노티피케이션 릴레이 어플리케이션, 또는 외부 전자 장치를 관리하도록 설정된 장치 관리 어플리케이션을 포함할 수 있다. 노티피케이션 릴레이 어플리케이션은, 예를 들면, 전자 장치(101)의 다른 어플리케이션(예: 이메일 어플리케이션(269))에서 발생된 지정된 이벤트(예: 메일 수신)에 대응하는 알림 정보를 외부 전자 장치로 전달할 수 있다. 추가적으로 또는 대체적으로, 노티피케이션 릴레이 어플리케이션은 외부 전자 장치로부터 알림 정보를 수신하여 전자 장치(101)의 사용자에게 제공할 수 있다. The application 146 includes, for example, home 251, dialer 253, SMS/MMS (255), instant message (IM) 257,
장치 관리 어플리케이션은, 예를 들면, 전자 장치(101)와 통신하는 외부 전자 장치 또는 그 일부 구성 요소(예: 외부 전자장치의 디스플레이 모듈 또는 카메라 모듈)의 전원(예: 턴-온 또는 턴-오프) 또는 기능(예: 밝기, 해상도, 또는 포커스)을 제어할 수 있다. 장치 관리 어플리케이션은, 추가적으로 또는 대체적으로, 외부 전자 장치에서 동작하는 어플리케이션의 설치, 삭제, 또는 갱신을 지원할 수 있다. 이 밖에도, 어플리케이션(146)은 후술하는 영상 통화 어플리케이션을 더 포함할 수 있다. The device management application, for example, controls the power (e.g., turn-on or turn-off) of an external electronic device or some component thereof (e.g., a display module or camera module of the external electronic device) that communicates with the electronic device 101. ) or functions (such as brightness, resolution, or focus). A device management application may additionally or alternatively support installation, deletion, or update of applications running on external electronic devices. In addition, the application 146 may further include a video call application, which will be described later.
본 문서에 개시된 다양한 실시예들에 따른 전자 장치는 다양한 형태의 장치가 될 수 있다. 전자 장치는, 예를 들면, 휴대용 통신 장치(예: 스마트폰), 컴퓨터 장치, 휴대용 멀티미디어 장치, 휴대용 의료 기기, 카메라, 웨어러블 전자 장치, 또는 가전 장치를 포함할 수 있다. 본 문서의 실시예에 따른 전자 장치는 전술한 기기들에 한정되지 않는다.Electronic devices according to various embodiments disclosed in this document may be of various types. Electronic devices may include, for example, portable communication devices (e.g., smartphones), computer devices, portable multimedia devices, portable medical devices, cameras, wearable electronic devices, or home appliances. Electronic devices according to embodiments of this document are not limited to the above-described devices.
본 문서의 다양한 실시예들 및 이에 사용된 용어들은 본 문서에 기재된 기술적 특징들을 특정한 실시예들로 한정하려는 것이 아니며, 해당 실시예의 다양한 변경, 균등물, 또는 대체물을 포함하는 것으로 이해되어야 한다. 도면의 설명과 관련하여, 유사한 또는 관련된 구성요소에 대해서는 유사한 참조 부호가 사용될 수 있다. 아이템에 대응하는 명사의 단수 형은 관련된 문맥상 명백하게 다르게 지시하지 않는 한, 상기 아이템 한 개 또는 복수 개를 포함할 수 있다. 본 문서에서, "A 또는 B", "A 및 B 중 적어도 하나", "A 또는 B 중 적어도 하나", "A, B 또는 C", "A, B 및 C 중 적어도 하나", 및 "A, B, 또는 C 중 적어도 하나"와 같은 문구들 각각은 그 문구들 중 해당하는 문구에 함께 나열된 항목들 중 어느 하나, 또는 그들의 모든 가능한 조합을 포함할 수 있다. "제1", "제2", 또는 "첫째" 또는 "둘째"와 같은 용어들은 단순히 해당 구성요소를 다른 해당 구성요소와 구분하기 위해 사용될 수 있으며, 해당 구성요소들을 다른 측면(예: 중요성 또는 순서)에서 한정하지 않는다. 어떤(예: 제1) 구성요소가 다른(예: 제2) 구성요소에, "기능적으로" 또는 "통신적으로"라는 용어와 함께 또는 이런 용어 없이, "커플드" 또는 "커넥티드"라고 언급된 경우, 그것은 상기 어떤 구성요소가 상기 다른 구성요소에 직접적으로(예: 유선으로), 무선으로, 또는 제3 구성요소를 통하여 연결될 수 있다는 것을 의미한다.The various embodiments of this document and the terms used herein are not intended to limit the technical features described in this document to specific embodiments, and should be understood to include various changes, equivalents, or replacements of the embodiments. In connection with the description of the drawings, similar reference numbers may be used for similar or related components. The singular form of a noun corresponding to an item may include one or more of the above items, unless the relevant context clearly indicates otherwise. As used herein, “A or B”, “at least one of A and B”, “at least one of A or B”, “A, B or C”, “at least one of A, B and C”, and “A Each of phrases such as “at least one of , B, or C” may include any one of the items listed together in the corresponding phrase, or any possible combination thereof. Terms such as "first", "second", or "first" or "second" may be used simply to distinguish one element from another, and may be used to distinguish such elements in other respects, such as importance or order) is not limited. One (e.g. first) component is said to be "coupled" or "connected" to another (e.g. second) component, with or without the terms "functionally" or "communicatively". Where mentioned, it means that any of the components can be connected to the other components directly (e.g. wired), wirelessly, or through a third component.
본 문서의 다양한 실시예들에서 사용된 용어 "모듈"은 하드웨어, 소프트웨어 또는 펌웨어로 구현된 유닛을 포함할 수 있으며, 예를 들면, 로직, 논리 블록, 부품, 또는 회로와 같은 용어와 상호 호환적으로 사용될 수 있다. 모듈은, 일체로 구성된 부품 또는 하나 또는 그 이상의 기능을 수행하는, 상기 부품의 최소 단위 또는 그 일부가 될 수 있다. 예를 들면, 일실시예에 따르면, 모듈은 ASIC(application-specific integrated circuit)의 형태로 구현될 수 있다. The term “module” used in various embodiments of this document may include a unit implemented in hardware, software, or firmware, and is interchangeable with terms such as logic, logic block, component, or circuit, for example. It can be used as A module may be an integrated part or a minimum unit of the parts or a part thereof that performs one or more functions. For example, according to one embodiment, the module may be implemented in the form of an application-specific integrated circuit (ASIC).
본 문서의 다양한 실시예들은 기기(machine)(예: 도 1의 전자 장치(101)) 의해 읽을 수 있는 저장 매체(storage medium)(예: 내장 메모리(136) 또는 외장 메모리(138))에 저장된 하나 이상의 명령어들을 포함하는 소프트웨어(예: 프로그램(140))로서 구현될 수 있다. 예를 들면, 기기(예: 전자 장치(101))의 프로세서(예: 프로세서(120))는, 저장 매체로부터 저장된 하나 이상의 명령어들 중 적어도 하나의 명령을 호출하고, 그것을 실행할 수 있다. 이것은 기기가 상기 호출된 적어도 하나의 명령어에 따라 적어도 하나의 기능을 수행하도록 운영되는 것을 가능하게 한다. 상기 하나 이상의 명령어들은 컴파일러에 의해 생성된 코드 또는 인터프리터에 의해 실행될 수 있는 코드를 포함할 수 있다. 기기로 읽을 수 있는 저장 매체는, 비일시적(non-transitory) 저장 매체의 형태로 제공될 수 있다. 여기서, '비일시적'은 저장 매체가 실재(tangible)하는 장치이고, 신호(signal)(예: 전자기파)를 포함하지 않는다는 것을 의미할 뿐이며, 이 용어는 데이터가 저장 매체에 반영구적으로 저장되는 경우와 임시적으로 저장되는 경우를 구분하지 않는다.Various embodiments of this document are stored in a storage medium (e.g., internal memory 136 or external memory 138) that can be read by a machine (e.g., electronic device 101 of FIG. 1). It may be implemented as software (e.g., program 140) including one or more instructions. For example, a processor (e.g., processor 120) of a device (e.g., electronic device 101) may call at least one command among one or more commands stored from a storage medium and execute it. This allows the device to be operated to perform at least one function according to the at least one instruction called. The one or more instructions may include code generated by a compiler or code that can be executed by an interpreter. A storage medium that can be read by a device may be provided in the form of a non-transitory storage medium. Here, 'non-transitory' only means that the storage medium is a tangible device and does not contain signals (e.g. electromagnetic waves), and this term refers to cases where data is semi-permanently stored in the storage medium. There is no distinction between temporary storage cases.
일실시예에 따르면, 본 문서에 개시된 다양한 실시예들에 따른 방법은 컴퓨터 프로그램 제품(computer program product)에 포함되어 제공될 수 있다. 컴퓨터 프로그램 제품은 상품으로서 판매자 및 구매자 간에 거래될 수 있다. 컴퓨터 프로그램 제품은 기기로 읽을 수 있는 저장 매체(예: compact disc read only memory(CD-ROM))의 형태로 배포되거나, 또는 어플리케이션 스토어(예: 플레이 스토어TM)를 통해 또는 두 개의 사용자 장치들(예: 스마트 폰들) 간에 직접, 온라인으로 배포(예: 다운로드 또는 업로드)될 수 있다. 온라인 배포의 경우에, 컴퓨터 프로그램 제품의 적어도 일부는 제조사의 서버, 어플리케이션 스토어의 서버, 또는 중계 서버의 메모리와 같은 기기로 읽을 수 있는 저장 매체에 적어도 일시 저장되거나, 임시적으로 생성될 수 있다.According to one embodiment, methods according to various embodiments disclosed in this document may be included and provided in a computer program product. Computer program products are commodities and can be traded between sellers and buyers. The computer program product may be distributed in the form of a machine-readable storage medium (e.g. compact disc read only memory (CD-ROM)) or through an application store (e.g. Play StoreTM) or on two user devices (e.g. It can be distributed (e.g. downloaded or uploaded) directly between smart phones) or online. In the case of online distribution, at least a portion of the computer program product may be at least temporarily stored or temporarily created in a machine-readable storage medium, such as the memory of a manufacturer's server, an application store's server, or a relay server.
다양한 실시예들에 따르면, 상기 기술한 구성요소들의 각각의 구성요소(예: 모듈 또는 프로그램)는 단수 또는 복수의 개체를 포함할 수 있으며, 복수의 개체 중 일부는 다른 구성요소에 분리 배치될 수도 있다. 다양한 실시예들에 따르면, 전술한 해당 구성요소들 중 하나 이상의 구성요소들 또는 동작들이 생략되거나, 또는 하나 이상의 다른 구성요소들 또는 동작들이 추가될 수 있다. 대체적으로 또는 추가적으로, 복수의 구성요소들(예: 모듈 또는 프로그램)은 하나의 구성요소로 통합될 수 있다. 이런 경우, 통합된 구성요소는 상기 복수의 구성요소들 각각의 구성요소의 하나 이상의 기능들을 상기 통합 이전에 상기 복수의 구성요소들 중 해당 구성요소에 의해 수행되는 것과 동일 또는 유사하게 수행할 수 있다. 다양한 실시예들에 따르면, 모듈, 프로그램 또는 다른 구성요소에 의해 수행되는 동작들은 순차적으로, 병렬적으로, 반복적으로, 또는 휴리스틱하게 실행되거나, 상기 동작들 중 하나 이상이 다른 순서로 실행되거나, 생략되거나, 또는 하나 이상의 다른 동작들이 추가될 수 있다. According to various embodiments, each component (e.g., module or program) of the above-described components may include a single or plural entity, and some of the plurality of entities may be separately placed in other components. there is. According to various embodiments, one or more of the components or operations described above may be omitted, or one or more other components or operations may be added. Alternatively or additionally, multiple components (eg, modules or programs) may be integrated into a single component. In this case, the integrated component may perform one or more functions of each component of the plurality of components in the same or similar manner as those performed by the corresponding component of the plurality of components prior to the integration. . According to various embodiments, operations performed by a module, program, or other component may be executed sequentially, in parallel, iteratively, or heuristically, or one or more of the operations may be executed in a different order, or omitted. Alternatively, one or more other operations may be added.
도 3은 일 실시예에 따른 웨어러블 전자 장치의 블록도이다. 도 3을 참조하면, 일 실시예에 따른 웨어러블 전자 장치(300)(예: 도 1의 전자 장치(101))는 카메라 모듈(310)(예: 도 1의 카메라 모듈(180)), 프로세서(330)(예: 도 1의 프로세서(120)), 및 통신 모듈(350)(예: 도 1의 통신 모듈(190))을 포함할 수 있다. 웨어러블 전자 장치(300)는 입력 모듈(370)(예: 도 1의 입력 모듈(150)) 및 메모리(390)(예: 도 1의 메모리(130))를 더 포함할 수 있다. Figure 3 is a block diagram of a wearable electronic device according to an embodiment. Referring to FIG. 3, a wearable electronic device 300 (e.g., electronic device 101 of FIG. 1) according to an embodiment includes a camera module 310 (e.g.,
웨어러블 전자 장치(300)는 예를 들어, 헤드 마운티드 디스플레이(head mounted display; HMD)와 같이 사용자가 머리 또는 얼굴에 착용 가능한 전자 장치에 해당할 수 있으나 반드시 이에 한정되지는 않는다. 헤드 마운티드 디스플레이는 사용자로 하여금 생생한 이미지와 영상, 음성 등을 통해 가상의 영상을 마치 현실인 것처럼 느끼게 해 줄 수 있다.The wearable
카메라 모듈(310)은 웨어러블 전자 장치(300)에서 영상 통화를 위한 어플리케이션(예: 도 4의 영상 통화 어플리케이션(400))이 실행됨에 응답하여, 사용자 주변의 실세계 영상(예: 도 5의 실세계 영상(510, 530, 550))을 획득한다. 사용자는 예를 들어, 영상 통화 어플리케이션(400)이 설치된 웨어러블 전자 장치(300)를 착용한 사용자일 수 있다. 실세계 영상(510, 530, 550)은 예를 들어, 카메라 모듈(310)의 렌즈 화각의 범위 내에 포함된 다양한 객체들(예: 사용자, 및/또는 사용자 주변의 환경)을 포함할 수 있다. In response to the execution of an application for a video call (e.g., the
프로세서(330)는 카메라 모듈(310)을 통해 획득한 실세계 영상(510, 530, 550)으로부터 반사체를 검출할 수 있다. '반사체'는 빛을 받아서 반사하는 물체로서, 반사면에 비친 객체의 모습을 반사할 수 있는 일정 반사율 이상을 갖는 물체에 해당할 수 있다. 반사체는 예를 들어, 아래의 도 5의 실세계 영상들(510, 530, 550)에 포함된 반사체들(예: 헬멧, 거울, 및/또는 유리)과 같이 주변 사물이나 풍경과 같은 주변 객체들의 상(image)을 반사시키는 매끄러운 면, 곡면, 광택을 가진 금속, 유리, 디스플레이 화면, 및/또는 거울에 해당할 수 있으며, 그 소재나 형태에 제약이 없을 수 있다. The
예를 들어, 실세계 영상(510, 530, 550)으로부터 반사체가 검출되지 않은 경우, 프로세서(330)는 사용자의 음성 정보에 대응하여 생성한 사용자의 통화용 영상에 의해 영상 통화를 수행할 수 있다. 프로세서(330)가 사용자의 음성 정보에 대응하여 사용자의 통화용 영상을 생성하는 방법은 아래의 도 4의 음성-얼굴 특징점 변환 모듈(451)을 참조하여 후술한다. For example, when no reflector is detected from the real-world images 510, 530, and 550, the
실세계 영상으로부터 반사체가 검출된 경우, 프로세서(330)는 실세계 영상(510, 530, 550) 중 반사체에 대응하는 영역의 영상으로부터 거리 및 방향을 포함하는 반사체의 위치 정보를 산출할 수 있다. 프로세서(330)는 예를 들어, 실세계 영상(510, 530, 550)에서 검출된 반사체로부터 반사체가 위치하는 방향을 확인할 수 있다. 또한, 프로세서(330)는 예를 들어, 이미지 센서, ToF(time of flight) 센서에 기반하여 반사체와의 거리를 확인할 수 있다. ToF 센서는 물체(예: 반사체)에서 반사되어 돌아오는 적외선을 발산할 수 있다. 프로세서(330)는 ToF 센서에서 적외선이 방출된 시간과 적외선이 물체(반사체)에 반사된 후 센서로 돌아온 시간 간의 차이에 의해 물체에 대한 거리를 측정할 수 있다. When a reflector is detected from a real-world image, the
이하, '반사체에 대응하는 영역의 영상'은 반사체에 비친 모습을 카메라 모듈(310)에 의해 캡쳐한 영상에 해당할 수 있다. 반사체에 대응하는 영역의 영상은 예를 들어, 사용자 뿐만 아니라 사용자 주변의 사물(들)을 포함할 수 있다. Hereinafter, 'image of the area corresponding to the reflector' may correspond to an image captured by the
실세계 영상(510, 530, 550)으로부터 반사체가 검출된 경우, 프로세서(330)는 반사체에 대응하는 영역의 영상이 얼굴을 포함하는 사용자의 적어도 신체 일부를 포함하는지 여부를 결정할 수 있다. 프로세서(330)는 예를 들어, 아래의 도 4를 통해 후술하는 영상 통화 어플리케이션(400)의 얼굴 인식 모듈(420) 및/또는 신체 인식 모듈(430)에 의해 반사체에 대응하는 영역의 영상이 사용자의 얼굴 및/또는 사용자의 적어도 신체 일부를 포함하는지 여부를 결정할 수 있다.When a reflector is detected from the real-world images 510, 530, and 550, the
프로세서(330)는 예를 들어, 얼굴 인식 모듈(420)에 의해 카메라 모듈(310)이 캡쳐한 실세계 영상(510, 530, 550) 및/또는 반사체에 대응하는 영역의 영상이 사용자의 얼굴을 포함하는지 여부를 결정할 수 있다. 실세계 영상(510, 530, 550)이 사용자의 얼굴을 포함하지 않는다고 결정된 경우, 프로세서(330)는 실세계 영상(510, 530, 550)으로부터 사용자의 얼굴이 검출될 때까지 사용자의 음성 정보에 대응하여 생성한 사용자의 통화용 영상에 의해 영상 통화를 수행할 수 있다. For example, the
프로세서(330)는 반사체에 대응하는 영역의 영상이 얼굴을 포함하는 사용자의 적어도 신체 일부를 포함한다는 결정에 따라, 카메라 모듈(310)을 이용하여 획득한 실세계 영상(510, 530, 550) 및/또는 사용자의 반사체에 대응하는 영역의 영상을 이용하여 사용자의 통화용 영상을 생성할 수 있다. The
프로세서(330)는 반사체에 대응하는 영역의 영상이 사용자의 적어도 신체 일부를 포함하지 않는다는 결정에 따라, 3차원 공간 내 사용자의 위치, 카메라 모듈(310)의 시야각, 및 반사체의 위치에 기초하여 반사체에 대응하는 영역의 영상으로부터 반사체의 위치 정보를 산출할 수 있다. 카메라 모듈(310)의 시야각은 예를 들어, 6 자유도(6 degree of freedom(DoF))를 포함할 수 있다. 프로세서(330)는 예를 들어, 반사체에 대응하는 영역의 영상에서 점광원의 상대적인 위치가 변화되면, 상대적인 위치의 변화량을 이용하여 3차원 정보를 추정함으로써 거리 및 방향을 포함하는 반사체의 위치 정보를 산출할 수 있다. 이때, 카메라 모듈(310)의 캘리브레이션(Calibration) 정보 및 초점 거리와 같은 초기값은 미리 주어질 수 있다. Upon determining that the image of the area corresponding to the reflector does not include at least a body part of the user, the
프로세서(330)는 위치 정보에 따라 사용자가 반사체의 위치로 이동하도록 하는 안내를 제공하도록 출력 장치(예: 도 1의 음향 출력 모듈(155) 및/또는 디스플레이 모듈(160))를 제어함으로써, 영상 통화의 상대방에게 전송할 사용자의 통화용 영상을 생성할 수 있다. 여기서, '반사체의 위치'는 해당 반사체에 사용자의 모습이 비칠 수 있는 범위 내의 위치에 해당할 수 있다. 예를 들어, 실세계 영상(510, 530, 550)으로부터 반사체는 검출되었으나, 반사체에 비친 객체를 캡쳐한 반사체에 대응하는 영역의 영상에서 사용자가 검출되지 않는 경우, 프로세서(330)는 위치 정보에 따라 사용자로 하여금 반사체에 사용자의 모습이 비칠 수 있는 위치로 이동하여 반사체에 대응하는 영역의 영상에 사용자의 얼굴 또는 신체 일부가 포함되도록 안내할 수 있다. 안내는 예를 들어, 오디오 모듈(예: 도 1의 음향 출력 모듈(155))을 통해 음성 형태로 제공될 수도 있고, 또는 웨어러블 전자 장치(300)의 디스플레이 모듈(예: 도 1의 디스플레이 모듈(160))의 화면에 텍스트 형태로 제공될 수도 있으나, 반드시 이에 한정되지는 않는다. 안내는 예를 들어, "오른쪽 11시 방향으로 1 미터 거리에 있는 거울 쪽으로 이동해 주세요." 또는 "거울이 있는 왼쪽 방향으로 한 걸음 이동해 주세요."와 같이 반사체로의 이동 방향 및 거리를 안내하는 문구를 포함할 수 있다. The
프로세서(330)는 안내에 따라 반사체의 위치로 이동한 사용자가 반사체에 비친 모습을 캡쳐한 반사체에 대응하는 영역의 영상을 획득할 수 있다. 프로세서(330)는 반사체에 대응하는 영역의 영상을 이용하여 사용자의 통화용 영상을 생성할 수 있다. 프로세서(330)는 예를 들어, 사용자의 설정에 따라 반사체에 대응하는 영역의 영상 및/또는 실세계 영상을 그대로 사용자의 통화용 영상으로 이용할 수도 있고, 또는 반사체에 대응하는 영역의 영상 및/또는 실세계 영상을 이용하여 재구성한 재구성 영상을 사용자의 통화용 영상으로 이용할 수도 있다. The
프로세서(330)는 예를 들어, 영상 통화의 상대방에게 전송할 사용자의 통화용 영상을 어떻게 표현할 것인지에 대한 사용자의 선택, 및/또는 카메라 모듈(310)에 의해 사용자의 얼굴 및 사용자의 적어도 신체 일부의 반사체에 대응하는 영역의 영상이 획득되는지 여부에 따라, 영상 통화의 상대방에게 전송할 사용자의 통화용 영상을 달리 생성할 수 있다. 프로세서(330)는 예를 들어, 입력 모듈(370)이 제공하는 사용자 인터페이스(user interface; UI)를 통해, 사용자의 통화용 영상을 어떻게 표현할 것인지에 대한 사용자의 선택을 입력받아 통화용 영상을 생성할 수도 있고, 또는 초기 설정에 따라 통화용 영상을 생성할 수도 있다. 사용자의 선택은 예를 들어, 반사체에 대응하는 영역의 영상을 사용자의 통화용 영상으로 결정하는 제1 선택, 반사체에 대응하는 영역의 영상을 이용하여 재구성한 재구성 영상을 사용자의 통화용 영상으로 결정하는 제2 선택, 및 반사체에 대응하는 영역의 영상을 이용하여 재구성한 그래픽 객체를 사용자의 통화용 영상으로 결정하는 제3 선택 중 적어도 하나를 포함할 수 있으나, 반드시 이에 한정되지는 않는다. 사용자는 예를 들어, 실세계 영상(510, 530, 550)을 사용자의 통화용 영상으로 사용하도록 설정할 수도 있다. 여기서, '그래픽 객체'는 예를 들어, 다양한 형태의 데이터를 시각화하여 표현한 객체에 해당할 수 있다. 그래픽 객체는 예를 들어, 사용자의 얼굴 및/또는 신체의 모습을 닮은 형태의 아바타, 동물, 인형, 만화 주인공과 같은 캐릭터, 및/또는 동적 이모지를 포함할 수 있으나, 반드시 이에 한정되지는 않는다. The
예를 들어, 입력 모듈(370)에 제1 선택이 입력된 경우, 프로세서(330)는 카메라 모듈(310)에 의해 캡쳐된 반사체에 대응하는 영역의 영상을 그대로 사용자의 통화용 영상으로 결정할 수 있다. For example, when the first selection is input to the
입력 모듈(370)에 제2 선택이 입력된 경우, 프로세서(330)는 반사체에 대응하는 영역의 영상에 의해 사용자의 모습을 재구성한 재구성 영상을 생성할 수 있다. 프로세서(330)는 예를 들어, 반사체에 대응하는 영역의 영상과 메모리(390)에 기 저장된 사용자의 영상('기 저장된 영상')을 비교하여 반사체에 대응하는 영역의 영상이 기 저장된 영상의 어느 부분에 대응되는지를 확인할 수 있다. 프로세서(330)는 기 저장된 영상에서 반사체에 대응하는 영역의 영상에 대응되는 부분은 반사체에 대응하는 영역의 영상에 의해 업데이트('직접 업데이트')할 수 있다. 이하, '직접 업데이트'는 반사체에 대응하는 영역의 영상을 직접 사용하여 수행되는 업데이트를 의미할 수 있다. 프로세서(330)는 기 저장된 영상에서 반사체에 대응하는 영역의 영상에 대응되지 않는 부분은 예를 들어, 신경망에 의해 예측된 영상 또는 반사체에 대응하는 영역의 영상에 의해 워핑(warping)한 영상에 의해 업데이트('간접 업데이트') 함으로써 재구성 영상을 생성할 수 있다. 이하, '간접 업데이트'는 반사체에 대응하는 영역의 영상을 직접 사용하지 않고, 반사체에 대응하는 영역의 영상에 기초하여 생성된 영상을 사용하여 수행되는 업데이트를 의미할 수 있다. 프로세서(330)는 재구성 영상을 사용자의 통화용 영상으로 결정할 수 있다. 이때, '재구성 영상'은 예를 들어, 사용자의 얼굴 전체, 또는 사용자의 상반신 전체와 같은 사용자의 얼굴 일부 또는 사용자의 신체 일부가 가려지지 않고 모두 보이도록 재구성된 영상에 해당할 수 있다. When the second selection is input to the
입력 모듈(370)에 제3 선택이 입력된 경우, 프로세서(330)는 반사체에 대응하는 영역의 영상 또는 재구성 영상에 대응하는 그래픽 객체를 생성할 수 있다. 예를 들어, 반사체에 대응하는 영역의 영상에 포함된 사용자의 얼굴 및/또는 사용자의 신체가 가려진 부분없이 모두 보이는 경우, 프로세서(330)는 반사체에 대응하는 영역의 영상에 대응하는 그래픽 객체를 생성할 수 있다. 이와 달리, 반사체에 대응하는 영역의 영상에 포함된 사용자의 얼굴 및/또는 사용자의 신체 일부가 가려진 경우, 프로세서(330)는 반사체에 대응하는 영역의 영상에 의해 사용자의 모습이 가려짐(occlusion) 없이 보이도록 재구성한 재구성 영상에 대응하는 그래픽 객체를 생성할 수 있다. 프로세서(330)는 그래픽 객체를 사용자의 통화용 영상으로 결정할 수 있다. 프로세서(330)가 재구성 영상을 생성하는 방법은 아래의 도 4의 영상 안정화 모듈(440)을 참조하여 후술한다. 또한, 프로세서(330)가 그래픽 객체를 생성하는 방법은 아래의 도 4의 아바타 생성 모듈(450)을 참조하여 후술한다. When the third selection is input to the
통신 모듈(350)은 프로세서(330)가 생성한 사용자의 통화용 영상을 통화 상대방('수신자')의 단말에게 전송할 수 있다. 또한, 통신 모듈(350)은 통화 상대방의 단말로부터 전송된 수신자의 통화용 영상, 및/또는 통화 상대방의 단말에서 생성된 송신자의 통화용 영상을 수신할 수 있다. The
입력 모듈(370)은 사용자의 통화용 영상에 대한 사용자의 선택을 입력받을 수 있다. 입력 모듈(370)은 예를 들어, 도 4를 통해 후술하는 영상 통화 어플리케이션이 웨어러블 전자 장치에 설치될 때에 초기 설정으로 통화용 영상으로 어떠한 영상을 사용할 지에 대한 사용자의 선택을 입력받을 수도 있다. 또는 입력 모듈(370)은 영상 통화 어플리케이션이 구동되는 시점에서 통화용 영상으로 어떠한 영상을 사용할 지에 대한 사용자의 선택을 입력받을 수도 있다.The
메모리(390)는 사용자의 기 저장된 영상을 포함할 수 있다. 메모리(390)는 후술하는 음성 통화 어플리케이션(400)을 포함하는 적어도 하나의 프로그램을 저장할 수 있다. 또한, 메모리(390)는 프로세서(330)의 처리 과정에서 생성되는 다양한 정보를 저장할 수 있다. 이 밖에도, 메모리(390)는 각종 데이터와 프로그램 등을 저장할 수 있다. 메모리(390)는 휘발성 메모리(예: 도 1의 휘발성 메모리(132)) 또는 비휘발성 메모리(예: 도 1의 비휘발성 메모리(134))를 포함할 수 있다. 메모리(390)는 하드 디스크와 등과 같은 대용량 저장 매체를 구비하여 각종 데이터를 저장할 수 있다. The
또한, 프로세서(330)는 도 1 내지 도 18을 통해 기술하는 웨어러블 전자 장치(300)와 관련된 적어도 하나의 방법 또는 적어도 하나의 방법에 대응되는 기법을 수행할 수 있다. 프로세서(330)는 목적하는 동작들(desired operations)을 실행시키기 위한 물리적인 구조를 갖는 회로를 가지는 하드웨어로 구현된 전자 장치일 수 있다. 예를 들어, 목적하는 동작들은 프로그램에 포함된 코드(code) 또는 인스트럭션들(instructions)을 포함할 수 있다. 예를 들어, 하드웨어로 구현된 웨어러블 전자 장치(300)은 마이크로프로세서(microprocessor), 중앙 처리 장치(central processing unit; CPU), 그래픽 처리 장치(graphic processing unit; GPU), 프로세서 코어(processor core), 멀티-코어 프로세서(multi-core processor), 멀티프로세서(multiprocessor), ASIC(application-specific integrated circuit), FPGA(field programmable gate array), 및/또는 NPU(neural processing unit)를 포함할 수 있다. Additionally, the
도 4는 일 실시예에 따른 웨어러블 전자 장치에서 구동되는 영상 통화 어플리케이션의 구성을 도시한 도면이다. 도 4를 참조하면, 일 실시예에 따른 웨어러블 전자 장치(예: 도 1의 전자 장치(101), 및/또는 도 3의 웨어러블 전자 장치(300))에 설치 및/또는 구동되는 영상 통화 어플리케이션(400)은 반사체 검출 모듈(410), 얼굴 인식 모듈(420), 신체 인식 모듈(430), 영상 안정화 모듈(440), 및 아바타 생성 모듈(450)과 같은 모듈들을 포함할 수 있다. 영상 통화 어플리케이션(400)의 모듈들의 동작은 웨어러블 전자 장치(300)의 프로세서(330)에 의해 수행될 수 있다. FIG. 4 is a diagram illustrating the configuration of a video call application running on a wearable electronic device according to an embodiment. Referring to FIG. 4, a video call application (e.g., the electronic device 101 of FIG. 1 and/or the wearable
반사체 검출 모듈(410)은 웨어러블 전자 장치(300)에 포함된 카메라 모듈(예: 도 1의 카메라 모듈(180) 및/또는 도 3의 카메라 모듈(310))을 통해 획득한 영상(예: 사용자 주변의 실세계 영상)으로부터 반사체를 포함하는 반사체 영역을 획득하고, 반사체 영역에서 반사체를 검출할 수 있다. 반사체 검출 모듈(410)은 반사체의 검출을 위해 사용되는 공개된 기술(예: "Where Is My Mirror?", Yang et al., 2019)을 사용하여 반사체를 검출할 수 있으나, 반드시 이에 한정되지는 않는다. 반사체 검출 모듈(410)에 의해 검출된 반사체의 반사체에 대응하는 영역의 영상은 카메라 모듈(310)에 의해 캡쳐될 수 있다. 반사체 검출 모듈(410)이 반사체를 검출하는 방법은 아래의 도 5를 참조하여 설명한다. The
얼굴 인식 모듈(420)은 반사체 검출 모듈(410)이 검출한 반사체 영역에 비친 사용자의 얼굴을 인식할 수 있다. 얼굴 인식 모듈(420)은 카메라 모듈(310)에 의해 캡쳐된 영상(예: 반사체에 대응하는 영역의 영상)에 포함된 얼굴을 검출하고, 얼굴에서 눈, 눈썹, 코, 및/또는 입과 같은 랜드마크들(landmarks)를 검출할 수 있다. 얼굴 인식 모듈(420)은 랜드마크들로부터 특징점들을 추출하고, 추출한 특징점들이 미리 저장된 사용자의 얼굴 특징점들과 일치하는지를 비교함으로써 반사체 영역에서 검출한 얼굴이 사용자의 얼굴인지를 인식할 수 있다. The
신체 인식 모듈(430)은 반사체 검출 모듈(410)이 검출한 반사체 영역에 비친 사용자의 얼굴을 제외한 적어도 일부의 신체를 인식할 수 있다. 신체 인식 모듈(430)은 카메라 모듈(310)에 의해 캡쳐된 영상(예: 반사체에 대응하는 영역의 영상)에 포함된 적어도 신체 일부를 인식 및 검출할 수 있다. 신체 인식 모듈(430)은 얼굴 인식 모듈(420)과 마찬가지의 방법으로 캡쳐된 영상 내에 포함된 사용자의 적어도 신체 일부를 검출할 수 있다. The
얼굴 인식 모듈(420) 및 신체 인식 모듈(430) 각각의 검출 결과는 얼굴과 적어도 신체 일부를 포함하는 사각형(예: 바운딩 박스(bounding box))의 좌표 값이 될 수 있다. 얼굴 인식 모듈(420) 및 신체 인식 모듈(430) 각각이 목적하는 객체(예: 얼굴, 신체)를 인식하는 데에는 공개된 다양한 얼굴 및/또는 신체 인식 기술들이 활용될 수 있다. The detection results of each of the
일 실시예에 따르면, 얼굴 인식 모듈(420) 및/또는 신체 인식 모듈(430)은 일정 시간 동안 얼굴 또는 신체의 일부가 가려지더라도 기 획득된 얼굴 또는 신체의 일부를 토대로 가려진 위치의 얼굴 및/또는 신체의 영상을 추정할 수도 있다. According to one embodiment, the
영상 안정화 모듈(440)은 반사체 영역에서 획득한 반사체에 대응하는 영역의 영상에 기반하여 영상 통화의 상대방에게 전송할 안정화된 영상을 생성할 수 있다. 여기서, '안정화된 영상'은 예를 들어, 영상의 떨림이나 블러(blur) 뿐만 아니라, 영상 일부의 가려짐을 다양한 영상 처리 기법을 통해 해소하여 재구성한 영상으로 이해될 수 있다. The
영상 안정화 모듈(440)은 예를 들어, 영상, 얼굴, 및/또는 신체의 인식 결과를 바탕으로 영상의 떨림이나, 반사체에 의한 얼굴, 및/또는 신체의 가려짐에 대응하여 사용자의 통화용 영상에 표시될 사용자의 모습을 안정적으로 재구성할 수 있다. 예를 들어, 반사체에 대응하는 영역의 영상에 포함된 사용자의 얼굴 및/또는 신체의 일부가 가려진 경우, 영상 안정화 모듈(440)은 기 저장된 영상과 캡쳐된 영상을 함께 이용하여 사용자의 얼굴 및/또는 신체의 가려진 부분이 모두 보이도록 영상을 재구성할 수 있다. 영상 안정화 모듈(440)의 보다 구체적인 동작을 아래의 도 6을 참조하여 설명한다. For example, the
아바타 생성 모듈(450)은 사용자의 음성 신호, 및/또는 영상 안정화 모듈(440)의 결과로써 획득한 영상(예: 얼굴 영상, 신체 영상, 및/또는 재구성된 영상)을 입력받아 아바타와 같은 다양한 형태의 그래픽 객체로 변환할 수 있다. 또한, 아바타 생성 모듈(450)은 예를 들어, 다양한 입력 신호를 바탕으로 기 저장된 사진, 동영상, 2차원 아바타 객체, 및/또는 3차원 아바타 객체를 조작할 수 있다. 이때, 사진, 동영상, 2차원 아바타 객체, 및/또는 3차원 아바타 객체는 예를 들어, 웨어러블 전자 장치(300)의 메모리(390)에 저장될 수도 있고, 웨어러블 전자 장치(300)와 연결된 PC, 혹은 클라우드 서버에 저장될 수도 있다. The
아바타 생성 모듈(450)은 여러 개의 서브 모듈들을 포함할 수 있다. 서브 모듈들은 예를 들어, 음성-얼굴 특징점 변환 모듈(A)(451), 얼굴 특징점 추출 모듈(B)(453), 신체 특징점 추출 모듈(C)(455), 얼굴 재현 모듈(D)(457), 및/또는 특징점 기반 아바타 조작 모듈(E)(459)를 포함할 수 있다. The
음성-얼굴 특징점 변환 모듈(A)(451)은 음성 신호로부터 얼굴을 이루는 얼굴 특징점을 예측할 수 있다. 음성-얼굴 특징점 변환 모듈(A)(451)은 예를 들어, 음성 신호를 녹음하는 동시에, 음성 신호에 대응하는 얼굴 영상도 같이 캡쳐하고, 음성 신호에 대응하는 얼굴 영상의 특징점들을 추출하여 생성한 학습 데이터에 의해 학습된 딥 러닝 모델을 이용할 수 있다. 음성-얼굴 특징점 변환 모듈(A)(451)은 학습된 딥 러닝 모델을 이용하여 음성 신호에 대응하는 얼굴 특징점들을 획득할 수 있다. 예를 들어, 학습된 딥 러닝 모델에 음성 신호("가자")가 입력되면, 딥 러닝 모델은 "가자"를 발화하는 얼굴 영상의 특징점들을 추출하여 출력할 수 있다. The voice-face feature point conversion module (A) 451 can predict the facial feature points that make up the face from the voice signal. For example, the voice-face feature point conversion module (A) 451 records a voice signal, simultaneously captures a face image corresponding to the voice signal, and extracts and generates feature points of the face image corresponding to the voice signal. You can use a deep learning model learned by training data. The voice-face feature point conversion module (A) 451 can acquire facial feature points corresponding to the voice signal using a learned deep learning model. For example, when a voice signal (“let's go”) is input to the learned deep learning model, the deep learning model can extract and output feature points of the face image that utters “let’s go.”
얼굴 특징점 추출 모듈(B)(453)은 얼굴 영상으로부터 얼굴 특징점들을 추출할 수 있다. 얼굴 특징점 추출 모듈(B)(453)은 예를 들어, AAM(active appearance models)(Cootes et al., 1998), 3DMM(3D morphable models)(Blanz and Vetter, 2003), Kazemi(Kazemi and Sullivan), 딥러닝 기반의 Subpixel Heatmap Regression, AnchorFace, PFLD(Practical Facial Landmark Detector)과 같은 잘 알려진 특징 추출 알고리즘을 사용하거나, 또는 딥 러닝 기반의 특징 추출 알고리즘에 의해 얼굴 영상으로부터 얼굴 특징점들을 추출할 수 있으나, 반드시 이에 한정되지는 않는다. The facial feature point extraction module (B) 453 can extract facial feature points from a face image. The facial feature extraction module (B) 453 is, for example, active appearance models (AAM) (Cootes et al., 1998), 3D morphable models (3DMM) (Blanz and Vetter, 2003), Kazemi (Kazemi and Sullivan) , facial feature points can be extracted from face images by using well-known feature extraction algorithms such as deep learning-based Subpixel Heatmap Regression, AnchorFace, and PFLD (Practical Facial Landmark Detector), or by deep learning-based feature extraction algorithms. It is not necessarily limited to this.
신체 특징점 추출 모듈(C)(455)은 신체 영상으로부터 신체 특징점들을 추출할 수 있다. 신체 특징점 추출 모듈(C)(455)은 예를 들어, 인간 신체 데이터베이스를 이용하여 파악한 신체의 구조적 비례 정보에 따라 신체 영상으로부터 특징점들을 추출할 수 있으나, 반드시 이에 한정되지는 않는다. The body feature point extraction module (C) 455 can extract body feature points from the body image. For example, the body feature point extraction module (C) 455 may extract feature points from a body image according to structural proportional information of the body identified using a human body database, but is not necessarily limited to this.
얼굴 재현 모듈(D)(457)은 딥 러닝 네트워크를 통해 사용자의 얼굴 영상을 타인의 얼굴로 변환할 수 있다. 얼굴 재현 모듈(D)(457)이 사용자의 얼굴 영상을 타인의 얼굴로 변환하는 방법은 아래의 도 7을 참조하여 설명한다. The face reproduction module (D) 457 can convert a user's face image into another person's face through a deep learning network. The method by which the face reproduction module (D) 457 converts a user's face image into another person's face will be described with reference to FIG. 7 below.
특징점 기반 아바타 조작 모듈(E)(459)은 얼굴 특징점 및/또는 신체 특징점을 바탕으로 2차원 아바타 객체 또는 3차원 아바타 객체를 조작할 수 있다. 특징점 기반 아바타 조작 모듈(E)(459)은 얼굴 특징점들 및/또는 신체 특징점들을 입력으로 하여 아바타의 형태를 변경할 수 있다. 특징점 기반 아바타 조작 모듈(E)(459)은 음성 신호에 기초하여 획득한 얼굴 특징점들을 아바타의 형태 변경에 이용할 수도 있다. The feature point-based avatar manipulation module (E) 459 can manipulate a two-dimensional avatar object or a three-dimensional avatar object based on facial feature points and/or body feature points. The feature point-based avatar manipulation module (E) 459 can change the shape of the avatar by using facial feature points and/or body feature points as input. The feature point-based avatar manipulation module (E) 459 may use facial feature points obtained based on voice signals to change the shape of the avatar.
일 실시예에 따른 프로세서(330)는 아바타 생성 모듈(450)의 서브 모듈들 중 일부 모듈만을 선택적으로 사용할 수도 있다. 프로세서(330)는 예를 들어, 영상 안정화 모듈(440)의 결과와 사용자의 사전 설정 각각에 근거하여 아바타 생성에 사용할 서브 모듈(들)을 동적으로 결정할 수도 있고, 또는, 영상 안정화 모듈(440)의 결과와 사용자의 사전 설정 두 가지 모두에 근거하여 아바타 생성에 사용할 서브 모듈(들)을 동적으로 결정할 수 있다. The
예를 들어, 아래의 도 8에 도시된 것과 같이 사용자(예: 송신자)의 모습이 거울에 비치지 않고, 음성 신호와 같은 음성 정보만이 전달되는 경우, 프로세서(330)는 음성-얼굴 특징점 변환 모듈(A)(451)과 특징점 기반 아바타 조작 모듈(E)(459)을 이용하여 송신자의 아바타를 구현할 수 있다. 이와 달리, 아래의 도 9에 도시된 것과 같이 사용자(예: 송신자)의 모습이 거울에 비치는 경우, 프로세서(330)는 얼굴 특징점 추출 모듈(B)(453), 신체 특징점 추출 모듈(C)(455), 및 특징점 기반 아바타 조작 모듈(E)(459)을 사용하여 송신자의 아바타를 구현할 수 있다. For example, as shown in FIG. 8 below, when the image of the user (e.g., the sender) is not reflected in the mirror and only voice information such as a voice signal is transmitted, the
예를 들어, 영상 통화 시에 송신자가 자신의 영상 대신에, 송신자가 원하는 연예인의 사진으로 자신을 표현하도록 설정한 경우, 프로세서(330)는 얼굴 재현 모듈(D)(457)을 단독으로 사용하여 송신자의 아바타를 구현할 수 있다. For example, during a video call, if the sender sets to express himself with a photo of a celebrity he wants instead of his own video, the
일 실시예에 따른 영상 통화 어플리케이션(400)의 사용자는 영상 통화 시의 송신자 표시 방법을 선택할 수 있다. 송신자 표시 방법은 영상 통화 시에 통화 상대방에게 자신의 모습을 어떻게 보여줄 지와 같이 선택 가능한 사용자의 모습 표시 방법에 해당할 수 있다. 송신자 표시 방법은 예를 들어, 웨어러블 전자 장치(300)로 입력되는 사용자의 데이터에 따라 달라질 수 있다. 송신자 표시 방법 별로 관여하는 영상 통화 어플리케이션(400)의 각 모듈 또한 달라 질 수 있다. 송신자 표시 방법 별로 사용되는 영상 통화 어플리케이션(400)의 각 모듈은 아래의 [표 1]과 같이 정리할 수 있다. A user of the
일 실시예에 따른 웨어러블 전자 장치(300)는 예를 들어, 카메라 모듈(310)에서 사용자의 얼굴 및/또는 사용자의 신체가 획득되는지 여부, 및/또는 사용자가 선택한 송신자 표시 방법에 따라 영상 안정화 모듈(440) 및 아바타 생성 모듈(450)의 세부 모듈들 각각의 사용 여부를 결정할 수 있다. [표 1]에서 모듈 A 내지 모듈E는 각각 음성-얼굴 특징점 변환 모듈(451), 얼굴 특징점 추출 모듈(453), 신체 특징점 추출 모듈(455), 얼굴 재현 모듈(457), 및 특징점 기반 아바타 조작 모듈(459)에 해당할 수 있다. [표 1]의 데이터 부분에서 송신자 표시 방법 별로 사용되는 데이터에는 '○'가 표시되고, 사용되지 않는 데이터에는 'X'가 표시되며, 데이터 유무가 상관없는 경우에는 '-'가 표시될 수 있다. The wearable
예를 들어, 사용자가 영상 통화 시에 카메라 모듈(310)에서 캡쳐된 모습 그대로를 사용하고자 하는 경우, 사용자는 송신자 표시 방법으로 '처리되지 않은 동영상'을 선택 또는 설정할 수 있다. '처리되지 않은 동영상'이 선택 또는 설정된 경우, 웨어러블 전자 장치(300)는 구비된 카메라 모듈(310)에서 출력되는 영상을 그대로 통화용 영상으로 상대방에게 전송할 수 있다. 이 경우, 구분 a 와 같이 웨어러블 전자 장치(300)는 영상 안정화 모듈(440) 및 아바타 생성 모듈(450)을 포함하는 영상 통화 어플리케이션(400)의 모든 모듈들을 사용하지 않을 수 있다. For example, if the user wants to use the image captured by the
예를 들어, 사용자가 영상 통화 시에 카메라 모듈(310)에 의해 캡쳐된 영상(예: 거울에 비친 반사체에 대응하는 영역의 영상)을 보정 또는 재구성하여 사용하고자 하는 경우, 사용자는 송신자 표시 방법으로 '안정화된 영상'을 선택 또는 설정할 수 있다. '안정화된 영상'이 선택 또는 설정된 경우, 웨어러블 전자 장치(300)는 캡쳐된 영상을 영상 안정화 모듈(440)에 의해 보정 및/또는 거울에 비친 사용자의 완전한 모습을 재구성한 재구성 영상('안정화된 영상')을 통화용 영상으로 상대방에게 전송할 수 있다. For example, if the user wants to correct or reconstruct the image captured by the
이때, 구분 b와 같이, 반사체에 대응하는 영역의 영상에서 사용자의 얼굴이 인식된 경우, 웨어러블 전자 장치(300)는 사용자의 얼굴(또는 상반신을 포함)의 전체 모습을 포함하는 안정화된 영상을 통화용 영상으로 상대방에게 전송할 수 있다. 또한, 구분 c와 같이, 반사체에 대응하는 영역의 영상에서 사용자의 신체가 인식되는 경우, 웨어러블 전자 장치(300)는 사용자의 전신을 포함하는 안정화된 영상을 통화용 영상으로 상대방에게 전송할 수 있다.At this time, as in category b, when the user's face is recognized in the image of the area corresponding to the reflector, the wearable
또한, 사용자가 영상 통화 시에 카메라 모듈에 의해 캡쳐된 영상 대신에 그래픽 객체(예: 아바타)를 사용하고자 하는 경우, 사용자는 송신자 표시 방법으로 특징점 기반 아바타 생성 방식과 재현 기반 아바타 생성 방식 중 어느 하나를 선택 또는 설정할 수 있다. Additionally, if the user wishes to use a graphic object (e.g., an avatar) instead of the image captured by the camera module during a video call, the user must use one of the feature point-based avatar generation method and the reproduction-based avatar generation method as a sender display method. You can select or set.
예를 들어, '특징점 기반 아바타' 생성 방식이 선택 또는 설정된 경우, 웨어러블 전자 장치(300)는 구분 d-g와 같이 캡쳐된 영상에 포함된 사용자의 모습을 특징점 기반으로 다양하게 재구성한 그래픽 객체(예 2차원 아바타 객체, 3차원 아바타 객체)를 통화용 영상으로 상대방에게 전송할 수 있다. For example, when the 'feature point-based avatar' creation method is selected or set, the wearable
예를 들어, 구분 d와 같이, 송신자 표시 방법으로 '특징점 기반 아바타' 생성 방식이 선택되었으나, 사용자의 얼굴 및 신체가 캡쳐된 영상이 없고, 사용자의 음성만이 입력될 수 있다. 사용자의 음성만이 입력되면, 영상 통화 어플리케이션(400)의 얼굴 특징점 추출 모듈(B)(453), 및 신체 특징점 추출 모듈(C)(455)은 동작하지 않으므로, 웨어러블 전자 장치(300)는 음성-얼굴 특징점 변환 모듈(A)(451)을 사용하여 획득한 얼굴 특징점을 바탕으로 특징점 기반 아바타 조작 모듈(E)(459)을 구동시킬 수 있다. For example, as in category d, the 'feature point-based avatar' creation method was selected as the sender display method, but there is no captured image of the user's face and body, and only the user's voice can be input. When only the user's voice is input, the facial feature point extraction module (B) 453 and the body feature point extraction module (C) 455 of the
일 실시예에서, 송신자 표시 방법으로 '특징점 기반 아바타' 생성 방식이 선택된 경우, 아바타 변환 모듈(450)은 입력 받는 데이터의 종류에 따라 특징점 기반 아바타 조작 모듈(E)(459)에 필요한 특징점을 서로 다른 모듈로부터 제공받을 수 있다.In one embodiment, when the 'feature point-based avatar' creation method is selected as the sender display method, the
예를 들어, 구분 e 또는 구분 f와 같이, 사용자의 얼굴 또는 사용자의 얼굴 및 신체가 포함된 영상(또는 동영상)이 캡쳐될 수 있다. 얼굴 특징점 추출 모듈(B)(453), 및/또는 신체 특징점 추출 모듈(C)(455)에서 얼굴 특징점 및/또는 신체 특징점이 추출될 수 있다. 특징점 기반 아바타 조작 모듈(E)(459)은 추출된 얼굴 특징점 및/또는 신체 특징점에 기초한 아바타의 움직임을 계산할 수 있다. 이때, 캡쳐된 영상으로부터 얼굴 특징점이 추출되느냐, 또는 얼굴 특징점과 신체 특징점이 함께 추출되느냐에 따라 구분 e 또는 f가 동적으로 결정될 수 있다. For example, as in segment e or segment f, the user's face or an image (or video) including the user's face and body may be captured. Facial feature points and/or body feature points may be extracted from the facial feature point extraction module (B) 453 and/or body feature point extraction module (C) 455. The feature point-based avatar manipulation module (E) 459 may calculate the movement of the avatar based on the extracted facial feature points and/or body feature points. At this time, classification e or f may be dynamically determined depending on whether facial feature points are extracted from the captured image or whether facial feature points and body feature points are extracted together.
또는 예를 들어, 구분 g와 같이, 사용자의 얼굴을 제외한 신체가 포함된 영상이 캡쳐되고, 사용자의 음성이 입력될 수 있다. 이 경우, 신체 특징점 추출 모듈(C)(455)에서 추출된 신체 특징점은 있으나, 사용자의 얼굴이 인식되지 않는다. 웨어러블 전자 장치(300)는 음성-얼굴 특징점 변환 모듈(A)(451)에 의해 음성 신호로부터 얼굴 특징점을 생성하고, 얼굴 특징점과 신체 특징점 추출 모듈(C)(455)에서 추출된 신체 특징점에 기초하여 특징점 기반 아바타 조작 모듈(E)(459)을 구동시킬 수 있다. Or, for example, as in segment g, an image containing the user's body excluding the face may be captured, and the user's voice may be input. In this case, there are body feature points extracted from the body feature point extraction module (C) 455, but the user's face is not recognized. The wearable
또한, 전술한 바와 같이, 사용자가 영상 통화 시에 카메라 모듈(310)에 의해 캡쳐된 영상 대신에 그래픽 객체(예: 아바타)를 사용하고자 하는 경우, 사용자는 송신자 표시 방법으로 특징점 기반 아바타 생성 방식과 재현 기반 아바타 생성 방식 중 어느 하나를 선택 또는 설정할 수 있다. In addition, as described above, if the user wishes to use a graphic object (e.g., an avatar) instead of the image captured by the
영상 통화 시의 송신자 표시 방법으로 재현 기반 아바타 생성 방식이 선택 또는 설정된 경우, 웨어러블 전자 장치는 얼굴 재현 모듈(D)(457)에 의해 생성된 아바타 얼굴을 사용하여 사용자의 모습을 표현할 수 있다. 이때, 재현 기반 아바타 생성 방식이 선택되면, 웨어러블 전자 장치는 입력되는 데이터의 유형에 따라, 얼굴 재현 모듈(457)에서 서로 다른 얼굴 재현 방식으로 재현된 얼굴에 기반하여 아바타를 생성할 수 있다. When the representation-based avatar creation method is selected or set as the sender display method during a video call, the wearable electronic device can express the user's appearance using the avatar face generated by the face reproduction module (D) 457. At this time, if the reproduction-based avatar creation method is selected, the wearable electronic device may generate an avatar based on the face reproduced using different face reproduction methods in the
아바타 생성 모듈(450)에서 아바타 생성 시에 입력 데이터의 유형 별로 얼굴 재현 모듈(D)(457)과 함께 사용되는 모듈들은 아래의 [표 2]와 같이 정리할 수 있다. The modules used together with the face reproduction module (D) 457 by type of input data when creating an avatar in the
예를 들어, 구분 h 및 k와 같이, 얼굴 영상이 캡쳐되지 않고, 음성 정보만 입력된 경우, 얼굴 재현 모듈(D)(457)은 음성-얼굴 재현 방식에 의해 사용자의 얼굴을 재현할 수 있다. 아바타 생성 모듈(450)은 얼굴 재현 모듈(D)(457)에서 음성-얼굴 재현 방식에 의해 재현된 얼굴을 사용하여 아바타를 생성할 수 있다. For example, in categories h and k, when face images are not captured and only voice information is input, the face reproduction module (D) 457 can reproduce the user's face by voice-face reproduction method. . The
예를 들어, 구분 i및 j와 같이, 얼굴 영상이 캡쳐된 경우, 아바타 생성 모듈(450)은 얼굴 특징점 추출 모듈(B)(453)에 의해 얼굴 특징점을 추출하여 얼굴의 위치를 인식할 수 있다. 또한, 구분 i및 j와 같이, 얼굴 영상이 캡쳐된 경우, 얼굴 재현 모듈(D)(457)은 영상-얼굴 재현 방식에 기반하여 사용자의 얼굴을 재현할 수 있다. 얼굴 재현 모듈(D)(457)은 딥러닝 기술을 바탕으로 얼굴에서 별도의 특징점을 추출하는 과정 없이, 사용자의 얼굴과 아바타로 사용할 사진 또는 동영상을 사용하여, 사용자의 얼굴 표정을 아바타에 적용할 수 있다. 아바타 생성 모듈(450)은 얼굴 재현 모듈(D)(457)에서 영상-얼굴 재현 방식에 의해 재현된 얼굴을 사용하여 아바타를 생성할 수 있다. 또한, 구분 j, 및 k와 같이, 사용자의 신체 영상이 캡쳐된 경우, 아바타 생성 모듈(450)은 얼굴 재현 모듈(D)(457)에 의해 재현된 사용자의 얼굴 텍스쳐를 3차원 아바타 모델의 머리에 투영하고, 신체 특징점 추출 모듈(C)(455)에 의해 신체 영상으로부터 추출한 신체 특징점을 바탕으로 3차원 아바타 모델을 생성 및/또는 조작할 수 있다. 프로세서(330)는 아바타 생성 모듈(450)에 의해 아바타 모델의 얼굴과 신체가 서로 다른 방식으로 조작되도록 할 수 있다. For example, when a face image is captured, such as in categories i and j, the
프로세서(330)는 전술한 경우들 이외에도 다양한 상황들에 맞게 아바타 생성 모듈(450)의 일부 모듈만을 사용할 수도 있다. 예컨대, 사용자가 신체 부분을 제외한 자신의 얼굴만을 전송하도록 설정한 경우, 프로세서(330)는 신체 특징점 추출 모듈(C)(455)을 제외한 나머지 서브 모듈들을 사용하여 사용자의 아바타를 구현할 수 있다. In addition to the cases described above, the
프로세서(330)가 다양한 상황들 별로 아바타 생성 모듈(450)의 서브 모듈들을 동적으로 선택하여 사용자의 통화용 영상(예: 아바타 생성)의 생성하는 방법은 아래의 도 8 내지 도 10을 참조하여 후술한다. A method for the
도 5는 일 실시예에 따라 실세계 영상으로부터 반사체를 검출하는 과정을 설명하기 위한 도면이다. 도 5를 참조하면, 일 실시예에 따른 반사체 검출 모듈(예: 도 4의 반사체 검출 모듈(410))은 카메라 모듈(예: 도 1의 카메라 모듈(180) 및/또는 도 3의 카메라 모듈(310))에 의해 획득된 실세계 영상들(510, 530, 550)로부터 반사체가 있을 것으로 판단되는 영상 내 일부 영역들을 사각형 형태의 바운딩 박스(515, 535, 555)로 검출할 수 있다. 또는, 반사체 검출 모듈(410)은 실세계 영상들(510, 530, 550)로부터 반사체에 대응하는 반사체 영역(520, 540, 560)을 검출할 수도 있다. 일 실시예에 따른 반사체 검출 모듈(410)은 실세계 영상들(510, 530, 550)로부터 반사체 영역(520, 540, 560)만을 정확하게 검출하지는 않아도 될 수 있다. FIG. 5 is a diagram illustrating a process for detecting a reflector from a real-world image according to an embodiment. Referring to FIG. 5, a reflector detection module (e.g., the
일 실시예에 따른 웨어러블 전자 장치(예: 도 1의 전자 장치(101) 및/또는 도 3의 웨어러블 전자 장치(300))는 실세계 영상들(510, 530, 550) 내에서 반사체의 위치가 산출되면, 사용자에게 반사체의 위치를 알려 사용자로 하여금 반사체에 접근하도록 유도함으로써 반사체에 비친 사용자의 모습이 카메라 모듈(310)에 포착되도록 할 수 있다. A wearable electronic device (e.g., the electronic device 101 of FIG. 1 and/or the wearable
도 6은 일 실시예에 따른 영상 통화 어플리케이션의 영상 안정화 모듈의 동작을 설명하기 위한 도면이다. 도 6을 참조하면, 일 실시예에 따른 반사체에서 사용자의 모습 전부가 비친 반사체에 대응하는 영역의 영상(610), 통화용 영상(620), 사용자의 모습 일부가 비친 반사체에 대응하는 영역의 영상(630), 현재 송신자의 전체 모습을 업데이트한 재구성 영상(640), 기 저장된 사용자의 영상(650), 및 이전에 획득한 사용자의 모습을 포함하는 재구성 영상(660)이 도시된다. Figure 6 is a diagram for explaining the operation of a video stabilization module of a video call application according to an embodiment. Referring to FIG. 6, in the reflector according to one embodiment, an
예를 들어, 웨어러블 전자 장치(예: 도 1의 전자 장치(101) 및/또는 도 3의 웨어러블 전자 장치(300))를 착용한 사용자(예: 송신자)의 움직임 또는 떨림에 의해 반사체에 대응하는 영역의 영상(630)과 같이 사용자의 모습의 일부가 반사체에 비치지 않거나, 다른 물체에 의해 사용자의 모습이 가려져 보이지 않는 상황이 발생할 수 있다. 또는, 사용자의 움직임에 따라 사용자의 모습이 반사체의 프레임에 가려져 반사체에 사용자의 모습 일부가 비춰지지 않게 되거나, 또는 반사체에 비춰진 사용자의 모습이 확대 또는 축소되는 크기 변화가 수반되는 상황이 발생될 수 있다. For example, the movement or shaking of a user (e.g., a sender) wearing a wearable electronic device (e.g., the electronic device 101 of FIG. 1 and/or the wearable
웨어러블 전자 장치(300)는 영상 안정화 모듈(예: 도 4의 영상 안정화 모듈(440))을 통해 전술한 다양한 상황들에서의 사용자(송신자)의 상태에 무관하게 영상 통화의 상대방인 수신자가 송신자의 모습을 온전하게 볼 수 있도록 재구성한 재구성 영상을 제공할 수 있다. 영상 안정화 모듈(440)은 예를 들어, 이전에 획득한 사용자의 모습(예: 기 저장된 사용자의 영상(650))과 현재 반사체로부터 획득한 사용자의 모습의 일부를 포함하는 반사체에 대응하는 영역의 영상(630)을 토대로 현재 송신자의 전체 모습을 업데이트한 재구성 영상(640)을 생성하거나, 및/또는 사용자의 가려짐이 해소될 때까지 이전에 획득한 사용자의 모습(예: 기 저장된 사용자의 영상(650))을 포함하는 재구성 영상(660)을 반복하여 보여줌으로써 수신자가 송신자의 모습을 온전하게 볼 수 있도록 할 수 있다. The wearable
또한, 영상 안정화 모듈(440)은 예를 들어, 얼굴 인식 모듈(420), 및/또는 신체 인식 모듈(430)에서 인식된 얼굴 및/또는 신체 부분의 흔들림 및/또는 흐림(blur)를 보정한 안정화된 영상을 생성할 수 있다. 영상 안정화 모듈(440)은 예를 들어, 흔들리는 영상을 CNN 네트워크 구조와 LSTM 네트워크 구조를 통한 특징 추출 결과와 비교하여 이전 프레임과 현재 프레임 간의 특징점 위치 차이를 통해 특징점의 이동 크기와 방향의 반대로 영상을 변환함으로써 안정화된 영상을 생성할 수 있다. 영상 안정화 모듈(440)은 이 밖에도 알려진 다양한 영상 안정화 기법들을 사용하여 안정화된 영상 및/또는 안정화된 재구성 영상(640, 660)을 생성할 수 있다. In addition, the
일 실시 예에 따르면, 웨어러블 전자 장치(300)는 사용자의 선택 또는 설정에 따라, 영상 통화 시에 아바타를 사용하지 않고 반사체에 대응하는 영역의 영상(610)과 같이 거울의 비친 사용자의 모습을 그대로 영상 통화용 영상(620)으로 사용할 수도 있다. 이 때, 웨어러블 전자 장치(300)는 영상 안정화 모듈(440)에 의해 반사체에 대응하는 영역의 영상(610)의 흔들림 및/또는 블러를 보정한 영상을 통화용 영상으로 상대방에게 제공할 수 있다. According to one embodiment, the wearable
영상 안정화 모듈(440)은 예를 들어, 영역(670)과 같이 직접 영상을 획득할 수 있는 부분은 해당 영역(670)에 대응하는 반사체에 대응하는 영역의 영상으로 직접 업데이트할 수 있다. 영상 안정화 모듈(440)은 영역(670)과 달리, 직접 영상을 획득할 수 없는 영역(680)에 대하여는 예를 들어, 딥 러닝에 의해 예측된 영상으로 간접 업데이트할 수 있다. For example, the
도 7은 일 실시예에 따른 영상 통화 어플리케이션의 얼굴 재현 모듈의 동작을 설명하기 위한 도면이다. 도 7을 참조하면, 일 실시예에 따른 영상 통화 어플리케이션(예: 도 4의 영상 통화 어플리케이션(400))의 얼굴 재현 모듈(D)(457)이 사용자의 얼굴 영상(710) 대신에 사용자에 의해 선택된 얼굴 영상(720)에 의해 재현한 얼굴 영상(730)을 나타낸 도면(700)이 도시된다. Figure 7 is a diagram for explaining the operation of a face reproduction module of a video call application according to an embodiment. Referring to FIG. 7, the face reproduction module (D) 457 of a video call application (e.g., the
사용자는 영상 통화 어플리케이션(400)에서 사용자 본인의 얼굴을 대신하는 실제 인물의 사진 또는 이모지와 같은 그래픽 객체를 아바타로 사용하도록 설정할 수 있다. 이때, 사용자 본인의 표정을 반영하는 아바타의 얼굴 생성 방법으로 특징점 기반 방식과 재현 기반 방식 중 어느 하나가 사용될 수 있다. The user can set the
재현 기반 방식은 특징점 기반 방식에 비해 더욱 정교한 얼굴 표현이 가능하지만, 그 결과가 2차원의 동영상과 같은 형태로 출력될 수 있다. 예를 들어, 수신자가 아래 도 9의 도면(950)과 같이 증강 현실(AR) 또는 가상 현실(VR) 환경에 있을 경우, 통화용 영상으로 실제 아바타가 아닌 동영상을 출력하는 사용자 인터페이스(UI)와 흡사한 형태로 결과물이 표현될 수 있다. Reproduction-based methods allow for more elaborate facial expressions than feature-based methods, but the results can be output in the form of a two-dimensional video. For example, when the recipient is in an augmented reality (AR) or virtual reality (VR) environment as shown in drawing 950 of FIG. 9 below, a user interface (UI) that outputs a video rather than an actual avatar as a video for a call The results can be expressed in a similar form.
얼굴 재현 모듈(D)(457)은 예를 들어, 영상-얼굴 재현 방식에 기반하여 사용자의 얼굴을 재현할 수 있다. 얼굴 재현 모듈(D)(457)은 딥러닝 기술을 바탕으로 얼굴에서 별도의 특징점을 추출하는 과정 없이, 사용자의 얼굴과 아바타로 사용할 사진 또는 동영상을 사용하여, 사용자의 얼굴 표정을 아바타에 적용할 수 있다. 아바타 생성 모듈(450)은 얼굴 재현 모듈(D)(457)에서 영상-얼굴 재현 방식에 의해 재현된 얼굴을 사용하여 아바타를 생성할 수 있다. The face reproduction module (D) 457 may reproduce the user's face based on, for example, an image-face reproduction method. The face reproduction module (D) 457 is based on deep learning technology and can apply the user's facial expression to the avatar by using the user's face and a photo or video to be used as the avatar without the process of extracting separate feature points from the face. You can. The
아바타 생성 모듈(450)은 얼굴 재현 모듈(D)(457)에 의해 재현된 사용자의 얼굴 텍스쳐를 3차원 아바타 모델의 얼굴에 투영할 수 있다.The
또는, 사용자의 신체 영상이 캡쳐된 경우, 아바타 생성 모듈(450)은 얼굴 재현 모듈(D)(457)에 의해 재현된 사용자의 얼굴 텍스쳐를 3차원 아바타 모델의 머리에 투영하고, 신체 특징점 추출 모듈(C)(455)에 의해 신체 영상으로부터 추출한 신체 특징점을 바탕으로 3차원 아바타 모델을 생성 및/또는 조작할 수 있다.Alternatively, when the user's body image is captured, the
도 8은 일 실시예에 따른 웨어러블 전자 장치를 착용한 사용자가 영상 통화를 수행하는 방법을 설명하기 위한 도면이다. 도 8을 참조하면, 일 실시예에 따른 웨어러블 전자 장치(예: 도 1의 전자 장치(101) 및/또는 도 3의 웨어러블 전자 장치(300))를 착용한 사용자가 영상 통화 어플리케이션(예: 도 4의 영상 통화 어플리케이션(400))을 구동하였으나, 음성만이 전달되는 경우의 동작을 설명하기 위한 도면(800)이 도시된다. FIG. 8 is a diagram illustrating a method of making a video call by a user wearing a wearable electronic device according to an embodiment. Referring to FIG. 8, a user wearing a wearable electronic device (e.g., the electronic device 101 of FIG. 1 and/or the wearable
예를 들어, 도면(810)과 같이, 사용자가 웨어러블 전자 장치(300)를 착용한 상태에서 영상 통화 어플리케이션(400)을 실행하면, 웨어러블 전자 장치(300)는 카메라 모듈(예: 도 1의 카메라 모듈(180) 및/또는 도 3의 카메라 모듈(310))에서 캡쳐된 영상에 반사체, 사용자로 추정되는 얼굴, 및/또는 신체를 인식하여 검출을 시도할 수 있다. 웨어러블 전자 장치(300)는 예를 들어, 도 4의 영상 통화 어플리케이션(400)의 반사체 검출 모듈(410), 얼굴 인식 모듈(420), 및 신체 인식 모듈(430)을 통해 반사체, 사용자의 얼굴, 및/또는 사용자의 신체를 인식할 수 있다. For example, as shown in Figure 810, when a user executes the
도면(820)과 같이, 반사체 검출 모듈(410)의 인식 결과로써 캡쳐된 반사체에 대응하는 영역의 영상에서 사용자로부터 멀리 떨어진 반사체(예: 거울)만이 인식되고, 반사체에 비친 사용자는 인식되지 않을 수 있다. 이 경우, 웨어러블 전자 장치(300)는 반사체의 위치를 사용자에게 표시할 수 있다. As shown in the drawing 820, only reflectors (e.g., mirrors) that are far away from the user are recognized in the image of the area corresponding to the reflector captured as a result of the recognition of the
예를 들어, 사용자의 영상은 인식되지 않았으나, 사용자의 음성 신호만이 입력된다면, 웨어러블 전자 장치(300)는 도면(830)과 같은 과정을 통해 사용자의 음성 신호(831)로부터 사용자의 통화용 영상(837)을 생성할 수 있다. For example, if the user's image is not recognized, but only the user's voice signal is input, the wearable
웨어러블 전자 장치(300)는 사용자의 발화에 의해 발생한 음성 신호(831)를 음성-얼굴 특징점 변환 모듈(451)로 전달할 수 있다. 음성-얼굴 특징점 변환 모듈(451)은 음성 신호(831)를 사람의 얼굴 특징점들(833)으로 변환할 수 있다. 이때, 사용자가 영상 통화 어플리케이션(400)에서 사용자의 얼굴 대신 아바타의 얼굴(또는 사람의 얼굴)(835)를 사용하도록 설정했다면, 웨어러블 전자 장치(300)는 사람의 얼굴 특징점들(833)을 아바타의 얼굴(835)에 반영할 수 있다. 아바타의 얼굴(835)은 예를 들어, 사용자가 지정해 둔 아바타의 얼굴일 수도 있고, 영상 통화 어플리케이션(400)에 기본적으로 설정되어 있는 아바타의 얼굴일 수도 있으나, 반드시 이에 한정되지는 않는다. 아바타의 얼굴(835)로는 예를 들어, 가상의 애니메이션 캐릭터, 만화 캐릭터, 및/또는 실제 사람의 얼굴이 활용될 수 있으나, 반드시 이에 한정되지는 않는다. The wearable
웨어러블 전자 장치(300)는 특징점 기반 아바타 조작 모듈(459)을 통해 음성 신호(831)와 연관된 얼굴 표정, 다시 말해, 사람의 얼굴 특징점들(833)을 아바타의 얼굴(835)에 반영하여 사용자의 통화용 영상(837)을 생성할 수 있다. 웨어러블 전자 장치(300)는 영상 통화의 상대방('수신자')에게 사용자의 통화용 영상(837)을 전송하여 영상 통화를 수행할 수 있다. The wearable
상대방은 사용자의 통화용 영상(837)으로 화면에 표시된 아바타의 얼굴을 볼 수 있고, 실제 사용자의 음성 신호를 들을 수 있으므로, 아바타와 영상 통화를 하는 것처럼 느낄 수 있다. 아바타로는 예를 들어, 가상의 애니메이션 캐릭터, 및/또는 실제 사람의 얼굴이 활용될 수 있다.Since the other party can see the face of the avatar displayed on the screen through the user's
도 9는 일 실시예에 따른 웨어러블 전자 장치를 착용한 사용자가 영상 통화를 수행하는 방법을 설명하기 위한 도면이다. 도 9를 참조하면, 일 실시예에 따른 웨어러블 전자 장치(예: 도 1의 전자 장치(101) 및/또는 도 3의 웨어러블 전자 장치(300))를 착용한 사용자의 모습이 도면(910)과 같이 반사체에 반사되는 경우에 영상 통화를 수행하는 방법을 설명하기 위한 도면(900)이 도시된다. FIG. 9 is a diagram illustrating a method of making a video call by a user wearing a wearable electronic device according to an embodiment. Referring to FIG. 9, a user wearing a wearable electronic device (e.g., the electronic device 101 of FIG. 1 and/or the wearable
예를 들어, 도면(910)과 같이 웨어러블 전자 장치(300)를 착용한 사용자가 반사체 쪽으로 이동하여, 반사체에 사용자의 모습이 표시될 수 있다. For example, as shown in the drawing 910, a user wearing the wearable
이러한 상황에서, 사용자가 영상 통화 어플리케이션(예: 도 4의 영상 통화 어플리케이션(400))을 실행하면, 웨어러블 전자 장치(300)는 카메라 모듈(예: 도 1의 카메라 모듈(180) 및/또는 도 3의 카메라 모듈(310))에서 캡쳐된 영상에 반사체, 사용자로 추정되는 얼굴, 및/또는 신체를 인식하여 검출을 시도할 수 있다. 웨어러블 전자 장치(300)는 예를 들어, 도 4의 영상 통화 어플리케이션(400)의 반사체 검출 모듈(410), 얼굴 인식 모듈(420), 및 신체 인식 모듈(430)을 통해 반사체, 사용자의 얼굴, 및/또는 사용자의 신체를 인식할 수 있다. In this situation, when the user executes a video call application (e.g., the
얼굴 인식 모듈(420)을 통해 반사체에 대응하는 영역의 영상에서 거울에 비친 사용자의 모습이 확인되면, 웨어러블 전자 장치(300)는 영상 통화 어플리케이션(400)을 통해 인식된 얼굴 영상이 사용자 본인의 얼굴이 맞는지 여부를 확인할 수 있다. When the user's appearance reflected in the mirror is confirmed in the image of the area corresponding to the reflector through the
웨어러블 전자 장치(300)는 예를 들어, 도면(920)과 같이 거울에 비친 사용자의 모습을 캡쳐한 영상('반사체에 대응하는 영역의 영상')과 함께 "본인의 얼굴이 맞습니까"와 같은 질문에 대한 사용자의 답변을 피드백 받는 방식으로 인식된 얼굴 영상이 사용자 본인의 얼굴이 맞는지를 확인할 수 있다. 또는, 웨어러블 전자 장치(300)는 영상 통화 어플리케이션(400)을 통해 거울에 비친 사용자의 모습을 캡쳐한 영상('반사체에 대응하는 영역의 영상')을 사전에 저장된 사용자의 얼굴과 비교함으로써 인식된 얼굴 영상이 사용자 본인의 얼굴이 맞는지를 확인할 수 있다. 이 경우, 사용자에 대한 확인 동작은 생략될 수 있다. For example, the wearable
도면(920)을 통해 전술한 과정에서 본인 여부가 확인된 사용자의 얼굴은 저장되었다가 추후 재사용될 수 있다. 예를 들어, 영상 통화 진행 중에 사용자의 얼굴이 잠시 보이지 않았다가 다시 보일 수 있다. 이때, 카메라 모듈(310)을 통해 캡쳐된 다시 보인 얼굴이 저장된 얼굴과 매칭된다면, 웨어러블 전자 장치(300)는 사용자 확인을 다시 시도하지 않을 수 있다.The face of the user whose identity has been confirmed in the process described above through drawing 920 may be stored and reused later. For example, during a video call, the user's face may be hidden for a moment and then shown again. At this time, if the re-seen face captured through the
캡쳐한 영상에 대한 얼굴 인식이 완료되면, 웨어러블 전자 장치(300)는 도면(930)에 도시된 과정들을 통해 사용자의 통화용 영상(937)을 생성할 수 있다. 웨어러블 전자 장치(300)는 얼굴 인식 모듈(420)을 통해 인식된 얼굴 영상(931)을 얼굴 특징점 추출 모듈(451)로 전달할 수 있다. 얼굴 특징점 추출 모듈(451)은 인식된 얼굴 영상(931)에서 얼굴 특징점들(933)을 추출할 수 있다. When facial recognition for the captured image is completed, the wearable
예를 들어, 사용자가 영상 통화 어플리케이션(400)에서 사용자의 얼굴 대신 아바타의 얼굴(또는 사람의 얼굴)(935)를 사용하도록 설정했다면, 웨어러블 전자 장치(300)는 사람의 얼굴 특징점들(933)을 아바타의 얼굴(935)에 반영할 수 있다. 아바타의 얼굴(935)은 예를 들어, 사용자가 지정해 둔 아바타의 얼굴일 수도 있고, 영상 통화 어플리케이션(400)에 기본적으로 설정되어 있는 아바타의 얼굴일 수도 있으나, 반드시 이에 한정되지는 않는다. 웨어러블 전자 장치(300)는 특징점 기반 아바타 조작 모듈(459)을 통해 사람의 얼굴 특징점들(933)을 아바타의 얼굴(935)에 반영하여 사용자의 통화용 영상(937)을 생성할 수 있다.For example, if the user sets the
또한, 일 실시예에 따르면, 사용자의 모습이 전신 거울에 비치고, 카메라 모듈에 의해 전신 거울에 비친 사용자의 전신을 포함하는 반사체에 대응하는 영역의 영상이 캡쳐될 수 있다. 이 경우, 웨어러블 전자 장치(300)는 신체 인식 모듈(430)을 통해 반사체에 대응하는 영역의 영상으로부터 사용자의 전신을 인식하여 사용자의 전신 영상을 검출할 수 있다. 웨어러블 전자 장치(300)는 신체 특징점 추출 모듈(455)에 의해 전신 영상으로부터 신체 특징점들을 추출하고, 추출한 신체 특징점들을 특징점 기반 아바타 조작 모듈(459)에 전달하여 3차원 아바타의 조작에 활용할 수 있다. 전술한 동작은 얼굴 특징점 추출 모듈(453) 및 특징점 기반 아바타 조작 모듈(459)과는 별도로 수행될 수 있다.Additionally, according to one embodiment, the user's image is reflected in the full-length mirror, and an image of an area corresponding to the reflector including the user's entire body reflected in the full-length mirror may be captured by the camera module. In this case, the wearable
일 실시예에 따른 웨어러블 전자 장치(300)는 도면(950)과 같이, 예를 들어, 수신자가 실제 환경에 있는 경우, 실제 환경을 위한 통화용 영상(957)을 생성하고, 수신자가 증강 현실(AR) 또는 가상 현실(VR) 환경에 있는 경우, 증강 현실(AR) 또는 가상 현실(VR) 환경을 위한 통화용 영상(959)을 생성할 수 있다. As shown in the drawing 950, the wearable
웨어러블 전자 장치(300)는 얼굴 인식 모듈(420)을 통해 인식된 얼굴 영상(951)을 얼굴 특징점 추출 모듈(451)로 전달할 수 있다. 얼굴 특징점 추출 모듈(451)은 인식된 얼굴 영상(951)에서 얼굴 특징점들(953)을 추출할 수 있다. 이때, 사용자가 영상 통화 어플리케이션(400)에서 사용자 대신에 사용자가 지정한 아바타(955)를 사용하도록 설정했다면, 웨어러블 전자 장치(300)는 얼굴 특징점들(953)을 아바타(955)의 얼굴에 반영할 수 있다. 이때, 신체 인식 모듈(430)을 통해 반사체에 대응하는 영역의 영상으로부터 검출된 사용자의 전신 영상이 있다면, 웨어러블 전자 장치(300)는 신체 특징점 추출 모듈(455)에 의해 전신 영상으로부터 추출한 신체 특징점들을 특징점 기반 아바타 조작 모듈(459)에 전달하여 아바타(955)의 조작에 활용할 수 있다. 웨어러블 전자 장치(300)는 얼굴 특징점들(953), 신체 특징점들을 아바타(955)에 반영하여 통화용 영상(957,959)을 생성할 수 있다. The wearable
예를 들어, 사용자가 실제 환경에 있다면, 웨어러블 전자 장치(300)는 얼굴 특징점들(953), 신체 특징점들을 아바타(955)에 반영한 통화용 영상(957)을 생성할 수 있다. For example, if the user is in a real environment, the wearable
이와 달리, 사용자가 증강 현실(AR) 또는 가상 현실(VR) 환경에 있다면, 웨어러블 전자 장치(300)는 증강 현실(AR) 또는 가상 현실(VR) 환경에 가상의 휴대폰을 생성 및 표시하고, 가상의 휴대폰 화면에 얼굴을 포함하는 전신 영상이 표현된 아바타가 표현된 통화용 영상(959)을 생성할 수 있다. 이때, 가상의 휴대폰 화면에 표시되는 아바타는 실제 아바타가 아닌 동영상을 출력하는 사용자 인터페이스(UI)와 유사한 형태로 표현될 수 있다. In contrast, if the user is in an augmented reality (AR) or virtual reality (VR) environment, the wearable
일 실시예에서 사용자가 지정한 아바타(955)는 얼굴 특징점에 대응되는 3차원 모델의 제어 포인트가 사전에 미리 정의되어 있으므로, 웨어러블 전자 장치(300)는 얼굴 특징점 추출 모듈(451)이 추출한 얼굴 특징점들(953)에 따라 아바타(955)의 얼굴 표정을 자유자재로 변경할 수 있다. 또한, 웨어러블 전자 장치(300)는 예를 들어, 일반적인 디스플레이 환경, 및/또는 증강 현실(AR) 또는 가상 현실(VR) 환경과 같은 수신자의 영상 통화 환경에 맞게 아바타(955)의 3차원 모델을 표시할 수 있다. In one embodiment, the
도 10은 일 실시예에 따른 웨어러블 전자 장치를 착용한 사용자가 영상 통화를 수행하는 방법을 설명하기 위한 도면이다. 도 10을 참조하면, 일 실시예에 따른 반사체에 반사된 사용자의 모습에 변화가 발생한 경우에 사용자의 아바타를 업데이트하여 영상 통화를 수행하는 방법을 설명하기 위한 도면(1000)이 도시된다. FIG. 10 is a diagram illustrating a method of making a video call by a user wearing a wearable electronic device according to an embodiment. Referring to FIG. 10, a diagram 1000 is shown to explain a method of performing a video call by updating the user's avatar when a change occurs in the user's appearance reflected by a reflector according to an embodiment.
예를 들어, 도면(1010)과 같이, 거울에 비친 사용자의 모습이 얼굴로 한정되는 경우, 웨어러블 전자 장치(예: 도 1의 전자 장치(101) 및/또는 도 3의 웨어러블 전자 장치(300))는 얼굴 특징점 추출 모듈(453)에 의해 얼굴 특징점을 추출할 수 있으나, 신체 특징점 추출 모듈(455)은 신체 특징점을 추출할 수 없다. 이 경우, 특징점 기반 아바타 조작 모듈(459)은 얼굴 특징점을 토대로 아바타를 조작할 수 있다. For example, as shown in Figure 1010, when the user's appearance reflected in the mirror is limited to the face, a wearable electronic device (e.g., the electronic device 101 of FIG. 1 and/or the wearable
반면, 도면(1020)과 같이, 거울에 비친 사용자의 모습이 얼굴에서 전신으로 변경되는 경우, 웨어러블 전자 장치(300)는 도면(1030)과 같은 과정을 통해 통화용 영상(1036)을 생성할 수 있다. On the other hand, as shown in the
예를 들어, 반사체에 대응하는 영역의 영상이 사용자의 전신 모습을 포함하는 경우, 특징점 추출 모듈(453)은 전신 영상 중 얼굴(1031)에 대응하는 얼굴 특징점들(1032)을 추출하고, 신체 특징점 추출 모듈(455)은 전신(1033)에 대응하는 신체 특징점들(1034)을 추출할 수 있다. For example, when the image of the area corresponding to the reflector includes the user's full body, the feature
얼굴 특징점들(1032) 및 신체 특징점들(1034)은 특징점 기반 아바타 조작 모듈(459)이 아바타를 조작하는데 이용될 수 있다. The
예를 들어, 사용자가 지정한 아바타(1035)가 있다면, 특징점 기반 아바타 조작 모듈(459)은 얼굴 특징점들(1032) 및 신체 특징점들(1034)을 바탕으로 아바타(1035)의 움직임을 조작할 수 있다. 이때, 특징점 기반 아바타 조작 모듈(459)에 전달되는 여러 특징점들이 변경됨에 따라, 통화용 영상(1036)에 표시된 아바타의 업데이트 영역이 변경될 수 있다. 다시 말해, 거울에 비치는 사용자의 모습이 도면(1010)에서 도면(1020)과 같이 변경되는 경우, 통화용 영상(1036)에 아바타의 업데이트 영역은 제1 업데이트 영역(1037)에서 제 2 업데이트 영역(1038)으로 동적으로 변경될 수 있다. 웨어러블 전자 장치(300)는 예를 들어, 제1 업데이트 영역(1037)에 대해 직접 업데이트를 수행하고, 제2 업데이트 영역(1038)에 대해 간접 업데이트를 수행될 수 있다. For example, if there is an
예를 들어, 사용자가 거울로부터 멀리 떨어져 있어 얼굴 특징점 추출 모듈(453)에 의해 얼굴 특징점이 추출되지 못하는 경우, 웨어러블 전자 장치(300)는 신체 특징점 추출 모듈(455)에 의해 추출한 신체 특징점들(1034)과 음성 신호를 통해 예측된 얼굴 특징점을 바탕으로 아바타의 전신에 해당하는 제2 업데이트 영역(1038)을 간접 업데이트할 수 있다. 또는, 예를 들어, 신체 특징점 추출 모듈(455)이 신체 특징점을 추출할 수 없을 만큼 사용자가 거울로부터 과도하게 멀어지거나, 사용자가 거울에서 사라지는 경우와 같이 얼굴 특징점들 및 신체 특징점들을 제대로 추출할 수 없는 경우, 웨어러블 전자 장치(300)는 음성-얼굴 특징점 변환 모듈(451)에 의해 음성 신호를 토대로 추출한 얼굴 특징점들에 의해 아바타의 얼굴에 해당하는 제1 업데이트 영역(1037)을 직접 업데이트할 수 있다. For example, when the user is far away from the mirror and the facial feature points cannot be extracted by the facial feature
도 11은 일 실시예에 따른 웨어러블 전자 장치의 동작 방법을 나타낸 흐름도이다. 이하 실시예에서 각 동작들은 순차적으로 수행될 수도 있으나, 반드시 순차적으로 수행되는 것은 아니다. 예를 들어, 각 동작들의 순서가 변경될 수도 있으며, 적어도 두 동작들이 병렬적으로 수행될 수도 있다.Figure 11 is a flowchart showing a method of operating a wearable electronic device according to an embodiment. In the following embodiments, each operation may be performed sequentially, but is not necessarily performed sequentially. For example, the order of each operation may be changed, and at least two operations may be performed in parallel.
동작 1110에서, 웨어러블 전자 장치(예: 도 1의 전자 장치(101) 및/또는 도 3의 웨어러블 전자 장치(300))는, 웨어러블 전자 장치(300)에서 영상 통화를 위한 어플리케이션이 실행됨에 응답하여, 사용자 주변의 실세계 영상(예: 도 3의 실세계 영상(510, 530, 550))을 획득할 수 있다. In
동작 1120에서, 웨어러블 전자 장치(300)는 동작 1110에서 획득한 실세계 영상(510, 530, 550)으로부터 반사체를 검출할 수 있다.In
동작 1130에서, 웨어러블 전자 장치(300)는 실세계 영상(510, 530, 550) 중 동작 1120에서 검출한 반사체에 대응하는 영역의 영상으로부터 거리 및 방향을 포함하는 반사체의 위치 정보를 산출할 수 있다. 웨어러블 전자 장치(300)가 반사체의 위치 정보를 산출하는 방법은 아래의 도 12를 참조하여 설명한다. In
동작 1140에서, 웨어러블 전자 장치(300)는 동작 1130에서 산출한 위치 정보에 따라 사용자가 반사체의 위치로 이동하도록 하는 안내를 제공하도록 출력 장치(예: 도 1의 음향 출력 모듈(155) 및/또는 디스플레이 모듈(160))를 제어함으로써, 영상 통화의 상대방에게 전송할 사용자의 통화용 영상(예: 도 8의 통화용 영상(837), 도 9의 통화용 영상(937, 957, 959), 및/또는 도 10의 통화용 영상(1035), 1036))을 생성할 수 있다. 웨어러블 전자 장치(300)는 예를 들어, 반사체에 대응하는 영역의 영상이 사용자의 적어도 신체 일부를 포함한다는 결정에 따라, 웨어러블 전자 장치(300)에 구비된 카메라 모듈(예: 도 1의 카메라 모듈(180) 및/또는 도 3의 카메라 모듈(310))을 이용하여 획득한 반사체에 대응하는 영역의 영상을 이용하여 사용자의 통화용 영상(837, 937, 957, 959, 1035, 1036)을 생성할 수 있다. In
웨어러블 전자 장치(300)는 안내에 따라 반사체의 위치로 이동한 사용자가 반사체에 비친 반사체에 대응하는 영역의 영상을 획득하고, 반사체에 대응하는 영역의 영상을 이용하여 사용자의 통화용 영상(837, 937, 957, 959, 1035, 1036)을 생성할 수 있다. 웨어러블 전자 장치(300)가 사용자의 통화용 영상(837, 937, 957, 959, 1035, 1036)을 생성하는 방법은 아래의 도 13을 참조하여 설명한다. The wearable
도 12는 일 실시예에 따라 반사체에 비친 반사체에 대응하는 영역의 영상으로부터 위치 정보를 산출하는 방법을 나타낸 흐름도이다. 이하 실시예에서 각 동작들은 순차적으로 수행될 수도 있으나, 반드시 순차적으로 수행되는 것은 아니다. 예를 들어, 각 동작들의 순서가 변경될 수도 있으며, 적어도 두 동작들이 병렬적으로 수행될 수도 있다.Figure 12 is a flowchart showing a method of calculating location information from an image of an area corresponding to a reflector reflected on a reflector according to an embodiment. In the following embodiments, each operation may be performed sequentially, but is not necessarily performed sequentially. For example, the order of each operation may be changed, and at least two operations may be performed in parallel.
동작 1210에서, 실세계 영상(예: 도 5의 실세계 영상들(510, 530, 550))으로부터 반사체가 검출된 경우, 웨어러블 전자 장치(300)는 반사체에 대응하는 영역의 영상이 얼굴을 포함하는 사용자의 적어도 신체 일부를 포함하는지 여부를 결정할 수 있다. In
동작 1220에서, 반사체에 대응하는 영역의 영상이 사용자의 적어도 신체 일부를 포함하지 않는다는 결정에 따라, 웨어러블 전자 장치(300)는 3차원 공간 내 사용자의 위치, 카메라 모듈(예: 도 1의 카메라 모듈(180), 및/또는 도 3의 카메라 모듈(310))의 시야각, 및 반사체의 위치에 기초하여 반사체의 위치 정보를 산출할 수 있다. In
도 13은 일 실시예에 따라 영상 통화의 상대방에게 전송한 사용자의 통화용 영상을 생성하는 방법을 나타낸 흐름도이다. 이하 실시예에서 각 동작들은 순차적으로 수행될 수도 있으나, 반드시 순차적으로 수행되는 것은 아니다. 예를 들어, 각 동작들의 순서가 변경될 수도 있으며, 적어도 두 동작들이 병렬적으로 수행될 수도 있다.Figure 13 is a flowchart showing a method of generating a video for a user's call sent to the other party of a video call, according to an embodiment. In the following embodiments, each operation may be performed sequentially, but is not necessarily performed sequentially. For example, the order of each operation may be changed, and at least two operations may be performed in parallel.
동작 1310에서, 웨어러블 전자 장치(예: 도 1의 전자 장치(101) 및/또는 도 3의 웨어러블 전자 장치(300))는 반사체에 대응하는 영역의 영상을 사용자의 통화용 영상(예: 도 8의 통화용 영상(837), 도 9의 통화용 영상(937, 957, 959), 및/또는 도 10의 통화용 영상(1035), 1036))으로 결정하는 제1 선택, 반사체에 대응하는 영역의 영상을 이용하여 재구성한 재구성 영상(예: 도 6의 재구성 영상(640, 660))을 사용자의 통화용 영상(837, 937, 957, 959, 1035, 1036)으로 결정하는 제2 선택, 및 반사체에 대응하는 영역의 영상을 이용하여 재구성한 그래픽 객체를 사용자의 통화용 영상(837, 937, 957, 959, 1035, 1036)으로 결정하는 제3 선택 중 어느 하나의 사용자의 선택을 입력받을 수 있다. In
동작 1320에서, 웨어러블 전자 장치(300)는 카메라 모듈(예: 도 1의 카메라 모듈(180) 및/또는 도 3의 카메라 모듈(310))에 의해 사용자의 얼굴 및 사용자의 적어도 신체 일부를 포함하는 반사체에 대응하는 영역의 영상이 획득되는지 여부 및 사용자의 선택 중 적어도 하나에 따라, 사용자의 통화용 영상(837, 937, 957, 959, 1035, 1036)을 생성할 수 있다. 예를 들어, 제1 선택이 입력된 경우, 웨어러블 전자 장치(300)는 반사체에 대응하는 영역의 영상을 사용자의 통화용 영상(837, 937, 957, 959, 1035, 1036)으로 결정할 수 있다. 예를 들어, 제2 선택이 입력된 경우, 웨어러블 전자 장치(300)는 반사체에 대응하는 영역의 영상에 의해 사용자의 모습을 재구성한 재구성 영상(640, 660)을 생성할 수 있다. 웨어러블 전자 장치(300)는 반사체에 대응하는 영역의 영상과 사용자의 기 저장된 영상을 비교하여 반사체에 대응하는 영역의 영상이 기 저장된 영상의 어느 부분에 대응되는지를 확인할 수 있다. 웨어러블 전자 장치(300)는 기 저장된 영상에서 반사체에 대응하는 영역의 영상에 대응되는 부분은 반사체에 대응하는 영역의 영상에 의해 업데이트하고, 기 저장된 영상에서 반사체에 대응하는 영역의 영상에 대응되지 않는 부분은 신경망에 의해 예측된 영상에 의해 업데이트함으로써 사용자의 통화용 영상을 재구성할 수 있다. 웨어러블 전자 장치(300)는 재구성 영상(640, 660)을 사용자의 통화용 영상(837, 937, 957, 959, 1035, 1036)으로 결정할 수 있다. 또는, 웨어러블 전자 장치(300)는 제3 선택에 따라, 반사체에 대응하는 영역의 영상에 대응하여 사용자의 통화용 영상을 재구성한 그래픽 객체를 생성할 수 있다. In
도 14는 일 실시예에 따른 웨어러블 전자 장치(300)의 동작 방법을 나타낸 흐름도이다. 이하 실시예에서 각 동작들은 순차적으로 수행될 수도 있으나, 반드시 순차적으로 수행되는 것은 아니다. 예를 들어, 각 동작들의 순서가 변경될 수도 있으며, 적어도 두 동작들이 병렬적으로 수행될 수도 있다.FIG. 14 is a flowchart showing a method of operating the wearable
동작 1410에서, 웨어러블 전자 장치(예: 도 1의 전자 장치(101) 및/또는 도 3의 웨어러블 전자 장치(300))는 사용자가 웨어러블 전자 장치(300)를 착용하고, 영상 통화 어플리케이션(예: 도 4의 영상 통화 어플리케이션(400))을 실행하면, 구비된 카메라 모듈(예: 도 1의 카메라 모듈(180) 및/또는 도 3의 카메라 모듈(310))을 통해 주변의 실세계 영상(도 5의 실세계 영상들(510, 530, 550))을 획득할 수 있다.In
동작 1420에서, 웨어러블 전자 장치(300)는 동작 1420에서 획득한 실세계 영상(510, 530, 550)에서 반사체가 검출되는지 판단할 수 있다. 웨어러블 전자 장치(300)는 반사체 검출 모듈(410)에 의해 실세계 영상(510, 530, 550) 내 반사체를 검출할 수 있다. 동작 1420에서 반사체가 검출되지 않는다고 판단되면, 동작 1460에서 웨어러블 전자 장치(300)는 사용자의 음성 정보(예: 도 8의 음성 신호(831))에 따라 아바타를 업데이트할 수 있다. 웨어러블 전자 장치(300)는 동작 1460의 수행 후에, 도 14에 도시된 것과 같이 사용자가 영상 통화를 종료함에 따라 동작을 종료할 수도 있고, 또는 동작 1420에서 반사체를 검출하여 반사체에 비친 인물이 있는지를 반복적으로 확인할 수도 있다. In
이와 달리, 동작 1420에서 반사체가 검출된다고 판단되면, 동작 1430에서 웨어러블 전자 장치(300)는 반사체에 비친 인물이 있는지 판단할 수 있다. 웨어러블 전자 장치(300)는 예를 들어, 얼굴 인식 모듈(420) 및/또는 신체 인식 모듈(430)에 의해 실세계 영상(510, 530, 550)으로부터 인물을 검출할 수 있다. 동작 1430에서 반사체에 비친 인물이 없다고 판단되면, 동작 1440에서, 웨어러블 전자 장치(300)는 3차원 공간 내 사용자의 위치와 카메라의 시야각(예: 6 DoF)) 및 반사체의 위치에 기초하여 사용자가 반사체에 비친 모습을 확인할 수 있도록 사용자 인터페이스(UI) 가이드를 제공할 수 있다. 웨어러블 전자 장치(300)는 사용자 인터페이스 가이드를 통해 사용자가 반사체에 접근하도록 유도할 수 있다. Alternatively, if it is determined that a reflector is detected in
동작 1430에서 반사체에 비친 인물이 있다고 판단되면, 동작 1450에서 웨어러블 전자 장치(300)는 반사체에 비친 인물이 사용자인지를 판단할 수 있다. 웨어러블 전자 장치(300)는 영상 통화 어플리케이션(400)의 얼굴 인식 모듈(420)에 의해 반사체로부터 캡쳐한 반사체에 대응하는 영역의 영상 내에서 얼굴이 인식되면, 해당 얼굴이 사용자의 얼굴인지를 확인할 수 있다. If it is determined in
동작 1450에서 반사체에 비친 인물이 사용자가 아니라고 판단되면, 웨어러블 전자 장치(300)는 동작 1460을 통해 사용자의 음성 정보에 따라 아바타를 업데이트할 수 있다. 웨어러블 전자 장치(300)는 예를 들어, 반사체로부터 획득한 반사체에 대응하는 영역의 영상 내에서 사용자로 확인되는 얼굴이 검출될 때까지, 아바타 생성 모듈(450)의 음성-얼굴 특징점 변환 모듈(451) 및 특징점 기반 아바타 조작 모듈(459)을 통해 사용자의 음성 정보에 따라 아바타를 업데이트할 수 있다. If it is determined in
동작 1450에서 반사체에 비친 인물이 사용자라고 판단되면, 동작 1470에서 웨어러블 전자 장치(300)는 반사체에 비친 사용자를 검출하고, 검출된 사용자의 영상 정보, 다시 말해 반사체에 대응하는 영역의 영상에 따라 아바타를 업데이트할 수 있다. 동작 1450에서 반사체에 비친 인물, 다시 말해 반사체에 대응하는 영역의 영상에 포함된 인물이 사용자라고 판단되면, 웨어러블 전자 장치(300)는 반사체에 대응하는 영역의 영상 내 검출 결과를 영상 안정화 모듈(440)의 입력으로 전달할 수 있다. 웨어러블 전자 장치(300)는 영상 안정화 모듈(440) 및 아바타 생성 모듈(450)의 처리 결과에 따라 사용자의 아바타를 영상 정보에 기초하여 업데이트할 수 있다. If it is determined in
동작 1480에서, 사용자가 영상 통화를 종료함에 따라 웨어러블 전자 장치(300)는 동작을 종료할 수 있다. In
전술한 동작 1420, 동작 1430, 동작 1440, 및 동작 1450은 반사체로부터 캡쳐한 반사체에 대응하는 영역의 영상에서 사용자의 모습이 확인될 때까지 반복적으로 수하여 수행될 수 있다. The above-described
도 15는 일 실시예에 따른 영상 통화 어플리케이션에 의해 송신자 단말과 수신자 단말 간에 영상 통화를 수행하는 방법을 설명하기 위한 도면이다. 도 15를 참조하면, 일 실시예에 따라 서로 동일한 영상 통화 어플리케이션(예: 도 4의 영상 통화 어플리케이션(400))이 설치된 송신자 단말(1510)과 수신자 단말(1550) 중 송신자 단말(1510) 측의 네트워크 상황이 좋지 않아 영상과 같은 대용량의 데이터를 전송하기 어려운 상황이 발생한 경우에 영상 통화를 수행하는 방법을 설명하기 위한 도면(1500)이 도시된다. 이하, 각 단말에 설치된 영상 통화 어플리케이션(400)에서 실선으로 표시된 모듈은 활성화된 모듈을 나타내고, 점선으로 표시된 모듈은 비활성화된 모듈을 나타낼 수 있다. FIG. 15 is a diagram illustrating a method of performing a video call between a sender terminal and a recipient terminal using a video call application according to an embodiment. Referring to FIG. 15, according to one embodiment, the
전술한 바와 같이, 송신자 단말(1510) 측의 네트워크 상황이 좋지 않아 영상과 같은 대용량의 데이터를 전송하기 어려운 경우, 영상 통화 어플리케이션(400)은 예를 들어, 송신자 단말(1510)과 수신자 단말(1550) 간의 네트워크 상황과 송신자 단말(1510)과 수신자 단말(1550) 각각의 프로세서 점유율을 고려하여 송신자의 모습을 표현하기 위한 통화용 영상(예: 도 8의 통화용 영상(837), 도 9의 통화용 영상(937, 957, 959), 및/또는 도 10의 통화용 영상(1035), 1036))을 생성하는 동작 중 일부를 수신자 단말(1550) 측에서 수행하도록 위임할 수 있다. 도 15에 도시된 영상 통화용 어플리케이션의 각 모듈들(1520, 1525, 1530, 1535, 1540 및/또는 1560, 1565,1570, 1575)은 도 4에 도시된 영상 통화용 어플리케이션(400)의 모듈들(410, 420, 430, 440, 450) 각각에 대응할 수 있다. As described above, when it is difficult to transmit large data such as video due to poor network conditions on the
이 경우, 송신자 단말(1510)은 영상 통화 어플리케이션(400)의 반사체 검출 모듈(1520)에 의해 영상으로부터 반사체를 검출할 수 있다. 얼굴 인식 모듈(420) 및 신체 인식 모듈(430)은 반사체로부터 캡쳐한 반사체에 대응하는 영역의 영상으로부터 얼굴 및/또는 신체를 인식 및 검출할 수 있다. In this case, the
얼굴 특징점 추출 모듈(1542)은 반사체에 대응하는 영역의 영상에서 인식된 얼굴로부터 2차원 또는 3차원 좌표 형태의 얼굴 특징점들을 추출할 수 있다. 또한, 신체 특징점 추출 모듈(1543)은 반사체에 대응하는 영역의 영상에서 인식된 신체로부터 2차원 또는 3차원 좌표 형태의 신체 특징점들을 추출할 수 있다. 영상 어플리케이션은 추출한 얼굴 특징점들 및/또는 신체 특징점들을 수신자 단말(1550) 측으로 전송할 수 있다. The facial feature
수신자 단말(1550)은 송신자 단말(1510)이 전송한 2차원 또는 3차원 좌표 형태의 얼굴 및/또는 신체 특징점들을 토대로 특징점 기반 아바타 조작 모듈(1585)을 이용하여 송신자의 통화용 영상(837, 937, 957, 959, 1035, 1036)으로 사용될 아바타를 생성 및/또는 조작할 수 있다. 수신자 단말(1550)은 특징점 기반 아바타 조작 모듈(1585)에 의해 생성된 송신자의 통화용 영상(837, 937, 957, 959, 1035, 1036)을 송신자 단말(1510)의 사용자(송신자)에게 보여줄 수 있다. 이러한 경우, 수신자 단말(1550)이 생성한 송신자의 통화용 영상(837, 937, 957, 959, 1035, 1036)을 송신자 단말(1510)이 수신할 때까지 시간이 소요될 수 있다. The
도 16은 일 실시예에 따른 영상 통화 어플리케이션에 의해 송신자 단말과 수신자 단말 간에 영상 통화를 수행하는 방법을 설명하기 위한 도면이다. 도 16을 참조하면, 일 실시예에 따라 서로 동일한 영상 통화 어플리케이션(예: 도 4의 영상 통화 어플리케이션(400))이 설치된 송신자 단말(1510)과 수신자 단말(1550) 중 송신자 단말(1510) 측의 프로세서(예: 도 1의 프로세서(120), 및/또는 도 3의 프로세서(330)) 점유율이 높아 영상 안정화 모듈(1535) 및 아바타 생성 모듈(1540)의 구동이 어려운 상황에서 영상 통화를 수행하는 방법을 설명하기 위한 도면(1600)이 도시된다.FIG. 16 is a diagram illustrating a method of performing a video call between a sender terminal and a recipient terminal using a video call application according to an embodiment. Referring to FIG. 16, according to one embodiment, the
예를 들어, 영상 통화를 수행하고자 하는 송신자 단말(1510) 측의 프로세서(330) 점유율이 높아 영상 안정화 모듈(1535) 및 아바타 생성 모듈(1540)의 구동이 어려운 상황에서 영상 통화의 상대방인 수신자 단말(1550) 측의 프로세서(330) 점유율에 여유가 있을 수 있다. For example, in a situation where it is difficult to operate the
이 경우, 송신자 단말(1510)은 반사체 검출 모듈(1520)에 의해 캡쳐한 반사체에 대응하는 영역의 영상과 얼굴 인식 모듈(1525) 및/또는 신체 인식 모듈(1530)에 의해 인식된 얼굴 인식 결과 및/또는 신체 인식 결과를 수신자 단말(1550) 측에 전송할 수 있다. 송신자 단말(1510)은 전송한 반사체에 대응하는 영역의 영상, 얼굴 인식 결과 및/또는 신체 인식 결과에 대한 처리(예: 영상 안정화 및/또는 아바타 생성)를 수신자 단말(1550)이 수행하도록 할 수 있다. In this case, the
반사체에 대응하는 영역의 영상, 얼굴 인식 결과 및/또는 신체 인식 결과를 수신한 수신자 단말(1550)은 영상 안정화 모듈(1575)에 의해 안정화된 영상을 아바타 생성 모듈(1580)로 전달하여 송신자의 통화용 영상(예: 도 8의 통화용 영상(837), 도 9의 통화용 영상(937, 957, 959), 및/또는 도 10의 통화용 영상(1035), 1036))으로 사용될 아바타를 생성 및/또는 조작할 수 있다. 수신자 단말(1550)은 아바타 생성 모듈(1580)에 의해 생성된 송신자의 통화용 영상(837, 937, 957, 959, 1035, 1036)을 송신자 단말(1510)의 사용자(송신자)에게 보여줄 수 있다.The
이러한 경우, 수신자 단말(1550)이 생성한 송신자의 통화용 영상(837, 937, 957, 959, 1035, 1036)을 송신자 단말(1510)이 수신할 때까지 시간이 소요될 수 있다.In this case, it may take time for the
도 17은 일 실시예에 따른 영상 통화 어플리케이션이 설치된 송신자 단말과 다른 영상 통화 어플리케이션이 설치된 수신자 단말 간에 영상 통화를 수행하는 방법을 설명하기 위한 도면이다. 도 17을 참조하면, 일 실시예에 따른 영상 통화 어플리케이션(예: 도 4의 영상 통화 어플리케이션(400))이 설치된 송신자 단말(1510)과 타사 영상 통화 어플리케이션이 설치된 수신자 단말(1710) 간에 영상 통화를 수행하는 방법을 설명하기 위한 도면(1700)이 도시된다. FIG. 17 is a diagram illustrating a method of performing a video call between a sender terminal on which a video call application is installed and a recipient terminal on which another video call application is installed, according to an embodiment. Referring to FIG. 17, a video call is made between a
일 실시 예에 따르면, 영상 통화의 상대방인 수신자 단말(1710)은 일 실시예에 따른 영상 통화 어플리케이션(400)과 동일한 영상 통화 어플리케이션(400)을 사용할 필요는 없다. 수신자 단말(1710)이 다른 영상 통화 어플리케이션을 사용하더라도, 송신자 단말(1710)이 반사체 검출 모듈(1520), 얼굴 인식 모듈(1525), 신체 인식 모듈(1530), 영상 안정화 모듈(1535) 및 아바타 생성 모듈(1540)을 사용하여 실세계 영상에 대한 모든 처리를 수행한 통화용 영상(예: 도 8의 통화용 영상(837), 도 9의 통화용 영상(937, 957, 959), 및/또는 도 10의 통화용 영상(1035), 1036))을 생성한 후, 이를 수신자 단말(1710)에게 전송함으로써 영상 통화가 수행될 수 있다. According to one embodiment, the
도 18은 일 실시예에 따른 영상 통화 어플리케이션이 설치된 수신자 단말과 음성 통화 어플리케이션이 설치된 송신자 단말 간에 영상 통화를 수행하는 방법을 설명하기 위한 도면이다. 도 18을 참조하면, 일 실시예에 따른 송신자 단말(1810)이 수신자 단말(1550)에게 음성 정보만을 전송하는 경우에 영상 통화를 수행하는 방법을 설명하기 위한 도면(1800)이 도시된다. FIG. 18 is a diagram illustrating a method of performing a video call between a recipient terminal on which a video call application is installed and a sender terminal on which a voice call application is installed, according to an embodiment. Referring to FIG. 18, a diagram 1800 is shown to explain a method of performing a video call when the
예를 들어, 송신자 단말(1810)이 음성 통화 어플리케이션(예: 도 4의 음성 통화 어플리케이션(400))을 사용하여 수신자 단말(1550)에게 음성 정보만이 전송되는 경우, 수신자 단말(1550)은 영상 통화 어플리케이션(400)의 아바타 생성 모듈(1580)에 기본적으로 저장되어 있는 아바타와, 음성-얼굴 특징점 변환 모듈(1581)에서 송신자의 음성 정보(예: 도 8의 음성 신호(831))를 얼굴 특징점으로 변환한 결과를 토대로, 특징점 기반 아바타 조작 모듈(1585)을 이용하여 송신자의 음성 정보(831)에 따라 얼굴 모양이 조작되는 아바타를 송신자의 통화용 영상(837, 937, 957, 959, 1035, 1036)으로 생성할 수 있다. For example, when only voice information is transmitted from the
수신자 단말(1550)은 송신자 단말(1810)로부터 음성 정보(831)만이 전송되더라도, 수신자 단말(1550)에서 생성한 송신자의 통화용 영상(837, 937, 957, 959, 1035, 1036)을 영상 통화 화면에서 송신자 측 화면으로 표시함으로써 수신자가 송신자와 실제 얼굴을 보면서 영상 통화를 수행하는 것과 같이 느끼도록 할 수 있다. Even if only voice
일 실시예에 따르면, 웨어러블 전자 장치(101, 300)는 웨어러블 전자 장치(101, 300)에서 영상 통화를 위한 어플리케이션(400)이 실행됨에 응답하여, 사용자 주변의 실세계 영상(510, 530, 550)을 획득하는 카메라 모듈(180, 310), 상기 실세계 영상(510, 530, 550)으로부터 반사체를 검출하고, 상기 실세계 영상(510, 530, 550) 중 상기 반사체에 대응하는 영역의 영상으로부터 거리 및 방향을 포함하는 상기 반사체의 위치 정보를 산출하며, 상기 위치 정보에 따라 상기 사용자가 상기 반사체의 위치로 이동하도록 하는 안내를 제공하도록 출력 장치(155. 160)를 제어함으로써, 상기 영상 통화의 상대방에게 전송할 상기 사용자의 통화용 영상(837, 937, 957, 959, 1035, 1036)을 생성하는 프로세서(120, 330), 및 상기 사용자의 통화용 영상(837, 937, 957, 959, 1035, 1036)을 전송하는 통신 모듈(190, 350)을 포함할 수 있다. According to one embodiment, the wearable
일 실시예에 따르면, 상기 프로세서(120, 330)는 상기 실세계 영상(510, 530, 550)으로부터 상기 반사체가 검출된 경우, 상기 반사체에 대응하는 영역의 영상이 얼굴을 포함하는 상기 사용자의 적어도 신체 일부를 포함하는지 여부를 결정하고, 상기 반사체에 대응하는 영역의 영상이 상기 사용자의 적어도 신체 일부를 포함하지 않는다는 결정에 따라, 3차원 공간 내 상기 사용자의 위치, 상기 카메라 모듈(180, 310)의 시야각, 및 상기 반사체의 위치에 기초하여 상기 위치 정보를 산출할 수 있다. According to one embodiment, when the processor (120, 330) detects the reflector from the real-world images (510, 530, 550), the image of the area corresponding to the reflector is at least the body of the user including the face. determining whether the image of the area corresponding to the reflector does not include at least a body part of the user, the location of the user in three-dimensional space, the
일 실시예에 따르면, 상기 프로세서(120, 330)는 상기 실세계 영상(510, 530, 550)으로부터 상기 반사체가 검출되지 않는 경우, 상기 사용자의 음성 정보(831)에 대응하여 생성한 상기 사용자의 통화용 영상(837, 937, 957, 959, 1035, 1036)에 의해 상기 영상 통화를 수행할 수 있다. According to one embodiment, when the reflector is not detected from the real-world images 510, 530, and 550, the
일 실시예에 따르면, 상기 프로세서(120, 330)는 상기 반사체에 대응하는 영역의 영상이 상기 사용자의 적어도 신체 일부를 포함한다는 결정에 따라, 상기 카메라 모듈(180, 310)을 이용하여 획득한 상기 반사체에 대응하는 영역의 영상을 이용하여 상기 사용자의 통화용 영상(837, 937, 957, 959, 1035, 1036)을 생성할 수 있다. According to one embodiment, the
일 실시예에 따르면, 상기 프로세서(120, 330)는 상기 안내에 따라 상기 반사체의 위치로 이동한 상기 사용자가 상기 반사체에 비친 반사체에 대응하는 영역의 영상을 획득하고, 상기 반사체에 대응하는 영역의 영상을 이용하여 상기 사용자의 통화용 영상(837, 937, 957, 959, 1035, 1036)을 생성할 수 있다. According to one embodiment, the
일 실시예에 따른 웨어러블 전자 장치(101, 300)는 상기 사용자의 통화용 영상(837, 937, 957, 959, 1035, 1036)에 대한 상기 사용자의 선택을 입력받는 입력 모듈(150, 370)을 더 포함하고, 상기 프로세서(120, 330)는 상기 카메라 모듈(180, 310)에 의해 상기 사용자의 얼굴 및 상기 사용자의 적어도 신체 일부를 포함하는 상기 반사체에 대응하는 영역의 영상이 획득되는지 여부 및 상기 사용자의 선택 중 적어도 하나에 따라, 상기 사용자의 통화용 영상(837, 937, 957, 959, 1035, 1036)을 생성하고, 상기 사용자의 선택은 상기 반사체에 대응하는 영역의 영상을 상기 사용자의 통화용 영상(837, 937, 957, 959, 1035, 1036)으로 결정하는 제1 선택, 상기 반사체에 대응하는 영역의 영상을 이용하여 재구성한 재구성 영상(640, 660)을 상기 사용자의 통화용 영상(837, 937, 957, 959, 1035, 1036)으로 결정하는 제2 선택, 및 상기 반사체에 대응하는 영역의 영상을 이용하여 재구성한 그래픽 객체를 상기 사용자의 통화용 영상(837, 937, 957, 959, 1035, 1036)으로 결정하는 제3 선택 중 적어도 하나를 포함할 수 있다. The wearable electronic device (101, 300) according to one embodiment includes an input module (150, 370) that receives the user's selection of the user's call video (837, 937, 957, 959, 1035, 1036). Further comprising, the
일 실시예에 따르면, 상기 프로세서(120, 330)는 상기 제1 선택이 입력된 경우, 상기 반사체에 대응하는 영역의 영상을 상기 사용자의 통화용 영상(837, 937, 957, 959, 1035, 1036)으로 결정할 수 있다. According to one embodiment, when the first selection is input, the
일 실시예에 따르면, 상기 프로세서(120, 330)는 상기 제2 선택이 입력된 경우 상기 반사체에 대응하는 영역의 영상에 의해 상기 사용자의 모습을 재구성한 재구성 영상(640, 660)을 생성하고, 상기 재구성 영상(640, 660)을 상기 사용자의 통화용 영상(837, 937, 957, 959, 1035, 1036)으로 결정할 수 있다. According to one embodiment, when the second selection is input, the
일 실시예에 따르면, 상기 웨어러블 전자 장치(101, 300)는 상기 사용자의 기 저장된 영상(650)을 포함하는 메모리(130, 390)를 더 포함하고, 상기 프로세서(120, 330)는 상기 반사체에 대응하는 영역의 영상과 상기 사용자의 기 저장된 영상(650)을 비교하여 상기 반사체에 대응하는 영역의 영상이 상기 기 저장된 영상(650)의 어느 부분에 대응되는지를 확인하고, 상기 기 저장된 영상(650)에서 상기 반사체에 대응하는 영역의 영상에 대응되는 부분은 상기 반사체에 대응하는 영역의 영상에 의해 업데이트하고, 상기 기 저장된 영상(650)에서 상기 반사체에 대응하는 영역의 영상에 대응되지 않는 부분은 신경망에 의해 예측된 영상에 의해 업데이트함으로써 상기 재구성 영상(640, 660)을 생성할 수 있다. According to one embodiment, the wearable electronic devices (101, 300) further include memories (130, 390) including a pre-stored image (650) of the user, and the processor (120, 330) Compare the image of the corresponding area with the user's
일 실시예에 따르면, 상기 프로세서(120, 330)는 상기 제3 선택이 입력된 경우, 상기 반사체에 대응하는 영역의 영상 또는 상기 재구성 영상(640, 660)에 대응하는 그래픽 객체를 생성하고, 상기 그래픽 객체를 상기 사용자의 통화용 영상(837, 937, 957, 959, 1035, 1036)으로 결정할 수 있다. According to one embodiment, when the third selection is input, the
일 실시예에 따르면, 상기 프로세서(120, 330)는 상기 실세계 영상(510, 530, 550)이 상기 사용자의 얼굴을 포함하지 않는 경우, 상기 실세계 영상(510, 530, 550)으로부터 상기 사용자의 얼굴이 검출될 때까지 상기 사용자의 음성 정보(831)에 대응하여 생성한 상기 사용자의 통화용 영상(837, 937, 957, 959, 1035, 1036)에 의해 상기 영상 통화를 수행할 수 있다. According to one embodiment, the
일 실시예에 따르면, 웨어러블 전자 장치(101, 300)의 동작 방법은 웨어러블 전자 장치(101, 300)에서 영상 통화를 위한 어플리케이션(400)이 실행됨에 응답하여, 사용자 주변의 실세계 영상(510, 530, 550)을 획득하는 동작 1110, 상기 실세계 영상(510, 530, 550)으로부터 반사체를 검출하는 동작 1120, 상기 실세계 영상(510, 530, 550) 중 상기 반사체에 대응하는 영역의 영상으로부터 거리 및 방향을 포함하는 상기 반사체의 위치 정보를 산출하는 동작 1130, 및 상기 위치 정보에 따라 상기 사용자가 상기 반사체의 위치로 이동하도록 하는 안내를 제공하도록 출력 장치(155, 160)를 제어함으로써, 상기 영상 통화의 상대방에게 전송할 상기 사용자의 통화용 영상(837, 937, 957, 959, 1035, 1036)을 생성하는 동작 1140을 포함할 수 있다. According to one embodiment, the method of operating the wearable electronic device (101, 300) is to display real-world images (510, 530) around the user in response to the execution of the application (400) for video calling in the wearable electronic device (101, 300). , 550),
일 실시예에 따르면, 상기 위치 정보를 산출하는 동작은 상기 실세계 영상(510, 530, 550)으로부터 반사체가 검출된 경우, 상기 반사체에 대응하는 영역의 영상이 얼굴을 포함하는 상기 사용자의 적어도 신체 일부를 포함하는지 여부를 결정하는 동작 1210, 및 상기 반사체에 대응하는 영역의 영상이 상기 사용자의 적어도 신체 일부를 포함하지 않는다는 결정에 따라, 3차원 공간 내 상기 사용자의 위치, 상기 카메라 모듈(180, 310)의 시야각, 및 상기 반사체의 위치에 기초하여 상기 위치 정보를 산출하는 동작 1220을 포함할 수 있다. According to one embodiment, the operation of calculating the location information is performed when a reflector is detected from the real-world images 510, 530, and 550, and the image of the area corresponding to the reflector is at least a body part of the user including a face.
일 실시예에 따르면, 웨어러블 전자 장치(101, 300)의 동작 방법은 상기 반사체에 대응하는 영역의 영상이 상기 사용자의 적어도 신체 일부를 포함한다는 결정에 따라, 상기 웨어러블 전자 장치(101, 300)에 구비된 카메라 모듈(180, 310)을 이용하여 획득한 상기 반사체에 대응하는 영역의 영상을 이용하여 상기 사용자의 통화용 영상(837, 937, 957, 959, 1035, 1036)을 생성하는 동작을 더 포함할 수 있다. According to one embodiment, a method of operating the wearable electronic device (101, 300) includes, according to a determination that the image of the area corresponding to the reflector includes at least a body part of the user, the wearable electronic device (101, 300) An operation of generating the user's call video (837, 937, 957, 959, 1035, 1036) using the image of the area corresponding to the reflector obtained using the provided camera module (180, 310) is further performed. It can be included.
일 실시예에 따르면, 상기 사용자의 통화용 영상(837, 937, 957, 959, 1035, 1036)을 생성하는 동작은 상기 안내에 따라 상기 반사체의 위치로 이동한 상기 사용자가 상기 반사체에 비친 반사체에 대응하는 영역의 영상을 획득하는 동작, 및 상기 반사체에 대응하는 영역의 영상을 이용하여 상기 사용자의 통화용 영상(837, 937, 957, 959, 1035, 1036)을 생성하는 동작을 더 포함할 수 있다. According to one embodiment, the operation of generating the user's call images (837, 937, 957, 959, 1035, 1036) involves the user moving to the location of the reflector according to the guidance and moving to the reflector reflected on the reflector. It may further include an operation of acquiring an image of the corresponding area, and an operation of generating an image (837, 937, 957, 959, 1035, 1036) for the user's call using the image of the area corresponding to the reflector. there is.
일 실시예에 따르면, 상기 사용자의 통화용 영상(837, 937, 957, 959, 1035, 1036)을 생성하는 동작은 상기 사용자의 통화용 영상(837, 937, 957, 959, 1035, 1036)에 대한 상기 사용자의 선택을 입력받는 동작, 및 상기 웨어러블 전자 장치(101, 300)에 구비된 카메라 모듈(180, 310)에 의해 상기 사용자의 얼굴 및 상기 사용자의 적어도 신체 일부를 포함하는 상기 반사체에 대응하는 영역의 영상이 획득되는지 여부 및 상기 사용자의 선택 중 적어도 하나에 따라, 상기 사용자의 통화용 영상(837, 937, 957, 959, 1035, 1036)을 생성하는 동작을 포함하고, 상기 사용자의 선택은 상기 반사체에 대응하는 영역의 영상을 상기 사용자의 통화용 영상(837, 937, 957, 959, 1035, 1036)으로 결정하는 제1 선택, 상기 반사체에 대응하는 영역의 영상을 이용하여 재구성한 재구성 영상(640, 660)을 상기 사용자의 통화용 영상(837, 937, 957, 959, 1035, 1036)으로 결정하는 제2 선택, 및 상기 반사체에 대응하는 영역의 영상을 이용하여 재구성한 그래픽 객체를 상기 사용자의 통화용 영상(837, 937, 957, 959, 1035, 1036)으로 결정하는 제3 선택 중 적어도 하나를 포함할 수 있다. According to one embodiment, the operation of generating the user's call video (837, 937, 957, 959, 1035, 1036) is performed on the user's call video (837, 937, 957, 959, 1035, 1036). An operation of receiving the user's selection, and corresponding to the reflector including the user's face and at least a body part of the user by the camera module (180, 310) provided in the wearable electronic device (101, 300) An operation of generating an image (837, 937, 957, 959, 1035, 1036) for a call of the user according to at least one of whether an image of the area is acquired and the user's selection, and the user's selection. The first option is to determine the image of the area corresponding to the reflector as the user's call image (837, 937, 957, 959, 1035, 1036), and reconstruction is performed using the image of the area corresponding to the reflector. A second choice of determining the images (640, 660) as the user's call images (837, 937, 957, 959, 1035, 1036), and a graphic object reconstructed using the image of the area corresponding to the reflector It may include at least one of the third selections determined by the user's call video (837, 937, 957, 959, 1035, 1036).
일 실시예에 따르면, 상기 사용자의 통화용 영상(837, 937, 957, 959, 1035, 1036)을 생성하는 동작은 상기 제1 선택이 입력된 경우, 상기 반사체에 대응하는 영역의 영상을 상기 사용자의 통화용 영상(837, 937, 957, 959, 1035, 1036)으로 결정하는 동작을 포함할 수 있다. According to one embodiment, the operation of generating the user's call images (837, 937, 957, 959, 1035, 1036) is to generate the image of the area corresponding to the reflector to the user when the first selection is input. It may include an operation of determining the call video (837, 937, 957, 959, 1035, 1036).
일 실시예에 따르면, 상기 사용자의 통화용 영상(837, 937, 957, 959, 1035, 1036)을 생성하는 동작은 상기 제2 선택이 입력된 경우, 상기 반사체에 대응하는 영역의 영상에 의해 상기 사용자의 모습을 재구성한 재구성 영상(640, 660)을 생성하는 동작, 및 상기 재구성 영상(640, 660)을 상기 사용자의 통화용 영상(837, 937, 957, 959, 1035, 1036)으로 결정하는 동작을 포함할 수 있다. According to one embodiment, the operation of generating the user's call images (837, 937, 957, 959, 1035, 1036) is performed by the image of the area corresponding to the reflector when the second selection is input. An operation of generating reconstructed images (640, 660) that reconstruct the appearance of the user, and determining the reconstructed images (640, 660) as the user's call images (837, 937, 957, 959, 1035, 1036) Can include actions.
일 실시예에 따르면, 상기 사용자의 통화용 영상(837, 937, 957, 959, 1035, 1036)을 재구성한 재구성 영상(640, 660)을 생성하는 동작은 상기 반사체에 대응하는 영역의 영상과 상기 사용자의 기 저장된 영상(650)을 비교하여 상기 반사체에 대응하는 영역의 영상이 상기 기 저장된 영상(650)의 어느 부분에 대응되는지를 확인하는 동작, 및 상기 기 저장된 영상(650)에서 상기 반사체에 대응하는 영역의 영상에 대응되는 부분은 상기 반사체에 대응하는 영역의 영상에 의해 업데이트하고, 상기 기 저장된 영상(650)에서 상기 반사체에 대응하는 영역의 영상에 대응되지 않는 부분은 신경망에 의해 예측된 영상에 의해 업데이트함으로써 상기 사용자의 통화용 영상(837, 937, 957, 959, 1035, 1036)을 재구성하는 동작을 포함할 수 있다. According to one embodiment, the operation of generating reconstructed
일 실시예에 따르면, 상기 사용자의 통화용 영상(837, 937, 957, 959, 1035, 1036)을 생성하는 동작은 상기 제3 선택이 입력된 경우, 상기 반사체에 대응하는 영역의 영상에 대응하여 상기 사용자의 통화용 영상(837, 937, 957, 959, 1035, 1036)을 재구성한 그래픽 객체를 생성하는 동작을 포함할 수 있다.According to one embodiment, the operation of generating the user's call images (837, 937, 957, 959, 1035, 1036) is performed in response to the image of the area corresponding to the reflector when the third selection is input. It may include creating a graphic object that reconstructs the user's call video (837, 937, 957, 959, 1035, 1036).
Claims (20)
상기 실세계 영상(510, 530, 550)으로부터 반사체를 검출하고, 상기 실세계 영상(510, 530, 550) 중 상기 반사체에 대응하는 영역의 영상으로부터 거리 및 방향을 포함하는 상기 반사체의 위치 정보를 산출하며, 상기 위치 정보에 따라 상기 사용자가 상기 반사체의 위치로 이동하도록 하는 안내를 제공하도록 출력 장치(155, 160)를 제어함으로써, 상기 영상 통화의 상대방에게 전송할 상기 사용자의 통화용 영상(837, 937, 957, 959, 1035, 1036)을 생성하는 프로세서(120, 330); 및
상기 사용자의 통화용 영상(837, 937, 957, 959, 1035, 1036)을 전송하는 통신 모듈(190, 350)
을 포함하는, 웨어러블 전자 장치(101, 300).A camera module (180, 310) that acquires real-world images (510, 530, 550) around the user in response to the execution of the application (400) for video calling in the wearable electronic device (101, 300);
Detecting a reflector from the real-world images 510, 530, and 550, and calculating location information of the reflector including distance and direction from an image of an area corresponding to the reflector among the real-world images 510, 530, and 550. , By controlling the output devices (155, 160) to provide guidance for the user to move to the location of the reflector according to the location information, the user's call video (837, 937, Processors 120, 330 generating 957, 959, 1035, 1036); and
Communication modules (190, 350) that transmit the user's call video (837, 937, 957, 959, 1035, 1036)
Wearable electronic devices (101, 300), including.
상기 프로세서(120, 330)는
상기 실세계 영상(510, 530, 550)으로부터 상기 반사체가 검출된 경우, 상기 반사체에 대응하는 영역의 영상이 얼굴을 포함하는 상기 사용자의 적어도 신체 일부를 포함하는지 여부를 결정하고,
상기 반사체에 대응하는 영역의 영상이 상기 사용자의 적어도 신체 일부를 포함하지 않는다는 결정에 따라, 3차원 공간 내 상기 사용자의 위치, 상기 카메라 모듈(180, 310)의 시야각, 및 상기 반사체의 위치에 기초하여 상기 위치 정보를 산출하는, 웨어러블 전자 장치(101, 300).According to paragraph 1,
The processors 120 and 330 are
When the reflector is detected from the real-world images 510, 530, and 550, determine whether the image of the area corresponding to the reflector includes at least a body part of the user including the face,
Based on the user's location in three-dimensional space, the viewing angle of the camera modules 180, 310, and the location of the reflector, upon determining that the image of the area corresponding to the reflector does not include at least a body part of the user A wearable electronic device (101, 300) that calculates the location information.
상기 프로세서(120, 330)는
상기 실세계 영상(510, 530, 550)으로부터 상기 반사체가 검출되지 않는 경우, 상기 사용자의 음성 정보(831)에 대응하여 생성한 상기 사용자의 통화용 영상(837, 937, 957, 959, 1035, 1036)에 의해 상기 영상 통화를 수행하는, 웨어러블 전자 장치(101, 300).According to any one of claims 1 and 2,
The processors 120 and 330 are
If the reflector is not detected from the real-world images (510, 530, 550), the user's call video (837, 937, 957, 959, 1035, 1036) generated in response to the user's voice information (831) ), a wearable electronic device (101, 300) that performs the video call.
상기 프로세서(120, 330)는
상기 반사체에 대응하는 영역의 영상이 상기 사용자의 적어도 신체 일부를 포함한다는 결정에 따라, 상기 카메라 모듈(180, 310)을 이용하여 획득한 상기 반사체에 대응하는 영역의 영상을 이용하여 상기 사용자의 통화용 영상(837, 937, 957, 959, 1035, 1036)을 생성하는, 웨어러블 전자 장치(101, 300).According to any one of claims 1 to 3,
The processors 120 and 330 are
According to the determination that the image of the area corresponding to the reflector includes at least a body part of the user, the user's call is made using the image of the area corresponding to the reflector obtained using the camera modules 180 and 310. A wearable electronic device (101, 300) that generates images (837, 937, 957, 959, 1035, 1036).
상기 프로세서(120, 330)는
상기 안내에 따라 상기 반사체의 위치로 이동한 상기 사용자가 상기 반사체에 비친 상기 반사체에 대응하는 영역의 영상을 획득하고,
상기 반사체에 대응하는 영역의 영상을 이용하여 상기 사용자의 통화용 영상(837, 937, 957, 959, 1035, 1036)을 생성하는, 웨어러블 전자 장치(101, 300).According to any one of claims 1 to 4,
The processors 120 and 330 are
The user, who moves to the location of the reflector according to the guidance, acquires an image of the area corresponding to the reflector reflected on the reflector,
A wearable electronic device (101, 300) that generates an image (837, 937, 957, 959, 1035, 1036) for the user's call using the image of the area corresponding to the reflector.
상기 사용자의 통화용 영상(837, 937, 957, 959, 1035, 1036)에 대한 상기 사용자의 선택을 입력받는 입력 모듈(150, 370)
를 더 포함하고,
상기 프로세서(120, 330)는
상기 카메라 모듈(180, 310)에 의해 상기 사용자의 얼굴 및 상기 사용자의 적어도 신체 일부를 포함하는 상기 반사체에 대응하는 영역의 영상이 획득되는지 여부 및 상기 사용자의 선택 중 적어도 하나에 따라, 상기 사용자의 통화용 영상(837, 937, 957, 959, 1035, 1036)을 생성하고,
상기 사용자의 선택은
상기 반사체에 대응하는 영역의 영상을 상기 사용자의 통화용 영상(837, 937, 957, 959, 1035, 1036)으로 결정하는 제1 선택,
상기 반사체에 대응하는 영역의 영상을 이용하여 재구성한 재구성 영상(640, 660)을 상기 사용자의 통화용 영상(837, 937, 957, 959, 1035, 1036)으로 결정하는 제2 선택, 및
상기 반사체에 대응하는 영역의 영상을 이용하여 재구성한 그래픽 객체를 상기 사용자의 통화용 영상(837, 937, 957, 959, 1035, 1036)으로 결정하는 제3 선택
중 적어도 하나를 포함하는, 웨어러블 전자 장치(101, 300).According to any one of claims 1 to 5,
Input modules (150, 370) that receive the user's selection of the user's call video (837, 937, 957, 959, 1035, 1036)
It further includes,
The processors 120 and 330 are
Depending on at least one of whether an image of the area corresponding to the reflector including the user's face and at least a body part of the user is acquired by the camera module 180, 310 and the user's selection, the user's Create video for calls (837, 937, 957, 959, 1035, 1036),
The user's choice is
A first selection to determine the image of the area corresponding to the reflector as the user's call image (837, 937, 957, 959, 1035, 1036),
A second choice of determining the reconstructed images (640, 660) reconstructed using the image of the area corresponding to the reflector as the user's call images (837, 937, 957, 959, 1035, 1036), and
A third option to determine the graphic object reconstructed using the image of the area corresponding to the reflector as the user's call image (837, 937, 957, 959, 1035, 1036)
A wearable electronic device (101, 300) including at least one of the following.
상기 프로세서(120, 330)는
상기 제1 선택이 입력된 경우, 상기 반사체에 대응하는 영역의 영상을 상기 사용자의 통화용 영상(837, 937, 957, 959, 1035, 1036)으로 결정하는, 웨어러블 전자 장치(101, 300).According to any one of claims 1 to 6,
The processors 120 and 330 are
When the first selection is input, the wearable electronic device (101, 300) determines the image of the area corresponding to the reflector as the user's call image (837, 937, 957, 959, 1035, 1036).
상기 프로세서(120, 330)는
상기 제2 선택이 입력된 경우 상기 반사체에 대응하는 영역의 영상에 의해 상기 사용자의 모습을 재구성한 재구성 영상(640, 660)을 생성하고, 상기 재구성 영상(640, 660)을 상기 사용자의 통화용 영상(837, 937, 957, 959, 1035, 1036)으로 결정하는, 웨어러블 전자 장치(101, 300).According to any one of claims 1 to 7,
The processors 120 and 330 are
When the second selection is input, reconstructed images 640, 660 are generated by reconstructing the user's appearance using the image of the area corresponding to the reflector, and the reconstructed images 640, 660 are used for the user's call. A wearable electronic device (101, 300) that determines using images (837, 937, 957, 959, 1035, 1036).
상기 사용자의 기 저장된 영상(650)을 포함하는 메모리(130, 390)
를 더 포함하고,
상기 프로세서(120, 330)는
상기 반사체에 대응하는 영역의 영상과 상기 사용자의 기 저장된 영상(650)을 비교하여 상기 반사체에 대응하는 영역의 영상이 상기 기 저장된 영상(650)의 어느 부분에 대응되는지를 확인하고,
상기 기 저장된 영상(650)에서 상기 반사체에 대응하는 영역의 영상에 대응되는 부분은 상기 반사체에 대응하는 영역의 영상에 의해 업데이트하고, 상기 기 저장된 영상(650)에서 상기 반사체에 대응하는 영역의 영상에 대응되지 않는 부분은 신경망에 의해 예측된 영상에 의해 업데이트함으로써 상기 재구성 영상(640, 660)을 생성하는, 웨어러블 전자 장치(101, 300).According to any one of claims 1 to 8,
Memory (130, 390) containing the user's pre-stored image (650)
It further includes,
The processors 120 and 330 are
Compare the image of the area corresponding to the reflector with the user's pre-stored image 650 to determine which part of the pre-stored image 650 the image of the area corresponding to the reflector corresponds to,
The part corresponding to the image of the area corresponding to the reflector in the pre-stored image 650 is updated by the image of the area corresponding to the reflector, and the image of the area corresponding to the reflector in the pre-stored image 650 is updated. A wearable electronic device (101, 300) that generates the reconstructed images (640, 660) by updating parts that do not correspond to the image predicted by a neural network.
상기 프로세서(120, 330)는
상기 제3 선택이 입력된 경우, 상기 반사체에 대응하는 영역의 영상 또는 상기 재구성 영상(640, 660)에 대응하는 그래픽 객체를 생성하고, 상기 그래픽 객체를 상기 사용자의 통화용 영상(837, 937, 957, 959, 1035, 1036)으로 결정하는, 웨어러블 전자 장치(101, 300).According to any one of claims 1 to 9,
The processors 120 and 330 are
When the third selection is input, a graphic object corresponding to the image of the area corresponding to the reflector or the reconstructed image 640, 660 is created, and the graphic object is converted into the user's call video 837, 937, 957, 959, 1035, 1036), wearable electronic device (101, 300).
상기 프로세서(120, 330)는
상기 실세계 영상(510, 530, 550)이 상기 사용자의 얼굴을 포함하지 않는 경우, 상기 실세계 영상(510, 530, 550)으로부터 상기 사용자의 얼굴이 검출될 때까지 상기 사용자의 음성 정보(831)에 대응하여 생성한 상기 사용자의 통화용 영상(837, 937, 957, 959, 1035, 1036)에 의해 상기 영상 통화를 수행하는, 웨어러블 전자 장치(101, 300).According to any one of claims 1 to 10,
The processors 120 and 330 are
If the real-world images 510, 530, and 550 do not include the user's face, the user's voice information 831 is added until the user's face is detected from the real-world images 510, 530, and 550. A wearable electronic device (101, 300) that performs the video call using the correspondingly generated call video (837, 937, 957, 959, 1035, 1036) of the user.
상기 실세계 영상(510, 530, 550)으로부터 반사체를 검출하는 동작;
상기 실세계 영상(510, 530, 550) 중 상기 반사체에 대응하는 영역의 영상으로부터 거리 및 방향을 포함하는 상기 반사체의 위치 정보를 산출하는 동작; 및
상기 위치 정보에 따라 상기 사용자가 상기 반사체의 위치로 이동하도록 하는 안내를 제공하도록 출력 장치(155, 160)를 제어함으로써, 상기 영상 통화의 상대방에게 전송할 상기 사용자의 통화용 영상(837, 937, 957, 959, 1035, 1036)을 생성하는 동작
을 포함하는, 웨어러블 전자 장치(101, 300)의 동작 방법.An operation of acquiring real-world images (510, 530, 550) around the user in response to execution of the application (400) for video calling in the wearable electronic device (101, 300);
An operation of detecting a reflector from the real world images (510, 530, 550);
An operation of calculating position information of the reflector including distance and direction from an image of an area corresponding to the reflector among the real-world images 510, 530, and 550; and
By controlling the output devices (155, 160) to provide guidance for the user to move to the location of the reflector according to the location information, the user's call video (837, 937, 957) to be transmitted to the other party of the video call , 959, 1035, 1036).
A method of operating a wearable electronic device (101, 300) including.
상기 위치 정보를 산출하는 동작은
상기 실세계 영상(510, 530, 550)으로부터 반사체가 검출된 경우, 상기 반사체에 대응하는 영역의 영상이 얼굴을 포함하는 상기 사용자의 적어도 신체 일부를 포함하는지 여부를 결정하는 동작; 및
상기 반사체에 대응하는 영역의 영상이 상기 사용자의 적어도 신체 일부를 포함하지 않는다는 결정에 따라, 3차원 공간 내 상기 사용자의 위치, 상기 카메라 모듈(180, 310)의 시야각, 및 상기 반사체의 위치에 기초하여 상기 위치 정보를 산출하는 동작
을 포함하는, 웨어러블 전자 장치(101, 300)의 동작 방법.According to clause 12,
The operation of calculating the location information is
When a reflector is detected from the real-world images 510, 530, and 550, determining whether an image of an area corresponding to the reflector includes at least a body part of the user including a face; and
Based on the user's location in three-dimensional space, the viewing angle of the camera modules 180, 310, and the location of the reflector, upon determining that the image of the area corresponding to the reflector does not include at least a body part of the user The operation of calculating the location information
A method of operating a wearable electronic device (101, 300) including.
상기 반사체에 대응하는 영역의 영상이 상기 사용자의 적어도 신체 일부를 포함한다는 결정에 따라, 상기 웨어러블 전자 장치(101, 300)에 구비된 카메라 모듈(180, 310)을 이용하여 획득한 상기 반사체에 대응하는 영역의 영상을 이용하여 상기 사용자의 통화용 영상(837, 937, 957, 959, 1035, 1036)을 생성하는 동작
을 더 포함하는, 웨어러블 전자 장치(101, 300)의 동작 방법.According to any one of claims 12 to 13,
According to the determination that the image of the area corresponding to the reflector includes at least a body part of the user, the image corresponding to the reflector acquired using the camera module 180, 310 provided in the wearable electronic device 101, 300 An operation of generating a video (837, 937, 957, 959, 1035, 1036) for the user's call using the video of the area
A method of operating a wearable electronic device (101, 300), further comprising:
상기 사용자의 통화용 영상(837, 937, 957, 959, 1035, 1036)을 생성하는 동작은
상기 안내에 따라 상기 반사체의 위치로 이동한 상기 사용자가 상기 반사체에 비친 반사체에 대응하는 영역의 영상을 획득하는 동작; 및
상기 반사체에 대응하는 영역의 영상을 이용하여 상기 사용자의 통화용 영상(837, 937, 957, 959, 1035, 1036)을 생성하는 동작
을 더 포함하는, 웨어러블 전자 장치(101, 300)의 동작 방법.According to any one of claims 12 to 14,
The operation of generating the video (837, 937, 957, 959, 1035, 1036) for the user's call is
An operation of the user moving to the location of the reflector according to the guidance to acquire an image of an area corresponding to the reflector reflected on the reflector; and
An operation of generating an image (837, 937, 957, 959, 1035, 1036) for the user's call using the image of the area corresponding to the reflector.
A method of operating a wearable electronic device (101, 300), further comprising:
상기 사용자의 통화용 영상(837, 937, 957, 959, 1035, 1036)을 생성하는 동작은
상기 사용자의 통화용 영상(837, 937, 957, 959, 1035, 1036)에 대한 상기 사용자의 선택을 입력받는 동작; 및
상기 웨어러블 전자 장치(101, 300)에 구비된 카메라 모듈(180, 310)에 의해 상기 사용자의 얼굴 및 상기 사용자의 적어도 신체 일부를 포함하는 상기 반사체에 대응하는 영역의 영상이 획득되는지 여부 및 상기 사용자의 선택 중 적어도 하나에 따라, 상기 사용자의 통화용 영상(837, 937, 957, 959, 1035, 1036)을 생성하는 동작
을 포함하고,
상기 사용자의 선택은
상기 반사체에 대응하는 영역의 영상을 상기 사용자의 통화용 영상(837, 937, 957, 959, 1035, 1036)으로 결정하는 제1 선택,
상기 반사체에 대응하는 영역의 영상을 이용하여 재구성한 재구성 영상(640, 660)을 상기 사용자의 통화용 영상(837, 937, 957, 959, 1035, 1036)으로 결정하는 제2 선택, 및
상기 반사체에 대응하는 영역의 영상을 이용하여 재구성한 그래픽 객체를 상기 사용자의 통화용 영상(837, 937, 957, 959, 1035, 1036)으로 결정하는 제3 선택
중 적어도 하나를 포함하는, 웨어러블 전자 장치(101, 300)의 동작 방법.According to any one of claims 12 to 15,
The operation of generating the video (837, 937, 957, 959, 1035, 1036) for the user's call is
An operation of receiving the user's selection of the user's call video (837, 937, 957, 959, 1035, 1036); and
Whether an image of the area corresponding to the reflector including the user's face and at least a body part of the user is acquired by the camera module 180, 310 provided in the wearable electronic device 101, 300, and the user An operation of generating a video (837, 937, 957, 959, 1035, 1036) for the user's call according to at least one of the selection of
Including,
The user's choice is
A first selection to determine the image of the area corresponding to the reflector as the user's call image (837, 937, 957, 959, 1035, 1036),
A second choice of determining the reconstructed images (640, 660) reconstructed using the image of the area corresponding to the reflector as the user's call images (837, 937, 957, 959, 1035, 1036), and
A third option of determining the graphic object reconstructed using the image of the area corresponding to the reflector as the user's call image (837, 937, 957, 959, 1035, 1036)
A method of operating a wearable electronic device (101, 300), including at least one of:
상기 사용자의 통화용 영상(837, 937, 957, 959, 1035, 1036)을 생성하는 동작은
상기 제1 선택이 입력된 경우, 상기 반사체에 대응하는 영역의 영상을 상기 사용자의 통화용 영상(837, 937, 957, 959, 1035, 1036)으로 결정하는 동작
을 포함하는, 웨어러블 전자 장치(101, 300)의 동작 방법.According to any one of claims 12 to 16,
The operation of generating the video (837, 937, 957, 959, 1035, 1036) for the user's call is
When the first selection is input, an operation of determining the image of the area corresponding to the reflector as the user's call image (837, 937, 957, 959, 1035, 1036)
A method of operating a wearable electronic device (101, 300) including.
상기 사용자의 통화용 영상(837, 937, 957, 959, 1035, 1036)을 생성하는 동작은
상기 제2 선택이 입력된 경우, 상기 반사체에 대응하는 영역의 영상에 의해 상기 사용자의 모습을 재구성한 재구성 영상(640, 660)을 생성하는 동작; 및
상기 재구성 영상(640, 660)을 상기 사용자의 통화용 영상(837, 937, 957, 959, 1035, 1036)으로 결정하는 동작
을 포함하는, 웨어러블 전자 장치(101, 300)의 동작 방법.According to any one of claims 12 to 17,
The operation of generating the video (837, 937, 957, 959, 1035, 1036) for the user's call is
When the second selection is input, generating reconstructed images (640, 660) in which the user's appearance is reconstructed using the image of the area corresponding to the reflector; and
An operation of determining the reconstructed images (640, 660) as the user's call images (837, 937, 957, 959, 1035, 1036)
A method of operating a wearable electronic device (101, 300) including.
상기 사용자의 통화용 영상(837, 937, 957, 959, 1035, 1036)을 재구성한 재구성 영상(640, 660)을 생성하는 동작은
상기 반사체에 대응하는 영역의 영상과 상기 사용자의 기 저장된 영상(650)을 비교하여 상기 반사체에 대응하는 영역의 영상이 상기 기 저장된 영상(650)의 어느 부분에 대응되는지를 확인하는 동작;
상기 기 저장된 영상(650)에서 상기 반사체에 대응하는 영역의 영상에 대응되는 부분은 상기 반사체에 대응하는 영역의 영상에 의해 업데이트하고, 상기 기 저장된 영상(650)에서 상기 반사체에 대응하는 영역의 영상에 대응되지 않는 부분은 신경망에 의해 예측된 영상에 의해 업데이트함으로써 상기 사용자의 통화용 영상(837, 937, 957, 959, 1035, 1036)을 재구성하는 동작
을 포함하는, 웨어러블 전자 장치(101, 300)의 동작 방법.According to any one of claims 12 to 18,
The operation of generating reconstructed images (640, 660) that reconstruct the user's call images (837, 937, 957, 959, 1035, 1036) is
Comparing the image of the area corresponding to the reflector with the user's pre-stored image 650 to determine which part of the pre-stored image 650 the image of the area corresponding to the reflector corresponds to;
The part corresponding to the image of the area corresponding to the reflector in the pre-stored image 650 is updated by the image of the area corresponding to the reflector, and the image of the area corresponding to the reflector in the pre-stored image 650 is updated. An operation to reconstruct the user's call video (837, 937, 957, 959, 1035, 1036) by updating the portion that does not correspond to the video predicted by a neural network.
A method of operating a wearable electronic device (101, 300) including.
상기 사용자의 통화용 영상(837, 937, 957, 959, 1035, 1036)을 생성하는 동작은
상기 제3 선택이 입력된 경우, 상기 반사체에 대응하는 영역의 영상에 대응하여 상기 사용자의 통화용 영상(837, 937, 957, 959, 1035, 1036)을 재구성한 그래픽 객체를 생성하는 동작
을 포함하는, 웨어러블 전자 장치(101, 300)의 동작 방법.According to any one of claims 12 to 19,
The operation of generating the video (837, 937, 957, 959, 1035, 1036) for the user's call is
When the third selection is input, an operation of creating a graphic object that reconstructs the user's call video (837, 937, 957, 959, 1035, 1036) in response to the image of the area corresponding to the reflector.
A method of operating a wearable electronic device (101, 300) including.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/KR2023/012326 WO2024071684A1 (en) | 2022-09-27 | 2023-08-21 | Wearable electronic device providing image calling, and operation method for wearable electronic device |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR20220122059 | 2022-09-27 | ||
KR1020220122059 | 2022-09-27 |
Publications (1)
Publication Number | Publication Date |
---|---|
KR20240043634A true KR20240043634A (en) | 2024-04-03 |
Family
ID=90662653
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020220149568A KR20240043634A (en) | 2022-09-27 | 2022-11-10 | Wearable electronic devices providing video call and operating method of wearable electronic device |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR20240043634A (en) |
-
2022
- 2022-11-10 KR KR1020220149568A patent/KR20240043634A/en unknown
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11138434B2 (en) | Electronic device for providing shooting mode based on virtual character and operation method thereof | |
KR102659357B1 (en) | Electronic device for providing avatar animation and method thereof | |
US11481965B2 (en) | Electronic device for communicating in augmented reality and method thereof | |
KR20220012073A (en) | Method and apparatus for performing virtual user interaction | |
US20230005227A1 (en) | Electronic device and method for offering virtual reality service | |
US20230196689A1 (en) | Electronic device for using virtual input device and operation method in the electronic device | |
US11928306B2 (en) | Touchpad navigation for augmented reality display device | |
US11880542B2 (en) | Touchpad input for augmented reality display device | |
US20230154445A1 (en) | Spatial music creation interface | |
KR20240043634A (en) | Wearable electronic devices providing video call and operating method of wearable electronic device | |
US20230324713A1 (en) | Intelligent actuated temple tips | |
US20240048668A1 (en) | Electronic device for supporting various communications during video call, and operating method therefor | |
US20230324714A1 (en) | Intelligent actuated temple attachments | |
US20240045943A1 (en) | Apparatus and method for authenticating user in augmented reality | |
US11928263B2 (en) | Electronic device for processing user input and method thereof | |
US20230262323A1 (en) | Method and device for obtaining image of object | |
US20230412920A1 (en) | Method for executing application, and electronic device supporting same | |
US20240126084A1 (en) | Energy-efficient adaptive 3d sensing | |
US20240054694A1 (en) | Electronic device for placing object according to space in augmented reality and operation method of electronic device | |
US20230222746A1 (en) | Electronic device providing augmented reality and operating method thereof | |
US20230152899A1 (en) | Wearable device for communicating with at least one counterpart device according to trigger event and control method therefor | |
US20230099603A1 (en) | Electronic device for providing augmented reality service and operating method thereof | |
US20230169723A1 (en) | Electronic device for providing contents in connection with external electronic device and method of the same | |
EP3913902A1 (en) | Electronic device and method of providing user interface for emoji editing while interworking with camera function by using said electronic device | |
KR20240028263A (en) | Method for controlling a plurality of displays and electronic device for supporting the same |