KR102565755B1 - 얼굴의 특징점의 움직임에 따라 모션이 수행된 아바타를 표시하는 전자 장치와 이의 동작 방법 - Google Patents

얼굴의 특징점의 움직임에 따라 모션이 수행된 아바타를 표시하는 전자 장치와 이의 동작 방법 Download PDF

Info

Publication number
KR102565755B1
KR102565755B1 KR1020180022259A KR20180022259A KR102565755B1 KR 102565755 B1 KR102565755 B1 KR 102565755B1 KR 1020180022259 A KR1020180022259 A KR 1020180022259A KR 20180022259 A KR20180022259 A KR 20180022259A KR 102565755 B1 KR102565755 B1 KR 102565755B1
Authority
KR
South Korea
Prior art keywords
avatar
electronic device
feature points
image
face
Prior art date
Application number
KR1020180022259A
Other languages
English (en)
Other versions
KR20190101834A (ko
Inventor
이우용
강혜진
박지윤
송재윤
안준호
원종훈
유형진
최민석
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR1020180022259A priority Critical patent/KR102565755B1/ko
Priority to US16/282,798 priority patent/US11055889B2/en
Priority to PCT/KR2019/002289 priority patent/WO2019164373A1/en
Priority to EP19757176.3A priority patent/EP3692504B1/en
Publication of KR20190101834A publication Critical patent/KR20190101834A/ko
Application granted granted Critical
Publication of KR102565755B1 publication Critical patent/KR102565755B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/203D [Three Dimensional] animation
    • G06T13/403D [Three Dimensional] animation of characters, e.g. humans, animals or virtual beings
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/802D [Two Dimensional] animation, e.g. using sprites
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/016Input arrangements with force or tactile feedback as computer generated output to the user
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/60Rotation of whole images or parts thereof
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • G06T7/251Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/269Analysis of motion using gradient-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/166Detection; Localisation; Normalisation using acquisition arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/167Detection; Localisation; Normalisation using comparisons between temporally consecutive images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • G06V40/171Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/174Facial expression recognition
    • G06V40/176Dynamic expression
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2200/00Indexing scheme relating to G06F1/04 - G06F1/32
    • G06F2200/16Indexing scheme relating to G06F1/16 - G06F1/18
    • G06F2200/161Indexing scheme relating to constructional details of the monitor
    • G06F2200/1614Image rotation following screen orientation, e.g. switching from landscape to portrait mode
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • General Health & Medical Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • User Interface Of Digital Computer (AREA)
  • Processing Or Creating Images (AREA)

Abstract

본 발명의 다양한 실시 예에 따른 전자 장치는, 카메라, 디스플레이, 및 프로세서를 포함하고, 상기 프로세서는, 상기 카메라를 이용하여, 사용자의 얼굴에 대응하는 제1이미지와 제2이미지를 포함하는 복수의 이미지들을 획득하고, 3차원 모델링에 기반하여 생성되고 모션과 관련된 모델 정보를 포함하는 하나 이상의 아바타들 중 선택된 제1아바타를 상기 디스플레이에 표시하고, 상기 제1이미지와 상기 제2이미지 각각에 포함된 상기 얼굴의 복수의 특징점들 사이의 비교에 기반하여, 상기 얼굴의 복수의 특징점들 중 적어도 일부 특징점의 변화량을 판단하고, 상기 판단된 변화량에 기반하여, 상기 제1아바타의 모션과 관련된 복수의 기준 모델들 중 적어도 일부에 대한 가중치를 결정하고, 상기 가중치와 상기 복수의 기준 모델들에 기초한 상기 모션이 수행된 상기 제1아바타를 상기 디스플레이에 표시하도록 설정될 수 있다.

Description

얼굴의 특징점의 움직임에 따라 모션이 수행된 아바타를 표시하는 전자 장치와 이의 동작 방법{ELECTRONIC DEVICE FOR DISPLAYING AN AVATAR PERFORMED A MOTION ACCORDING TO A MOVEMENT OF A FEATURE POINT OF A FACE AND METHOD OF OPERATING THE SAME}
본 발명의 다양한 실시 예는 얼굴의 특징점의 움직임에 따라 모션이 수행된 아바타를 표시하는 전자 장치와 이의 동작 방법에 관한 것이다.
전자 기술의 발달에 따라, 스마트폰 같은 하나의 전자 장치가 다양한 기능을 수행할 수 있다. 최근 들어, 사용자의 몸짓이나 표정을 대변할 수 있는 아바타에 대한 연구가 활발하게 진행되고 있고, 이를 활용한 다양한 어플리케이션들도 등장하고 있다.
전자 장치는 사용자의 인터랙션(interaction)을 통해 아바타를 제어하는 방법을 제공할 수 있다. 전자 장치는, 단순히 아바타의 동작을 제어하는 것을 넘어서 아바타의 얼굴 표정을 제어하여 실감나는 표현이 가능한 아바타를 제공할 수도 있다. 이에 따라, 전자 장치는 사용자의 표정을 3차원으로 반영한 3차원 아바타를 제공할 수 있다. 사용자의 표정이나 몸짓에 따라 아바타를 정확하고 실감나게 제어하는 것은 사용자의 경험과 몰입을 증대시킬 수 있어, 아바타가 사용자의 감성을 잘 표현할 수 있도록 하는 것이 중요할 수 있다.
전자 장치는 카메라를 이용하여 사용자의 얼굴을 확인하고, 확인된 사용자의 얼굴에 기초하여 아바타를 생성하였다. 또한, 전자 장치는 카메라를 이용하여 확인된 얼굴 표정의 변화에 따라 아바타의 표정을 변화하였다. 다만, 전자 장치는 사용자의 표정 변화에 따라 자연스럽고 섬세한 얼굴 표정을 표현할 수 있는 아바타를 제공할 수 없었다. 또한, 전자 장치는, 아바타의 특성에 적합하도록 자연스럽고 섬세한 얼굴 표정을 표현할 수 없었다.
본 발명의 다양한 실시 예는, 사용자의 얼굴에 포함된 복수의 특징점들을 이용하여, 사용자의 표정 변화에 따라 자연스럽고 섬세하게 얼굴 표정을 표현할 수 있는 아바타를 생성하는 전자 장치와 이의 동작 방법을 제공할 수 있다.
본 발명의 다양한 실시 예는, 사용자의 표정 변화에 따라 아바타의 특성에 적합하도록 자연스럽고 섬세하게 얼굴 표정을 표현할 수 있는 아바타를 제공하는 전자 장치와 이의 동작 방법을 제공할 수 있다.
본 발명의 다양한 실시 예에 따른 전자 장치는, 카메라, 디스플레이, 및 프로세서를 포함하고, 상기 프로세서는, 상기 카메라를 이용하여, 사용자의 얼굴에 대응하는 제1이미지와 제2이미지를 포함하는 복수의 이미지들을 획득하고, 모션과 관련된 모델 정보를 포함하는 하나 이상의 3차원 아바타들 중 선택된 제1아바타를 상기 디스플레이에 표시하고, 상기 제1이미지에 포함된 상기 얼굴에 대응하는 복수의 제1특징점들 중 적어도 일부 특징점과 상기 제2이미지에 포함된 상기 얼굴에 대응하는 복수의 제2특징점들 중 적어도 일부 특징점 사이의 변화량을 판단하고, 상기 변화량에 적어도 기반하여, 상기 적어도 일부 특징점에 대응하는 상기 제1아바타의 모션과 관련된 복수의 기준 모델들 중 적어도 일부 기준 모델에 대한 가중치를 결정하고, 및 상기 가중치와 상기 복수의 기준 모델들에 기초한 상기 모션이 수행된 상기 제1아바타를 상기 디스플레이에 표시하도록 설정될 수 있다.
본 발명의 다양한 실시 예에 따른 전자 장치의 동작 방법은, 상기 전자 장치의 카메라를 이용하여, 사용자의 얼굴에 대응하는 제1이미지와 제2이미지를 포함하는 복수의 이미지들을 획득하는 동작, 모션과 관련된 모델 정보를 포함하는 하나 이상의 3차원 아바타들 중 선택된 제1아바타를 상기 전자 장치의 디스플레이에 표시하는 동작, 상기 제1이미지에 포함된 상기 얼굴에 대응하는 복수의 제1특징점들 중 적어도 일부 특징점과 상기 제2이미지에 포함된 상기 얼굴에 대응하는 복수의 제2특징점들 중 적어도 일부 특징점 사이의 변화량을 판단하는 동작, 상기 변화량에 적어도 기반하여, 상기 적어도 일부 특징점에 대응하는 상기 제1아바타의 모션과 관련된 복수의 기준 모델들 중 적어도 일부 기준 모델에 대한 가중치를 결정하는 동작, 및 상기 가중치와 상기 복수의 기준 모델들에 기초한 상기 모션이 수행된 상기 제1아바타를 상기 디스플레이에 표시하는 동작을 포함할 수 있다.
본 발명의 다양한 실시 예에 따른 컴퓨터로 판독할 수 있는 기록 매체는, 전자 장치의 카메라를 이용하여, 사용자의 얼굴에 대응하는 제1이미지와 제2이미지를 포함하는 복수의 이미지들을 획득하는 동작, 모션과 관련된 모델 정보를 포함하는 하나 이상의 3차원 아바타들 중 선택된 제1아바타를 상기 전자 장치의 디스플레이에 표시하는 동작, 상기 제1이미지에 포함된 상기 얼굴에 대응하는 복수의 제1특징점들 중 적어도 일부 특징점과 상기 제2이미지에 포함된 상기 얼굴에 대응하는 복수의 제2특징점들 중 적어도 일부 특징점 사이의 변화량을 판단하는 동작, 상기 변화량에 적어도 기반하여, 상기 적어도 일부 특징점에 대응하는 상기 제1아바타의 모션과 관련된 복수의 기준 모델들 중 적어도 일부 기준 모델에 대한 가중치를 결정하는 동작, 및 상기 가중치와 상기 복수의 기준 모델들에 기초한 상기 모션이 수행된 상기 제1아바타를 상기 디스플레이에 표시하는 동작을 실행하는 프로그램을 저장할 수 있다.
본 발명의 다양한 실시 예는, 사용자의 얼굴에 포함된 복수의 특징점들을 이용하여 아바타를 생성하고, 상기 아바타를 통해 사용자의 얼굴 표정의 변화에 대응하는 표정 변화를 실감나게 표현할 수 있다.
도 1은, 다양한 실시 예들에 따른, 네트워크 환경 내의 전자 장치의 블럭도이다.
도 2는, 다양한 실시 예에 따른, 전자 장치의 개략적인 블럭도이다.
도 3은, 다양한 실시 예에 따른, 아바타를 제공하는 전자 장치의 동작 방법을 설명하기 위한 플로우 차트이다.
도 4는, 다양한 실시 예에 따른, 아바타를 제공하는 전자 장치의 동작 방법을 설명하기 위한 플로우 차트이다.
도 5는, 다양한 실시 예에 따른, 아바타의 표정을 변화하기 위한 전자 장치의 동작 방법을 설명하기 위한 플로우 차트이다.
도 6a부터 도 6c는, 다양한 실시 예에 따른, 전자 장치가 아바타를 생성하는 동작을 설명하기 위한 도면이다.
도 7은, 다양한 실시 예에 따른, 전자 장치가 복수의 특징점들의 변화량을 판단하는 동작을 설명하기 위한 도면이다.
도 8a 및 도 8b는, 다양한 실시 예에 따른, 전자 장치가 이용하는 기준 모델들에 대한 도면이다.
도 9a부터 도 9e는, 다양한 실시 예에 따른, 전자 장치가 아바타의 표정을 변화시키는 동작을 설명하기 위한 도면이다.
도 10a부터 도 10c는, 다양한 실시 예에 따른, 전자 장치가 아바타를 제공하는 동작을 설명하기 위한 도면이다.
도 11은, 다양한 실시 예에 따른, 전자 장치가 아바타를 제공하는 동작을 설명하기 위한 플로우 차트이다.
도 12a 및 도 12b는, 다양한 실시 예에 따른, 전자 장치가 아바타를 제어하는 동작을 설명하기 위한 도면이다.
도 13은, 다양한 실시 예에 따른, 전자 장치가 아바타를 제공하는 동작을 설명하기 위한 플로우 차트이다.
도 14는, 다양한 실시 예에 따른, 전자 장치가 아바타를 제공하는 동작을 설명하기 위한 도면이다.
도 15는, 다양한 실시 예에 따른, 전자 장치가 아바타를 제공하는 동작을 설명하기 위한 플로우 차트이다.
도 16a부터 도 16d는, 다양한 실시 예에 따른, 전자 장치가 아바타를 제공하는 동작을 설명하기 위한 도면이다.
도 1은, 다양한 실시예들에 따른, 네트워크 환경(100) 내의 전자 장치(101)의 블럭도이다. 도 1을 참조하면, 네트워크 환경(100)에서 전자 장치(101)는 제 1 네트워크(198)(예: 근거리 무선 통신 네트워크)를 통하여 전자 장치(102)와 통신하거나, 또는 제 2 네트워크(199)(예: 원거리 무선 통신 네트워크)를 통하여 전자 장치(104) 또는 서버(108)와 통신할 수 있다. 일실시예에 따르면, 전자 장치(101)는 서버(108)를 통하여 전자 장치(104)와 통신할 수 있다. 일실시예에 따르면, 전자 장치(101)는 프로세서(120), 메모리(130), 입력 장치(150), 음향 출력 장치(155), 표시 장치(160), 오디오 모듈(170), 센서 모듈(176), 인터페이스(177), 햅틱 모듈(179), 카메라 모듈(180), 전력 관리 모듈(188), 배터리(189), 통신 모듈(190), 가입자 식별 모듈(196), 또는 안테나 모듈(197)을 포함할 수 있다. 어떤 실시예에서는, 전자 장치(101)에는, 이 구성요소들 중 적어도 하나(예: 표시 장치(160) 또는 카메라 모듈(180))가 생략되거나, 하나 이상의 다른 구성 요소가 추가될 수 있다. 어떤 실시예에서는, 이 구성요소들 중 일부들은 하나의 통합된 회로로 구현될 수 있다. 예를 들면, 센서 모듈(176)(예: 지문 센서, 홍채 센서, 또는 조도 센서)은 표시 장치(160)(예: 디스플레이)에 임베디드된 채 구현될 수 있다
프로세서(120)는, 예를 들면, 소프트웨어(예: 프로그램(140))를 실행하여 프로세서(120)에 연결된 전자 장치(101)의 적어도 하나의 다른 구성요소(예: 하드웨어 또는 소프트웨어 구성요소)을 제어할 수 있고, 다양한 데이터 처리 또는 연산을 수행할 수 있다. 일실시예에 따르면, 데이터 처리 또는 연산의 적어도 일부로서, 프로세서(120)는 다른 구성요소(예: 센서 모듈(176) 또는 통신 모듈(190))로부터 수신된 명령 또는 데이터를 휘발성 메모리(132)에 로드하고, 휘발성 메모리(132)에 저장된 명령 또는 데이터를 처리하고, 결과 데이터를 비휘발성 메모리(134)에 저장할 수 있다. 일실시예에 따르면, 프로세서(120)는 메인 프로세서(121)(예: 중앙 처리 장치 또는 어플리케이션 프로세서), 및 이와는 독립적으로 또는 함께 운영 가능한 보조 프로세서(123)(예: 그래픽 처리 장치, 이미지 시그널 프로세서, 센서 허브 프로세서, 또는 커뮤니케이션 프로세서)를 포함할 수 있다. 추가적으로 또는 대체적으로, 보조 프로세서(123)는 메인 프로세서(121)보다 저전력을 사용하거나, 또는 지정된 기능에 특화되도록 설정될 수 있다. 보조 프로세서(123)는 메인 프로세서(121)와 별개로, 또는 그 일부로서 구현될 수 있다.
보조 프로세서(123)는, 예를 들면, 메인 프로세서(121)가 인액티브(예: 슬립) 상태에 있는 동안 메인 프로세서(121)를 대신하여, 또는 메인 프로세서(121)가 액티브(예: 어플리케이션 실행) 상태에 있는 동안 메인 프로세서(121)와 함께, 전자 장치(101)의 구성요소들 중 적어도 하나의 구성요소(예: 표시 장치(160), 센서 모듈(176), 또는 통신 모듈(190))와 관련된 기능 또는 상태들의 적어도 일부를 제어할 수 있다. 일실시예에 따르면, 보조 프로세서(123)(예: 이미지 시그널 프로세서 또는 커뮤니케이션 프로세서)는 기능적으로 관련 있는 다른 구성 요소(예: 카메라 모듈(180) 또는 통신 모듈(190))의 일부로서 구현될 수 있다.
메모리(130)는, 전자 장치(101)의 적어도 하나의 구성요소(예: 프로세서(120) 또는 센서모듈(176))에 의해 사용되는 다양한 데이터를 저장할 수 있다. 데이터는, 예를 들어, 소프트웨어(예: 프로그램(140)) 및, 이와 관련된 명령에 대한 입력 데이터 또는 출력 데이터를 포함할 수 있다. 메모리(130)는, 휘발성 메모리(132) 또는 비휘발성 메모리(134)를 포함할 수 있다.
프로그램(140)은 메모리(130)에 소프트웨어로서 저장될 수 있으며, 예를 들면, 운영 체제(142), 미들 웨어(144) 또는 어플리케이션(146)을 포함할 수 있다.
입력 장치(150)는, 전자 장치(101)의 구성요소(예: 프로세서(120))에 사용될 명령 또는 데이터를 전자 장치(101)의 외부(예: 사용자)로부터 수신할 수 있다. 입력 장치(150)는, 예를 들면, 마이크, 마우스, 또는 키보드를 포함할 수 있다.
음향 출력 장치(155)는 음향 신호를 전자 장치(101)의 외부로 출력할 수 있다. 음향 출력 장치(155)는, 예를 들면, 스피커 또는 리시버를 포함할 수 있다. 스피커는 멀티미디어 재생 또는 녹음 재생과 같이 일반적인 용도로 사용될 수 있고, 리시버는 착신 전화를 수신하기 위해 사용될 수 있다. 일실시예에 따르면, 리시버는 스피커와 별개로, 또는 그 일부로서 구현될 수 있다.
표시 장치(160)는 전자 장치(101)의 외부(예: 사용자)로 정보를 시각적으로 제공할 수 있다. 표시 장치(160)는, 예를 들면, 디스플레이, 홀로그램 장치, 또는 프로젝터 및 해당 장치를 제어하기 위한 제어 회로를 포함할 수 있다. 일실시예에 따르면, 표시 장치(160)는 터치를 감지하도록 설정된 터치 회로(touch circuitry), 또는 상기 터치에 의해 발생되는 힘의 세기를 측정하도록 설정된 센서 회로(예: 압력 센서)를 포함할 수 있다.
오디오 모듈(170)은 소리를 전기 신호로 변환시키거나, 반대로 전기 신호를 소리로 변환시킬 수 있다. 일실시예에 따르면, 오디오 모듈(170)은, 입력 장치(150)를 통해 소리를 획득하거나, 음향 출력 장치(155), 또는 전자 장치(101)와 직접 또는 무선으로 연결된 외부 전자 장치(예: 전자 장치(102)) (예: 스피커 또는 헤드폰))를 통해 소리를 출력할 수 있다.
센서 모듈(176)은 전자 장치(101)의 작동 상태(예: 전력 또는 온도), 또는 외부의 환경 상태(예: 사용자 상태)를 감지하고, 감지된 상태에 대응하는 전기 신호 또는 데이터 값을 생성할 수 있다. 일실시예에 따르면, 센서 모듈(176)은, 예를 들면, 제스처 센서, 자이로 센서, 기압 센서, 마그네틱 센서, 가속도 센서, 그립 센서, 근접 센서, 컬러 센서, IR(infrared) 센서, 생체 센서, 온도 센서, 습도 센서, 또는 조도 센서를 포함할 수 있다.
인터페이스(177)는 전자 장치(101)가 외부 전자 장치(예: 전자 장치(102))와 직접 또는 무선으로 연결되기 위해 사용될 수 있는 하나 이상의 지정된 프로토콜들을 지원할 수 있다. 일실시예에 따르면, 인터페이스(177)는, 예를 들면, HDMI(high definition multimedia interface), USB(universal serial bus) 인터페이스, SD카드 인터페이스, 또는 오디오 인터페이스를 포함할 수 있다.
연결 단자(178)는, 그를 통해서 전자 장치(101)가 외부 전자 장치(예: 전자 장치(102))와 물리적으로 연결될 수 있는 커넥터를 포함할 수 있다. 일실시예에 따르면, 연결 단자(178)는, 예를 들면, HDMI 커넥터, USB 커넥터, SD 카드 커넥터, 또는 오디오 커넥터(예: 헤드폰 커넥터)를 포함할 수 있다.
햅틱 모듈(179)은 전기적 신호를 사용자가 촉각 또는 운동 감각을 통해서 인지할 수 있는 기계적인 자극(예: 진동 또는 움직임) 또는 전기적인 자극으로 변환할 수 있다. 일실시예에 따르면, 햅틱 모듈(179)은, 예를 들면, 모터, 압전 소자, 또는 전기 자극 장치를 포함할 수 있다.
카메라 모듈(180)은 정지 영상 및 동영상을 촬영할 수 있다. 일실시예에 따르면, 카메라 모듈(180)은 하나 이상의 렌즈들, 이미지 센서들, 이미지 시그널 프로세서들, 또는 플래시들을 포함할 수 있다.
전력 관리 모듈(188)은 전자 장치(101)에 공급되는 전력을 관리할 수 있다. 일실시예에 따르면, 전력 관리 모듈(388)은, 예를 들면, PMIC(power management integrated circuit)의 적어도 일부로서 구현될 수 있다.
배터리(189)는 전자 장치(101)의 적어도 하나의 구성 요소에 전력을 공급할 수 있다. 일실시예에 따르면, 배터리(189)는, 예를 들면, 재충전 불가능한 1차 전지, 재충전 가능한 2차 전지 또는 연료 전지를 포함할 수 있다.
통신 모듈(190)은 전자 장치(101)와 외부 전자 장치(예: 전자 장치(102), 전자 장치(104), 또는 서버(108))간의 직접(예: 유선) 통신 채널 또는 무선 통신 채널의 수립, 및 수립된 통신 채널을 통한 통신 수행을 지원할 수 있다. 통신 모듈(190)은 프로세서(120)(예: 어플리케이션 프로세서)와 독립적으로 운영되고, 직접(예: 유선) 통신 또는 무선 통신을 지원하는 하나 이상의 커뮤니케이션 프로세서를 포함할 수 있다. 일실시예에 따르면, 통신 모듈(190)은 무선 통신 모듈(192)(예: 셀룰러 통신 모듈, 근거리 무선 통신 모듈, 또는 GNSS(global navigation satellite system) 통신 모듈) 또는 유선 통신 모듈(194)(예: LAN(local area network) 통신 모듈, 또는 전력선 통신 모듈)을 포함할 수 있다. 이들 통신 모듈 중 해당하는 통신 모듈은 제 1 네트워크(198)(예: 블루투스, WiFi direct 또는 IrDA(infrared data association) 같은 근거리 통신 네트워크) 또는 제 2 네트워크(199)(예: 셀룰러 네트워크, 인터넷, 또는 컴퓨터 네트워크(예: LAN 또는 WAN)와 같은 원거리 통신 네트워크)를 통하여 외부 전자 장치와 통신할 수 있다. 이런 여러 종류의 통신 모듈들은 하나의 구성 요소(예: 단일 칩)으로 통합되거나, 또는 서로 별도의 복수의 구성 요소들(예: 복수 칩들)로 구현될 수 있다. 무선 통신 모듈(192)은 가입자 식별 모듈(196)에 저장된 가입자 정보(예: 국제 모바일 가입자 식별자(IMSI))를 이용하여 제 1 네트워크(198) 또는 제 2 네트워크(199)와 같은 통신 네트워크 내에서 전자 장치(101)를 확인 및 인증할 수 있다.
안테나 모듈(197)은 신호 또는 전력을 외부(예: 외부 전자 장치)로 송신하거나 외부로부터 수신할 수 있다. 일실시예에 따르면, 안테나 모듈(197)은 하나 이상의 안테나들을 포함할 수 있고, 이로부터, 제 1 네트워크 198 또는 제 2 네트워크 199와 같은 통신 네트워크에서 사용되는 통신 방식에 적합한 적어도 하나의 안테나가, 예를 들면, 통신 모듈(190)에 의하여 선택될 수 있다. 신호 또는 전력은 상기 선택된 적어도 하나의 안테나를 통하여 통신 모듈(190)과 외부 전자 장치 간에 송신되거나 수신될 수 있다.
상기 구성요소들 중 적어도 일부는 주변 기기들간 통신 방식(예: 버스, GPIO(general purpose input and output), SPI(serial peripheral interface), 또는 MIPI(mobile industry processor interface))를 통해 서로 연결되고 신호(예: 명령 또는 데이터)를 상호간에 교환할 수 있다.
일실시예에 따르면, 명령 또는 데이터는 제 2 네트워크(199)에 연결된 서버(108)를 통해서 전자 장치(101)와 외부의 전자 장치(104)간에 송신 또는 수신될 수 있다. 전자 장치(102, 104) 각각은 전자 장치(101)와 동일한 또는 다른 종류의 장치일 수 있다. 일실시예에 따르면, 전자 장치(101)에서 실행되는 동작들의 전부 또는 일부는 외부 전자 장치들(102, 104, or 108) 중 하나 이상의 외부 장치들에서 실행될 수 있다. 예를 들면, 전자 장치(101)가 어떤 기능이나 서비스를 자동으로, 또는 사용자 또는 다른 장치로부터의 요청에 반응하여 수행해야 할 경우에, 전자 장치(101)는 기능 또는 서비스를 자체적으로 실행시키는 대신에 또는 추가적으로, 하나 이상의 외부 전자 장치들에게 그 기능 또는 그 서비스의 적어도 일부를 수행하라고 요청할 수 있다. 상기 요청을 수신한 하나 이상의 외부 전자 장치들은 요청된 기능 또는 서비스의 적어도 일부, 또는 상기 요청과 관련된 추가 기능 또는 서비스를 실행하고, 그 실행의 결과를 전자 장치(101)로 전달할 수 있다. 전자 장치(101)는 상기 결과를, 그대로 또는 추가적으로 처리하여, 상기 요청에 대한 응답의 적어도 일부로서 제공할 수 있다. 이를 위하여, 예를 들면, 클라우드 컴퓨팅, 분산 컴퓨팅, 또는 클라이언트-서버 컴퓨팅 기술이 이용될 수 있다.
본 문서에 개시된 다양한 실시예들에 따른 전자 장치는 다양한 형태의 장치가 될 수 있다. 전자 장치는, 예를 들면, 휴대용 통신 장치 (예: 스마트폰), 컴퓨터 장치, 휴대용 멀티미디어 장치, 휴대용 의료 기기, 카메라, 웨어러블 장치, 또는 가전 장치를 포함할 수 있다. 본 문서의 실시예에 따른 전자 장치는 전술한 기기들에 한정되지 않는다.
본 문서의 다양한 실시예들 및 이에 사용된 용어들은 본 문서에 기재된 기술적 특징들을 특정한 실시예들로 한정하려는 것이 아니며, 해당 실시예의 다양한 변경, 균등물, 또는 대체물을 포함하는 것으로 이해되어야 한다. 도면의 설명과 관련하여, 유사한 또는 관련된 구성요소에 대해서는 유사한 참조 부호가 사용될 수 있다. 아이템에 대응하는 명사의 단수 형은 관련된 문맥상 명백하게 다르게 지시하지 않는 한, 상기 아이템 한 개 또는 복수 개를 포함할 수 있다. 본 문서에서, "A 또는 B", "A 및 B 중 적어도 하나", "A 또는 B 중 적어도 하나,""A, B 또는 C," "A, B 및 C 중 적어도 하나,"및 "A, B, 또는 C 중 적어도 하나"와 같은 문구들 각각은 그 문구들 중 해당하는 문구에 함께 나열된 항목들의 모든 가능한 조합을 포함할 수 있다. "제 1", "제 2", 또는 "첫째" 또는 "둘째"와 같은 용어들은 단순히 해당 구성요소를 다른 해당 구성요소와 구분하기 위해 사용될 수 있으며, 해당 구성요소들을 다른 측면(예: 중요성 또는 순서)에서 한정하지 않는다. 어떤(예: 제 1) 구성요소가 다른(예: 제 2) 구성요소에, "기능적으로" 또는 "통신적으로"라는 용어와 함께 또는 이런 용어 없이, "커플드" 또는 "커넥티드"라고 언급된 경우, 그것은 상기 어떤 구성요소가 상기 다른 구성요소에 직접적으로(예: 유선으로), 무선으로, 또는 제 3 구성요소를 통하여 연결될 수 있다는 것을 의미한다.
본 문서에서 사용된 용어 "모듈"은 하드웨어, 소프트웨어 또는 펌웨어로 구현된 유닛을 포함할 수 있으며, 예를 들면, 로직, 논리 블록, 부품, 또는 회로 등의 용어와 상호 호환적으로 사용될 수 있다. 모듈은, 일체로 구성된 부품 또는 하나 또는 그 이상의 기능을 수행하는, 상기 부품의 최소 단위 또는 그 일부가 될 수 있다. 예를 들면, 일실시예에 따르면, 모듈은 ASIC(application-specific integrated circuit)의 형태로 구현될 수 있다.
본 문서의 다양한 실시예들은 기기(machine)(예: 전자 장치(101)) 의해 읽을 수 있는 저장 매체(storage medium)(예: 내장 메모리(136) 또는 외장 메모리(138))에 저장된 하나 이상의 명령어들을 포함하는 소프트웨어(예: 프로그램(140))로서 구현될 수 있다. 예를 들면, 기기(예: 전자 장치(101))의 프로세서(예: 프로세서(120))는, 저장 매체로부터 저장된 하나 이상의 명령어들 중 적어도 하나의 명령을 호출하고, 그것을 실행할 수 있다. 이것은 기기가 상기 호출된 적어도 하나의 명령어에 따라 적어도 하나의 기능을 수행하도록 운영되는 것을 가능하게 한다. 상기 하나 이상의 명령어들은 컴파일러에 의해 생성된 코드 또는 인터프리터에 의해 실행될 수 있는 코드를 포함할 수 있다. 기기로 읽을 수 있는 저장매체 는, 비일시적(non-transitory) 저장매체의 형태로 제공될 수 있다. 여기서, ‘비일시적’은 저장매체가 실재(tangible)하는 장치이고, 신호(signal)(예: 전자기파)를 포함하지 않는다는 것을 의미할 뿐이며, 이 용어는 데이터가 저장매체에 반영구적으로 저장되는 경우와 임시적으로 저장되는 경우를 구분하지 않는다.
일실시예에 따르면, 본 문서에 개시된 다양한 실시예들에 따른 방법은 컴퓨터 프로그램 제품(computer program product)에 포함되어 제공될 수 있다. 컴퓨터 프로그램 제품은 상품으로서 판매자 및 구매자 간에 거래될 수 있다. 컴퓨터 프로그램 제품은 기기로 읽을 수 있는 저장 매체(예: compact disc read only memory (CD-ROM))의 형태로 배포되거나, 또는 어플리케이션 스토어(예: 플레이 스토어TM)를 통해 또는 두 개의 사용자 장치들(예: 스마트폰들) 간에 직접, 온라인으로 배포(예: 다운로드 또는 업로드)될 수 있다. 온라인 배포의 경우에, 컴퓨터 프로그램 제품의 적어도 일부는 제조사의 서버, 어플리케이션 스토어의 서버, 또는 중계 서버의 메모리와 같은 기기로 읽을 수 있는 저장 매체에 적어도 일시 저장되거나, 임시적으로 생성될 수 있다.
다양한 실시예들에 따르면, 상기 기술한 구성요소들의 각각의 구성요소(예: 모듈 또는 프로그램)는 단수 또는 복수의 개체를 포함할 수 있다. 다양한 실시예들에 따르면, 전술한 해당 구성요소들 중 하나 이상의 구성요소들 또는 동작들이 생략되거나, 또는 하나 이상의 다른 구성요소들 또는 동작들이 추가될 수 있다. 대체적으로 또는 추가적으로, 복수의 구성요소들(예: 모듈 또는 프로그램)은 하나의 구성요소로 통합될 수 있다. 이런 경우, 통합된 구성요소는 상기 복수의 구성요소들 각각의 구성요소의 하나 이상의 기능들을 상기 통합 이전에 상기 복수의 구성요소들 중 해당 구성요소에 의해 수행되는 것과 동일 또는 유사하게 수행할 수 있다. 다양한 실시예들에 따르면, 모듈, 프로그램 또는 다른 구성요소에 의해 수행되는 동작들은 순차적으로, 병렬적으로, 반복적으로, 또는 휴리스틱하게 실행되거나, 상기 동작들 중 하나 이상이 다른 순서로 실행되거나, 생략되거나, 또는 하나 이상의 다른 동작들이 추가될 수 있다.
도 2는, 다양한 실시 예에 따른, 전자 장치의 개략적인 블럭도이다.
도 2를 참조하면, 전자 장치(201)는 도 1에서 설명한 전자 장치(101)와 실질적으로 동일하거나 유사하게 구현될 수 있다. 예컨대, 전자 장치(201)는 스마트폰 또는 태블릿 PC로 구현될 수 있다.
전자 장치(201)는 카메라(210), 프로세서(220), 메모리(230), 디스플레이(260), 및 통신 모듈(280)을 포함할 수 있다.
카메라(210)는 사용자의 신체의 적어도 일부를 촬영할 수 있다. 예컨대, 카메라(210)는 도 1에서 설명한 카메라 모듈(180)과 실질적으로 동일하거나 유사하게 구현될 수 있다.
다양한 실시 예에 따라, 카메라(210)는 사용자의 얼굴에 대응하는 복수의 이미지들을 획득할 수 있다. 예컨대, 복수의 이미지들은, 사용자의 얼굴이 촬영된 복수의 프레임들을 의미할 수 있다. 복수의 이미지들은 제1이미지와 제2이미지를 포함할 수 있다. 예컨대, 제1이미지와 제2이미지는 사용자의 얼굴에 포함된 복수의 특징점들을 포함할 수 있다.
복수의 특징점들 각각은 얼굴의 지정된 영역일 수 있다. 예컨대, 복수의 특징점들 각각은, 얼굴의 서로 다른 101개의 영역(또는 지점)일 수 있다. 프로세서(220)는, 복수의 특징점들을 통해, 눈, 귀, 코, 및 입의 위치와 크기, 눈썹의 위치와 크기, 눈썹의 짙은 정도, 주름의 위치, 미간 넓이, 턱의 위치와 크기, 광대의 위치와 크기, 이마의 위치와 크기, 얼굴 윤곽, 얼굴 크기, 피부 색깔, 피부 톤, 머리카락의 색깔, 머리카락의 위치, 및/또는 흉터의 위치와 크기 등을 판단할 수 있다.
프로세서(220)는 전자 장치의 전반적인 동작을 제어할 수 있다. 예컨대, 프로세서(220)는 도 1에서 설명한 프로세서(120)와 실질적으로 동일하거나 유사하게 구현될 수 있다.
다양한 실시 예에 따라, 프로세서(220)는, 3차원 모델링에 기반하여 생성된 적어도 하나의 3차원 아바타들 중 선택된 아바타를 제공할 수 있다. 프로세서(220)는, 카메라(210)를 통해 수신되는 복수의 이미지들을 이용하여, 사용자의 얼굴 표정에 대응하는 표정을 가지는 아바타를 제공할 수 있다. 프로세서(220)는, 사용자의 얼굴 표정의 변화를 트래킹하고, 트래킹된 얼굴 표정의 변화에 따라 아바타의 표정을 변경할 수 있다.
다양한 실시 예에 따라, 프로세서(220)는, 카메라(210)를 이용하여, 제1이미지를 획득할 수 있다. 프로세서(220)는 제1이미지에 포함된 사용자의 얼굴의 복수의 특징점들을 이용하여 아바타를 생성할 수 있다. 프로세서(220)는, 디스플레이(260)를 통해, 아바타를 제공할 수 있다. 예컨대, 제1이미지는 복수의 이미지들 중 기준이 되는 복수의 특징점들을 포함하는 이미지일 수 있다.
아바타는 3차원 모델링에 기반하여 생성될 수 있다. 아바타는 사용자의 얼굴과 유사한 캐릭터를 나타낼 수 있다. 또는, 아바타는, 지정된 캐릭터(예컨대, 만화 캐릭터)를 나타낼 수도 있다. 예컨대, 아바타는 프로세서(220)에 의해 생성되거나 외부 전자 장치(예컨대, 도 1의 102 또는 104)로부터 다운로드될 수 있다.
다양한 실시 예에 따라, 프로세서(220)는 제1이미지(또는 제1이미지에 포함된 복수의 특징점들)를 기준으로 제2이미지에 포함된 복수의 특징점들의 변화 여부를 판단할 수 있다. 예컨대, 프로세서(220)는 제1이미지에 포함된 복수의 특징점들 중 적어도 일부 특징점과 제2이미지에 포함된 복수의 특징점들 중 적어도 일부 특징점을 비교하고, 비교 결과에 따라, 제1이미지에 포함된 복수의 특징점들 중 적어도 일부 특징점과 제2이미지에 포함된 복수의 특징점들 중 적어도 일부 특징점 사이의 변화 여부를 판단할 수 있다. 프로세서(220)는 제1이미지에 포함된 복수의 특징점들 중 적어도 일부 특징점과 제2이미지에 포함된 복수의 특징점들 중 적어도 일부 특징점 사이의 변화량도 판단할 수 있다. 제2이미지는 제1이미지를 획득한 후에 획득된 이미지일 수 있다. 제2이미지는 제1이미지를 기준으로 사용자의 얼굴 표정의 변화를 나타내는 이미지일 수 있다.
다양한 실시 예에 따라, 프로세서(220)는 제2이미지에 포함된 복수의 특징점들의 변화량(또는 움직임 정도)에 기초하여 지정된 모션(예컨대, 표정)을 나타내는 복수의 기준 모델들에 대한 가중치를 결정할 수 있다. 예컨대, 복수의 기준 모델들에 대한 가중치는, 복수의 특징점들 각각의 변화량 따라 결정될 수 있다. 예컨대, 복수의 기준 모델들은 복수의 모프 타겟(morph target)들을 포함할 수 있다. 예컨대, 복수의 기준 모델들은, 75개의 서로 다른 모션(예컨대, 표정)을 나타내는 모프 타겟들을 포함할 수 있다.
다양한 실시 예에 따라, 프로세서(220)는 가중치가 반영된 복수의 기준 모델들을 이용하여 사용자의 모션 변화(예컨대, 표정 변화)에 대응하는 아바타의 모션 변화(예컨대, 표정 변화)를 결정할 수 있다. 예컨대, 가중치가 반영된 복수의 기준 모델들 각각을 합하여 복수의 특징점들 중 적어도 하나의 특징점이 변경된 아바타(예컨대, 표정이 변화된 아바타)를 생성할 수 있다. 프로세서(220)는, 디스플레이(260)를 통해, 모션(예컨대, 표정)이 변화된 아바타를 제공할 수 있다.
프로세서(220)는 얼굴 특징 획득 모듈(222), 아바타 생성 모듈(224), 매퍼 모듈(226), 및 렌더링 모듈(228)을 포함할 수 있다. 예컨대, 프로세서(220)는 얼굴 특징 획득 모듈(222), 아바타 생성 모듈(224), 매퍼 모듈(226), 및 렌더링 모듈(228) 중 적어도 하나를 실행할 수 있다.
다양한 실시 예에 따라, 얼굴 특징 획득 모듈(222)은 카메라를 통해 획득된 사용자의 얼굴을 포함하는 복수의 이미지들을 분석할 수 있다. 얼굴 특징 획득 모듈(222)은 복수의 이미지들에 포함된 사용자의 얼굴 특징을 판단할 수 있다. 예컨대, 얼굴 특징 획득 모듈(220)은 복수의 이미지들을 이용하여 2차원 이미지에 대한 얼굴의 특징을 판단할 수 있다. 얼굴 특징 획득 모듈(220)은 얼굴의 지정된 영역들에 대응하는 복수의 특징점들을 판단하고, 복수의 특징점들을 통해 사용자의 얼굴의 특징을 판단할 수 있다.
다양한 실시 예에 따라, 얼굴 특징 획득 모듈(220)은 복수의 이미지들에 포함된 복수의 특징점들을 지속적으로 트래킹하고, 트래킹된 특징점들에 기반하여, 3차원으로 얼굴 특징을 표현하기 위한 특징점들 각각의 위치 정보를 획득할 수 있다. 얼굴 특징 획득 모듈(222)는 획득된 복수의 특징점들 각각의 위치 정보를 아바타 생성 모듈(224)로 전송할 수 있다.
아바타 생성 모듈(224)은 제1이미지에 포함된 복수의 특징점들을 이용하여 아바타를 생성할 수 있다. 아바타 생성 모듈(224)은 얼굴 특징 획득 모듈(222)에서 획득된 복수의 특징점들의 위치 정보를 이용하여 사용자의 얼굴 특징과 유사한 아바타를 생성할 수 있다. 예컨대, 아바타 생성 모듈(224)은 3차원 모델링에 기반하여 3차원 아바타를 생성할 수 있다. 아마타 생성 모듈(224)은 생성된 아바타를 메모리(230)에 저장할 수 있다.
매퍼 모듈(226)은 획득된 복수의 특징점에 대한 정보에 기초하여 복수의 기준 모델들의 가중치를 결정할 수 있다. 매퍼 모듈(226)은 가중치가 반영된 복수의 기준 모델들을 합하여 사용자의 얼굴의 표정 변화를 결정할 수 있다. 예컨대, 매퍼 모듈(2260)은 가중치가 반영된 복수의 기준 모델들 각각이 나타내는 표정을 합하여 얼굴의 표정 변화 정도를 결정할 수 있다.
렌더링 모듈(228)은 사용자의 표정 변화 정도에 기초하여 표정이 변화된 아바타를 생성할 수 있다. 렌더링 모듈(228)은 표정이 변화된 아바타를 디스플레이(260)를 통해 제공할 수 있다.
다양한 실시 예에 따라, 프로세서(220)는 메모리(230)에 저장된 적어도 하나의 아바타 중 선택된 아바타를 디스플레이를 통해 제공할 수 있다. 예컨대, 적어도 하나의 아바타는 이전에 생성된 아바타 및/또는 외부 전자 장치(예컨대, 도 1의 전자 장치(102 또는 104)로부터 다운로드된 아바타일 수 있다.
다양한 실시 예에 따라, 프로세서(220)는 동일한 표정이더라도 아바타 별로 서로 다른 특징을 반영하여 아바타를 제공할 수 있다. 예컨대, 프로세서(220)는, 동일한 표정에 대하여, 아바타들 각각의 특징을 강조하여 표시할 수 있다.
메모리(230)는 전자 장치(201)의 데이터를 저장할 수 있다. 예컨대, 메모리(230)는 도 1에서 설명한 메모리(130)와 실질적으로 동일하거나 유사하게 구현될 수 있다. 예컨대, 메모리(230)는 비휘발성 메모리로 구현될 수 있다.
다양한 실시 예에 따라, 메모리(230)는 아바타들에 대한 데이터를 저장할 수 있다. 예컨대, 메모리(230)는 제1이미지에 포함된 복수의 특징점들에 대한 데이터를 저장할 수 있다. 메모리(230)는 프로세서(220)에 의해 생성된 적어도 하나의 아바타 및/또는 외부 전자 장치(예컨대, 도 1의 102 또는 104)로부터 다운로드된 아바타를 저장할 수 있다. 메모리(230)는, 복수의 기준 모델들(예컨대, 모프 타겟)을 저장할 수 있다.
디스플레이(260)는, 프로세서(220)의 제어에 따라, 아바타를 표시할 수 있다. 디스플레이(260)는 도 1에서 설명한 표시 장치(160)와 실질적으로 동일하거나 유사하게 구현될 수 있다.
통신 모듈(280)은, 외부 전자 장치(예컨대, 도 1의 102 또는 104)로부터 아바타에 대한 데이터를 수신할 수 있다. 통신 모듈(280)은 외부 전자 장치(예컨대, 도 1의 102 또는 104)로 메모리(230)에 저장된 아바타에 대한 데이터를 전송할 수도 있다.
도 3은, 다양한 실시 예에 따른, 아바타를 제공하는 전자 장치의 동작 방법을 설명하기 위한 플로우 차트이다.
도 3을 참조하면, 동작 301에서, 전자 장치(예컨대, 도 2의 전자 장치(201))는 카메라(예컨대, 도 2의 카메라(210))를 통해 사용자의 얼굴을 포함하는 복수의 이미지들 획득할 수 있다.
동작 303에서, 전자 장치(201)는 아바타를 생성하고, 아바타를 제공할 수 있다. 예컨대, 전자 장치(201)는 복수의 이미지들 각각에 포함된 사용자의 얼굴의 특징점들을 추출하고, 추출된 특징점들에 기초하여 아바타를 생성할 수 있다. 전자 장치(201)는 디스플레이(예컨대, 도 2의 디스플레이(260))에 생성된 아바타를 표시할 수 있다.
동작 305에서, 전자 장치(201)는, 아바타를 디스플레이(260)에 표시하면서, 카메라(210)를 통해 획득되는 사용자의 얼굴의 모션 변화(예컨대, 표정 변화)에 따라 아바타의 모션(예컨대, 표정)을 변경할 수 있다. 전자 장치(201)는, 실시간으로, 변화하는 사용자의 모션(예컨대, 표정)에 따라 아바타의 모션(예컨대, 표정)을 변경하고, 변경된 모션이 반영된 아바타를 디스플레이(260)에 표시할 수 있다.
상술한 동작들 각각은 프로세서(예컨대, 도 1의 프로세서(120), 도 2의 프로세서(220), 또는 이미지 신호 프로세서(image signal processor(ISP)))에 의해 수행될 수 있다.
도 4는, 다양한 실시 예에 따른, 아바타를 제공하는 전자 장치의 동작 방법을 설명하기 위한 플로우 차트이다.
도 4를 참조하면, 전자 장치(예컨대, 도 2의 전자 장치(201))는 카메라(예컨대, 도 2의 카메라(210))를 통해 사용자의 얼굴을 포함하는 복수의 이미지들 획득할 수 있다.
동작 401에서, 전자 장치(201)는 복수의 이미지들 중 기준이 되는 복수의 특징점들을 포함하는 제1이미지를 획득할 수 있다.
동작 403에서, 전자 장치(201)는 제1이미지에 포함된 복수의 특징점들 판단할 수 있다. 예컨대, 전자 장치(201)는 복수의 특징점들의 위치를 판단할 수 있다.
동작 405에서, 전자 장치(201)는 복수의 특징점들을 이용하여 아바타를 생성할 수 있다. 예컨대, 전자 장치(201)는 복수의 특징점들의 위치에 기초하여 복수의 특징점들이 반영된 아바타를 생성할 수 있다.
전자 장치(201)는 사용자의 중립 표정(또는 무표정)을 나타내는 복수의 특징점들(예컨대, 기준이 되는 복수의 특징점들)을 기준 특징점들로 결정할 수 있다. 예컨대, 기준 특징점들은 아바타의 표정 변화를 판단하기 위한 기준이 되는 특징점들(예컨대, 무표정한 상태의 얼굴의 특정점들 또는 뉴트럴(neutral)한 표정의 얼굴의 특징점들)일 수 있다.
상술한 동작들 각각은 프로세서(예컨대, 도 1의 프로세서(120), 도 2의 프로세서(220), 또는 이미지 신호 프로세서(image signal processor(ISP)))에 의해 수행될 수 있다.
도 5는, 다양한 실시 예에 따른, 아바타의 표정을 변화하기 위한 전자 장치의 동작 방법을 설명하기 위한 플로우 차트이다.
도 5를 참조하면, 동작 501에서, 전자 장치(예컨대, 도 2의 전자 장치(201))는 카메라(예컨대, 도 2의 카메라(210))를 통해 사용자의 얼굴을 포함하는 복수의 이미지들 획득할 수 있다.
동작 502에서, 전자 장치(201)는 복수의 이미지들 중 제1이미지에 포함된 사용자의 얼굴의 복수의 특징점들을 이용하여 아바타를 생성할 수 있다. 전자 장치(201)는, 생성된 아바타를 디스플레이(예컨대, 도 2의 디스플레이(260))에 표시할 수 있다. 또는, 전자 장치(201)는 메모리(예컨대, 도 2의 메모리(230))에 저장된 적어도 하나의 아바타 중 어느 하나의 아바타를 선택하고, 선택된 아바타를 디스플레이(260)에 표시할 수도 있다.
전자 장치(201)는, 아바타를 표시하면서, 카메라(210)를 통해 사용자의 얼굴을 포함하는 제2이미지를 획득하고, 제2이미지에 포함된 사용자의 얼굴의 복수의 특징점들 판단할 수 있다.
동작 503에서, 전자 장치(201)는, 제1이미지(또는 제1이미지에 포함된 복수의 특징점들)를 기준으로 제2이미지에 포함된 복수의 특징점들 중 적어도 일부 특징점의 변화 여부 및/또는 변화량을 판단할 수 있다.
동작 505에서, 전자 장치(201)는 적어도 일부 특징점의 변화량에 기초하여 각각이 복수의 모션(예컨대, 표정)들에 대응하는 복수의 기준 모델들 각각의 가중치 결정할 수 있다. 예컨대, 전자 장치(201)는, 복수의 기준 모델들이 나타내는 표정에 대하여, 적어도 일부 특징점이 변화된 정도(예컨대, 변화량)에 따라 가중치를 결정할 수 있다.
동작 507에서, 전자 장치(201)는 가중치를 반영한 복수의 기준 모델들을 이용하여 아바타의 모션(예컨대, 표정) 변경할 수 있다. 예컨대, 전자 장치(201)는 가중치를 반영한 복수의 기준 모델들을 합한 모션(예컨대, 표정)을 가지는 아바타를 생성하고, 변경된 모션(예컨대, 표정)을 가지는 아바타를 디스플레이(260)에 표시할 수 있다.
다양한 실시 예에 따라, 전자 장치(201)는 사용자의 얼굴과 전자 장치(201)(예컨대, 도 2의 카메라(210)) 사이의 거리(또는 카메라(210)의 화각)에 따라, 아바타의 크기를 조절할 수 있다. 예컨대, 전자 장치(201)는, 제1이미지(또는 제1이미지에 포함된 복수의 특징점들)를 기준으로 제2이미지에 포함된 복수의 특징점들의 간격이 일정 비율로 좁아지면, 사용자의 얼굴과 전자 장치(201)(예컨대, 카메라(210)) 사이의 거리가 멀어진다고 판단할 수 있다. 전자 장치(201)는, 제1이미지(또는 제1이미지에 포함된 복수의 특징점들)를 기준으로 제2이미지에 포함된 복수의 특징점들의 간격이 일정 비율로 멀어지면, 사용자의 얼굴과 전자 장치(201)(예컨대, 카메라(210)) 사이의 거리가 가까워진다고 판단할 수 있다. 예컨대, 전자 장치(201)는 사용자의 얼굴이 전자 장치(201)와 가까워질수록 아바타의 크기를 크게 조절할 수 있고, 사용자의 얼굴이 전자 장치(201)와 멀어질수록 아바타의 크기를 작게 조절할 수 있다. 전자 장치(201)는 크기가 조절된 아바타를 디스플레이(260)에 표시할 수 있다.
상술한 동작들 각각은 프로세서(예컨대, 도 1의 프로세서(120), 도 2의 프로세서(220), 또는 이미지 신호 프로세서(image signal processor(ISP)))에 의해 수행될 수 있다.
도 6a부터 도 6c는, 다양한 실시 예에 따른, 전자 장치가 아바타를 생성하는 동작을 설명하기 위한 도면이다.
도 6a를 참조하면, 전자 장치(601)(예컨대, 도 2의 전자 장치(201))는 카메라(예컨대, 도 2의 카메라(210))를 통해 사용자의 얼굴(620)이 포함된 복수의 이미지들을 획득할 수 있다.
다양한 실시 예에 따라, 전자 장치(601)는 사용자의 얼굴(620)을 인식하기 위한 얼굴 인식 영역(610)을 디스플레이(예컨대, 도 2의 디스플레이(260))에 표시할 수 있다. 전자 장치(601)는 사용자의 얼굴(620)이 얼굴 인식 영역(610) 안에 위치하면, 기준이 되는 복수의 특징점들을 포함하는 제1이미지를 획득할 수 있다.
도 6b를 참조하면, 전자 장치(601)는 사용자의 얼굴(620)이 얼굴 인식 영역(610) 안에 위치하면, 사용자의 얼굴(620)에 포함된 복수의 특징점들(625)을 판단할 수 있다. 예컨대, 전자 장치(601)는 얼굴의 지정된 영역에 위치하는 복수의 특징점들(625)을 판단할 수 있다. 복수의 특징점들(625)의 갯수(예컨대, 101개)는 자동으로 또는 사용자에 의해 설정될 수 있다.
도 6c를 참조하면, 전자 장치(601)는 복수의 특징점들(625)을 이용하여 사용자의 얼굴과 유사한 아바타(630)를 생성할 수 있다. 전자 장치(601)는 생성된 아바타(630)를 얼굴 인식 영역(610)에 표시할 수 있다.
한편, 도 6a부터 도 6c에 도시된 얼굴 인식 영역(610)의 크기나 형태는 설명의 편의를 위한 것으로서, 본 발명의 기술적 사상은 이에 한정되지 않을 수 있다.
도 7은, 다양한 실시 예에 따른, 전자 장치가 복수의 특징점들의 변화량을 판단하는 동작을 설명하기 위한 도면이다.
도 7을 참조하면, 전자 장치(201)(예컨대, 도 2의 전자 장치(201))는, 복수의 이미지들 중 제1이미지와 제1이미지보다 나중에 획득된 제2이미지를 비교하여 사용자의 얼굴 표정의 변화를 판단할 수 있다.
다양한 실시 예에 따라, 전자 장치(201)는 제1이미지에 포함된 복수의 특징점들을 기준으로, 제2이미지에 포함된 복수의 특징점의 변화 여부 및 변화량을 판단할 수 있다.
전자 장치(201)는 제1이미지에 포함된 복수의 특징점들을 기준으로 3차원 모델링에 기반하여 제1방향(예컨대, 정면 방향)의 제1모델(730)을 생성할 수 있다. 전자 장치(201)는 제1이미지에 대응하는 제1모델(730)에 포함된 복수의 특징점들을 기준으로 제2이미지에 포함된 복수의 특징점의 변화량(735)을 판단할 수 있다.
전자 장치(201)는 제1이미지에 포함된 복수의 특징점들을 기준으로 3차원 모델링에 기반하여 제2방향(예컨대, 반측면 방향)의 제2모델(740)을 생성할 수 있다. 전자 장치(201)는 제1이미지에 대응하는 제2모델(740)에 포함된 복수의 특징점들을 기준으로 제2이미지에 포함된 복수의 특징점의 변화량(745)을 판단할 수 있다.
전자 장치(201)는 제1이미지에 포함된 복수의 특징점들을 기준으로 3차원 모델링에 기반하여 제3방향(예컨대, 측면 방향)의 제3모델(750)을 생성할 수 있다. 전자 장치(201)는 제1이미지에 대응하는 제3모델(750)에 포함된 복수의 특징점들을 기준으로 제2이미지에 포함된 복수의 특징점의 변화량(755)을 판단할 수 있다.
전자 장치(201)는 제1모델(730), 제2모델(740), 및 제3모델(750)에 대한 복수의 특징점들 중 적어도 일부 특징점의 변화량(735, 745, 및 755)을 판단할 수 있다. 전자 장치(201)는 판단된 변화량(735, 745, 및 755)에 기초하여 복수의 기준 모델들 각각에 대한 가중치를 결정할 수 있다.
도 8a 및 도 8b는, 다양한 실시 예에 따른, 전자 장치가 이용하는 기준 모델들에 대한 도면이다.
도 8a와 도 8b를 참조하면, 복수의 기준 모델들은, 서로 다른 표정을 나타내는 캐릭터 정보를 포함할 수 있다. 예컨대, 복수의 기준 모델들은 서로 다른 표정을 나타내는 모프 타겟들을 포함할 수 있다.
도 8a를 참조하면, 제1기준 모델은, 기준 캐릭터(810) 대비 왼쪽 눈을 감은 상태의 표정을 가지는 캐릭터(820)에 대한 정보를 포함할 수 있다.
도 8b를 참조하면, 제2기준 모델은, 기준 캐릭터(810) 대비 입을 벌리고 있는 표정을 가지는 캐릭터(830)에 대한 정보를 포함할 수 있다.
비록 도 8a와 도 8b는 설명의 편의를 위해 2가지 종류의 기준 모델들만을 도시하고 있으나, 기준 모델들의 종류나 갯수는 이에 한정되지 않고, 본 발명의 실시 예는 다양한 종류(예컨대, 다양한 표정)을 가지는 복수의 기준 모델들이 적용될 수 있다.
도 9a부터 도 9e는, 다양한 실시 예에 따른, 전자 장치가 아바타의 표정을 변화시키는 동작을 설명하기 위한 도면이다.
도 9a를 참조하면, 전자 장치(901)(예컨대, 도 2의 전자 장치(201))는 얼굴 인식 영역(910)에 위치한 사용자의 얼굴(920)을 촬영하고, 사용자의 얼굴(920)이 포함된 복수의 이미지들을 획득할 수 있다.
다양한 실시 예에 따라, 전자 장치(901)는 복수의 이미지들 중 제1이미지에 포함된 복수의 특징점을 이용하여 사용자의 얼굴(920)에 대응하는 제1아바타(930)를 얼굴 인식 영역(910)에 표시할 수 있다.
다양한 실시 예에 따라, 전자 장치(901)는 제2이미지에 포함된 복수의 특징점들을 분석하고, 분석 결과에 따라 사용자의 얼굴 표정의 변화 여부 및 변화량을 결정할 수 있다.
도 9b를 참조하면, 전자 장치(901)는, 제1아바타(930)를 표시하면서, 왼쪽 눈이 완전히 감긴 사용자의 얼굴(920)을 포함하는 제2이미지를 획득할 수 있다. 예컨대, 전자 장치(901)는 왼쪽 눈의 감긴 정도를 나타내는 제1가중치(W1)와 입을 벌린 정도를 나타내는 제2가중치(W2)를 결정할 수 있다. 예컨대, 전자 장치(901)는, 사용자의 왼쪽 눈이 완전히 감긴 경우, 제1가중치(W1)를 '1'로 결정할 수 있다. 전자 장치(901)는, 사용자의 입이 닫힌 경우, 제2가중치(W2)를 '0'으로 결정할 수 있다. 전자 장치(901)는 사용자의 왼쪽 눈이 감긴 표정을 나타내는 제1기준 모델(예컨대, 도 8a의 제1기준 모델(820))에 제1가중치(W1=1)를 반영하고 사용자의 입이 열린 상태를 나타내는 제2기준 모델(예컨대, 도 8b의 제2기준 모델(830)에 제2가중치(W2=0)를 반영할 수 있다. 전자 장치(901)는 가중치가 반영된 제1기준 모델과 제2기준 모델을 합하여 왼쪽 눈이 완전히 감기고 입이 닫힌 제2아바타(940)를 표시할 수 있다. 예컨대, 전자 장치(901)는, 사용자의 얼굴의 표정 변화에 따라, 제1아바타(930)가 왼쪽 눈이 서서히 감는 동작을 표시하면서 제2아바타(940)로 변경시킬 수 있다.
도 9c를 참조하면, 전자 장치(901)는, 제1아바타(930)를 표시하면서, 왼쪽 눈이 절반 정도 감긴 사용자의 얼굴(920)을 포함하는 제2이미지를 획득할 수 있다. 예컨대, 전자 장치(901)는 왼쪽 눈의 절반만큼 감긴 정도를 나타내는 제1가중치(W1)와 입을 벌린 정도를 나타내는 제2가중치(W2)를 결정할 수 있다. 예컨대, 전자 장치(901)는, 사용자의 왼쪽 눈이 절반만큼 완전히 감긴 경우, 제1가중치(W1)를 '0.5'로 결정할 수 있다. 전자 장치(901)는, 사용자의 입이 닫힌 경우, 제2가중치(W2)를 '0'으로 결정할 수 있다. 전자 장치(901)는 사용자의 왼쪽 눈이 감긴 표정을 나타내는 제1기준 모델(예컨대, 도 8a의 제1기준 모델(820))에 제1가중치(W1=0.5)를 반영하고 사용자의 입이 열린 상태를 나타내는 제2기준 모델(예컨대, 도 8b의 제2기준 모델(830)에 제2가중치(W2=0)를 반영할 수 있다. 전자 장치(901)는 가중치가 반영된 제1기준 모델과 제2기준 모델을 합하여 왼쪽 눈이 전반만큼 감기고 입이 닫힌 제3아바타(950)를 표시할 수 있다. 예컨대, 전자 장치(901)는, 사용자의 얼굴의 표정 변화에 따라, 제1아바타(930)가 왼쪽 눈이 서서히 감는 동작을 표시하면서 제3아바타(940)로 변경시킬 수 있다.
도 9d를 참조하면, 전자 장치(901)는, 제1아바타(930)를 표시하면서, 입이 완전히 벌린 사용자의 얼굴(920)을 포함하는 제2이미지를 획득할 수 있다. 예컨대, 전자 장치(901)는 왼쪽 눈의 감긴 정도를 나타내는 제1가중치(W1)와 입을 벌린 정도를 나타내는 제2가중치(W2)를 결정할 수 있다. 예컨대, 전자 장치(901)는, 사용자의 왼쪽 눈이 완전히 떠진 경우, 제1가중치(W1)를 '0'으로 결정할 수 있다. 전자 장치(901)는, 사용자의 입이 열린 경우, 제2가중치(W2)를 '1'로 결정할 수 있다. 전자 장치(901)는 사용자의 왼쪽 눈이 완전히 감긴 표정을 나타내는 제1기준 모델(예컨대, 도 8a의 제1기준 모델(820))에 제1가중치(W1=0)를 반영하고 사용자의 입이 열린 상태를 나타내는 제2기준 모델(예컨대, 도 8b의 제2기준 모델(830)에 제2가중치(W2=1)를 반영할 수 있다. 전자 장치(901)는 가중치가 반영된 제1기준 모델과 제2기준 모델을 합하여 왼쪽 눈이 완전히 떠지고 입이 완전히 벌린 제4아바타(960)를 표시할 수 있다. 예컨대, 전자 장치(901)는, 사용자의 얼굴의 표정 변화에 따라, 제1아바타(930)가 입을 서서히 벌리는 동작을 표시하면서 제4아바타(960)로 변경시킬 수 있다.
도 9e를 참조하면, 전자 장치(901)는, 제1아바타(930)를 표시하면서, 왼쪽 눈이 완전히 감기고 입이 완전히 벌린 사용자의 얼굴(920)을 포함하는 제2이미지를 획득할 수 있다. 예컨대, 전자 장치(901)는 왼쪽 눈의 감긴 정도를 나타내는 제1가중치(W1)와 입을 벌린 정도를 나타내는 제2가중치(W2)를 결정할 수 있다. 예컨대, 전자 장치(901)는, 사용자의 왼쪽 눈이 완전히 감긴 경우, 제1가중치(W1)를 '1'로 결정할 수 있다. 전자 장치(901)는, 사용자의 입이 열린 경우, 제2가중치(W2)를 '1'로 결정할 수 있다. 전자 장치(901)는 사용자의 왼쪽 눈이 완전히 감긴 표정을 나타내는 제1기준 모델(예컨대, 도 8a의 제1기준 모델(820))에 제1가중치(W1=1)를 반영하고 사용자의 입이 열린 상태를 나타내는 제2기준 모델(예컨대, 도 8b의 제2기준 모델(830)에 제2가중치(W2=1)를 반영할 수 있다. 전자 장치(901)는 가중치가 반영된 제1기준 모델과 제2기준 모델을 합하여 왼쪽 눈이 완전히 감기고 입이 완전히 벌린 제5아바타(970)를 표시할 수 있다. 예컨대, 전자 장치(901)는, 사용자의 얼굴의 표정 변화에 따라, 제1아바타(930)가 왼쪽 눈을 서서히 감는 동작과 입을 서서히 벌리는 동작을 표시하면서 제5아바타(970)로 변경시킬 수 있다.
도 10a부터 도 10c는, 다양한 실시 예에 따른, 전자 장치가 아바타를 제공하는 동작을 설명하기 위한 도면이다.
도 10a부터 도 10c를 참조하면, 전자 장치(1001)(예컨대, 도 2의 전자 장치(201))는 메모리(예컨대, 도 2의 메모리(230))에 적어도 하나의 아바타를 저장할 수 있다. 전자 장치(1001)는 적어도 하나의 아바타 중 지정된 아바타를 디스플레이(예컨대, 도 2의 디스플레이(260))에 표시할 수 있다.
다양한 실시 예에 따라, 전자 장치(1001)는 메모리(230)에 복수의 아바타들을 나타내는 복수의 객체들(1005, 1015, 및 1025)을 디스플레이(260)에 표시할 수 있다.
도 10a를 참조하면, 전자 장치(1001)는 복수의 객체들(1005, 1015, 및 1025) 중 제1객체(1005)가 지정되면, 재1객체(1005)에 대응하는 제1아바타(1010)를 디스플레이(260)에 표시할 수 있다.
도 10b를 참조하면, 전자 장치(1001)는 복수의 객체들(1005, 1015, 및 1025) 중 제2객체(1015)가 지정되면, 재2객체(1015)에 대응하는 제2아바타(1020)를 디스플레이(260)에 표시할 수 있다.
도 10c를 참조하면, 전자 장치(1001)는 복수의 객체들(1005, 1015, 및 1025) 중 제3객체(1025)가 지정되면, 재3객체(1025)에 대응하는 제3아바타(1030)를 디스플레이(260)에 표시할 수 있다.
다양한 실시 예에 따라, 전자 장치(1001)는, 제1아바타(1010), 제2아바타(1020), 및 제3아바타(1030)에 대하여, 제1이미지와 제2이미지 각각에 포함된 복수의 특징점들의 변화에 따라, 아바타들 각각의 특징이 강조되도록 서로 다른 표정 변경 정보를 적용할 수 있다. 예컨대, 전자 장치(1001)는 제1이미지와 제2이미지 각각에 포함된 복수의 특징점들의 변화에 따라 결정되는 가중치를 아바타들 각각에 따라 상이하게 조절할 수 있다.
다양한 실시 예에 따라, 제1아바타(1010), 제2아바타(1020), 및 제3아바타(1030)는 동일한 표정(예컨대, 왼쪽 눈을 감은 표정)을 표시할 수 있다. 전자 장치(1001)는 아바타들(1010, 1020, 및 1030) 각각의 특징(또는 아바타들 각각이 나타내는 캐릭터의 특징)에 따라 다양한 표정을 연출할 수 있다. 예컨대, 제3아바타(1030)는 제1아바타(1010)와 제2아바타(1020)에 대비해 과장된 표정을 표시할 수 있다. 제2아바타(1020)는 제1아바타(1010)와 제3아바타(1030)에 비해 제2아바타(1020)가 나타내는 캐릭터에 적합한 표정을 표시할 수 있다. 즉, 상이한 아바타가 설정되는 경우에, 전자 장치(1001)는, 동일한 표정에 대하여 상이한 표정 변경 정도를 표현할 수 있다.
도 11은, 다양한 실시 예에 따른, 전자 장치가 아바타를 제공하는 동작을 설명하기 위한 플로우 차트이다.
도 11을 참조하면, 전자 장치(201)(예컨대, 도 2의 전자 장치(201))는 3차원 모델링에 기반한 아바타를 디스플레이(260)(예컨대, 도 2의 디스플레이(260))표시할 수 있다.
동작 1101에서, 전자 장치(201)는 얼굴과 몸통을 포함하는 아바타를 표시할 수 있다. 전자 장치(201)는 사용자의 얼굴의 특징점들을 판단하고, 판단된 특징점들에 기초하여 사용자의 얼굴에 대응하는 아바타의 얼굴을 표시할 수 있다. 전자 장치(201)는 아바타의 얼굴의 하단부(예컨대, 목 부분)에 몸통을 결합하여 아바타를 표시할 수 있다. 예컨대, 아바타의 몸통은 지정된 형태나 형상을 포함할 수 있다.
동작 1103에서, 전자 장치(201)는 사용자의 얼굴의 회전을 인식(또는 판단)할 수 있다. 예컨대, 전자 장치(201)는 사용자의 얼굴을 포함하는 복수의 이미지들에 포함된 제1이미지(예컨대, 기준이 되는 이미지)와 제2이미지(예컨대, 제1이미지 후에 획든된 이미지)를 비교하여 사용자의 얼굴의 회전을 판단할 수 있다.
동작 1105에서, 전자 장치(201)는 사용자의 얼굴 회전에 따라, 아바타의 얼굴을 회전시킬 수 있다. 전자 장치(201)는 아바타의 몸통은 전자 장치(201)(또는 전자 장치(201)의 디스플레이(260))의 제1면 방향(예컨대, 디스플레이(260)의 하면 방향)으로 고정시킬 수 있다. 예컨대, 전자 장치(201)는 아바타의 얼굴만 회전시키고, 아바타의 몸통은 제1면 방향으로 고정하여 표시할 수 있다.
한편, 상술한 동작들 각각은 프로세서(예컨대, 도 1의 프로세서(120), 도 2의 프로세서(220), 또는 이미지 신호 프로세서(image signal processor(ISP)))에 의해 수행될 수 있다.
도 12a 및 도 12b는, 다양한 실시 예에 따른, 전자 장치가 아바타를 제어하는 동작을 설명하기 위한 도면이다.
도 12a를 참조하면, 전자 장치(1201)(예컨대, 도 2의 전자 장치(201))는 얼굴 인식 영역(1210) 안에 얼굴(1220)과 몸통(1225)을 포함하는 아바타를 표시할 수 있다. 전자 장치(1201)는 아바타의 얼굴(1220)의 하단부(예컨대, 목 부분)에 몸통(1225)을 결합하여 아바타를 표시할 수 있다.
도 12b를 참조하면, 전자 장치(1201)는, 사용자의 얼굴 회전에 따라, 아바타의 얼굴(1220)을 회전시킬 수 있다. 예컨대, 전자 장치(1201)는, 사용자의 얼굴이 가상의 x축, y축, 및 z축 중 적어도 하나의 방향으로 회전되면, 상기 가상의 x축, y축, 및 z축 중 적어도 하나의 방향에 따라 아바타의 얼굴(1220)을 회전시킬 수 있다. 예컨대, 전자 장치(1201)는, 자연스러운 얼굴 회전을 위해, 아바타의 얼굴(1220)을 지정된 각도(예컨대, -45도 ~ 45도)까지만 회전할 수 있다.
전자 장치(201)는 아바타의 몸통(1225)을 전자 장치(1201)의 제1면 방향(예컨대, 전자 장치(1201)의 하면 방향)으로 고정시킬 수 있다. 예컨대, 전자 장치(201)는 아바타의 얼굴(1220)만 회전시키고, 아바타의 몸통(1225)은 제1면 방향으로 고정하여 표시할 수 있다. 전자 장치(201)는, 아바타의 얼굴(1220) 회전에 따라, 아바타의 몸통(1225)을 가상의 z축 방향으로 회전시킬 수도 있다. 전자 장치(1201)는, 아바타의 몸통(1225)을 지정된 각도(예컨대, -45도 ~ 45도)까지만 회전시킬 수 있다.
도 13은, 다양한 실시 예에 따른, 전자 장치가 아바타를 제공하는 동작을 설명하기 위한 플로우 차트이다.
도 13을 참조하면, 동작 1301에서, 전자 장치(201)(예컨대, 도 2의 전자 장치(201))는 사용자의 얼굴에 대응하는 아바타를 제1방향으로 디스플레이(260)(예컨대, 도 2의 디스플레이(260))에 표시할 수 있다.
동작 1303에서, 전자 장치(201)는 제2방향으로 회전할 수 있다. 전자 장치(201)는 전자 장치(201)에 포함된 센서(예컨대, 도 1의 센서(176))를 이용하여 전자 장치(201)의 회전을 감지할 수 있다. 예컨대, 센서는 자이로 센서를 포함할 수 있다.
동작 1305에서, 전자 장치(201)는 회전된 각도를 판단할 수 있다. 전자 장치(201)는 회전된 각도와 지정된 각도를 비교할 수 있다. 예컨대, 지정된 각도는 자동으로 또는 사용자에 의해 수동으로 설정될 수 있다.
동작 1307에서, 회전된 각도가 지정된 각도보다 크거나 같으면, 전자 장치(201)는 제1방향으로 표시되는 아바타를 제2방향으로 회전시킬 수 있다.
동작 1309에서, 회전된 각도가 지정된 각도보다 작으면, 전자 장치(201)는 아바타를 제1방향으로 유지하여 표시할 수 있다.
한편, 상술한 동작들 각각은 프로세서(예컨대, 도 1의 프로세서(120), 도 2의 프로세서(220), 또는 이미지 신호 프로세서(image signal processor(ISP)))에 의해 수행될 수 있다.
도 14는, 다양한 실시 예에 따른, 전자 장치가 아바타를 제공하는 동작을 설명하기 위한 도면이다.
도 14의 (a)를 참조하면, 전자 장치(1401)(예컨대, 도 2의 전자 장치(201))는 얼굴 인식 영역(1410)에 아바타의 얼굴(1420)을 표시할 수 있다. 전자 장치(1401)는 아바타의 몸통(1425)을 아바타의 얼굴(1420)의 목 부분에 연결할 수 있다. 아바타의 몸통(1425)의 위치는 전자 장치(1401)의 제1면에 고정시킬 수 있다.
도 14의 (b)를 참조하면, 전자 장치(1401)가 지정된 각도(예컨대, 45도)보다 작은 각도(예컨대, 30도)만큼 회전하면, 전자 장치(1401)는, 전자 장치(1401)의 회전에 따라, 전자 장치(1401)의 제1면에 고정된 아바타의 몸통(1425)을 회전시킬 수 있다. 아바타의 얼굴(1420)은, 전자 장치(1401)가 회전된 방향으로, 회전하지 않을 수 있다. 예컨대, 얼굴 인식 영역(1410)과 얼굴 인식 영역(1410)에 표시되는 아바타의 얼굴(1420)은, 회전된 아바타의 몸통(1425)과 어색하지 않도록 전자 장치(1401)가 회전된 방향과 반대 방향으로 회전될 수 있다.
도 14의 (c)를 참조하면, 전자 장치(1401)가 지정된 각도(예컨대, 45도)보다 큰 각도(예컨대 60도)만큼 회전하면, 전자 장치(1401)는, 전자 장치(1401)의 회전에 따라, 아바타의 몸통(1425)을 회전시킬 수 있다. 아바타의 몸통(1425)의 위치는 전자 장치(1401)의 제2면에 고정시킬 수 있다. 얼굴 인식 영역(1410)과 얼굴 인식 영역(1410)에 표시되는 아바타의 얼굴(1420)은, 회전된 아바타의 몸통(1425)과 어색하지 않도록 전자 장치(1401)가 회전된 방향으로 회전될 수 있다.
도 14의 (d)를 참조하면, 전자 장치(1401)가 지정된 각도(예컨대, 45도)보다 큰 각도(예컨대 90도)만큼 회전하면, 전자 장치(1401)는, 전자 장치(1401)의 회전에 따라, 아바타의 얼굴(1420)과 아바타의 몸통(1425)을 회전시켜 표시할 수 있다. 예컨대, 도 14의 (d)에 도시된 아바타는 도 14의 (a)에 도시된 아바타보다 90도 만큼 회전될 수 있다.
도 15는, 다양한 실시 예에 따른, 전자 장치가 아바타를 제공하는 동작을 설명하기 위한 플로우 차트이다.
도 15를 참조하면, 전자 장치(201)(예컨대, 도 2의 전자 장치(201))는 사용자의 얼굴이 포함된 복수의 이미지들을 획득할 수 있다.
동작 1501에서, 전자 장치(201)는 복수의 이미지들 중 기준이 제1이미지를 이용하여 아바타를 생성할 수 있다. 예컨대, 전자 장치(201)는 제1이미지에 포함된 복수의 특징점들을 이용하여 아바타를 생성할 수 있다. 전자 장치(201)는, 생성된 아바타를 디스플레이(260)(예컨대, 도 2의 디스플레이(260))에 표시할 수 있다. 전자 장치(201)는 제1이미지에 포함된 복수의 특징점들을 사용자의 얼굴 표정의 변화를 판단하기 위한 기준 특징점들로 설정할 수 있다. 전자 장치(201)는 제1이미지와 제2이미지 각각에 포함된 복수의 특징점들 사이의 변화(또는 변화량)에 따라 아바타의 표정을 변경시킬 수 있다.
동작 1503에서, 전자 장치(201)는, 사용자의 얼굴을 인식할 수 없을 수 있다. 또는, 전자 장치(201)는, 사용자의 얼굴을 인식하는 동작의 오류가 발생할 수 있다. 예컨대, 전자 장치(201)는, 사용자의 얼굴을 포함하는 이미지에서 특징점들을 정확하게 판단할 수 없으면, 사용자의 얼굴 및/또는 얼굴의 표정 변화를 인식할 수 없다. 또는, 전자 장치(201)는, 사용자의 얼굴이 얼굴 인식 영역을 벗어나는 경우, 사용자의 얼굴 및/또는 얼굴의 표정 변화를 인식할 수 없다.
사용자의 얼굴을 정확하게 인식할 수 없으면, 아바타의 표정의 오인식이 강조될 수 있다. 동작 1505에서, 전자 장치(201)는, 기존에 표시되던 아바타 대신 제1이미지에 포함된 복수의 특징점들을 이용하여 렌더링된 아바타를 표시할 수 있다.
다양한 실시 예에 따라, 전자 장치(201)는 제1이미지에 포함된 사용자의 얼굴과 상이한 사용자의 얼굴을 포함하는 제3이미지가 수신되면, 기준 특징점들을 이용하여 렌더링된 아바타를 표시할 수 있다. 이때, 전자 장치(201)는 기존의 제1이미지에 포함된 얼굴의 표정 변화를 트래킹하지 않을 수 있다.
동작 1507에서, 전자 장치(201)는 제4이미지를 통해 다시 사용자의 얼굴의 복수의 특징점들을 확인할 수 있으면, 상기 제4이미지에 포함된 복수의 특징점들을 기준 특징점들로 생성(또는 설정)할 수 있다. 예컨대, 전자 장치(201)는 제3이미지가 수신된 후 다시 기존의 사용자의 얼굴을 포함하는 제4이미지가 수신되면, 제4이미지에 포함된 복수의 특징점들을 새로운 기준 특징점으로 재설정할 수 있다.
한편, 상술한 동작들 각각은 프로세서(예컨대, 도 1의 프로세서(120), 도 2의 프로세서(220), 또는 이미지 신호 프로세서(image signal processor(ISP)))에 의해 수행될 수 있다.
도 16a부터 도 16d는, 다양한 실시 예에 따른, 전자 장치가 아바타를 제공하는 동작을 설명하기 위한 도면이다.
도 16a를 참조하면, 전자 장치(1601)(예컨대, 도 2의 전자 장치(201))는, 사용자의 얼굴(1620)이 얼굴 인식 영역(1610)에 위치하면, 사용자의 얼굴(1620)에 포함된 복수의 특징점들을 이용하여 사용자의 얼굴(1620)에 대응하는 아바타(1630)를 표시할 수 있다. 이때, 전자 장치(1601)는 사용자의 얼굴(1620)에 포함된 복수의 특징점들을 기준 특징점들로 설정할 수 있다.
도 16b를 참조하면, 전자 장치(1601)는, 사용자의 얼굴(1620)이 얼굴 인식 영역(1610)을 벗어나면, 사용자의 얼굴(1620)에 포함된 복수의 특징점들을 확인할 수 없다. 전자 장치(1601)는, 복수의 특징점들을 확인할 수 없어, 사용자의 얼굴(1620)의 표정 변화를 정확하게 판단할 수 없고, 아바타의 표정을 정확하게 변화시킬 수 없다. 예컨대, 전자 장치(1601)는 사용자의 얼굴(1620)의 표정이 불명확하게 반영된 아바타(1631)를 표시할 수 있다. 이때, 전자 장치(1601)는 사용자의 얼굴(1620)의 표정 변화를 트래킹하는 동작을 중단할 수도 있다.
도 16c를 참조하면, 전자 장치(1601)는, 사용자의 얼굴(1620)이 얼굴 인식 영역(1610)을 벗어나면, 기준 특징점들을 이용하여 렌더링된 아바타(1630)를 얼굴 인식 영역(1610)에 표시할 수 있다. 예컨대, 전자 장치(1601)는, 아바타(1631)를 표시하는 프레임(예컨대, N번째 프레임)의 다음 순서의 프레임(예컨대, N+1번째 프레임)에 아바타(1630)를 표시할 수 있다.
도 16d를 참조하면, 전자 장치(1601)는, 사용자의 얼굴(1620)이 얼굴 인식 영역(1610)에 다시 위치하면, 사용자의 얼굴(1620)에 포함된 복수의 특징점들을 이용하여 사용자의 얼굴(1620)에 대응하는 새로운 아바타(1640)를 표시할 수 있다. 예컨대, 전자 장치(1601)는 사용자의 얼굴(1620)에 포함된 복수의 특징점들을 분석하여 새로운 기준 특징점들을 결정할 수 있다. 전자 장치(1601)는 새로운 기준 특징점들을 기준으로 사용자의 얼굴(1620)의 표정 변화를 트래킹할 수 있다.
본 발명의 다양한 실시 예에 따른 전자 장치는, 카메라, 디스플레이, 및 프로세서를 포함하고, 상기 프로세서는, 상기 카메라를 이용하여, 사용자의 얼굴에 대응하는 제1이미지와 제2이미지를 포함하는 복수의 이미지들을 획득하고, 모션과 관련된 모델 정보를 포함하는 하나 이상의 3차원 아바타들 중 선택된 제1아바타를 상기 디스플레이에 표시하고, 상기 제1이미지에 포함된 상기 얼굴에 대응하는 복수의 제1특징점들 중 적어도 일부 특징점과 상기 제2이미지에 포함된 상기 얼굴에 대응하는 복수의 제2특징점들 중 적어도 일부 특징점 사이의 변화량을 판단하고, 상기 변화량에 적어도 기반하여, 상기 적어도 일부 특징점에 대응하는 상기 제1아바타의 모션과 관련된 복수의 기준 모델들 중 적어도 일부 기준 모델에 대한 가중치를 결정하고, 및 상기 가중치와 상기 복수의 기준 모델들에 기초한 상기 모션이 수행된 상기 제1아바타를 상기 디스플레이에 표시하도록 설정될 수 있다.
상기 프로세서는, 상기 제1이미지에 포함된 상기 적어도 일부 특징점을 기준으로 상기 제2이미지에 포함된 상기 적어도 일부 특징점 각각의 변화량에 기초하여 상기 적어도 일부 기준 모델 각각의 가중치를 결정하도록 설정될 수 있다.
상기 프로세서는, 상기 변화량에 따라 상기 일부 모델 각각의 가중치를 상기 적어도 일부 기준 모델 각각에 반영하고, 상기 가중치가 반영된 상기 일부 기준 모델들을 합하여 상기 얼굴의 표정을 가지는 아바타를 표시하도록 설정될 수 있다.
상기 프로세서는, 상기 복수의 특징점들 각각은, 상기 얼굴의 지정된 영역일 수 있다.
상기 프로세서는, 상기 제1이미지에 포함된 상기 복수의 제1특징점들을 이용하여 아바타를 생성하도록 설정될 수 있다.
상기 프로세서는, 상기 제1이미지에 포함된 상기 제1복수의 특징점들을 상기 얼굴의 표정 변화 여부를 판단하기 위한 기준 특징점들로 결정하도록 설정될 수 있다.
상기 프로세서는, 상기 카메라를 통해 상기 얼굴의 상기 제1복수의 특징점들이 확인되지 않으면, 상기 기준 특징점들을 이용하여 렌더링된 아바타를 표시하도록 설정될 수 있다.
상기 프로세서는, 상기 제1이미지에 포함된 상기 얼굴과 상이한 얼굴을 포함하는 제3이미지가 수신되면, 상기 기준 특징점들을 이용하여 렌더링된 아바타를 표시하도록 설정될 수 있다.
상기 프로세서는, 상기 제3이미지가 수신된 후, 상기 카메라를 통해 상기 얼굴을 포함하는 제4이미지가 수신되면, 상기 제4이미지에 포함된 상기 얼굴에 대응하는 복수의 특징점들을 새로운 기준 특징점들로 결정하도록 설정될 수 있다.
상기 프로세서는, 상기 제1아바타는 얼굴 영역과 몸통 영역을 포함하고, 상기 변화량에 기초하여 상기 얼굴 영역을 회전하여 표시하도록 설정될 수 있다.
상기 프로세서는, 상기 몸통 영역은 상기 디스플레이의 제1면 방향으로 고정하여 표시하도록 설정될 수 있다.
상기 프로세서는, 상기 전자 장치가 지정된 각도 이상으로 회전하면, 제1방향으로 표시되는 상기 제1아바타를 제2방향으로 표시하도록 설정될 수 있다.
상기 프로세서는, 상기 하나 이상의 아바타들 중 상기 제1아바타와 다른 제2아바타는, 상기 변화량에 따라, 상기 제1아바타와 상이한 표정 변경 정도를 적용하도록 설정될 수 있다.
본 발명의 다양한 실시 예에 따른 전자 장치의 동작 방법은, 상기 전자 장치의 카메라를 이용하여, 사용자의 얼굴에 대응하는 제1이미지와 제2이미지를 포함하는 복수의 이미지들을 획득하는 동작, 모션과 관련된 모델 정보를 포함하는 하나 이상의 3차원 아바타들 중 선택된 제1아바타를 상기 전자 장치의 디스플레이에 표시하는 동작, 상기 제1이미지에 포함된 상기 얼굴에 대응하는 복수의 제1특징점들 중 적어도 일부 특징점과 상기 제2이미지에 포함된 상기 얼굴에 대응하는 복수의 제2특징점들 중 적어도 일부 특징점 사이의 변화량을 판단하는 동작, 상기 변화량에 적어도 기반하여, 상기 적어도 일부 특징점에 대응하는 상기 제1아바타의 모션과 관련된 복수의 기준 모델들 중 적어도 일부 기준 모델에 대한 가중치를 결정하는 동작, 및 상기 가중치와 상기 복수의 기준 모델들에 기초한 상기 모션이 수행된 상기 제1아바타를 상기 디스플레이에 표시하는 동작을 포함할 수 있다.
상기 가중치를 결정하는 동작은, 상기 제1이미지에 포함된 상기 적어도 일부 특징점을 기준으로 상기 제2이미지에 포함된 상기 적어도 일부 특징점 각각의 변화량에 기초하여 상기 적어도 일부 기준 모델 각각의 가중치를 결정하는 동작을 포함할 수 있다.
상기 모션이 수행된 상기 제1아바타를 표시하는 동작은, 상기 변화량에 따라 상기 일부 기준 모델 각각의 가중치를 상기 적어도 일부 기준 모델 각각에 반영하고, 상기 가중치가 반영된 상기 일부 기준 모델을 합하여 상기 얼굴의 표정을 가지는 상기 제1아바타를 표시하는 동작을 포함할 수 있다.
상기 전자 장치의 동작 방법은, 상기 제1이미지에 포함된 상기 제1복수의 특징점들을 이용하여 상기 제1아바타를 생성하는 동작을 더 포함할 수 있다.
상기 전자 장치의 동작 방법은, 상기 제1이미지에 포함된 상기 얼굴의 상기 제1복수의 특징점들을 상기 얼굴의 표정 변화 여부를 판단하기 위한 기준 특징점들로 결정하는 동작, 및 상기 카메라를 통해 상기 제1복수의 특징점들이 확인되지 않으면, 상기 기준 특징점들을 이용하여 렌더링된 아바타를 표시하는 동작을 더 포함할 수 있다.
상기 전자 장치의 동작 방법은, 상기 변화량에 기초하여 상기 제1아바타의 얼굴 영역을 회전하여 표시하고, 상기 제1아바타의 몸통 영역은 상기 디스플레이의 제1면 방향으로 고정하여 표시하는 동작을 더 포함할 수 있다.
본 발명의 다양한 실시 예에 따른 컴퓨터로 판독할 수 있는 기록 매체는, 전자 장치의 카메라를 이용하여, 사용자의 얼굴에 대응하는 제1이미지와 제2이미지를 포함하는 복수의 이미지들을 획득하는 동작, 모션과 관련된 모델 정보를 포함하는 하나 이상의 3차원 아바타들 중 선택된 제1아바타를 상기 전자 장치의 디스플레이에 표시하는 동작, 상기 제1이미지에 포함된 상기 얼굴에 대응하는 복수의 제1특징점들 중 적어도 일부 특징점과 상기 제2이미지에 포함된 상기 얼굴에 대응하는 복수의 제2특징점들 중 적어도 일부 특징점 사이의 변화량을 판단하는 동작, 상기 변화량에 적어도 기반하여, 상기 적어도 일부 특징점에 대응하는 상기 제1아바타의 모션과 관련된 복수의 기준 모델들 중 적어도 일부 기준 모델에 대한 가중치를 결정하는 동작, 및 상기 가중치와 상기 복수의 기준 모델들에 기초한 상기 모션이 수행된 상기 제1아바타를 상기 디스플레이에 표시하는 동작을 실행하는 프로그램을 저장할 수 있다.
상기 전자 장치의 전술한 구성요소들 각각은 하나 또는 그 이상의 부품(component)으로 구성될 수 있으며, 해당 구성 요소의 명칭은 전자 장치의 종류에 따라서 달라질 수 있다. 다양한 실시 예에서, 전자 장치는 전술한 구성요소 중 적어도 하나를 포함하여 구성될 수 있으며, 일부 구성요소가 생략되거나 또는 추가적인 다른 구성요소를 더 포함할 수 있다. 또한, 다양한 실시 예에 따른 전자 장치의 구성 요소들 중 일부가 결합되어 하나의 개체(entity)로 구성됨으로써, 결합되기 이전의 해당 구성 요소들의 기능을 동일하게 수행할 수 있다.
그리고 본 문서에 개시된 실시 예는 개시된, 기술 내용의 설명 및 이해를 위해 제시된 것이며, 본 개시의 범위를 한정하는 것은 아니다. 따라서, 본 개시의 범위는, 본 개시의 기술적 사상에 근거한 모든 변경 또는 다양한 다른 실시 예를 포함하는 것으로 해석되어야 한다.
201: 전자 장치
210: 카메라
220: 프로세서
222: 얼굴 특징 획득 모듈
224: 아바타 생성 모듈
226: 매퍼 모듈
228: 렌더링 모듈
230: 메모리
260: 디스플레이
280: 통신 모듈

Claims (20)

  1. 전자 장치에 있어서,
    카메라;
    디스플레이; 및
    프로세서를 포함하고, 상기 프로세서는,
    상기 카메라를 이용하여, 사용자의 얼굴에 대응하는 제1이미지와 제2이미지를 포함하는 복수의 이미지들을 획득하고,
    모션과 관련된 모델 정보를 포함하는 하나 이상의 3차원 아바타들 중 선택된 제1아바타를 상기 디스플레이에 표시하고,
    상기 제1이미지에 포함된 상기 얼굴에 대응하는 복수의 제1특징점들 중 적어도 일부 특징점과 상기 제2이미지에 포함된 상기 얼굴에 대응하는 복수의 제2특징점들 중 적어도 일부 특징점 사이의 변화량을 판단하고,
    상기 변화량에 적어도 기반하여, 상기 적어도 일부 특징점에 대응하는 상기 제1아바타의 모션과 관련된 복수의 기준 모델들 중 적어도 일부 기준 모델의 각각에 대한 가중치를 결정하고, 상기 복수의 기준 모델들의 적어도 일부의 각각은 상기 제1아바타의 복수의 상이한 모션들 각각에 관련되며,
    상기 가중치와 상기 복수의 기준 모델들에 기초한 상기 모션이 수행된 상기 제1아바타를 상기 디스플레이에 표시하고,
    상기 복수의 제1특징점들 사이의 제1거리와 상기 복수의 제2특징점들 사이의 제2거리 사이의 차이에 기초하여 상기 제1아바타의 크기를 조정하도록 설정되며,
    상기 프로세서는,
    상기 제2이미지에 포함된 상기 복수의 제2특징점들 사이의 상기 제2거리가 상기 제1이미지에 포함된 상기 복수의 제1특징점들에 대해 미리 지정된 비율로 좁아질 때, 상기 제1아바타의 크기를 축소하고,
    상기 제2이미지에 포함된 상기 복수의 제2특징점들 사이의 상기 제2거리가 상기 제1이미지에 포함된 상기 복수의 제1특징점들에 대해 미리 지정된 비율로 넓어질 때, 상기 제1아바타의 크기를 확대하도록 더 설정되고,
    상기 프로세서는, 상기 전자 장치가 지정된 각도보다 작은 각도로 회전하면, 상기 제1아바타의 몸통이 상기 전자 장치의 제1면에 대해 고정된 상태에서 상기 제1아바타의 얼굴을 상기 전자 장치의 회전 방향과 반대인 방향으로 회전하여 표시하고,
    상기 프로세서는, 상기 전자 장치가 상기 지정된 각도보다 큰 각도로 회전하면, 상기 제1아바타의 몸통을 상기 전자 장치의 제2면에 대해 고정시킨 상태에서 상기 제1아바타의 얼굴을 상기 전자 장치의 회전 방향으로 회전하여 표시하도록 설정되고,
    상기 프로세서는, 상기 하나 이상의 3차원 아바타들 중 제2아바타가 선택되면, 상기 가중치를 상기 제2아바타에 따라 상이하게 조절함으로써, 상기 제2아바타에 상기 제1 아바타에 반영된 상기 변화량과 다른 상이한 표정 변경 정도를 적용하도록 설정된, 전자 장치.
  2. 제1항에 있어서, 상기 프로세서는,
    상기 제1이미지에 포함된 상기 적어도 일부 특징점을 기준으로 상기 제2이미지에 포함된 상기 적어도 일부 특징점 각각의 변화량에 기초하여 상기 복수의 기준 모델들 각각의 가중치를 결정하도록 설정된, 전자 장치.
  3. 제2항에 있어서, 상기 프로세서는,
    상기 변화량에 따라 상기 복수의 기준 모델들 각각의 가중치를 상기 복수의 기준 모델들 각각에 반영하고, 상기 가중치가 반영된 상기 복수의 기준 모델들을 합하여 상기 얼굴의 표정을 가지는 아바타를 표시하도록 설정된, 전자 장치.
  4. 제1항에 있어서, 상기 프로세서는,
    상기 복수의 제1특징점들 각각은, 상기 얼굴의 지정된 영역인, 전자 장치.
  5. 제1항에 있어서, 상기 프로세서는,
    상기 제1이미지에 포함된 상기 복수의 제1특징점들을 이용하여 아바타를 생성하도록 설정된 전자 장치.
  6. 제5항에 있어서, 상기 프로세서는,
    상기 제1이미지에 포함된 상기 복수의 제1특징점들을 상기 얼굴의 표정 변화 여부를 판단하기 위한 기준 특징점들로 결정하도록 설정된, 전자 장치.
  7. 제6항에 있어서, 상기 프로세서는,
    상기 카메라를 통해 상기 얼굴의 상기 복수의 제1특징점들이 확인되지 않으면, 상기 기준 특징점들을 이용하여 렌더링된 아바타를 표시하도록 설정된, 전자 장치.
  8. 제6항에 있어서, 상기 프로세서는,
    상기 제1이미지에 포함된 상기 얼굴과 상이한 얼굴을 포함하는 제3이미지가 수신되면, 상기 기준 특징점들을 이용하여 렌더링된 아바타를 표시하도록 설정된 전자 장치.
  9. 제8항에 있어서, 상기 프로세서는,
    상기 제3이미지가 수신된 후, 상기 카메라를 통해 상기 얼굴을 포함하는 제4이미지가 수신되면, 상기 제4이미지에 포함된 상기 얼굴에 대응하는 복수의 특징점들을 새로운 기준 특징점들로 결정하도록 설정된 전자 장치.
  10. 삭제
  11. 삭제
  12. 삭제
  13. 삭제
  14. 전자 장치의 동작 방법에 있어서,
    상기 전자 장치의 카메라를 이용하여, 사용자의 얼굴에 대응하는 제1이미지와 제2이미지를 포함하는 복수의 이미지들을 획득하는 동작;
    모션과 관련된 모델 정보를 포함하는 하나 이상의 3차원 아바타들 중 선택된 제1아바타를 상기 전자 장치의 디스플레이에 표시하는 동작;
    상기 제1이미지에 포함된 상기 얼굴에 대응하는 복수의 제1특징점들 중 적어도 일부 특징점과 상기 제2이미지에 포함된 상기 얼굴에 대응하는 복수의 제2특징점들 중 적어도 일부 특징점 사이의 변화량을 판단하는 동작;
    상기 변화량에 적어도 기반하여, 상기 적어도 일부 특징점에 대응하는 상기 제1아바타의 모션과 관련된 복수의 기준 모델들 중 적어도 일부 기준 모델의 각각에 대한 가중치를 결정하는 동작, 상기 복수의 기준 모델들의 적어도 일부의 각각은 상기 제1아바타의 복수의 상이한 모션들 각각에 관련되며; 및
    상기 가중치와 상기 복수의 기준 모델들에 기초한 상기 모션이 수행된 상기 제1아바타를 상기 디스플레이에 표시하는 동작을 포함하며,
    상기 제1아바타의 크기는 상기 복수의 제1특징점들 사이의 제1거리와 상기 복수의 제2특징점들 사이의 제2거리 사이의 차이에 기초하여 조정되며,
    상기 제1 아바타를 상기 디스플레이에 표시하는 동작은,
    상기 제2이미지에 포함된 상기 복수의 제2특징점들 사이의 상기 제2거리가 상기 제1이미지에 포함된 상기 복수의 제1특징점들에 대해 미리 지정된 비율로 좁아질 때, 상기 제1아바타의 크기를 축소하는 동작; 및
    상기 제2이미지에 포함된 상기 복수의 제2특징점들 사이의 상기 제2거리가 상기 제1이미지에 포함된 상기 복수의 제1특징점들에 대해 미리 지정된 비율로 넓어질 때, 상기 제1아바타의 크기를 확대하는 동작을 포함하고,
    상기 전자 장치의 동작 방법은,
    상기 전자 장치가 지정된 각도보다 작은 각도로 회전하면, 상기 제1아바타의 몸통이 상기 전자 장치의 제1면에 대해 고정된 상태에서 상기 제1아바타의 얼굴을 상기 전자 장치의 회전 방향과 반대인 방향으로 회전하여 표시하는 동작;
    상기 전자 장치가 상기 지정된 각도보다 큰 각도로 회전하면, 상기 제1아바타의 몸통을 상기 전자 장치의 제2면에 대해 고정시킨 상태에서 상기 제1아바타의 얼굴을 상기 전자 장치의 회전 방향으로 회전하여 표시하는 동작; 및
    상기 하나 이상의 3차원 아바타들 중 제2아바타가 선택되면, 상기 가중치를 상기 제2아바타에 따라 상이하게 조절함으로써, 상기 제2아바타에 상기 제1 아바타에 반영된 상기 변화량과 다른 상이한 표정 변경 정도를 적용하는 동작을 더 포함하는, 전자 장치의 동작 방법.
  15. 제14항에 있어서, 상기 가중치를 결정하는 동작은,
    상기 제1이미지에 포함된 상기 적어도 일부 특징점을 기준으로 상기 제2이미지에 포함된 상기 적어도 일부 특징점 각각의 변화량에 기초하여 상기 복수의 기준 모델들 각각의 가중치를 결정하는 동작을 포함하는 전자 장치의 동작 방법.
  16. 제15항에 있어서, 상기 모션이 수행된 상기 제1아바타를 표시하는 동작은,
    상기 변화량에 따라 상기 복수의 기준 모델들 각각의 가중치를 상기 복수의 기준 모델 각각에 반영하고, 상기 가중치가 반영된 상기 복수의 기준 모델을 합하여 상기 얼굴의 표정을 가지는 상기 제1아바타를 표시하는 동작을 포함하는 전자 장치의 동작 방법.
  17. 제14항에 있어서,
    상기 제1이미지에 포함된 상기 복수의 제1특징점들을 이용하여 상기 제1아바타를 생성하는 동작을 더 포함하는 전자 장치의 동작 방법.
  18. 제17항에 있어서,
    상기 제1이미지에 포함된 상기 얼굴의 상기 복수의 제1특징점들을 상기 얼굴의 표정 변화 여부를 판단하기 위한 기준 특징점들로 결정하는 동작; 및
    상기 카메라를 통해 상기 복수의 제1특징점들이 확인되지 않으면, 상기 기준 특징점들을 이용하여 렌더링된 아바타를 표시하는 동작을 더 포함하는 전자 장치의 동작 방법.
  19. 삭제
  20. 전자 장치의 카메라를 이용하여, 사용자의 얼굴에 대응하는 제1이미지와 제2이미지를 포함하는 복수의 이미지들을 획득하는 동작;
    모션과 관련된 모델 정보를 포함하는 하나 이상의 3차원 아바타들 중 선택된 제1아바타를 상기 전자 장치의 디스플레이에 표시하는 동작;
    상기 제1이미지에 포함된 상기 얼굴에 대응하는 복수의 제1특징점들 중 적어도 일부 특징점과 상기 제2이미지에 포함된 상기 얼굴에 대응하는 복수의 제2특징점들 중 적어도 일부 특징점 사이의 변화량을 판단하는 동작;
    상기 변화량에 적어도 기반하여, 상기 적어도 일부 특징점에 대응하는 상기 제1아바타의 모션과 관련된 복수의 기준 모델들 중 적어도 일부 기준 모델의 각각에 대한 가중치를 결정하는 동작, 상기 복수의 기준 모델들의 적어도 일부의 각각은 상기 제1아바타의 복수의 상이한 모션들 각각에 관련되며;
    상기 가중치와 상기 복수의 기준 모델들에 기초한 상기 모션이 수행된 상기 제1아바타를 상기 디스플레이에 표시하는 동작;
    상기 전자 장치가 지정된 각도보다 작은 각도로 회전하면, 상기 제1아바타의 몸통이 상기 전자 장치의 제1면에 대해 고정된 상태에서 상기 제1아바타의 얼굴을 상기 전자 장치의 회전 방향과 반대인 방향으로 회전하여 표시하는 동작;
    상기 전자 장치가 상기 지정된 각도보다 큰 각도로 회전하면, 상기 제1아바타의 몸통을 상기 전자 장치의 제2면에 대해 고정시킨 상태에서 상기 제1아바타의 얼굴을 상기 전자 장치의 회전 방향으로 회전하여 표시하는 동작; 및
    상기 하나 이상의 3차원 아바타들 중 제2아바타가 선택되면, 상기 가중치를 상기 제2아바타에 따라 상이하게 조절함으로써, 상기 제2아바타에 상기 제1 아바타에 반영된 상기 변화량과 다른 상이한 표정 변경 정도를 적용하는 동작을 실행하며,
    상기 제1아바타의 크기는 상기 복수의 제1특징점들 사이의 제1거리와 상기 복수의 제2특징점들 사이의 제2거리 사이의 차이에 기초하여 조정되며,
    상기 제1 아바타를 상기 디스플레이에 표시하는 동작은,
    상기 제2이미지에 포함된 상기 복수의 제2특징점들 사이의 상기 제2거리가 상기 제1이미지에 포함된 상기 복수의 제1특징점들에 대해 미리 지정된 비율로 좁아질 때, 상기 제1아바타의 크기를 축소하는 동작; 및
    상기 제2이미지에 포함된 상기 복수의 제2특징점들 사이의 상기 제2거리가 상기 제1이미지에 포함된 상기 복수의 제1특징점들에 대해 미리 지정된 비율로 넓어질 때, 상기 제1아바타의 크기를 확대하는 동작을 포함하는, 프로그램을 저장한 컴퓨터로 판독할 수 있는 비 일시적 기록 매체.
KR1020180022259A 2018-02-23 2018-02-23 얼굴의 특징점의 움직임에 따라 모션이 수행된 아바타를 표시하는 전자 장치와 이의 동작 방법 KR102565755B1 (ko)

Priority Applications (4)

Application Number Priority Date Filing Date Title
KR1020180022259A KR102565755B1 (ko) 2018-02-23 2018-02-23 얼굴의 특징점의 움직임에 따라 모션이 수행된 아바타를 표시하는 전자 장치와 이의 동작 방법
US16/282,798 US11055889B2 (en) 2018-02-23 2019-02-22 Electronic device displaying avatar motion-performed as per movement of facial feature point and method for operating same
PCT/KR2019/002289 WO2019164373A1 (en) 2018-02-23 2019-02-25 Electronic device displaying avatar motion-performed as per movement of facial feature point and method for operating same
EP19757176.3A EP3692504B1 (en) 2018-02-23 2019-02-25 Electronic device displaying avatar motion-performed as per movement of facial feature point and method for operating same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020180022259A KR102565755B1 (ko) 2018-02-23 2018-02-23 얼굴의 특징점의 움직임에 따라 모션이 수행된 아바타를 표시하는 전자 장치와 이의 동작 방법

Publications (2)

Publication Number Publication Date
KR20190101834A KR20190101834A (ko) 2019-09-02
KR102565755B1 true KR102565755B1 (ko) 2023-08-11

Family

ID=67685949

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180022259A KR102565755B1 (ko) 2018-02-23 2018-02-23 얼굴의 특징점의 움직임에 따라 모션이 수행된 아바타를 표시하는 전자 장치와 이의 동작 방법

Country Status (4)

Country Link
US (1) US11055889B2 (ko)
EP (1) EP3692504B1 (ko)
KR (1) KR102565755B1 (ko)
WO (1) WO2019164373A1 (ko)

Families Citing this family (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8584031B2 (en) 2008-11-19 2013-11-12 Apple Inc. Portable touch screen device, method, and graphical user interface for using emoji characters
US9940637B2 (en) 2015-06-05 2018-04-10 Apple Inc. User interface for loyalty accounts and private label accounts
US10445425B2 (en) 2015-09-15 2019-10-15 Apple Inc. Emoji and canned responses
US11580608B2 (en) 2016-06-12 2023-02-14 Apple Inc. Managing contact information for communication applications
DK179978B1 (en) 2016-09-23 2019-11-27 Apple Inc. IMAGE DATA FOR ENHANCED USER INTERACTIONS
DK179867B1 (en) 2017-05-16 2019-08-06 Apple Inc. RECORDING AND SENDING EMOJI
KR102435337B1 (ko) 2017-05-16 2022-08-22 애플 인크. 이모지 레코딩 및 전송
US10867161B2 (en) * 2017-09-06 2020-12-15 Pixart Imaging Inc. Auxiliary filtering device for face recognition and starting method for electronic device
DK180078B1 (en) 2018-05-07 2020-03-31 Apple Inc. USER INTERFACE FOR AVATAR CREATION
US12033296B2 (en) 2018-05-07 2024-07-09 Apple Inc. Avatar creation user interface
US11107261B2 (en) 2019-01-18 2021-08-31 Apple Inc. Virtual avatar animation based on facial feature movement
DK201970530A1 (en) 2019-05-06 2021-01-28 Apple Inc Avatar integration with multiple applications
CN110827378B (zh) * 2019-10-31 2023-06-09 北京字节跳动网络技术有限公司 虚拟形象的生成方法、装置、终端及存储介质
KR102136311B1 (ko) * 2020-01-03 2020-07-21 주식회사 젤리펀치 스마트 미러 양방향 인터랙티브 인포메이션 시스템
CN111369428B (zh) * 2020-03-09 2023-07-21 北京百度网讯科技有限公司 虚拟头像生成方法和装置
US11921998B2 (en) 2020-05-11 2024-03-05 Apple Inc. Editing features of an avatar
US11271830B2 (en) * 2020-06-28 2022-03-08 Salesforce.Com, Inc. Conversational BOTs platform
KR20220018760A (ko) * 2020-08-07 2022-02-15 삼성전자주식회사 단말에 3d 캐릭터 이미지를 제공하는 엣지 데이터 네트워크 및 그 동작 방법
GB2606344A (en) * 2021-04-28 2022-11-09 Sony Interactive Entertainment Europe Ltd Computer-implemented method and system for generating visual adjustment in a computer-implemented interactive entertainment environment
US11714536B2 (en) * 2021-05-21 2023-08-01 Apple Inc. Avatar sticker editor user interfaces
US12026816B2 (en) 2021-07-12 2024-07-02 Samsung Electronics Co., Ltd. Method for providing avatar and electronic device supporting the same
US11822716B2 (en) * 2021-07-26 2023-11-21 Apple Inc. Directing a virtual agent based on eye behavior of a user
US20240096033A1 (en) * 2021-10-11 2024-03-21 Meta Platforms Technologies, Llc Technology for creating, replicating and/or controlling avatars in extended reality
KR102553432B1 (ko) * 2021-11-30 2023-07-10 (주) 키글 아바타 얼굴 생성 시스템
KR102544261B1 (ko) * 2022-05-02 2023-06-16 (주)이브이알스튜디오 끈적임이 반영된 입술 움직임을 나타내는 3d 이미지를 제공하는 전자 장치의 제어 방법
KR102493882B1 (ko) * 2022-08-31 2023-02-01 주식회사 에이펀인터렉티브 영상 분석을 이용한 메타버스 캐릭터 제작 시스템
KR102550207B1 (ko) * 2022-09-23 2023-06-30 주식회사 볼드 광고용 캐릭터 제작 시스템

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004094917A (ja) * 2002-07-08 2004-03-25 Toshiba Corp 仮想化粧装置及びその方法
US20150213604A1 (en) * 2013-06-04 2015-07-30 Wenlong Li Avatar-based video encoding
US20160042548A1 (en) * 2014-03-19 2016-02-11 Intel Corporation Facial expression and/or interaction driven avatar apparatus and method

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5802220A (en) 1995-12-15 1998-09-01 Xerox Corporation Apparatus and method for tracking facial motion through a sequence of images
US6307576B1 (en) 1997-10-02 2001-10-23 Maury Rosenfeld Method for automatically animating lip synchronization and facial expression of animated characters
US6272231B1 (en) 1998-11-06 2001-08-07 Eyematic Interfaces, Inc. Wavelet-based facial motion capture for avatar animation
AU2001281335A1 (en) 2000-07-24 2002-02-05 Vidiator Enterprises, Inc. Method and system for generating an avatar animation transform using a neutral face image
JP4449723B2 (ja) 2004-12-08 2010-04-14 ソニー株式会社 画像処理装置、画像処理方法、およびプログラム
KR101348521B1 (ko) 2005-09-16 2014-01-06 플릭서, 인크. 비디오의 개인화
DE102006008874B4 (de) * 2006-02-21 2012-06-21 Ing. Erich Pfeiffer Gmbh Dosiervorrichtung mit einer manuell betätigbaren Pumpeinrichtung
JP4950787B2 (ja) * 2007-07-12 2012-06-13 株式会社東芝 画像処理装置及びその方法
JP2012181704A (ja) * 2011-03-01 2012-09-20 Sony Computer Entertainment Inc 情報処理装置および情報処理方法
US9013489B2 (en) * 2011-06-06 2015-04-21 Microsoft Technology Licensing, Llc Generation of avatar reflecting player appearance
US9262869B2 (en) 2012-07-12 2016-02-16 UL See Inc. Method of 3D model morphing driven by facial tracking and electronic device using the method the same
US9811649B2 (en) * 2014-11-13 2017-11-07 Intel Corporation System and method for feature-based authentication

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004094917A (ja) * 2002-07-08 2004-03-25 Toshiba Corp 仮想化粧装置及びその方法
US20150213604A1 (en) * 2013-06-04 2015-07-30 Wenlong Li Avatar-based video encoding
US20160042548A1 (en) * 2014-03-19 2016-02-11 Intel Corporation Facial expression and/or interaction driven avatar apparatus and method

Also Published As

Publication number Publication date
US20190266775A1 (en) 2019-08-29
US11055889B2 (en) 2021-07-06
WO2019164373A1 (en) 2019-08-29
EP3692504A4 (en) 2020-11-18
KR20190101834A (ko) 2019-09-02
EP3692504B1 (en) 2024-06-19
EP3692504A1 (en) 2020-08-12

Similar Documents

Publication Publication Date Title
KR102565755B1 (ko) 얼굴의 특징점의 움직임에 따라 모션이 수행된 아바타를 표시하는 전자 장치와 이의 동작 방법
EP4199529A1 (en) Electronic device for providing shooting mode based on virtual character and operation method thereof
US11069115B2 (en) Method of controlling display of avatar and electronic device therefor
KR102664710B1 (ko) 외부 객체의 위치의 변화에 따라 외부 객체에 대응하는 아바타를 표시하기 위한 전자 장치
US10007349B2 (en) Multiple sensor gesture recognition
KR102663906B1 (ko) 아바타를 생성하기 위한 전자 장치 및 그에 관한 방법
US9165381B2 (en) Augmented books in a mixed reality environment
KR102659357B1 (ko) 아바타 애니메이션을 제공하기 위한 전자 장치 및 그에 관한 방법
US11630511B2 (en) Determining gaze direction to generate augmented reality content
KR102499354B1 (ko) 디스플레이를 통해 표시된 제 1 콘텐트에 대해 제 2 콘텐트를 외부 객체의 움직임에 따라 제공하기 위한 전자 장치 및 그의 동작 방법
CN113569614A (zh) 虚拟形象生成方法、装置、设备及存储介质
EP3570144A1 (en) Electronic device for providing vr/ar content
KR20200028771A (ko) 사용자 의도 기반 제스처 인식 방법 및 장치
US11403848B2 (en) Electronic device and method for generating augmented reality object
WO2023250361A1 (en) Generating user interfaces displaying augmented reality graphics
CN117321543A (zh) 减少增强现实体验的启动时间
KR102646684B1 (ko) 전자 장치 및 컨텐츠를 생성하는 방법
US20240073402A1 (en) Multi-perspective augmented reality experience
US20240280355A1 (en) Joint bending estimation
KR20210012562A (ko) 아바타를 제공하는 전자 장치 및 그의 동작 방법
KR20200127312A (ko) 홀로그래피 영상을 이용하는 옷의 쇼핑 장치 및 방법
KR20210086812A (ko) 동영상 처리 방법 및 이를 지원하는 전자 장치
KR20220032343A (ko) 전자 장치 및 전자 장치에서 인 에어 제스처를 처리하는 방법
KR20200116195A (ko) 홀로그래피 영상을 이용하는 옷의 쇼핑 장치 및 방법
KR20200115967A (ko) 홀로그래피 영상을 이용하는 옷의 쇼핑 장치 및 방법

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E90F Notification of reason for final refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant