KR102089473B1 - 안면 모델 편집 방법 및 장치 - Google Patents

안면 모델 편집 방법 및 장치 Download PDF

Info

Publication number
KR102089473B1
KR102089473B1 KR1020187025694A KR20187025694A KR102089473B1 KR 102089473 B1 KR102089473 B1 KR 102089473B1 KR 1020187025694 A KR1020187025694 A KR 1020187025694A KR 20187025694 A KR20187025694 A KR 20187025694A KR 102089473 B1 KR102089473 B1 KR 102089473B1
Authority
KR
South Korea
Prior art keywords
face
facial
manipulated
model
editing
Prior art date
Application number
KR1020187025694A
Other languages
English (en)
Other versions
KR20180108799A (ko
Inventor
샤오멍 리
치앙 왕
Original Assignee
텐센트 테크놀로지(센젠) 컴퍼니 리미티드
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 텐센트 테크놀로지(센젠) 컴퍼니 리미티드 filed Critical 텐센트 테크놀로지(센젠) 컴퍼니 리미티드
Publication of KR20180108799A publication Critical patent/KR20180108799A/ko
Application granted granted Critical
Publication of KR102089473B1 publication Critical patent/KR102089473B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04812Interaction techniques based on cursor appearance or behaviour, e.g. being affected by the presence of displayed objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/75Determining position or orientation of objects or cameras using feature-based methods involving models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/22Cropping
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2219/00Indexing scheme for manipulating 3D models or images for computer graphics
    • G06T2219/20Indexing scheme for editing of 3D models
    • G06T2219/2012Colour editing, changing, or manipulating; Use of colour codes

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Computer Hardware Design (AREA)
  • Computer Graphics (AREA)
  • Software Systems (AREA)
  • Architecture (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Processing Or Creating Images (AREA)
  • Image Processing (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

본 출원은 안면 모델 편집 방법 및 장치를 개시한다. 상기 안면 모델 편집 방법은, 표시된 안면 모델에서 커서의 위치를 검출하는 단계 - 상기 표시된 안면 모델은 복수의 안면 부위를 포함함 -; 상기 위치에 따라 상기 복수의 안면 부위 중 조작될 안면 부위를 결정하는 단계; 상기 조작될 안면 부위에 대한 선택 조작을 검출하는 단계; 상기 조작될 안면 부위에 대한 획득된 편집 조작에 응답하여 상기 조작될 안면 부위를 편집하는 단계; 및 편집된 상기 조작될 안면 부위를 상기 안면 모델에 표시하는 단계를 포함한다.

Description

안면 모델 편집 방법 및 장치
관련 출원
본 출원은 2016년 3월 10일자로 중국 특허청에 출원된 "안면 모델 편집 방법 및 장치(FACIAL MODEL EDITING METHOD AND APPARATUS)"라는 명칭의 중국 특허출원 제201610136300.1호의 우선권을 주장하며, 그 내용 전부는 인용에 의해 본 출원에 포함된다.
본 출원은 컴퓨터 분야에 관한 것으로, 구체적으로는 안면 모델 편집 방법 및 장치에 관한 것이다.
현재, 종래의 안면 모델 편집 프로세스는 대개 제어기 내의 서로 다른 슬라이드 블록의 위치를 진행 바에서 조절함으로써 구현된다. 예를 들어, 안면 모델에서 눈 부위를 편집하는 경우, 눈 부위에 대응하는 상당히 긴 제어 목록에서, 진행 바에서 서로 다른 슬라이드 블록의 위치가 순차적으로 드래그되고 조정되어, 눈 부위에 대한 모든 편집을 완료하는 것이 요구되는 경우가 종종있다. 이러한 방식으로, 플레이어는 커서로 선택되는 것이 부위에 대응하는 슬라이드 블록을 조정하는 것임을 보장해야 할 뿐만 아니라, 편집 프로세스에서 안면의 실제 변화 효과를 확인해야 한다.
즉, 종래의 안면 모델 편집 방식을 사용하면, 안면과 슬라이드 블록 사이의 전환이 끊임없이 수행되어야 하고, 편집 프로세스가 직관적이지 않으며, 편집 조작이 번거롭다. 결과적으로, 조작 복잡도 및 개발 난이도가 증가한다.
본 출원의 실시예는, 적어도 종래의 안면 모델 편집 방법의 사용에 기인하는 편집 조작의 복잡도가 비교적 높은 기술적인 문제를 해결하기 위해, 안면 모델 편집 방법 및 장치를 제공한다.
본 출원의 실시예에 따르면, 안면 모델 편집 방법이 제공되며, 상기 안면 모델 편집 방법은,
표시된 안면 모델(facial model)에서 커서의 위치를 검출하는 단계 - 상기 표시된 안면 모델은 복수의 안면 부위(facial position)를 포함함 -;
상기 위치에 따라 상기 복수의 안면 부위 중 조작될 안면 부위를 결정하는 단계;
상기 조작될 안면 부위에 대한 선택 조작을 검출하는 단계;
상기 조작될 안면 부위에 대한 획득된 편집 조작에 응답하여 상기 조작될 안면 부위를 편집하는 단계; 및
편집된 상기 조작될 안면 부위를 상기 안면 모델에 표시하는 단계를 포함한다.
본 출원의 실시예의 다른 측면에 따르면, 안면 모델 편집 장치가 더 제공되며, 상기 안면 모델 편집 장치는,
표시된 안면 모델에서 커서의 위치를 검출하도록 구성된 제1 검출 유닛 - 상기 표시된 안면 모델은 복수의 안면 부위를 포함함 -;
상기 위치에 따라 상기 복수의 안면 부위 중 조작될 안면 부위를 결정하도록 구성된 결정 유닛;
상기 조작될 안면 부위에 대한 선택 조작을 검출하도록 구성된 제2 검출 유닛;
상기 조작될 안면 부위에 대한 획득된 편집 조작에 응답하여 상기 조작될 안면 부위를 편집하도록 구성된 편집 유닛; 및
편집된 상기 조작될 안면 부위를 상기 안면 모델에 표시하도록 구성된 제1 표시 유닛을 포함한다.
본 출원의 실시예에서는, 단말기에 표시된 안면 모델에서 검출된 커서의 위치에 따라, 안면 모델의 복수의 안면 부위 중 조작될 안면 부위가 결정되고, 조작될 안면 부위에 대한 선택 조작을 검출하고, 조작될 안면 부위에 대한 획득된 편집 조작에 따라 조작될 안면 부위를 편집하여, 편집된, 조작될 안면 부위를 안면 모델에 한다. 즉, 커서의 위치를 검출함으로써, 안면 모델의 복수의 안면 부위에서 선택된 조작될 안면 부위를 결정하여, 조작될 안면 부위에 대해 편집 프로세스를 직접 완료하며, 별도의 제어 리스트에서 조작될 안면 모델에 대응하는 슬라이드 블록을 드래그할 필요가 없다. 따라서, 사용자는 안면 모델에 대한 안면 피킹 편집(facial picking editing)을 직접 수행하여, 안면 모델에 대한 편집 조작을 단순화할 수 있어, 제어 목록에서 안면 모델과 슬라이드 블록 사이를 전환함으로써 야기되는 비교적 높은 조작 복잡도의 문제를 극복할 수 있다.
또한, 편집 조작이 안면 모델에서 안면 부위에 대해 직접 수행되므로, 사용자는 단말기에 표시된 편집 조작 및 편집된, 조작될 안면 부위의 변화 효과를 직관적으로 볼 수 있어, 보이대로 얻는 것을 구현할 수 있다. 따라서 편집 조작이 사용자 요구를 더 잘 충족시킬 수 있다.
여기에 기술되는 첨부도면은 본 출원에 대한 더 나은 이해를 제공하기 위해 사용되고, 본 출원의 일부를 구성하며; 본 출원의 개략적인 실시예 및 그 설명은 본 출원을 설명하기 위해 사용되고, 본 출원에 대해 부적절한 제한을 구성하지 않는다. 도면에서,
도 1은 본 발명의 일 실시예에 따른 안면 모델 편집 방법의 애플리케이션 환경의 개략도이다.
도 2는 본 출원의 일 실시예에 따른 안면 모델 편집 방법의 흐름도이다.
도 3은 본 출원의 일 실시예에 따른 안면 모델 편집 방법의 애플리케이션의 개략도이다.
도 4는 본 출원의 일 실시예에 따른 다른 안면 모델 편집 방법의 애플리케이션의 개략도이다.
도 5는 본 출원의 실시예에 따른 또 다른 안면 모델 편집 방법의 애플리케이션의 개략도이다.
도 6은 본 출원의 실시예에 따른 또 다른 안면 모델 편집 방법의 애플리케이션의 개략도이다.
도 7은 본 출원의 일 실시예에 따른 안면 모델 편집 장치의 개략 구성도이다.
도 8은 본 출원의 일 실시예에 따른 안면 모델 편집 단말기의 하드웨어의 개략 구성도이다.
도 9는 본 출원의 일 실시예에 따른 다른 안면 모델 편집 방법의 애플리케이션의 개략도이다.
도 10은 본 출원의 일 실시예에 따른 또 다른 안면 모델 편집 방법의 애플리케이션의 개략도이다.
도 11은 본 출원의 일 실시예에 따른 또 다른 안면 모델 편집 방법의 애플리케이션의 개략도이다.
해당 기술분야의 당업자가 본 출원의 방안을 더 잘 이해할 수 있도록, 이하에 본 출원의 실시예에서의 첨부도면을 참조하여 본 출원의 실시예에서의 기술적 방안을 명확하고 완전하게 기술한다. 명백히, 기술된 실시예는 단지 본 출원의 실시예 중 일부일 뿐이고 전부는 아니다. 창의적인 노력 없이 당업자가 본 출원의 실시예에 기초하여 획득한 다른 모든 실시예는 본 출원의 보호 범위에 속한다.
본 출원의 명세서 및 청구범위, 및 전술한 첨부 도면에서의 "제1(first)" 및 "제2(second)"라는 용어는 유사한 대상을 구별하기 위해 사용되었지만, 반드시 특정 시퀀스 또는 순서를 기술하기 위해 사용될 필요는 없다. 이해해야 할 것은, 이러한 방식으로 사용된 데이터는 적절한 경우에 상호교환될 수 있어서, 여기에 기술되는 본 출원의 실시예는 여기에 예시되거나 기술되는 시퀀스 이외의 시퀀스로 구현될 수 있다는 것이다. 또한, "포함한다" 및 "갖는다"라는 용어 및 그 변형은, 예를 들어, 일련의 단계 또는 유닛을 포함하는 프로세스, 방법, 시스템, 제품 또는 기기가 그 프로세스, 방법, 시스템, 제품 또는 장치에 명확하게 열거된 단계 또는 유닛으로 한정되어야 하는 것이 아니라, 명확히 열거되어 있지 않거나 내재하는 다는 단계 또는 유닛을 포함할 수도 있는 비배타적인 포함(nonexclusive including)을 커버하도록 의도된다.
본 출원의 실시예에 따르면, 안면 모델 편집 방법의 일 실시예가 제공되며, 안면 모델 편집 방법은 도 1에 도시된 애플리케이션 환경에 적용되는 것일 수 있지만, 이에 한정되는 것은 아니다. 도 1에 도시된 바와 같이, 단말기(102)가 네트워크(104)를 사용하여 서버(106)로부터 안면 모델을 획득한 후, 단말기(102)에 표시된 안면 모델의 커서 위치를 검출하며, 표시된 안면 모델은 복수의 안면 부위를 포함하며; 커서 위치에 따라 복수의 안면 부위 중 조작될 안면 부위를 결정하고; 조작될 안면 부위에 대한 선택 조작을 검출한 후, 조작될 안면 부위에 대한 획득된 편집 조작에 응답하여, 조작될 안면 부위를 편집하고, 편집된, 조작될 안면 부위가 안면 모델에 표시된다. 본 실시예에서, 단말기는 이동 전화, 태블릿 컴퓨터, 노트북 컴퓨터 및 PC 중 적어도 하나를 포함하지만 이에 제한되지는 않는다.
본 출원의 실시예에 따르면, 안면 모델 편집 방법이 제공된다. 도 2에 도시된 바와 같이, 이 안면 모델 편집 방법은 다음 단계를 포함한다.
S202. 표시된 안면 모델에서 커서의 위치를 검출하며, 표시된 안면 모델은 복수의 안면 부위를 포함한다.
S204. 커서의 위치에 따라 복수의 안면 부위의 조작될 안면 부위를 결정한다.
S206. 조작될 안면 부위에 대한 선택 조작을 검출한다.
S208. 조작될 안면 부위에 대한 획득된 편집 조작에 응답하여, 조작될 안면 부위를 편집한다.
S210. 편집된, 조작될 안면 부위를 안면 모델에 표시한다.
본 실시예에서, 안면 모델 편집 방법은 단말기 애플리케이션에서의 캐릭터 역할 생성 프로세스에서 캐릭터 역할(character role)에 대한 대응하는 안면 모델을 편집하는 데 적용되는 것일 수 있지만 이에 한정되는 것은 아니다. 예를 들어, 게임 애플리케이션을 예로 사용하면, 게임 애플리케이션에서의 캐릭터 역할이 플레이어에 대해 생성되는 경우, 조작될 안면 부위는 표시된 안면 모델의 복수의 안면 부위에서 커서의 위치를 검출함으로써 결정될 수 있으며, 조작될 안면 부위에 대한 선택 조작을 검출한 후, 획득된 편집 조작에 응답하여 대응하는 편집 조작이 수행된다.
도 3은 본 출원의 일 실시예에 따른 안면 모델 편집 방법의 애플리케이션의 개략도이다. 도 3에 도시된 바와 같이, 안면 모델에서 눈썹 부위(도 3의 왼쪽에 도시된 점선 프레임 등)는 커서의 위치를 사용하여 선택된다. 그 부위에 대한 편집 조작(회전 조작 등)이 획득된 후, 눈썹 부위가 편집될 수 있으며, 편집된 눈썹 부위(도 3의 오른쪽에 나타낸 점선 프레임 등)는 안면 모델에 표시된다. 따라서, 캐릭터 역할의 안면 모델에 대한 편집 조작이 단순화되고, 편집된 캐릭터 역할이 플레이어에게 신속하고 정확하게 표시된다. 이 설명은 일례일 뿐이며, 본 실시예에 기술된 안면 모델 편집 장치는 모든 유형의 단말기 애플리케이션에 적용 가능하다.
본 실시예에서는, 단말기에 표시된 안면 모델에서 검출된 커서의 위치에 따라, 안면 모델의 복수의 안면 부위 중 조작될 안면 부위를 결정하고, 조작될 안면 부위에 대한 선택 조작이 검출된 후, 조작될 안면 부위에 대한 획득된 편집 조작에 응답하여 조작될 안면 부위를 편집하여, 편집된, 조작될 안면 부위를 안면 모델에 표시한다. 즉, 커서의 위치를 검출함으로써, 안면 모델의 복수의 안면 부위 중에서 선택된 조작될 안면 부위가 결정되므로, 조작될 안면 부위에 대한 편집 처리를 직접 완성할 수 있고, 별도의 제어 리스트에서 조작될 안면 부위에 대응하는 슬라이드를 드래그할 필요가 없다. 따라서 사용자는 안면 모델에 대한 얼굴 피킹 편집을 직접 수행함으로써, 안면 모델에 대한 편집 조작을 단순화하여, 제어 목록에서 안면 모델과 제어 리스트 내의 슬라이드 블록 사이를 전환함으로써 발생하는 비교적 높은 조작 복잡도의 문제를 극복할 수 있다. 또한, 편집 조작이 안면 모델의 안면 부위상에서 직접 수행되므로, 사용자가 단말기에 표시된 편집 조작과 편집된, 조작될 안면 부위의 변화 효과를 직관적으로 볼 수 있어, 보이대로 얻는 것을 구현할 수 있다. 따라서 편집 조작이 사용자 요구를 더 잘 충족시킬 수 있다.
본 실시예에서, 커서의 위치는 화면상에 표시된 마우스의 대응하는 위치를 나타내는 데 사용될 수 있지만 이에 한정되는 것은 아니다.
본 실시예에서, 조작될 안면 부위에 대한 선택 조작을 검출한 경우, 이 안면 모델 편집 방법은 조작될 안면 부위를 구체적으로 표시하는 것을 포함할 수 있지만 이에 한정되는 것은 아니다. 예를 들어, 안면 부위가 하이라이트 표시되거나, 안면 부위상에 음영이 표시된다.
본 실시예에서, 편집하는 것은, 조작될 안면 부위를 이동시키는 것; 조작될 안면 부위를 회전시키는 것; 조작될 안면 부위를 확대하는 것; 및 조작될 안면 축소하는 것 중 적어도 하나를 포함할 수 있다.
본 실시예에서, 커서의 위치에 따라 복수의 안면 부위 중 조작될 안면 부위를 결정하는 것은,
상기 위치상의 화소의 색상 값을 획득하는 것; 및
색상 값에 대응하는, 복수의 안면 부위 중 조작될 안면 부위를 결정하는 것을 포함한다.
본 실시예에서, 상기 위치상의 화소의 색상 값을 획득하는 것은, 마스크 맵(mask map)에서 상기 위치에 대응하는 화소의 색상 값을 획득하는 것을 포함할 수 있지만 이에 한정되는 것은 아니며, 여기서 마스크 맵은 안면 모델 위에 라미네이팅되고(laminated), 마스크 맵은 복수의 안면 부위와 일대일 대응관계에 있는 복수의 마스크 영역을 포함하고, 각각의 마스크 영역은 하나의 안면 부위에 대응하며, 여기서 화소의 색상 값은 화소의 적색 값, 화소의 녹색 값 및 화소의 청색 값 중 하나를 포함할 수 있다.
본 실시예에서, 안면 모델 위에 라미네이팅된 마스크 맵상의 각각의 마스크 영역은 안면 모델상의 하나의 안면 부위에 대응한다. 즉, 커서를 사용하여 안면 모델상에 라미네이팅된 마스크 맵상의 마스크 영역을 선택하는 경우, 안면 모델에서 대응하는 안면 부위를 선택할 수 있어, 안면 모델상의 안면 부위를 직접 편집할 수 있고, 편집 조작을 간소화할 수 있다.
예를 들어, 본 실시예에서, 마스크 맵은 다음의 코드를 사용하여 구성될 수 있지만, 다음의 코드를 사용하여 구성되는 것에 한정되는 것은 아니다:
float4 maskColor = tex2D(FacialMaskSampler,param.uv0);
float maskR = maskColor.r*255.0f;
float alpha = 0;
if(IsValEqual(SelectedAreaColor, maskR))
{
alpha += FacialMaskParams.y;
}
float4 finalColor = float4(0,2,5,alpha*2.5f*maskColor.b);
여기서 maskColor.r은 적색 채널을 나타내는 데 사용되고, maskColor.b는 청색 채널을 나타내는 데 사용된다.
또한, 본 실시예에서, 마스크 맵 내의 각각의 마스크 영역과 대응하는 화소의 색상 값 사이의 매핑관계는 미리 설정될 수 있지만 미리 설정된 것에 한정되지는 않는다. 예를 들어, 표 1에 나타낸 안면 모델의 코는 구체적으로 6개의 부위를 포함하고, 각각의 부위에 대해 하나의 적색 값(R 색상 값을 사용하여 표시됨)이 설정되고, 오류를 피하기 위해, 예를 들어 값은 적어도 10 단위로 서로 다를 수 있지만 이에 한정되는 것은 아니다.
[표 1]
Figure 112018088210035-pct00001
즉, 복수의 안면 부위 중, 색상 값에 대응하는 조작될 안면 부위를 결정하는 것은 다음을 포함할 수 있지만 이에 한정되는 것은 아니다: 마스크 맵에서 커서의 위치에 대응하는 화소의 색상 값을 획득한 후, 매핑 관계를 조회하여 그 화소의 색상 값에 대응하는 마스크 영역을 획득한 다음, 그 마스크 영역에 대응하는 조작될 안면 부위를 획득할 수 있다.
본 실시예에서, 표시된 안면 모델에서 커서의 위치는 화소 피킹(pixel picking)을 위한 안면 피킹 기술을 사용하여 검출될 수 있지만, 화소 피킹을 위한 안면 피킹 기술을 사용하여 검출되는 것에 한정되는 것은 아니다. 화소 피킹은 모델 객체가 단위(unit)로서 사용되는 피킹 기술이며, 디스플레이 화면상의 커서에 의해 선택 또는 클릭된 가상 객체가 검출되고 커서가 가상 객체와 상호작용하는 방법이다. 가상 객체는 대응하는 안면 모델에서의 안면 부위일 수 있지만, 이에 한정되는 것은 아니다.
본 실시예에서, 하나의 식별자(identifier, ID)가 각각의 가상 객체(즉, 안면 부위)에 대해 설정되고, 모든 피킹 가능한 가상 객체가 하나의 렌더 타깃(render target)상에 그려지며, 여기서 ID는 상수 레지스터에 의해 도입된다. 마지막으로 GetRenderTarget()(즉, Direct3D에서의 하나의 함수)을 사용하여 커서의 현재 위치의 부위의 ID가 획득된다.
본 실시예에서, 표시된 안면 모델에서 커서의 위치를 검출하기 전에, 이 안면 모델 편집 방법은, 안면 모델 및 생성된 마스크 맵을 표시하는 것을 더 포함할 수 있으며, 여기서 마스크 맵은 안면 모델 위에 라미네이팅되도록 설정된다.
안면 모델을 획득하는 프로세스는 다음과 같을 수 있다:
안면 피킹 시스템이 실제로 맵 색상에 민감한 피킹 방법이며, 이는 다음과 같은 핵심 HLSL 코드를 사용하여 구현된다:
result.color0=tex2D(FacialMaskSampler,param.uv0);
result.color0.gb= param.uv0.xy;
floatdepth=EncodeFloatToRGBA8(param.homoDepth.x/param.homoDepth.y);
result.color1 =float4(1.0f, 1.0f, 0, depth);//magic code marking for facial model map
화면상에 표시된 안면 모델은 다음의 코드를 사용하여 획득된다:
tex2D(FacialMaskSampler,param.uv0);
result.color1 =float4(1.0f, 1.0f, 0, depth).
하나의 검증 코드(verification code)가 화면 내의 화소 각각에 대해 설정되고, 그 화소이 안면 모델에 속하는지의 여부가 검증 코드를 사용하여 검증된다. 얼굴 인식 모델에 따라 확인 코드를 준수하는 화소((1.0,1.0,0)과 동일)만 처리된다.
EncodingColorData(queryData,maskCode);
If(maskCode.r==0xff &&
maskCode.g==0xff &&
maskCode.b==0)
{
mDepthSelted=maskCode.a;
mIsPickingVaild=true;
}
스크린상의 커서의 위치 및 화면의 현재 해상도를 검출함으로써, 커서의 위치에서 사용자에 의해 선택된 화소가 계산된다.
본 출원에 제공된 본 실시예에서는, 단말기에 표시된 안면 모델에서 검출된 커서의 위치에 따라, 안면 모델의 복수의 안면 부위 중 조작될 안면 부위가 결정되고, 조작될 안면 부위에 대한 선택 조작이 검출된 후, 조작될 안면 부위에 대한 획득된 편집 조작에 응답하여 조작될 안면 부위가 편집되어, 편집된 조작될 안면 부를 안면 모델에 표시한다. 즉, 커서의 위치를 검출함으로써, 얼굴 모델의 복수의 얼굴 부위 중에서 선택된 조작될 안면 부위가 결정되므로, 조작될 안면 부위에 대한 편집 프로세스를 직접 완성할 수 있으며, 조작될 안면 부위에 대응하는 슬라이드 블록을 별도의 제어 리스트에서 드래그할 필요가 없다. 따라서, 사용자는 안면 모델에 대한 얼굴 피킹 편집을 직접 수행할 수 있어, 안면 모델에 대한 편집 조작을 단순화할 수 있고, 안면 모델과 제어 목록 내의 슬라이드 블록 사이를 전환함으로써 발생하는 비교적 높은 조작 복잡도의 문제를 극복할 수 있다.
본 출원의 본 실시예에서, 위치에 따라 복수의 안면 부위 중 조작될 안면 부위를 결정하는 것은,
그 위치상의 화소의 색상 값을 획득하는 것; 및
색상 값에 대응하는, 복수의 안면 부위 중 조작될 안면 부위를 결정하는 것을 포함한다.
본 실시예에서, 화소의 색상 값은 마스크 맵에서 커서의 위치에 대응하는 화소의 색상 값일 수 있지만 이에 한정되는 것은 아니다. 마스크 맵은 안면 모델 위에 라미네이팅되고, 마스크 맵은 복수의 안면 부위와 일대일 대응관계에 있는 복수의 마스크 영역을 포함하고, 각각의 마스크 영역은 하나의 안면 부위에 대응한다.
본 실시예에서, 마스크 맵에서 커서의 위치에 대응하는 화소의 색상 값은 적색 채널의 색상 값 및 청색 채널의 색상 값을 포함 할 수 있지만, 이에 한정되는 것은 아니다. 화소의 색상 값은 화소의 적색 값, 화소의 녹색 값 및 화소의 청색 값 중 하나를 포함할 수 있지만 이에 한정되는 것은 아니다.
본 실시예에서, 적색 채널의 색상 값에 의해 형성된 안면은 도 4에 도시된 것일 수 있으며(이미지는 적색으로 표시되어야 함), 상이한 음영은 상이한 레벨의 적색을 나타내고, 좌측의 사선으로 채운 영역(left-hand twill filling area)의 색상은 웨이브 포인트로 채운 영역(wave point filling area)의 색상보다 밝고, 웨이브 포인트로 채운 영역의 색상은 횡선으로 채운 영역(cross twill filling area)의 색상보다 밝다. 청색 채널의 색상 값에 의해 형성된 안면은 도 5에 도시된 것일 수 있다(이미지가 청색으로 표시되어야 함).
본 실시예에서, 마스크 맵 내의 각각의 마스크 영역과 대응하는 화소의 색상 값 사이의 매핑 관계는 미리 설정될 수 있지만, 미리 설정된 것에 한정되는 것은 아니다. 따라서, 커서의 위치의 화소의 색상 값을 사용하여, 안면 모델에서 그 색상 값에 대응하는 마스크 영역이 결정된 다음, 복수의 안면 부위 중 조작될 안면 부위가 결정된다.
예를 들어, 표 1을 참조하면, 커서의 위치상의 화소의 획득된 R 색상 값이 200일 때, 미리 설정된 매핑 관계를 검색하여, 대응하는 마스크 영역을 결정할 수 있으며, 그러면 마스크 영역에 대응하는 획득된 조작될 안면 부위는 "콧등(nasal bridge)"이다.
본 출원의 본 실시예에서, 커서의 위치상의 화소의 획득된 색상 값을 사용하여, 복수의 안면 부위 중, 그 색상 값에 대응하는 조작될 안면 부위가 결정된다. 즉, 커서의 위치상의 화소의 색상 값을 사용하여 조작될 안면 부위가 결정되어, 안면 모델에서 안면 부위에 대한 편집 조작을 직접 수행하므로, 편집 조작을 단순화할 수 있다.
본 출원의 본 실시예에서, 위치상의 화소의 색상 값을 획득하는 것은,
마스크 맵에서 그 위치에 대응하는 화소의 색상 값을 획득하는 것을 포함하며, 여기서 마스크 맵은 안면 모델 위에 라미네이팅되고, 마스크 맵은 복수의 안면 부위와 일대일 대응관계에 있는 복수의 마스크 영역을 포함하고, 각각의 마스크 영역은 하나의 안면 부위에 대응하며,
화소의 색상 값은 화소의 적색 값, 화소의 녹색 값 및 화소의 청색 값 중 하나를 포함한다.
구체적으로는, 다음의 예를 참조하여 설명한다. 인체 해부학에 따르면, 하나의 근육 부위 제어 목록은 48개의 뼈에 영향을 미칠 수 있는 근육의 분류에 따라 획득되고, 하나의 적색 값(R 색상 값을 사용하여 표시됨)이 각각의 부위에 대해 설정된다. 오류를 피하기 위해, 값은 최소한 10 단위로 서로 다르다. 또한, 안면 위의 이들 부위의 분포 상황에 따라, 표 2(일부 부위)에 나타낸 바와 같이, 이들 부위에 대응하는 화소의 색상 값을 사용하여 안면 모델에 대응하는 마스크 맵이 획득될 수 있다.
[표 2]
Figure 112018088210035-pct00002
즉, 매핑 관계에 있는 화소의 색상 값에 따라 안면 모델에 대응하는 마스크 맵이 그려질 수 있고, 마스크 맵은 안면 모델 위에 라미네이팅되고, 마스크 맵에 포함된 복수의 마스크 영역은 복수의 안면 부위와 일대일 대응관계에 있다.
본 출원에 제공된 본 실시예에서, 대응하는 화소의 색상 값은 안면 모델 위에 라미네이팅된 마스크 맵을 사용하여 획득되어, 커서의 위치상의 화소의 색상 값을 정확하게 획득하므로, 대응하는 조작될 안면 부위가 그 색상 값에 따라 획득된다.
본 출원의 본 실시예에서, 표시된 안면 모델에서 커서의 위치를 검출하기 전에, 이 안면 모델 편집 방법은,
안면 모델 및 생성된 마스크 맵을 표시하는 것을 더 포함하며, 여기서 마스크 맵은 안면 모델 위에 라미네이팅되도록 설정된다.
구체적으로는, 다음의 예를 참조하여 설명한다. 표시된 안면 모델에서 커서의 위치를 검출하기 전에, 도 6에 도시된 안면 모델 및 생성된 마스크 맵이 단말기 화면상에 표시되며, 여기서 마스크 맵은 안면 모델 위에 라미네이팅되도록 설정된다.
본 출원에 제공된 본 실시예에서는, 표시된 안면 모델에서 커서의 위치를 검출하기 전에, 안면 모델과 생성된 마스크 맵을 결합하여 획득된 이미지가 미리 표시되므로, 커서의 위치가 검출되는 경우, 마스크 맵을 사용하여 대응하는 위치를 직접적으로 신속하게 획득한 다음, 안면 모델의 복수의 안면 부위 중 조작될 안면 부위를 정확하게 획득하므로, 편집 효율을 향상시킬 수 있다.
본 출원의 본 실시예에서, 조작될 안면 부위에 대한 선택 조작이 검출되는 경우, 이 안면 모델 편집 방법은,
안면 모델에서 조작될 안면 부위를 하이라이트 표시한다.
본 실시예에서, 조작될 안면 부위에 대한 선택 조작이 검출되는 경우, 이 안면 모델 편집 방법은 구체적으로 조작될 안면 부위를 표시하는 것을 포함할 수 있지만 이에 한정되는 것은 아니다. 예를 들어, 그 안면 부위가 하이라이트 표시되거나 음영이 그 안면 부위에 표시된다.
본 출원에서 제공된 본 실시예에서는, 조작될 안면 부위를 하이라이트 표시하므로, 사용자가 안면 모델에서 안면 부위에 대해 수행된 편집 조작과 편집된 안면 부위의 변화 효과를 직관적으로 볼 수 있어, 보이대로 얻는 것을 구현할 수 있다. 따라서 편집 조작이 사용자 요구를 더 잘 충족시킬 수 있다.
본 출원의 실시예에서, 조작될 안면 부위에 대한 획득된 편집 조작에 응답하여 조작될 안면 부위를 편집하는 것은,
조작될 안면 부위를 이동시키는 것;
조작될 안면 부위를 회전시키는 것;
조작될 안면 부위를 확대하는 것; 및
조작될 안면 부위를 축소하는 것 중 적어도 하나를 포함한다.
본 실시예에서, 편집을 구현하는 조작 방식은 클릭 및 드래그 중 적어도 하나 이상일 수 있지만, 이에 한정되는 것은 아니다. 즉, 다른 조작 방식의 조합을 사용하여, 조작될 안면 부위에 대한 이동, 회전, 확대, 및 축소 중 적어도 하나의 편집 조작을 수행할 수 있다.
예를 들어, 도 3에 도시된 바와 같이, 클릭에 의해 조작될 부위가 선택되고, 조작될 부위에 대한 회전, 축소 및 이동과 같은 편집 조작이 수행되는 경우, 도 3의 왼쪽에서 도 3의 오른쪽으로의, 도시된 콘텐츠를 편집하는 프로세스가 구현될 수 있다.
본 출원에 제공된 본 실시예에서는, 안면 모델상에서 직접 조작될 안면 부위에 대해 상이한 편집 조작을 수행하여, 편집 조작을 단순화시키고, 편집 효율을 향상시키며, 종래 기술의 조작의 복잡도가 높은 문제를 극복할 수 있다.
전술한 방법 실시예는 간략한 설명을 위해 일련의 동작 조합으로 표현되었지만, 당업자는 몇몇 단계는 본 출원에 따라 다른 시퀀스로 수행되거나 동시에 수행될 수 있기 때문에, 본 출원은 기술된 동작 시퀀스에 한정되지 않는다는 것을 알야 한다. 또한, 당업자는 본 명세서에 기술된 모든 실시예는 바람직한 실시예이고, 관련된 동작 및 모듈이 본 출원에서 반드시 필요한 것은 아니라는 것을 알아야 한다.
이상의 실시예의 설명을 통해, 당업자는 전술한 실시예에 따른 방법이 하드웨어만으로 또는 소프트웨어 및 필요한 범용 하드웨어 플랫폼으로 구현될 수 있다는 것을 이해할 수 있을 것이다. 그러나 대부분의 경,우 소프트웨어와 필요한 범용 하드웨어 플랫폼을 사용하는 것이 바람직하다. 이러한 이해를 바탕으로, 필연적으로 본 출원의 기술적 방안, 또는 선행 기술에 기여하는 부분은 소프트웨어 제품의 형태로 구현 될 수있다. 컴퓨터 소프트웨어 제품은 저장 매체(예를 들어, ROM/RAM, 자기 디스크 또는 광 디스크)에 저장되며, 본 출원의 실시예에 기술된 방법들을 수행하도록 단말 기기(이동 전화, 컴퓨터, 서버, 네트워크 디바이스 등일 수 있음)에 명령하기 위한 여러 명령어를 포함한다.
본 출원의 일 실시예에 따르면, 상기 안면 모델 편집 방법을 구현하도록 구성된 안면 모델 편집 장치가 더 제공된다. 도 7에 도시된 바와 같이,
표시된 안면 모델에서 커서의 위치를 검출하도록 구성된 제1 검출 유닛(702) - 표시된 안면 모델은 복수의 안면 부위를 포함함 -;
위치에 따라 복수의 안면 부위 중 조작될 안면 부위를 결정하도록 구성된 결정 유닛(704);
조작될 안면 부위에 대한 선택 조작을 검출하도록 구성된 제2 검출 유닛(706);
조작될 안면 부위에 대한 획득된 편집 조작에 응답하여 조작될 안면 부위를 편집하도록 구성된 편집 유닛(708); 및
편집된 조작될 안면 부위를 안면 모델에 표시하도록 구성된 제1 표시 유닛(710)을 포함한다.
본 실시예에서, 안면 모델 편집 장치는 단말기 애플리케이션에서의 캐릭터 역할 생성 프로세스에서 캐릭터 역할에 대한 대응하는 안면 모델을 편집하는 데 적용되는 것일 수 있지만, 이에 한정되는 것은 아니다. 예를 들어, 게임 애플리케이션을 예로 사용하면, 게임 애플리케이션에서의 캐릭터 역할이 플레이어에 대해 생성되는 경우, 조작될 안면 부위는 표시된 안면 모델의 복수의 안면 부위에서 커서의 위치를 검출함으로써 결정될 수 있으며, 조작될 안면 부위에 대한 선택 조작을 검출한 후, 획득된 편집 조작에 응답하여 대응하는 편집 조작이 수행된다.
도 3에 도시된 바와 같이, 안면 모델에서 눈썹 부위(도 3의 왼쪽에 도시된 점선 프레임 등)는 커서의 위치를 사용하여 선택된다. 그 부위에 대한 편집 조작(회전 조작 등)이 획득된 후, 눈썹 부위가 편집될 수 있으며, 편집된 눈썹 부위(도 3의 오른쪽에 나타낸 점선 프레임 등)는 안면 모델에 표시된다. 따라서, 캐릭터 역할의 안면 모델에 대한 편집 조작이 단순화되고, 편집된 캐릭터 역할이 플레이어에게 신속하고 정확하게 표시된다. 이 설명은 일례일 뿐이며, 본 실시예에 기술된 안면 모델 편집 장치는 모든 유형의 단말기 애플리케이션에 적용 가능하다.
본 실시예에서는, 단말기에 표시된 안면 모델에서 검출된 커서의 위치에 따라, 안면 모델의 복수의 안면 부위 중 조작될 안면 부위를 결정하고, 조작될 안면 부위에 대한 선택 조작이 검출된 후, 조작될 안면 부위에 대한 획득된 편집 조작에 응답하여 조작될 안면 부위를 편집하여, 편집된, 조작될 안면 부위를 안면 모델에 표시한다. 즉, 커서의 위치를 검출함으로써, 안면 모델의 복수의 안면 부위 중에서 선택된 조작될 안면 부위가 결정되므로, 조작될 안면 부위에 대한 편집 처리를 직접 완성할 수 있고, 별도의 제어 리스트에서 조작될 안면 부위에 대응하는 슬라이드를 드래그할 필요가 없다. 따라서 사용자는 안면 모델에 대한 얼굴 피킹 편집을 직접 수행함으로써, 안면 모델에 대한 편집 조작을 단순화하여, 제어 목록에서 안면 모델과 제어 리스트 내의 슬라이드 블록 사이를 전환함으로써 발생하는 비교적 높은 조작 복잡도의 문제를 극복할 수 있다. 또한, 편집 조작이 안면 모델의 안면 부위상에서 직접 수행되므로, 사용자가 단말기에 표시된 편집 조작과 편집된, 조작될 안면 부위의 변화 효과를 직관적으로 볼 수 있어, 보이대로 얻는 것을 구현할 수 있다. 따라서 편집 조작이 사용자 요구를 더 잘 충족시킬 수 있어, 사용자 경험을 향상시킬 수 있다.
본 실시예에서, 커서의 위치는 화면상에 표시된 마우스의 대응하는 위치를 나타내는 데 사용될 수 있지만 이에 한정되는 것은 아니다.
본 실시예에서, 조작될 안면 부위에 대한 선택 조작을 검출한 경우, 방법은, 조작될 안면 부위를 구체적으로 표시하는 것을 포함할 수 있지만 이에 한정되는 것은 아니다. 예를 들어, 안면 부위가 하이라이트 표시되거나, 안면 부위상에 음영이 표시된다.
본 실시예에서, 편집하는 것은, 조작될 안면 부위를 이동시키는 것; 조작될 안면 부위를 회전시키는 것; 조작될 안면 부위를 확대하는 것; 및 조작될 안면 축소하는 것 중 적어도 하나를 포함할 수 있다.
본 실시예에서, 커서의 위치에 따라 복수의 안면 부위 중 조작될 안면 부위를 결정하는 것은,
상기 위치상의 화소의 색상 값을 획득하는 것; 및
색상 값에 대응하는, 복수의 안면 부위 중 조작될 안면 부위를 결정하는 것을 포함한다.
본 실시예에서, 상기 위치상의 화소의 색상 값을 획득하는 것은, 마스크 맵에서 그 위치에 대응하는 화소의 색상 값을 획득하는 것을 포함할 수 있지만 이에 한정되는 것은 아니며, 여기서 마스크 맵은 안면 모델 위에 라미네이팅되고, 마스크 맵은 복수의 안면 부위와 일대일 대응관계에 있는 복수의 마스크 영역을 포함하고, 각각의 마스크 영역은 하나의 안면 부위에 대응하며, 여기서 화소의 색상 값은 화소의 적색 값, 화소의 녹색 값 및 화소의 청색 값 중 하나를 포함할 수 있다.
본 실시예에서, 안면 모델 위에 라미네이팅된 마스크 맵상의 각각의 마스크 영역은 안면 모델상의 하나의 안면 부위에 대응한다. 즉, 커서를 사용하여 안면 모델상에 라미네이팅된 마스크 맵상의 마스크 영역을 선택하는 경우, 안면 모델에서 대응하는 안면 부위를 선택할 수 있어, 안면 모델상의 안면 부위를 직접 편집할 수 있고, 편집 조작을 간소화할 수 있다.
또한, 본 실시예에서, 마스크 맵 내의 각 마스크 영역과 대응하는 화소의 색상 값 사이의 매핑 관계는 미리 설정될 수 있지만, 미리 설정되는 것에 한정되는 것은 아니다. 예를 들어, 표 3에 나타난 안면 모델의 코는 구체적으로 6개의 부위를 포함하며, 각각의 부위에 대해 하나의 적색 값(R 색상 값을 사용하여 나타냄)이 설정되고, 오류를 방지하기 위해, 예를 들어 값들은 적어로 10 단위로 서로 다를 수 있지만 이에 한정되는 것은 아니다.
[표 3]
Figure 112018088210035-pct00003
즉, 복수의 안면 부위 중, 색상 값에 대응하는 조작될 안면 부위를 결정하는 것은 다음을 포함할 수 있지만 이에 한정되는 것은 아니다: 마스크 맵에서 그 위치에 대응하는 화소의 RGB 색상 값을 획득한 후, 매핑 관계를 조회하여 화소의 색상 값에 대응하는 마스크 영역을 획득한 다음, 그 마스크 영역에 대응하는 조작될 안면 부위를 획득한다.
본 실시예에서, 표시된 안면 모델에서 커서의 위치는 화소 피킹을 위한 안면 피킹 기술을 사용하여 검출될 수 있지만, 화소 피킹을 위한 안면 피킹 기술을 사용하여 검출되는 것에 한정되는 것은 아니다. 화소 피킹은 모델 객체가 단위로서 사용되는 피킹 기술이며, 디스플레이 화면상의 커서에 의해 선택 또는 클릭된 가상 객체가 검출되고 커서가 가상 객체와 상호작용하는 방법이다. 가상 객체는 대응하는 안면 모델에서의 안면 부위일 수 있지만 이에 한정되는 것은 아니다.
본 실시예에서, 하나의 식별자(ID)가 각각의 가상 객체(즉, 안면 부위)에 대해 설정되고, 모든 피킹 가능한 가상 객체가 하나의 렌더 타깃상에 그려지며, 여기서 ID는 상수 레지스터에 의해 도입된다. 마지막으로 GetRenderTarget()(즉, Direct3D에서의 하나의 함수)을 사용하여 커서의 현재 위치의 부위의 ID가 획득된다.
본 실시예에서, 표시된 안면 모델에서 커서의 위치를 검출하기 전에, 이 방법은, 안면 모델 및 생성된 마스크 맵을 표시하는 것을 더 포함할 수 있으며, 여기서 마스크 맵은 안면 모델 위에 라미네이팅되도록 설정된다.
안면 모델을 획득하는 프로세스는 다음과 같을 수 있다:
안면 피킹 시스템이 실제로 맵 색상에 민감한 피킹 방법이며, 이는 다음과 같은 핵심 HLSL 코드를 사용하여 구현된다:
result.color0=tex2D(FacialMaskSampler,param.uv0);
result.color0.gb=param.uv0.xy;
floatdepth=EncodeFloatToRGBA8(param.homoDepth.x/param.homoDepth.y);
result.color1 =float4(1.0f, 1.0f, 0, depth);//magic code marking for facial model map
화면에 표시된 안면 모델은 다음 코드를 사용하여 획득된다:
tex2D(FacialMaskSampler,param.uv0);
result.color1 =float4(1.0f, 1.0f, 0, depth).
하나의 검증 코드(verification code)가 화면 내의 화소 각각에 대해 설정되고, 그 화소이 안면 모델에 속하는지의 여부가 검증 코드를 사용하여 검증된다. 얼굴 인식 모델에 따라 확인 코드를 준수하는 화소((1.0,1.0,0)과 동일)만 처리된다.
EncodingColorData(queryData,maskCode);
If(maskCode.r==0xff &&
maskCode.g==0xff &&
maskCode.b==0)
{
mDepthSelted=maskCode.a;
mIsPickingVaild=true;
}
스크린상의 커서의 위치 및 화면의 현재 해상도를 검출함으로써, 커서의 위치에서 사용자에 의해 선택된 화소가 계산된다.
본 출원에 제공된 본 실시예에서는, 단말기에 표시된 안면 모델에서 검출된 커서의 위치에 따라, 안면 모델의 복수의 안면 부위 중 조작될 안면 부위가 결정되고, 조작될 안면 부위에 대한 선택 조작이 검출된 후, 조작될 안면 부위에 대한 획득된 편집 조작에 응답하여 조작될 안면 부위가 편집되어, 편집된 조작될 안면 부를 안면 모델에 표시한다. 즉, 커서의 위치를 검출함으로써, 얼굴 모델의 복수의 얼굴 부위 중에서 선택된 조작될 안면 부위가 결정되므로, 조작될 안면 부위에 대한 편집 프로세스를 직접 완성할 수 있으며, 조작될 안면 부위에 대응하는 슬라이드 블록을 별도의 제어 리스트에서 드래그할 필요가 없다. 따라서, 사용자는 안면 모델에 대한 얼굴 피킹 편집을 직접 수행할 수 있어, 안면 모델에 대한 편집 조작을 단순화할 수 있고, 안면 모델과 제어 목록 내의 슬라이드 블록 사이를 전환함으로써 발생하는 비교적 높은 조작 복잡도의 문제를 극복할 수 있다.
본 출원의 본 실시예에서, 결정 유닛은,
상기 위치상의 화소의 색상 값을 획득하도록 구성된 획득 모듈; 및
색상 값에 대응하는, 복수의 안면 부위 중 조작될 안면 부위를 결정하도록 구성된 결정 모듈을 포함한다.
본 실시예에서, 화소의 색상 값은 마스크 맵에서 커서의 위치에 대응하는 화소의 색상 값일 수 있지만 이에 한정되는 것은 아니다. 마스크 맵은 안면 모델 위에 라미네이팅되고, 마스크 맵은 복수의 안면 부위와 일대일 대응관계에 있는 복수의 마스크 영역을 포함하고, 각각의 마스크 영역은 하나의 안면 부위에 대응한다.
본 실시예에서, 마스크 맵에서 커서의 위치에 대응하는 화소의 색상 값은 적색 채널의 색상 값 및 청색 채널의 색상 값을 포함 할 수 있지만 이에 한정되는 것은 아니다. 화소의 색상 값은 화소의 적색 값, 화소의 녹색 값 및 화소의 청색 값 중 하나를 포함할 수 있지만 이에 한정되는 것은 아니다.
본 실시예에서, 적색 채널의 색상 값에 의해 형성된 안면은 도 4에 도시된 것일 수 있으며(이미지는 적색으로 표시되어야 함), 상이한 음영은 상이한 레벨의 적색을 나타내고, 좌측의 사선으로 채운 영역의 색상은 웨이브 포인트로 채운 영역의 색상보다 밝고, 웨이브 포인트로 채운 영역의 색상은 횡선으로 채운 영역의 색상보다 밝다. 청색 채널의 색상 값에 의해 형성된 안면은 도 5에 도시된 것일 수 있다(이미지가 청색으로 표시되어야 함).
본 실시예에서, 마스크 맵 내의 각각의 마스크 영역과 대응하는 화소의 색상 값 사이의 매핑 관계는 미리 설정될 수 있지만, 미리 설정된 것에 한정되는 것은 아니다. 따라서, 커서의 위치의 화소의 색상 값을 사용하여, 안면 모델에서 그 색상 값에 대응하는 마스크 영역이 결정된 다음, 복수의 안면 부위 중 조작될 안면 부위가 결정된다.
예를 들어, 표 3을 참조하면, 커서의 위치상의 화소의 획득된 R 색상 값이 200인 경우, 미리 설정된 매핑 관계를 검색하여, 대응하는 마스크 영역을 결정할 수 있으며, 그 후 마스크 영역에 대응하는 획득된 조작될 안면 부위는 "콧등"이다.
본 출원의 본 실시예에서, 커서의 위치상의 화소의 획득된 색상 값을 사용하여, 복수의 안면 부위 중, 그 색상 값에 대응하는 조작될 안면 부위가 결정된다. 즉, 커서의 위치상의 화소의 색상 값을 사용하여 조작될 안면 부위가 결정되어, 안면 모델에서 안면 부위에 대한 편집 조작을 직접 수행하므로, 편집 조작을 단순화할 수 있다.
본 출원의 본 실시예에서, 획득 모듈은,
마스크 맵에서 상기 위치에 대응하는 화소의 색상 값을 획득하도록 구성된 획득 서브모듈을 포함하고, 여기서 마스크 맵은 안면 모델 위에 라미네이팅되고, 마스크 맵은 복수의 안면 부위와 일대일 대응관계에 있는 복수의 마스크 영역을 포함하고, 각각의 마스크 영역은 하나의 안면 부위에 대응하며,
화소의 색상 값은 화소의 적색 값, 화소의 녹색 값 및 화소의 청색 값 중 하나를 포함한다.
구체적으로는, 다음의 예를 참조하여 설명한다. 인체 해부학에 따르면, 하나의 근육 부위 제어 목록은 48개의 뼈에 영향을 미칠 수 있는 근육의 분류에 따라 획득되고, 각각의 부위에 대해 하나의 적색 값(R 색상 값을 사용하여 표시됨)이 설정된다. 오류를 피하기 위해, 값은 최소한 10 단위로 서로 다르다. 또한, 안면 위의 이들 부위의 분포 상황에 따라, 표 2(일부 부위)에 나타낸 바와 같이, 이들 부위에 대응하는 화소의 색상 값을 사용하여 안면 모델에 대응하는 마스크 맵이 획득될 수 있다.
[표 4]
Figure 112018088210035-pct00004
즉, 매핑 관계에 있는 화소의 색상 값에 따라 안면 모델에 대응하는 마스크 맵이 그려질 수 있고, 마스크 맵은 안면 모델 위에 라미네이팅되고, 마스크 맵에 포함된 복수의 마스크 영역은 복수의 안면 부위와 일대일 대응관계에 있다.
본 출원에 제공된 본 실시예에서, 대응하는 화소의 색상 값은 안면 모델 위에 라미네이팅된 마스크 맵을 사용하여 획득되어, 커서의 위치상의 화소의 색상 값을 정확하게 획득하므로, 대응하는 조작될 안면 부위가 그 색상 값에 따라 획득된다.
본 출원의 실시예에서, 안면 모델 편집 장치는,
표시된 안면 모델에서 커서의 위치를 검출하기 전에, 안면 모델 및 생성된 마스크 맵을 표시하도록 구성된 제2 표시 유닛을 더 포함하고, 여기서 마스크 맵은 안면 모델 위에 라미네이팅되도록 설정된다.
구체적으로는, 다음의 예를 참조하여 설명한다. 표시된 안면 모델에서 커서의 위치를 검출하기 전에, 도 6에 도시된 안면 모델 및 생성된 마스크 맵이 단말기 화면상에 표시되며, 여기서 마스크 맵은 안면 모델 위에 라미네이팅되도록 설정된다.
본 출원에 제공된 본 실시예에서는, 표시된 안면 모델에서 커서의 위치를 검출하기 전에, 안면 모델과 생성된 마스크 맵을 결합하여 획득된 이미지가 미리 표시되므로, 커서의 위치가 검출되는 경우, 마스크 맵을 사용하여 대응하는 위치를 직접 신속하게 획득한 다음, 안면 모델의 복수의 안면 부위 중 조작될 안면 부위를 정확하게 획득하므로, 편집 효율을 향상시킬 수 있다.
본 출원의 실시예에서, 이 안면 모델 편집 장치는,
조작될 안면 부위에 대한 선택 조작이 검출되는 경우, 안면 모델에 조작될 안면 부위를 하이라이트 표시하도록 구성된 제3 표시 유닛을 더 포함한다.
본 실시예에서, 조작될 안면 부위에 대한 선택 조작이 검출되는 경우, 이 방법은 구체적으로 조작될 안면 부위를 표시하는 것을 포함할 수 있지만 이에 한정되는 것은 아니다. 예를 들어, 그 안면 부위가 하이라이트 표시되거나 그 안면 부위에 음영이 표시된다.
본 출원에서 제공된 본 실시예에서는, 조작될 안면 부위를 하이라이트 표시하므로, 사용자가 안면 모델에서 안면 부위에 대해 수행된 편집 조작과 편집된 안면 부위의 변화 효과를 직관적으로 볼 수 있어, 보이대로 얻는 것을 구현할 수 있다. 따라서 편집 조작이 사용자 요구를 더 잘 충족시킬 수 있어, 사용자 경험을 향상시킬 수 있다.
본 출원의 본 실시예에서, 편집 유닛은,
조작될 안면 부위를 이동시키도록 구성된 제1 편집 모듈;
조작될 안면 부위를 회전시키도록 구성된 제2 편집 모듈;
조작될 안면 부위를 확대하도록 구성된 제3 편집 모듈; 및
조작될 안면 부위를 축소하도록 구성된 제4 편집 모듈 중 적어도 하나를 포함한다.
본 실시예에서, 편집을 구현하는 조작 방식은 클릭 및 드래그 중 적어도 하나 이상일 수 있지만 이에 한정되는 것은 아니다. 즉, 다른 조작 방식의 조합을 사용하여, 조작될 안면 부위에 대한 이동, 회전, 확대, 및 축소 중 적어도 하나의 편집 조작을 수행할 수 있다.
예를 들어, 도 3에 도시된 바와 같이, 클릭에 의해 조작될 부위가 선택되고, 조작될 부위에 대한 회전, 축소 및 이동과 같은 편집 조작이 수행되는 경우, 도 3의 왼쪽에서 도 3의 오른쪽으로의, 도시된 콘텐츠를 편집하는 프로세스가 구현될 수 있다.
본 출원에 제공된 본 실시예에서는, 안면 모델상에서 직접 조작될 안면 부위에 대해 상이한 편집 조작을 수행하여, 편집 조작을 단순화하고, 편집 효율을 향상시키며, 종래 기술에서의 조작의 복잡도가 높은 문제를 극복할 수 있다.
본 출원의 일 실시예에 따르면, 상기 안면 모델 편집 방법을 구현하도록 구성된 안면 모델 편집 단말기가 더 제공된다. 도 8에 도시된 바와 같이, 이 안면 모델 편집 단말기는,
안면 모델을 획득하도록 구성된 통신 인터페이스(802) - 여기서 안면 모델은 복수의 안면 부위를 포함함 -;
통신 인터페이스(802)에 연결되고, 안면 모델을 저장하도록 구성된 메모리(804); 및
통신 인터페이스(802) 및 메모리(804)에 연결되고, 표시된 안면 모델에서 커서의 위치를 검출하도록 구성된 프로세서(806)를 포함하며, 상기 프로세서(806)는 추가로, 상기 위치에 따라 상기 복수의 안면 부위 중 조작될 안면 부위를 결정하고; 조작될 안면 부위에 대한 선택 조작을 검출하고; 조작될 안면 부위에 대한 획득된 편집 조작에 응답하여 조작될 안면 부위를 편집하고; 편집된, 조작될 안면 부위를 안면 모델에 표시하도록 구성된다.
본 출원의 본 실시예에서, 메모리(804)는 제1 검출 명령어, 결정 명령어, 제2 검출 명령어, 편집 명령어, 및 제1 표시 명령어를 포함하는 기계로 판독 가능한 명령어들을 저장하도록 구성된 컴퓨터로 판독 가능한 비휘발성의 저장 매체일 수 있다. 본 출원의 다른 실시예에서, 기계로 판독 가능한 명령어는 제2 표시 명령어 및 제3 표시 명령어를 더 포함한다.
프로세서(806)는 메모리(804)에 저장된 기계로 판독 가능한 명령어를 판독하여, 실시예에서의 안면 모델 편집 방법의 단계들 및 안면 모델 편집 장치의 유닛들의 기능들을 구현하도록 구성된다.
본 실시예에서의 구체적인 예에 대해서는, 안면 모델 편집 방법 및 안면 모델 편집 장치의 실시예에서 기술한 예를 참조한다.
본 출원의 본 실시예는 안면 모델 편집 방법을 구현하는 데 사용되는 애플리케이션 시나리오를 제공하고, 본 실시예의 애플리케이션 환경은 안면 모델 편집 방법 및 안면 모델 편집 장치의 실시예의 그것들과 동일하다.
본 실시예에서, 안면 모델 편집 방법은 게임 캐릭터의 안면의 화장 프로세스(makeup process)에 적용되거나, 또는 게임 캐릭터의 안면의 미용 프로세스(cosmetic process)에 적용될 수 있지만 이에 한정되는 것은 아니다. 예를 들면, 게임 캐릭터의 안면을 더 정교하고 아름답게 하기 위해, 본 실시예에 제공된 안면 모델 편집 방법을 사용하여 게임 캐릭터의 안면을 편집함으로써, 클라이언트에 표시되는 게임 캐릭터의 안면의 정밀도를 향상시킬 수 있다.
본 출원의 실시예에서는, 안면 모델 편집 방법을 게임 캐릭터의 얼굴의 화장 프로세스에 적용한 예를 사용한다. 예를 들어, 게임 캐릭터의 유효 부분을 UV 공간에서 트리밍하여, 트리밍 후에 획득된 안면 영역에 안면 모델 편집 방법을 적용하여, 상이한 안면 모델을 구축한다. 예를 들어, 트리밍 후에 취득된 눈 부위에 대한 복수의 스타일의 눈 화장을 디자인한다. 이러한 방식으로, 도 9에 도시된 바와 같이, 게임 캐릭터의 안면 형태가 구성된 경우, 교체를 위해 (도 9의 오른쪽에 도시된 바와 같이) 안면 기본 맵상의 국소 부위 영역(local position area )에 대해 상이한 화장 모습이 선택될 수 있다. 예를 들어, 제공된 교체 가능한 자원: 눈부분 부위(도 9에 도시된 눈썹)의 화장 모습 크롭 이미지(makeup look cropped image)(도 9의 중앙에 도시된 바와 같은)가 선택된다. 실선 프레임으로 나타낸 화장 모습이 선택되면, 도 9의 왼쪽에 도시된 바와 같이, 게임 캐릭터의 최종 얼굴 형태가 획득될 수 있다. 본 출원의 실시예에서 제공된 방법을 사용함으로써, 게임 캐릭터의 화장 모습이 더욱 다양해질 수 있어, 게임 캐릭터의 역할 형태를 풍부하게 할 수 있다.
국소 부위 영역의 크롭 이미지를 획득하는 구체적인 특정 프로세스는 다음과 같을 수 있다:
DiffuseMap, SpecularMap 및 NormalMap에서의 유효 부분은 2의 N 제곱의 크기(16*16, 32*32, 32*64, 64*128)으로 트리밍되고, 좌표 위치가 기록된다.
레지스트리 구성 :
mMakeupID ="171" (화장 모습의 미술 자원 ID)
<mTexSizeBias v="512"/> <mTexSizeBias v="128"/> (트리밍의 맵 크기)
<mTexSizeBias v="512" <mTexSizeBias v="436" (원래 크기의 맵에서 맵의 ㅅ색인 위치)
레지스트리 구성은 구체적으로:
<mFacialMakeupParts mMakeupID ="171" mMakeupID ="EMP_Eyebrow" mSexualType ="1" mDiffuseFilePath ="F_Eyebrow_0001_D.dds" mSpecFilePath ="F_Eyebrow_0001_S.dds" mNormalFilePath ="F_Eyebrow_0001_N.dds" mIconImage="F_Eyebrow_0001">
<mTexSizeBias IsStaticArray ="1" ArrayCount ="4" [XlsProp] ="0">
<mTexSizeBias v ="512"/>
<mTexSizeBias v ="128"/>
<mTexSizeBias v ="512"/>
<mTexSizeBias v ="436"/>
</mTexSizeBias>
</mFacialMakeupParts>
예를 들어, 도 10에 도시된 바와 같이, 트리밍된 객체가 눈 부분 부위(예: 눈썹)로 선택된 후, DiffuseMap, SpecularMap 및 NormalMap의 대응하는 콘텐츠가 트리밍되고, 원래 크기가 1024*1024인 콘텐츠가 트리밍 크기가 512*128인 콘텐츠로 트리밍된다.
또한, 트리밍을 통해 국소 부위 영역의 상이한 크롭 이미지가 획득된 후에 게임 캐릭터를 구성하는 프로세스에서, 필요한 크롭 이미지는 게임 캐릭터의 안면을 구성하기 위해 클릭을 통해 직접 선택되는 것일 수 있지만 이에 한정되는 것은 아니다. 도 11에 도시된 바와 같이, "눈 화장", "입술 화장" 또는 "피부"와 같은 콘텐츠의 각각의 크롭 이미지가 선택되고 교체되어, 필요한 얼굴 형태를 획득한다.
종래기술에서는, 대개 지루하고 복잡한 슬라이드 바 방식으로 안면을 편집한다. 그러나, 본 실시예에서 제공된 얼굴 편집 방법을 사용함으로써, 게임 애플리케이션에서 상이한 사용자의 요구를 충족시킬 수 있을 뿐만 아니라, 애플리케이션 실행 프로세스에서도, 사용자가 원활한 실행 상황하에서 다양한 얼굴 편집을 구현하도록 보장할 수 있어, 시스템 소비를 크게 줄이고 역할 형상을 풍부하게 한다.
본 출원의 실시예는 저장 매체를 더 제공하며, 이 저장 매체는 비휘발성 저장 매체이다. 본 실시예에서, 저장 매체는,
표시된 안면 모델에서 커서의 위치를 검출하는 단계 - 여기서 표시된 안면 모델은 복수의 안면 부위를 포함함 -;
상기 위치에 따라 복수의 안면 부위 중 조작될 안면 부위를 결정하는 단계;
조작될 안면 부위에 대한 선택 조작을 검출하는 단계;
조작될 안면 부위에 대한 획득된 편집 조작에 응답하여 조작될 안면 부위를 편집하는 단계; 및
편집된, 조작될 안면 부위를 안면 모델에 표시하는 단계를 수행하는 데 사용되는 프로그램 코드를 저장하도록 구성된다:
본 실시예에서, 전술한 저장 매체는 USB 플래시 드라이브, 판독 전용 메모리 (read-only memory, ROM), 임의 접근 메모리(random access memory, RAM), 착탈식 하드 디스크, 자기 디스크 또는 광 디스크와 같은, 프로그램 코드를 저장할 수 있는 임의의 매체를 포함 할 수 있지만, 이에 한정되는 것은 아니다.
본 실시예에서의 구체적인 예에 대해서는 안면 모델 편집 방법 및 장치의 실시예를 참조한다.
본 출원의 이상의 실시예의 시퀀스 번호는 설명을 위한 것일 뿐이며, 실시예의 선호를 나타내는 것은 아니다.
전술한 실시예에서의 통합된 유닛(integrated unit)이 소프트웨어 기능 유닛의 형태로 구현되고, 독립된 제품으로 판매 또는 사용되는 경우, 그 통합된 유닛은 컴퓨터로 판독 가능한 저장 매체에 저장될 수 있다. 이러한 이해를 바탕으로, 본질적으로 본 발명의 기술적 방안, 또는 종래기술에 기여하는 부분, 또는 기술적 방안의 일부 또는 전부는 소프트웨어 제품의 형태로 구현될 수 있다. 컴퓨터 소프트웨어 제품은, 저장 매체에 저장되고, 하나 이상의 컴퓨터 디바이스(개인용 컴퓨터, 서버, 또는 네트워크 기기 등일 수 있음)에 본 출원의 실시예에 기술된 방법의 단계들 중 일부 또는 전부를 수행하도록 명령하기 위한 여러 명령어를 포함한다.
본 출원의 전술한 실시예에서, 실시예의 설명은 상이한 주안점이 있으며, 일 실시예에서 상세하게 설명되지 않은 부분에 대해서는, 다른 실시예의 관련된 설명을 참조 할 수 있다.
본 출원에서 제공된 여러 실시예에서, 개시된 클라이언트는 다른 방식으로 구현될 수 있음을 이해해야 한다. 기술된 장치 실시예는 단지 예시적인 것이다. 예를 들어, 유닛의 분할은 논리 기능 분할일 뿐이고, 실제 구현에서는 다른 분할일 수 있다. 예를 들어, 복수의 유닛 또는 구성요소는 다른 시스템에 결합 또는 통합될 수 있거나, 또는 일부 특징은 무시되거나 수행되지 않을 수 있다. 또한, 표시되거나 논의된 상호 결합 또는 직접 결합 또는 통신 연결은 소정의 인터페이스를 통해 구현될 수 있다. 유닛들 또는 모듈들 사이의 간접 결합 또는 통신 연결은 전자적인 형태 또는 다른 형태로 구현될 수 있다.
별개의 부분(separate part)으로서 기술된 유닛은, 물리적으로 분리될 수도 분리될 수 없을 수도 있고, 유닛으로 표시된 부분은 물리적인 유닛일 수도 물리적인 유닛이 아닐 수도 있으며, 한 장소에 위치할 수 있거나, 또는 복수의 네트워크 유닛에 분산될 수도 있다. 유닛들 중 일부 또는 전부는 실시예의 방안의 목적을 달성하기 위한 실제 필요에 따라 선택될 수 있다.
또한, 본 발명의 실시예에서의 기능 유닛들은 하나의 처리 유닛에 통합될 수 있거나, 또는 각각의 유닛이 물리적으로 단독으로 존재할 수 있거나, 또는 둘 이상의 유닛이 하나의 유닛으로 통합된다. 통합된 유닛은 하드웨어의 형태로 구현 될 수 있거나 소프트웨어 기능 유닛의 형태로 구현 될 수있다.
이상의 설명은 본 출원 바람직한 실시예일 뿐이며, 유의해야 할 것은 당업자라면 본 출원의 사상을 벗어나지 않으면서 다영한 개량 및 개선을 할 수 있다는 것이다. 그러한 모든 개량 및 개선도 또한 본 출원의 보호범위에 속한다.

Claims (12)

  1. 안면 모델 편집 방법으로서,
    스크린에 표시된 안면 모델(facial model)에서 커서의 위치에 대응하는 화소의 색상 값을 획득하는 단계 - 상기 표시된 안면 모델은 복수의 안면 부위(facial position)를 포함함 -;
    상기 화소의 색상 값을 매핑 관계에 매핑하여 상기 커서의 위치에 대응하는 조작될 안면 부위를 결정하는 단계 - 마스크 맵(mask map)은 상기 스크린에 표시된 안면 모델의 복수의 안면 부위와 일대일 대응관계에 있는 복수의 마스크 영역을 포함하고, 각각의 마스크 영역은 하나의 안면 부위에 대응하며, 상기 매핑 관계는 마스크 영역과 화소의 색상 값 사이에 개별적으로 관련되고, 화소의 색상 값들은 서로 상이함 - ;
    상기 조작될 안면 부위를 편집하여 편집된 안면 부위를 획득하는 단계; 및
    상기 스크린에 표시되는 안면 모델 상에 상기 편집된 안면 부위를 표시하는 단계
    를 포함하는 안면 모델 편집 방법.
  2. 제1항에 있어서,
    상기 안면 모델에 상기 조작될 안면 부위를 하이라이트 표시하는 단계를 더 포함하는 안면 모델 편집 방법.
  3. 제1항 또는 제2항에 있어서,
    상기 조작될 안면 부위를 편집하는 것은,
    상기 조작될 안면 부위를 이동시키는 것;
    상기 조작될 안면 부위를 회전시키는 것;
    상기 조작될 안면 부위를 확대하는 것; 및
    상기 조작될 안면 부위를 축소하는 것 중 적어도 하나를 포함하는,
    안면 모델 편집 방법.
  4. 안면 모델 편집 장치로서,
    스크린에 표시된 안면 모델(facial model)에서 커서의 위치에 대응하는 화소의 색상 값을 획득하고 - 상기 표시된 안면 모델은 복수의 안면 부위(facial position)를 포함함 - , 상기 화소의 색상 값을 매핑 관계에 매핑하여 상기 커서의 위치에 대응하는 조작될 안면 부위를 결정하도록 구성된 결정 유닛 - 마스크 맵(mask map)은 상기 스크린에 표시된 안면 모델의 복수의 안면 부위와 일대일 대응관계에 있는 복수의 마스크 영역을 포함하고, 각각의 마스크 영역은 하나의 안면 부위에 대응하며, 상기 매핑 관계는 마스크 영역과 화소의 색상 값 사이에 개별적으로 관련되고, 화소의 색상 값들은 서로 상이함 - ;
    상기 조작될 안면 부위를 편집하여 편집된 안면 부위를 획득하도록 구성된 편집 유닛; 및
    상기 스크린에 표시되는 안면 모델 상에 상기 편집된 안면 부위를 표시하도록 구성된 제1 표시 유닛
    을 포함하는 안면 모델 편집 장치.
  5. 제4항에 있어서,
    상기 안면 모델에 상기 조작될 안면 부위를 하이라이트 표시하도록 구성된 제2 표시 유닛을 더 포함하는 안면 모델 편집 장치.
  6. 제4항 또는 제5항에 있어서,
    상기 편집 유닛은,
    상기 조작될 안면 부위를 이동시키도록 구성된 제1 편집 모듈;
    상기 조작될 안면 부위를 회전시키도록 구성된 제2 편집 모듈;
    상기 조작될 안면 부위를 확대하도록 구성된 제3 편집 모듈; 및
    상기 조작될 안면 부위를 축소하도록 구성된 제4 편집 모듈 중 적어도 하나를 포함하는,
    안면 모델 편집 장치.
  7. 삭제
  8. 삭제
  9. 삭제
  10. 삭제
  11. 삭제
  12. 삭제
KR1020187025694A 2016-03-10 2017-03-09 안면 모델 편집 방법 및 장치 KR102089473B1 (ko)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CN201610136300.1A CN107180453B (zh) 2016-03-10 2016-03-10 人物面部模型的编辑方法及装置
CN201610136300.1 2016-03-10
PCT/CN2017/076029 WO2017152848A1 (zh) 2016-03-10 2017-03-09 人物面部模型的编辑方法及装置

Publications (2)

Publication Number Publication Date
KR20180108799A KR20180108799A (ko) 2018-10-04
KR102089473B1 true KR102089473B1 (ko) 2020-03-16

Family

ID=59788998

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020187025694A KR102089473B1 (ko) 2016-03-10 2017-03-09 안면 모델 편집 방법 및 장치

Country Status (5)

Country Link
US (1) US10628984B2 (ko)
JP (1) JP6661780B2 (ko)
KR (1) KR102089473B1 (ko)
CN (1) CN107180453B (ko)
WO (1) WO2017152848A1 (ko)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108579091B (zh) * 2018-04-27 2022-08-05 网易(杭州)网络有限公司 虚拟场景生成方法、装置、存储介质及电子设备
CN109285209B (zh) * 2018-09-14 2023-05-26 网易(杭州)网络有限公司 游戏角色的面部模型的处理方法、装置、处理器及终端
CN110111417B (zh) * 2019-05-15 2021-04-27 浙江商汤科技开发有限公司 三维局部人体模型的生成方法、装置及设备

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20080267443A1 (en) * 2006-05-05 2008-10-30 Parham Aarabi Method, System and Computer Program Product for Automatic and Semi-Automatic Modification of Digital Images of Faces

Family Cites Families (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5687259A (en) 1995-03-17 1997-11-11 Virtual Eyes, Incorporated Aesthetic imaging system
US6362829B1 (en) 1996-03-07 2002-03-26 Agfa Corporation Method for modifying a digital image
KR20010056965A (ko) * 1999-12-17 2001-07-04 박희완 부분 이미지 합성에 의한 인물 캐릭터 생성 방법
CN1296872C (zh) * 2003-11-11 2007-01-24 易连科技股份有限公司 快速建立人脸影像平面模型的方法
US7593603B1 (en) * 2004-11-30 2009-09-22 Adobe Systems Incorporated Multi-behavior image correction tool
CN101021943A (zh) * 2007-04-06 2007-08-22 北京中星微电子有限公司 一种图像调整的方法和系统
US20090231356A1 (en) * 2008-03-17 2009-09-17 Photometria, Inc. Graphical user interface for selection of options from option groups and methods relating to same
WO2011120206A1 (en) * 2010-04-02 2011-10-06 Nokia Corporation Methods and apparatuses for face detection
JP2012004719A (ja) * 2010-06-15 2012-01-05 Nikon Corp 画像処理装置及びプログラム、並びに電子カメラ
US20120221297A1 (en) * 2011-02-24 2012-08-30 Siemens Product Lifecycle Management Software, Inc. Global Deformation for a Modeled Object
CN103207745B (zh) * 2012-01-16 2016-04-13 上海那里信息科技有限公司 虚拟化身交互系统和方法
CN102999929A (zh) * 2012-11-08 2013-03-27 大连理工大学 一种基于三角网格化的人物图像瘦脸处理方法
US9747716B1 (en) * 2013-03-15 2017-08-29 Lucasfilm Entertainment Company Ltd. Facial animation models
CN104103090A (zh) * 2013-04-03 2014-10-15 北京三星通信技术研究有限公司 图像处理方法、个性化人体显示方法及其图像处理系统
US9603437B2 (en) * 2013-04-08 2017-03-28 Panasonic Intellectual Property Corporation Of America Image processing device, image processing method, and program, capable of virtual reproduction of makeup application state
JP6171635B2 (ja) * 2013-07-04 2017-08-02 ティアック株式会社 編集処理装置及び編集処理プログラム
CN104156912B (zh) * 2014-08-18 2018-11-06 厦门美图之家科技有限公司 一种人像增高的图像处理的方法
US20180225882A1 (en) * 2014-08-29 2018-08-09 Kiran Varanasi Method and device for editing a facial image
CN105389835B (zh) * 2014-09-03 2019-07-12 腾讯科技(深圳)有限公司 一种图像处理方法、装置及终端
CN104616330A (zh) * 2015-02-10 2015-05-13 广州视源电子科技股份有限公司 一种图片的生成方法和装置
GB2543893A (en) * 2015-08-14 2017-05-03 Metail Ltd Methods of generating personalized 3D head models or 3D body models
US10417738B2 (en) * 2017-01-05 2019-09-17 Perfect Corp. System and method for displaying graphical effects based on determined facial positions

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20080267443A1 (en) * 2006-05-05 2008-10-30 Parham Aarabi Method, System and Computer Program Product for Automatic and Semi-Automatic Modification of Digital Images of Faces

Also Published As

Publication number Publication date
US10628984B2 (en) 2020-04-21
CN107180453A (zh) 2017-09-19
JP6661780B2 (ja) 2020-03-11
CN107180453B (zh) 2019-08-16
JP2019512141A (ja) 2019-05-09
WO2017152848A1 (zh) 2017-09-14
US20180365878A1 (en) 2018-12-20
KR20180108799A (ko) 2018-10-04

Similar Documents

Publication Publication Date Title
US11176737B2 (en) Textured mesh building
US20180260994A1 (en) Expression animation generation method and apparatus for human face model
US20200020173A1 (en) Methods and systems for constructing an animated 3d facial model from a 2d facial image
US11037275B2 (en) Complex architecture for image processing
US9811933B2 (en) Image editing using selective editing tools
CN105321171B (zh) 针对实况相机馈送的图像分割
US9940745B2 (en) Image manipulation for electronic display
US20130207994A1 (en) System and method for generating and applying a color theme to a user interface
US10523916B2 (en) Modifying images with simulated light sources
WO2019148968A1 (zh) 移动终端、人脸解锁方法及相关产品
CN104899825A (zh) 一种对图片人物造型的方法和装置
KR102089473B1 (ko) 안면 모델 편집 방법 및 장치
KR102193638B1 (ko) 헤어 스타일 시뮬레이션 서비스를 제공하는 방법, 시스템 및 비일시성의 컴퓨터 판독 가능 기록 매체
TW202221638A (zh) 人臉影像的處理方法、裝置、電子設備及儲存媒體
US10120539B2 (en) Method and device for setting user interface
CN112965681B (zh) 图像处理方法、装置、设备、及存储介质
CN108111747A (zh) 一种图像处理方法、终端设备及计算机可读介质
WO2022022260A1 (zh) 图像风格迁移方法及其装置
US11481940B2 (en) Structural facial modifications in images
CN111462007B (zh) 图像处理方法、装置、设备及计算机存储介质
CN107256164A (zh) 一种Mac下自定义形状进度条的优化处理算法
CN113592983A (zh) 一种图像处理方法、装置及计算机可读存储介质
US11928757B2 (en) Partially texturizing color images for color accessibility
EP4068214A1 (en) Theme icon generation method and apparatus therefor, and computer device
EP4089641A1 (en) Method for generating a 3d avatar, method for generating a perspective 2d image from a 3d avatar and computer program product thereof

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant