KR20200135491A - 3 차원 국부 인체 모델의 생성 방법, 장치 및 기기 - Google Patents

3 차원 국부 인체 모델의 생성 방법, 장치 및 기기 Download PDF

Info

Publication number
KR20200135491A
KR20200135491A KR1020207030574A KR20207030574A KR20200135491A KR 20200135491 A KR20200135491 A KR 20200135491A KR 1020207030574 A KR1020207030574 A KR 1020207030574A KR 20207030574 A KR20207030574 A KR 20207030574A KR 20200135491 A KR20200135491 A KR 20200135491A
Authority
KR
South Korea
Prior art keywords
skeleton
human body
parameter
map
body model
Prior art date
Application number
KR1020207030574A
Other languages
English (en)
Other versions
KR102442484B1 (ko
Inventor
쳉주 첸
야첸 유안
총샨 솅
구오펭 장
Original Assignee
저지앙 센스타임 테크놀로지 디벨롭먼트 컴퍼니 리미티드
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 저지앙 센스타임 테크놀로지 디벨롭먼트 컴퍼니 리미티드 filed Critical 저지앙 센스타임 테크놀로지 디벨롭먼트 컴퍼니 리미티드
Publication of KR20200135491A publication Critical patent/KR20200135491A/ko
Application granted granted Critical
Publication of KR102442484B1 publication Critical patent/KR102442484B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/203D [Three Dimensional] animation
    • G06T13/403D [Three Dimensional] animation of characters, e.g. humans, animals or virtual beings
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/20Finite element generation, e.g. wire-frame surface description, tesselation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/131Protocols for games, networked simulations or virtual reality
    • H04L67/38
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/04Indexing scheme for image data processing or generation, in general involving 3D image data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2219/00Indexing scheme for manipulating 3D models or images for computer graphics
    • G06T2219/20Indexing scheme for editing of 3D models
    • G06T2219/2021Shape modification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2219/00Indexing scheme for manipulating 3D models or images for computer graphics
    • G06T2219/20Indexing scheme for editing of 3D models
    • G06T2219/2024Style variation

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Graphics (AREA)
  • Software Systems (AREA)
  • Geometry (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Hardware Design (AREA)
  • Architecture (AREA)
  • Signal Processing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Processing Or Creating Images (AREA)
  • Ultra Sonic Daignosis Equipment (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Abstract

본 명세서의 실시예는 3 차원 국부 인체 모델의 생성 방법, 장치 및 기기를 제공한다. 여기서, 상기 3 차원 국부 인체 모델의 생성 방법은, 3 차원 국부 인체 모델의 골격 파라미터 조정 정보를 획득하는 단계; 상기 골격 파라미터 조정 정보에 따라, 상기 3 차원 국부 인체 모델의 골격 파라미터를 조정하는 단계; 및 조정된 상기 골격 파라미터에 따라, 상기 3 차원 국부 인체 모델을 생성하는 단계를 포함한다.

Description

3 차원 국부 인체 모델의 생성 방법, 장치 및 기기
본 발명은 3 차원 국부 인체 모델의 생성 방법, 장치 및 기기에 관한 것이다.
게임 산업 및 가상 현실의 추동 하에, 디지털 가상 캐릭터가 널리 응용된다. 가상 캐릭터의 경우, 단일 가상 이미지로부터 개성이 부여된 이미지를 생성하고, 적합한 얼굴 메이크업을 선택하는 등 유저에 의해 자체적으로 설계된 캐릭터로 진화되었다. 현재 캐릭터를 생성하는 과정 중, 일반적으로 대량의 골격을 구축하는 것을 통해 모델의 외형을 조절한다.
본 명세서의 하나 또는 복수 개의 실시예의 목적은, 3 차원 국부 인체 모델의 생성 방법, 장치 및 기기를 제공하는 것이다.
제1 측면에 있어서, 3 차원 국부 인체 모델의 생성 방법을 제공하고, 상기 방법은, 3 차원 국부 인체 모델의 골격 파라미터 조정 정보를 획득하는 단계; 상기 골격 파라미터 조정 정보에 따라, 상기 3 차원 국부 인체 모델의 골격 파라미터를 조정하는 단계; 및 조정된 상기 골격 파라미터에 따라, 상기 3 차원 국부 인체 모델을 생성하는 단계를 포함한다.
본 발명에서 제공한 어느 하나의 실시형태를 결합하여, 상기 3 차원 국부 인체 모델의 골격 파라미터 조정 정보를 획득하는 단계는, 골격 파라미터 조정 명령어를 수신하는 단계; 및 상기 골격 파라미터 조정 명령어에 따라 상기 골격 파라미터 조정 정보를 결정하는 단계를 포함한다.
본 발명에서 제공한 어느 하나의 실시형태를 결합하여, 상기 골격 파라미터 조정 정보에 따라, 상기 3 차원 국부 인체 모델의 골격 파라미터를 조정하는 단계는, 상기 3 차원 국부 인체 모델의 골격 파라미터 중, 상기 골격 파라미터 조정 정보와 관련된 적어도 하나의 골격의 파라미터를 획득하는 단계; 및 상기 골격 파라미터 조정 정보에 따라 상기 적어도 하나의 골격의 파라미터를 조정하는 단계를 포함한다.
본 발명에서 제공한 어느 하나의 실시형태를 결합하여, 상기 적어도 하나의 골격이 복수 개의 골격을 포함하는 경우에, 상기 골격 파라미터 조정 정보에 따라 상기 적어도 하나의 골격의 파라미터를 조정하는 단계는, 상기 골격 파라미터 조정 정보에 따라 상기 복수 개의 골격의 파라미터를 동시에 조정하는 단계를 포함한다.
본 발명에서 제공한 어느 하나의 실시형태를 결합하여, 상기 골격 파라미터 조정 정보에 따라 상기 적어도 하나의 골격의 파라미터를 조정하는 단계는, 상기 골격 파라미터 조정 정보에 대응되는 제1 조절 범위를 획득하는 단계; 상기 골격 파라미터 조정 정보와 관련된 골격 파라미터의 제2 조절 범위를 획득하는 단계; 및 상기 골격 파라미터 조정 정보가 상기 제1 조절 범위 내에서의 변화 비례에 따라, 상기 제2 조절 범위 내에서 상기 골격 파라미터 조정 정보와 관련된 상기 골격 파라미터의 값을 조정하는 단계를 포함한다.
본 발명에서 제공한 어느 하나의 실시형태를 결합하여, 상기 골격 파라미터 조정 명령어에 따라 상기 골격 파라미터 조정 정보를 결정하는 단계는, 상기 골격 파라미터 조정 명령어에 대해 설정된 컨트롤의 출력 변화량을 획득하고, 상기 출력 변화량에 따라 상기 골격 파라미터 조정 정보를 결정하는 단계를 포함한다.
본 발명에서 제공한 어느 하나의 실시형태를 결합하여, 상기 3 차원 국부 인체 모델은 얼굴 모델을 포함하고, 상기 방법은, 상기 얼굴 모델의 골격 파라미터에 기반하여 페이스 맵을 생성하는 단계 - 상기 페이스 맵은 복수 개의 영역을 포함하고, 각 상기 영역은 상기 얼굴 모델의 얼굴 메이크업의 교체 가능한 부재에 대응됨 - ; 각 상기 영역에 대해, 상기 영역의 파라미터에 따라 상응하는 교체 가능한 부재 맵을 획득하는 단계; 각 상기 교체 가능한 부재 맵과 상기 페이스 맵을 병합하여, 병합된 맵을 얻는 단계; 및 상기 병합된 맵을 상기 얼굴 모델에 맵핑하여, 상기 얼굴 모델의 얼굴 메이크업을 생성하는 단계를 더 포함한다.
본 발명에서 제공한 어느 하나의 실시형태를 결합하여, 상기 영역은 직사각형 영역이고, 상기 직사각형 영역의 파라미터는 너비 및 높이를 포함하며; 상기 영역의 파라미터에 따라 상응하는 교체 가능한 부재 맵을 획득하는 단계는, 상기 직사각형 영역의 너비 및 높이와 일치하는 교체 가능한 부재 맵을 획득하는 단계를 포함한다.
본 발명에서 제공한 어느 하나의 실시형태를 결합하여, 상기 영역은 직사각형 영역이고, 상기 직사각형 영역의 파라미터는 좌표의 가로 방향 오프셋 값 및 좌표의 세로 방향 오프셋 값을 포함하며; 상기 교체 가능한 부재 맵은 투명도 정보를 포함하고; 상기 교체 가능한 부재 맵과 상기 페이스 맵을 병합하는 단계는, 상기 교체 가능한 부재 맵에 대응되는 직사각형 영역의 좌표의 가로 방향 오프셋 값 및 좌표의 세로 방향 오프셋 값에 따라, 상기 교체 가능한 부재 맵을 상응하는 직사각형 영역에 복사하는 단계; 및 상기 페이스 맵과 상기 교체 가능한 부재 맵을 상기 투명도 정보에 따라 혼합하는 단계를 포함한다.
본 발명에서 제공한 어느 하나의 실시형태를 결합하여, 상기 교체 가능한 부재 맵은 투명도 정보를 포함하고; 상기 영역에 상응하는 교체 가능한 부재 맵을 획득하는 단계는, 상기 교체 가능한 부재에 대하여 선택된 무늬 정보를 획득하는 단계; 및 상기 교체 가능한 부재 맵의 투명도 정보 및 상기 무늬 정보를 혼합하는 것을 통해, 무늬를 갖는 교체 가능한 부재 맵을 생성하는 단계를 포함한다.
본 발명에서 제공한 어느 하나의 실시형태를 결합하여, 상기 병합된 맵을 상기 얼굴 모델에 맵핑하는 단계는, 상기 얼굴 모델의 무늬 좌표(UV)에 따라, 상기 병합된 맵을 상기 얼굴 모델에 맵핑하는 단계를 포함한다.
본 발명에서 제공한 어느 하나의 실시형태를 결합하여, 상기 3 차원 국부 인체 모델은 얼굴 모델을 포함하고, 상기 방법은, 표준 얼굴 모델에 대응되는 제1 골격 파라미터 및 제1 융합 변형 데이터를 획득하는 단계; 상기 얼굴 모델에 대응되는 제2 골격 파라미터를 획득하는 단계; 및 상기 제2 골격 파라미터 및 상기 제1 골격 파라미터 사이의 변환 관계에 기반하여, 상기 제1 융합 변형 데이터를 이용하여 상기 얼굴 모델에 대응되는 제2 융합 변형 데이터를 획득하는 단계를 더 포함한다.
제2 측면에 있어서, 3 차원 국부 인체 모델의 생성 장치를 제공하고, 상기 장치는, 3 차원 국부 인체 모델의 골격 파라미터 조정 정보를 획득하기 위한 획득 유닛; 상기 골격 파라미터 조정 정보에 따라, 상기 3 차원 국부 인체 모델의 골격 파라미터를 조정하기 위한 조정 유닛; 및 조정된 상기 골격 파라미터에 따라, 상기 3 차원 국부 인체 모델을 생성하기 위한 생성 유닛을 포함한다.
본 발명에서 제공한 어느 하나의 실시형태를 결합하여, 상기 획득 유닛은 구체적으로, 골격 파라미터 조정 명령어를 수신하고; 상기 골격 파라미터 조정 명령어에 따라 상기 골격 파라미터 조정 정보를 결정하기 위한 것이다.
본 발명에서 제공한 어느 하나의 실시형태를 결합하여, 상기 조정 유닛은 구체적으로, 상기 3 차원 국부 인체 모델의 골격 파라미터 중, 상기 골격 파라미터 조정 정보와 관련된 적어도 하나의 골격의 파라미터를 획득하고; 상기 골격 파라미터 조정 정보에 따라 상기 적어도 하나의 골격의 파라미터를 조정하기 위한 것이다.
본 발명에서 제공한 어느 하나의 실시형태를 결합하여, 상기 적어도 하나의 골격이 복수 개의 골격을 포함하는 경우에, 상기 조정 유닛이 상기 골격 파라미터 조정 정보에 따라 상기 적어도 하나의 골격의 파라미터를 조정하기 위한 것일 경우, 구체적으로, 상기 골격 파라미터 조정 정보에 따라 상기 복수 개의 골격의 파라미터를 동시에 조정하기 위한 것이다.
본 발명에서 제공한 어느 하나의 실시형태를 결합하여, 상기 조정 유닛이 상기 골격 파라미터 조정 정보에 따라 상기 적어도 하나의 골격의 파라미터를 조정하기 위한 것일 경우, 구체적으로, 상기 골격 파라미터 조정 정보에 대응되는 제1 조절 범위를 획득하고; 상기 골격 파라미터 조정 정보와 관련된 골격 파라미터의 제2 조절 범위를 획득하며; 상기 골격 파라미터 조정 정보가 상기 제1 조절 범위 내에서의 변화 비례에 따라, 상기 제2 조절 범위 내에서 상기 골격 파라미터 조정 정보와 관련된 상기 골격 파라미터의 값을 조정하기 위한 것이다.
본 발명에서 제공한 어느 하나의 실시형태를 결합하여, 상기 조정 유닛이 상기 골격 파라미터 조정 명령어에 따라 상기 골격 파라미터 조정 정보를 결정하기 위한 것일 경우, 구체적으로, 상기 골격 파라미터 조정 명령어에 대해 설정된 컨트롤의 출력 변화량을 획득하고; 상기 출력 변화량에 따라 상기 골격 파라미터 조정 정보를 결정하기 위한 것이다.
본 발명에서 제공한 어느 하나의 실시형태를 결합하여, 상기 3 차원 국부 인체 모델은 얼굴 모델을 포함하고; 상기 장치는, 상기 얼굴 모델의 골격 파라미터에 기반하여 페이스 맵을 생성하고 - 상기 페이스 맵은 복수 개의 영역을 포함하고, 각 상기 영역은 상기 얼굴 모델의 얼굴 메이크업의 교체 가능한 부재에 대응됨 - ; 각 상기 영역에 대해, 상기 영역의 파라미터에 따라 상응하는 교체 가능한 부재 맵을 획득하며; 각 상기 교체 가능한 부재 맵과 상기 페이스 맵을 병합하여, 병합된 맵을 얻으며; 상기 병합된 맵을 상기 얼굴 모델에 맵핑하여, 상기 얼굴 모델의 얼굴 메이크업을 생성하기 위한 메이크업 생성 유닛을 더 포함한다.
본 발명에서 제공한 어느 하나의 실시형태를 결합하여, 상기 영역은 직사각형 영역이고, 상기 직사각형 영역의 파라미터는 너비 및 높이를 포함하며; 상기 메이크업 생성 유닛이 상기 영역의 파라미터에 따라 상응하는 교체 가능한 부재 맵을 획득하기 위한 것일 경우, 구체적으로, 상기 직사각형 영역의 너비 및 높이와 일치하는 교체 가능한 부재 맵을 획득하기 위한 것이다.
본 발명에서 제공한 어느 하나의 실시형태를 결합하여, 상기 영역은 직사각형 영역이고, 상기 직사각형 영역의 파라미터는 좌표의 가로 방향 오프셋 값 및 좌표의 세로 방향 오프셋 값을 포함하며; 상기 교체 가능한 부재 맵은 투명도 정보를 포함하고; 상기 메이크업 생성 유닛이 상기 교체 가능한 부재 맵과 상기 페이스 맵을 병합하기 위한 것일 경우, 구체적으로, 상기 교체 가능한 부재 맵에 대응되는 직사각형 영역의 좌표의 가로 방향 오프셋 값 및 좌표의 세로 방향 오프셋 값에 따라, 상기 교체 가능한 부재 맵을 상응하는 직사각형 영역에 복사하고; 페이스 맵과 상기 교체 가능한 부재 맵을 상기 투명도 정보에 따라 혼합하기 위한 것이다.
본 발명에서 제공한 어느 하나의 실시형태를 결합하여, 상기 교체 가능한 부재 맵은 투명도 정보를 포함하고; 상기 메이크업 생성 유닛이 상기 영역에 상응하는 교체 가능한 부재 맵을 획득하기 위한 것일 경우, 구체적으로, 상기 교체 가능한 부재에 대하여 선택된 무늬 정보를 획득하고; 상기 교체 가능한 부재 맵의 투명도 정보 및 상기 무늬 정보를 혼합하는 것을 통해, 무늬를 갖는 교체 가능한 부재 맵을 생성하기 위한 것이다.
본 발명에서 제공한 어느 하나의 실시형태를 결합하여, 상기 병합 유닛은 구체적으로, 상기 얼굴 모델의 무늬 좌표(UV)에 따라, 상기 병합된 맵을 상기 얼굴 모델에 맵핑하기 위한 것이다.
본 발명에서 제공한 어느 하나의 실시형태를 결합하여, 상기 3 차원 국부 인체 모델은 얼굴 모델을 포함하고; 상기 장치는, 표준 얼굴 모델에 대응되는 제1 골격 파라미터 및 제1 융합 변형 데이터를 획득하고; 상기 얼굴 모델에 대응되는 제2 골격 파라미터를 획득하며; 상기 제2 골격 파라미터 및 상기 제1 골격 파라미터 사이의 변환 관계에 기반하여, 상기 제1 융합 변형 데이터를 이용하여 상기 얼굴 모델에 대응되는 제2 융합 변형 데이터를 획득하기 위한 업데이트 유닛을 더 포함한다.
제3 측면에 있어서, 3 차원 국부 인체 모델의 생성 기기, 상기 기기는 메모리, 프로세서를 포함하고, 상기 메모리는 프로세서 상에서 작동 가능한 컴퓨터 명령어를 저장하기 위한 것이며, 상기 프로세서는 상기 컴퓨터 명령어를 실행할 경우 본 명세서에 따른 어느 하나의 3 차원 국부 인체 모델의 생성 방법을 구현하기 위한 것이다.
제4 측면에 있어서, 컴퓨터 프로그램이 저장되어 있는 컴퓨터 판독 가능한 저장 매체를 제공하고, 상기 프로그램이 프로세서에 의해 실행될 경우 본 명세서에 따른 어느 하나의 3 차원 국부 인체 모델의 생성 방법을 구현한다.
본 명세서의 하나 또는 복수 개의 실시예의 3 차원 국부 인체 모델의 생성 방법, 장치 및 기기는, 골격 파라미터 조정 정보를 통해, 국부 인체 골격 파라미터를 조정하여, 국부 인체 중 적어도 하나의 골격 파라미터에 대한 동시 조정을 구현함으로써, 모델의 전체 형태 및 국부 세부 사항에 대한 동시 조정을 구현할 수 있어, 쾌속 조정의 목적에 도달할 수 있는 동시에, 정밀한 조정도 수행할 수 있다.
본 명세서의 하나 또는 복수 개의 실시예 또는 종래 기술에서의 기술방안을 더 명확하게 설명하기 위해, 아래에 실시예 또는 종래 기술의 설명에서 사용되어야 하는 첨부 도면을 간단히 설명한다. 아래 설명에서의 첨부 도면은 다만 본 명세서의 하나 또는 복수 개의 실시예에서 기재된 일부 실시예일 뿐이고, 본 기술분야의 기술자는 창조적 노동을 부여하지 않는 전제하에서도, 이러한 첨부 도면에 따라 다른 첨부 도면을 획득할 수 있다.
도 1은 본 명세서의 적어도 하나의 실시예에서 제공한 골격에 기반하여 구축된 얼굴 모델의 예이다.
도 2는 본 명세서의 적어도 하나의 실시예에서 제공한 3 차원 국부 인체 모델의 생성 방법의 예이다.
도 3은 본 명세서의 적어도 하나의 실시예에서 제공한 조절 파라미터의 설정 방법 예이다.
도 4는 본 명세서의 적어도 하나의 실시예에서 제공한 조절 파라미터의 설정 예이다.
도 5a는 본 명세서의 적어도 하나의 실시예에서 제공한 두 눈의 전체 크기를 조절하기 위한 조절 파라미터 설정 방법 예이다.
도 5b는 본 명세서의 적어도 하나의 실시예에서 제공한 두 눈의 전체 크기를 조절하기 위한 컨트롤 예이다.
도 5c 및 도 5d는 본 명세서의 적어도 하나의 실시예에서 제공한 조정 전의 얼굴 모델 예 및 조정된 얼굴 모델 예이다.
도 6은 본 명세서의 적어도 하나의 실시예에서 제공한 얼굴 모델에 대응되는 융합 변형 데이터를 업데이트하는 방법 예이다.
도 7은 본 명세서의 적어도 하나의 실시예에서 제공한 얼굴 메이크업을 생성하는 방법 예이다.
도 8a는 본 명세서의 적어도 하나의 실시예에서 제공한 페이스 맵 예이다.
도 8b는 본 명세서의 적어도 하나의 실시예에서 제공한 교체 가능한 부재의 맵 예이다.
도 8c는 본 명세서의 적어도 하나의 실시예에서 제공한 병합된 페이스 맵 및 교체 가능한 부재 맵의 예이다.
도 9a 및 도 9b는 본 명세서의 적어도 하나의 실시예에서 제공한 메이크업을 생성하기 전의 얼굴 모델 및 메이크업을 생성한 후의 얼굴 모델이다.
도 10a는 본 명세서의 적어도 하나의 실시예에서 제공한 3 차원 국부 인체 모델의 생성 장치 예이다.
도 10b는 본 명세서의 적어도 하나의 실시예에서 제공한 3 차원 국부 인체 모델의 생성 장치 예이다.
도 10c는 본 명세서의 적어도 하나의 실시예에서 제공한 3 차원 국부 인체 모델의 생성 장치 예이다.
도 11은 본 명세서의 적어도 하나의 실시예에서 제공한 3 차원 국부 인체 모델의 생성 기기 예이다.
본 기술 분야의 기술자가 본 명세서의 하나 또는 복수 개의 실시예에서의 기술방안을 더 잘 이해할 수 있도록 하기 위해, 아래에 본 명세서의 하나 또는 복수 개의 실시예에서의 도면을 결합하여, 본 명세서의 하나 또는 복수 개의 실시예에서의 기술 방안을 명확하고 완전하게 설명한다. 설명된 실시예는 다만 본 명세서의 부분 실시예일 뿐이고, 전부 실시예가 아니다. 본 명세서에서의 하나 또는 복수 개의 실시예에 기반하여, 본 분야의 기술자가 창조성 노동을 부여하지 않은 전제하에서 획득한 다른 실시예는 전부 본 발명의 청구범위에 속해야 한다.
골격(bones)에 기반하여 생성된 모델 중, 각 골격은 복수 개의 파라미터를 가질 수 있다. 예를 들어, 골격 파라미터는 시프트 파라미터(t), 회전 파라미터(r), 축소 파라미터(s) 중 적어도 하나를 포함할 수 있다. 3 차원 국부 인체 모델의 경우, 예를 들어 얼굴 모델의 경우, 각 골격의 파라미터가 일반적으로 x 축, y 축, z 축의 값을 포함하므로, Bi=(tx, ty, tz, rx, ry, rz, sx, sy, sz)로 나타낼 수 있다. 여기서, i=1, 2…Nb, Nb는 모델에 포함된 골격 개수이다.
도 1은 골격에 기반하여 구축된 얼굴 모델의 예시도이다. 상기 얼굴 모델은 48 개의 골격에 기반하여 골격체를 구축하고, 그 골격체의 기초 상에서 스키닝 처리를 수행하여 얻은 것이다. 도 1에서의 흰색 라인은 골격을 나타낸다.
골격 파라미터(Bi)를 조정하는 것을 통해, 골격의 위치, 방향, 크기 중 하나 또는 복수 개가 변화되도록 할 수 있음으로써, 모델의 골격 구조를 변화시킬 수 있다. 도 1에서의 얼굴 모델로 예를 들면, 이는 48 개의 골격을 포함하고, 각 골격은 9 개의 파라미터를 갖고 있으며, 즉 사용자는 48*9 개의 파라미터를 조절할 수 있다.
이에 기반하여, 본 명세서의 적어도 하나의 실시예는 3 차원 국부 인체 모델의 생성 방법을 제공하고, 도 2에 도시된 바와 같이, 상기 방법은 아래와 같은 단계를 포함할 수 있다.
단계 201에 있어서, 3 차원 국부 인체 모델의 골격 파라미터 조정 정보를 획득한다.
본 실시예에 있어서, 골격 파라미터 조정 명령어를 수신하는 것을 통해, 상기 골격 파라미터 조정 명령어에 따라 상기 골격 파라미터 조정 정보를 결정할 수 있다. 여기서, 골격 파라미터 조정 정보는, 변화된 파라미터 값 또는 파라미터값의 조정 전후의 상대적인 변화량 또는 변화 비례 중 적어도 하나일 수 있다.
단계 202에 있어서, 상기 골격 파라미터 조정 정보에 따라, 상기 3 차원 국부 인체 모델의 골격 파라미터를 조정한다.
본 단계에 있어서, 상기 골격 파라미터 조정 정보에 포함된 변화된 파라미터 값 또는 파라미터 값의 상대적인 변화량 또는 변화 비례에 기반하여, 3 차원 국부 인체 모델의 골격 파라미터를 조정하여, 상기 골격 파라미터가 대응되는 변화가 발생되도록 하며, 예를 들어 상응하는 상대적인 변화량을 추가/감소하는 것, 또는 상응하는 변화 비례를 추가/감소하는 것이다. 머리 골격 파라미터를 조정한 후, 조정된 한 세트의 골격 파라미터를 얻을 수 있다.
단계 203에 있어서, 조정된 상기 골격 파라미터에 따라, 3 차원 국부 인체 모델을 생성(rendering)한다.
3 차원 국부 인체 모델의 골격 파라미터가 조정되었으면, 모델의 골격 구조가 변경됨으로써, 원하는 3 차원 국부 인체 모델을 얻는다.
본 실시예의 3 차원 국부 인체 모델의 생성 방법은, 생성 예를 들어 머리(얼굴), 손, 몸 등 국부 인체 모델을 생성하는데 사용될 수 있고, 인체 모델에 대해 국부적인 조정을 수행하는데 사용될 수도 있다.
본 실시예에 있어서, 골격 파라미터 조정 정보에 기반하여 국부 인체 모델 중 적어도 하나의 골격 파라미터를 조정하는 것을 통해, 모델의 전체 형태 및 국부적인 세부 사항에 대한 조정을 고려할 수 있어, 쾌속 조정의 목적을 달성할 수 있는 동시에, 정밀한 조정도 수행할 수 있다.
아래의 설명 중, 3 차원 국부 인체 모델의 생성 방법을 더 상세하게 설명한다. 여기서, 아래에 얼굴 모델을 예로 든다. 그러나 이해할 수 있는 것은, 다른 시나리오에서도 상기 3 차원 국부 인체 모델 생성 방법을 마찬가지로 사용할 수 있고, 예를 들어, 다른 국부 인체 모델의 생성, 인체 모델의 생성, 동물 모델의 생성 및 골격에 기반하여 구축된 다른 모델의 생성이다.
본 실시예의 방법을 적용한 골격 파라미터에 기반하여 3 차원 국부 인체 모델을 생성할 경우, 3 차원 국부 인체 모델의 복수 개의 골격 파라미터를 동시에 조절하기 위한 컨트롤러(controller)를 사전에 설정할 수 있다. 상기 컨트롤러는 상기 골격 파라미터 조정 정보를 획득하기 위한 구체적인 실시형태로 간주될 수 있다. 구체적으로, 컨트롤러의 조작 파라미터(operating parameter of controller, 아래에 조작 파라미터로도 지칭될 수 있음)를 조정하는 것을 통해, 3 차원 국부 인체 모델 중 상기 컨트롤러와 관련된 복수 개의 골격 파라미터에 대한 조정 정보를 전달할 수 있다. 상기 컨트롤러는 3 차원 국부 인체 모델의 골격 파라미터에 기반하여 설정된 것이다. 따라서, 본 실시예에 있어서, 얼굴 모델의 골격 파라미터를 먼저 획득할 수 있다.
얼굴 모델의 골격 파라미터는 예를 들어 Bi=(tx, ty, tz, rx, ry, rz, sx, sy, sz)일 수 있고, 여기서, i=1, 2…Nb, Nb는 얼굴 모델에 포함된 골격 개수이다. 골격 파라미터(Bi)를 조정하는 것을 통해, 골격의 위치, 방향, 크기 중 하나 또는 복수 개가 변화되도록 할 수 있음으로써, 모델의 골격 구조를 변화시킬 수 있다. 그러나 조절 가능한 파라미터의 자유도가 지나치게 높을 경우, 사용자가 국부 세부 사항을 조절하는 난이도가 지나치게 높아진다. 따라서, 본 실시예에 있어서, 3 차원 국부 인체 모델의 복수 개의 골격 파라미터를 동시에 조정할 수 있도록 컨트롤러를 설정한다.
상기 컨트롤러는 국부 인체 중 적어도 하나의 골격의 파라미터와 관련된다. 여기서 관련된다는 것은, 컨트롤러의 조작 파라미터를 변경시킬 경우, 상기 적어도 하나의 골격의 하나 또는 복수 개의 파라미터가 동시에 변화될 수 있음을 가리킨다. 상기 적어도 하나의 골격은 국부 인체에서의 국부 영역에 속하는 하나 또는 복수 개의 골격일 수 있다.
하나의 예에 있어서, 아래의 방법을 통해 상기 컨트롤러의 설정을 구현할 수 있다. 도 3에 도시된 바와 같이, 상기 방법은 아래와 같은 단계를 포함할 수 있다.
단계 301에 있어서, 상기 컨트롤러와 관련된 골격을 획득한다.
각 컨트롤러와 관련된 골격은, 미리 설정될 수 있다. 상기 컨트롤러와 관련된 골격을 획득하는 것을 통해, 상기 컨트롤러의 조작 파라미터를 조절할 경우, 동시에 조정될 골격의 파라미터를 결정할 수 있다.
각 컨트롤러의 경우, 국부 영역 내의 전부 또는 부분적인 골격의 파라미터와 상기 컨트롤러의 연관성을 구축할 수 있다. 예를 들어, 눈 영역에 모두 E1 개의 골격이 존재하지만, 그 중 E2 개의 골격만 조정(E2<E1)하면 눈 크기의 변화를 제어할 수 있다고 가정하면, 두 눈의 전체 크기를 조정하기 위한 눈 골격 컨트롤러는 이 E2 개의 골격만 제어하면 된다. 도 5a에 도시된 바와 같이, 두 눈의 전체 크기를 조정하기 위한 눈 골격 컨트롤러를 눈 영역의 골격(eye_01, eye_02, eye_03)의 파라미터와 관련되도록 하는 것을 통해, 상기 눈 골격 컨트롤러가 이 3 개의 골격을 제어할 수 있도록 한다.
단계 302에 있어서, 상기 컨트롤러와 관련된 각 골격의 파라미터 중 상기 컨트롤러와 관련된 골격 파라미터를 획득한다.
상기 컨트롤러와 관련된 각 골격, 컨트롤러는 9 개의 파라미터 전부를 제어할 수 있고, 그 중 하나 또는 복수 개의 파라미터를 제어할 수도 있다. 골격의 파라미터와 관련된 컨트롤러는, 미리 설정될 수 있다.
도 4에 도시된 바를 예로 들면, controller1, controller2…, controllerM은 각 컨트롤러이고, 여기서, M은 컨트롤러의 개수이다. 컨트롤러controller1은 3 개의 골격(bone1, bone2, bone3)을 제어할 수 있고, 구체적으로 제어 가능한 각 골격의 파라미터는 bone1의 평행 이동 파라미터(tx, ty), bone2의 스케일링 파라미터(sx, sy, sz) 및 bone3의 회전 파라미터(ry)를 포함한다. 즉, 컨트롤러(controller1)의 조작 파라미터를 조정하는 것을 통해, 이 3 개의 골격의 상기 파라미터를 동시에 조정할 수 있다. 이로부터 알다시피, 단계 301 및 단계 302를 통해, 3 차원 국부 인체 모델의 골격 파라미터 중, 컨트롤러 구체적으로 컨트롤러의 조작 파라미터와 관련된 적어도 하나의 골격의 파라미터를 획득할 수 있다.
단계 303에 있어서, 상기 컨트롤러와 관련된 각 골격 파라미터를 상기 컨트롤러의 조작 파라미터의 변화에 따라 조정한다.
컨트롤러와 관련된 골격 파라미터를 결정한 후, 각 골격 파라미터를 상기 컨트롤러의 조작 파라미터의 변화에 따라 조정하는 것을 통해, 컨트롤러와 관련된 골격 파라미터에 대한 동시 제어를 구현한다. 컨트롤러 조작 파라미터의 변화에 따라 상기 컨트롤러와 관련된 복수 개의 골격 파라미터를 동시에 조정하는 단계는, 컨트롤러 조작 파라미터와 동일한 변화 비례로 관련된 복수 개의 골격 파라미터를 조정하는 단계를 포함한다. 예를 들어, 컨트롤러 조작 파라미터의 값의 조정 폭이 1/10 추가되면, 이와 관련된 복수 개의 골격 파라미터의 값의 조정 폭도 동시에 1/10 추가된다.
하나의 예에 있어서, 아래의 방법을 통해 컨트롤러가 골격 파라미터에 대한 조정을 구현할 수 있다. 상기 방법은 아래와 같은 단계를 포함한다.
먼저, 상기 컨트롤러의 조작 파라미터의 변화 범위(아래에 조절 범위로 지칭될 수도 있음)를 획득한다. 상기 변화 범위는 미리 설정될 수 있고, 이는 트롤러의 조작 파라미터의 값의 조정 전후의 상대적인 변화량을 결정하기 위한 것이다.
다음, 상기 컨트롤러와 관련된 각 골격 파라미터의 변화 범위를 획득한다. 상기 변화 범위도 미리 설정될 수 있고, 이는 제 조절해야 하는 골격의 시프트, 방향, 거리 등에 따른 파라미터의 변화 범위를 나타내기 위한 것이다. 골격 파라미터의 변화 범위가 0이면, 이 파라미터는 조정 불가한 것을 나타내고, 즉 상기 컨트롤러의 제어를 받지 않는다.
다음, 상기 컨트롤러의 조작 파라미터가 변화 범위 내에서의 변화 비례에 따라, 상기 골격 파라미터의 변화 범위 내에서 동일한 비례의 변화를 수행하도록 상기 컨트롤러와 관련된 골격 파라미터를 설정할 수 있다. 여기서 언급된 변화 비례는 상대적인 변화량으로 나타낼 수도 있다. 예를 들어, 도 4에서의 컨트롤러(controller1)의 경우, 조작 파라미터의 변화 범위가 [0,1]이고, 컨트롤의 조작 파라미터 값이 0.2로부터 0.3으로 변화되면, 상대적인 변화량은 1/10이고, 즉 변화 비례는 1/10이다. 이로써, 컨트롤러(controller1)와 관련된 골격(bone1, bone2, bone3) 파라미터의 값은 동시에 1/10 증가된다. 이로써, 컨트롤러가 이와 관련된 골격 파라미터에 대한 동시 조정을 구현한다. 상기 골격 파라미터는 컨트롤 조작 파라미터에 비례하여 변화되고, 선형 보간 알고리즘을 통해 구현될 수 있다.
본 기술분야의 기술자는, 상이한 골격 파라미터에 대해 상이한 변화를 설정할 수도 있음을 이해해야 하고, 예를 들어, 컨트롤러(controller1)의 조작 파라미터 값이 0.2로부터 0.3으로 변화되면, 골격(bone1)의 파라미터를 1/10 증가시키고, 골격(bone2 및 bone3)의 파라미터를 1/5 증가시킬 수 있다. 다시 말해, 상이한 골격 파라미터가 상이한 변화 추세를 생성하도록 할 수 있다. 이해해야 하는 것은, 컨트롤 조작 파라미터 값이 0으로부터 1로 조절될 경우, 각 골격 파라미터도 상응되게 자체의 변화 구간 내에서 최소값으로부터 최대값으로 변화되고, 다만 각 골격 파라미터의 변화 과정이 상이한 것일 수 있다. 이상 상이한 골격 파라미터는 컨트롤러의 조작 파라미터에 따라 상이한 추세로 변화되고, 비선형 보간 알고리즘을 통해 구현될 수 있다.
본 발명의 적어도 하나의 실시예에 있어서, 상기 골격 파라미터 조정 정보를 획득하는 단계는, 골격 파라미터 조정 명령어를 수신하는 단계; 및 상기 골격 파라미터 조정 명령어에 따라 상기 골격 파라미터 조정 정보를 결정하는 단계를 포함한다. 여기서, 상기 골격 파라미터 조정 명령어는 상기 컨트롤러의 조작 파라미터에 대한 조정 명령어(아래에 컨트롤러 조작 명령어로 지칭될 수 있음)를 가리킬 수 있다. 상기 컨트롤러 조작 명령어에 따라, 상기 골격 파라미터 조정 정보로서 컨트롤러의 조작 파라미터에 대한 조정 정보(아래에 컨트롤러 조정 정보로 지칭될 수 있음)가 결정될 수 있다.
본 발명의 적어도 하나의 실시예에 있어서, 상기 골격 파라미터 조정 정보를 획득한 후, 상기 골격 파라미터 조정 정보와 관련된 적어도 하나의 골격의 파라미터를 획득하고, 상기 골격 파라미터 조정 정보에 따라 상기 적어도 하나의 골격의 파라미터를 조정한다. 상기 적어도 하나의 골격이 하나의 골격만 포함할 경우, 상기 골격 파라미터 조정 정보에 따라 상기 골격의 파라미터를 조정하고; 상기 적어도 하나의 골격이 복수 개의 골격(예를 들어 복수 개의 머리 골격일 수 있음)을 포함할 경우, 상기 골격 파라미터 조정 정보에 따라 상기 복수 개의 골격의 파라미터를 동시에 조정한다. 여기서, 상기 골격 파라미터 조정 정보에 따라 상기 적어도 하나의 골격의 파라미터를 조정하는 단계는, 상기 골격 파라미터 조정 정보에 대응되는 제1 조절 범위를 획득하는 단계; 상기 골격 파라미터 조정 정보와 관련된 골격 파라미터의 제2 조절 범위를 획득하는 단계; 및 상기 골격 파라미터 조정 정보가 상기 제1 조절 범위 내에서의 변화 비례에 따라, 상기 제2 조절 범위 내에서 상기 골격 파라미터 조정 정보와 관련된 상기 골격 파라미터의 값을 조정하는 단계를 포함할 수 있다.
하나의 예에 있어서, 상기 골격 파라미터 조정 정보가 컨트롤러 조정 정보를 포함할 경우, 상기 골격 파라미터 조정 정보에 따라 상기 적어도 하나의 골격의 파라미터를 조정하는 단계는 구체적으로, 상기 컨트롤러 조정 정보에 대응되는 컨트롤러를 결정하고, 제1 조절 범위로서 상기 컨트롤러의 조작 파라미터의 조절 범위를 획득하는 단계; 제2 조절 범위로서 상기 적어도 하나의 골격의 상기 컨트롤러와 관련된 각 파라미터의 조절 범위를 획득하는 단계; 및 상기 적어도 하나의 골격의 상기 컨트롤러와 관련된 각 파라미터의 경우, 상기 파라미터에 대응되는 상기 제2 조절 범위 및 상기 컨트롤러 조정 정보가 상기 제1 조절 범위 내에서의 변화 비례에 따라 상기 파라미터의 값을 조정하는 단계를 포함할 수 있다.
하나의 예에 있어서, 슬라이더와 같은 컨트롤러에 대한 컨트롤을 미리 설정하여, 상기 컨트롤을 조작하는 것을 통해 상응하는 컨트롤러 조작 명령어를 생성할 수 있다. 모델을 생성할 경우, 상기 컨트롤의 출력 변화량을 획득하는 것을 통해, 컨트롤러 조작 명령어에 대응되는 컨트롤러 조정 정보를 획득하고, 상기 컨트롤러 조정 정보에 기반하여 상기 골격 파라미터 조정 정보를 결정할 수 있음으로써, 상기 골격 파라미터 조정 정보에 기반하여 컨트롤러, 구체적으로 상기 슬라이더와 관련된 골격 파라미터를 조정할 수 있다.
아래에 도 5a에서 두 눈의 전체 크기를 조절하는 것을 예로 들어 컨트롤러가 얼굴 모델에 대한 제어를 구체적으로 설명한다.
예를 들어, 두 눈의 전체 크기를 조절하기 위한 컨트롤러(controller1_eye)의 조작 파라미터의 변화 범위를 [0,1]로 설정할 수 있고, 즉 그 조작 파라미터의 값은 [0,1] 사이의 임의의 값일 수 있다. 또한, 컨트롤러(controller1_eye)에 대응되는 슬라이더를 조작하는 것을 통해 조작 파라미터 값이 해당하는 구간 내에서 변화되도록 할 수 있고, 도 5b에 도시된 바와 같다.
컨트롤러(controller1_eye)는 눈 영역의 3 개의 골격(eye_01, eye_02, eye_03)을 제어할 수 있고, 골격(eye_01)의 스케일링 파라미터(sx, sy, sz), 골격(eye_02)의 스케일링 파라미터(sx, sy, sz), 골격(eye_03)의 스케일링 파라미터(sx, sy, sz)를 구체적으로 제어할 수 있다. 여기서, 각 파라미터의 조절 범위는 [-1,1]이고, 즉 각 파라미터의 값은 상기 구간 내의 임의의 값일 수 있다. 이 세 개의 골격의 다른 파라미터의 조절 범위는 0이고, 즉 컨트롤러(controller1_eye)를 통해 조정될 수 없으며, 제어 리스트에 디스플레이되지 않는다.
컨트롤러(controller1_eye)에 대응되는 슬라이더를 제어하는 것을 통해, 조작 파라미터 값이 변화되도록 하고, 상기 조작 파라미터의 값을 획득한다. 다음 상기 조작 파라미터 값을 이용하여 컨트롤러(controller1_eye)와 관련된 상기 3 개의 골격의 관련 파라미터를 대응되는 조절 범위 내에서 선형 보간하여, 각 파라미터가 조절된 값을 얻는다. 즉, 컨트롤러(controller1_eye)가 그 조작 파라미터의 조절 범위 내에서의 변화에 기반하여, 관련된 골격 파라미터의 값이 각자의 조절 범위 내에서 동일한 비례의 변화가 발생되도록 한다. 이로써 두 눈의 전체 크기에 대한 조절을 구현한다. 도 5c는 원래 두 눈의 전체 크기 예시도이다. 여기서, 왼쪽의 각 박스는 골격 파라미터를 나타내고, 머리 전체 파라미터(head_all_p_N), 왼쪽 얼굴 전체 파라미터(cheek_p_L), 왼쪽 얼굴 파라미터(cheek_01_p_L, cheek_02_p_L, cheek_03_p_L), 오른쪽 얼굴 전체 파라미터(cheek_p_R), 오른쪽 얼굴 파라미터(cheek_01_p_R, cheek_02_p_R, cheek_03_p_R), 눈 전체 파라미터(eye_p_L), 눈 파라미터(eye_01_p_L, eye_02_p_L, eye_03_p_L, eye_04_p_L, )이고; 오른쪽은 복수 개의 컨트롤러 각자에 대응되는 슬라이더 컨트롤을 도시한다. 예를 들어 도 5b의 오른쪽에서 도시된 바와 같은 슬라이더("두 눈의 전체 크기")를 제어하는 것을 통해, 이에 대응되는 컨트롤러(controller1_eye)의 조작 파라미터의 값이 작아지도록 하여, 도 5d에 도시된 두 눈이 전반적으로 작아지는 효과를 얻는다. 본 분야의 기술자는 도 5c~도 5d에서 디스플레이된 것은 골격 이미지의 기초 상에서 스키닝하여 얻은 3 차원 모델이지만, 골격 변화에 의해 생성된 효과를 반영할 수 있음을 알아야 한다.
하나의 예에 있어서, 조정된 골격가 대칭되는 쌍을 이루는 골격 중 하나일 경우, 조정된 골격에 대칭되는 골격의 파라미터도 대응되게 변화된다. 도 2에 도시된 바와 같이, 얼굴의 골격는 대부분 대칭되고, 대칭되는 골격의 경우, 한 쪽을 조정하면, 다른 한 쪽 골격도 이에 따라 변화된다. 다시 말해, 대칭되는 골격의 파라미터 사이는 관련되고, 골격 파라미터 중 하나가 변화되면, 이에 대칭되는 다른 하나의 골격 파라미터도 대응되게 변화된다. 대칭되는 골격의 파라미터가 대응되게 변화하도록 하여, 조절 단계를 추가로 감소시킬 경우, 얼굴의 대칭을 유지함에 있어서 유리하다.
본 발명에서 언급된 국부 영역은, 상응하는 컨트롤러가 일부 효과를 구현하기 위해 제어해야 하는 영역일 수 있다. 컨트롤러가 구현 가능한 효과, 상기 컨트롤러에 대응되는 컨트롤의 이름을 지정할 수 있다. 도 5c~도 5d에 도시된 바와 같이, "눈썹 좌우", "눈썹 위 아래" 등 이름이 지정된 컨트롤을 포함하여, 상기 컨트롤에 대응되는 컨트롤러가 구현 가능한 효과를 직관적으로 반영함으로써, 사용자가 조작하기 용이하도록 한다.
조정된 골격 파라미터에 기반하여 얼굴 모델을 생성한 후, 표정을 정상적으로 작동하기 위해 표준 블랜드 쉐입(blendshape) 데이터에 적용 가능한지 여부에 문제가 존재한다. Blendshape은 블랜드 쉐입로 지칭될 수 있고, 얼굴 모델의 얼굴 표정을 제작하기 위한 도구이다. 표준 융합 변형 데이터가 표준 얼굴에 기반하여 제작된 것이므로, 본 발명에서 초기 골격 파라미터(표준 얼굴에 대응되는 골격 파라미터일 수 있음)를 조정하였다. 여기서 언급된 표준 얼굴은, 디폴트 파라미터를 이용하여 생성된 관련 기술에서 흔히 사용되는 표준 얼굴 모델을 가리킨다. 구별하여 설명하기 위해, 아래에서, 상기 표준 얼굴 모델에 대응되는 골격 파라미터를 제1 골격 파라미터로 지칭하고, 이에 대응되는 융합변형 데이터를 제1 융합 변형 데이터로 지칭하며, 본 발명에서 상기 방법을 이용하여 생성된 얼굴 모델에 대응되는 골격 파라미터를 제2 골격 파라미터로 지칭하며, 이에 대응되는 융합 변형 데이터를 제2 융합 변형 데이터로 지칭한다.
아래의 실시예에서 얼굴 모델에 대응되는 융합 변형 데이터를 업데이트하는 방법을 제안한다. 상기 방법은 주로, 표준 얼굴 모델에 대응되는 제1 골격 파라미터 및 제1 융합 변형 데이터를 획득하는 단계; 얼굴 모델(구체적으로 전술한 골격 파라미터가 조정된 얼굴 모델일 수 있음)에 대응되는 제2 골격 파라미터를 획득하는 단계; 및 상기 제2 골격 파라미터 및 상기 제1 골격 파라미터 사이의 변환 관계에 기반하여, 상기 제1 융합 변형 데이터를 이용하여 상기 얼굴 모델에 대응되는 제2 융합 변형 데이터를 획득하는 단계를 포함한다.
하나의 예에 있어서, 업데이트얼굴 모델에 대응되는 융합 변형 데이터의 방법은 도 6에 도시된 바와 같이, 아래와 같은 단계를 포함할 수 있다.
단계 601에 있어서, 표준 얼굴 모델에 대응되는 제1 융합 변형 데이터 및 제1 골격 파라미터에 기반하여, 상기 제1 융합 변형 데이터에 대응되는 제1 그리드 데이터를 획득한다.
먼저, 상기 표준 얼굴 모델의 제1 골격 파라미터에 대응되는 표준 그리드 데이터를 획득하고, 상기 표준 그리드 데이터는 표준 얼굴 모델의 골격에 대응되는 그리드 꼭지점 데이터를 포함할 수 있다.
통상적으로, 블랜드 쉐입에 저장된 것은 표정에 대응되는 그리드 데이터와 표준 그리드 데이터 사이의 차이값이다. 표준 그리드 데이터를 획득한 후, 제1 블랜드 쉐입(제1 융합 변형 데이터에 대응되는 블랜드 쉐입)에 저장된 차이값을 더하는 것을 통해, 제1 블랜드 쉐입에 대응되는 제1 그리드 데이터를 복원할 수 있다.
예를 들어, 표준 얼굴 모델에 대응되는 표준 그리드 데이터가 벡터[1,1,1,…,1,1]이고; 눈 크기를 제어하기 위한 블랜드 쉐입에 저장된 융합 변형 데이터가 벡터[0,0,0.5,…,0,0]이면, 이 두 개의 벡터의 차원의 크기는 동일하다. 상기 블랜드 쉐입을 작동할 경우, 상기 융합 변형 데이터와 표준 그리드 데이터를 더하는 것을 통해, 표준 얼굴에서 상응하는 눈이 커지는 효과를 얻을 수 있다. 즉, 표준 그리드 데이터[1,1,1,…,1,1]와 융합 변형 데이터[0,0,0.5,…,0,0]를 더하여 얻은 벡터 [1,1,1.5,…,1,1]는 눈이 커지는 표정에 대응되는 제1 그리드 데이터이다. 본 분야의 기술자라면 이상 그리드 데이터 포맷은 예일 뿐이고, 본 발명 중 그리드 데이터 포맷을 한정하려는 것이 아님을 이해해야 한다.
단계 602에 있어서, 얼굴 모델에 대응되는 제2 골격 파라미터와 상기 제1 골격 파라미터에 기반하여, 상기 조정된 얼굴 모델 중 모든 골격의 변환 매트릭스를 획득한다.
전술한 얼굴 모델과 표준 얼굴 모델 사이가 모든 골격을 순회하므로, 각 골격의 변환 매트릭스를 획득할 수 있다.
하나의 예에 있어서, 아래와 같은 방법을 통해 각 골격의 변환 매트릭스를 획득할 수 있다. 먼저, 상기 표준 얼굴에 대응되는 제1 골격 파라미터에 기반하여, 표준 얼굴 모델 중 각 골격의 위치 매트릭스를 획득하고; 다음, 얼굴 모델에 대응되는 제2 골격 파라미터에 기반하여, 즉 전술한 조정된 골격 파라미터에 기반하여, 얼굴 모델 중 각 골격의 위치 매트릭스를 획득하며; 상기 표준 얼굴 모델에 대응되는 골격의 위치 매트릭스에 상기 얼굴 모델에 대응되는 골격의 위치 매트릭스를 나누면, 각 골격의 변환 매트릭스를 얻을 수 있다.
예를 들어, 아래의 공식을 통해 골격의 변환 매트릭스를 획득할 수 있다.
T=Tnew*inverse(Tnormal) (1)
여기서, T는 골격의 변환 매트릭스를 나타내고, Tnew는 표준 얼굴 모델에 대응되는 골격의 위치 매트릭스를 나타내며, Tnormal은 얼굴 모델에 대응되는 골격의 위치 매트릭스를 나타내며, inverse()는 매트릭스 역변환(matrix inversion)을 구하는 것을 나타낸다.
단계 603에 있어서, 상기 변환 매트릭스를 상기 제1 그리드 데이터에 적용하여, 상기 얼굴 모델에 대응되는 제2 그리드 데이터를 획득한다.
골격의 변환 매트릭스를 단계 601에서 얻은 제1 그리드 데이터에 적용하여, 새로운 그리드 꼭지점 데이터를 얻는다. 주로 골격 스크닝의 사상을 이용하여, 골격의 변화 상태 및 각 그리드 꼭지점의 바인딩 정보에 따라 새로운 그리드 꼭지점 좌표, 즉 얼굴 모델에 대응되는 제2 그리드 데이터를 계산한다. 예를 들어 아래의 공식을 이용하여 계산할 수 있다.
Figure pct00001
(2)
여기서, Vertexnew는 새로운 그리드 꼭지점을 나타내고 , Vertexori는 초기 그리드 꼭지점을 나타내며, k는 상기 꼭지점이 k 개의 골격 영향을 받는 것을 나타내며, Ti는 골격 변환 매트릭스를 나타내며, weighti는 골격 변환 매트릭스(Ti)에 대응되는 가중치를 나타낸다.
단계 604에 있어서, 상기 제2 그리드 데이터에서 상기 제1 그리드 데이터를 감하여, 상기 조정된 얼굴 모델에 대응되는 제2 융합 변형 데이터를 얻는다.
여전히 눈 크기를 제어하기 위한 블랜드 쉐입으로 예를 들면, 단계 601에서 얻은 제1 그리드 데이터는 눈이 커지는 효과를 획득하는데 대응되는 그리드 데이터이다. 단계 602에서 얻은 골격의 변환 매트릭스를 상기 제1 그리드 데이터에 적용하여, 얻은 제2 그리드 데이터는 눈이 커지는 효과를 획득하는 얼굴 모델에 대응된다. 상기 제2 그리드 데이터에서 상기 제1 그리드 데이터에서 얻은 제2 블랜드 쉐입 데이터를 감하면, 얼굴 모델에 대응되는 블랜드 쉐입에 저장된 데이터이다.
본 실시예에 있어서, 새로운 얼굴 모델을 생성한 후, 골격의 변환 매트릭스를 표준 얼굴 모델에 대응되는 블랜드 쉐입에 적용하는 것을 통해, 새로운 얼굴 모델에 적응되게 업데이트하도록 하여, 표정 구동의 정확성을 향상시킬 수 있다.
본 기술분야의 기술자는 본 실시예에서의 융합 변형 데이터를 업데이트하는 방법이, 상기 3 차원 국부 인체 모델 생성 방법을 이용하여 생성된 얼굴 모델에 적용되는 것에 한정되지 않고, 볼 꼬집기된 후의 임의의 모델에 사용될 수 있다. 볼 꼬집기된 후의 모델의 융합 변형 데이터 업데이트의 경우, 변환 매트릭스에서, Tnew는 볼 꼬집기된 후의 모델에 대응되는 골격의 위치 매트릭스를 나타내고, Tnormal은 볼 꼬집기 되기 전 모델에 대응되는 골격의 위치 매트릭스를 나타낸다.
생성된 얼굴 모델의 경우, 통상적으로 모델 분할의 방식을 사용하여 자체 정의 메이크업을 생성하고, 이는 얼굴 모델 중 각 교체 가능한 부재를 위해 독립적인 모델을 분리하는 것을 포함한다. 이러한 방식은 랜더링 단계에서 복수 개의 CPU가 그래픽 프로그래밍 인터페이스를 호출(draw call)하도록 하므로, 프로그램의 성능에 엄중한 영향을 미친다.
이에 기반하여, 아래의 실시예에 있어서, 얼굴 모델에 대한 얼굴 메이크업을 생성하는 방법을 제안하고, 도 7에 도시된 바와 같이, 아래와 같은 단계를 포함할 수 있다.
단계 701에 있어서, 얼굴 모델의 골격 파라미터에 기반하여 적어도 하나의 영역을 포함하는 페이스 맵을 생성하고, 각 상기 영역은 얼굴 메이크업의 교체 가능한 부재에 대응된다.
본 단계에 있어서, 상기 얼굴 모델의 골격 파라미터에 따라 페이스 맵을 생성할 수 있다. 상기 페이스 맵은 복수 개의 영역을 포함할 수 있고, 각 영역은 얼굴 메이크업의 교체 가능한 부재에 대응된다. 상기 복수 개의 영역 중 각 영역의 형태는 동일할 수 있거나 상이할 수 있으며, 예를 들어 똑같이 직사각형 영역일 수 있다. 상이한 골격 파라미터의 경우, 각 직사각형 영역의 크기 및 위치는 통상적으로 상이하다. 여기서 언급된 메이크업은, 생성된 얼굴 모델이 이미 갖고 있거나, 교체 불가한 부분이 아닌, 얼굴 모델이 교체 가능한 얼굴 부분을 가리키고, 예를 들어, 눈썹, 볼, 수염 등이다. 본 기술분야의 기술자는, 교체 가능한 부분이 상기에 한정되지 않고, 또한 다른 얼굴 메이크업 부재를 포함할 수 있음을 이해해야 한다.
본 기술분야의 기술자는, 상기 페이스 맵이 다른 방식에 의해 제작되고 생성된 페이스 맵인 것이고, 상기 얼굴 모델의 골격 파라미터에 기반하여 생성된 것에 한정되지 않음을 이해해야 한다.
도 8a에 도시된 바와 같이, 상기 페이스 맵은 눈썹, 볼, 입술 또는 입술 및 수염에 대응되는 직사각형 영역을 포함한다. 여기서, 각 직사각형 영역은 너비, 높이, 좌표의 가로 방향 오프셋 값, 좌표의 세로 방향 오프셋 값 중 적어도 하나를 포함할 수 있다. 본 기술분야의 기술자는, 상기 영역이 다른 형태의 영역일 수도 있고, 직사각형 영역에 한정되지 않음을 이해해야 한다.
단계 702에 있어서, 각 상기 영역에 대해, 상응하는 교체 가능한 부재 맵을 획득한다.
페이스 맵 중 메이크업의 교체 가능한 부재에 대응되는 영역이 직사각형 영역인 것으로 예를 들면, 본 단계에 있어서, 직사각형 영역의 파라미터에 따라 상응하는 교체 가능한 부재 맵(아래에 부재 맵으로 지칭될 수도 있음)을 제작하고 생성할 수 있고, 상응하는 부재 맵을 호출하여 도입할 수도 있다. 부재 맵의 예는 도 8b에 도시된 것을 참조하고, 여기서, 각 교체 가능한 부재 맵은 상응하는 직사각형 영역의 너비 및 높이와 일치하다. 여기서, 각 교체 가능한 부재의 맵의 색상은 변경될 수 있고, 또한 맵에 한 층의 세부적인 무늬가 추가되도록 할 수도 있다.
하나의 예에 있어서, 교체 가능한 부재 맵의 투명도 정보 및 무늬 정보를 혼합하는 것을 통해, 상기 교체 가능한 부재 맵의 무늬를 생성할 수 있다. 상기 무늬 정보는 교체 가능한 부재의 맵에 의해 선택된 무늬 정보일 수 있다.
단계 703에 있어서, 각 상기 교체 가능한 부재 맵과 상기 페이스 맵을 병합하여, 병합된 맵을 얻는다.
하나의 예에 있어서, 아래와 같은 방식을 통해 얼굴 메이크업의 각 교체 가능한 부재 맵과 페이스 맵을 병합할 수 있다. 교체 가능한 부재 맵에 대응되는 직사각형 영역의 좌표의 가로 방향 오프셋 값 및 좌표의 세로 방향 오프셋 값에 따라, 상기 교체 가능한 부재 맵을 페이스 맵에 상응하는 직사각형 영역에 복사하고; 페이스 맵과 상기 교체 가능한 부재 맵을 투명도 정보에 따라 혼합한다. 상기 투명도 정보는 상기 교체 가능한 부재 맵의 투명도 정보이고, 그 혼합 공식은 아래와 같다.
Figure pct00002
(3)
여기서,
Figure pct00003
은 병합된 맵이 최종적으로 나타낸 색상을 나타내고,
Figure pct00004
은 Alpha!=1일 경우 페이스 맵(
Figure pct00005
)의 색상을 나타내며,
Figure pct00006
은 Alpha==1일 경우 교체 가능한 부재 맵(
Figure pct00007
)의 색상을 나타낸다.
하나의 예에 있어서, 먼저 페이스 맵을 랜더링 무늬(Render Texture)에 복사할 수 있고, 다음 각 교체 가능한 부재 맵을 페이스 맵에 상응하는 직사각형 영역에 복사하여, 랜더링 무늬를 이용하여 교체 가능한 부재 맵과 페이스 맵의 병합을 구현한다. 다른 하나의 예에 있어서, 페이스 맵 및 이에 대응되는 쉐이더 모델(shader)을 랜더링 무늬에 공동으로 복사할 수 있다.
교체 가능한 부재 맵과 페이스 맵이 병합된 결과는 도 8c에 도시된 바와 같다.
단계 704에 있어서, 상기 병합된 맵을 상기 얼굴 모델에 맵핑하여, 상기 얼굴 모델의 얼굴 메이크업을 생성한다.
하나의 예에 있어서, 먼저 상기 페이스 맵을 하나의 프레임 버퍼 대상(Frame buffer Object)에 랜더링할 수 있고, 상기 얼굴 모델의 무늬 좌표(UV)에 따라, 상기 프레임 버퍼 대상을 GPU에서 얼굴 모델에 대응되는 맵 대상에 관련시킴으로써, 상기 병합된 맵부터 상기 얼굴 모델로의 맵핑을 구현한다.
도 9a는 초기의 얼굴 모델을 도시하고, 도 9b는 상기 방법을 통해 얼굴 메이크업이 생성된 얼굴 모델을 도시한다.
본 실시예에 있어서, 페이스 맵 및 얼굴 메이크업 중 각 교체 가능한 부재에 대응되는 맵을 생성하는 것을 통해, 먼저 병합하고 다음 드로잉하는 방법을 이용하여, 랜더링 효율을 향상시킨다.
도 10a는 3 차원 국부 인체 모델의 생성 장치를 제공하고, 도 10a에 도시된 바와 같이, 상기 장치는, 3 차원 국부 인체 모델을 포함하는 골격 파라미터 조정 정보를 획득하기 위한 획득 유닛(1001); 상기 골격 파라미터 조정 정보에 따라, 상기 3 차원 국부 인체 모델의 골격 파라미터를 조정하기 위한 조정 유닛(1002); 및 조정된 상기 골격 파라미터에 따라, 3 차원 국부 인체 모델을 생성하기 위한 생성 유닛(1003)을 포함할 수 있다.
도 10b는 다른 3 차원 국부 인체 모델의 생성 장치를 제공한다. 상기 3 차원 국부 인체 모델이 얼굴 모델일 경우, 도 10b에 도시된 바와 같이, 상기 장치는 또한, 미리 획득된 표준 얼굴 모델에 대응되는 제1 골격 파라미터 및 제1 융합 변형 데이터 및 상기 얼굴 모델에 대응되는 제2 골격 파라미터에 기반하여, 상기 얼굴 모델에 대응되는 제2 융합 변형 데이터를 획득하기 위한 업데이트 유닛(1005)을 포함할 수 있다.
도 10c는 다른 3 차원 국부 인체 모델의 생성 장치를 제공한다. 상기 3 차원 국부 인체 모델이 얼굴 모델일 경우, 도 10c에 도시된 바와 같이, 상기 장치는 또한, 상기 얼굴 모델에 대한 얼굴 메이크업을 생성하기 위한 메이크업 생성 유닛(1006)을 포함할 수 있고, 상기 유닛은 구체적으로, 상기 얼굴 모델의 골격 파라미터에 기반하여 페이스 맵을 생성하고 - 상기 페이스 맵은 복수 개의 영역을 포함하고, 각 상기 영역은 상기 얼굴 모델의 얼굴 메이크업의 교체 가능한 부재에 대응됨 - ; 각 상기 영역에 대해, 상기 영역의 파라미터에 기반하여 상응하는 교체 가능한 부재 맵을 획득하며; 각 상기 교체 가능한 부재 맵과 상기 페이스 맵을 병합하여, 병합된 맵을 얻으며; 상기 병합된 맵을 상기 얼굴 모델에 맵핑하여, 상기 얼굴 모델의 상기 얼굴 메이크업을 생성하기 위한 것이다.
도 11은 본 명세서의 적어도 하나의 실시예에서 제공한 3 차원 국부 인체 모델의 생성 기기이고, 도 11에 도시된 바와 같이, 상기 기기는 메모리(1101), 프로세서(1102)를 포함할 수 있다. 여기서, 상기 메모리(1101)는 프로세서(1102) 상에서 작동 가능한 컴퓨터 명령어를 저장하기 위한 것이며, 상기 프로세서(1102)는 상기 컴퓨터 명령어를 실행할 경우 본 명세서의 어느 한 실시예에 따른 3 차원 국부 인체 모델의 생성 방법을 구현하기 위한 것이다.
본 명세서의 적어도 하나의 실시예는 또한 컴퓨터 프로그램이 저장되어 있는 컴퓨터 판독 가능한 저장 매체를 제공하고, 상기 프로그램이 프로세서에 의해 실행될 경우 본 명세서에 따른 어느 한 3 차원 국부 인체 모델의 생성 방법을 구현한다.
본 기술분야의 기술자는 본 명세서의 하나 또는 복수 개의 실시예 방법, 시스템 또는 컴퓨터 프로그램 제품으로 제공될 수 있음을 알아야 한다. 따라서, 본 명세서의 하나 또는 복수 개의 실시예는 완전한 하드웨어 실시예, 완전한 소프트웨어 실시예 또는 소프트웨어 및 하드웨어 측면의 실시예의 결합 형식을 사용할 수 있다. 또한, 본 명세서의 하나 또는 복수 개의 실시예는 컴퓨터 사용 가능한 프로그램 코드를 포함하는 하나 또는 복수 개의 컴퓨터 사용 가능한 저장 매체(자기 디스크 기억 장치, CD-ROM 및 광 메모리 등)에서 실시되는 컴퓨터 프로그램 제품의 형태를 사용할 수 있다.
본 명세서에서의 각 실시예는 점진적인 방식을 사용하여 설명되고, 각 실시예 사이의 동일하고 유사한 부분은 서로 참조하면 되며, 각 실시예는 다른 실시예와의 상이한 점을 설명하는데 중점을 두고 있다. 특히, 데이터 처리 기기 실시예의 경우, 방법 실시예와 대체적으로 유사하므로, 설명된 것이 비교적 간단하고, 관련된 부분은 방법 실시예의 일부 설명을 참조하면 된다.
이상 본 명세서의 특정한 실시예를 설명하였다. 다른 실시예는 첨부된 청구항의 범위 내에 존재한다. 일부 경우에, 첨부된 청구항에서 기재된 동작 또는 단계는 실시예와 다른 순서에 따라 실행될 수 있고 여전히 원하는 결과를 구현할 수 있다. 또한, 첨부 도면에서 도시된 과정은 원하는 결과를 구현하기 위해 도시된 특정한 순서 또는 연속적인 순서를 반드시 요구하지 않는다. 일부 실시형태에 있어서, 멀티 작업 처리 및 병행 처리는 가능할 수 있거나 유리할 수도 있다.
본 명세서에서 설명된 주제 및 기능적 조작의 실시예는, 디지털 전자 회로, 유형적으로 반영된 컴퓨터 소프트웨어 또는 펌웨어, 본 명세서에서 개시된 구조 및 구조적 등가물을 포함하는 컴퓨터 하드웨어, 또는 그들 중 하나 또는 복수 개의 조합 중에서 구현될 수 있다. 본 명세서에서 설명된 주제의 실시예는 하나 또는 복수 개의 컴퓨터 프로그램으로 구현될 수 있고, 즉 유형적인 비일시적 프로그램 반송체에서 데이터 처리 장치에 의해 실행되거나 데이터 처리 장치의 조작을 제어하는 컴퓨터 프로그램 명령어를 코딩하는 하나 또는 복수 개의 모듈이다. 대안 가능하거나 추가적으로, 프로그램 명령어는 인공적으로 생성된 전파 신호에서 코딩될 수 있고, 예를 들어 기계에 의해 생성된 전기, 광 또는 전자기 신호이며, 상기 신호는 데이터 처리 장치에 의해 실행되기 위해 생성되어 정보를 코딩하고 적절한 수신기 장치에 전송된다. 컴퓨터 저장 매체는 기계 판독 가능한 저장 기기, 기계 판독 가능한 저장 기판, 랜덤 또는 직렬 액세스 메모리 기기, 또는 그들 중 하나 또는 복수 개의 조합일 수 있다.
데이터를 입력하여 조작하고 출력을 생성하는 것에 따라 상응하는 기능을 실행하기 위해, 본 명세서에서 설명된 처리 및 논리 플로우는 하나 또는 복수 개의 컴퓨터 프로그램을 실행하는 하나 또는 복수 개의 프로그래머블 컴퓨터에 의해 실행될 수 있다. 상기 처리 및 논리 플로우는 또한 전용 논리 회로―예를 들어 필드 프로그래머블 게이트 어레이(Field Programmable Gate Array, FPGA) 또는 주문형 집적 회로(Application Specific Integrated Circuit, ASIC)에 의해 실행될 수 있고, 장치도 전용 논리 회로로 구현될 수 있다.
컴퓨터 프로그램을 실행하는데 적절한 컴퓨터는, 예를 들어 범용 및 전용 마이크로 프로세서 중 적어도 하나, 또는 임의의 다른 타입의 중앙처리장치를 포함한다. 통상적으로, 중앙처리장치는 판독 전용 메모리 및 랜덤 액세스 메모리 중 적어도 하나로부터 명령어 및 데이터를 수신한다. 컴퓨터의 기본 컴포넌트는 명령어를 실시 또는 실행하기 위한 중앙처리장치 및 명령어 및 데이터를 저장하기 위한 하나 또는 복수 개의 메모리 기기를 포함한다. 통상적으로, 컴퓨터는 또한 데이터를 저장하기 위한 하나 또는 복수 개의 대용량 저장 기기를 포함하며, 예를 들어 자기 디스크, 자기 광 디스크, 광 디스크 등이며, 또는 컴퓨터는 조작 가능하게 대용량 저장 기기에 커플링되어 이로부터 데이터를 수신하거나 이에 데이터를 전송하며, 또는 두 가지 경우가 동시에 존재할 수 있다. 그러나, 컴퓨터는 이러한 기기가 반드시 구비되어야 하는 것은 아니다. 또한, 컴퓨터는 다른 기기에 삽입될 수 있고, 예를 들어 모바일 핸드폰, 개인용 휴대 단말(personal digital assistant, PDA), 모바일 오디오 또는 비디오 플레이어, 게임 콘솔, 글로벌 포지셔닝 시스템(Global Positioning System, GPS) 수신기이거나, 예를 들어 범용 직렬 버스(Universal Serial Bus, USB), 플래시 메모리 드라이버의 편의식 저장 기기이며, 이상만 예를 든다.
컴퓨터 프로그램 명령어 및 데이터를 저장하는데 적절한 컴퓨터 판독 가능한 매체는 모든 형태의 비휘발성 메모리, 매체 및 메모리 기기를 포함하고, 예를 들어 반도체 메모리 기기(예를 들어EPROM, EEPROM 및 플래시 기기), 자기 디스크(예를 들어 내부 하드웨어 또는 모바일 디스크), 자기 광 디스크 및 CD ROM 및 DVD-ROM 디스크이다. 프로세서 및 메모리는 전용 논리 회로에 의해 보충되거나 전용 논리 회로에 통합될 수 있다.
본 명세서가 많은 구체적인 실시 세부 사항을 포함하더라도, 이러한 것은 본 발명의 범위 또는 보호 요청된 범위를 한정하는 것으로 해석되어서는 안되고, 주로 구체적인 실시예의 특징을 설명하기 위한 것이다. 본 명세서 내에서 복수 개의 실시예에서 설명된 일부 특징은 단일 실시예에서 조합되어 실시될 수 있다. 다른 측면에 있어서, 단일 실시예에서 설명된 다양한 특징은 복수 개의 실시예에서 분리되어 실시되거나 임의의 적절한 서브 세트로 실시될 수 있다. 또한, 특징이 상기와 같은 일부 조합에서 역할을 하고 심지어 최초로 이처럼 보호가 요청되더라도, 보호가 요청된 조합 중 하나 또는 복수 개의 특징은 이러한 경우에서 상기 조합으로부터 제거되며, 보호가 요청된 조합은 서브 조합 또는 서브 조합의 변형을 가리킬 수 있다.
이와 유사하게, 도면에서 특정한 순서로 조작을 설명하였지만, 이는 원하는 결과를 구현하기 위해 이러한 요구가 특정한 순서로 실행되거나 순차적으로 실행되어야 하거나, 모든 예의 조작이 실행되어야 하는 것으로 이해하여서는 안된다. 일부 경우에, 멀티 업무 및 병행 처리는 유리할 수 있다. 또한, 상기 실시예에서의 다양한 시스템 모듈 및 컴포넌트의 분리는 모든 실시예에서 이러한 분리가 필요한 것으로 이해되어서는 안되고, 설명된 프로그램 컴포넌트 및 시스템은 통상적으로 단일 소프트웨어 제품에 통합될 수 있거나, 복수 개의 소프트웨어 제품으로 패키징될 수 있음을 이해해야 한다.
이로써, 주제의 특정한 실시예는 이미 설명되었다. 다른 실시예는 청구범위의 범위 내에 존재한다. 일부 경우에, 청구범위에서 설명된 동작은 상이한 순서로 실행되고 여전히 원하는 결과를 구현한다. 또한, 첨부 도면에서 도시된 처리는 원하는 결과를 구현하기 위해 반드시 도시된 특정한 순서 또는 순차적인 순서여야 하는 것이 아니다. 일부 구현에 있어서, 멀티 업무 및 병행 처리는 유리할 수 있다.
이상의 내용은 본 명세서의 하나 또는 복수 개의 실시예의 바람직한 실시예일 뿐, 본 명세서의 하나 또는 복수 개의 실시예들을 한정하기 위한 것이 아니며, 본 출원의 실시에의 사상 및 원칙 내에서 이루어진 임의의 수정, 동등한 교체, 개선 등은, 본 명세서의 하나 또는 복수 개의 실시예의 보호 범위에 포함되어야 한다.

Claims (26)

  1. 3 차원 국부 인체 모델의 생성 방법으로서,
    3 차원 국부 인체 모델의 골격 파라미터 조정 정보를 획득하는 단계;
    상기 골격 파라미터 조정 정보에 따라, 상기 3 차원 국부 인체 모델의 골격 파라미터를 조정하는 단계; 및
    조정된 상기 골격 파라미터에 따라, 상기 3 차원 국부 인체 모델을 생성하는 단계를 포함하는 것을 특징으로 하는 3 차원 국부 인체 모델의 생성 방법.
  2. 제1항에 있어서,
    상기 3 차원 국부 인체 모델의 골격 파라미터 조정 정보를 획득하는 단계는,
    골격 파라미터 조정 명령어를 수신하는 단계; 및
    상기 골격 파라미터 조정 명령어에 따라 상기 골격 파라미터 조정 정보를 결정하는 단계를 포함하는 것을 특징으로 하는 3 차원 국부 인체 모델의 생성 방법.
  3. 제1항 또는 제2항에 있어서,
    상기 골격 파라미터 조정 정보에 따라, 상기 3 차원 국부 인체 모델의 골격 파라미터를 조정하는 단계는,
    상기 3 차원 국부 인체 모델의 골격 파라미터 중, 상기 골격 파라미터 조정 정보와 관련된 적어도 하나의 골격의 파라미터를 획득하는 단계; 및
    상기 골격 파라미터 조정 정보에 따라 상기 적어도 하나의 골격의 파라미터를 조정하는 단계를 포함하는 것을 특징으로 하는 3 차원 국부 인체 모델의 생성 방법.
  4. 제3항에 있어서,
    상기 적어도 하나의 골격이 복수 개의 골격을 포함하는 경우에, 상기 골격 파라미터 조정 정보에 따라 상기 적어도 하나의 골격의 파라미터를 조정하는 단계는,
    상기 골격 파라미터 조정 정보에 따라 상기 복수 개의 골격의 파라미터를 동시에 조정하는 단계를 포함하는 것을 특징으로 하는 3 차원 국부 인체 모델의 생성 방법.
  5. 제3항 또는 제4항에 있어서,
    상기 골격 파라미터 조정 정보에 따라 상기 적어도 하나의 골격의 파라미터를 조정하는 단계는,
    상기 골격 파라미터 조정 정보에 대응되는 제1 조절 범위를 획득하는 단계;
    상기 골격 파라미터 조정 정보와 관련된 골격 파라미터의 제2 조절 범위를 획득하는 단계; 및
    상기 골격 파라미터 조정 정보가 상기 제1 조절 범위 내에서의 변화 비례에 따라, 상기 제2 조절 범위 내에서 상기 골격 파라미터 조정 정보와 관련된 상기 골격 파라미터의 값을 조정하는 단계를 포함하는 것을 특징으로 하는 3 차원 국부 인체 모델의 생성 방법.
  6. 제2항 내지 제5항 중 어느 한 항에 있어서,
    상기 골격 파라미터 조정 명령어에 따라 상기 골격 파라미터 조정 정보를 결정하는 단계는,
    상기 골격 파라미터 조정 명령어에 대해 설정된 컨트롤의 출력 변화량을 획득하는 단계; 및
    상기 출력 변화량에 따라 상기 골격 파라미터 조정 정보를 결정하는 단계를 포함하는 것을 특징으로 하는 3 차원 국부 인체 모델의 생성 방법.
  7. 제1항 내지 제6항 중 어느 한 항에 있어서,
    상기 3 차원 국부 인체 모델은 얼굴 모델을 포함하고, 상기 3 차원 국부 인체 모델의 생성 방법은,
    상기 얼굴 모델의 골격 파라미터에 기반하여 페이스 맵을 생성하는 단계 - 상기 페이스 맵은 복수 개의 영역을 포함하고, 각 상기 영역은 상기 얼굴 모델의 얼굴 메이크업의 교체 가능한 부재에 대응됨 - ;
    각 상기 영역에 대해, 상기 영역의 파라미터에 따라 상응하는 교체 가능한 부재 맵을 획득하는 단계;
    각 상기 교체 가능한 부재 맵과 상기 페이스 맵을 병합하여, 병합된 맵을 얻는 단계; 및
    상기 병합된 맵을 상기 얼굴 모델에 맵핑하여, 상기 얼굴 모델의 얼굴 메이크업을 생성하는 단계를 더 포함하는 것을 특징으로 하는 3 차원 국부 인체 모델의 생성 방법.
  8. 제7항에 있어서,
    상기 영역은 직사각형 영역이고, 상기 직사각형 영역의 파라미터는 너비 및 높이를 포함하며;
    상기 영역의 파라미터에 따라 상응하는 교체 가능한 부재 맵을 획득하는 단계는,
    상기 직사각형 영역의 너비 및 높이와 일치하는 교체 가능한 부재 맵을 획득하는 단계를 포함하는 것을 특징으로 하는 3 차원 국부 인체 모델의 생성 방법.
  9. 제7항 또는 제8항에 있어서,
    상기 영역은 직사각형 영역이고, 상기 직사각형 영역의 파라미터는 좌표의 가로 방향 오프셋 값 및 좌표의 세로 방향 오프셋 값을 포함하며; 상기 교체 가능한 부재 맵은 투명도 정보를 포함하고;
    상기 교체 가능한 부재 맵과 상기 페이스 맵을 병합하는 단계는,
    상기 교체 가능한 부재 맵에 대응되는 직사각형 영역의 좌표의 가로 방향 오프셋 값 및 좌표의 세로 방향 오프셋 값에 따라, 상기 교체 가능한 부재 맵을 상응하는 직사각형 영역에 복사하는 단계; 및
    상기 페이스 맵과 상기 교체 가능한 부재 맵을 상기 투명도 정보에 따라 혼합하는 단계를 포함하는 것을 특징으로 하는 3 차원 국부 인체 모델의 생성 방법.
  10. 제7항 내지 제9항 중 어느 한 항에 있어서,
    상기 교체 가능한 부재 맵은 투명도 정보를 포함하고; 상기 영역에 상응하는 교체 가능한 부재 맵을 획득하는 단계는,
    상기 교체 가능한 부재에 대하여 선택된 무늬 정보를 획득하는 단계; 및
    상기 교체 가능한 부재 맵의 투명도 정보 및 상기 무늬 정보를 혼합하는 것을 통해, 무늬를 갖는 교체 가능한 부재 맵을 생성하는 단계를 포함하는 것을 특징으로 하는 3 차원 국부 인체 모델의 생성 방법.
  11. 제7항 내지 제10항 중 어느 한 항에 있어서,
    상기 병합된 맵을 상기 얼굴 모델에 맵핑하는 단계는,
    상기 얼굴 모델의 무늬 좌표(UV)에 따라, 상기 병합된 맵을 상기 얼굴 모델에 맵핑하는 단계를 포함하는 것을 특징으로 하는 3 차원 국부 인체 모델의 생성 방법.
  12. 제1항 내지 제11항 중 어느 한 항에 있어서,
    상기 3 차원 국부 인체 모델은 얼굴 모델을 포함하고, 상기 3 차원 국부 인체 모델의 생성 방법은,
    표준 얼굴 모델에 대응되는 제1 골격 파라미터 및 제1 융합 변형 데이터를 획득하는 단계;
    상기 얼굴 모델에 대응되는 제2 골격 파라미터를 획득하는 단계; 및
    상기 제2 골격 파라미터 및 상기 제1 골격 파라미터 사이의 변환 관계에 기반하여, 상기 제1 융합 변형 데이터를 이용하여 상기 얼굴 모델에 대응되는 제2 융합 변형 데이터를 획득하는 단계를 더 포함하는 것을 특징으로 하는 3 차원 국부 인체 모델의 생성 방법.
  13. 3 차원 국부 인체 모델의 생성 장치로서,
    3 차원 국부 인체 모델의 골격 파라미터 조정 정보를 획득하기 위한 획득 유닛;
    상기 골격 파라미터 조정 정보에 따라, 상기 3 차원 국부 인체 모델의 골격 파라미터를 조정하기 위한 조정 유닛; 및
    조정된 상기 국부 인체 골격 파라미터에 따라, 상기 3 차원 국부 인체 모델을 생성하기 위한 생성 유닛을 포함하는 것을 특징으로 하는 3 차원 국부 인체 모델의 생성 장치.
  14. 제13항에 있어서,
    상기 획득 유닛은 구체적으로,
    골격 파라미터 조정 명령어를 수신하고;
    상기 골격 파라미터 조정 명령어에 따라 상기 골격 파라미터 조정 정보를 결정하기 위한 것임을 특징으로 하는 3 차원 국부 인체 모델의 생성 장치.
  15. 제13항 또는 제14항에 있어서,
    상기 조정 유닛은 구체적으로,
    상기 3 차원 국부 인체 모델의 골격 파라미터 중, 상기 골격 파라미터 조정 정보와 관련된 적어도 하나의 골격의 파라미터를 획득하고;
    상기 골격 파라미터 조정 정보에 따라 상기 적어도 하나의 골격의 파라미터를 조정하기 위한 것임을 특징으로 하는 3 차원 국부 인체 모델의 생성 장치.
  16. 제15항에 있어서,
    상기 적어도 하나의 골격이 복수 개의 골격을 포함하는 경우에, 상기 조정 유닛이 상기 골격 파라미터 조정 정보에 따라 상기 적어도 하나의 골격의 파라미터를 조정하기 위한 것일 경우, 상기 조정 유닛은 구체적으로,
    상기 골격 파라미터 조정 정보에 따라 상기 복수 개의 골격의 파라미터를 동시에 조정하기 위한 것임을 특징으로 하는 3 차원 국부 인체 모델의 생성 장치.
  17. 제15항 또는 제16항에 있어서,
    상기 조정 유닛이 상기 골격 파라미터 조정 정보에 따라 상기 적어도 하나의 골격의 파라미터를 조정하기 위한 것일 경우, 상기 조정 유닛은 구체적으로,
    상기 골격 파라미터 조정 정보에 대응되는 제1 조절 범위를 획득하고;
    상기 골격 파라미터 조정 정보와 관련된 골격 파라미터의 제2 조절 범위를 획득하며;
    상기 골격 파라미터 조정 정보가 상기 제1 조절 범위 내에서의 변화 비례에 따라, 상기 제2 조절 범위 내에서 상기 골격 파라미터 조정 정보와 관련된 상기 골격 파라미터의 값을 조정하기 위한 것임을 특징으로 하는 3 차원 국부 인체 모델의 생성 장치.
  18. 제13항 내지 제17항 중 어느 한 항에 있어서,
    상기 조정 유닛이 상기 골격 파라미터 조정 명령어에 따라 상기 골격 파라미터 조정 정보를 결정하기 위한 것일 경우, 상기 조정 유닛은 구체적으로,
    상기 골격 파라미터 조정 명령어에 대해 설정된 컨트롤의 출력 변화량을 획득하고;
    상기 출력 변화량에 따라 상기 골격 파라미터 조정 정보를 결정하기 위한 것임을 특징으로 하는 3 차원 국부 인체 모델의 생성 장치.
  19. 제13항 내지 제18항 중 어느 한 항에 있어서,
    상기 3 차원 국부 인체 모델은 얼굴 모델을 포함하고; 상기 3 차원 국부 인체 모델의 생성 장치는 메이크업 생성 유닛을 더 포함하고, 상기 메이크업 생성 유닛은,
    상기 얼굴 모델의 골격 파라미터에 기반하여 페이스 맵을 생성하고 - 상기 페이스 맵은 복수 개의 영역을 포함하고, 각 상기 영역은 상기 얼굴 모델의 얼굴 메이크업의 교체 가능한 부재에 대응됨 - ;
    각 상기 영역에 대해, 상기 영역의 파라미터에 따라 상응하는 교체 가능한 부재 맵을 획득하며;
    각 상기 교체 가능한 부재 맵과 상기 페이스 맵을 병합하여, 병합된 맵을 얻으며;
    상기 병합된 맵을 상기 얼굴 모델에 맵핑하여, 상기 얼굴 모델의 얼굴 메이크업을 생성하기 위한 것임을 특징으로 하는 3 차원 국부 인체 모델의 생성 장치.
  20. 제19항에 있어서,
    상기 영역은 직사각형 영역이고, 상기 직사각형 영역의 파라미터는 너비 및 높이를 포함하며; 상기 메이크업 생성 유닛이 상기 영역의 파라미터에 따라 상응하는 교체 가능한 부재 맵을 획득하기 위한 것일 경우, 상기 메이크업 생성 유닛은 구체적으로,
    상기 직사각형 영역의 너비 및 높이와 일치하는 교체 가능한 부재 맵을 획득하기 위한 것임을 특징으로 하는 3 차원 국부 인체 모델의 생성 장치.
  21. 제19항 또는 제20항에 있어서,
    상기 영역은 직사각형 영역이고, 상기 직사각형 영역의 파라미터는 좌표의 가로 방향 오프셋 값 및 좌표의 세로 방향 오프셋 값을 포함하며; 상기 교체 가능한 부재 맵은 투명도 정보를 포함하고; 상기 메이크업 생성 유닛이 상기 교체 가능한 부재 맵과 상기 페이스 맵을 병합하기 위한 것일 경우, 상기 메이크업 생성 유닛은 구체적으로,
    상기 교체 가능한 부재 맵에 대응되는 직사각형 영역의 좌표의 가로 방향 오프셋 값 및 좌표의 세로 방향 오프셋 값에 따라, 상기 교체 가능한 부재 맵을 상응하는 직사각형 영역에 복사하고;
    상기 페이스 맵과 상기 교체 가능한 부재 맵을 상기 투명도 정보에 따라 혼합하기 위한 것임을 특징으로 하는 3 차원 국부 인체 모델의 생성 장치.
  22. 제19항 내지 제21항 중 어느 한 항에 있어서,
    상기 교체 가능한 부재 맵은 투명도 정보를 포함하고; 상기 메이크업 생성 유닛이 상기 영역에 상응하는 교체 가능한 부재 맵을 획득하기 위한 것일 경우, 상기 메이크업 생성 유닛은 구체적으로,
    상기 교체 가능한 부재에 대하여 선택된 무늬 정보를 획득하고;
    상기 교체 가능한 부재 맵의 투명도 정보 및 상기 무늬 정보를 혼합하는 것을 통해, 무늬를 갖는 교체 가능한 부재 맵을 생성하기 위한 것임을 특징으로 하는 3 차원 국부 인체 모델의 생성 장치.
  23. 제19항 내지 제22항 중 어느 한 항에 있어서,
    상기 병합 유닛은 구체적으로,
    상기 얼굴 모델의 무늬 좌표(UV)에 따라, 상기 병합된 맵을 상기 얼굴 모델에 맵핑하기 위한 것임을 특징으로 하는 3 차원 국부 인체 모델의 생성 장치.
  24. 제13항 내지 제23항 중 어느 한 항에 있어서,
    상기 3 차원 국부 인체 모델은 얼굴 모델을 포함하고; 상기 장치는 업데이트 유닛을 더 포함하고, 상기 업데이트 유닛은,
    표준 얼굴 모델에 대응되는 제1 골격 파라미터 및 제1 융합 변형 데이터를 획득하고;
    상기 얼굴 모델에 대응되는 제2 골격 파라미터를 획득하며;
    상기 제2 골격 파라미터 및 상기 제1 골격 파라미터 사이의 변환 관계에 기반하여, 상기 제1 융합 변형 데이터를 이용하여 상기 얼굴 모델에 대응되는 제2 융합 변형 데이터를 획득하기 위한 것임을 특징으로 하는 3 차원 국부 인체 모델의 생성 장치.
  25. 3 차원 국부 인체 모델의 생성 기기로서,
    상기 기기는 메모리, 프로세서를 포함하고, 상기 메모리는 프로세서 상에서 작동 가능한 컴퓨터 명령어를 저장하기 위한 것이며, 상기 프로세서는 상기 컴퓨터 명령어를 실행할 경우 제1항 내지 제12항 중 어느 한 항에 따른 3 차원 국부 인체 모델의 생성 방법을 구현하기 위한 것임을 특징으로 하는 3 차원 국부 인체 모델의 생성 기기.
  26. 컴퓨터 프로그램이 저장되어 있는 컴퓨터 판독 가능한 저장 매체로서,
    상기 프로그램이 프로세서에 의해 실행될 경우 제1항 내지 제12항 중 어느 한 항에 따른 3 차원 국부 인체 모델의 생성 방법을 구현하기 위한 것임을 특징으로 하는 컴퓨터 판독 가능한 저장 매체.
KR1020207030574A 2019-05-15 2019-12-19 3 차원 국부 인체 모델의 생성 방법, 장치 및 기기 KR102442484B1 (ko)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CN201910403882.9A CN110111417B (zh) 2019-05-15 2019-05-15 三维局部人体模型的生成方法、装置及设备
CN201910403882.9 2019-05-15
PCT/CN2019/126625 WO2020228322A1 (zh) 2019-05-15 2019-12-19 三维局部人体模型的生成方法、装置及设备

Publications (2)

Publication Number Publication Date
KR20200135491A true KR20200135491A (ko) 2020-12-02
KR102442484B1 KR102442484B1 (ko) 2022-09-13

Family

ID=67490282

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020207030574A KR102442484B1 (ko) 2019-05-15 2019-12-19 3 차원 국부 인체 모델의 생성 방법, 장치 및 기기

Country Status (7)

Country Link
US (1) US11367236B2 (ko)
JP (1) JP7126000B2 (ko)
KR (1) KR102442484B1 (ko)
CN (1) CN110111417B (ko)
SG (1) SG11202101797PA (ko)
TW (1) TWI748432B (ko)
WO (1) WO2020228322A1 (ko)

Families Citing this family (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110111417B (zh) 2019-05-15 2021-04-27 浙江商汤科技开发有限公司 三维局部人体模型的生成方法、装置及设备
CN111973988B (zh) * 2020-08-24 2024-02-06 网易(杭州)网络有限公司 游戏中模型的处理方法、装置、设备及存储介质
CN112017295B (zh) * 2020-08-28 2024-02-09 重庆灵翎互娱科技有限公司 一种可调节动态头模型生成方法、终端和计算机存储介质
CN112090082A (zh) * 2020-09-27 2020-12-18 完美世界(北京)软件科技发展有限公司 一种面部骨骼处理方法、装置、电子设备及存储介质
CN112107865A (zh) * 2020-09-27 2020-12-22 完美世界(北京)软件科技发展有限公司 一种面部动画模型处理方法、装置、电子设备及存储介质
CN112102453B (zh) * 2020-09-27 2021-06-18 完美世界(北京)软件科技发展有限公司 一种动画模型骨骼处理方法、装置、电子设备及存储介质
CN112116722B (zh) * 2020-11-20 2022-03-01 深圳羽迹科技有限公司 一种无序3d模型的有序转化方法及系统
CN112419454B (zh) * 2020-11-25 2023-11-28 北京市商汤科技开发有限公司 一种人脸重建方法、装置、计算机设备及存储介质
CN112419485B (zh) * 2020-11-25 2023-11-24 北京市商汤科技开发有限公司 一种人脸重建方法、装置、计算机设备及存储介质
CN112634466B (zh) * 2020-12-25 2021-10-22 游艺星际(北京)科技有限公司 虚拟形象模型的表情显示方法、装置、设备及存储介质
CN112489174A (zh) * 2020-12-25 2021-03-12 游艺星际(北京)科技有限公司 虚拟形象模型的动作显示方法、装置电子设备及存储介质
CN112884895B (zh) * 2021-02-09 2024-03-12 郭金磊 一种基于人体外貌形态的穿搭匹配系统
WO2022248042A1 (en) 2021-05-27 2022-12-01 Huawei Technologies Co., Ltd. Neural radiance field rig for human 3d shape and appearance modelling
CN113610992B (zh) * 2021-08-04 2022-05-20 北京百度网讯科技有限公司 骨骼驱动系数确定方法、装置、电子设备及可读存储介质
CN115629670B (zh) * 2022-12-01 2023-03-17 北京格如灵科技有限公司 虚拟现实环境下手部姿态的显示方法、装置、设备及介质

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003044873A (ja) * 2001-08-01 2003-02-14 Univ Waseda 顔の3次元モデルの作成方法及びその変形方法
JP2010267241A (ja) * 2008-10-17 2010-11-25 Square Enix Co Ltd 3次元モデル表示システム
JP2011107877A (ja) * 2009-11-16 2011-06-02 Sony Corp 画像処理装置および画像処理方法、並びにプログラム
JP2012043057A (ja) * 2010-08-16 2012-03-01 Copcom Co Ltd 顔画像編集用プログラム、その顔画像編集用プログラムを記録した記録媒体及び顔画像編集システム
CN107680167A (zh) * 2017-09-08 2018-02-09 郭睿 一种基于用户形象的三维人体模型创建方法及系统
KR20180069786A (ko) * 2015-08-14 2018-06-25 미테일 리미티드 3d 신체 모델에 대한 3d 의복 모델의 이미지 파일을 생성하기 위한 방법 및 시스템
CN109395390A (zh) * 2018-10-26 2019-03-01 网易(杭州)网络有限公司 游戏角色脸部模型的处理方法、装置、处理器及终端
JP2019512141A (ja) * 2016-03-10 2019-05-09 テンセント・テクノロジー・(シェンジェン)・カンパニー・リミテッド 顔モデル編集方法及び装置

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10033979B2 (en) * 2012-03-23 2018-07-24 Avigilon Fortress Corporation Video surveillance systems, devices and methods with improved 3D human pose and shape modeling
KR101911133B1 (ko) * 2012-06-21 2018-10-23 마이크로소프트 테크놀로지 라이센싱, 엘엘씨 깊이 카메라를 이용한 아바타 구성
CN104268921A (zh) * 2014-09-12 2015-01-07 上海明穆电子科技有限公司 3d人脸表情控制方法及系统
CN104376594B (zh) * 2014-11-25 2017-09-29 福建天晴数码有限公司 三维人脸建模方法和装置
CN104463938A (zh) * 2014-11-25 2015-03-25 福建天晴数码有限公司 三维虚拟试妆方法和装置
US9898858B2 (en) * 2016-05-18 2018-02-20 Siemens Healthcare Gmbh Human body representation with non-rigid parts in an imaging system
JP6574068B2 (ja) * 2017-05-08 2019-09-11 株式会社3D body Lab 人体モデル提供システム、人体モデル提供方法、人体モデル提供装置、表示端末装置、人体モデル表示方法、及びコンピュータプログラム
CN107705365A (zh) * 2017-09-08 2018-02-16 郭睿 可编辑的三维人体模型创建方法、装置、电子设备及计算机程序产品
CN108305309B (zh) * 2018-04-13 2021-07-20 腾讯科技(成都)有限公司 基于立体动画的人脸表情生成方法和装置
US10789753B2 (en) * 2018-04-23 2020-09-29 Magic Leap, Inc. Avatar facial expression representation in multidimensional space
CN108765551B (zh) * 2018-05-15 2022-02-01 福建省天奕网络科技有限公司 一种实现3d模型捏脸的方法及终端
US10234552B1 (en) * 2018-06-27 2019-03-19 University Of South Florida Precise infrastructure mapping using full-waveform inversion of ground penetrating radar signals
CN109191570B (zh) * 2018-09-29 2023-08-22 网易(杭州)网络有限公司 游戏角色脸部模型的调整方法、装置、处理器及终端
CN109523604A (zh) * 2018-11-14 2019-03-26 珠海金山网络游戏科技有限公司 一种虚拟脸型生成方法、装置、电子设备以及存储介质
CN109727302B (zh) * 2018-12-28 2023-08-08 网易(杭州)网络有限公司 骨骼创建方法、装置、电子设备及存储介质
CN110111417B (zh) * 2019-05-15 2021-04-27 浙江商汤科技开发有限公司 三维局部人体模型的生成方法、装置及设备

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003044873A (ja) * 2001-08-01 2003-02-14 Univ Waseda 顔の3次元モデルの作成方法及びその変形方法
JP2010267241A (ja) * 2008-10-17 2010-11-25 Square Enix Co Ltd 3次元モデル表示システム
JP2011107877A (ja) * 2009-11-16 2011-06-02 Sony Corp 画像処理装置および画像処理方法、並びにプログラム
JP2012043057A (ja) * 2010-08-16 2012-03-01 Copcom Co Ltd 顔画像編集用プログラム、その顔画像編集用プログラムを記録した記録媒体及び顔画像編集システム
KR20180069786A (ko) * 2015-08-14 2018-06-25 미테일 리미티드 3d 신체 모델에 대한 3d 의복 모델의 이미지 파일을 생성하기 위한 방법 및 시스템
JP2019512141A (ja) * 2016-03-10 2019-05-09 テンセント・テクノロジー・(シェンジェン)・カンパニー・リミテッド 顔モデル編集方法及び装置
CN107680167A (zh) * 2017-09-08 2018-02-09 郭睿 一种基于用户形象的三维人体模型创建方法及系统
CN109395390A (zh) * 2018-10-26 2019-03-01 网易(杭州)网络有限公司 游戏角色脸部模型的处理方法、装置、处理器及终端

Also Published As

Publication number Publication date
KR102442484B1 (ko) 2022-09-13
JP7126000B2 (ja) 2022-08-25
US20210174568A1 (en) 2021-06-10
US11367236B2 (en) 2022-06-21
TW202109461A (zh) 2021-03-01
SG11202101797PA (en) 2021-03-30
CN110111417B (zh) 2021-04-27
TWI748432B (zh) 2021-12-01
CN110111417A (zh) 2019-08-09
JP2021527861A (ja) 2021-10-14
WO2020228322A1 (zh) 2020-11-19

Similar Documents

Publication Publication Date Title
KR102442484B1 (ko) 3 차원 국부 인체 모델의 생성 방법, 장치 및 기기
KR20200139240A (ko) 가상 객체 변형 처리 방법, 장치, 기기 및 저장 매체
CN109151540B (zh) 视频图像的交互处理方法及装置
CN107452049B (zh) 一种三维头部建模方法及装置
CN106204713B (zh) 静态合并处理方法和装置
US10217259B2 (en) Method of and apparatus for graphics processing
JP3124999B1 (ja) レンダリング方法及び装置、ゲーム装置、並びに仮想空間内のオブジェクトの陰影に関するデータを計算するためのプログラムを格納するコンピュータ読み取り可能な記録媒体
US20090080803A1 (en) Image processing program, computer-readable recording medium recording the program, image processing apparatus and image processing method
JP6852224B2 (ja) 全視角方向の球体ライトフィールドレンダリング方法
JP7160958B2 (ja) 画像処理方法及び装置、画像処理デバイス並びに記憶媒体
CN113470153A (zh) 虚拟场景的渲染方法、装置及电子设备
JP3502796B2 (ja) ビデオゲームにおける立体モデル表示方法及び装置、ゲーム装置並びにビデオゲーム用立体モデル表示プログラムを格納したコンピュータ読み取り可能な記録媒体
US10297036B2 (en) Recording medium, information processing apparatus, and depth definition method
JP2005228110A (ja) 情報処理方法および装置
JP2001084396A (ja) レンダリング方法及び装置、ゲーム装置、並びに立体モデルをレンダリングするためのプログラムを格納したコンピュータ読み取り可能な記録媒体
JPH1074270A (ja) 3次元ゲーム装置及び情報記憶媒体
JP2007272389A (ja) プログラム、情報記録媒体および画像生成システム
JP2023171165A (ja) スタイル変換プログラム、スタイル変換装置、およびスタイル変換方法
CN116452704A (zh) 镜头光晕特效的生成方法、装置、存储介质及电子装置
JP5097636B2 (ja) 画像処理装置、画像処理方法及びプログラム
JP2024511763A (ja) 2レベルのビニングを用いた事後深度可視性収集
CN116271832A (zh) 虚拟形象的编辑方法、装置、介质、电子设备及程序产品
JP2005056385A (ja) 曲面細分割装置
JP2013050895A (ja) ゲーム装置、ゲーム装置の制御方法、ならびに、プログラム

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant