KR100874962B1 - 사용자지정 안면이미지가 반영된 영상 컨텐츠 제작 시스템 - Google Patents

사용자지정 안면이미지가 반영된 영상 컨텐츠 제작 시스템 Download PDF

Info

Publication number
KR100874962B1
KR100874962B1 KR1020070037047A KR20070037047A KR100874962B1 KR 100874962 B1 KR100874962 B1 KR 100874962B1 KR 1020070037047 A KR1020070037047 A KR 1020070037047A KR 20070037047 A KR20070037047 A KR 20070037047A KR 100874962 B1 KR100874962 B1 KR 100874962B1
Authority
KR
South Korea
Prior art keywords
image
dcu
source
reu
facial expression
Prior art date
Application number
KR1020070037047A
Other languages
English (en)
Other versions
KR20080093291A (ko
Inventor
이창환
Original Assignee
(주)에프엑스기어
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by (주)에프엑스기어 filed Critical (주)에프엑스기어
Priority to KR1020070037047A priority Critical patent/KR100874962B1/ko
Priority to PCT/KR2007/003496 priority patent/WO2008126964A1/en
Priority to US12/093,907 priority patent/US8106925B2/en
Priority to TW096144007A priority patent/TWI358038B/zh
Priority to JP2007305803A priority patent/JP4665147B2/ja
Publication of KR20080093291A publication Critical patent/KR20080093291A/ko
Application granted granted Critical
Publication of KR100874962B1 publication Critical patent/KR100874962B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/40Filling a planar surface by adding surface attributes, e.g. colour or texture
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/203D [Three Dimensional] animation
    • G06T13/403D [Three Dimensional] animation of characters, e.g. humans, animals or virtual beings
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F17/00Digital computing or data processing equipment or methods, specially adapted for specific functions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation

Abstract

본 발명은 사용자지정 안면이미지가 반영된 영상 컨텐츠 제작 시스템에 관한 것으로, 본 발명에서는 소스 영상 컨텐츠에 등장하는 특정 소스캐릭터의 안면을 사용자지정 안면이미지(FIU:the Face Image which the User designates) 패턴으로 바꿀 수 있는 일련의 영상 제작 파이프라인을 제공하고, 이를 통해, 영상 관련 업체(예컨대, 제작업체, 배급업체, 판매업체 등) 측에서, 수요자의 개별적인 욕구가 유연하게 반영된 주문형 영상 컨텐츠를 융통성 있게 제작/생산/판매할 수 있는 안정적인 기반 인프라를 자연스럽게 형성할 수 있도록 유도함으로써, 수요자 측에서, 예컨대, 영상 컨텐츠에 등장하는 특정 캐릭터의 안면형상을 자신이 선호하는(자신이 지정한) 다른 이의 안면이미지(예컨대, 자신의 안면이미지, 지인의 안면이미지, 특정 연예인의 안면이미지, 특정 정치인의 안면이미지 등)로 바꾸고 싶은 욕구를 융통성 있게 충족 받을 수 있도록 가이드 할 수 있다.

Description

사용자지정 안면이미지가 반영된 영상 컨텐츠 제작 시스템{The system which compose a pictorial/video image contents where the face image which the user designates is reflected}
도 1은 본 발명에 따른 DCU 제작 시스템의 전체적인 구성을 개념적으로 도시한 예시도.
도 2는 본 발명에 따른 제작 가이드 윈도우의 게시상태를 개념적으로 도시한 예시도.
도 3은 본 발명에 따른 소스캐릭터 표준 표정이미지들의 저장 상태를 개념적으로 도시한 예시도.
도 4는 본 발명에 따른 소스캐릭터 표정 영상의 저장 상태를 개념적으로 도시한 예시도.
도 5는 본 발명에 따른 FIU를 개념적으로 도시한 예시도.
도 6은 본 발명에 따른 소스캐릭터 대표 표정이미지를 개념적으로 도시한 예시도.
도 7은 본 발명에 따른 REU를 개념적으로 도시한 예시도.
도 8은 본 발명에 따른 REU 생성모듈의 세부구성을 개념적으로 도시한 예시도.
도 9는 본 발명에 따른 REU 생성모듈에 소속된 특징점 지정 가이드부의 기능실행 결과를 개념적으로 도시한 예시도.
도 10은 본 발명에 따른 REU 생성모듈에 소속된 REU 생성엔진의 기능수행을 개념적으로 도시한 예시도.
도 11은 본 발명에 따른 SEU를 개념적으로 도시한 예시도.
도 12는 본 발명에 따른 SEU 생성모듈의 세부구성을 개념적으로 도시한 예시도.
도 13은 본 발명에 따른 SEU 생성모듈에 소속된 SEU 생성엔진의 기능수행을 개념적으로 도시한 예시도.
도 14는 본 발명에 따른 EDU를 개념적으로 도시한 예시도.
도 15는 본 발명에 따른 EDU 생성모듈의 세부구성을 개념적으로 도시한 예시도.
도 16 및 도 17은 본 발명에 따른 EDU 생성모듈에 소속된 EDU 생성엔진의 기능수행을 개념적으로 도시한 예시도.
도 18은 본 발명에 따른 DCU를 개념적으로 도시한 예시도.
도 19는 본 발명에 따른 DCU 생성모듈의 세부구성을 개념적으로 도시한 예시도.
도 20은 본 발명에 따른 DCU 생성모듈에 소속된 DCU 생성엔진의 기능수행을 개념적으로 도시한 예시도.
본 발명은 사용자가 지정한 안면이미지가 반영된 영상 컨텐츠를 제작하는 시스템에 관한 것으로, 좀더 상세하게는 소스 영상 컨텐츠에 등장하는 특정 소스캐릭터의 안면을 사용자지정 안면이미지(FIU:the Face Image which the User designates; 이하, "FIU"라 호칭함) 패턴으로 바꿀 수 있는 일련의 영상 제작 파이프라인을 제공하고, 이를 통해, 영상 관련 업체(예컨대, 제작업체, 배급업체, 판매업체 등) 측에서, 수요자의 개별적인 욕구가 유연하게 반영된 주문형 영상 컨텐츠를 융통성 있게 제작/생산/판매할 수 있는 안정적인 기반 인프라를 자연스럽게 형성할 수 있도록 유도함으로써, 수요자 측에서, 예컨대, 영상 컨텐츠에 등장하는 특정 캐릭터의 안면형상을 자신이 선호하는(자신이 지정한) 다른 이의 안면이미지(예컨대, 자신의 안면이미지, 지인의 안면이미지, 특정 연예인의 안면이미지, 특정 정치인의 안면이미지 등)로 바꾸고 싶은 욕구를 융통성 있게 충족 받을 수 있도록 가이드 할 수 있는 FIU가 반영된 영상 컨텐츠 제작 시스템에 관한 것이다.
최근, DVD 플레이어, CD 플레이어, 비디오 플레이어 등과 같은 각종 가전기기의 보급이 급격히 확대되면서, 영상 컨텐츠(예컨대, 뮤직비디오, 영화, 게임, 에니메이션 등)를 구매·시청하는 수요층 또한 큰 폭으로 증대되고 있으며, 이러한 수요층 증대에 힘입어, 예컨대, 영상 DVD, 영상 CD, 영상 비디오 등과 같은 각종 영상 컨텐츠 제품의 출시 규모 또한 해마다 가파른 증가추세를 나타내고 있다.
통상, 이러한 종래의 체제 하에서, 영상 컨텐츠 관련업체 측에서는 영상 컨 텐츠의 제작이 완료되면, 수요자의 개별 욕구를 별도로 고려하지 않은 체, 해당 영상 컨텐츠 제품을 일괄·출시하는 것이 일반적이기 때문에, 어쩌면 당연하게도, 일반에 발매(판매)된 각 영상 컨텐츠에 등장하는 동일 캐릭터들은 항상, 제작사 측에 의해 당초 디자인된 동일한 안면형상을 유지하게 된다.
예를 들어, <알라딘>이라는 영상 컨텐츠 제품 1000매가 일반에 발매(판매)된 경우, 이 1000매의 제품들에 등장하는 지니라는 캐릭터는 모두 제작사 측에 의해 당초 디자인된 동일한 안면형상을 유지하게 되며, <흥부전>이라는 영상 컨텐츠 제품 1000매가 일반에 발매(판매)된 경우에도, 이 1000매의 제품들에 등장하는 흥부라는 캐릭터 역시, 제작사 측에 의해 당초 디자인된 동일한 안면형상을 유지하게 되는 것이다.
물론, 이와 같이, 일반에 발매(판매)된 각 영상 컨텐츠에 등장하는 동일 캐릭터들 모두가, 제작사 측에 의해 당초 디자인된 동일한 안면형상을 유지하게 되는 경우, 수요자 측에서는 예컨대, <특별 주문형식을 취하여, 영상 컨텐츠에 등장하는 특정 캐릭터의 안면형상을 자신이 선호하는(자신이 지정한) 다른 이의 안면이미지(예컨대, 자신의 안면이미지, 지인의 안면이미지, 특정 연예인의 안면이미지, 특정 정치인의 안면이미지 등)로 바꾸고 싶은 욕구>가 있다 하더라도, 이를 전혀 현실화 할 수 없게 되며, 결국, 그에 따른 불편함을 고스란히 감수할 수밖에 없게 된다.
따라서, 본 발명의 목적은 영상 컨텐츠에 등장하는 소스캐릭터의 대표 표정이미지를 사용자의 선호도가 반영된 사용자지정 안면이미지(The Face Image which the User designates; 이하, "FIU"라 호칭함)가 반영되도록 융통성 있게 변환하여, 사용자지정캐릭터용 대표 표정이미지(Representative Expression image for User design character; 이하, "REU"라 호칭함)를 생성할 수 있는 전산모듈, REU 및 소스캐릭터의 대표 표정이미지 사이의 특징적인 관계를 기초로, 소스캐릭터의 표준 표정이미지를 융통성 있게 변환하여, 다수의 사용자지정캐릭터용 표준 표정이미지(Standard Expression image for User design character; 이하, "SEU"라 호칭함)를 생성할 수 있는 전산모듈, 소스캐릭터 측 표정 영상의 생성특성을 기초로, SEU를 적절히 결합·변형하여, 사용자지정캐릭터용 표정 영상(Expression pictorial/viDeo image for User design character; 이하, "EDU"라 호칭함)를 생성할 수 있는 전산모듈, EDU를 소스 영상의 백그라운드(캐릭터 안면 레이어, 배경 레이어, 의상 레이어 등)와 결합하여, 영상에 등장하는 캐릭터의 안면형상이 FIU 패턴으로 새롭게 교체된 형태의 FIU 반영 영상 컨텐츠(pictorial/viDeo image Contents where the face image which the User designates is reflected; 이하, "DCU"라 호칭함)를 생성할 수 있는 전산모듈 등을 일련의 영상 제작 파이프라인으로 제공하고, 이를 통해, 영상 관련 업체(예컨대, 제작업체, 배급업체, 판매업체 등) 측에서, 수요자의 개별적인 욕구가 유연하게 반영된 주문형 영상 컨텐츠를 융통성 있게 제작/생산/판매할 수 있는 안정적인 기반 인프라를 자연스럽게 형성할 수 있도록 유도함으로써, 수요자 측에서, 예컨대, 영상 컨텐츠에 등장하는 특정 캐릭터의 안면형상을 자신이 선호하는(자신이 지정한) 다른 이의 안면이미지(예컨대, 자신의 안면이미지, 지인의 안면이미지, 특정 연예인의 안면이미지, 특정 정치인의 안면이미지 등)로 바꾸고 싶은 욕구를 융통성 있게 충족 받을 수 있도록 가이드 하는데 있다.
본 발명의 다른 목적은 다음의 상세한 설명과 첨부된 도면으로부터 보다 명확해질 것이다.
상기와 같은 목적을 달성하기 위하여 본 발명에서는 운영체제를 구비한 정보처리장치 내에 설치된 상태로, 소스 영상 컨텐츠와 관련된 정보를 저장 관리하며, 제작 가이드 윈도우를 출력 운영하면서, 상기 소스 영상 컨텐츠에 등장하는 특정 소스캐릭터의 안면을 사용자지정 안면이미지(FIU:the Face Image which the User designates) 패턴으로 바꾸는 절차를 총괄 제어하는 FIU 반영 영상컨텐츠(DCU:pictorial/viDeo image Contents where the face image which the User designates is reflected) 제작 제어모듈과, 상기 DCU 제작 제어모듈에 의해 제어되며, 상기 소스 영상 컨텐츠에 등장하는 특정 소스캐릭터의 대표 표정이미지를 상기 FIU에 매칭(Matching)되도록 변환하여, 사용자지정캐릭터용 대표 표정이미지(REU:Representative Expression image for User design character)를 생성하는 REU 생성모듈과, 상기 DCU 제작 제어모듈에 의해 제어되며, 상기 소스캐릭터의 대표 표정이미지 및 상기 REU 사이의 변환특성을 기초로, 상기 소스캐릭터의 표준 표정이미지들을 변환하여, 다수의 사용자지정캐릭터용 표준 표정이미지(SEU:Standard Expression image for User design character)를 생성하는 SEU 생성모듈과, 상기 DCU 제작 제어모듈에 의해 제어되며, 상기 소스캐릭터의 표준 표정이미지들 중 소스캐릭터의 각 재생표정 영상에 가장 근접한 근접 표정이미지가 각 재생표정 영상으로 변환될 때의 변환특성을 기초로, 상기 SEU를 선택적으로 결합·변형하여, 사용자지정캐릭터용 표정 영상(EDU:Expression pictorial/viDeo image for User design character)을 생성하는 EDU 생성모듈과, 상기 DCU 제작 제어모듈에 의해 제어되며, 상기 EDU를 상기 소스 영상 컨텐츠의 백그라운드와 결합하여, 상기 소스캐릭터의 안면형상이 상기 FIU 패턴으로 새롭게 교체된 DCU를 생성하는 DCU 생성모듈을 포함하며, 상기 REU 생성모듈은 전체적인 REU 생성절차를 총괄 제어하는 REU 생성 제어부와; 상기 REU 생성 제어부에 의해 제어되며, 상기 FIU를 로딩하는 FIU 로딩부와; 상기 REU 생성 제어부에 의해 제어되며, FIU 로딩부에 의해 로딩된 FIU를 상기 제작 가이드 윈도우를 통해 표시하여, 사용자 측에서 상기 FIU의 주요 부위에 특징점을 지정할 수 있도록 가이드 하는 특징점 지정 가이드부와; 상기 REU 생성 제어부에 의해 제어되며, 상기 FIU 주요 부위에 지정된 특징점의 위치 및 상기 대표 표정이미지의 폴리곤메쉬(Polygon mesh)를 이루는 버텍스(Vertex)들의 위치 사이의 차이 정도를 기초로 하여, REU의 폴리곤메쉬를 이루게될 버텍스들의 위치를 추정하고, 상기 대표 표정이미지의 폴리곤메쉬를 이루는 버텍스들의 위치를 상기 REU의 폴리곤메쉬를 이루게될 버텍스들의 위치로 변환시켜, 상기 FIU에 매칭되는 REU를 생성하는 REU 생성엔진을 포함하는 것을 특징으로 하는 FIU가 반영된 영상 컨텐츠 제작 시스템을 개시한다.
이하, 첨부된 도면을 참조하여, 본 발명에 따른 FIU가 반영된 영상 컨텐츠 제작 시스템을 좀더 상세히 설명하면 다음과 같다.
도 1에 도시된 바와 같이, 본 발명의 FIU가 반영된 영상 컨텐츠 제작 시스템(100)은 예컨대, 노트북 컴퓨터, 테스크탑 컴퓨터 등과 같은 정보처리장치(10) 내에 전산 소속된 구조를 취하게 된다.
이 상황에서, 영상 관련 업체(예컨대, 제작업체, 배급업체, 판매업체 등) 측에서는 입출력기(13:마우스, 키보드, 모니터 등), 운영체제(11), 어플리케이션(12) 등을 매개로, 본 발명의 영상 컨텐츠 제작 시스템을 실행시킴으로써, <수요자의 개별적인 특별 주문에 맞추어, 영상 컨텐츠(예컨대, 알라딘, 백설공주, 신밧드의 모험, 흥부전 등)에 등장하는 특정 캐릭터(지니, 백설공주, 흥부, 신밧드 등)의 안면형상을 수요자가 주문한 다른 이의 안면이미지(예컨대, 자신의 안면이미지, 지인의 안면이미지, 특정 연예인의 안면이미지, 특정 정치인의 안면이미지 등)로 교체한 주문형 영상 컨텐츠>를 융통성 있게 제작하여, 생산/판매할 수 있게 된다.
이때, 도면에 도시된 바와 같이, 본 발명의 FIU가 반영된 영상 컨텐츠 제작 시스템(100)은 크게, DCU 제작 제어모듈(110)과, 이 DCU 제작 제어모듈(110)에 의해 총괄 제어되는 제작 가이드 윈도우 운영모듈(180), FIU 취득모듈(120), 소스 영상 컨텐츠 관련정보 저장모듈(150), REU 생성모듈(130), SEU 생성모듈(140), EDU 생성모듈(170), DCU 생성모듈(160) 등이 긴밀하게 조합된 구성을 취하게 된다.
이 경우, DCU 제작 제어모듈(110)은 인터페이스 모듈(111)을 매개로, 정보처 리장치(10) 측 운영체제(11), 어플리케이션(12) 등과 긴밀한 교신관계를 형성하면서, 영상 관련 업체 측의 전산 작업에 맞추어, 소스 영상 컨텐츠(예컨대, 알라딘, 백설공주, 신밧드의 모험, 흥부전 등)에 등장하는 특정 소스캐릭터(예컨대, 지니, 백설공주, 신밧드, 흥부 등)의 안면을 FIU 패턴으로 바꾸는 절차를 총괄 제어·관리하는 역할을 수행하게 된다.
이때, DCU 제작 제어모듈(110)에 의해 제어되는 제작 가이드 윈도우 운영모듈(120)은 자가 정보저장영역 내에 저장되어 있던 각종 운영정보, 예컨대, 가이드 윈도우를 생성하기 위한 이미지/텍스트 정보, 스킨정보, 링크정보, 설정정보 등을 융통성 있게 추출한 후, 추출 완료된 각 운영정보를 토대로, 도 2에 도시된 바와 같은 제작 가이드 윈도우(201)를 생성하고, 생성 완료된 제작 가이드 윈도우(201)를 정보처리장치(10) 측 출력기(13)를 통해, 선택·게시함으로써, DCU 제작 제어모듈(110)에 의한 각종 서비스 절차의 기초환경이 별다른 문제점 없이 순조롭게 조성될 수 있도록 보조하는 역할을 수행하게 된다.
또한, DCU 제작 제어모듈(110)에 의해 제어되는 소스 영상 컨텐츠 관련정보 저장모듈(150)은 소스캐릭터 표준 표정이미지 저장부(151), 소스캐릭터 표정 영상 저장부(152) 등을 구비한 상태로, <도 3에 도시된 바와 같은 각종 소스캐릭터 표준 표정이미지들>, <도 4에 도시된 바와 같은 소스캐릭터 표정 영상들>을 저장 관리하는 역할을 수행함과 아울러(이 경우, 소스캐릭터 표준 표정이미지들은 소스캐릭터 표정 영상들의 본격적인 형성에 기초가 되는 표준표정, 예컨대, 우는 표정, 화난 표정, 놀라는 표정, 웃는 표정, 발음기호에 해당하는 입 모양 등을 짓고 있는 이미 지들을 의미함), 소스 영상 백그라운드 컨텐츠 저장부(153), 소스 영상 설정정보 저장부(154) 등을 구비한 상태로, 소스 영상 백그라운드 컨텐츠(예컨대, 배경 영상 레이어, 소스캐릭터 바디 영상 레이어, 다른 소스캐릭터 레이어, 소스캐릭터 장신구/의복 레이어 등), 소스 영상 설정정보(예컨대, 소스캐릭터의 대표 표정이미지 지정정보, 소스캐릭터의 표준 표정이미지 및 표정 영상 사이의 변환특성 정보, 근접 표정이미지 관련정보 등) 등을 안정적으로 저장 관리하는 역할을 수행하게 된다.
이러한 기반 인프라가 갖추어진 상황에서, DCU 제작 제어모듈(110)에 의해 제어되는 FIU 취득모듈(120)은 인터페이스 모듈(111)을 매개로, 운영체제(11), 어플리케이션(12) 등과 일련의 교신관계를 형성하면서, 영상 관련 업체 측에서, 제작 가이드 윈도우(201)를 조작하여, 자가 지정한 FIU(이 FIU는 예컨대, 영상 관련 업체 측에 영상 컨텐츠의 제작을 특별히 주문한 수요자에 의해 지정된 자가/연예인/정치인 등의 안면 이미지로써, 이러한 수요자 지정 안면 이미지의 취득과정은 영상 관련 업체 측의 사정에 따라 다양한 변화를 겪을 수 있음)을 유닛(100) 측에 제공하는 전산 작업을 진행하게 경우, 인터페이스 모듈(111)을 매개로, 예컨대, 도 5에 도시된 바와 같은 FIU를 취득한 후, 취득 완료된 FIU를 자가 정보저장버퍼(121)에 저장 관리하는 역할을 수행하게 된다.
또한, DCU 제작 제어모듈(110)에 의해 제어되는 REU 생성모듈(130)은 FIU 취득모듈(120)의 기능 수행에 의해, 앞의 정보저장버퍼(121) 내에 FIU가 확보·저장 완료되면, 소스캐릭터 표준표정 이미지 저장부(151), 소스 영상 설정정보 저장 부(154) 등과 교신을 취하여, 소스캐릭터 표준 표정이미지 저장부(151)에 저장되어 있던 소스캐릭터 표준 표정이미지들 중(도 3 참조), 도 6에 도시된 바와 같은 소스캐릭터 대표 표정이미지(이 경우, 소스캐릭터 대표 표정이미지는 각 소스캐릭터 표준 표정이미지들을 대표할 수 있는 소스캐릭터 표정이미지를 의미함)를 추출한 후, 이 소스캐릭터의 대표 표정이미지를 FIU에 매칭되도록 변환하여, 도 7에 도시된 바와 같은 REU를 생성하는 역할을 수행하게 된다.
이때, 도 8에 도시된 바와 같이, REU 생성모듈(130)은 전체적인 REU 생성절차를 총괄 제어하는 REU 생성 제어부(131)와, 이 REU 생성 제어부(131)의 제어 체제 하에 놓인 FIU 로딩부(135), 소스캐릭터 대표표정 이미지 로딩부(134), 특징점 지정 가이드부(133), REU 생성엔진(137) 등이 긴밀하게 조합된 구성을 취하게 된다.
여기서, REU 생성 제어부(131)에 의해 제어되는 FIU 로딩부(135)는 FIU 취득모듈(120)의 기능 수행에 의해, 앞의 정보저장버퍼(121) 내에 FIU가 확보·저장 완료되면(도 5 참조), 정보교환부(132)를 매개로, FIU 취득모듈(120)과 교신을 취하여, 해당 FIU를 취득하고, 취득 완료된 FIU를 프로세싱 버퍼(136) 내에 로딩하는 역할을 수행하게 된다.
또한, REU 생성 제어부(131)에 의해 제어되는 소스캐릭터 대표 표정이미지 로딩부(134)는 FIU 로딩부(135)의 기능 수행에 의해, FIU의 로딩 절차가 완료되면, 정보교환부(132)를 매개로, 소스 영상 설정정보 저장부(154)와 교신을 취하여, 이에 저장되어 있던 소스캐릭터 대표 표정이미지 지정정보(예컨대, 소스캐릭터 대표 표정이미지가 어떠한 것인지를 알려 주는 정보)를 파악한 후, 정보 교환부를 매개로, 소스캐릭터 표준표정 이미지 저장부(151)와 교신을 취하여, 이에 저장되어 있는 소스 캐릭터 표준 표정이미지들(도 3 참조) 중, 소스캐릭터 대표 표정이미지를 선택적으로 추출하고(도 6 참조), 추출 완료된 소스캐릭터 대표 표정이미지를 프로세싱 버퍼(136) 내에 로딩하는 역할을 수행하게 된다(물론, 이러한 소스캐릭터 대표 표정이미지 로딩부의 기능 수행은 상술한 FIU 로딩부의 기능 수행보다 먼저 진행되어도 무방함).
나아가, REU 생성 제어부(131)에 의해 제어되는 특징점 지정 가이드부(133)는 FIU 로딩부(135)의 기능 수행에 의해 FIU가 프로세싱 버퍼(136)에 로딩 완료되면, 이 FIU를 추출한 후, 제작 가이드 윈도우 운영모듈(180)과 교신을 취하여, 도 9에 도시된 바와 같이, 해당 FIU를 제작 가이드 윈도우(201)를 통해 표시함으로써, 영상 관련 업체(사용자) 측에서 FIU의 주요 부위(눈, 코, 인중 등)에 여러 특징점을 손쉽게 지정할 수 있도록 가이드 하는 역할을 수행하게 된다.
상술한 각 전산 파트들의 절차 완료 상황에서, REU 생성 제어부(131)에 의해 제어되는 REU 생성엔진(137)은 도 10에 도시된 바와 같이, 우선, <FIU(2)의 주요 부위에 지정된 특징점의 위치. 예컨대,
Figure 112007028878004-pat00001
및 대표 표정이미지(1)의 폴리곤메쉬(PS:Polygon mesh)를 이루는 버텍스(Vertex)들의 위치 예컨대,
Figure 112007028878004-pat00002
사이의 차이 정도(예컨대, 두 위치가 얼 만큼 차이가 나는가 하는 정도)>를 획득하는 절차를 진행하게 된다.
이 경우, REU 생성엔진(137)은 아래의 <수학식 1>에 제시된 바와 같은 제한조건, 즉, <FIU(2)의 주요 부위에 지정된 특징점의 위치
Figure 112007028878004-pat00003
와 대표 표정이미지의 버텍스 위치
Figure 112007028878004-pat00004
가 거의 차이가 없다>는 제한조건 하에, 두 위치의 차이를 분석·획득함으로써, 이후 진행될 REU 획득절차, SEU 획득절차, EDU 획득절차 등이 소스캐릭터 측 이미지들(소스캐릭터 대표 표정이미지, 소스캐릭터 표준 표정이미지)의 변형을 최소화한 상태에서 좀더 신속하게 진행될 수 있도록 유도하게 된다.
Figure 112007028878004-pat00005
(여기서,
Figure 112007028878004-pat00006
는 FIU의 주요 부위에 지정된 k번째 특징점의 위치
Figure 112007028878004-pat00007
는 소스캐릭터 대표 표정이미지의 폴리곤메쉬를 이루는 k번째 버텍스의 위치)
앞의 절차에 의해, <FIU(1)의 주요 부위에 지정된 특징점의 위치
Figure 112007028878004-pat00008
및 대표 표정이미지(2)의 폴리곤메쉬를 이루는 버텍스들의 위치
Figure 112007028878004-pat00009
사이의 차이 정도>가 획득되면, REU 생성엔진(137)은 이 차이 정도를 기초로, 아래의 <수학식 2>를 연산하여, 각 항목들의 합을 구하고, 이를 통해, REU(3)의 폴리곤메쉬(PN)를 이루게될 버텍스들의 위치, 예컨대,
Figure 112007028878004-pat00010
를 추정하는 절차를 진행하게 된다.
이때, REU(3)의 폴리곤메쉬(PN)를 이루게될 버텍스들의 위치, 예컨대,
Figure 112007028878004-pat00011
는 <수학식 2>에 제시된 바와 같이, 최소자승법(Least square method)을 통해, 추정되기 때문에, 본 발명의 구현환경 하에서, 소스캐릭터 측 대표 표정이미지(1)의 폴리 곤메쉬(PS)를 이루는 버텍스들, 예컨대,
Figure 112007028878004-pat00012
는 최소한의 변형범위 내에서, FIU(2)의 폴리곤메쉬(PT)를 이루는 버텍스들의 특성과 최적으로 유사해지는 전이패턴을 보이게 되며(즉, 두 버텍스들의 특성 오차가 최소화되게 되며), 결과적으로, 추후 진행되는 <소스캐릭터 측 대표 표정이미지(1)의 폴리곤메쉬(PS)를 이루는 버텍스들의 위치
Figure 112007028878004-pat00013
를 REU(3)의 폴리곤메쉬(PN)를 이루게될 버텍스들의 위치
Figure 112007028878004-pat00014
로 변환시키는 국면>에서, 소스캐릭터의 대표 표정이미지(1)는 자신의 변형율을 최소화 받으면서도, FIU(2)의 특징을 최적으로 반영한 REU(3)로 자연스럽게 최종 전이될 수 있게 된다.
Figure 112007028878004-pat00015
Figure 112007028878004-pat00016
(여기서,
Figure 112007028878004-pat00017
는 REU의 폴리곤메쉬를 이루게될 I번째 버텍스의 위치,
Figure 112007028878004-pat00018
는 소스캐릭터 측 대표 표정이미지의 폴리곤메쉬를 이루는 i번째 삼각형의 변환 매트릭스,
Figure 112007028878004-pat00019
Figure 112007028878004-pat00020
에 이웃하는 j번째 삼각형의 변환 매트릭스,
Figure 112007028878004-pat00021
Figure 112007028878004-pat00022
와 거의 동일한 이상적인 변환 매트릭스,
Figure 112007028878004-pat00023
는 소스캐릭터 측 대표 표정이미지의 폴리곤메쉬를 이루는 i번째 버텍스의 위치,
Figure 112007028878004-pat00024
Figure 112007028878004-pat00025
에 가장 가깝게 대응되면서, FIU의 폴리곤메쉬를 이루는 i번째 버텍스의 위치, 매트릭스 norm
Figure 112007028878004-pat00026
는 Frobenius norm)
이때, 앞의 <수학식 2>에 포함된
Figure 112007028878004-pat00027
항목은
Figure 112007028878004-pat00028
Figure 112007028878004-pat00029
로 변환되어, REU(3)의 폴리곤메쉬(PN)를 본격적으로 형성하는 국면에서, 소스캐릭터 측 대표 표정이미지(1)의 폴리곤메쉬(PS)를 이루는 i번째 삼각형(P1)의 변환 매트릭스
Figure 112007028878004-pat00030
가 자신과 이웃하는 j번째 삼각형(P2)의 변환 매트릭스
Figure 112007028878004-pat00031
와 최대한 유사한 값을 가진 상태로, 변환을 이룰 수 있도록
Figure 112007028878004-pat00032
값을 추정하는 항목으로써(도 10 참조), 물론, 이러한 <소스캐릭터 측 폴리곤매쉬들의 이웃 간 변형 매트릭스 차이를 최소화시킨 조절항목>을 포함한 <수학식 2>의 연산에 의해
Figure 112007028878004-pat00033
가 최종 추정되고,
Figure 112007028878004-pat00034
Figure 112007028878004-pat00035
로 변환되어, REU(3)의 폴리곤메쉬(PN)를 이루게되는 경우, 이 REU(3)는 서로 이웃 한 폴리곤메쉬(PN)들의 유사도 증가로 인해, 전체적으로, 매우 부드러운(Smooth) 최적의 형상을 유지할 수 있게 된다.
또한, 앞의 <수학식 2>에 포함된
Figure 112007028878004-pat00036
항목은
Figure 112007028878004-pat00037
Figure 112007028878004-pat00038
로 변환되어, REU(3)의 폴리곤메쉬(PN)를 본격적으로 형성하는 국면에서, 소스캐릭터 측 대표 표정이미지(1)의 폴리곤메쉬(PS)를 이루는 i번째 삼각형(P1)의 변환 매트릭스
Figure 112007028878004-pat00039
가 자신과 거의 동일한 이상적인 변환 매트릭스
Figure 112007028878004-pat00040
에 최대한 근접한 값을 가진 상태로, 변환을 이룰 수 있도록
Figure 112007028878004-pat00041
값을 추정하는 항목으로써(도 10 참조), 물론, 이러한 <소스캐릭터 측 폴리곤매쉬들(PS)의 변형정도를 최소화시킨 조절항목>을 포함한 <수학식 2>의 연산에 의해
Figure 112007028878004-pat00042
가 최종 추정되고,
Figure 112007028878004-pat00043
Figure 112007028878004-pat00044
로 변환되어, REU(3)의 폴리곤메쉬들(PN)을 이루게되는 경우, 소스캐릭터 측 대표 표정이미지(1)의 폴리곤메쉬(PS)를 이루는 버텍스들은 최소한의 변형범위 내에서도, FIU(2)의 특징을 최적으로 반영한 REU(3)를 자연스럽게 형성할 수 있게 된다.
나아가, 앞의 <수학식 2>에 포함된
Figure 112007028878004-pat00045
항목은
Figure 112007028878004-pat00046
Figure 112007028878004-pat00047
로 변환되어, REU(3)의 폴리곤메쉬(PN)를 본격적으로 형성하는 국면에서, 소스캐릭터 측 대표 표정이미지(1)의 폴리곤메쉬(PS)를 이루는 i번째 버텍스의 위치
Figure 112007028878004-pat00048
가 자신과 가장 가깝게 대응되면서, FIU(2)의 폴리곤메쉬(PT)를 이루는 i번째 버텍스의 위치
Figure 112007028878004-pat00049
와의 차이를 가능한 한 최소화시킨 상태로, 변환을 이룰 수 있도록
Figure 112007028878004-pat00050
값을 추정하는 항목으로써(도 10 참조), 물론, 이러한 <소스캐릭터 측 버텍스의 위치를 FIU(2) 측 버텍스의 위치에 최대한 근접시킨 조절항목>을 포함한 <수학식 2>의 연산에 의해
Figure 112007028878004-pat00051
가 최종 추정되고,
Figure 112007028878004-pat00052
Figure 112007028878004-pat00053
로 변환되어, REU(3)의 폴리곤메쉬(를 이루게되는 경우, 이 REU는 전체적으로, FIU 특징에 가장 가까운 형상을 자연스럽게 이룰 수 있게 된다.
이때, <수학식 2>의 각 항목에 포함된
Figure 112007028878004-pat00054
,
Figure 112007028878004-pat00055
,
Figure 112007028878004-pat00056
등은 해당 항목들의 가중치로써, REU 생성엔진(137) 상술한 <수학식 2>의 연산 국면에서, 각 항목들의 가중치들을 상황에 따라, 서로 다르게 설정 운영함으로써(예컨대,
Figure 112007028878004-pat00057
를 0.01로 설정하고,
Figure 112007028878004-pat00058
을 0.1로 설정하며,
Figure 112007028878004-pat00059
를 0.2로 설정), 최종 완성되는 REU(3)가 좀더 효율적으로 FIU(2)에 매칭되는 형상을 갖출 수 있도록 유도하게 된다.
앞의 절차를 통해, REU(3)가 생성 완료되면, REU 생성 제어부(131)는 정보교환부(132)를 매개로, DCU 제작 제어모듈(110)과 교신을 취하여, 해당 REU(3)가 DCU 제작 제어모듈(110)의 프로세싱 버퍼(112) 내에 안정적으로 저장 관리될 수 있도록 유도하게 된다.
한편, 상술한 FIU 취득모듈(120), REU 생성모듈(130) 등과 함께, DCU 제작 제어모듈(110)에 의해 제어되는 SEU 생성모듈(140)은 상술한 REU 생성모듈(130)의 기능 수행에 의해, REU(3)가 DCU 제작 제어모듈(110)의 프로세싱 버퍼(112) 내에 저장 완료되면, REU 생성모듈(130), 소스캐릭터 표준 표정이미지 저장부(151) 등과 교신을 취하면서, 소스캐릭터 대표 표정이미지(1) 및 REU(3) 사이의 변환특성을 기초로, 소스캐릭터 표준 표정이미지들(도 3 참조)을 변환하여, 도 11에 도시된 바와 같은 다수의 SEU를 생성하는 역할을 수행하게 된다.
이때, 도 12에 도시된 바와 같이, SEU 생성모듈(140)은 전체적인 SEU 생성절차를 총괄 제어하는 SEU 생성 제어부(141)와, 이러한 SEU 생성 제어부(141)의 제어 체제 하에 놓인 REU 변환특성 취득부(143), 소스캐릭터 표준 표정이미지 로딩부(144), SEU 생성엔진(146) 등이 긴밀하게 조합된 구성을 취하게 된다.
여기서, SEU 생성 제어부(141)에 의해 제어되는 REU 변환특성 취득부(143)는 REU 생성모듈(130)의 기능 수행에 의해 REU(3)가 생성 완료되면, 정보교환부(142)를 매개로, REU 생성모듈(130), DCU 제작 제어모듈(110) 측 프로세싱 버퍼(112) 등과 교신을 취하여, 소스캐릭터의 대표 표정이미지(2)가 REU(3)로 변환될 때의 위치변환특성(예컨대,
Figure 112007028878004-pat00060
Figure 112007028878004-pat00061
로 변환되어, REU(3)의 폴리곤메쉬(PN)를 이루게될 때 의 위치변환특성)을 취득하고, 그 취득결과 데이터를 프로세싱 버퍼(145) 내에 로딩·저장하는 역할을 수행하게 된다.
또한, SEU 생성 제어부(141)에 의해 제어되는 소스캐릭터 표준 표정이미지 로딩부(144)는 REU 변환특성 취득부(143)의 기능 수행에 의해, 상술한 위치변환특성 데이터가 프로세싱 버퍼(145) 내에 로딩 완료되면, 정보교환부(142)를 매개로, 소스캐릭터 표준 표정이미지 저장부(151)와 교신을 취하여, 이에 저장되어 있던 소스캐릭터 표준 표정이미지들(도 3 참조)을 추출하고, 추출 완료된 소스캐릭터 표준 표정이미지를 프로세싱 버퍼(145) 내에 로딩하는 역할을 수행하게 된다(물론, 이러한 소스캐릭터 표준 표정이미지 로딩부의 기능 수행은 상술한 REU 변환특성 취득부의 기능 수행보다 먼저 진행되어도 무방함).
상술한 각 전산 파트들의 절차 완료 상황에서, SEU 생성 제어부(141)에 의해 제어되는 SEU 생성엔진(146)은 프로세싱 버퍼(145)와 교신을 취하여, 도 13에 도시된 바와 같이, 소스캐릭터 측 대표 표정이미지(1)의 폴리곤메쉬(PS)를 이루는 버텍스들, 예컨대,
Figure 112007028878004-pat00062
가 REU(3)의 폴리곤메쉬(PN)를 이루는 버텍스들, 예컨대,
Figure 112007028878004-pat00063
로 변환될 때의 위치변환특성을 파악한 후, 이 위치변환특성과 동일하게, 각 소스캐릭터 표준 표정이미지들(4)의 폴리곤메쉬(PS)를 이루는 버텍스들, 예컨대,
Figure 112007028878004-pat00064
의 위치를 신규 폴리곤메쉬(PNN)를 이루는
Figure 112007028878004-pat00065
으로 변환시켜, REU(3)의 기본적인 안면특성을 가지면서, 소스캐릭터 표준 표정이미지들(4)과 동일한 표정(우는 표정, 화난 표정, 놀라는 표정, 웃는 표정, 발음기호에 해당하는 입 모양 등을 짓고 있는 이미지 들)을 유지하는 다수의 SEU(5)를 생성하는 역할을 수행하게 된다(도 11 참조).
물론, 본 발명의 체제 하에서, 상술한 바와 같이, SEU 생성엔진(146)은 다수의 SEU(5)를 생성하는 절차를 <소스캐릭터의 대표 표정이미지(1)가 REU(3)로 변환될 때의 위치변환특성>을 미리 파악한 상태에서, 이를 융통성 있게 응용(활용)하여 진행하기 때문에, 다수의 SEU(5)를 생성함에 있어, 그 프로세싱 속도를 최적의 상태로 가속화시킬 수 있게 된다.
앞의 절차를 통해, 다수의 SEU(5)가 생성 완료되면, SEU 생성 제어부(141)는 정보교환부(142)를 매개로, DCU 제작 제어모듈(110)과 교신을 취하여, 해당 SEU가 DCU 제작 제어모듈의 프로세싱 버퍼(112) 내에 안정적으로 저장 관리될 수 있도록 유도하게 된다.
한편, 상술한 SEU 생성모듈(140)의 기능 수행이 완료되면, DCU 제작 제어모듈(110)에 의해 제어되는 EDU 생성모듈(170)은 SEU 생성모듈(140), 소스 영상 설정정보 저장부(154) 등과 교신을 취하면서, 소스캐릭터의 표준 표정이미지들 중 소스캐릭터의 각 재생표정 영상(도 4 참조)에 가장 근접한 근접 표정이미지가 각 재생표정 영상으로 변환될 때의 변환특성을 기초로, SEU(5)를 선택적으로 결합·변형하여, 도 14에 도시된 바와 같은 EDU를 생성하는 역할을 수행하게 된다.
이때, EDU 생성모듈은 도 15에 도시된 바와 같이, 전체적인 EDU 생성절차를 총괄 제어·관리하는 EDU 생성 제어부(171)와, 이 EDU 생성 제어부(171)의 제어 체제 하에 놓인 SEU 로딩부(174), 소스캐릭터 표정 영상 생성특성 취득부(173), EDU 생성엔진(176) 등이 긴밀하게 조합된 구성을 취하게 된다.
여기서, EDU 생성 제어부(171)에 의해 제어되는 SEU 로딩부(174)는 SEU 생성모듈(140)의 기능 수행에 의해, SEU(5)들이 DCU 제작 제어모듈(110)의 프로세싱 버퍼(112)에 저장 완료되면, 정보교환부(172)를 매개로 이와 교신을 취하여, 해당 SEU(5)들을 추출하고, 추출 완료된 SEU(5)들을 프로세싱 버퍼(175) 내에 로딩하는 역할을 수행하게 된다.
또한, EDU 생성 제어부(171)에 의해 제어되는 소스캐릭터 표정 영상 생성특성 취득부(173)는 SEU 로딩부(174)의 기능 수행에 의해, SEU들(5)이 프로세싱 버퍼(175)에 로딩 완료되면, 정보교환부(172)를 매개로, 소스 영상 설정정보 저장부(154)와 교신을 취하여, 이에 저장되어 있던 정보, 예컨대, <도 16에 도시된 바와 같이, 소스 영상 컨텐츠에 등장하는 특정 소스캐릭터가 시간의 흐름에 따라, 표정변화를 이루며 재생될 때, 상기 소스캐릭터의 표준 표정이미지들(4) 중, 각 재생표정 영상(6.6a,6b,6c:도 4 참조)에 가장 근접한 근접 표정이미지(4a,4b,4c)가 무엇인가>를 체크함과 아울러, <근접 표정이미지(4a,4b,4c)가 다른 표준 표정이미지(4)들과 혼합되어, 재생표정 영상(6a,6b,6c)을 시시각각 변환 형성할 때의 혼합가중치 특성>을 취득하는 역할을 수행하게 된다(물론, 이러한 소스캐릭터 표정 영상 생성특성 취득부의 기능 수행은 상술한 SEU 로딩부의 기능 수행보다 먼저 진행되어도 무방함).
상술한 각 전산 파트들의 절차 완료 상황에서, EDU 생성 제어부(171)에 의해 제어되는 EDU 생성엔진(176)은 앞의 소스캐릭터 표정 영상 생성특성 취득부(173)에 의해 취득된 근접 표정이미지(4a,4b,4c) 정보를 토대로, 도 17에 도시된 바와 같 이, DCU에 등장하는 사용자지정 캐릭터가 시간의 흐름에 따라, 표정변화를 이루며 재생된다고 가정할 때, 앞의 SEU(5)들 중, EDU(7,7a,7b,7c))에 가장 근접할 수 있는 근접 SEU(5a,5b,5c)를 추정함과 아울러, 혼합가중치 특성에 따라, 아래의 <수학식 3>를 연산하여, 근접 SEU(5a,5b,5c)를 다른 SEU들(5)과 시시각각 혼합하고, 이를 통해, DCU의 재상시간에 따른 EDU(7)를 생성하는 역할을 수행하게 된다(도 14 참조).
Figure 112007028878004-pat00066
(여기서,
Figure 112007028878004-pat00067
는 DCU의 재생시간 흐름에 따라, 변화 생성되는 EDU,
Figure 112007028878004-pat00068
는 혼합가중치의 시간에 따른 변화함수,
Figure 112007028878004-pat00069
는 i번째 근접 SEU)
물론, 상술한 수학식의 연산에서, EDU 생성엔진(171)은 소스캐릭터의 표준 표정이미지(4)를 기초로 형성된 SEU(5)를 EDU(7) 형성의 근간으로 활용함은 물론, <근접 표정이미지(4a,4b,4c)가 다른 표준 표정이미지들(4)과 혼합되어, 재생표정 영상(6)을 시시각각 변환 형성할 때의 혼합가중치 특성>을 EDU(7) 형성용 혼합가중치 특성으로 고스란히 채용·활용하기 때문에, EDU(7)를 생성함에 있어, 그 프로세싱 속도를 최적의 상태로 가속화시킬 수 있게 된다.
앞의 절차를 통해, EDU(7)가 생성 완료되면, EDU 생성 제어부(171)는 정보교환부(172)를 매개로, DCU 제작 제어모듈(110)과 교신을 취하여, 해당 EDU(7)가 DCU 제작 제어모듈(110)의 프로세싱 버퍼(112) 내에 안정적으로 저장 관리될 수 있도록 유도하게 된다.
한편, 상술한 EDU 생성모듈(170)의 기능 수행에 의해, EDU 생성·저장이 완료되면, DCU 제작 제어모듈(110)에 의해 제어되는 DCU 생성모듈(160)은 소스 영상 백그라운드 컨텐츠 저장부(153)와 교신을 취하면서, EDU(7)를 소스 영상 컨텐츠의 백그라운드와 결합하여, 도 18에 도시된 바와 같이, 소스캐릭터의 안면형상이 FIU(2)로 새롭게 교체된 DCU를 생성하는 역할을 수행하게 된다.
이때, 도 19에 도시된 바와 같이, DCU 생성모듈(160)은 전체적인 DCU 생성절차를 총괄 제어하는 DCU 생성 제어부(161)와, 이 DCU 생성 제어부(161)의 제어 체제 하에 놓인 백그라운드 컨텐츠 로딩부(163), EDU 로딩부(164), DCU 생성엔진(166) 등이 긴밀하게 조합된 구성을 취하게 된다.
이때, DCU 생성 제어부(161)에 의해 제어되는 백그라운드 컨텐츠 로딩부(163)는 EDU 생성모듈(170)의 기능 수행에 의해, EDU(7)가 DCU 제작 제어모듈(110)의 프로세싱 버퍼(112)에 저장 완료되면, 정보교환부(162)를 매개로 소스영상 백그라운드 컨텐츠 저장부(153)와 교신을 취하여, 이에 저장되어 있던 소스 영상 컨텐츠의 백그라운드(예컨대, 배경 영상 레이어, 소스캐릭터 바디 영상 레이어, 다른 소스캐릭터 레이어, 소스캐릭터 장신구/의복 레이어 등)를 추출한 후, 추출 완료된 백그라운드 데이터를 프로세싱 버퍼(165) 내에 로딩하는 역할을 수행하게 된다.
또한, DCU 생성 제어부(161)에 의해 제어되는 EDU 로딩부(164)는 EDU 생성모듈(170)의 기능 수행에 의해, EDU(7)가 DCU 제작 제어모듈(110)의 프로세싱 버 퍼(112)에 저장 완료되면, 정보교환부(162)를 매개로 이와 교신을 취하여, 해당 EDU(7)를 추출한 후, 추출 완료된 EDU(7)를 프로세싱 버퍼(165) 내에 로딩하는 역할을 수행하게 된다(물론, 이러한 EDU 로딩부의 기능 수행은 상술한 백그라운드 컨텐츠 로딩부의 기능 수행보다 먼저 진행되어도 무방함).
상술한 각 전산 파트들의 절차 완료 상황에서, DCU 생성 제어부(161)에 의해 제어되는 DCU 생성엔진(166)은 프로세싱 버퍼(165)와 교신을 취하면서, 도 20에 도시된 바와 같이, 소스 영상 컨텐츠의 재생 흐름에 따라, 백그라운드 데이터(B1,B2,B3)의 소스캐릭터 안면(f)에 EDU(7)를 합성하여, 소스캐릭터의 안면(f) 형상이 FIU(2) 패턴으로 새롭게 교체된 DCU(8)를 생성하는 역할을 수행하게 된다(도 18 참조).
앞의 절차를 통해, DCU(8)가 생성 완료되면, DCU 생성 제어부(161)는 정보교환부(162)를 매개로, DCU 제작 제어모듈(110)과 교신을 취하여, 해당 DCU(8)가 DCU 제작 제어모듈의 프로세싱 버퍼(112) 내에 안정적으로 저장 관리될 수 있도록 유도하게 된다.
결국, 상술한 바와 같은, 본 발명의 영상 제작 파이프라인을 통해, 소스캐릭터의 안면형상이 FIU(2) 패턴으로 새롭게 교체된 DCU(8)가 확보 완료되면, 영상 관련 업체(예컨대, 제작업체, 배급업체, 판매업체 등) 측에서는 별다른 어려움 없이, 수요자의 개별적인 욕구가 유연하게 반영된 주문형 영상 컨텐츠를 융통성 있게 제작/생산/판매할 수 있게 되며, 그 결과, 수요자 측에서는 예컨대, 영상 컨텐츠에 등장하는 특정 캐릭터의 안면형상을 자신이 선호하는(자신이 지정한) 다른 이의 안 면이미지(예컨대, 자신의 안면이미지, 지인의 안면이미지, 특정 연예인의 안면이미지, 특정 정치인의 안면이미지 등)로 바꾸고 싶은 욕구를 융통성 있게 충족 받을 수 있게 된다.
이상에서 상세히 설명한 바와 같이, 본 발명에서는 영상 컨텐츠에 등장하는 소스캐릭터의 대표 표정이미지를 사용자의 FIU가 반영되도록 융통성 있게 변환하여, REU를 생성할 수 있는 전산모듈, REU 및 소스캐릭터의 대표 표정이미지 사이의 특징적인 관계를 기초로, 소스캐릭터의 표준 표정이미지를 융통성 있게 변환하여, 다수의 SEU를 생성할 수 있는 전산모듈, 소스캐릭터 측 표정 영상의 생성특성을 기초로, SEU를 적절히 결합·변형하여, EDU를 생성할 수 있는 전산모듈, EDU를 소스 영상의 백그라운드(캐릭터 안면 레이어, 배경 레이어, 의상 레이어 등)와 결합하여, 영상에 등장하는 캐릭터의 안면형상이 FIU 패턴으로 새롭게 교체된 형태의 DCU를 생성할 수 있는 전산모듈 등을 일련의 영상 제작 파이프라인으로 제공하고, 이를 통해, 영상 관련 업체(예컨대, 제작업체, 배급업체, 판매업체 등) 측에서, 수요자의 개별적인 욕구가 유연하게 반영된 주문형 영상 컨텐츠를 융통성 있게 제작/생산/판매할 수 있는 안정적인 기반 인프라를 자연스럽게 형성할 수 있도록 유도함으로써, 수요자 측에서, 예컨대, 영상 컨텐츠에 등장하는 특정 캐릭터의 안면형상을 자신이 선호하는(자신이 지정한) 다른 이의 안면이미지(예컨대, 자신의 안면이미지, 지인의 안면이미지, 특정 연예인의 안면이미지, 특정 정치인의 안면이미지 등)로 바꾸고 싶은 욕구를 융통성 있게 충족 받을 수 있도록 가이드 할 수 있다.
앞에서, 본 발명의 특정한 실시예가 설명되고 도시되었지만 본 발명이 당업자에 의해 다양하게 변형되어 실시될 가능성이 있는 것은 자명한 일이다.
이와 같은 변형된 실시예들은 본 발명의 기술적사상이나 관점으로부터 개별적으로 이해되어서는 안되며 이와 같은 변형된 실시예들은 본 발명의 첨부된 특허청구의 범위안에 속한다 해야 할 것이다.

Claims (7)

  1. 삭제
  2. 운영체제를 구비한 정보처리장치 내에 설치된 상태로, 소스 영상 컨텐츠와 관련된 정보를 저장 관리하며, 제작 가이드 윈도우를 출력 운영하면서, 상기 소스 영상 컨텐츠에 등장하는 특정 소스캐릭터의 안면을 사용자지정 안면이미지(FIU:the Face Image which the User designates) 패턴으로 바꾸는 절차를 총괄 제어하는 FIU 반영 영상컨텐츠(DCU:pictorial/viDeo image Contents where the face image which the User designates is reflected) 제작 제어모듈과;
    상기 DCU 제작 제어모듈에 의해 제어되며, 상기 소스 영상 컨텐츠에 등장하는 특정 소스캐릭터의 대표 표정이미지를 상기 FIU에 매칭(Matching)되도록 변환하여, 사용자지정캐릭터용 대표 표정이미지(REU:Representative Expression image for User design character)를 생성하는 REU 생성모듈과;
    상기 DCU 제작 제어모듈에 의해 제어되며, 상기 소스캐릭터의 대표 표정이미지 및 상기 REU 사이의 변환특성을 기초로, 상기 소스캐릭터의 표준 표정이미지들을 변환하여, 다수의 사용자지정캐릭터용 표준 표정이미지(SEU:Standard Expression image for User design character)를 생성하는 SEU 생성모듈과;
    상기 DCU 제작 제어모듈에 의해 제어되며, 상기 소스캐릭터의 표준 표정이미지들 중 소스캐릭터의 각 재생표정 영상에 가장 근접한 근접 표정이미지가 각 재생표정 영상으로 변환될 때의 변환특성을 기초로, 상기 SEU를 선택적으로 결합·변형하여, 사용자지정캐릭터용 표정 영상(EDU:Expression pictorial/viDeo image for User design character)을 생성하는 EDU 생성모듈과;
    상기 DCU 제작 제어모듈에 의해 제어되며, 상기 EDU를 상기 소스 영상 컨텐츠의 백그라운드와 결합하여, 상기 소스캐릭터의 안면형상이 상기 FIU 패턴으로 새롭게 교체된 DCU를 생성하는 DCU 생성모듈을 포함하며,
    상기 REU 생성모듈은 전체적인 REU 생성절차를 총괄 제어하는 REU 생성 제어부와;
    상기 REU 생성 제어부에 의해 제어되며, 상기 FIU를 로딩하는 FIU 로딩부와;
    상기 REU 생성 제어부에 의해 제어되며, FIU 로딩부에 의해 로딩된 FIU를 상기 제작 가이드 윈도우를 통해 표시하여, 사용자 측에서 상기 FIU의 주요 부위에 특징점을 지정할 수 있도록 가이드 하는 특징점 지정 가이드부와;
    상기 REU 생성 제어부에 의해 제어되며, 상기 FIU 주요 부위에 지정된 특징점의 위치 및 상기 대표 표정이미지의 폴리곤메쉬(Polygon mesh)를 이루는 버텍스(Vertex)들의 위치 사이의 차이 정도를 기초로 하여, REU의 폴리곤메쉬를 이루게될 버텍스들의 위치를 추정하고, 상기 대표 표정이미지의 폴리곤메쉬를 이루는 버텍스들의 위치를 상기 REU의 폴리곤메쉬를 이루게될 버텍스들의 위치로 변환시켜, 상기 FIU에 매칭되는 REU를 생성하는 REU 생성엔진을 포함하는 것을 특징으로 하는 FIU가 반영된 영상 컨텐츠 제작 시스템.
  3. 제 2 항에 있어서, 상기 REU 생성엔진은 하기 식을 연산하여, 상기 REU의 폴리곤메쉬를 이루게될 버텍스들의 위치를 추정하는 것을 특징으로 하는 FIU가 반영된 영상 컨텐츠 제작 시스템.
    Figure 112007028878004-pat00070
    Figure 112007028878004-pat00071
    (여기서,
    Figure 112007028878004-pat00072
    는 REU의 폴리곤메쉬를 이루게될 I번째 버텍스의 위치,
    Figure 112007028878004-pat00073
    는 소스캐릭터 측 대표 표정이미지의 폴리곤메쉬를 이루는 i번째 삼각형의 변환 매트릭스,
    Figure 112007028878004-pat00074
    Figure 112007028878004-pat00075
    에 이웃하는 j번째 삼각형의 변환 매트릭스,
    Figure 112007028878004-pat00076
    Figure 112007028878004-pat00077
    와 거의 동일한 이상적인 변환 매트릭스,
    Figure 112007028878004-pat00078
    는 소스캐릭터 측 대표 표정이미지의 폴리곤메쉬를 이루는 i번째 버텍스의 위치,
    Figure 112007028878004-pat00079
    Figure 112007028878004-pat00080
    에 가장 가깝게 대응되면서, FIU의 폴리곤메쉬를 이루는 i번째 버텍스의 위치,
    Figure 112007028878004-pat00081
    는 Frobenius norm)
  4. 운영체제를 구비한 정보처리장치 내에 설치된 상태로, 소스 영상 컨텐츠와 관련된 정보를 저장 관리하며, 제작 가이드 윈도우를 출력 운영하면서, 상기 소스 영상 컨텐츠에 등장하는 특정 소스캐릭터의 안면을 사용자지정 안면이미지(FIU:the Face Image which the User designates) 패턴으로 바꾸는 절차를 총괄 제어하는 FIU 반영 영상컨텐츠(DCU:pictorial/viDeo image Contents where the face image which the User designates is reflected) 제작 제어모듈과;
    상기 DCU 제작 제어모듈에 의해 제어되며, 상기 소스 영상 컨텐츠에 등장하는 특정 소스캐릭터의 대표 표정이미지를 상기 FIU에 매칭(Matching)되도록 변환하여, 사용자지정캐릭터용 대표 표정이미지(REU:Representative Expression image for User design character)를 생성하는 REU 생성모듈과;
    상기 DCU 제작 제어모듈에 의해 제어되며, 상기 소스캐릭터의 대표 표정이미지 및 상기 REU 사이의 변환특성을 기초로, 상기 소스캐릭터의 표준 표정이미지들을 변환하여, 다수의 사용자지정캐릭터용 표준 표정이미지(SEU:Standard Expression image for User design character)를 생성하는 SEU 생성모듈과;
    상기 DCU 제작 제어모듈에 의해 제어되며, 상기 소스캐릭터의 표준 표정이미지들 중 소스캐릭터의 각 재생표정 영상에 가장 근접한 근접 표정이미지가 각 재생표정 영상으로 변환될 때의 변환특성을 기초로, 상기 SEU를 선택적으로 결합·변형하여, 사용자지정캐릭터용 표정 영상(EDU:Expression pictorial/viDeo image for User design character)을 생성하는 EDU 생성모듈과;
    상기 DCU 제작 제어모듈에 의해 제어되며, 상기 EDU를 상기 소스 영상 컨텐츠의 백그라운드와 결합하여, 상기 소스캐릭터의 안면형상이 상기 FIU 패턴으로 새롭게 교체된 DCU를 생성하는 DCU 생성모듈을 포함하며,
    상기 SEU 생성모듈은 전체적인 SEU 생성절차를 총괄 제어하는 SEU 생성 제어부와;
    상기 SEU 생성 제어부에 의해 제어되며, 상기 소스캐릭터의 대표 표정이미지가 상기 REU로 변환될 때의 위치변환특성을 취득하는 REU 변환특성 취득부와;
    상기 SEU 생성 제어부에 의해 제어되며, 상기 소스캐릭터의 표준 표정이미지들을 로딩하는 소스캐릭터 표준 표정이미지 로딩부와;
    상기 SEU 생성 제어부에 의해 제어되며, 상기 소스캐릭터 표준 표정이미지들의 폴리곤메쉬를 이루는 버텍스들의 위치를 상기 대표 표정이미지의 폴리곤메쉬를 이루는 버텍스들이 상기 REU의 폴리곤메쉬를 이루는 버텍스들로 변환될 때의 위치변환특성과 동일하게 변환시켜, 상기 REU의 기본특성을 유지하면서, 상기 소스캐릭터 표준 표정이미지들과 동일한 표정을 유지하는 다수의 SEU를 생성하는 SEU 생성엔진을 포함하는 것을 특징으로 하는 FIU가 반영된 영상 컨텐츠 제작 시스템.
  5. 운영체제를 구비한 정보처리장치 내에 설치된 상태로, 소스 영상 컨텐츠와 관련된 정보를 저장 관리하며, 제작 가이드 윈도우를 출력 운영하면서, 상기 소스 영상 컨텐츠에 등장하는 특정 소스캐릭터의 안면을 사용자지정 안면이미지(FIU:the Face Image which the User designates) 패턴으로 바꾸는 절차를 총괄 제어하는 FIU 반영 영상컨텐츠(DCU:pictorial/viDeo image Contents where the face image which the User designates is reflected) 제작 제어모듈과;
    상기 DCU 제작 제어모듈에 의해 제어되며, 상기 소스 영상 컨텐츠에 등장하는 특정 소스캐릭터의 대표 표정이미지를 상기 FIU에 매칭(Matching)되도록 변환하여, 사용자지정캐릭터용 대표 표정이미지(REU:Representative Expression image for User design character)를 생성하는 REU 생성모듈과;
    상기 DCU 제작 제어모듈에 의해 제어되며, 상기 소스캐릭터의 대표 표정이미지 및 상기 REU 사이의 변환특성을 기초로, 상기 소스캐릭터의 표준 표정이미지들을 변환하여, 다수의 사용자지정캐릭터용 표준 표정이미지(SEU:Standard Expression image for User design character)를 생성하는 SEU 생성모듈과;
    상기 DCU 제작 제어모듈에 의해 제어되며, 상기 소스캐릭터의 표준 표정이미지들 중 소스캐릭터의 각 재생표정 영상에 가장 근접한 근접 표정이미지가 각 재생표정 영상으로 변환될 때의 변환특성을 기초로, 상기 SEU를 선택적으로 결합·변형하여, 사용자지정캐릭터용 표정 영상(EDU:Expression pictorial/viDeo image for User design character)을 생성하는 EDU 생성모듈과;
    상기 DCU 제작 제어모듈에 의해 제어되며, 상기 EDU를 상기 소스 영상 컨텐츠의 백그라운드와 결합하여, 상기 소스캐릭터의 안면형상이 상기 FIU 패턴으로 새롭게 교체된 DCU를 생성하는 DCU 생성모듈을 포함하며,
    상기 EDU 생성모듈은 전체적인 EDU 생성절차를 총괄 제어하는 EDU 생성 제어부와;
    상기 EDU 생성 제어부에 의해 제어되며, 상기 소스 영상 컨텐츠에 등장하는 특정 소스캐릭터가 시간의 흐름에 따라, 표정변화를 이루며 재생될 때, 상기 소스캐릭터의 표준 표정이미지들 중, 각 재생표정 영상에 가장 근접한 근접 표정이미지가 무엇인가를 체크함과 아울러, 상기 근접 표정이미지가 다른 표준 표정이미지들과 혼합되어, 상기 재생표정 영상을 시시각각 변환 형성할 때의 혼합가중치 특성을 취득하는 소스캐릭터 표정 영상 생성특성 취득부와;
    상기 EDU 생성 제어부에 의해 제어되며, 상기 소스캐릭터 표정 영상 생성특성 취득부에 의해 취득된 근접 표정이미지 정보를 토대로, DCU에 등장하는 사용자지정 캐릭터가 시간의 흐름에 따라, 표정변화를 이루며 재생된다고 가정할 때, 상기 SEU들 중, 상기 EDU에 가장 근접할 수 있는 근접 SEU를 추정함과 아울러, 상기 혼합가중치 특성에 따라, 상기 근접 SEU를 다른 SEU들과 시시각각 혼합하여, 상기 DCU의 재상시간에 따른 EDU를 생성하는 EDU 생성엔진을 포함하는 것을 특징으로 하는 FIU가 반영된 영상 컨텐츠 제작 시스템.
  6. 제 5 항에 있어서, 상기 EDU 생성엔진은 하기 식을 연산하여, 상기 DCU의 재생시간에 따른 EDU를 생성하는 것을 특징으로 하는 FIU가 반영된 영상 컨텐츠 제작 시스템.
    Figure 112007028878004-pat00082
    (여기서,
    Figure 112007028878004-pat00083
    는 DCU의 재생시간 흐름에 따라, 변화 생성되는 EDU,
    Figure 112007028878004-pat00084
    는 혼합가중치의 시간에 따른 변화함수,
    Figure 112007028878004-pat00085
    는 i번째 근접 SEU)
  7. 운영체제를 구비한 정보처리장치 내에 설치된 상태로, 소스 영상 컨텐츠와 관련된 정보를 저장 관리하며, 제작 가이드 윈도우를 출력 운영하면서, 상기 소스 영상 컨텐츠에 등장하는 특정 소스캐릭터의 안면을 사용자지정 안면이미지(FIU:the Face Image which the User designates) 패턴으로 바꾸는 절차를 총괄 제어하는 FIU 반영 영상컨텐츠(DCU:pictorial/viDeo image Contents where the face image which the User designates is reflected) 제작 제어모듈과;
    상기 DCU 제작 제어모듈에 의해 제어되며, 상기 소스 영상 컨텐츠에 등장하는 특정 소스캐릭터의 대표 표정이미지를 상기 FIU에 매칭(Matching)되도록 변환하여, 사용자지정캐릭터용 대표 표정이미지(REU:Representative Expression image for User design character)를 생성하는 REU 생성모듈과;
    상기 DCU 제작 제어모듈에 의해 제어되며, 상기 소스캐릭터의 대표 표정이미지 및 상기 REU 사이의 변환특성을 기초로, 상기 소스캐릭터의 표준 표정이미지들을 변환하여, 다수의 사용자지정캐릭터용 표준 표정이미지(SEU:Standard Expression image for User design character)를 생성하는 SEU 생성모듈과;
    상기 DCU 제작 제어모듈에 의해 제어되며, 상기 소스캐릭터의 표준 표정이미지들 중 소스캐릭터의 각 재생표정 영상에 가장 근접한 근접 표정이미지가 각 재생표정 영상으로 변환될 때의 변환특성을 기초로, 상기 SEU를 선택적으로 결합·변형하여, 사용자지정캐릭터용 표정 영상(EDU:Expression pictorial/viDeo image for User design character)을 생성하는 EDU 생성모듈과;
    상기 DCU 제작 제어모듈에 의해 제어되며, 상기 EDU를 상기 소스 영상 컨텐츠의 백그라운드와 결합하여, 상기 소스캐릭터의 안면형상이 상기 FIU 패턴으로 새롭게 교체된 DCU를 생성하는 DCU 생성모듈을 포함하며,
    상기 DCU 생성모듈은 전체적인 DCU 생성절차를 총괄 제어하는 DCU 생성 제어부와;
    상기 DCU 생성 제어부에 의해 제어되며, 상기 소스 영상 컨텐츠의 백그라운드 데이터를 로딩하는 백그라운드 컨텐츠 로딩부와;
    상기 DCU 생성 제어부에 의해 제어되며, 상기 EDU 생성모듈에 의해 생성된 EDU를 로딩하는 EDU 로딩부와;
    상기 DCU 생성 제어부에 의해 제어되며, 상기 소스 영상 컨텐츠의 재생 흐름에 따라, 상기 백그라운드 데이터의 소스캐릭터 안면에 상기 EDU를 합성하여, 상기 소스캐릭터의 안면형상이 FIU로 새롭게 교체된 DCU를 생성하는 DCU 생성엔진을 포함하는 것을 특징으로 하는 FIU가 반영된 영상 컨텐츠 제작 시스템.
KR1020070037047A 2007-04-16 2007-04-16 사용자지정 안면이미지가 반영된 영상 컨텐츠 제작 시스템 KR100874962B1 (ko)

Priority Applications (5)

Application Number Priority Date Filing Date Title
KR1020070037047A KR100874962B1 (ko) 2007-04-16 2007-04-16 사용자지정 안면이미지가 반영된 영상 컨텐츠 제작 시스템
PCT/KR2007/003496 WO2008126964A1 (en) 2007-04-16 2007-07-19 The system which compose a pictorial/video image contents where the face image which the user designates is reflected
US12/093,907 US8106925B2 (en) 2007-04-16 2007-07-19 System to compose pictorial/video image contents with a face image designated by the user
TW096144007A TWI358038B (en) 2007-04-16 2007-11-21 The system which compose a pictorial/video image c
JP2007305803A JP4665147B2 (ja) 2007-04-16 2007-11-27 ユーザー指定の顔面像が反映された映像コンテンツの製作システム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020070037047A KR100874962B1 (ko) 2007-04-16 2007-04-16 사용자지정 안면이미지가 반영된 영상 컨텐츠 제작 시스템

Publications (2)

Publication Number Publication Date
KR20080093291A KR20080093291A (ko) 2008-10-21
KR100874962B1 true KR100874962B1 (ko) 2008-12-19

Family

ID=39864046

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020070037047A KR100874962B1 (ko) 2007-04-16 2007-04-16 사용자지정 안면이미지가 반영된 영상 컨텐츠 제작 시스템

Country Status (5)

Country Link
US (1) US8106925B2 (ko)
JP (1) JP4665147B2 (ko)
KR (1) KR100874962B1 (ko)
TW (1) TWI358038B (ko)
WO (1) WO2008126964A1 (ko)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20100209073A1 (en) * 2008-09-18 2010-08-19 Dennis Fountaine Interactive Entertainment System for Recording Performance
US10783716B2 (en) * 2016-03-02 2020-09-22 Adobe Inc. Three dimensional facial expression generation
US20190147841A1 (en) * 2017-11-13 2019-05-16 Facebook, Inc. Methods and systems for displaying a karaoke interface
US10599916B2 (en) 2017-11-13 2020-03-24 Facebook, Inc. Methods and systems for playing musical elements based on a tracked face or facial feature
US10810779B2 (en) 2017-12-07 2020-10-20 Facebook, Inc. Methods and systems for identifying target images for a media effect
KR20190108936A (ko) 2018-03-16 2019-09-25 주식회사 엘케이 케이블 행거 및 행거롤러
WO2020037679A1 (zh) * 2018-08-24 2020-02-27 太平洋未来科技(深圳)有限公司 视频处理方法、装置及电子设备

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5611037A (en) 1994-03-22 1997-03-11 Casio Computer Co., Ltd. Method and apparatus for generating image
JPH10126687A (ja) * 1996-10-16 1998-05-15 Matsushita Electric Ind Co Ltd すり替え編集システム
JPH10240908A (ja) * 1997-02-27 1998-09-11 Hitachi Ltd 映像合成方法
JP2000287824A (ja) * 1999-04-02 2000-10-17 Koji Nakamura 冠婚葬祭画像装置およびその画像ソフト
JP2000312336A (ja) * 1999-04-27 2000-11-07 Koji Nakamura ビデオテレビ装置
KR20010090308A (ko) 2000-03-24 2001-10-18 박선은 극중 얼굴 이미지 변환 서비스 방법 및 그 시스템
US7225129B2 (en) * 2000-09-21 2007-05-29 The Regents Of The University Of California Visual display methods for in computer-animated speech production models
JP2002232783A (ja) * 2001-02-06 2002-08-16 Sony Corp 画像処理装置および画像処理方法、並びにプログラム記憶媒体
KR100422470B1 (ko) 2001-02-15 2004-03-11 비쥬텍쓰리디(주) 3차원 동화상 모델 얼굴 대체 방법 및 장치
KR100511210B1 (ko) * 2004-12-27 2005-08-30 주식회사지앤지커머스 의사 쓰리디 이미지 생성기법을 토대로 한 이용자 적응인공지능 토탈 코디네이션 방법과, 이를 이용한 서비스사업방법
KR101348521B1 (ko) * 2005-09-16 2014-01-06 플릭서, 인크. 비디오의 개인화
US20080039163A1 (en) * 2006-06-29 2008-02-14 Nokia Corporation System for providing a personalized comic strip
KR20060115700A (ko) 2006-10-20 2006-11-09 주식회사 제스틴 등장인물의 얼굴 변경이 용이한 플래쉬 형식의 아동용 어학학습 시스템

Also Published As

Publication number Publication date
JP4665147B2 (ja) 2011-04-06
WO2008126964A1 (en) 2008-10-23
TW200842732A (en) 2008-11-01
JP2008271495A (ja) 2008-11-06
US8106925B2 (en) 2012-01-31
TWI358038B (en) 2012-02-11
US20100141679A1 (en) 2010-06-10
KR20080093291A (ko) 2008-10-21

Similar Documents

Publication Publication Date Title
KR100874962B1 (ko) 사용자지정 안면이미지가 반영된 영상 컨텐츠 제작 시스템
US10872322B2 (en) System and method for collaborative shopping, business and entertainment
US10540817B2 (en) System and method for creating a full head 3D morphable model
US10002337B2 (en) Method for collaborative shopping
JP3179474B2 (ja) コンピュータグラフィックの表示方法及び情報処理装置
Jörg et al. Data-driven finger motion synthesis for gesturing characters
Hsu et al. A study of framework and process development for cultural product design
US20130215116A1 (en) System and Method for Collaborative Shopping, Business and Entertainment
US20140022238A1 (en) System for simulating user clothing on an avatar
TW200828043A (en) Terminal try-on simulation system and operating and applying method thereof
CN102402641A (zh) 一种基于网络的三维虚拟试衣系统及方法
CN110298319A (zh) 图像合成方法和装置
CN109949390A (zh) 图像生成方法、动态表情图像生成方法及装置
Llorach et al. Web-based embodied conversational agents and older people
WO2023044172A1 (en) Systems and method for calculating liability of a driver of a vehicle
Balogun et al. Political Economy of Embodiment: Capitalizing on Globally Staged Bodies in Nigerian Beauty Pageants and Vietnamese Sex Work
Bugg Fashion at the interface: Designer—wearer—viewer
CN114356084A (zh) 图像处理方法、系统及电子设备
CN112200717A (zh) 基于神经网络的复杂服装虚拟试衣方法、装置及存储介质
KR100950053B1 (ko) 사용자지정 데이터가 반영된 특화 광고컨텐츠 제공 시스템
KR100929561B1 (ko) 사용자지정 안면이미지/음성데이터가 반영된 특화영상컨텐츠 제공 시스템
Liu An analysis of the current and future state of 3D facial animation techniques and systems
Song et al. Research Frontiers
US11836905B2 (en) Image reenactment with illumination disentanglement
KR100995012B1 (ko) 사용자지정 안면이미지가 반영된 특화 게임캐릭터 제공시스템

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
N231 Notification of change of applicant
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20121212

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20131212

Year of fee payment: 6

FPAY Annual fee payment

Payment date: 20141212

Year of fee payment: 7

FPAY Annual fee payment

Payment date: 20151210

Year of fee payment: 8

FPAY Annual fee payment

Payment date: 20161212

Year of fee payment: 9

FPAY Annual fee payment

Payment date: 20171212

Year of fee payment: 10

FPAY Annual fee payment

Payment date: 20181226

Year of fee payment: 11

FPAY Annual fee payment

Payment date: 20191217

Year of fee payment: 12