KR20030091306A - The dynamic character and image character making system and the method using face components relationship on face image. - Google Patents
The dynamic character and image character making system and the method using face components relationship on face image. Download PDFInfo
- Publication number
- KR20030091306A KR20030091306A KR1020020029229A KR20020029229A KR20030091306A KR 20030091306 A KR20030091306 A KR 20030091306A KR 1020020029229 A KR1020020029229 A KR 1020020029229A KR 20020029229 A KR20020029229 A KR 20020029229A KR 20030091306 A KR20030091306 A KR 20030091306A
- Authority
- KR
- South Korea
- Prior art keywords
- face
- character
- image
- user
- design
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims description 45
- 238000013461 design Methods 0.000 claims abstract description 41
- 238000004519 manufacturing process Methods 0.000 claims abstract description 31
- 230000000694 effects Effects 0.000 claims abstract description 14
- 230000008451 emotion Effects 0.000 claims abstract description 6
- 230000033001 locomotion Effects 0.000 claims description 52
- 210000001508 eye Anatomy 0.000 claims description 19
- 230000001815 facial effect Effects 0.000 claims description 19
- 238000004891 communication Methods 0.000 claims description 18
- 210000004709 eyebrow Anatomy 0.000 claims description 14
- 230000014509 gene expression Effects 0.000 claims description 13
- 210000000744 eyelid Anatomy 0.000 claims description 10
- 238000007493 shaping process Methods 0.000 claims description 9
- 210000005069 ears Anatomy 0.000 claims description 8
- 238000012937 correction Methods 0.000 claims description 6
- 238000000465 moulding Methods 0.000 claims description 6
- 210000000720 eyelash Anatomy 0.000 claims description 5
- 210000004209 hair Anatomy 0.000 claims description 5
- 210000001747 pupil Anatomy 0.000 claims description 4
- 230000006872 improvement Effects 0.000 claims description 3
- 230000001131 transforming effect Effects 0.000 claims description 3
- 210000003128 head Anatomy 0.000 claims description 2
- 210000001331 nose Anatomy 0.000 claims description 2
- 230000002596 correlated effect Effects 0.000 claims 1
- 239000003607 modifier Substances 0.000 claims 1
- 239000003086 colorant Substances 0.000 abstract description 2
- 230000008859 change Effects 0.000 description 5
- 238000010586 diagram Methods 0.000 description 5
- 230000008921 facial expression Effects 0.000 description 5
- 238000012545 processing Methods 0.000 description 5
- 239000002131 composite material Substances 0.000 description 4
- 230000008569 process Effects 0.000 description 4
- 230000004397 blinking Effects 0.000 description 3
- 230000004424 eye movement Effects 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 2
- 230000009471 action Effects 0.000 description 2
- 230000006866 deterioration Effects 0.000 description 2
- 230000002996 emotional effect Effects 0.000 description 2
- 238000000605 extraction Methods 0.000 description 2
- 238000003860 storage Methods 0.000 description 2
- 206010011469 Crying Diseases 0.000 description 1
- 206010060904 Freezing phenomenon Diseases 0.000 description 1
- 238000005452 bending Methods 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 238000004040 coloring Methods 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 230000036651 mood Effects 0.000 description 1
- 238000007639 printing Methods 0.000 description 1
- 239000000047 product Substances 0.000 description 1
- 238000005549 size reduction Methods 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 239000013589 supplement Substances 0.000 description 1
- 230000001502 supplementing effect Effects 0.000 description 1
- 238000003786 synthesis reaction Methods 0.000 description 1
- 230000002194 synthesizing effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T13/00—Animation
- G06T13/20—3D [Three Dimensional] animation
- G06T13/40—3D [Three Dimensional] animation of characters, e.g. humans, animals or virtual beings
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/04—Texture mapping
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/20—Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2200/00—Indexing scheme for image data processing or generation, in general
- G06T2200/16—Indexing scheme for image data processing or generation, in general involving adaptation to the client's capabilities
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2200/00—Indexing scheme for image data processing or generation, in general
- G06T2200/24—Indexing scheme for image data processing or generation, in general involving graphical user interfaces [GUIs]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Business, Economics & Management (AREA)
- Computer Graphics (AREA)
- Health & Medical Sciences (AREA)
- Human Resources & Organizations (AREA)
- Software Systems (AREA)
- Computer Hardware Design (AREA)
- Architecture (AREA)
- Economics (AREA)
- General Health & Medical Sciences (AREA)
- General Engineering & Computer Science (AREA)
- Marketing (AREA)
- Primary Health Care (AREA)
- Strategic Management (AREA)
- Tourism & Hospitality (AREA)
- General Business, Economics & Management (AREA)
- Processing Or Creating Images (AREA)
Abstract
Description
본 발명은 캐릭터 제작 시스템으로서 입력된 얼굴 영상의 형태 정보에 기반하여 캐릭터 합성 이미지를 생성하고 이를 성형, 메이크업등의 합성 이미지 생성과 감정 표현을 나타내는 동적 캐릭터 이미지를 생성하는 장치 및 그 방법에 관한 것이다.The present invention relates to an apparatus and method for generating a character composite image based on the shape information of a face image input as a character production system, generating a composite image such as molding and makeup, and generating a dynamic character image representing an emotional expression. .
사람의 얼굴은 그 사람을 특징지어주는 대표적인 것으로 특히 인터넷과 같이 On-line상에서 비대면의 커뮤니케이션이 일반화되어 있는 현대사회에서는 캐리커처나 아바타등과 같이 자신을 대신할 수 있는 얼굴 표현 방법이 관련 산업과 함께 그 중요성이 증가하고 있다. 또한 자신의 표현 수단으로 직접적인 방법보다 자신의 특징만을 살려 표현해 주는 방법등도 요구되고 있다. 자신을 대신하기 위해서는 자신의 얼굴과 닮아야 하며 본인이 얼굴 합성 이미지의 일부를 성형하고자 할 때 자유로이 성형할 수 있어야 하며 목적에 따라서는 과장이나 축소가 가능해야 한다. 또 감정에 따른 자연스런 동적 표정 변화가 가능하다면 다양한 분야에서 활용될 것이다.The face of a person is a representative character of the person. Especially in the modern society where non-face-to-face communication is common on the Internet, such as the Internet, face expression methods such as caricatures and avatars can be replaced with related industries. Together, its importance is increasing. In addition, his own means of expression are required to express only his characteristics rather than direct methods. In order to replace yourself, you have to resemble your face, and when you want to shape a part of your face composite image, you must be able to freely shape it, and depending on the purpose, you should be able to exaggerate or reduce it. In addition, if a natural dynamic expression change according to emotion is possible, it will be used in various fields.
이러한 요구에 따라 다양한 캐릭터 표현들이 서비스되고 있다. 캐릭터를 생성하는 방법은 대표적으로 디자이너가 직접 사용자 또는 사용자의 사진을 보며 캐릭터를 그리는 방법, 주어진 캐릭터 중에서 사용자가 원하는 캐릭터를 선택하는 방법, 데이터베이스에 저장된 각 항목을 조합하여 캐릭터를 구성하는 방법과 사용자의 얼굴 이미지 데이터에서 부위별 특징점을 추출하여 데이타베이스에서 가장 유사한 디자인 적용방법등이 알려져 있다. 그러나 주로 얼굴 이미지의 합성에 목적을 두고 있는 상태이다.According to this demand, various character representations are being serviced. Typical methods for creating a character include a method in which a designer draws a character by looking at a picture of a user or a user, selects a character that a user wants from a given character, and constructs a character by combining each item stored in a database. The most similar design application method is known in the database by extracting feature points for each part from face image data. However, it is mainly aimed at synthesizing face images.
디자이너가 제작하는 방법은 사용자의 모습에 가까운 캐릭터를 제작할수 있으나, 고비용이며 제작기간이 오래걸리며 온라인상에서 실시간 서비스하기에는 부적절하며 얼굴 동작 효과는 불가능하게 된다. 또 사용자의 수정 요구사항에 즉각 처리하기 곤란하며 이 또한 고비용이며 장시간이 소요된다.Designers can produce characters that are close to the user's appearance, but they are expensive, take a long time, are inadequate for real-time online service, and facial motion effects are impossible. It is also difficult to deal with the user's modification requirements immediately, which is expensive and takes a long time.
제공되는 캐릭터중 사용자가 선택하도록 하는 방법은 제한된 수의 캐릭터중에서 선택하게 되므로 그 얼굴이 그얼굴인 결과를 가져와 자신의 분신으로서의 으미를 잃게된다. 또 다양한 캐릭터 형태를 제공하기 위해서는 대용량의 저장장치가 필수적이다. 얼굴 동작 효과는 또한 제한적일 수 밖에 없다. 기존 캐릭터의 동작은 단절된 움직임(즉, 눈 깜박임의 경우 완전히 뜬눈과 완전히 감은눈의 이미지를 연속하여 보여줌)을 보이고 있다. 조합형 캐릭터 제공 방법은 얼굴 부위별로 데이타베이스에 두어 선택적으로 조합되기 때문에 부위간 불균형이 일어날 수 있고 자신의 얼굴과는 판이한 결과를 가져온다. 유사성을 이용한 방법은 제한된 데이타베이스에서의 유사성 검출로 결과적으로 유사정도가 떨어지게 되며 영상처리에 의한 특징점 추출은 영상 획득 단계에서의 엄격한 제한 조건(조명조건, 배경조건, 카메라 상태등)이 요구되며 정확한 특징점 추출에는 한계가 있다. 영상 획득을 위한 조명 또는 여러다른 환경 변화에 따라 영상의 상태가 달라지고 이를 보완할 적절한 방법이 제시되지 않고 있다는 문제점이 있다. 또 유사성을 높이기 위해서는 다수의 참조 영상의 사용으로 인한 대용량의 데이타베이스가 요구되게 된다. 또한 위의 방법들은 공통적으로 자연스런 얼굴 표정 동작 생성에 제한적일 수 밖에 없다.The method of letting the user select from among the provided characters is to select from a limited number of characters, so that the face has the result of that face and loses its ugly self. In addition, a large storage device is essential to provide various character shapes. Facial motion effects are also limited. The existing character's movement shows disconnected movements (ie, eyes blinking continuously and completely closed images). Since the combined character providing method is selectively combined by placing them in a database for each face part, an imbalance between parts may occur and results are different from those of a face. The method using similarity results in similarity detection in a limited database, and as a result, the similarity decreases, and feature point extraction by image processing requires strict constraints (lighting conditions, background conditions, camera conditions, etc.) in the image acquisition stage. There is a limit to feature point extraction. There is a problem that the state of the image is changed according to the illumination for image acquisition or various environmental changes, and an appropriate method for supplementing the image is not provided. In addition, to increase the similarity, a large database due to the use of a plurality of reference images is required. In addition, the above methods are limited to generating natural facial expression gestures in common.
본 발명은 상기와 같은 문제를 해결하고 보완하기 위하여 창작된 것으로서, 입력되는 얼굴 이미지의 특별한 제한 조건 없이 정면의 얼굴로 얼굴의 각 부위들의 외곽선을 육안으로 식별가능한 형태라면 간단한 위치 지정 및 이동만으로 제작이 가능하며 사용자는 보다 자연스럽고 정교한 캐릭터 영상을 얻고, 사용자의 의도에 따라 자유롭게 성형 및 화장이 가능하며 얼굴의 자연스러운 감정표현을 자동으로 생성시킬 수 있도록 얼굴 부위별 외곽 곡선을 이용하고 부위별 상호관계에 의해 캐릭터 생성 및 감정표현 캐릭터 제작 장치 및 그 방법 그리고 이를 이용한 서비스 방법등을 제공하는데 있다.The present invention was created in order to solve and supplement the above problems, and produced by simple positioning and movement only if the outline of each part of the face can be visually identified by the face of the front face without any special limitation condition of the input face image. The user can obtain more natural and sophisticated character image, and can freely shape and make up according to the user's intention, and use the contour curves for each part of the face to automatically generate the natural emotional expression of the face The present invention provides an apparatus for producing a character, an emotion expression character, and a method thereof and a service method using the same.
도 1은 본 발명에 의한 통신망을 이용한 캐릭터 제작 서비스 실시 예의 기능적 구성을 도시한 블록도이다.1 is a block diagram showing a functional configuration of an embodiment of a character production service using a communication network according to the present invention.
도 2는 본 발명에 의한 자체 캐릭터 제작 서비스 실시 예의 기능적 구성을 도시한 블럭도이다.2 is a block diagram showing a functional configuration of an embodiment of a self character production service according to the present invention.
도 3은 본 발명의 도 1과 도 2의 실시예가 구현되는 컴퓨터 시스템의 장치 구성을 도시한 블록도이다.3 is a block diagram illustrating an apparatus configuration of a computer system in which the embodiments of FIGS. 1 and 2 of the present invention are implemented.
도 4는 본 발명에 의한 캐릭터 제작 시스템의 내부 구성도이다.4 is an internal configuration diagram of a character production system according to the present invention.
도 5는 본 발명에 의한 캐릭터 제작 시스템의 캐릭터 생성 과정의 기본 흐름도이다.5 is a basic flowchart of a character generation process of the character production system according to the present invention.
도 6은 도 4의 얼굴 영상 입력 및 보정 단계와 부위별 위치 및 영역설정 단계를 도시한 흐름도이다.6 is a flowchart illustrating a face image input and correction step of FIG. 4 and a location and area setting step for each part.
도 7은 도 4의 부위별 외곽 곡선 결정 단계를 도시한 흐름도이다.FIG. 7 is a flowchart illustrating a step of determining an outline curve for each part of FIG. 4.
도 8은 도 4의 입체감 및 디자인 적용 단계를 도시한 흐름도이다.FIG. 8 is a flowchart illustrating a three-dimensional and design application step of FIG. 4.
도 9는 도 4의 성형 단계를 도시한 흐름도이다.9 is a flow chart showing the forming step of FIG.
도 10은 도 4의 얼굴 동작 표현 단계를 도시한 흐름도이다.FIG. 10 is a flowchart illustrating a facial motion expression step of FIG. 4.
도 11은 도 4의 메이크업 단계를 도시한 흐름도이다.11 is a flowchart illustrating a makeup step of FIG. 4.
도 12는 도 4의 의상 적용 단계를 도시한 흐름도이다.12 is a flowchart illustrating a clothes application step of FIG. 4.
도 13은 도 4의 화질 개선 및 이미지 크기 조절 단계를 도시한 흐름도이다.FIG. 13 is a flowchart illustrating steps of improving image quality and adjusting image size of FIG. 4.
도 14는 얼굴 이미지와 캐리커처형 이미지이다.14 is a face image and a caricature image.
도 15는 눈깜빡임 캐리커처형 생성 이미지 예이다.15 is an example of a blinking caricature generated image.
도 16은 입벌림 캐리커처형 생성 이미지 예이다.16 is an example of an open mouth caricature type image.
본 발명은 상기와 같은 문제점을 해결하고 새로운 기능들이 가능하도록 창작된 것으로 실제 얼굴 영상에서 얼굴 구성요소의 외곽 곡선으로 쉽게 구성할 수 있도록 하고 이를 활용하여 얼굴 각 부위별 입체감 및 디자인을 적용하고 사용자의 의도에 따라 성형, 화장을 자동으로 적용하여 사실적 캐릭터를 생성하고 얼굴 표정 변화에 따른 동적 얼굴 합성 영상을 자동으로 생성해 냄으로서 자연스러운 감정을 표현할 수 있는 동적 캐릭터 자동 제작 시스템으로 그 형태는 캐리커처형과 아바타형으로 선택적으로 지원할 수 있다.The present invention was created to solve the above problems and to enable new functions. The present invention can be easily configured with the outer curves of the face components in the actual face image, and utilizes the three-dimensional effect and the design for each part of the face by using the user's face. It is a dynamic character automatic production system that can express natural emotions by automatically creating a realistic character by automatically applying molding and makeup according to the intention, and automatically generating a dynamic facial composite image according to the change of facial expression. It can be optionally supported as an avatar type.
캐릭터 제작 서비스 시스템은 통신망을 통한 캐릭터 제작 서비스 시스템과 자체적으로 캐릭터 제작이 가능한 자체 캐릭터 제작 서비스 시스템으로 구분하여 구성이 가능하다.The character production service system can be divided into a character production service system through a communication network and its own character production service system capable of producing itself.
도 1은 본 발명에 따른 통신망을 통한 캐릭터 제작 서비스 시스템의 실제 예를 보여주는 블럭도이다.1 is a block diagram showing a practical example of a character production service system through a communication network according to the present invention.
도시된 바와 같이, 본 발명에 따른 캐릭터 제작 시스템은 캐릭터 서버(30)와 사용자 PC(10)간의 통신망(20)의 연결로서 구성되며, 통신망(20)을 통해 복수의 사용자 PC(10)와 연결될 수 있다. 통신망(20)은 인터넷이 대표적이며 LAN, WAN, PSTN(PublicService Telephone Network), PSDN(Public Service Data Network), 케이블TV망, 무선통신망 등 다양하다.As shown, the character production system according to the present invention is configured as a connection of the communication network 20 between the character server 30 and the user PC 10, to be connected to the plurality of user PCs 10 through the communication network (20). Can be. The communication network 20 is representative of the Internet, and various types of LAN, WAN, PSTN (Public Service Telephone Network), PSDN (Public Service Data Network), cable TV network, and wireless communication network.
사용자 PC(10)는 디지탈 카메라, 스캐너등의 얼굴 이미지를 획득할 수 있는 영상 획득 장치(11)와 마우스, 키보드등의 포인트나 문자등의 입력을 위한 입력장치(13)와 영상 디스플레이나 프린트를 위한 모니터나 프린트등의 출력장치(12), 그리고 통신망(20)을 통한 통신을 위한 LAN 카드, 모뎀등의 통신 처리 장치(14)등으로 구성된다.The user PC 10 includes an image acquisition device 11 capable of acquiring a face image of a digital camera, a scanner, an input device 13 for inputting points or characters such as a mouse or a keyboard, and an image display or print. An output device 12 such as a monitor or a printer for printing, and a communication processing device 14 such as a LAN card and a modem for communication through the communication network 20.
캐릭터 서버(30)는 캐릭터 제작을 수행하는 캐릭터 제작 시스템(32)과 사용자 관리를 위한 사용자정보 데이타베이스(D1), 사용자의 캐릭터 구성에 이용되는 정보등을 데이타베이스화한 사용자 캐릭터 데이타베이스(D2), 디자인 정보들이 저장되어 있는 디자인 데이타베이스(D3) 그리고The character server 30 includes a character production system 32 for performing character production, a user information database D1 for user management, and a user character database D2 having a database of information used for user character construction. A design database (D3) where design information is stored;
통신망(20)에 연결된 복수의 사용자터미널(3)과의 통신을 제어하기 위한 통신 처리 장치(31)등으로 구성된다.And a communication processing device 31 for controlling communication with a plurality of user terminals 3 connected to the communication network 20.
사용자정보 데이타베이스(D1)에는 사용자등록정보를 비롯한 사용자관리를 위한 정보들이 데이타베이스화 되어있고, 사용자 캐릭터 데이타베이스(D2)에는 사용자의 캐릭터 관련 생성물들로 얼굴 부위별 외곽곡선 정보, 캐릭터 이미지와 동작 이미지등이 데이타베이스화 되어있고, 디자인 데이타베이스(D3)에는 캐릭터 생성에 이용되는 디자인 데이타들로 캐릭터 얼굴에서 이용되는 헤어, 눈동자, 귀의 디자인과 캐릭터 의상에 적용되는 디자인 데이타들이 데이타베이스화 되어있다.In the user information database (D1), information for user management, including user registration information, is formed into a database, and in the user character database (D2), the user's character-related products include outline curve information, character images, and motion for each face part. Images are databased, and the design database (D3) contains design data used for character generation, and design data applied to the design of hair, eyes, and ears used in the character's face and character costume.
사용자은 캐릭터 서버에 사용자등록을 하고 로그온 한 후, 영상 획득 장치(11)를 이용하여 자신의 얼굴 영상 이미지를 생성하고 통신망(20)을 통해 캐릭터 서버(30)에 전송하고 캐릭터 제작 시스템(32)의 캐릭터 제작 단계(도 4)에 따라 캐릭터를생성하고 캐릭터 이미지를 사용자 캐릭터 데이타베이스(D2)에 저장되어 이를 사용할 수 있게 된다.After the user registers and logs on to the character server, the user generates an image of his face using the image acquisition device 11 and transmits it to the character server 30 through the communication network 20, and the character production system 32. According to the character production step (FIG. 4), the character is generated, and the character image is stored in the user character database D2 to be used.
도 2의 자체 캐릭터 제작 시스템은 통신망을 통하지 않고 캐릭터 제작 시스템 자체에서 캐릭터를 생성하여 사용자에게 서비스하는 것으로 캐릭터를 이용한 명함제작이나 광고물 제작등의 다양한 서비스가 가능한 시스템을 말한다.The character production system of FIG. 2 refers to a system capable of various services such as business card production or advertisement production using a character by generating a character in the character production system itself and serving the user without using a communication network.
사용자PC, 캐릭터 제작 시스템등은 컴퓨터로 이루어지는 것으로 그 구성은 도 3에 나타난 바와 같다.The user PC, the character production system, etc. are made of a computer, the configuration of which is as shown in FIG.
도 3은 컴퓨터는 모든 연산과 그 처리를 담당하는 중앙처리장치(C2)와 데이타를 저장해 두는 기억장치(C1), 데이타의 입출력을 위한 입출력 장치(C3, C4)로 구성된다.3 is a computer comprising a central processing unit (C2) in charge of all operations and processing, a storage device (C1) storing data, and input / output devices (C3, C4) for inputting and outputting data.
본 발명은 이러한 제반 환경하에서 캐릭터 제작 시스템(32)의 실행 결과로 얻어지는 것으로 상술한 기존의 문제점들을 해결하며 고품질, 고사실성의 동적 캐릭터를 제작하게 된다.The present invention is obtained as a result of the execution of the character production system 32 under such an environment, and solves the above-mentioned problems and produces a high quality, highly realistic dynamic character.
캐릭터는 얼굴의 형태를 얼마나 사실적으로 표현할 수 있는가와 사용자의 의도대로 싶게 고칠 수 있는가, 또 부가적으로 다양한 얼굴 표정들을 얼마나 자연스럽게 나타낼 수 있는가에 따라 제공되는 서비스의 품질이 달라지게 된다. 또 이에따라 기존의 방법으로 제공할 수 없었던 다양한 서비스들도 가능하게 된다.The quality of the service provided varies depending on how realistically the character can express the shape of the face, how he or she can modify it according to the user's intention, and additionally, how naturally the various facial expressions can be expressed. In addition, various services that could not be provided by the existing method are possible.
본 발명은 사용자이 자신의 얼굴에서 얼굴의 눈, 코, 입, 얼굴형등의 외곽 곡선을 쉽게 제작할 수 있도록 하고, 이를 그대로 이용하여 얼굴 입체감과 디자인 요소들을 적용함으로서 사실적인 얼굴의 형태를 생성할 수 있도록 한다. 본 발명은 형태의 유사성을 통해 데이타베이스에서 선택하는 것이 아니라 외곽 곡선 정보를 그대로 사용하여 이 정보를 기반으로 얼굴 구성요소의 상호관계를 이용한다. 즉, 눈, 코, 입, 귀, 얼굴형등의 상호 위치, 모양, 크기등을 분석하여 얼굴의 입체감 및 디자인을 적용하여 캐릭터를 구성하고 표정변화에 따른 각 얼굴 구성 요소의 상호 움직임에 따라 변화요소들을 분석하여 재구성해 줌으로서 자연스런 표정을 생성하게 된다. 이러한 형태는 사용자의 선택에 따라 캐리커처형과 아바타형의 두가지 형태로 제공될 수 있다. 얼굴에서의 동작요소들은 위/아래 눈커플 동작, 눈동자의 움직임, 입술동작, 턱의 동작 뿐아니라 각 동작과 관련된 얼굴 입체감의 변화도 생성해 줌으로서 자연스런 동작이 일어나게 된다. 또 다양한 얼굴 입체감의 종류를 제공하여 선택하게 함으로서 같은 얼굴 구성 요소에서 다양한 분위기의 캐릭터들을 생성해 낼 수 있도록 한다.The present invention allows the user to easily create the outer curves of the face, eyes, nose, mouth, face shape, etc. in his face, and can use them as they are to create a realistic face shape by applying the facial three-dimensional and design elements Make sure The present invention utilizes the interrelationship of facial components based on this information using the outline curve information as it is, instead of selecting from the database through the similarity of shapes. In other words, it analyzes the position, shape, size, etc. of eyes, nose, mouth, ear, and face shape to apply the three-dimensional effect and design of the face to compose the character and change according to the mutual movement of each facial component according to the expression change. By analyzing and reconstructing the elements, a natural expression is created. Such a form may be provided in two forms, a caricature type and an avatar type, according to a user's selection. The motion elements in the face generate natural changes by creating changes in facial stereoscopic motion associated with each motion, as well as up / down eye couple movements, eye movements, lip movements, and jaw movements. In addition, various types of facial three-dimensional effects are provided for selection so that characters of various moods can be generated from the same facial component.
얼굴 성형에 있어서도 전혀 다른 얼굴로 변환되는 것이 아니라 현재의 얼굴에서 의도하는 부위의 성형이 단계적으로 나타나게 하여 사용자이 성형 형태를 결정할 수 있도록 한다. 이런 방식으로 눈쌍커풀, 눈 확대/축소, 코 높임, 턱선 성형등이 가능하게 된다.In the face shaping, the shaping of the intended part of the current face is shown step by step, instead of being converted into a completely different face, so that the user can determine the shaping shape. In this way, eyelids, eye zooming, nose raising, and jaw line shaping are possible.
본 발명의 기능들은 캐릭터 제작 시스템에서 이루어지며 그 내부 구성은 도 4에 나타난 바와 같이 영상 입력 및 보정 단계(P10), 부위별 위치 및 영역 선정 단계(P20), 외곽 곡선 결정 단계(P30), 얼굴 입체감 및 디자인 적용 단계(P40), 메이크업 단계(P50), 얼굴 성형 단계(P60), 동작 적용 단계(P70), 의상 적용 단계(P80), 화질 개선 및 이미지 크기 조절 단계(P90)로 구성된다.Functions of the present invention are made in the character production system and its internal configuration is shown in Figure 4, the image input and correction step (P10), the location and region selection step (P20) for each part, the outline curve determination step (P30), face It consists of a three-dimensional and design application step (P40), makeup step (P50), face shaping step (P60), motion application step (P70), costume application step (P80), image quality improvement and image size adjustment step (P90).
도 5는 캐릭터 생성 과정의 기본적 흐름도이다. 각 단계별로 상세한 기술적 사항을 살펴보면 다음과 같다.5 is a basic flowchart of a character generation process. The detailed technical details for each step are as follows.
도 6은 영상 입력에서 부위별 위치와 영역 선정까지를 나타내는 흐름도이다.6 is a flowchart illustrating a position and region selection for each part in image input.
캐릭터 제작 시스템의 얼굴 영상 입력 및 보정 단계(P10)은 사용자가 사용자PC(10)를 이용하여 자신의 정면 얼굴 영상을 스캐너나 디지탈 카메라등의 영상 획득 장비(11)를 이용하여 디지탈 영상 이미지(도 14)를 생성한 후 통신망(20)을 통해 이미지 화일과 전송하고 헤어와 귀, 눈동자의 디자인 종류와 캐리커처형과 아바타형을 선택하여 캐릭터 서버로 전송한다.(P101) 이때 이미지의 포맷은 통상적으로 사용되어 지는 이미지 포맷으로 한다.(*.bmp, *.dib, *.gif, *.jpg ...) 캐릭터 서버는 전송된 얼굴 이미지를 상용자PC로 전송하고 사용자가 두눈의 중심 위치를 입력(P102)하면 두 중심점간의 거리,기울기를 이용하여 얼굴 이미지를 크기, 수평, 수직을 정렬하여 얼굴 이미지의 좌우 기울임과 얼굴 이미지의 크기를 보정한다.(P103)The face image input and correction step (P10) of the character production system is performed by the user using his / her PC 10 to display his / her front face image using an image acquisition device 11 such as a scanner or a digital camera. After generating 14), the image file is transmitted through the communication network 20 and transmitted to the character server by selecting the design type, the caricature type, and the avatar type of the hair, ears, and eyes (P101). (* .Bmp, * .dib, * .gif, * .jpg ...) The character server sends the transferred face image to the commercial PC and the user enters the center of the eyes. (P102) the face image is aligned in size, horizontally and vertically using the distance and tilt between two center points to correct the tilt of the face image and the size of the face image (P103).
얼굴 부위별 위치 및 영역 선정 단계에서는 도 4의 1단계에서 보정된 이미지상에서 두눈의 간격을 기준으로 머리 중앙 끝점, 코끝점, 입중앙점, 턱끝점 및 양귀의 상하점에 대한 기준점을 사용자에게 제공(P104)하고 사용자가 수정(P105)할 수 있도록 수정기능을 제공하고 최종 기준점들을 확정할 수 있도록 한다. 선정된 기준점들을 중심으로 부위별 영역을 사용자에게 제공하고 사용자가 수정(P106)할 수 있도록 하고 최종 기준점들과 최종 부위별 영역들을 저장(P107)할 수 있도록 한다.In the step of selecting the location and area of each face, the user provides the user with reference points for the head end point, nose end point, mouth center point, chin point point, and upper and lower points of both ears on the basis of the distance between the eyes on the image corrected in step 1 of FIG. 4. (P104) and provide a correction function for the user to correct (P105) and to determine the final reference points. The area for each part is provided to the user based on the selected reference points, the user can correct (P106), and the final reference points and the area for the last part can be stored (P107).
도 7은 외곽 곡선 결정 단계를 나타내는 흐름도이다. 외곽 곡선 단계에서는 각 부위에 대한 기본 외곽 곡선들을 이미 결정되어 있는 데이타들을 기준점의 위치와 눈중심점 간격을 고려한 비례적인 크기로 변형자를 통해 변형하여 제공(P301)된다. 사용자는 각 부위의 외곽 곡선을 이루는 조절점들을 수정(P302)하여 얼굴 이미지의 부위별 외곽 형태와 일치시킴으로서 정확한 외곽 곡선의 형태의 정보를 결정할 수 있다. 도 4의 1,2단계에서 확정된 기준점 및 영역을 이용하게 된다. 얼굴형을 결정하는 외곽선은 기준점중 머리 중앙 끝점과 양귀의 상하 기준점과 턱끝점을 잇는 외곽 곡선을 이용하여 이루어진다. 눈썹 곡선은 눈썹 모양에 중앙선으로 하고 눈의 모양은 위와 아래의 눈꺼풀을 이루는 곡선으로 하며, 코의 외곽 곡선은 코 끝점과 코구멍의 외곽 곡선을 이루는 곡선과 좌우 콧날개의 외곽 곡선으로 한다. 입의 외곽 곡선은 윗 입술의 외곽 곡선과 아랫 입술의 외곽 곡선, 그리고 입의 중앙선 곡선으로 한다. 상기의 외곽 곡선은 각 부위의 형태를 이룰 수 있도록 곡선 조절점의 수를 최소한으로 한다. 수정과정이 최종 확정하여 사용자가 이미 선택한 디자인 정보와 함께 화일로 저장(P303)할 수 있도록 한다.7 is a flowchart showing an outline curve determination step. In the outer curve step, basic contour curves for each part are provided by transforming the data, which are already determined, with a proportional size considering the position of the reference point and the center of the eye center point (P301). The user may determine correct information of the shape of the outline curve by correcting control points constituting the outline curve of each region (P302) to match the outline shape of each region of the face image. The reference point and the area determined in steps 1 and 2 of FIG. 4 are used. The outline for determining the face shape is made by using the outline curve connecting the center end point of the head with the top and bottom reference points of the both ears and the end point of the jaw. The eyebrow curve is the centerline of the eyebrow shape, the eye shape is the curve forming the upper and lower eyelids, and the outer curve of the nose is the curve forming the outer curve of the nose end point and the nose hole and the outer curve of the left and right nose wings. The outer curve of the mouth is the outer curve of the upper lip, the outer curve of the lower lip, and the centerline curve of the mouth. The outer curve minimizes the number of curve control points to achieve the shape of each part. The modification process is finalized so that the user can save the file with the design information already selected (P303).
도 8은 얼굴 입체감 및 디자인 적용 단계를 나타내는 흐름도이다. 얼굴 입체감 및 디자인 적용 단계는 도 4의 3단계에서 저장된 얼굴 부위별 외곽 곡선을 기준으로 얼굴 부위의 상호 관계를 이용하여 얼굴의 입체감을 생성한다. 이는 예를 들어 빛의 위치를 가상적으로 설정하여 코와 눈썹, 눈꺼풀의 위/아래 곡선 정보들을 참조하여 밝은 부분과 어두운 부분들의 영역을 생성하고 이를 얼굴의밝은 색과 어두운 색으로 채색함으로서 얼굴면의 굴곡에 따른 인위적으로 입체감을 생성해 주는생성해주는 방식(P402)이다. 또 사용자가 선택한 디자인 데이타베이스에서 제공되는 헤어, 귀, 눈썹, 속눈썹, 눈동자등의 디자인 데이타들은 얼굴 부위별 외곽 곡선 및 기준 위치에 맞게 위치, 방향, 크기를 변환자를 통해 변환(P404)하여 자연스럽게 디자인 형태가 적용(P405)될 수 있도록 한다. 또 얼굴과 관련된 악세서리인 안경, 귀고리, 모자등이 선택되었을 경우에도 동일한 방법으로 적용한다. 본 단계에서의 입체감 및 디자인 적용이 확정되면 입체감 적용 정보와 적용 디자인 정보들을 저장(P406)한다.(도 14)8 is a flowchart illustrating a facial three-dimensional effect and design application step. The facial three-dimensional effect and design application step generate a three-dimensional effect of the face by using the interrelationship of the face parts based on the outer curves of the facial parts stored in step 3 of FIG. 4. This is done by virtually setting the position of the light, for example, by referring to the up and down curves of the nose, eyebrows, and eyelids to create areas of light and dark areas and coloring them with the light and dark colors of the face. It is a method of generating artificially creating a three-dimensional effect by bending (P402). In addition, design data such as hair, ears, eyebrows, eyelashes, and pupils provided in the design database selected by the user are naturally converted by converting the position, direction, and size through the transducer (P404) according to the outline curve and reference position for each face part. Allow the shape to be applied (P405). The same applies when face accessories, such as glasses, earrings, and hats, are selected. If the three-dimensional and design application is confirmed in this step, the three-dimensional application information and the application design information is stored (P406) (Fig. 14).
도 11은 메이크업 단계를 나타내는 흐름도이다. 얼굴 화장 단계에서는 사용자의 의도에 따라 화장을 하고자 할 경우 적용되는 단계로 얼굴 부위별 화장영역을 부위별 상호 관계에 의해 생성(P603)하고 사용자가 원하는 색상을 선택(P604)하여 화장할 수 있도록 한다. 화장의 종류는 아이쉐도우, 화운데이션, 립스틱 및 얼굴 바탕등의 색상을 선택(P601)할 수 있으며 선택된 색상을 입체감 적용과 같은 방법으로 부위별 상호 관계에 의해 화장 영역(P605)에 적용한다. 속눈썹의 경우는 속눈썹의 종류에 따라 이미 저장되어 있는 구성데이타들을 선택하여 위눈꺼풀의 외곽곡선의 형태에 따라 적용하도록 한다. 본 단계에서의 선택된 정보들을 화일에 변경 또는 추가하여 저장(P606)한다.11 is a flowchart showing a makeup step. The face makeup step is a step to be applied to make up according to the user's intention, so that the makeup area for each facial part can be generated by the interrelationship between parts (P603), and the user can make up by selecting a desired color (P604). . The type of makeup may be selected such as eye shadow, foundation, lipstick, and a face background (P601), and the selected color is applied to the makeup area (P605) by the interrelationship for each region in the same manner as the three-dimensional application. In the case of eyelashes, it selects the configuration data already stored according to the type of eyelashes and applies them according to the shape of the upper curve of the upper eyelid. The selected information in this step is changed or added to a file and stored (P606).
도 9은 성형 단계를 나타내는 흐름도이다. 얼굴 성형 단계는 도 4의 3,4,5 단계를 통해 생성된 합성 얼굴 데이타에서 사용자가 고치고자 하는 부위를 선택(P501)하여 성형할 수 있는 단계로 각 부위별 성형 기준 데이타를 두어 단계적으로 성형(P503)할 수 있도록 하고 사용자가 확정 성형 형태를 결정하도록 한다.이때 이미 적용되고 있는 얼굴 입체감 및 디자인은 성형 확정된 부위별 외곽곡선의 형태에 따라 자동적으로 재구성(P504)한다. 본 단계에서 변경된 정보들을 화일로 저장(P505)한다.9 is a flowchart showing a molding step. The face shaping step is a step in which the user selects a part to be repaired (P501) from the synthetic face data generated through steps 3, 4, and 5 of FIG. (P503) and the user decides the final shaping shape. At this time, the three-dimensional appearance and the design already applied are automatically reconfigured (P504) according to the shape of the contour curve for each part where the shaping is confirmed. Information changed in this step is stored in a file (P505).
도 10은 동작 표현 적용 단계를 나타내는 흐름도이다. 동작 표현 적용 단계는 도 4의 4, 5, 6단계중 하나에서 확정된 얼굴 합성 데이타를 이용하여 얼굴 부위별 동작을 적용하는 단계로 각 부위별 동작의 특성에 맞게 외곽 곡선을 변형해 가면서 동작할 수 있도록 한다. 얼굴 부위들의 동작의 종류를 살펴보면 눈썹동작, 눈동작, 코동작, 입술동작, 턱동작등을 들수 있다. 다시 눈썹동작은 눈썹의 상하이동동작, 눈썹 기울임동작, 눈썹의 좌우동작등이 있고 눈동작은 눈꺼풀동작인 눈꺼풀 깜박임, 놀란눈처럼 눈커짐, 웃을 경우의 아랫눈꺼풀의 움직임, 울 경우 눈꺼풀 동작등과 눈동자 동작으로 눈동자 상하좌우 움직임등이 있다.(도 15) 입술동작은 각가지 모양의 입벌임 동작이 해당된다. 턱동작은 입벌림동작과 상호관련되어 입벌림에 따른 상대적인 움직임을 이루게 된다. 각각의 동작들은 그 동작 상태에 따라 관련 동작들이 연관되게 되며 입벌림동작의 경우는 입내부의 치아와 혀등의 구성요소들이 나타나게 되는데 이는 이미 저장되어 있는 입내부 모양으로 그 크기와 위치가 변형되어 적용되게 된다.(도 16)10 is a flowchart showing a motion expression applying step. The motion expression applying step is a step of applying the motion for each facial region using the face synthesis data determined in one of steps 4, 5, and 6 of FIG. 4 while deforming the outer curve according to the characteristics of each motion. To be able. Looking at the types of movements of the face parts, eyebrow movement, eye movement, nose movement, lip movement, chin movement, etc. can be mentioned. The eyebrow movements include the movement of the eyebrows, the movement of the eyebrows, the movement of the eyebrows, the movement of the eyebrows, and the movement of the eyebrows.The eyelids blink, the eyelids blink like a surprised eye, the eyelids move when laughing, and the eyelids when crying Eye movements include the movement of the pupils up, down, left, and right. (FIG. 15) The lip movement corresponds to various types of mouth opening operation. The jaw motion correlates with the open mouth motion to achieve relative movement according to the open mouth. Each movement involves related movements according to its operation state. In the case of mouth opening, components such as teeth and tongue inside the mouth appear. This is a shape of a mouth which is already stored and its size and position are modified and applied. (Fig. 16)
각 동작들은 사용자의 동작스케줄의 설정에 의해 시간대별로 단계적으로 생성되게 도니다. 예를 들어 눈의 깜박임은 눈 위껍풀을 이루는 외곽 곡선이 단계적으로 눈이 감기는 형태로 외곽 곡선을 변형해 가면서 구성하고 속눈썹, 눈동자 디자인등 눈과 관련된 부위들을 이에 맞게 적용해 가면서 동작을 생성해 낸다. 또 입술의 움직임, 눈썹 및 턱의 움직임등도 동일한 방법으로 동작을 생성해 낸다. 사용자는 위에서의 적용하고자 하는 동작을 선택할 수 있고 각 부위별 움직임은 사용자는 동작 시간 구간을 스케줄링(P701)할 수 있으며 이를 수정할 수 있다. 동작 스케줄이 확정되면 각 시간별 동작과 상호 관련이 있는 부위들의 입체감 및 디자인을 변화시켜 동작 이미지들을 생성(P703, P704)하고 최종 선택을 결정하여 이를 저장(P705)하여 연속동작으로 재생할 수 있도록 한다. 단위 연속동작을 반복해서 재생할 수 있도록 한다. 본 단계에서 연속동작을 위해 생성된 정보들을 화일로 저장(P706)한다.Each action can be created step by step by the user's action schedule. For example, the blinking of the eye is composed by transforming the outer curve of the outer curve forming the upper eyelids step by step, and creating motions by applying the eye-related parts such as eyelashes and pupil design accordingly. Serve The movements of the lips, eyebrows, and jaws are also generated in the same way. The user may select an operation to apply above, and the movement for each part may be scheduled by the user (P701) and may modify the operation time interval. When the operation schedule is determined, the three-dimensional effect and the design of the parts that correlate with the operation of each time are changed to generate motion images (P703 and P704), and the final selection is determined and stored (P705) to be reproduced in continuous operation. The unit continuous operation can be repeatedly played. In this step, the information generated for the continuous operation is stored in a file (P706).
도 13은 화질 개선 및 이미지 크기 조정 단계를 나타내는 흐름도이다. 화질 개선 및 이미지 크기 조정 단계에서는 도 4의 각 단계에서 생성되는 영상 이미지는 얼굴 부위별 외곽 곡선을 활용하기 때문에 얼라이징(Aliasing) 현상의 발생으로 영상의 품질이 저하된다. 특히 영상의 크기가 작은 경우 이러한 영상의 품질저하가 두드러지기 때문에 이를 보상할 필요가 있다. 이를 보상하기 위해 본 발명에서는 각 단계에서 생성되는 이미지들을 블러링(Burring)처리(P903)하고 이를 작은 이미지로 생성함으로서 얼라이징 현상 및 크기축소(P904)에 의한 품질저하를 보상해 준다.13 is a flowchart illustrating steps of improving image quality and adjusting image size. In the image quality improvement and the image size adjustment step, since the image image generated in each step of FIG. 4 utilizes an outline curve for each face part, an image quality is degraded due to an aliasing phenomenon. In particular, when the size of the image is small, it is necessary to compensate for the deterioration of the image. In order to compensate for this, in the present invention, the blurring process (P903) of the images generated at each step is generated as a small image, thereby compensating for the quality deterioration due to the freezing phenomenon and the size reduction (P904).
최종적으로 위의 얼굴 부위별 디자인에 적용되는 디자인 데이타들은 디자인 데이타베이스(D3)에 저장되며 위의 각 단계에서 생성에 이용되는 화일들은 사용자 캐릭터 데이타베이스(D2)에 저장(P905)된다.Finally, the design data applied to the design for each face part is stored in the design database D3, and the files used for generation in the above steps are stored in the user character database D2 (P905).
이상에서 설명한 본 발명은, 본 발명이 속하는 기술분야에서 통상의 지식을가진 자에 있어 본 발명의 기술적 사상을 벗어나지 않는 범위내에서 여러 가지 치환, 변형 및 변경이 가능하므로 전술한 실시예 및 첨부된 도면에 한정되는 것이 아니다.The present invention described above is capable of various substitutions, modifications, and changes without departing from the spirit of the present invention for those skilled in the art to which the present invention pertains. It is not limited to the drawings.
본 발명에 의해 실제 사용자의 얼굴과 유사한 얼굴 영상을 합성해 낼 수 있을 뿐아니라 성형 및 변형이 자유로우며 얼굴 표정의 변화에 따른 합성 이미지가 자동으로 생성되게 되어, 보다 고품질, 고사실성, 동작 적용에 따른 생명력 부여등의 결과물을 생성하게 되며 온라인 및 오프라인 서비스에 폭넓게 활용할 수 있으며 캐릭터 사업과 연계된 다방면의 비즈니스에 활용이 가능할 것이다.The present invention not only synthesizes a face image similar to a real user's face, but also freely molds and deforms, and automatically generates a synthesized image according to a change in facial expression, thereby providing a higher quality, higher reality, and motion application. It will produce the result of giving vitality, and can be widely used for online and offline services, and it can be used for various businesses related to character business.
또한 사용자의 특성을 무시한 천편일률적인 캐릭터 제공과는 차별화되며 얼굴 합성을 위한 방대한 량의 데이타베이스가 불필요하게 된다.In addition, it is different from the one-off uniform character that ignores the user's characteristics, and a large amount of database for face composition is unnecessary.
본 발명의 강점인 얼굴 동작의 자동 생성기능은 기존의 방식으로는 생성하기 어려운 본 발명만의 특징이기도 하다. 다양한 감정표현들의 추가가 가능하므로 더욱 실제 동작과 유사한 동작들이 제공되게 된다.The automatic generation of facial motion, which is the strength of the present invention, is also a feature of the present invention that is difficult to generate by the conventional method. Various emotion expressions can be added, so that motions similar to actual motions are provided.
또한 본 발명의 외곽 곡선에 기본 depth정보를 주어 3차원 캐릭터 생성에도 이용할 수 있다.In addition, by giving basic depth information to the outer curve of the present invention can be used to generate a three-dimensional character.
본 발명을 이용한 분야로는 캐리커처 및 아바타 생성, 명함 제작, 각종 광고물 제작, 인터넷 게임, 컴퓨터 바탕화면 서비스, 전자 메일분야 활용, 모바일 서비스, 팬시 산업등 다양하고 폭넓은 분야에서 유용하게 활용될 수 있다.The field using the present invention can be usefully used in various and wide fields such as caricature and avatar generation, business card production, various advertisement production, internet games, computer wallpaper service, e-mail application, mobile service, fancy industry, etc. have.
Claims (12)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020020029229A KR20030091306A (en) | 2002-05-27 | 2002-05-27 | The dynamic character and image character making system and the method using face components relationship on face image. |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020020029229A KR20030091306A (en) | 2002-05-27 | 2002-05-27 | The dynamic character and image character making system and the method using face components relationship on face image. |
Publications (1)
Publication Number | Publication Date |
---|---|
KR20030091306A true KR20030091306A (en) | 2003-12-03 |
Family
ID=32384451
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020020029229A KR20030091306A (en) | 2002-05-27 | 2002-05-27 | The dynamic character and image character making system and the method using face components relationship on face image. |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR20030091306A (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20180089022A (en) * | 2017-01-31 | 2018-08-08 | 한국항공우주연구원 | Optimized Compositing Technology Using the Plurality of Similar Images |
WO2020085718A1 (en) * | 2018-10-24 | 2020-04-30 | 삼성전자 주식회사 | Method and device for generating avatar on basis of corrected image |
CN112866577A (en) * | 2021-01-20 | 2021-05-28 | 腾讯科技(深圳)有限公司 | Image processing method and device, computer readable medium and electronic equipment |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20000037591A (en) * | 1998-12-01 | 2000-07-05 | 정선종 | Method for 3 dimensional facial expression animation using digital video image |
KR20000058717A (en) * | 2000-06-26 | 2000-10-05 | 강길태 | Cyber face lifting |
US6249292B1 (en) * | 1998-05-04 | 2001-06-19 | Compaq Computer Corporation | Technique for controlling a presentation of a computer generated object having a plurality of movable components |
JP2001229400A (en) * | 2000-02-15 | 2001-08-24 | Sharp Corp | Image processor, image processing method and recording medium with image processing program recorded therein |
KR20010114196A (en) * | 2001-11-30 | 2001-12-29 | 오광호 | Avatar fabrication system and method by online |
KR20020015642A (en) * | 2000-08-22 | 2002-02-28 | 이성환 | Apparatus and method for generating a synthetic facial image based on shape information of a facial image |
-
2002
- 2002-05-27 KR KR1020020029229A patent/KR20030091306A/en not_active Application Discontinuation
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6249292B1 (en) * | 1998-05-04 | 2001-06-19 | Compaq Computer Corporation | Technique for controlling a presentation of a computer generated object having a plurality of movable components |
KR20000037591A (en) * | 1998-12-01 | 2000-07-05 | 정선종 | Method for 3 dimensional facial expression animation using digital video image |
JP2001229400A (en) * | 2000-02-15 | 2001-08-24 | Sharp Corp | Image processor, image processing method and recording medium with image processing program recorded therein |
KR20000058717A (en) * | 2000-06-26 | 2000-10-05 | 강길태 | Cyber face lifting |
KR20020015642A (en) * | 2000-08-22 | 2002-02-28 | 이성환 | Apparatus and method for generating a synthetic facial image based on shape information of a facial image |
KR20010114196A (en) * | 2001-11-30 | 2001-12-29 | 오광호 | Avatar fabrication system and method by online |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20180089022A (en) * | 2017-01-31 | 2018-08-08 | 한국항공우주연구원 | Optimized Compositing Technology Using the Plurality of Similar Images |
WO2020085718A1 (en) * | 2018-10-24 | 2020-04-30 | 삼성전자 주식회사 | Method and device for generating avatar on basis of corrected image |
US11587205B2 (en) | 2018-10-24 | 2023-02-21 | Samsung Electronics Co., Ltd. | Method and device for generating avatar on basis of corrected image |
CN112866577A (en) * | 2021-01-20 | 2021-05-28 | 腾讯科技(深圳)有限公司 | Image processing method and device, computer readable medium and electronic equipment |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9959453B2 (en) | Methods and systems for three-dimensional rendering of a virtual augmented replica of a product image merged with a model image of a human-body feature | |
KR102658960B1 (en) | System and method for face reenactment | |
US20160134840A1 (en) | Avatar-Mediated Telepresence Systems with Enhanced Filtering | |
CN101055647B (en) | Method and device for processing image | |
CA2239402C (en) | Method for generating photo-realistic animated characters | |
CN108292423B (en) | Partial makeup making, partial makeup utilizing device, method, and recording medium | |
KR20210002888A (en) | Method, apparatus, and system generating 3d avartar from 2d image | |
US20210241510A1 (en) | Generating textured polygon strip hair from strand-based hair for a virtual character | |
CN107274466A (en) | The methods, devices and systems that a kind of real-time double is caught | |
US20090132371A1 (en) | Systems and methods for interactive advertising using personalized head models | |
JP2010507854A (en) | Method and apparatus for virtual simulation of video image sequence | |
CN111724457A (en) | Realistic virtual human multi-modal interaction implementation method based on UE4 | |
US20100182325A1 (en) | Apparatus and method for efficient animation of believable speaking 3d characters in real time | |
JP2001522108A (en) | Method and apparatus for displaying at least a part of a human body whose appearance has been changed | |
EP1602073A1 (en) | System and method for animating a digital facial model | |
WO2017175423A1 (en) | Modeling control system, modeling control method, and modeling control program | |
CN102054287A (en) | Facial animation video generating method and device | |
WO2022257766A1 (en) | Image processing method and apparatus, device, and medium | |
Maraffi | Maya character creation: modeling and animation controls | |
Li et al. | A survey of computer facial animation techniques | |
CN114549709A (en) | User-defined 3D virtual image generation system and method | |
KR20030091306A (en) | The dynamic character and image character making system and the method using face components relationship on face image. | |
CN112489184A (en) | Jewelry customization system | |
KR102049359B1 (en) | Method and system for providing intelligent 3D character model based on cloud search engine | |
KR20210081526A (en) | Virtual beauty cosmetic apparatus |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E601 | Decision to refuse application |