KR20030091306A - The dynamic character and image character making system and the method using face components relationship on face image. - Google Patents

The dynamic character and image character making system and the method using face components relationship on face image. Download PDF

Info

Publication number
KR20030091306A
KR20030091306A KR1020020029229A KR20020029229A KR20030091306A KR 20030091306 A KR20030091306 A KR 20030091306A KR 1020020029229 A KR1020020029229 A KR 1020020029229A KR 20020029229 A KR20020029229 A KR 20020029229A KR 20030091306 A KR20030091306 A KR 20030091306A
Authority
KR
South Korea
Prior art keywords
face
character
image
user
design
Prior art date
Application number
KR1020020029229A
Other languages
Korean (ko)
Inventor
이채헌
Original Assignee
이채헌
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 이채헌 filed Critical 이채헌
Priority to KR1020020029229A priority Critical patent/KR20030091306A/en
Publication of KR20030091306A publication Critical patent/KR20030091306A/en

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/203D [Three Dimensional] animation
    • G06T13/403D [Three Dimensional] animation of characters, e.g. humans, animals or virtual beings
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/04Texture mapping
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/16Indexing scheme for image data processing or generation, in general involving adaptation to the client's capabilities
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/24Indexing scheme for image data processing or generation, in general involving graphical user interfaces [GUIs]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Computer Graphics (AREA)
  • Health & Medical Sciences (AREA)
  • Human Resources & Organizations (AREA)
  • Software Systems (AREA)
  • Computer Hardware Design (AREA)
  • Architecture (AREA)
  • Economics (AREA)
  • General Health & Medical Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Marketing (AREA)
  • Primary Health Care (AREA)
  • Strategic Management (AREA)
  • Tourism & Hospitality (AREA)
  • General Business, Economics & Management (AREA)
  • Processing Or Creating Images (AREA)

Abstract

PURPOSE: A system and method for producing a character and an emotion-expressing dynamic character using correlation of contours of portions of a face image are provided to generate a character image based on shape information of an input face image. CONSTITUTION: A face image is transmitted from a character producing system and corrected(P10). Positions and regions of portions of a face are selected according to reference points(P20). Basic contours of the portions of the face are determined(P30). Three-dimensional effect of the face is processed and design data of a portion to which a design is applied is corrected using correlation between the determined contours and the portions of the face(P40). The contours are gradually changed to generate new contours(P50). A make-up portion of the face is decided and colors are applied to the make-up portion(P70). Moving portions of the face are scheduled and a dynamic image is gradually generated(P60). A costume is applied to a generated character face(P80). The picture quality of the generated character image is improved(P90).

Description

얼굴 영상에서 부위별 외곽 곡선의 상호 관계를 이용한 캐릭터 및 감정 표현 동적 캐릭터 제작 장치와 그 제작 방법. { The dynamic character and image character making system and the method using face components relationship on face image.}A character and emotion expression dynamic character production apparatus using the interrelation of the outer curve of each part in the face image and its production method. {The dynamic character and image character making system and the method using face components relationship on face image.}

본 발명은 캐릭터 제작 시스템으로서 입력된 얼굴 영상의 형태 정보에 기반하여 캐릭터 합성 이미지를 생성하고 이를 성형, 메이크업등의 합성 이미지 생성과 감정 표현을 나타내는 동적 캐릭터 이미지를 생성하는 장치 및 그 방법에 관한 것이다.The present invention relates to an apparatus and method for generating a character composite image based on the shape information of a face image input as a character production system, generating a composite image such as molding and makeup, and generating a dynamic character image representing an emotional expression. .

사람의 얼굴은 그 사람을 특징지어주는 대표적인 것으로 특히 인터넷과 같이 On-line상에서 비대면의 커뮤니케이션이 일반화되어 있는 현대사회에서는 캐리커처나 아바타등과 같이 자신을 대신할 수 있는 얼굴 표현 방법이 관련 산업과 함께 그 중요성이 증가하고 있다. 또한 자신의 표현 수단으로 직접적인 방법보다 자신의 특징만을 살려 표현해 주는 방법등도 요구되고 있다. 자신을 대신하기 위해서는 자신의 얼굴과 닮아야 하며 본인이 얼굴 합성 이미지의 일부를 성형하고자 할 때 자유로이 성형할 수 있어야 하며 목적에 따라서는 과장이나 축소가 가능해야 한다. 또 감정에 따른 자연스런 동적 표정 변화가 가능하다면 다양한 분야에서 활용될 것이다.The face of a person is a representative character of the person. Especially in the modern society where non-face-to-face communication is common on the Internet, such as the Internet, face expression methods such as caricatures and avatars can be replaced with related industries. Together, its importance is increasing. In addition, his own means of expression are required to express only his characteristics rather than direct methods. In order to replace yourself, you have to resemble your face, and when you want to shape a part of your face composite image, you must be able to freely shape it, and depending on the purpose, you should be able to exaggerate or reduce it. In addition, if a natural dynamic expression change according to emotion is possible, it will be used in various fields.

이러한 요구에 따라 다양한 캐릭터 표현들이 서비스되고 있다. 캐릭터를 생성하는 방법은 대표적으로 디자이너가 직접 사용자 또는 사용자의 사진을 보며 캐릭터를 그리는 방법, 주어진 캐릭터 중에서 사용자가 원하는 캐릭터를 선택하는 방법, 데이터베이스에 저장된 각 항목을 조합하여 캐릭터를 구성하는 방법과 사용자의 얼굴 이미지 데이터에서 부위별 특징점을 추출하여 데이타베이스에서 가장 유사한 디자인 적용방법등이 알려져 있다. 그러나 주로 얼굴 이미지의 합성에 목적을 두고 있는 상태이다.According to this demand, various character representations are being serviced. Typical methods for creating a character include a method in which a designer draws a character by looking at a picture of a user or a user, selects a character that a user wants from a given character, and constructs a character by combining each item stored in a database. The most similar design application method is known in the database by extracting feature points for each part from face image data. However, it is mainly aimed at synthesizing face images.

디자이너가 제작하는 방법은 사용자의 모습에 가까운 캐릭터를 제작할수 있으나, 고비용이며 제작기간이 오래걸리며 온라인상에서 실시간 서비스하기에는 부적절하며 얼굴 동작 효과는 불가능하게 된다. 또 사용자의 수정 요구사항에 즉각 처리하기 곤란하며 이 또한 고비용이며 장시간이 소요된다.Designers can produce characters that are close to the user's appearance, but they are expensive, take a long time, are inadequate for real-time online service, and facial motion effects are impossible. It is also difficult to deal with the user's modification requirements immediately, which is expensive and takes a long time.

제공되는 캐릭터중 사용자가 선택하도록 하는 방법은 제한된 수의 캐릭터중에서 선택하게 되므로 그 얼굴이 그얼굴인 결과를 가져와 자신의 분신으로서의 으미를 잃게된다. 또 다양한 캐릭터 형태를 제공하기 위해서는 대용량의 저장장치가 필수적이다. 얼굴 동작 효과는 또한 제한적일 수 밖에 없다. 기존 캐릭터의 동작은 단절된 움직임(즉, 눈 깜박임의 경우 완전히 뜬눈과 완전히 감은눈의 이미지를 연속하여 보여줌)을 보이고 있다. 조합형 캐릭터 제공 방법은 얼굴 부위별로 데이타베이스에 두어 선택적으로 조합되기 때문에 부위간 불균형이 일어날 수 있고 자신의 얼굴과는 판이한 결과를 가져온다. 유사성을 이용한 방법은 제한된 데이타베이스에서의 유사성 검출로 결과적으로 유사정도가 떨어지게 되며 영상처리에 의한 특징점 추출은 영상 획득 단계에서의 엄격한 제한 조건(조명조건, 배경조건, 카메라 상태등)이 요구되며 정확한 특징점 추출에는 한계가 있다. 영상 획득을 위한 조명 또는 여러다른 환경 변화에 따라 영상의 상태가 달라지고 이를 보완할 적절한 방법이 제시되지 않고 있다는 문제점이 있다. 또 유사성을 높이기 위해서는 다수의 참조 영상의 사용으로 인한 대용량의 데이타베이스가 요구되게 된다. 또한 위의 방법들은 공통적으로 자연스런 얼굴 표정 동작 생성에 제한적일 수 밖에 없다.The method of letting the user select from among the provided characters is to select from a limited number of characters, so that the face has the result of that face and loses its ugly self. In addition, a large storage device is essential to provide various character shapes. Facial motion effects are also limited. The existing character's movement shows disconnected movements (ie, eyes blinking continuously and completely closed images). Since the combined character providing method is selectively combined by placing them in a database for each face part, an imbalance between parts may occur and results are different from those of a face. The method using similarity results in similarity detection in a limited database, and as a result, the similarity decreases, and feature point extraction by image processing requires strict constraints (lighting conditions, background conditions, camera conditions, etc.) in the image acquisition stage. There is a limit to feature point extraction. There is a problem that the state of the image is changed according to the illumination for image acquisition or various environmental changes, and an appropriate method for supplementing the image is not provided. In addition, to increase the similarity, a large database due to the use of a plurality of reference images is required. In addition, the above methods are limited to generating natural facial expression gestures in common.

본 발명은 상기와 같은 문제를 해결하고 보완하기 위하여 창작된 것으로서, 입력되는 얼굴 이미지의 특별한 제한 조건 없이 정면의 얼굴로 얼굴의 각 부위들의 외곽선을 육안으로 식별가능한 형태라면 간단한 위치 지정 및 이동만으로 제작이 가능하며 사용자는 보다 자연스럽고 정교한 캐릭터 영상을 얻고, 사용자의 의도에 따라 자유롭게 성형 및 화장이 가능하며 얼굴의 자연스러운 감정표현을 자동으로 생성시킬 수 있도록 얼굴 부위별 외곽 곡선을 이용하고 부위별 상호관계에 의해 캐릭터 생성 및 감정표현 캐릭터 제작 장치 및 그 방법 그리고 이를 이용한 서비스 방법등을 제공하는데 있다.The present invention was created in order to solve and supplement the above problems, and produced by simple positioning and movement only if the outline of each part of the face can be visually identified by the face of the front face without any special limitation condition of the input face image. The user can obtain more natural and sophisticated character image, and can freely shape and make up according to the user's intention, and use the contour curves for each part of the face to automatically generate the natural emotional expression of the face The present invention provides an apparatus for producing a character, an emotion expression character, and a method thereof and a service method using the same.

도 1은 본 발명에 의한 통신망을 이용한 캐릭터 제작 서비스 실시 예의 기능적 구성을 도시한 블록도이다.1 is a block diagram showing a functional configuration of an embodiment of a character production service using a communication network according to the present invention.

도 2는 본 발명에 의한 자체 캐릭터 제작 서비스 실시 예의 기능적 구성을 도시한 블럭도이다.2 is a block diagram showing a functional configuration of an embodiment of a self character production service according to the present invention.

도 3은 본 발명의 도 1과 도 2의 실시예가 구현되는 컴퓨터 시스템의 장치 구성을 도시한 블록도이다.3 is a block diagram illustrating an apparatus configuration of a computer system in which the embodiments of FIGS. 1 and 2 of the present invention are implemented.

도 4는 본 발명에 의한 캐릭터 제작 시스템의 내부 구성도이다.4 is an internal configuration diagram of a character production system according to the present invention.

도 5는 본 발명에 의한 캐릭터 제작 시스템의 캐릭터 생성 과정의 기본 흐름도이다.5 is a basic flowchart of a character generation process of the character production system according to the present invention.

도 6은 도 4의 얼굴 영상 입력 및 보정 단계와 부위별 위치 및 영역설정 단계를 도시한 흐름도이다.6 is a flowchart illustrating a face image input and correction step of FIG. 4 and a location and area setting step for each part.

도 7은 도 4의 부위별 외곽 곡선 결정 단계를 도시한 흐름도이다.FIG. 7 is a flowchart illustrating a step of determining an outline curve for each part of FIG. 4.

도 8은 도 4의 입체감 및 디자인 적용 단계를 도시한 흐름도이다.FIG. 8 is a flowchart illustrating a three-dimensional and design application step of FIG. 4.

도 9는 도 4의 성형 단계를 도시한 흐름도이다.9 is a flow chart showing the forming step of FIG.

도 10은 도 4의 얼굴 동작 표현 단계를 도시한 흐름도이다.FIG. 10 is a flowchart illustrating a facial motion expression step of FIG. 4.

도 11은 도 4의 메이크업 단계를 도시한 흐름도이다.11 is a flowchart illustrating a makeup step of FIG. 4.

도 12는 도 4의 의상 적용 단계를 도시한 흐름도이다.12 is a flowchart illustrating a clothes application step of FIG. 4.

도 13은 도 4의 화질 개선 및 이미지 크기 조절 단계를 도시한 흐름도이다.FIG. 13 is a flowchart illustrating steps of improving image quality and adjusting image size of FIG. 4.

도 14는 얼굴 이미지와 캐리커처형 이미지이다.14 is a face image and a caricature image.

도 15는 눈깜빡임 캐리커처형 생성 이미지 예이다.15 is an example of a blinking caricature generated image.

도 16은 입벌림 캐리커처형 생성 이미지 예이다.16 is an example of an open mouth caricature type image.

본 발명은 상기와 같은 문제점을 해결하고 새로운 기능들이 가능하도록 창작된 것으로 실제 얼굴 영상에서 얼굴 구성요소의 외곽 곡선으로 쉽게 구성할 수 있도록 하고 이를 활용하여 얼굴 각 부위별 입체감 및 디자인을 적용하고 사용자의 의도에 따라 성형, 화장을 자동으로 적용하여 사실적 캐릭터를 생성하고 얼굴 표정 변화에 따른 동적 얼굴 합성 영상을 자동으로 생성해 냄으로서 자연스러운 감정을 표현할 수 있는 동적 캐릭터 자동 제작 시스템으로 그 형태는 캐리커처형과 아바타형으로 선택적으로 지원할 수 있다.The present invention was created to solve the above problems and to enable new functions. The present invention can be easily configured with the outer curves of the face components in the actual face image, and utilizes the three-dimensional effect and the design for each part of the face by using the user's face. It is a dynamic character automatic production system that can express natural emotions by automatically creating a realistic character by automatically applying molding and makeup according to the intention, and automatically generating a dynamic facial composite image according to the change of facial expression. It can be optionally supported as an avatar type.

캐릭터 제작 서비스 시스템은 통신망을 통한 캐릭터 제작 서비스 시스템과 자체적으로 캐릭터 제작이 가능한 자체 캐릭터 제작 서비스 시스템으로 구분하여 구성이 가능하다.The character production service system can be divided into a character production service system through a communication network and its own character production service system capable of producing itself.

도 1은 본 발명에 따른 통신망을 통한 캐릭터 제작 서비스 시스템의 실제 예를 보여주는 블럭도이다.1 is a block diagram showing a practical example of a character production service system through a communication network according to the present invention.

도시된 바와 같이, 본 발명에 따른 캐릭터 제작 시스템은 캐릭터 서버(30)와 사용자 PC(10)간의 통신망(20)의 연결로서 구성되며, 통신망(20)을 통해 복수의 사용자 PC(10)와 연결될 수 있다. 통신망(20)은 인터넷이 대표적이며 LAN, WAN, PSTN(PublicService Telephone Network), PSDN(Public Service Data Network), 케이블TV망, 무선통신망 등 다양하다.As shown, the character production system according to the present invention is configured as a connection of the communication network 20 between the character server 30 and the user PC 10, to be connected to the plurality of user PCs 10 through the communication network (20). Can be. The communication network 20 is representative of the Internet, and various types of LAN, WAN, PSTN (Public Service Telephone Network), PSDN (Public Service Data Network), cable TV network, and wireless communication network.

사용자 PC(10)는 디지탈 카메라, 스캐너등의 얼굴 이미지를 획득할 수 있는 영상 획득 장치(11)와 마우스, 키보드등의 포인트나 문자등의 입력을 위한 입력장치(13)와 영상 디스플레이나 프린트를 위한 모니터나 프린트등의 출력장치(12), 그리고 통신망(20)을 통한 통신을 위한 LAN 카드, 모뎀등의 통신 처리 장치(14)등으로 구성된다.The user PC 10 includes an image acquisition device 11 capable of acquiring a face image of a digital camera, a scanner, an input device 13 for inputting points or characters such as a mouse or a keyboard, and an image display or print. An output device 12 such as a monitor or a printer for printing, and a communication processing device 14 such as a LAN card and a modem for communication through the communication network 20.

캐릭터 서버(30)는 캐릭터 제작을 수행하는 캐릭터 제작 시스템(32)과 사용자 관리를 위한 사용자정보 데이타베이스(D1), 사용자의 캐릭터 구성에 이용되는 정보등을 데이타베이스화한 사용자 캐릭터 데이타베이스(D2), 디자인 정보들이 저장되어 있는 디자인 데이타베이스(D3) 그리고The character server 30 includes a character production system 32 for performing character production, a user information database D1 for user management, and a user character database D2 having a database of information used for user character construction. A design database (D3) where design information is stored;

통신망(20)에 연결된 복수의 사용자터미널(3)과의 통신을 제어하기 위한 통신 처리 장치(31)등으로 구성된다.And a communication processing device 31 for controlling communication with a plurality of user terminals 3 connected to the communication network 20.

사용자정보 데이타베이스(D1)에는 사용자등록정보를 비롯한 사용자관리를 위한 정보들이 데이타베이스화 되어있고, 사용자 캐릭터 데이타베이스(D2)에는 사용자의 캐릭터 관련 생성물들로 얼굴 부위별 외곽곡선 정보, 캐릭터 이미지와 동작 이미지등이 데이타베이스화 되어있고, 디자인 데이타베이스(D3)에는 캐릭터 생성에 이용되는 디자인 데이타들로 캐릭터 얼굴에서 이용되는 헤어, 눈동자, 귀의 디자인과 캐릭터 의상에 적용되는 디자인 데이타들이 데이타베이스화 되어있다.In the user information database (D1), information for user management, including user registration information, is formed into a database, and in the user character database (D2), the user's character-related products include outline curve information, character images, and motion for each face part. Images are databased, and the design database (D3) contains design data used for character generation, and design data applied to the design of hair, eyes, and ears used in the character's face and character costume.

사용자은 캐릭터 서버에 사용자등록을 하고 로그온 한 후, 영상 획득 장치(11)를 이용하여 자신의 얼굴 영상 이미지를 생성하고 통신망(20)을 통해 캐릭터 서버(30)에 전송하고 캐릭터 제작 시스템(32)의 캐릭터 제작 단계(도 4)에 따라 캐릭터를생성하고 캐릭터 이미지를 사용자 캐릭터 데이타베이스(D2)에 저장되어 이를 사용할 수 있게 된다.After the user registers and logs on to the character server, the user generates an image of his face using the image acquisition device 11 and transmits it to the character server 30 through the communication network 20, and the character production system 32. According to the character production step (FIG. 4), the character is generated, and the character image is stored in the user character database D2 to be used.

도 2의 자체 캐릭터 제작 시스템은 통신망을 통하지 않고 캐릭터 제작 시스템 자체에서 캐릭터를 생성하여 사용자에게 서비스하는 것으로 캐릭터를 이용한 명함제작이나 광고물 제작등의 다양한 서비스가 가능한 시스템을 말한다.The character production system of FIG. 2 refers to a system capable of various services such as business card production or advertisement production using a character by generating a character in the character production system itself and serving the user without using a communication network.

사용자PC, 캐릭터 제작 시스템등은 컴퓨터로 이루어지는 것으로 그 구성은 도 3에 나타난 바와 같다.The user PC, the character production system, etc. are made of a computer, the configuration of which is as shown in FIG.

도 3은 컴퓨터는 모든 연산과 그 처리를 담당하는 중앙처리장치(C2)와 데이타를 저장해 두는 기억장치(C1), 데이타의 입출력을 위한 입출력 장치(C3, C4)로 구성된다.3 is a computer comprising a central processing unit (C2) in charge of all operations and processing, a storage device (C1) storing data, and input / output devices (C3, C4) for inputting and outputting data.

본 발명은 이러한 제반 환경하에서 캐릭터 제작 시스템(32)의 실행 결과로 얻어지는 것으로 상술한 기존의 문제점들을 해결하며 고품질, 고사실성의 동적 캐릭터를 제작하게 된다.The present invention is obtained as a result of the execution of the character production system 32 under such an environment, and solves the above-mentioned problems and produces a high quality, highly realistic dynamic character.

캐릭터는 얼굴의 형태를 얼마나 사실적으로 표현할 수 있는가와 사용자의 의도대로 싶게 고칠 수 있는가, 또 부가적으로 다양한 얼굴 표정들을 얼마나 자연스럽게 나타낼 수 있는가에 따라 제공되는 서비스의 품질이 달라지게 된다. 또 이에따라 기존의 방법으로 제공할 수 없었던 다양한 서비스들도 가능하게 된다.The quality of the service provided varies depending on how realistically the character can express the shape of the face, how he or she can modify it according to the user's intention, and additionally, how naturally the various facial expressions can be expressed. In addition, various services that could not be provided by the existing method are possible.

본 발명은 사용자이 자신의 얼굴에서 얼굴의 눈, 코, 입, 얼굴형등의 외곽 곡선을 쉽게 제작할 수 있도록 하고, 이를 그대로 이용하여 얼굴 입체감과 디자인 요소들을 적용함으로서 사실적인 얼굴의 형태를 생성할 수 있도록 한다. 본 발명은 형태의 유사성을 통해 데이타베이스에서 선택하는 것이 아니라 외곽 곡선 정보를 그대로 사용하여 이 정보를 기반으로 얼굴 구성요소의 상호관계를 이용한다. 즉, 눈, 코, 입, 귀, 얼굴형등의 상호 위치, 모양, 크기등을 분석하여 얼굴의 입체감 및 디자인을 적용하여 캐릭터를 구성하고 표정변화에 따른 각 얼굴 구성 요소의 상호 움직임에 따라 변화요소들을 분석하여 재구성해 줌으로서 자연스런 표정을 생성하게 된다. 이러한 형태는 사용자의 선택에 따라 캐리커처형과 아바타형의 두가지 형태로 제공될 수 있다. 얼굴에서의 동작요소들은 위/아래 눈커플 동작, 눈동자의 움직임, 입술동작, 턱의 동작 뿐아니라 각 동작과 관련된 얼굴 입체감의 변화도 생성해 줌으로서 자연스런 동작이 일어나게 된다. 또 다양한 얼굴 입체감의 종류를 제공하여 선택하게 함으로서 같은 얼굴 구성 요소에서 다양한 분위기의 캐릭터들을 생성해 낼 수 있도록 한다.The present invention allows the user to easily create the outer curves of the face, eyes, nose, mouth, face shape, etc. in his face, and can use them as they are to create a realistic face shape by applying the facial three-dimensional and design elements Make sure The present invention utilizes the interrelationship of facial components based on this information using the outline curve information as it is, instead of selecting from the database through the similarity of shapes. In other words, it analyzes the position, shape, size, etc. of eyes, nose, mouth, ear, and face shape to apply the three-dimensional effect and design of the face to compose the character and change according to the mutual movement of each facial component according to the expression change. By analyzing and reconstructing the elements, a natural expression is created. Such a form may be provided in two forms, a caricature type and an avatar type, according to a user's selection. The motion elements in the face generate natural changes by creating changes in facial stereoscopic motion associated with each motion, as well as up / down eye couple movements, eye movements, lip movements, and jaw movements. In addition, various types of facial three-dimensional effects are provided for selection so that characters of various moods can be generated from the same facial component.

얼굴 성형에 있어서도 전혀 다른 얼굴로 변환되는 것이 아니라 현재의 얼굴에서 의도하는 부위의 성형이 단계적으로 나타나게 하여 사용자이 성형 형태를 결정할 수 있도록 한다. 이런 방식으로 눈쌍커풀, 눈 확대/축소, 코 높임, 턱선 성형등이 가능하게 된다.In the face shaping, the shaping of the intended part of the current face is shown step by step, instead of being converted into a completely different face, so that the user can determine the shaping shape. In this way, eyelids, eye zooming, nose raising, and jaw line shaping are possible.

본 발명의 기능들은 캐릭터 제작 시스템에서 이루어지며 그 내부 구성은 도 4에 나타난 바와 같이 영상 입력 및 보정 단계(P10), 부위별 위치 및 영역 선정 단계(P20), 외곽 곡선 결정 단계(P30), 얼굴 입체감 및 디자인 적용 단계(P40), 메이크업 단계(P50), 얼굴 성형 단계(P60), 동작 적용 단계(P70), 의상 적용 단계(P80), 화질 개선 및 이미지 크기 조절 단계(P90)로 구성된다.Functions of the present invention are made in the character production system and its internal configuration is shown in Figure 4, the image input and correction step (P10), the location and region selection step (P20) for each part, the outline curve determination step (P30), face It consists of a three-dimensional and design application step (P40), makeup step (P50), face shaping step (P60), motion application step (P70), costume application step (P80), image quality improvement and image size adjustment step (P90).

도 5는 캐릭터 생성 과정의 기본적 흐름도이다. 각 단계별로 상세한 기술적 사항을 살펴보면 다음과 같다.5 is a basic flowchart of a character generation process. The detailed technical details for each step are as follows.

도 6은 영상 입력에서 부위별 위치와 영역 선정까지를 나타내는 흐름도이다.6 is a flowchart illustrating a position and region selection for each part in image input.

캐릭터 제작 시스템의 얼굴 영상 입력 및 보정 단계(P10)은 사용자가 사용자PC(10)를 이용하여 자신의 정면 얼굴 영상을 스캐너나 디지탈 카메라등의 영상 획득 장비(11)를 이용하여 디지탈 영상 이미지(도 14)를 생성한 후 통신망(20)을 통해 이미지 화일과 전송하고 헤어와 귀, 눈동자의 디자인 종류와 캐리커처형과 아바타형을 선택하여 캐릭터 서버로 전송한다.(P101) 이때 이미지의 포맷은 통상적으로 사용되어 지는 이미지 포맷으로 한다.(*.bmp, *.dib, *.gif, *.jpg ...) 캐릭터 서버는 전송된 얼굴 이미지를 상용자PC로 전송하고 사용자가 두눈의 중심 위치를 입력(P102)하면 두 중심점간의 거리,기울기를 이용하여 얼굴 이미지를 크기, 수평, 수직을 정렬하여 얼굴 이미지의 좌우 기울임과 얼굴 이미지의 크기를 보정한다.(P103)The face image input and correction step (P10) of the character production system is performed by the user using his / her PC 10 to display his / her front face image using an image acquisition device 11 such as a scanner or a digital camera. After generating 14), the image file is transmitted through the communication network 20 and transmitted to the character server by selecting the design type, the caricature type, and the avatar type of the hair, ears, and eyes (P101). (* .Bmp, * .dib, * .gif, * .jpg ...) The character server sends the transferred face image to the commercial PC and the user enters the center of the eyes. (P102) the face image is aligned in size, horizontally and vertically using the distance and tilt between two center points to correct the tilt of the face image and the size of the face image (P103).

얼굴 부위별 위치 및 영역 선정 단계에서는 도 4의 1단계에서 보정된 이미지상에서 두눈의 간격을 기준으로 머리 중앙 끝점, 코끝점, 입중앙점, 턱끝점 및 양귀의 상하점에 대한 기준점을 사용자에게 제공(P104)하고 사용자가 수정(P105)할 수 있도록 수정기능을 제공하고 최종 기준점들을 확정할 수 있도록 한다. 선정된 기준점들을 중심으로 부위별 영역을 사용자에게 제공하고 사용자가 수정(P106)할 수 있도록 하고 최종 기준점들과 최종 부위별 영역들을 저장(P107)할 수 있도록 한다.In the step of selecting the location and area of each face, the user provides the user with reference points for the head end point, nose end point, mouth center point, chin point point, and upper and lower points of both ears on the basis of the distance between the eyes on the image corrected in step 1 of FIG. 4. (P104) and provide a correction function for the user to correct (P105) and to determine the final reference points. The area for each part is provided to the user based on the selected reference points, the user can correct (P106), and the final reference points and the area for the last part can be stored (P107).

도 7은 외곽 곡선 결정 단계를 나타내는 흐름도이다. 외곽 곡선 단계에서는 각 부위에 대한 기본 외곽 곡선들을 이미 결정되어 있는 데이타들을 기준점의 위치와 눈중심점 간격을 고려한 비례적인 크기로 변형자를 통해 변형하여 제공(P301)된다. 사용자는 각 부위의 외곽 곡선을 이루는 조절점들을 수정(P302)하여 얼굴 이미지의 부위별 외곽 형태와 일치시킴으로서 정확한 외곽 곡선의 형태의 정보를 결정할 수 있다. 도 4의 1,2단계에서 확정된 기준점 및 영역을 이용하게 된다. 얼굴형을 결정하는 외곽선은 기준점중 머리 중앙 끝점과 양귀의 상하 기준점과 턱끝점을 잇는 외곽 곡선을 이용하여 이루어진다. 눈썹 곡선은 눈썹 모양에 중앙선으로 하고 눈의 모양은 위와 아래의 눈꺼풀을 이루는 곡선으로 하며, 코의 외곽 곡선은 코 끝점과 코구멍의 외곽 곡선을 이루는 곡선과 좌우 콧날개의 외곽 곡선으로 한다. 입의 외곽 곡선은 윗 입술의 외곽 곡선과 아랫 입술의 외곽 곡선, 그리고 입의 중앙선 곡선으로 한다. 상기의 외곽 곡선은 각 부위의 형태를 이룰 수 있도록 곡선 조절점의 수를 최소한으로 한다. 수정과정이 최종 확정하여 사용자가 이미 선택한 디자인 정보와 함께 화일로 저장(P303)할 수 있도록 한다.7 is a flowchart showing an outline curve determination step. In the outer curve step, basic contour curves for each part are provided by transforming the data, which are already determined, with a proportional size considering the position of the reference point and the center of the eye center point (P301). The user may determine correct information of the shape of the outline curve by correcting control points constituting the outline curve of each region (P302) to match the outline shape of each region of the face image. The reference point and the area determined in steps 1 and 2 of FIG. 4 are used. The outline for determining the face shape is made by using the outline curve connecting the center end point of the head with the top and bottom reference points of the both ears and the end point of the jaw. The eyebrow curve is the centerline of the eyebrow shape, the eye shape is the curve forming the upper and lower eyelids, and the outer curve of the nose is the curve forming the outer curve of the nose end point and the nose hole and the outer curve of the left and right nose wings. The outer curve of the mouth is the outer curve of the upper lip, the outer curve of the lower lip, and the centerline curve of the mouth. The outer curve minimizes the number of curve control points to achieve the shape of each part. The modification process is finalized so that the user can save the file with the design information already selected (P303).

도 8은 얼굴 입체감 및 디자인 적용 단계를 나타내는 흐름도이다. 얼굴 입체감 및 디자인 적용 단계는 도 4의 3단계에서 저장된 얼굴 부위별 외곽 곡선을 기준으로 얼굴 부위의 상호 관계를 이용하여 얼굴의 입체감을 생성한다. 이는 예를 들어 빛의 위치를 가상적으로 설정하여 코와 눈썹, 눈꺼풀의 위/아래 곡선 정보들을 참조하여 밝은 부분과 어두운 부분들의 영역을 생성하고 이를 얼굴의밝은 색과 어두운 색으로 채색함으로서 얼굴면의 굴곡에 따른 인위적으로 입체감을 생성해 주는생성해주는 방식(P402)이다. 또 사용자가 선택한 디자인 데이타베이스에서 제공되는 헤어, 귀, 눈썹, 속눈썹, 눈동자등의 디자인 데이타들은 얼굴 부위별 외곽 곡선 및 기준 위치에 맞게 위치, 방향, 크기를 변환자를 통해 변환(P404)하여 자연스럽게 디자인 형태가 적용(P405)될 수 있도록 한다. 또 얼굴과 관련된 악세서리인 안경, 귀고리, 모자등이 선택되었을 경우에도 동일한 방법으로 적용한다. 본 단계에서의 입체감 및 디자인 적용이 확정되면 입체감 적용 정보와 적용 디자인 정보들을 저장(P406)한다.(도 14)8 is a flowchart illustrating a facial three-dimensional effect and design application step. The facial three-dimensional effect and design application step generate a three-dimensional effect of the face by using the interrelationship of the face parts based on the outer curves of the facial parts stored in step 3 of FIG. 4. This is done by virtually setting the position of the light, for example, by referring to the up and down curves of the nose, eyebrows, and eyelids to create areas of light and dark areas and coloring them with the light and dark colors of the face. It is a method of generating artificially creating a three-dimensional effect by bending (P402). In addition, design data such as hair, ears, eyebrows, eyelashes, and pupils provided in the design database selected by the user are naturally converted by converting the position, direction, and size through the transducer (P404) according to the outline curve and reference position for each face part. Allow the shape to be applied (P405). The same applies when face accessories, such as glasses, earrings, and hats, are selected. If the three-dimensional and design application is confirmed in this step, the three-dimensional application information and the application design information is stored (P406) (Fig. 14).

도 11은 메이크업 단계를 나타내는 흐름도이다. 얼굴 화장 단계에서는 사용자의 의도에 따라 화장을 하고자 할 경우 적용되는 단계로 얼굴 부위별 화장영역을 부위별 상호 관계에 의해 생성(P603)하고 사용자가 원하는 색상을 선택(P604)하여 화장할 수 있도록 한다. 화장의 종류는 아이쉐도우, 화운데이션, 립스틱 및 얼굴 바탕등의 색상을 선택(P601)할 수 있으며 선택된 색상을 입체감 적용과 같은 방법으로 부위별 상호 관계에 의해 화장 영역(P605)에 적용한다. 속눈썹의 경우는 속눈썹의 종류에 따라 이미 저장되어 있는 구성데이타들을 선택하여 위눈꺼풀의 외곽곡선의 형태에 따라 적용하도록 한다. 본 단계에서의 선택된 정보들을 화일에 변경 또는 추가하여 저장(P606)한다.11 is a flowchart showing a makeup step. The face makeup step is a step to be applied to make up according to the user's intention, so that the makeup area for each facial part can be generated by the interrelationship between parts (P603), and the user can make up by selecting a desired color (P604). . The type of makeup may be selected such as eye shadow, foundation, lipstick, and a face background (P601), and the selected color is applied to the makeup area (P605) by the interrelationship for each region in the same manner as the three-dimensional application. In the case of eyelashes, it selects the configuration data already stored according to the type of eyelashes and applies them according to the shape of the upper curve of the upper eyelid. The selected information in this step is changed or added to a file and stored (P606).

도 9은 성형 단계를 나타내는 흐름도이다. 얼굴 성형 단계는 도 4의 3,4,5 단계를 통해 생성된 합성 얼굴 데이타에서 사용자가 고치고자 하는 부위를 선택(P501)하여 성형할 수 있는 단계로 각 부위별 성형 기준 데이타를 두어 단계적으로 성형(P503)할 수 있도록 하고 사용자가 확정 성형 형태를 결정하도록 한다.이때 이미 적용되고 있는 얼굴 입체감 및 디자인은 성형 확정된 부위별 외곽곡선의 형태에 따라 자동적으로 재구성(P504)한다. 본 단계에서 변경된 정보들을 화일로 저장(P505)한다.9 is a flowchart showing a molding step. The face shaping step is a step in which the user selects a part to be repaired (P501) from the synthetic face data generated through steps 3, 4, and 5 of FIG. (P503) and the user decides the final shaping shape. At this time, the three-dimensional appearance and the design already applied are automatically reconfigured (P504) according to the shape of the contour curve for each part where the shaping is confirmed. Information changed in this step is stored in a file (P505).

도 10은 동작 표현 적용 단계를 나타내는 흐름도이다. 동작 표현 적용 단계는 도 4의 4, 5, 6단계중 하나에서 확정된 얼굴 합성 데이타를 이용하여 얼굴 부위별 동작을 적용하는 단계로 각 부위별 동작의 특성에 맞게 외곽 곡선을 변형해 가면서 동작할 수 있도록 한다. 얼굴 부위들의 동작의 종류를 살펴보면 눈썹동작, 눈동작, 코동작, 입술동작, 턱동작등을 들수 있다. 다시 눈썹동작은 눈썹의 상하이동동작, 눈썹 기울임동작, 눈썹의 좌우동작등이 있고 눈동작은 눈꺼풀동작인 눈꺼풀 깜박임, 놀란눈처럼 눈커짐, 웃을 경우의 아랫눈꺼풀의 움직임, 울 경우 눈꺼풀 동작등과 눈동자 동작으로 눈동자 상하좌우 움직임등이 있다.(도 15) 입술동작은 각가지 모양의 입벌임 동작이 해당된다. 턱동작은 입벌림동작과 상호관련되어 입벌림에 따른 상대적인 움직임을 이루게 된다. 각각의 동작들은 그 동작 상태에 따라 관련 동작들이 연관되게 되며 입벌림동작의 경우는 입내부의 치아와 혀등의 구성요소들이 나타나게 되는데 이는 이미 저장되어 있는 입내부 모양으로 그 크기와 위치가 변형되어 적용되게 된다.(도 16)10 is a flowchart showing a motion expression applying step. The motion expression applying step is a step of applying the motion for each facial region using the face synthesis data determined in one of steps 4, 5, and 6 of FIG. 4 while deforming the outer curve according to the characteristics of each motion. To be able. Looking at the types of movements of the face parts, eyebrow movement, eye movement, nose movement, lip movement, chin movement, etc. can be mentioned. The eyebrow movements include the movement of the eyebrows, the movement of the eyebrows, the movement of the eyebrows, the movement of the eyebrows, and the movement of the eyebrows.The eyelids blink, the eyelids blink like a surprised eye, the eyelids move when laughing, and the eyelids when crying Eye movements include the movement of the pupils up, down, left, and right. (FIG. 15) The lip movement corresponds to various types of mouth opening operation. The jaw motion correlates with the open mouth motion to achieve relative movement according to the open mouth. Each movement involves related movements according to its operation state. In the case of mouth opening, components such as teeth and tongue inside the mouth appear. This is a shape of a mouth which is already stored and its size and position are modified and applied. (Fig. 16)

각 동작들은 사용자의 동작스케줄의 설정에 의해 시간대별로 단계적으로 생성되게 도니다. 예를 들어 눈의 깜박임은 눈 위껍풀을 이루는 외곽 곡선이 단계적으로 눈이 감기는 형태로 외곽 곡선을 변형해 가면서 구성하고 속눈썹, 눈동자 디자인등 눈과 관련된 부위들을 이에 맞게 적용해 가면서 동작을 생성해 낸다. 또 입술의 움직임, 눈썹 및 턱의 움직임등도 동일한 방법으로 동작을 생성해 낸다. 사용자는 위에서의 적용하고자 하는 동작을 선택할 수 있고 각 부위별 움직임은 사용자는 동작 시간 구간을 스케줄링(P701)할 수 있으며 이를 수정할 수 있다. 동작 스케줄이 확정되면 각 시간별 동작과 상호 관련이 있는 부위들의 입체감 및 디자인을 변화시켜 동작 이미지들을 생성(P703, P704)하고 최종 선택을 결정하여 이를 저장(P705)하여 연속동작으로 재생할 수 있도록 한다. 단위 연속동작을 반복해서 재생할 수 있도록 한다. 본 단계에서 연속동작을 위해 생성된 정보들을 화일로 저장(P706)한다.Each action can be created step by step by the user's action schedule. For example, the blinking of the eye is composed by transforming the outer curve of the outer curve forming the upper eyelids step by step, and creating motions by applying the eye-related parts such as eyelashes and pupil design accordingly. Serve The movements of the lips, eyebrows, and jaws are also generated in the same way. The user may select an operation to apply above, and the movement for each part may be scheduled by the user (P701) and may modify the operation time interval. When the operation schedule is determined, the three-dimensional effect and the design of the parts that correlate with the operation of each time are changed to generate motion images (P703 and P704), and the final selection is determined and stored (P705) to be reproduced in continuous operation. The unit continuous operation can be repeatedly played. In this step, the information generated for the continuous operation is stored in a file (P706).

도 13은 화질 개선 및 이미지 크기 조정 단계를 나타내는 흐름도이다. 화질 개선 및 이미지 크기 조정 단계에서는 도 4의 각 단계에서 생성되는 영상 이미지는 얼굴 부위별 외곽 곡선을 활용하기 때문에 얼라이징(Aliasing) 현상의 발생으로 영상의 품질이 저하된다. 특히 영상의 크기가 작은 경우 이러한 영상의 품질저하가 두드러지기 때문에 이를 보상할 필요가 있다. 이를 보상하기 위해 본 발명에서는 각 단계에서 생성되는 이미지들을 블러링(Burring)처리(P903)하고 이를 작은 이미지로 생성함으로서 얼라이징 현상 및 크기축소(P904)에 의한 품질저하를 보상해 준다.13 is a flowchart illustrating steps of improving image quality and adjusting image size. In the image quality improvement and the image size adjustment step, since the image image generated in each step of FIG. 4 utilizes an outline curve for each face part, an image quality is degraded due to an aliasing phenomenon. In particular, when the size of the image is small, it is necessary to compensate for the deterioration of the image. In order to compensate for this, in the present invention, the blurring process (P903) of the images generated at each step is generated as a small image, thereby compensating for the quality deterioration due to the freezing phenomenon and the size reduction (P904).

최종적으로 위의 얼굴 부위별 디자인에 적용되는 디자인 데이타들은 디자인 데이타베이스(D3)에 저장되며 위의 각 단계에서 생성에 이용되는 화일들은 사용자 캐릭터 데이타베이스(D2)에 저장(P905)된다.Finally, the design data applied to the design for each face part is stored in the design database D3, and the files used for generation in the above steps are stored in the user character database D2 (P905).

이상에서 설명한 본 발명은, 본 발명이 속하는 기술분야에서 통상의 지식을가진 자에 있어 본 발명의 기술적 사상을 벗어나지 않는 범위내에서 여러 가지 치환, 변형 및 변경이 가능하므로 전술한 실시예 및 첨부된 도면에 한정되는 것이 아니다.The present invention described above is capable of various substitutions, modifications, and changes without departing from the spirit of the present invention for those skilled in the art to which the present invention pertains. It is not limited to the drawings.

본 발명에 의해 실제 사용자의 얼굴과 유사한 얼굴 영상을 합성해 낼 수 있을 뿐아니라 성형 및 변형이 자유로우며 얼굴 표정의 변화에 따른 합성 이미지가 자동으로 생성되게 되어, 보다 고품질, 고사실성, 동작 적용에 따른 생명력 부여등의 결과물을 생성하게 되며 온라인 및 오프라인 서비스에 폭넓게 활용할 수 있으며 캐릭터 사업과 연계된 다방면의 비즈니스에 활용이 가능할 것이다.The present invention not only synthesizes a face image similar to a real user's face, but also freely molds and deforms, and automatically generates a synthesized image according to a change in facial expression, thereby providing a higher quality, higher reality, and motion application. It will produce the result of giving vitality, and can be widely used for online and offline services, and it can be used for various businesses related to character business.

또한 사용자의 특성을 무시한 천편일률적인 캐릭터 제공과는 차별화되며 얼굴 합성을 위한 방대한 량의 데이타베이스가 불필요하게 된다.In addition, it is different from the one-off uniform character that ignores the user's characteristics, and a large amount of database for face composition is unnecessary.

본 발명의 강점인 얼굴 동작의 자동 생성기능은 기존의 방식으로는 생성하기 어려운 본 발명만의 특징이기도 하다. 다양한 감정표현들의 추가가 가능하므로 더욱 실제 동작과 유사한 동작들이 제공되게 된다.The automatic generation of facial motion, which is the strength of the present invention, is also a feature of the present invention that is difficult to generate by the conventional method. Various emotion expressions can be added, so that motions similar to actual motions are provided.

또한 본 발명의 외곽 곡선에 기본 depth정보를 주어 3차원 캐릭터 생성에도 이용할 수 있다.In addition, by giving basic depth information to the outer curve of the present invention can be used to generate a three-dimensional character.

본 발명을 이용한 분야로는 캐리커처 및 아바타 생성, 명함 제작, 각종 광고물 제작, 인터넷 게임, 컴퓨터 바탕화면 서비스, 전자 메일분야 활용, 모바일 서비스, 팬시 산업등 다양하고 폭넓은 분야에서 유용하게 활용될 수 있다.The field using the present invention can be usefully used in various and wide fields such as caricature and avatar generation, business card production, various advertisement production, internet games, computer wallpaper service, e-mail application, mobile service, fancy industry, etc. have.

Claims (12)

상기 캐릭터 제작 시스템에서 얼굴 영상을 전송받아 이를 기준점을 이용하여 보정하는 영상 입력 및 보정 단계와,An image input and correction step of receiving a face image from the character production system and correcting it using a reference point; 결정된 기준점에 따라 얼굴 부위별 위치 및 영역 선정 단계와,A location and region selection step for each facial region according to the determined reference point, 각 얼굴 부위별 기본 외곽 곡선을 제시하고 이를 수정하는 외곽 곡선 결정 단계와,The outline curve determination step of presenting and modifying the basic outline curve for each face part, 결정된 외곽 곡선 정보와 얼굴 부위간 상호관계를 이용하여 얼굴의 입체감처리와 디자인 적용 부위의 디자인 데이타를 수정하여 적용시키는 입체감 및 디자인 적용 단계와,A three-dimensional effect and design application step of modifying and applying the three-dimensional treatment of the face and the design data of the design application area by using the determined boundary curve information and the interrelationship between the face parts; 외곽 곡선으로 부터 사용자의 의도에 따라 점차적으로 외곽 곡선을 변형하여 성형하여 이를 새로운 외곽 곡선으로 생성하는 성형 단계와Forming step of transforming and shaping the outer curve gradually according to the user's intention from the outer curve to create a new outer curve and 화장 부위를 부위별 상호 관계에 의해 결정하고 색조를 적용하는 메이크업 단계와,A make-up step of determining a makeup part by mutual relationship between parts and applying a tone, 감정 표현을 위해 얼굴 부위별로 동작하는 부분을 시간대별로 스케쥴링하여 이를 시간대별로 단계적으로 동작 이미지를 생성하는 얼굴 동작 표현 단계와,A facial motion expression step of generating a motion image by time-scheduling a part that operates for each facial part for expression of emotion by time zone; 생성된 얼굴 캐릭터 얼굴에 의상을 적용하는 의상 적용 단계와The step of applying the costume to the created face character face 위의 각 단계에서 생성되는 캐릭터 이미지들의 화질을 고품질화하는 화질개선 및 이미지 크기 조절 단계로 이루어지는 캐릭터 제작 시스템의 제작 방법과 그 장치.A method and apparatus for manufacturing a character production system comprising a quality improvement and an image size adjustment step of improving the image quality of the character images generated in each of the above steps. 제1항에 있어서, 캐릭터 제작 시스템을 이용하여 통신망을 통한 다자의 사용자에게 서비스를 제공하는 방법과 그 장치.The method and apparatus for providing a service to a multiparty user through a communication network using a character production system. 제1항에 있어서, 캐릭터 제작 시스템을 이용한 단독 시스템으로 상용자들에게 서비스를 제공하는 방법과 그 장치.The method and apparatus of claim 1, wherein the service is provided to commercial users as a standalone system using a character production system. 제1항에 있어서, 상기 영상 입력 및 보정단계와 부위별 위치 및 영역 선정 단계에서The method of claim 1, wherein in the image input and correction step and the location and area selection step for each part, 사용자로부터 양눈의 중심점을 입력받는 방법과,Receiving a center point of both eyes from the user, 입력된 양눈을 기준으로 양눈의 간격과 기울임에 따라 영상의 크기/수평/수직을 보정하는 방법과,A method of correcting image size / horizontal / vertical according to the distance and tilt of both eyes based on the input eyes; 양눈의 간격에 따라 비례적으로 코끝점, 입술중앙점, 턱끝점, 머리 중앙끝점, 양귀의 상하점을 기본 제공하고 이를 수정할 수 있는 방법과,Based on the distance between the eyes, the nose point, the lip center point, the chin point, the center point of the head, the upper and lower points of both ears are provided and the method can be corrected. 확정된 기준점들을 기준으로 각 부위의 영역을 제공하고 이를 수정하는 방법.A method of providing and modifying the area of each site based on established reference points. 제1항에 있어서, 상기 외곽 곡선 결정 단계에서The method of claim 1, wherein 상기 기준점 및 기준 영역을 이용하여 기본 외곽 곡선 정보를 변형자를 통해 변형하여 제공하는 방법과,A method of modifying and providing basic outline curve information through a modifier using the reference point and the reference region; 상기 이를 각 부위별로 외곽 곡선 구성 요소들을 수정하여 얼굴 이미지의 각 부위와 일치시키는 방법과,Modifying the outer curved components for each part to match each part of the face image; 상기 수정된 결과를 저장하는 방법.Storing the modified result. 제1항에 있어서, 상기 입체감 및 디자인 적용단계에서According to claim 1, In the three-dimensional and design application step 상기 빛의 위치를 가상적으로 설정하여 코와 눈썹, 눈꺼풀의 위/아래 곡선 정보들을 참조하여 밝은 부분과 어두운 부분들의 영역을 생성하고 이를 얼굴의밝은 색과 어두운 색으로 채색함으로서 얼굴면의 굴곡에 따른 인위적으로 입체감을 생성해 주는 방법과,By virtually setting the position of the light, the area of the light and dark areas is created by referring to the up / down curve information of the nose, eyebrows, and eyelids, and the light and dark areas of the face are colored according to the curvature of the face. How to artificially create a three-dimensional effect, 상기 사용자가 선택한 디자인 데이타베이스에서 제공되는 헤어, 귀, 눈썹, 속눈썹, 눈동자등의 디자인 데이타들은 얼굴 부위별 외곽 곡선 및 기준 위치에 맞게 위치, 방향, 크기를 변환자를 통해 변환하여 자연스럽게 디자인 형태를 적용하는 방법과,Design data such as hair, ears, eyebrows, eyelashes, and pupils provided in the design database selected by the user are converted to position, direction, and size according to the outer curve and reference position of each face part through a transducer to naturally apply a design form. How to, 상기 얼굴과 관련된 악세서리인 안경, 귀고리, 모자등이 선택되었을 경우에도 동일한 방법으로 적용하는 방법과,The same method is applied to eyeglasses, earrings, hats and the like, which are accessories related to the face. 이 결과를 저장하는 방법.How to save this result. 제1항에 있어서, 상기 성형 단계에서The method of claim 1, wherein in the forming step 상기 사용자가 고치고자 하는 부위를 선택하여 각 부위별 성형 기준 데이타와의 비례적인 차이를 두어 단계적으로 성형하는 방법과,A method of selecting the parts to be repaired by the user and forming them step by step with a proportional difference from the molding reference data for each part; 성형이외의 부위의 입체감 및 디자인은 성형 확정된 부위별 외곽곡선의 형태에 따라 자동적으로 재구성하는 방법과,The three-dimensional effect and design of the parts other than the molding are automatically reconstructed according to the shape of the contour curve for each part determined by molding. 그 결과를 저장하는 방법.How to save the result. 제1항에 있어서, 상기 메이크업 단계에서The method of claim 1, wherein in the makeup step 상기 메이크업 영역을 부위별 상호 관계에 의해 생성하고 사용자가 원하는 색상을 선택하여 메이크업하는 방법과,A method of generating the makeup area by mutual relations for each part and selecting a desired color for makeup; 상기 메이크업 부위에 따라 변경되는 다른 부위의 변경 방법과,A method of changing other parts to be changed according to the makeup part, 그 결과를 저장하는 방법.How to save the result. 제1항에 있어서, 상기 동작 표현 단계에서The method of claim 1, wherein 상기 각 부위별 동작의 특성에 맞게 외곽 곡선을 변형하는 방법과,A method of modifying an outer curve according to the characteristics of each part of the motion; 상기 각 동작들이 사용자의 동작스케줄의 설정에 의해 시간대별로 단계적으로 생성하게 하는 방법과,A method of generating each of the operations step by step by setting a user's operation schedule; 상기 사용자가 적용하고자 하는 동작을 선택하고 각 부위별 움직임을 사용자가 동작 시간 구간을 스케줄링하고 이를 수정하는 방법과,Selecting an operation to be applied by the user and scheduling and modifying an operation time interval by the user for movement of each part; 상기 각 시간별 동작과 상호 관련이 있는 부위들의 입체감 및 디자인을 변화시켜 동작 이미지들을 생성하고 최종 선택을 결정하여 이를 저장하여 연속동작으로 재생하게 하는 방법과,A method of generating motion images, determining a final selection, and storing the same by reproducing the continuous motion by changing the three-dimensionality and the design of the parts correlated with the motions of each time; 그 결과를 저장하는 방법.How to save the result. 제1항이 있어서, 상기 의상적용 단계에서According to claim 1, wherein in the step of applying the costume 의상 디자인을 선정하고 변환자를 통해 변환하여 캐릭터의 적정위치에 구성하고 그 결과를 저장하는 방법.How to choose a costume design, convert it through a translator, configure it in the character's proper position, and save the result. 제6항, 제7항, 제8항, 제9항 및 제10항의 결과 저장방법에 있어서, 상기 화질개선 및 이미지 크기조절 단계의 화질 개선을 위해 각 단계에서 생성되는 이미지들을 블러링(Blurring)처리하는 방법과,11. The method of claim 6, 7, 8, 9 and 10, the method of storing the results of the image blurring (Blurring) generated in each step to improve the image quality and the image quality of the image adjustment step (Blurring) How to handle, 그 결과 이미지의 크기를 조정한 이미지를 저장하는 방법.The result is a method that saves the resized image. 제1항에 있어서, 상기 사용자 캐릭터 데이타베이스에서 상기 사용자의 얼굴 부위별 외곽 곡선 구성 정보와 캐릭터 이미지와 동적 캐릭터 화일을 저장하는 방법과,The method of claim 1, further comprising: storing contour curve information, character images, and dynamic character files for each of the face parts of the user in the user character database; 또 상기 디자인 데이타베이스에 상기 캐릭터의 모든 얼굴 부위의 디자인을 데이타베이스화하지 않고 얼굴 생성에 사용되는 디자인으로 헤어, 눈동자, 귀 및 얼굴 관련 악세서리만을 데이타베이스화하는 방법과,In addition, the design database is used to create a face without designing the design of all the face parts of the character in the database, the method of database only the hair, eyes, ears and accessories related to the face, 상기 의상 적용에 사용되는 의상 디자인 데이타 만을 데이타베이스화하는 방법.A method of database only clothing design data used for the application of the clothes.
KR1020020029229A 2002-05-27 2002-05-27 The dynamic character and image character making system and the method using face components relationship on face image. KR20030091306A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020020029229A KR20030091306A (en) 2002-05-27 2002-05-27 The dynamic character and image character making system and the method using face components relationship on face image.

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020020029229A KR20030091306A (en) 2002-05-27 2002-05-27 The dynamic character and image character making system and the method using face components relationship on face image.

Publications (1)

Publication Number Publication Date
KR20030091306A true KR20030091306A (en) 2003-12-03

Family

ID=32384451

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020020029229A KR20030091306A (en) 2002-05-27 2002-05-27 The dynamic character and image character making system and the method using face components relationship on face image.

Country Status (1)

Country Link
KR (1) KR20030091306A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20180089022A (en) * 2017-01-31 2018-08-08 한국항공우주연구원 Optimized Compositing Technology Using the Plurality of Similar Images
WO2020085718A1 (en) * 2018-10-24 2020-04-30 삼성전자 주식회사 Method and device for generating avatar on basis of corrected image
CN112866577A (en) * 2021-01-20 2021-05-28 腾讯科技(深圳)有限公司 Image processing method and device, computer readable medium and electronic equipment

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20000037591A (en) * 1998-12-01 2000-07-05 정선종 Method for 3 dimensional facial expression animation using digital video image
KR20000058717A (en) * 2000-06-26 2000-10-05 강길태 Cyber face lifting
US6249292B1 (en) * 1998-05-04 2001-06-19 Compaq Computer Corporation Technique for controlling a presentation of a computer generated object having a plurality of movable components
JP2001229400A (en) * 2000-02-15 2001-08-24 Sharp Corp Image processor, image processing method and recording medium with image processing program recorded therein
KR20010114196A (en) * 2001-11-30 2001-12-29 오광호 Avatar fabrication system and method by online
KR20020015642A (en) * 2000-08-22 2002-02-28 이성환 Apparatus and method for generating a synthetic facial image based on shape information of a facial image

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6249292B1 (en) * 1998-05-04 2001-06-19 Compaq Computer Corporation Technique for controlling a presentation of a computer generated object having a plurality of movable components
KR20000037591A (en) * 1998-12-01 2000-07-05 정선종 Method for 3 dimensional facial expression animation using digital video image
JP2001229400A (en) * 2000-02-15 2001-08-24 Sharp Corp Image processor, image processing method and recording medium with image processing program recorded therein
KR20000058717A (en) * 2000-06-26 2000-10-05 강길태 Cyber face lifting
KR20020015642A (en) * 2000-08-22 2002-02-28 이성환 Apparatus and method for generating a synthetic facial image based on shape information of a facial image
KR20010114196A (en) * 2001-11-30 2001-12-29 오광호 Avatar fabrication system and method by online

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20180089022A (en) * 2017-01-31 2018-08-08 한국항공우주연구원 Optimized Compositing Technology Using the Plurality of Similar Images
WO2020085718A1 (en) * 2018-10-24 2020-04-30 삼성전자 주식회사 Method and device for generating avatar on basis of corrected image
US11587205B2 (en) 2018-10-24 2023-02-21 Samsung Electronics Co., Ltd. Method and device for generating avatar on basis of corrected image
CN112866577A (en) * 2021-01-20 2021-05-28 腾讯科技(深圳)有限公司 Image processing method and device, computer readable medium and electronic equipment

Similar Documents

Publication Publication Date Title
US9959453B2 (en) Methods and systems for three-dimensional rendering of a virtual augmented replica of a product image merged with a model image of a human-body feature
KR102658960B1 (en) System and method for face reenactment
US20160134840A1 (en) Avatar-Mediated Telepresence Systems with Enhanced Filtering
CN101055647B (en) Method and device for processing image
CA2239402C (en) Method for generating photo-realistic animated characters
CN108292423B (en) Partial makeup making, partial makeup utilizing device, method, and recording medium
KR20210002888A (en) Method, apparatus, and system generating 3d avartar from 2d image
US20210241510A1 (en) Generating textured polygon strip hair from strand-based hair for a virtual character
CN107274466A (en) The methods, devices and systems that a kind of real-time double is caught
US20090132371A1 (en) Systems and methods for interactive advertising using personalized head models
JP2010507854A (en) Method and apparatus for virtual simulation of video image sequence
CN111724457A (en) Realistic virtual human multi-modal interaction implementation method based on UE4
US20100182325A1 (en) Apparatus and method for efficient animation of believable speaking 3d characters in real time
JP2001522108A (en) Method and apparatus for displaying at least a part of a human body whose appearance has been changed
EP1602073A1 (en) System and method for animating a digital facial model
WO2017175423A1 (en) Modeling control system, modeling control method, and modeling control program
CN102054287A (en) Facial animation video generating method and device
WO2022257766A1 (en) Image processing method and apparatus, device, and medium
Maraffi Maya character creation: modeling and animation controls
Li et al. A survey of computer facial animation techniques
CN114549709A (en) User-defined 3D virtual image generation system and method
KR20030091306A (en) The dynamic character and image character making system and the method using face components relationship on face image.
CN112489184A (en) Jewelry customization system
KR102049359B1 (en) Method and system for providing intelligent 3D character model based on cloud search engine
KR20210081526A (en) Virtual beauty cosmetic apparatus

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E601 Decision to refuse application