KR20030042403A - Facial character manufacturing method by fitting facial edgeline - Google Patents

Facial character manufacturing method by fitting facial edgeline Download PDF

Info

Publication number
KR20030042403A
KR20030042403A KR1020010073155A KR20010073155A KR20030042403A KR 20030042403 A KR20030042403 A KR 20030042403A KR 1020010073155 A KR1020010073155 A KR 1020010073155A KR 20010073155 A KR20010073155 A KR 20010073155A KR 20030042403 A KR20030042403 A KR 20030042403A
Authority
KR
South Korea
Prior art keywords
face
character
image
facial
generated
Prior art date
Application number
KR1020010073155A
Other languages
Korean (ko)
Inventor
조창석
이현주
정연준
김용진
Original Assignee
조윤석
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 조윤석 filed Critical 조윤석
Priority to KR1020010073155A priority Critical patent/KR20030042403A/en
Publication of KR20030042403A publication Critical patent/KR20030042403A/en

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/04Texture mapping
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computer Graphics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Geometry (AREA)
  • Software Systems (AREA)
  • Processing Or Creating Images (AREA)

Abstract

PURPOSE: A method for generating a face character by contour matching is provided to easily form a face character by selecting a face photograph image and matching a contour based on the face photograph image. CONSTITUTION: A user inputs a face photograph image(S1). Positions of eyes of the face photograph image are grasped and the face photograph image is normalized based on the positions(S2). A spline curve is approximated to a face contour on the normalized face photograph image and colors of face components are decided(S3). A texture of the face photograph image and a character image are convoluted(S4). The spline curve is expressed in the contour based on characteristic points and the colors, and character face components are generated through anti-aliasing(S5). A face character image is generated and displayed(S6). A complete character image is generated by combining the face character with a hair, clothes, and accessories selected from a sample database of a server(S7). The generated character is stored or transmitted to the server(S8).

Description

윤곽선 정합에 의한 이용한 얼굴 캐릭터 생성 방법{Facial character manufacturing method by fitting facial edgeline}Facial character generation method using contour matching {Facial character manufacturing method by fitting facial edgeline}

본 발명은 얼굴 캐릭터 제작과정을 간편화하는데 초점을 맞춘 것으로, 얼굴 사진상의 구성요소 윤곽선에 맞도록 통제점을 이동하여 스플라인곡선을 근사시키고, 얼굴 사진상의 텍스쳐와 캐릭터 얼굴의 피부색과의 컨볼루션(convolution)을 통하여 닮은 얼굴 캐릭터를 생성하는 방법에 관한 것이다. 본 발명은 스플라인 특징점의 변화만으로 다양한 형태의 캐릭터를 생성할 수 있고, 컨볼루션 마스크를 조절하는 것에 의해 사진상의 피부의 질감을 반영할 수 있는 장점을 가지고 있다. 또한 캐릭터의 표현 과정에서 생겨나는 에일리어싱(aliasing) 영향을 줄이기 위해 안티 에일리어싱(anti-aliasing) 처리를 하였다.The present invention focuses on simplifying the process of making a face character, by moving a control point to match the contour of a component on a face picture, approximating a spline curve, and convolution of the texture on the face picture with the skin color of the character face. To create a face character that looks like The present invention has the advantage that it is possible to generate a character of various forms only by changing the spline feature point, and to reflect the texture of the skin on the photo by adjusting the convolution mask. In addition, anti-aliasing was performed to reduce the effect of aliasing that occurs during the expression of characters.

본 발명은 캐릭터의 표정변화 연출이나 캐릭터 애니메이션에 이용할 수 있으며, 특히 얼굴 인식에 의한 무선 아바타 애니메이션 시스템의 일부로써 활용될 수있다.The present invention can be used for the facial expression change or character animation of the character, in particular can be utilized as part of the wireless avatar animation system by face recognition.

현재 캐릭터 생성 방법은 전문 디자이너가 개인의 얼굴을 스케치하여 캐릭터를 제작하는 방법과, 얼굴 사진의 부위요소를 추출한 후 데이터베이스내의 얼굴 각 부위의 샘플들과 비교하여 유사 샘플을 선별, 조합해서 캐릭터를 생성하는 방법이 있다. 전자의 경우 많은 노력과 시간이 필요할 뿐 아니라 디자이너 주관에 의해 캐릭터가 생성되는 단점이 있다. 후자의 경우에는 많은 샘플 이미지를 준비해야 하고 사람의 얼굴은 개성이 가장 강하게 나타나는 신체부위로써 샘플이 아무리 많아도 다양한 얼굴을 표현하는데 한계를 가지고 있다.Currently, the character generation method is a method in which a professional designer sketches an individual's face to make a character, and extracts a part element of a face photograph and compares it with samples of each part in the database to select and combine similar samples to create a character. There is a way. In the former case, a lot of effort and time are required, and the character is generated by the designer. In the latter case, many sample images should be prepared, and the human face is the body part where the personality is most strong, and there are limitations in expressing various faces no matter how many samples.

본 발명은 얼굴 캐릭터 생성을 위해 전문 캐릭터 디자이너의 도움이나 눈, 코, 입 등의 영상 조합을 위한 샘플 영상 데이터베이스 구축 없이 스플라인 곡선의 통제점 조절만으로 사진 영상과 닮은 얼굴 캐릭터 영상을 생성하는 방법을 제공한다.The present invention provides a method of generating a face character image resembling a photographic image only by adjusting a control point of a spline curve without the help of a professional character designer or a sample image database for combining images of eyes, nose, mouth, etc. for generating a face character. do.

사용자에 의해 얼굴 사진 영상을 입력받는 제 1 단계와; 수동 또는 자동의 방법으로 얼굴 사진 영상의 양쪽 눈동자 위치를 파악한 후 그 위치를 기준으로 하여 얼굴 영상의 정규화(크기 및 회전각)를 하는 제 2단계와; 정규화된 사진상의 얼굴 윤곽선 위에 스플라인 곡선을 근사시키고 얼굴 구성요소들의 색상을 결정하는 제 3단계와; 얼굴 사진 영상의 텍스쳐와 캐릭터 영상을 컨볼루션(Convolution)하는 제 4단계와, 제 3단계에서 얻어진 특징점과 색상을 바탕으로 스플라인 곡선을 윤곽선으로 표현하고 안티 에일리어싱 과정을 거쳐 캐릭터 얼굴의 구성요소를 표현하는제 5 단계와; 최종적으로 얼굴 캐릭터 영상을 생성하여 영상을 디스플레이 하는 제 6단계와; 서버의 샘플 데이터베이스로부터 헤어, 의상, 기타 악세서리를 선택하고 생성된 얼굴 캐릭터에 결합하여 완성된 캐릭터 영상을 생성하는 제 7단계와; 제 7단계에 의해서 생성된 캐릭터를 저장하거나 서버로 송신하는 제 8단계를 포함하는 것을 특징으로 하고 있다.A first step of receiving a face photograph image by a user; A second step of grasping both pupil positions of the face photograph image by a manual or automatic method and normalizing the face image (size and rotation angle) based on the position; A third step of approximating a spline curve over the facial contour on the normalized picture and determining the color of the facial components; Based on the fourth and fourth stages of convolution of the texture and character image of the face photograph image, the spline curve is outlined based on the feature points and colors obtained in the third stage, and the components of the character's face are expressed through anti-aliasing. A fifth step; A sixth step of finally generating a face character image and displaying the image; A seventh step of selecting a hair, a costume, and other accessories from a sample database of the server and combining the generated hair character with the generated facial character; And an eighth step of storing or transmitting the character generated by the seventh step to the server.

도 1은 본 발명을 수행하기 위한 캐릭터 생성 시스템의 구성도이다.1 is a block diagram of a character generation system for carrying out the present invention.

도 2는 본 발명에 따라 캐릭터를 생성하는 과정을 흐름도로 나타낸 것이다.2 is a flowchart illustrating a process of generating a character according to the present invention.

이하, 첨부된 도면을 바탕으로 본 발명의 실시예에 대하여 상세하게 설명한다.Hereinafter, with reference to the accompanying drawings will be described in detail an embodiment of the present invention.

본 발명의 특징은 얼굴 사진 영상을 입력하여 이를 크기 및 수평도를 기준으로 정규화 하고, 통제점 조절을 통해 스플라인 곡선을 사진 영상 윤곽선에 근사시켜 캐릭터를 생성하는 것으로, 피부 및 구성 요소의 색상은 색상 테이블을 이용하여 선택이 가능하다. 곡선을 변화시키기 위해 곡선을 구성하는 모든 점들에 대해 작업을 가하는 대신 특징적인 점들만 변화시키는 스플라인 곡선의 특징과, 얼굴 사진 영상상의 텍스쳐와 캐릭터 영상의 컨벌루션을 이용해서, 개인마다 각기 다른 얼굴 표정이나 형태에 따라 다양한 캐릭터를 생성할 수 있고 적은 노력과 시간의 투자로 원하는 얼굴 캐릭터를 생성할 수 있다.A feature of the present invention is to input a face photo image and normalize it based on size and horizontality, and generate a character by approximating a spline curve to the photo image contour by adjusting a control point. Selection can be made using a table. Instead of working on all the points that make up the curve to change the curve, the spline curve feature changes only the characteristic points, and the convolution of the texture and the character image on the face photograph image. Various characters can be created according to the shape, and desired face characters can be generated with little effort and time investment.

도 1은 본 발명에 따라 캐릭터를 생성하기 위한 시스템의 구성도로서 마우스, 키보드 및 영상입력기기 등의 입력 장치( 1 ), 입력정보와 영상정보를 처리하는 영상 처리 장치( 2 ), 처리된 영상정보를 화면으로 보여주는 영상 출력장치( 3 ), 영상 정보를 저장하는 영상 저장장치( 4 ), 네트워크를 통해 서버 측 데이터베이스로부터 영상을 불러오거나 전송하기 위한 통신 장치( 5 ), 캐릭터 영상을 저장하는 캐릭터 영상 데이터베이스( 6 ), 머리 스타일, 몸형태, 악세서리 영상을 저장하는 샘플 영상 데이터베이스( 7 ), 웹 서비스를 위한 서버( 8 )로 구성되어 있다.1 is a block diagram of a system for generating a character according to the present invention, an input device 1 such as a mouse, a keyboard and an image input device, an image processing device 2 for processing input information and image information, and processed images. Image output device (3) showing the information on the screen, image storage device (4) for storing the image information, communication device (5) for importing or transmitting images from the server-side database via the network, character character storage It consists of an image database (6), a sample image database (7) for storing hair styles, body shapes and accessory images, and a server (8) for web services.

도 2에서는 본 발명에 따라 캐릭터 생성 과정 흐름도를 보여주고 있다. 흐름도에 도시한 바와 같이, 단계( S1 )에서는 캐릭터 영상을 생성하기 위해 사용자가 선택한 얼굴 사진 영상을 입력받는다.2 shows a flowchart of a character generation process according to the present invention. As shown in the flowchart, in step S1, the face photograph image selected by the user is input to generate the character image.

단계( S2 )에서는 입력받은 얼굴 사진 영상 중 캐릭터로 생성하고자 하는 얼굴부분에서 자동 또는 수동의 방법으로 양쪽 눈동자의 위치 정보를 얻어 이를 바탕으로 얼굴 사진 영상을 정규화 하는 과정을 거친다. 단계( S2 )를 통해서 캐릭터 생성을 원하는 얼굴의 크기가 일정한 크기로 변형되고 눈동자의 위치가 수평인 형태의 얼굴영상으로 회전된다.In step S2, the face part of the input face picture image is automatically or manually obtained from the face part to be generated as a character, and the face picture image is normalized based on the position information of both pupils. In step S2, the size of the face desired to generate the character is deformed to a constant size, and the position of the pupil is rotated into a face image having a horizontal shape.

단계( S3 )에서는 각 얼굴 구성요소의 형태와 위치 정보를 얻기 단계( S2 )에서 조절된 얼굴 영상을 바탕으로 스플라인 곡선을 근사시킨다. 눈, 코, 입, 귀, 눈썹, 얼굴 외곽선의 윤곽 형태와 스플라인 곡선이 일치하도록 얼굴 구성요소 각각의 스플라인 통제점을 조절하고 쌍꺼풀 유무, 벌린 입의 형태 지원여부를 선택하고 생성될 캐릭터 얼굴 구성요소의 색상 지정을 위해 색상테이블에서 눈썹, 입술, 얼굴의 색상을 선택한다. 또한, 입력한 얼굴 사진 영상의 색상과 명암이 캐릭터 얼굴 영상에 반영될 수 있도록 하기 위한 반영정도를 설정한다.In step S3, the spline curve is approximated based on the face image adjusted in step S2 of obtaining the shape and position information of each face component. Adjust the spline control points of each face component to match the contour shape of the eyes, nose, mouth, ear, eyebrows, and facial outline with the spline curve, select whether to support double eyelids and open mouths, and create the character face components Select the color of the eyebrows, lips and face from the color table to specify the color. In addition, the degree of reflection is set so that the color and contrast of the input face photograph image can be reflected in the character face image.

단계( S4 )에서는 단계( S3 )에서 설정된 얼굴 사진 영상 반영정도를 가지고 얼굴 사진영상의 텍스쳐와 캐릭터 얼굴 영상의 컨볼루션 과정을 수행한다. 이 과정을 실행하는데 있어 컨볼루션용 마스크를 기반으로 하며, 마스크 내의 각 값을 조절하는 것에 의해 얼굴 사진의 텍스쳐와 캐릭터 피부 색상과의 합성 가중치를 결정할 수 있다.In step S4, a convolution process of the texture of the face photograph image and the character face image is performed with the degree of reflecting the face photograph image set in step S3. This process is based on a convolutional mask, and by adjusting each value within the mask, the composite weight of the texture of the face and the color of the character's skin can be determined.

점 (x,y)상에서의 반영도 지표를로 하고,을 점(x,y)에 대응하는 마스크 내에서의 명도값, T를 사용자의 조정치로 한다면, 반영도 지표는 (식1) 에서 구해진다. 아래의 식 1 에서 마스크 영상으로부터 얻는 반영도와 사용자 선택에 의한 반영도를 이중으로 두고 있는 이유는, 마스크에서는 얼굴의 형태적 특성을 반영한 고정 반영도를 설정한 것이고 사용자 선택에 의한 반영도는 캐릭터 생성시 사용자의 주관을 반영하기 쉽게 하기 위한 것이다.Reflectance index on point (x, y) With If the brightness value in the mask corresponding to the point (x, y), T is the user's adjustment value, the reflectance index is obtained from (Equation 1). The reason why the reflectivity obtained from the mask image and the reflectivity by the user selection are doubled in Equation 1 below is that the mask has a fixed reflectivity that reflects the morphological characteristics of the face, and the reflectivity by the user selection is a character generation. This is to make it easy to reflect the subjectivity of the user of the city.

(식 1)(Equation 1)

위의 (식 1) 에 의하여 반영도를 계산한 다음 아래의 (식 2) 를 이용하여 최종적인 캐릭터 얼굴 영상의 칼라 값을 계산하게 된다.The reflectivity is calculated by the above (Equation 1), and then the color value of the final character face image is calculated using the following (Equation 2).

(식 2)(Equation 2)

여기서,는 점 ( x, y )에서의 캐릭터 영상 값이며는 점 ( x, y )에서의 배경값으로 사진상의 얼굴 텍스쳐를 의미한다.here, Is the character image value at point (x, y) Is the background value at the point (x, y), indicating the face texture on the photo.

단계( S5 )에서는 단계 ( S4 )의 컨벌루션(Convolution)과정을 통해 생성된영상과 단계( S3 )을 통해 얻어진 각 얼굴 구성요소의 윤곽선 정보와 색상정보를 기반으로 얼굴 구성요소를 표현한다. 스플라인 다항식을 통해 스플라인 전체의 구성점 들을 얻고 이러한 구성점들의 선형화와 안티 에일리어싱 과정으로 캐릭터 얼굴 구성 요소들의 윤곽선을 표현하고 설정된 얼굴 색, 눈썹 색, 입술 색을 적용시켜 얼굴 구성 요소를 생성한다.In step S5, the face component is expressed based on the image generated through the convolution process of step S4 and the contour information and the color information of each face component obtained through step S3. Spline polynomials are used to obtain the entire spline's components, and through the linearization and anti-aliasing of these components, the contours of the character's face components are represented, and face components are applied by applying the set face color, eyebrow color, and lip color.

단계( S3 )에서 얼굴 구성요소의 윤곽선을 표현하기 위해 스플라인 다항식을 통해 스플라인 전체의 구성점 들을 얻고 이를 브레센햄(Bresenham) 알고리즘에 의해 직선으로 연결한다. 브레센햄 알고리즘은 원이나 다른 곡선을 표현 하는데 적용될 수 있는데 단지 정수 연산만을 이용하여 실제 직선에 가까운 좌표를 찾아 그리는 알고리즘이다.In step S3, to express the contours of the facial components, the spline polynomials are used to obtain the whole splines and connect them in a straight line by the Bresenham algorithm. The Bressenham algorithm can be used to represent circles or other curves, using only integer arithmetic to find and draw coordinates close to the actual straight line.

직선이나 모서리의 계단현상을 없애고 보다 높은 화질의 캐릭터 이미지를 얻기 위해서 직선에 대하여 안티 에일리어싱(Anti-Aliasing)을 적용한다. 안티 에일리어싱은 캐릭터의 윤곽선을 보다 부드럽게 만듦으로써 이미지의 질을 개선시키는 역할을 한다. 실제로 직선이 지나가는 경로와 픽셀 위치의 간격차이에 따라 직선주변 픽셀 값을 설정해준다.Anti-Aliasing is applied to straight lines to get higher quality character images and to eliminate straight lines and edges. Anti-aliasing improves the quality of the image by making the outline of the character smoother. Actually, the pixel value is set around the straight line according to the gap between the path of the straight line and the pixel position.

직선의 실제 경로와 픽셀 위치와의 x, y축 방향 상에서의 위치 차이를 각각라고 하면는 (식 3)에 나타내어진다. x축 성분 미분 값을축 성분 미분 값을라고 하면,일 때는 픽셀의 y 방향 이웃점들에 대하여 안티 에일리어싱 처리를 하며일 때는 픽셀의 X 방향 이웃점들에 대하여 안티 에일리어싱 처리를 한다. 또한이고이면 y방향으로 점 (x,y)와 이웃점 (x,y+1)에 대하여 안티 에일리어싱 처리를 하며이면 점 (x, y)와 이웃점 (x,y-1)에 대하여 안티 에일리어싱 처리를 한다.The difference in position along the x- and y-axis directions Say Is represented by (Formula 3). the derivative of the x-axis component Axial component derivative Speaking of When is anti-aliased for the y-direction neighbors of the pixel, In this case, anti-aliasing processing is performed on neighboring pixels in the X direction. Also ego , Anti-aliasing is performed on the point (x, y) and the neighbor point (x, y + 1) in the y direction. If it is, the anti-aliasing process is performed on the point (x, y) and the neighbor point (x, y-1).

를 점상에서 안티 에일리어싱 처리된 결과값이라고 하고,를 점에 부여하려는 픽셀 값,를 점에 부여되어있는 픽셀 값으로 정의하면, 아래의 (식 4) 는 안티 에일리어싱의 과정을 나타낸다. Point This is called anti-aliased result on Point Pixel value you want to give to, Point Defining the pixel value given in Equation 4 below shows the anti-aliasing process.

(식 3)(Equation 3)

: 직선의 방정식에 의한 y값 : Y value by equation of straight line

: 브레센햄 직선식에 의한 y값 : Y value by Bressenham linear equation

(식 4)(Equation 4)

의 경우 In the case of

의 경우 In the case of

단계( S6 )는 얼굴 캐릭터 영상을 최종 생성하는 단계로 단계( S4 )와 단계( S5 )를 거쳐서 생성된 얼굴 캐릭터 영상을 일정한 크기로 변형시킨 후 디스플레이 해준다. 생성된 얼굴 캐릭터 영상에 수정이 필요하다고 생각하면 단계( S3 )로 돌아가서 수정하고 싶은 얼굴 구성요소의 윤곽선 조절이나 색상변경을 통해 캐릭터 얼굴 영상을 수정할 수 있다.Step S6 is a step of finally generating a face character image. The face character image generated through steps S4 and S5 is transformed into a predetermined size and then displayed. If it is determined that the generated face character image needs correction, the character face image may be corrected by returning to step S3 by adjusting the outline or changing the color of the face component to be corrected.

단계( S7 )에서는 머리 스타일과 몸 형태, 기타 악세서리를 서버 측의 샘플데이터베이스에서 선택한 후 얼굴 캐릭터 영상에 결합하여 전체 캐릭터 영상을 완성한다.In step S7, the head style, body shape, and other accessories are selected from the sample database on the server side, and then combined with the face character image to complete the entire character image.

단계( S8 )에서는 완성된 캐릭터 영상을 저장 장치에 저장하거나 웹 상에서 캐릭터 영상의 사용을 위해 통신장치를 통해 웹 서버로 전송하여 캐릭터 데이터베이스에 저장한다.In step S8, the completed character image is stored in the storage device or transmitted to a web server through a communication device for use of the character image on the web and stored in the character database.

본 발명은 사용자가 채팅이나 e메일 등에서 아바타 ( Avatar )로 활용하기 위해 자신과 닮은 캐릭터 제작을 하고자 할 때나 연예인 등 다른 사람의 얼굴을 캐릭터로 표현하고자 할 경우 얼굴 사진 영상의 선택과 이를 바탕으로한 윤곽선 정합을 통해 얼굴 캐릭터를 손쉽게 즉석에서 제작할 수 있게 한다.According to the present invention, when a user wants to make a character similar to himself or herself to use as an avatar in a chat or an e-mail, or to express a face of another person such as an entertainer as a character, the user selects a face photograph image based on the selection Contour matching allows face characters to be created on the fly.

Claims (4)

윤곽선 정합에 의한 얼굴 캐릭터 생성 방법 있어서,In the face character generation method by matching the contour, 사용자에 의해 얼굴 사진 영상을 입력받는 제 1단계와; 수동 또는 자동의 방법으로 얼굴 사진 영상의 양쪽 눈동자 위치를 파악한 후 그 위치를 기준으로 하여 얼굴 영상의 정규화(크기 및 회전각)를 하는 제 2단계와; 정규화된 사진상의 얼굴 윤곽선 위에 스플라인 곡선을 근사시키고 얼굴 구성요소들의 색상을 결정하는 제 3단계와; 얼굴 사진 영상의 텍스쳐와 캐릭터 영상을 컨벌루션(Convolution)하는 제 4단계와, 제 3단계에서 얻어진 특징점과 색상을 바탕으로 스플라인 곡선을 윤곽선으료 표현하고 안티 에일리어싱 과정을 거쳐 캐릭터 얼굴의 구성요소를 표현하는 제 5단계와; 최종적으로 얼굴 캐릭터 영상을 생성하고 영상을 디스플레이 하는 제 6단계와; 서버의 샘플 데이터베이스로부터 헤어, 의상, 기타 악세서리를 선택하고 생성된 얼굴 캐릭터에 결합하여 완성된 캐릭터 영상을 생성하는 제 7단계와; 제 7단계에 의해서 생성된 캐릭터를 저장하거나 서버로 송신하는 제 8단계를 포함하는 것을 특징으로 하는 캐릭터 생성 방법.A first step of receiving a face photograph image by a user; A second step of grasping both pupil positions of the face photograph image by a manual or automatic method and normalizing the face image (size and rotation angle) based on the position; A third step of approximating a spline curve over the facial contour on the normalized picture and determining the color of the facial components; The fourth step of convolution of the texture and character image of the face photograph image, and the spline curves are outlined based on the feature points and colors obtained in the third step, and the components of the character face are processed through an anti-aliasing process. A fifth step; Finally, generating a face character image and displaying the image; A seventh step of selecting a hair, a costume, and other accessories from a sample database of the server and combining the generated hair character with the generated facial character; And an eighth step of storing or transmitting the character generated by the seventh step to the server. 제 1 항에 있어서,The method of claim 1, 상기 제 3단계에서의 얼굴 사진 영상을 바탕으로 스플라인 통제점의 조절을 통해 얼굴 영상 윤곽선을 근사화하는 것을 특징으로 하는 캐릭터 생성 방법.Characterization method characterized in that to approximate the face image contour by adjusting the spline control point based on the face image in the third step. 제 1 항에 있어서,The method of claim 1, 상기 제 4단계에서 얼굴 사진 영상의 텍스쳐와 캐릭터 영상을 컨벌루션(Convolution)하는 것을 특징으로 하는 캐릭터 생성 방법In the fourth step, the character generation method comprising convolution of the texture of the face photographic image and the character image. 제 1 항에 있어서,The method of claim 1, 상기 제 5단계에서 통제점 조절을 통해 얻어진 얼굴 각 구성요소의 형태와 위치 정보를 가지고 스플라인 다항식을 이용해 스플라인 곡선 전체의 구성점들을 얻고 이러한 구성점을 선형화시키고 안티 에일리어싱 과정을 거쳐 얼굴 구성요소의 윤곽선을 표현하는 것을 특징으로 하는 캐릭터 생성 방법Using the spline polynomial, the components of the entire spline curve are obtained by using the spline polynomial with the shape and position information of each facial component obtained through the control point adjustment in the fifth step. The contours of the facial components are linearized and anti-aliased. Character generation method characterized in that
KR1020010073155A 2001-11-22 2001-11-22 Facial character manufacturing method by fitting facial edgeline KR20030042403A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020010073155A KR20030042403A (en) 2001-11-22 2001-11-22 Facial character manufacturing method by fitting facial edgeline

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020010073155A KR20030042403A (en) 2001-11-22 2001-11-22 Facial character manufacturing method by fitting facial edgeline

Publications (1)

Publication Number Publication Date
KR20030042403A true KR20030042403A (en) 2003-05-28

Family

ID=29570967

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020010073155A KR20030042403A (en) 2001-11-22 2001-11-22 Facial character manufacturing method by fitting facial edgeline

Country Status (1)

Country Link
KR (1) KR20030042403A (en)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20020073098A (en) * 2002-04-03 2002-09-19 (주)이야토탈솔루션 Bezier curve based caricature producing device on network and Methods thereof
WO2005088514A1 (en) * 2004-03-18 2005-09-22 Beauty Visi Co., Ltd. System and method for electronic hair coordination
WO2006071006A1 (en) * 2004-12-30 2006-07-06 G & G Cormerce Ltd Method for converting 2d image into pseudo 3d image and user-adapted total coordination method in use artificial intelligence, and service business method thereof
KR100700872B1 (en) * 2006-02-07 2007-03-29 엘지전자 주식회사 Method for displaying 3 dimension private character image of mobile terminal and the mobile terminal thereof
KR100707195B1 (en) * 2004-12-30 2007-04-13 삼성전자주식회사 Method and apparatus for detecting classifier having texture information of face, Method and apparatus for recognizing face using statistical character of the texture information
KR20140049340A (en) * 2012-10-17 2014-04-25 에스케이플래닛 주식회사 Apparatus and methods of making user emoticon
KR20200043448A (en) * 2017-10-31 2020-04-27 광동 오포 모바일 텔레커뮤니케이션즈 코포레이션 리미티드 Method and apparatus for image processing, and computer readable storage medium
KR102373606B1 (en) * 2021-04-19 2022-03-14 주식회사 쓰리디팩토리 Electronic apparatus and method for image formation, and program stored in computer readable medium performing the same
KR20230106281A (en) 2022-01-06 2023-07-13 (주)키미티즈 system and method for manufacturing smart character design

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10198812A (en) * 1997-01-08 1998-07-31 Ricoh Co Ltd Approximating method for free-form surface
KR20000064110A (en) * 2000-08-22 2000-11-06 이성환 Device and method for automatic character generation based on a facial image
KR20010109834A (en) * 2000-06-02 2001-12-12 이장춘 A method for making characters
KR20020014844A (en) * 2000-07-18 2002-02-27 최창석 Three dimensional face modeling method
KR20020058608A (en) * 2000-12-30 2002-07-12 오길록 A Blending Method In Imposing Continuity Between B-Spline Curves/Surfaces
KR20020069595A (en) * 2001-02-27 2002-09-05 강석령 System and method for producing caricatures

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10198812A (en) * 1997-01-08 1998-07-31 Ricoh Co Ltd Approximating method for free-form surface
KR20010109834A (en) * 2000-06-02 2001-12-12 이장춘 A method for making characters
KR20020014844A (en) * 2000-07-18 2002-02-27 최창석 Three dimensional face modeling method
KR20000064110A (en) * 2000-08-22 2000-11-06 이성환 Device and method for automatic character generation based on a facial image
KR20020058608A (en) * 2000-12-30 2002-07-12 오길록 A Blending Method In Imposing Continuity Between B-Spline Curves/Surfaces
KR20020069595A (en) * 2001-02-27 2002-09-05 강석령 System and method for producing caricatures

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20020073098A (en) * 2002-04-03 2002-09-19 (주)이야토탈솔루션 Bezier curve based caricature producing device on network and Methods thereof
WO2005088514A1 (en) * 2004-03-18 2005-09-22 Beauty Visi Co., Ltd. System and method for electronic hair coordination
WO2006071006A1 (en) * 2004-12-30 2006-07-06 G & G Cormerce Ltd Method for converting 2d image into pseudo 3d image and user-adapted total coordination method in use artificial intelligence, and service business method thereof
KR100707195B1 (en) * 2004-12-30 2007-04-13 삼성전자주식회사 Method and apparatus for detecting classifier having texture information of face, Method and apparatus for recognizing face using statistical character of the texture information
KR100700872B1 (en) * 2006-02-07 2007-03-29 엘지전자 주식회사 Method for displaying 3 dimension private character image of mobile terminal and the mobile terminal thereof
KR20140049340A (en) * 2012-10-17 2014-04-25 에스케이플래닛 주식회사 Apparatus and methods of making user emoticon
KR20200043448A (en) * 2017-10-31 2020-04-27 광동 오포 모바일 텔레커뮤니케이션즈 코포레이션 리미티드 Method and apparatus for image processing, and computer readable storage medium
KR102373606B1 (en) * 2021-04-19 2022-03-14 주식회사 쓰리디팩토리 Electronic apparatus and method for image formation, and program stored in computer readable medium performing the same
KR20230106281A (en) 2022-01-06 2023-07-13 (주)키미티즈 system and method for manufacturing smart character design

Similar Documents

Publication Publication Date Title
KR101190686B1 (en) Image processing apparatus, image processing method, and computer readable recording medium
US9058765B1 (en) System and method for creating and sharing personalized virtual makeovers
KR20200014280A (en) An image processing apparatus, an image processing system, and an image processing method, and a program
KR101614193B1 (en) Image-processing device, image-processing method, and recording medium for control program
US7587083B2 (en) Image processing device
JP2603445B2 (en) Hair image adaptation method and computer system
WO2012056744A1 (en) Image-processing device, image-processing method, and control program
JP4753025B2 (en) Makeup simulation method
US20040056857A1 (en) System and method for expression mapping
JP2004265406A (en) Method and system for improving portrait image processed in batch mode
JPH0962865A (en) Face picture processing method and face picture processor
JP2009064423A (en) Makeup simulation system, makeup simulation device, makeup simulation method, and makeup simulation program
JP2005216131A (en) Makeup simulation apparatus, method and program
CN107452049A (en) A kind of three-dimensional head modeling method and device
KR20030042403A (en) Facial character manufacturing method by fitting facial edgeline
WO2023010796A1 (en) Image processing method and related apparatus
JP2018195996A (en) Image projection apparatus, image projection method, and image projection program
JP2000151985A (en) Picture processing method and recording medium
JPWO2011155067A1 (en) Character generation system, character generation method and program
JP5419777B2 (en) Face image synthesizer
KR20000047609A (en) Portrait imaging and printing system and its process
JP3577154B2 (en) Image processing device
RU2703327C1 (en) Method of processing a two-dimensional image and a user computing device thereof
KR20010102873A (en) Method and system for generating an avatar of real-picture using finite image templates
JP2017224130A (en) Makeup image processing method, makeup image processing device, and makeup image processing program

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E601 Decision to refuse application