KR20100048490A - Method and apparatus for making sensitive character and animation - Google Patents

Method and apparatus for making sensitive character and animation Download PDF

Info

Publication number
KR20100048490A
KR20100048490A KR1020080107676A KR20080107676A KR20100048490A KR 20100048490 A KR20100048490 A KR 20100048490A KR 1020080107676 A KR1020080107676 A KR 1020080107676A KR 20080107676 A KR20080107676 A KR 20080107676A KR 20100048490 A KR20100048490 A KR 20100048490A
Authority
KR
South Korea
Prior art keywords
character
animation
generating
icon
data
Prior art date
Application number
KR1020080107676A
Other languages
Korean (ko)
Other versions
KR100965622B1 (en
Inventor
김영자
Original Assignee
김영자
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 김영자 filed Critical 김영자
Priority to KR1020080107676A priority Critical patent/KR100965622B1/en
Publication of KR20100048490A publication Critical patent/KR20100048490A/en
Application granted granted Critical
Publication of KR100965622B1 publication Critical patent/KR100965622B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/203D [Three Dimensional] animation
    • G06T13/403D [Three Dimensional] animation of characters, e.g. humans, animals or virtual beings
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/12Edge-based segmentation

Abstract

PURPOSE: A method and a device for making sensitive character and an animation are provided to enable a user to easily generate their own character. CONSTITUTION: A storage unit(110) generates and stores a standard data with a characteristic part of a standard character as the center. A preprocess unit(120) generates a preprocess image for detecting outline of an image from inputted image information. A icon generating unit(130) uses a reference data selected by the outline and the standard data to generate group icon by parts. A character generation unit(140) generates a specific character by combining the group icon by parts.

Description

감성형 캐릭터 및 애니메이션 생성 방법 및 장치{Method and Apparatus for making sensitive character and animation}Method and Apparatus for Creating Emotional Character and Animation {Method and Apparatus for making sensitive character and animation}

본 발명은 캐릭터 제작과 캐릭터 애니메이션 생성 방법에 관한 것으로, 특히 감성형 캐릭터 및 애니메이션 생성 방법 및 장치에 관한 것이다.The present invention relates to a method of character production and character animation generation, and more particularly, to a method and apparatus for generating emotional characters and animation.

현재 컴퓨터 및 전자 기기의 발전 및 일상화에 따라 그 내용을 이루는 콘텐츠의 중요성이 더욱 강조되고 있다. 특히, 콘텐츠에 포함되는 캐릭터 또는 애니메이션에 대한 기술은 영상 기술의 발전과 더불어 응용 분야가 매우 큰 기술이다. 예를 들면, 캐릭터와 애니메이션은 E-러닝, 블러그/홈페이지, 메신저, 홍보/안내 시스템과 분야에 다양하게 적용될 수 있다. With the development and daily use of computers and electronic devices, the importance of the contents constituting the contents is emphasized more. In particular, the technology of the character or animation included in the content is a technology that has a very large application field with the development of the image technology. For example, characters and animation can be applied in various ways to e-learning, blog / homepage, messenger, public relations / guidance system and field.

종래 기술에 따르면, 대부분의 캐릭터 제작과 애니메이션 생성은 플래쉬(FLASH)나 3D MAX와 같은 범용그래픽 프로그램을 이용하고 있다. 이 중 플래쉬는 다양한 애니메이션 효과를 매우 쉽게 구현 가능한 장점을 가지고 있으며, 생성된 데이터 크기도 작고 스크립트와 같은 프로그램 기능 지원도 가능하다. 하지만 플래 쉬는 캐릭터 애니메이션 전용 툴이 아니므로 캐릭터를 콘텐츠에 삽입한 후 자연스런 립싱크 구현이 불가능하고 캐릭터 애니메이션을 다양하게 구현하기에는 매우 어렵다. 즉, 이러한 범용그래픽 프로그램을 이용하여 생성된 캐릭터와 애니메이션은 사용자가 상황에 맞게 변경가능한 형태로 제작되지 않으므로, 실제 상황을 표현하기에는 어려운 점이 있다. According to the prior art, most character production and animation generation use general-purpose graphics programs such as FLASH or 3D MAX. Flash has the advantage of being able to implement various animation effects very easily. The generated data size is small and program functions such as scripts can be supported. However, since Flash is not a character animation-only tool, it is impossible to implement natural lip syncing after inserting a character into the content, and it is very difficult to implement various character animations. That is, characters and animations generated using such a general-purpose graphic program are not produced in a form that can be changed by a user according to a situation, and thus, it is difficult to express an actual situation.

또한, 대학이나 연구소에서 모델의 사진을 분석하여 자동으로 얼굴의 특징을 검출하는 기술 등을 발표하였으나 실제로 모델 사진을 사용하여 영상 특징을 검출 방법은 빛에 의한 영향 때문에 불특정 다수의 사진에 대하여 캐릭터의 특징을 제대로 살리는 영상을 얻는다는 것은 어려운 문제점이 있다. 따라서 다양한 분야에 적용가능하며, 손쉽게 캐릭터 및 애니메이션을 제작할 수 있는 장치에 대한 필요성이 대두되고 있다. In addition, universities and research institutes have published technology to detect facial features automatically by analyzing photographs of models.However, the method of detecting image features using model photographs is based on the effects of light. It is difficult to obtain a video that makes full use of features. Therefore, there is a need for a device that can be applied to various fields and that can easily produce characters and animations.

전술한 배경기술은 발명자가 본 발명의 도출을 위해 보유하고 있었거나, 본 발명의 도출 과정에서 습득한 기술 정보로서, 반드시 본 발명의 출원 전에 일반 공중에게 공개된 공지기술이라 할 수는 없다.The background art described above is technical information possessed by the inventors for the derivation of the present invention or acquired during the derivation process of the present invention, and is not necessarily a publicly known technique disclosed to the general public before the application of the present invention.

본 발명은 컴퓨터 부분에 비전문가인 일반 사용자가 매우 쉽게 자신의 캐릭터를 생성가능한 감성형 캐릭터 및 애니메이션 생성 방법 및 그 장치를 제공하기 위한 것이다. The present invention aims to provide a method and apparatus for generating emotional characters and animations that can be easily generated by a non-expert general user in the computer part.

또한, 본 발명은 동일한 애니메이션 코드를 서로 다른 캐릭터의 애니메이션에 적용하여 작업의 중복성을 줄일 수 있는 감성형 캐릭터 및 애니메이션 생성 방법 및 그 장치를 제공하기 위한 것이다. In addition, the present invention is to provide an emotional character and animation generation method and apparatus for reducing the overlap of work by applying the same animation code to the animation of different characters.

또한, 본 발명은 종래에 개발된 콘텐츠와 연동가능한 애니메이션을 구현할 수 있는 감성형 캐릭터 및 애니메이션 생성 방법 및 그 장치를 제공하기 위한 것이다. In addition, the present invention is to provide a method and apparatus for generating an emotional character and animation that can implement the animation that can be linked to the conventionally developed content.

또한, 본 발명은 캐릭터와 애니메이션을 E-러닝, 블러그/홈페이지, 메신저, 홍보/안내 시스템과 분야에 다양하게 적용할 수 있는 감성형 캐릭터 및 애니메이션 생성 방법 및 그 장치를 제공하기 위한 것이다. In addition, the present invention is to provide a method and apparatus for generating an emotional character and animation that can be applied to a variety of character and animation E-learning, blog / homepage, messenger, promotion / guidance system and the field.

본 발명이 제시하는 이외의 기술적 과제들은 하기의 설명을 통해 쉽게 이해될 수 있을 것이다.Technical problems other than the present invention will be easily understood through the following description.

본 발명의 일 측면에 따르면, 표준 캐릭터의 특징부를 중심으로 표준 데이터를 생성하여 저장하는 단계, 입력된 이미지 정보로부터 이미지의 외곽선 검출을 위해 전처리 이미지를 생성하는 단계, 외곽선에서 선택된 기준점과 표준 데이터를 이용하여 부위별 그룹 아이콘을 생성하는 단계 및 부위별 그룹 아이콘을 조합하여 특정 캐릭터를 생성하는 단계를 포함하는 감성형 캐릭터 및 애니메이션 생성 방법이 제공된다. According to an aspect of the present invention, generating and storing standard data centering on a feature of a standard character, generating a preprocessing image for detecting an outline of an image from input image information, and selecting a reference point and standard data selected from the outline Emotional character and animation generation method comprising the steps of generating a group icon for each part using the group icon for generating a specific character by combining a group icon for each part.

특정 캐릭터 생성 단계 이후에, 생성된 특정 캐릭터에 동일한 애니메이션 코 드를 적용하여 애니메이션을 생성하는 단계가 더 포함될 수 있다. After the specific character generation step, the method may further include generating an animation by applying the same animation code to the generated specific character.

또한, 특정 캐릭터 생성 단계에서, 섬세 캐릭터 스타일로 캐릭터를 생성 후, 특정 캐릭터의 구성 정보에 상응하는 부위별 그룹 아이콘의 개수를 조절하거나 부위별 그룹 아이콘을 그리는 방법을 달리 지정하는 구성정보를 미리 제공하여 사용자가 단순히 캐릭터 표출 방식을 지정함에 따라 3차원 캐릭터, 섬세 캐릭터, 실루엣 캐릭터, 만화 캐릭터 및 단순 캐릭터 중 어느 하나의 캐릭터 표출방식을 실시간으로 변경하여 표출가능하게 한다.In addition, in a specific character generation step, after generating a character in a delicate character style, the configuration information for adjusting the number of group icons for each part corresponding to the configuration information of the specific character or otherwise specifying the method for drawing the group icons for each part is provided in advance. As the user simply specifies a character expression method, the character expression method of any one of three-dimensional characters, delicate characters, silhouette characters, cartoon characters, and simple characters can be changed and displayed in real time.

이 단계의 기능은 콘텐츠의 내용에 따라 동일한 캐릭터의 표출 방식을 실시간으로 변경 지정하여 표출함에 따라 동일한 캐릭터의 표출 방식으로 콘텐츠를 구성하는 것 보다 훨씬 흥미롭고 다양한 느낌의 콘텐츠를 매우 쉽게 제작 가능하게 한다.The function of this step is to make the content of a much more interesting and various feelings more easily than to compose the content by the expression method of the same character as the expression of the same character expression method in real time according to the content of the content.

특정 캐릭터 생성 단계 이후에, 부위별 그룹 아이콘에 상응하는 아이콘 식별자를 포함하는 애니메이션 코드 실행 시 없는 부위별 그룹 아이콘에는 애니메이션 코드를 적용하지 않고 스킵하는 단계가 더 포함될 수 있다. 즉, 애니메이션 실행 시, 애니메이션이 적용되어지는 캐릭터의 정보에 포함하지 않는 아이콘 관련 애니메이션 코드를 자동 스킵 하여 애니메이션 코드를 모든 표출 방식에 적용할 수 있다.After the specific character generation step, the step-by-part group icon that is not present when the animation code including the icon identifier corresponding to the group-specific group icon may be further skipped without applying the animation code. That is, when executing the animation, the animation code associated with the icon not included in the information of the character to which the animation is applied can be automatically skipped to apply the animation code to all display methods.

여기서, 애니메이션 코드는 교체가능한 특정 캐릭터의 캐릭터 식별자를 더 포함할 수 있다. Here, the animation code may further include a character identifier of a specific character that can be replaced.

또한, 입력된 텍스트의 문자 단위의 범위에 상응하여, 미리 설정된 동작을 수행하도록 특정 캐릭터를 애니메이션하는 단계가 더 포함될 수 있다. 예를 들면 입력된 텍스트의 범위를 지정하여 립싱크 애니메이션과 웃는 모습과 돌아서는 모습을 중복 지정하여, 정해진 텍스트에 대해 웃으면서 말하면서 돌아서는 효과를 지정함으로써 텍스트에 감성을 부여하는 캐릭터 애니메이션 효과를 매우 쉽게 가져오는 단계를 포함할 수 있다.The method may further include animating a specific character to perform a preset operation, corresponding to the range of the character unit of the input text. For example, by specifying the range of the input text, overlapping the lip-sync animation with the smiley face and the turning face, and the character animation effect that gives emotion to the text by specifying the turning effect while laughing and talking about the specified text is very easy. It may include the step of importing.

특정 캐릭터 생성 단계 이후, 미리 작성된 콘텐츠로부터 텍스트 데이터와 프레임 속도(FPS) 데이터를 추출하는 단계 및 텍스트 데이터에 상응하여 프레임 속도 데이터에 동기화되도록 특정 캐릭터를 애니메이션하는 단계가 더 포함될 수 있다. After the specific character generation step, the method may further include extracting text data and frame rate (FPS) data from the pre-written content and animating the specific character to be synchronized with the frame rate data corresponding to the text data.

또한, 본 발명의 다른 측면에 따르면, 표준 캐릭터의 특징부를 중심으로 표준 데이터를 생성하여 저장하는 저장부, 입력된 이미지 정보로부터 이미지의 외곽선 검출을 위해 전처리 이미지를 생성하는 전처리부, 외곽선에서 선택된 기준점과 표준 데이터를 이용하여 부위별 그룹 아이콘을 생성하는 아이콘 생성부 및 부위별 그룹 아이콘을 조합하여 특정 캐릭터를 생성하는 캐릭터 생성부를 포함하는 감성형 캐릭터 및 애니메이션 생성 장치를 제공할 수 있다. According to another aspect of the present invention, a storage unit for generating and storing standard data centering on a feature of a standard character, a preprocessor for generating a preprocessed image for detecting an outline of an image from input image information, and a reference point selected from the outline And an icon generator for generating a group icon for each part using standard data and a character generator for combining a group icon for each part to generate a specific character.

전술한 것 외의 다른 측면, 특징, 잇점이 이하의 도면, 특허청구범위 및 발명의 상세한 설명으로부터 명확해질 것이다.Other aspects, features, and advantages other than those described above will become apparent from the following drawings, claims, and detailed description of the invention.

본 발명에 따른 감성형 캐릭터 및 애니메이션 생성 방법 및 그 장치는 컴퓨 터 부분에 비전문가인 일반 사용자가 매우 쉽게 자신의 캐릭터를 생성가능하고, 동일한 애니메이션 코드를 서로 다른 캐릭터의 애니메이션에 적용하여 작업의 중복성을 줄일 수 있으며, 종래에 개발된 콘텐츠와 연동가능한 애니메이션을 구현할 수 있는 효과가 있다. Emotional character and animation generation method and apparatus according to the present invention can be easily created by the non-expert general user in the computer portion of their own characters, applying the same animation code to the animation of the different characters to duplicate the work It can be reduced, and there is an effect that can implement the animation that can be linked to the previously developed content.

본 발명은 다양한 변경을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시예들을 도면에 예시하고 상세한 설명에 상세하게 설명하고자 한다. 그러나 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.As the invention allows for various changes and numerous embodiments, particular embodiments will be illustrated in the drawings and described in detail in the written description. However, this is not intended to limit the present invention to specific embodiments, it should be understood to include all changes, equivalents, and substitutes included in the spirit and scope of the present invention.

본 명세서에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 명세서에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.The terminology used herein is for the purpose of describing particular embodiments only and is not intended to be limiting of the invention. Singular expressions include plural expressions unless the context clearly indicates otherwise. As used herein, the terms "comprise" or "have" are intended to indicate that there is a feature, number, step, action, component, part, or combination thereof described on the specification, and one or more other features. It is to be understood that the present invention does not exclude the possibility of the presence or the addition of numbers, steps, operations, components, components, or a combination thereof.

다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥 상 가지는 의미와 일치하는 의미를 가지는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.Unless defined otherwise, all terms used herein, including technical or scientific terms, have the same meaning as commonly understood by one of ordinary skill in the art. Terms such as those defined in the commonly used dictionaries should be construed as having meanings consistent with the meanings in the context of the related art and shall not be construed in ideal or excessively formal meanings unless expressly defined in this application. Do not.

또한, 첨부 도면을 참조하여 설명함에 있어, 도면 부호에 관계없이 동일한 구성 요소는 동일한 참조부호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다. 본 발명을 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. In the following description of the present invention with reference to the accompanying drawings, the same components are denoted by the same reference numerals regardless of the reference numerals, and redundant explanations thereof will be omitted. In the following description of the present invention, if it is determined that the detailed description of the related known technology may unnecessarily obscure the subject matter of the present invention, the detailed description thereof will be omitted.

도 1은 본 발명의 실시예에 따른 감성형 캐릭터 및 애니메이션 생성 장치에 대한 블록 구성도이다. 본 실시예에 따른 감성형 캐릭터 및 애니메이션 생성 장치(100)는 저장부(110), 전처리부(120), 아이콘 생성부(130), 캐릭터 생성부(140), 애니메이션 생성부(150), 사용자 인터페이스(160)를 포함할 수 있다. 1 is a block diagram of an apparatus for generating emotional characters and animation according to an embodiment of the present invention. The emotional character and animation generating apparatus 100 according to the present embodiment includes a storage unit 110, a preprocessor 120, an icon generator 130, a character generator 140, an animation generator 150, and a user. It may include an interface 160.

본 실시예는 캐릭터 및 이를 이용한 애니메이션을 생성하기 위해서 미리 저장된 표준 데이터와 실제 대상로부터 추출된 캐릭터 정보를 이용하는데 특징이 있다. 즉, 가상의 표준 캐릭터로부터 표준 데이터를 미리 추출하고 이를 저장한 후 실제 캐릭터화할 대상으로부터 각 부위의 외곽선에서 선택된 기준점과 미리 저장된 표준 데이터를 이용하여 캐릭터의 각 부위별 그룹 아이콘을 생성함으로써 특정 캐릭터를 생성한다. The present embodiment is characterized in using standard data stored in advance and character information extracted from an actual object to generate a character and an animation using the same. In other words, after extracting the standard data from the virtual standard character in advance and storing it, a specific character is generated by creating a group icon for each part of the character using the reference point selected from the outline of each part and the pre-stored standard data from the object to be actualized. Create

각 부위별 그룹 아이콘은 캐릭터의 각 특징을 결정하는 부위, 예를 들면, 얼굴의 경우 눈, 코, 입과 같은 아이콘의 그룹이며, 특정 캐릭터를 표현하는 구성 정보이다. 여기서, 표준 캐릭터와 특정 캐릭터는 사람, 동물, 식물, 가상 캐릭터 등 다양한 객체가 될 수 있으며, 이하에서는 사람의 얼굴을 중심으로 설명한다. The group icon for each part is a group of icons that determine the characteristics of the character, for example, a face, an eye, a nose, and a mouth, and is configuration information representing a specific character. Here, the standard character and the specific character may be various objects such as a person, an animal, a plant, and a virtual character, and the following description will focus on the face of a person.

저장부(110)는 표준 데이터를 저장한다. 표준 데이터는 템플릿 데이터가 될 수 있으며, 표준 캐릭터의 특징부를 중심으로 하여 미리 생성된다. 표준 캐릭터가 사람의 얼굴인 경우, 표준 데이터는 눈, 코, 입, 귀 등과 같이 부위별로 구분될 수 있고, 각 부위는 표준 그룹 아이콘을 포함한다. 즉, 표준 데이터는 부위별 그룹 아이콘을 포함할 수 있다. 예를 들면, 눈 그룹의 경우 눈 밑 주름, 흰자위, 눈동자 테두리 등과 같은 그룹 아이콘을 가질 수 있으며, 입의 경우 입술 라인, 입술 반짝이, 입술 주름 등과 같은 그룹 아이콘을 가질 수 있다. The storage unit 110 stores standard data. The standard data may be template data, and is pre-generated around the features of the standard character. When the standard character is a human face, the standard data may be divided into parts such as eyes, nose, mouth, and ears, and each part includes a standard group icon. That is, the standard data may include a group icon for each part. For example, the eye group may have a group icon such as wrinkles under the eyes, whites, or a border of the eyes, and the mouth group may have a group icon such as lip lines, lip glitter, lip wrinkles, or the like.

또한, 표준 데이터는 표준 캐릭터의 정면, 측면, 후면 데이터를 포함한다. 이러한 정면, 측면, 후면 데이터를 이용하면, 특정 캐릭터를 3D 애니메이션으로 구현할 수 있는 효과가 있다. In addition, the standard data includes the front, side and back data of the standard character. Using this front, side, and back data, there is an effect that can implement a specific character in 3D animation.

전처리부(120)는 입력된 이미지 정보로부터 이미지의 외곽선 검출을 위해 전처리 이미지를 생성한다. 전처리를 하기 위해서는 캐릭터의 정면 이미지 정보가 입력된다. 이미지의 외곽선 검출을 하기 위해서 사진의 이미지에 대해 이진화 또는 특수처리를 한다. 이진화는 여러단계(보통 256)의 컬러값을 0과1의 값으로 낮추는 과정이며, 이진화를 통해 이미지의 에지 정보를 보다 선명하게 할 수 있다. 또한, 특수처리는 컬러 이미지를 그레이 레벨로 변경하거나 외곽선 검출을 실행하는 처리 이다. 특수처리를 하면 외곽선이 추출되어 사용자가 외곽선에 기준점을 선택하기 용이하게 될 수 있다. The preprocessor 120 generates a preprocessed image for detecting an outline of the image from the input image information. In order to preprocess, the front image information of the character is input. In order to detect the outline of the image, the image of the photograph is binarized or specially processed. Binarization is a process of lowering the color values of several stages (usually 256) to 0 and 1 values, and through the binarization, the edge information of the image can be made clearer. In addition, special processing is processing for changing the color image to gray level or performing outline detection. The special processing can extract the outline, which makes it easier for the user to select a reference point on the outline.

아이콘 생성부(130)는 외곽선에서 선택된 기준점과 표준 데이터를 이용하여 입력된 이미지에 대한 부위별 그룹 아이콘을 생성한다. 이미지의 외곽선을 검출 후 그 중에서 특징을 나타낼 수 있는 기준점을 클릭하면, 미리 저장된 부위별 표준 그룹 아이콘을 수정하여 부위별 특정 그룹 아이콘을 생성한다. 여기서, 기준점 클릭은 사용자 인터페이스, 예를 들면, 마우스에 의해 수행될 수 있다. The icon generator 130 generates a group icon for each part of the input image using the reference point selected from the outline and the standard data. After detecting the outline of the image and clicking a reference point that can be characterized, the standard group icon for each part is stored in advance to generate a specific group icon for each part. Here, the reference point click may be performed by a user interface, for example, a mouse.

이 경우 사용자는 이미지의 외곽선 중 모든 점을 선택하지 않고, 특징을 부각할 수 있는 기준점만을 클릭하면, 기준점을 서로 잇는 벡터형 이미지의 패턴이 생성되고, 특정 그룹 아이콘은 표준 그룹 아이콘을 수정하고 재조정함으로써 생성될 수 있다. 패턴 생성의 방법은 클릭된 위치를 중심으로, 저장부(110)에 저장된 미리 설정된 기준에 따라 나머지 포인트를 자동 생성하는 방법이 될 수 있다. 따라서 본 실시예에 따르면, 사용자의 작업이 용이하며, 작업량이 현격히 줄어드는 장점이 있다. In this case, if the user does not select all the points of the image's outline, but only clicks the reference point that can highlight the feature, a pattern of vector images connecting the reference points is created, and the specific group icon modifies and readjusts the standard group icon. Can be generated by The method of generating a pattern may be a method of automatically generating the remaining points based on a preset criterion stored in the storage 110 based on the clicked position. Therefore, according to this embodiment, the user's work is easy, there is an advantage that the amount of work significantly reduced.

여기서, 미리 설정된 기준은 각 부위별 특성에 상응하는 기준이 될 수 있다. 예를 들면, 미리 설정된 기준은 눈 그룹의 경우 기준점 간의 평균점을 생성하거나, 눈의 굴곡을 고려하여 곡선상의 평균점을 생성하는 기준이 될 수 있다. 또한, 세부적 데이터 구성은 표준 데이터 값을 사용하여 현재 생성된 데이터의 크기와 모양을 고려하여 재조정할 수 있다. 예를 들면, 특정 그룹 아이콘이 기준점만을 이어 생성하기 때문에 생길 수 있는 직선, 각진 부분 등은 표준 데이터를 고려하여 재조정함 으로써, 자연스러운 그룹 아이콘이 될 수 있도록 할 수 있다. Here, the preset criteria may be criteria corresponding to the characteristics of each site. For example, the preset criterion may be a criterion for generating an average point between the reference points in the case of the eye group or generating an average point on the curve in consideration of the curvature of the eye. In addition, the detailed data composition can be readjusted using the standard data values, taking into account the size and shape of the currently generated data. For example, straight lines, angled parts, etc., which can be generated because a specific group icon is created only after the reference point, can be re-adjusted in consideration of standard data, thereby making it a natural group icon.

또한, 아이콘 생성부(130)는 상술한 방법에 의해 생성된 정면 데이터를 이용하여 측면 데이터 및 후면 데이터를 생성할 수 있다. 측면 데이터와 후면 데이터도 상술한 바와 같이 부위별 그룹 아이콘을 포함할 수 있다.In addition, the icon generator 130 may generate side data and back data by using the front data generated by the above-described method. As described above, the side data and the back data may include a group icon for each part.

여기서, 표준 데이터의 측면과 후면 데이터는 정면 데이터로부터 떨어진 거리 값으로 구성되어 있으며, 특정 캐릭터의 측면과 후면 데이터도 이러한 거리 정보를 이용하여 구할 수 있다. 즉, 특정 캐릭터의 측면 데이터 및 후면 데이터는 그 정면 데이터를 기초로 하여 표준 데이터의 정면 데이터, 측면 데이터 및 후면 데이터를 참조함으로써 생성될 수 있다. 이러한 데이터 생성 과정은 다음과 같다. 먼저, 특정 캐릭터를 생성하는 경우 상술한 방법에 의해 표준 데이터를 참조하여 특정 캐릭터의 정면 데이터를 생성한다. 이후 표준 데이터의 정면 데이터와 특정 캐릭터의 정면 데이터를 비교하여 차이값을 산출한다. 이후, 표준 데이터의 측면 데이터에 산출된 차이값을 적용하여 특정 캐릭터의 측면 데이터를 생성한다. Here, the side data and the back data of the standard data are composed of distance values away from the front data, and the side and back data of a specific character can also be obtained using the distance information. That is, the side data and the back data of a specific character may be generated by referring to the front data, the side data and the back data of the standard data based on the front data. This data generation process is as follows. First, when generating a specific character, front data of the specific character is generated by referring to the standard data by the above-described method. Then, the difference value is calculated by comparing the front data of the standard data and the front data of the specific character. Then, the difference value calculated on the side data of the standard data is applied to generate the side data of the specific character.

캐릭터 생성부(140)는 부위별 그룹 아이콘을 조합하여 특정 캐릭터를 생성한다. 부위별 그룹 아이콘은 눈 그룹, 코 그룹, 입 그룹, 귀 그룹 등 캐릭터를 생성할 수 있는 구성요소를 모두 포함하고 있으므로, 이들을 조합하여 특정 캐릭터를 생성할 수 있다. The character generator 140 generates a specific character by combining a group icon for each part. Since the group icon for each part includes all the elements that can generate a character such as an eye group, a nose group, a mouth group, and an ear group, a specific character may be generated by combining them.

캐릭터 생성부(140)는 전체 섬세 표현 형식의 캐릭터를 표현할 부위별 그룹 아이콘을 생성한 후 표현 시 그룹 아이콘의 개수를 조절하거나 부위별 그룹 아이콘을 그리는 방법을 달리하여 3차원 캐릭터, 섬세 캐릭터, 실루엣 캐릭터, 만화 캐릭 터 및 단순 캐릭터의 표현 효과를 가져올 수 있다. 사용자는 별도의 제작 작업을 반복적으로 수행하지 않고 이러한 캐릭터 종류를 단순히 선택함으로써 한번 생성된 캐릭터를 사용하여 캐릭터의 효과를 다양하게 표출할 수 있다. 이러한 캐릭터의 종류는 캐릭터의 각 그룹 아이콘을 생략하거나 아이콘을 그리는 방법을 달리하여 구현될 수 있다. 예를 들어, 볼의 표현에 있어서 섬세 모드에서는 4개의 아이콘을 포함한다면 단순 캐릭터의 표출은 1개의 아이콘만으로 표출한다. 단순 캐릭터는 데이터 크기가 작으므로 PDA와 같은 환경에 적용가능한 캐릭터이다.The character generator 140 generates a group icon for each part to express the character of the entire delicate expression type, and then adjusts the number of group icons or draws a group icon for each part to express a 3D character, a delicate character, and a silhouette. It can bring the effects of expression of characters, cartoon characters and simple characters. The user can express various effects of the character by using the character generated once by simply selecting such a character type without repeatedly performing a separate production work. This type of character may be implemented by omitting each group icon of the character or by changing a method of drawing an icon. For example, in the delicate mode in the expression of the ball, if four icons are included, the expression of a simple character is expressed by only one icon. Simple characters are characters that can be applied to environments such as PDAs because of their small data size.

또한, 실루엣 캐릭터의 경우에는 아이콘을 생략 후 아이콘을 이루는 엘리먼트(element)를 채우지 않고 투명도를 약간 가진 라인 스타일로만 구현하고 외곽을 이루는 부분은 더욱 두꺼운 라인으로 그려서 실루엣 느낌을 준다. 이러한 모든 표출 방식을 지정하는 그룹 아이콘의 구성 정보는 미리 생성되어 저장부(100)에 저장될 수 있다. 저장부(100) 내에서 각 표출 방식에 대한 아이콘 정보를 구분하여 포함할 수 있다. 따라서 사용자들이 표출 방식만을 지정함에 따라서 동일한 데이터를 다양한 표출방식으로 사용할 수 있다. 본 실시예는 사용자가 이러한 캐릭터 종류를 선택할 수 있는 캐릭터 종류 선택 수단, 예를 들면, 라디오 버튼, 체크 박스 등을 제공할 수 있다.In addition, in the case of a silhouette character, the icon is omitted, and only the line style with a little transparency is implemented without filling the elements constituting the icon, and the outer part is drawn with a thicker line to give a silhouette feeling. Configuration information of the group icon designating all of these display methods may be generated in advance and stored in the storage unit 100. The storage unit 100 may separately include icon information for each display method. Therefore, as users specify only the presentation method, the same data can be used in various presentation methods. The present embodiment can provide a character type selecting means for allowing the user to select such a character type, for example, a radio button, a check box, and the like.

애니메이션 생성부(150)는 생성된 특정 캐릭터를 이용하여 애니메이션을 생성할 수 있다. 본 실시예에 따르면, 동일한 애니메이션 코드가 서로 다른 캐릭터 표출 방식에 공통으로 적용될 수 있다. 즉, 각 특정 캐릭터의 데이터는 그룹 단위로 구성되어 있고 각 그룹은 세부 모양을 형성하는 아이콘 단위로 구성되어 있으 며, 애니메이션 코드의 구성은 서로 다른 특정 캐릭터를 구별하는 캐릭터 식별자와 각 아이콘에 대해서 아이콘 식별자를 가지고 있기 때문에 이러한 캐릭터 식별자와 아이콘 식별자를 교체하면 다른 캐릭터 및 아이콘이 애니메이션될 수 있다. 따라서 본 실시예에 따르면, 동일한 애니메이션 코드에 다양한 캐릭터 및 아이콘을 교체, 적용할 수 있는 장점이 있다. The animation generator 150 may generate an animation using the generated specific character. According to the present embodiment, the same animation code may be commonly applied to different character expression methods. That is, the data of each specific character is composed of group units, and each group is composed of icon units forming detailed shapes, and the animation code is composed of a character identifier for distinguishing different specific characters and an icon for each icon. Because they have identifiers, swapping these character and icon identifiers can animate other characters and icons. Therefore, according to the present embodiment, there is an advantage in that various characters and icons can be replaced and applied to the same animation code.

이 경우 애니메이션 코드 실행 시에 특정 캐릭터의 데이터에 존재하지 않는 아이콘에 대해서는 애니메이션 코드를 생략하여 실행하므로, 본 고안을 통해서 작성된 애니메이션 코드는 본 고안에 의해서 개발된 모든 표출 방식에서 공통적으로 적용 가능하다. 즉, 프로그램 내에서 애니메이션을 실행할 때 애니메이션 키에 해당하는 특정 캐릭터의 그룹에 아이콘이 감추어져 있거나 삭제되어 있으면 출력하지 않고 스킵하여 실행하므로 동일한 애니메이션 코드의 공동 적용이 가능하다. 애니메이션 코드가 모든 캐릭터에 공통적으로 적용될 수 있는 이유는 모든 캐릭터가 동일한 벡터 데이터 구조를 가지고 있으므로 가능하다. In this case, since an animation code is omitted for an icon that does not exist in the data of a specific character at the time of executing the animation code, the animation code created through the present invention can be commonly applied to all expression methods developed by the present invention. That is, when an animation is executed in a program, if an icon is hidden or deleted in a specific character group corresponding to the animation key, the same animation code can be jointly applied without being outputted. The reason why animation code can be applied to all characters is possible because all characters have the same vector data structure.

또한, 애니메이션 생성부(150)는 입력된 텍스트에 상응하여 상기 특정 캐릭터를 애니메이션할 수 있다. 즉, 애니메이션 생성부(150)는 지정된 문자의 범위에 대해서 애니메이션 코드를 연결함으로써 감성형 캐릭터가 지정된 문자의 위치에서 지정된 애니메이션을 실행하며 립싱크 애니메이션과 조합하여 실행 가능하므로 감성이 표현되는 립싱크 애니메이션 효과도 더불어 가져올 수 있다. In addition, the animation generator 150 may animate the specific character according to the input text. That is, the animation generation unit 150 executes the specified animation at the position of the specified character by connecting the animation code to the range of the specified character, and can be executed in combination with the lip sync animation, so that the lip sync animation effect is expressed. You can bring along.

또한, 다른 실시예에 따르면, 애니메이션 생성부(150)는 미리 작성된 콘텐츠로부터 텍스트 데이터와 프레임 속도(FPS : frame per second)데이터를 추출하고, 프레임 속도 데이터에 특정 캐릭터의 동작을 동기화하고 텍스트 데이터에 상응하여 특정 캐릭터를 애니메이션할 수 있다. 즉, 기존의 애니메이션 프로그램에서 제작된 콘텐츠와 프레임 속도(FPS)를 맞추어 본 실시예에 따른 특정 캐릭터와 그에 따른 애니메이션을 적절하게 배치하여 표출함으로써, 종래 개발된 콘텐츠와 본 실시예에 따른 특정 캐릭터의 자연스러운 연동이 가능하다. In addition, according to another embodiment, the animation generator 150 extracts text data and frame per second (FPS) data from the pre-written content, synchronizes the motion of a specific character to the frame rate data, Correspondingly, you can animate a specific character. In other words, by matching the content produced in the existing animation program with the frame rate (FPS) according to the present embodiment by appropriately arranging and expressing the specific character according to this embodiment, according to the content of the conventionally developed content and the specific character according to the present embodiment Natural linkage is possible.

또한, 애니메이션 실행 시 특정 캐릭터의 데이터 값과 표준 데이터의 값을 비교하여 그 값의 차이가 클 경우 그 차이 값을 자동 적용합니다. 예를 들면, 립싱크 애니메이션의 적용의 경우 애니메이션을 적용하고자 하는 특정 캐릭터의 입 그룹 정보가 표준 데이터의 입 그룹 정보에 비해서 심하게 크거나 작다면 애니메이션 코드 적용 시 그 크기의 비율을 립싱크 애니메이션에 적용하여 보다 특정 캐릭터에 적합한 애니메이션 표출 효과를 가져올 수 있다. In addition, when the animation is executed, the data value of a specific character is compared with that of standard data, and if the difference is large, the difference is automatically applied. For example, in the case of applying the lip sync animation, if the mouth group information of a specific character to be animated is much larger or smaller than the mouth group information of the standard data, the ratio of the size is applied to the lip sync animation when applying the animation code. It can bring the animation expression effect suitable for a specific character.

사용자 인터페이스(160)는 본 실시예를 작동 가능하도록 하는 기구, 화면 배치, 화면 구성 요소 등과 같은 사용자 조작 가능 인터페이스이다. 예를 들면, 사용자는 마우스를 이용하여 이미지의 외곽선에 기준점을 클릭하고, 화면에 표시된 체크 박스를 이용하여 그룹 아이콘을 지정하며, 캐릭터 종류 선택 수단을 이용하여 상술한 캐릭터 종류를 선택할 수 있다. 여기서는 사용자 인터페이스(160)가 마우스, 체크 박스, 캐릭터 종류 선택 수단인 경우를 설명하였으나, 기타 다른 수단으로 구현될 수 있음은 물론이다. The user interface 160 is a user operable interface such as a mechanism, screen layout, screen components, etc. that make the present embodiment operable. For example, a user may click a reference point on an outline of an image using a mouse, designate a group icon using a check box displayed on the screen, and select the above-described character type by using a character type selection means. Here, the case in which the user interface 160 is a mouse, a check box, and a character type selection means has been described, but it can be implemented by other means.

도 2는 본 발명의 실시예에 따른 감성형 캐릭터 및 애니메이션 생성 방법에 대한 흐름도이다.2 is a flowchart illustrating a method of generating an emotional character and animation according to an embodiment of the present invention.

단계 S210에서는, 표준 캐릭터의 특징부를 중심으로 표준 데이터를 생성하여 저장한다. 표준 데이터는 특정 캐릭터 생성 전에 미리 저장되며, 이를 이용하여 특정 캐릭터를 생성할 수 있음은 상술한 바와 같다. In step S210, the standard data is generated and stored based on the feature of the standard character. The standard data is stored in advance before generating a specific character, and as described above, a specific character can be generated using the same.

단계 S220에서는, 입력된 이미지 정보로부터 이미지의 외곽선 검출을 위해 전처리 이미지를 생성한다. 전처리 이미지는 이미지에 대한 이진화 또는 특수처리된 영상이며, 이러한 전처리 과정을 통해서 이미지의 외곽선이 뚜렷하게 도출된다. In operation S220, a preprocessed image is generated to detect an outline of the image from the input image information. The preprocessed image is a binarized or specially processed image of the image, and the outline of the image is clearly derived through this preprocessing process.

단계 S230에서는, 외곽선에서 선택된 기준점과 표준 데이터를 이용하여 부위별 그룹 아이콘을 생성한다. 사용자는 선명하게 표현된 이미지의 외곽선 중에서 특정 점을 선택하고 선택된 기준점은 표준 데이터의 변형에 의해 특정 캐릭터의 부위별 그룹 아이콘을 생성한다. In operation S230, a group icon for each part is generated by using the reference point selected from the outline and the standard data. The user selects a specific point from the outline of the sharply expressed image, and the selected reference point generates a group icon for each part of the specific character by deformation of the standard data.

단계 S240에서는, 부위별 그룹 아이콘을 조합하여 특정 캐릭터를 생성하며, 특정 캐릭터의 종류는 상술한 바와 같이 3차원 캐릭터, 섬세 캐릭터, 실루엣 캐릭터, 만화 캐릭터 및 단순 캐릭터 중 어느 하나의 캐릭터가 될 수 있다. 3차원 캐릭터는 특정 캐릭터의 정면, 측면 및 후면 데이터를 모두 참조하여 형성된 캐릭터이고, 만화 캐릭터는 만화의 특징, 예를 들면, 선이 단조롭고 특징을 부각하는 방식의 캐릭터가 될 수 있다.In step S240, a specific character is generated by combining a group icon for each part, and the type of the specific character may be any one of a three-dimensional character, a delicate character, a silhouette character, a cartoon character, and a simple character as described above. . The three-dimensional character is a character formed by referring to all the front, side, and rear data of a specific character, and the cartoon character may be a character of a cartoon, for example, a method in which lines are monotonous and stand out.

단계 S250에서는, 생성된 특정 캐릭터를 이용하여 애니메이션을 생성한다. 본 실시예에 따른 모든 캐릭터에는 동일한 애니메이션 코드가 적용가능하며, 애니메이션 코드에서 캐릭터 식별자 및 아이콘 식별자를 대체함으로써 동일한 애니메이 션에서 서로 다른 캐릭터 및 아이콘이 실행될 수 있다. In step S250, an animation is generated using the generated specific character. The same animation code can be applied to all characters according to the present embodiment, and different characters and icons can be executed in the same animation by replacing the character identifier and the icon identifier in the animation code.

단계 S255에서는, 애니메이션 실행시 특정 캐릭터에 부위별 그룹 아이콘이 없는 경우에는 해당 아이콘은 스킵하여 애니메이션을 실행함으로써, 실행불능을 해소하고, 동일한 코드를 서로 다른 캐릭터에 적용할 수 있다. In step S255, when the specific character does not have a group icon for each part during the execution of the animation, the icon is skipped to execute the animation, thereby eliminating the inability to apply the same code to the different characters.

이상에서 감성형 캐릭터 및 애니메이션 생성 방법 및 장치를 일반적으로 도시한 블록 구성도 및 흐름도를 설명하였으며, 이하에서는 첨부 도면을 참조하여, 본 발명에 따른 감성형 캐릭터 및 애니메이션 생성 방법 및 장치를 구체적인 실시예를 기준으로 설명하기로 한다. 본 발명이 이러한 실시예에 한정되지 않음은 당연하다.In the above description, a block diagram and a flowchart of a method and apparatus for generating an emotional character and animation have been described in general. Hereinafter, a method and apparatus for generating an emotional character and animation according to the present invention will be described with reference to the accompanying drawings. It will be described based on. It is obvious that the present invention is not limited to these examples.

도 3은 본 발명의 실시예에 따른 전처리 이미지 및 기준점을 도시한 도면이다. 도 3을 참조하면, 원본 이미지(a)와 전처리 이미지(b)가 도시된다. 3 illustrates a preprocessing image and a reference point according to an embodiment of the present invention. Referring to FIG. 3, an original image a and a preprocessed image b are shown.

원본 이미지(a)는 캐릭터화할 대상 이미지이며, 이러한 원본 이미지(a)를 이진화하거나 그레이 레벨을 조절하여 전처리 이미지(b)를 생성한다. 전처리 이미지(b)는 이미지의 외곽선을 강조되어 표현되므로, 사용자가 외곽선 중 상술한 기준점을 선택하기 용이하다. 도 3을 참조하면, 전처리 이미지(b)의 눈의 외곽선을 따라 기준점(310)이 선택된다. The original image (a) is a target image to be characterized, and the preprocessed image (b) is generated by binarizing the original image (a) or adjusting the gray level. Since the preprocessing image b is represented by emphasizing the outline of the image, it is easy for a user to select the above-described reference point among the outlines. Referring to FIG. 3, the reference point 310 is selected along the outline of the eye of the preprocessed image b.

도 4는 본 발명의 실시예에 따른 그룹 아이콘을 도시한 도면이다. 도 4를 참조하면, 표현될 캐릭터의 얼굴 중 눈에 대한 그룹 아이콘이 도시된다. 눈 그룹의 그룹 아이콘은 눈 밑 주름, 흰자위, 눈동자 테두리, 홍채 동공, 눈 반짝이, 눈두덩(아이새도우), 쌍꺼풀, 아래 속눈썹, 위속눈썹을 포함할 수 있다. 이러한 그룹 아이콘은 전처리 이미지(b)에서 선택된 기준점과 미리 저장된 표준 데이터를 참조하여 생성된다. 즉, 도 3에서 선택된 기준점을 참고로 하여, 미리 저장된 표준 데이터의 그룹 아이콘을 변형함으로써 특정 캐릭터의 그룹 아이콘을 생성할 수 있음은 상술한 바와 같다. 4 is a diagram illustrating a group icon according to an embodiment of the present invention. Referring to FIG. 4, a group icon for an eye of a face of a character to be represented is shown. Group icons in the eye group may include sub-fold wrinkles, whites, pupil rims, iris pupils, eye glitter, eyelids, eyelids, lower lashes, and eyelashes. Such a group icon is generated with reference to the reference point selected in the preprocessing image b and the pre-stored standard data. That is, as described above, the group icon of the specific character can be generated by modifying the group icon of the pre-stored standard data with reference to the reference point selected in FIG. 3.

도 5는 본 발명의 실시예에 따른 감성형 캐릭터 및 애니메이션을 도시한 도면이다. 도 5를 참조하면, 동일한 문장을 실시간으로 표정을 바꾸면서 립싱크 애니메이션을 실행하는 화면이 도시된다. 5 is a diagram illustrating an emotional character and animation according to an embodiment of the present invention. Referring to FIG. 5, a screen for executing a lip sync animation while changing a facial expression of the same sentence in real time is illustrated.

웃으면서 립싱크하는 캐릭터(a)와 화내면서 립싱크하는 캐릭터(b)는 서로 동일한 문장을 립싱크하고 있다. 이러한 화면은 본 실시예가 동일한 애니메이션 코드를 서로 다른 캐릭터, 동일 캐릭터의 다른 표정, 립싱크 형태에 적용가능함을 표현한다. The character a lip-syncing while laughing and the character b lip-syncing with anger are lip-syncing the same sentence. This screen expresses that the present embodiment is applicable to the same animation code for different characters, different expressions of the same character, and lip sync.

본 실시예에 따르면, 특정 캐릭터가 특정 문자에 대해 립싱크를 진행하면서 표정, 동작 등과 관련된 지정된 애니메이션 코드를 더불어 실행함으로써, 단순히 정해진 문자열에 대해서 립싱크 애니메이션만 실행하는 것이 아니라 감성 전달을 가능하게 할 수 있는 효과가 있다. 예를 들면, 입력된 텍스트의 범위를 지정하여 립싱크 애니메이션과 웃는 모습 및 돌아서는 모습을 중복 지정하면, 특정 캐릭터가 정해진 텍스트에 대해 웃는 동시에 말하면서 돌아서는 애니메이션이 생성될 수 있 으므로, 본 실시예는 텍스트에 감성을 부여하는 캐릭터 애니메이션 효과가 있다. According to the present embodiment, by carrying out a specified animation code related to facial expressions, motions, etc. while performing a lip syncing on a specific character, a specific character may not only execute a lip syncing animation for a predetermined character string but also may transmit emotions. It works. For example, if the lip sync animation and the smiley face and the faceless face are specified by specifying a range of input text, a specific character smiles and talks about the determined text, and thus, a turning animation may be generated. It has a character animation effect that gives emotion to the text.

플래쉬로 제작된 콘텐츠를 본 실시예에 따라 감성형 애니메이션 캐릭터와 연동하여 애니메이션하는 과정을 설명하면, 먼저, 플래쉬로 제작된 콘텐츠에서 텍스트 데이터와 프레임 데이터를 추출하고, 본 실시예에 따라 추출된 텍스트의 범위를 선정하여 애니메이션 코드를 지정한다. 이후 본 실시예에 따른 플레이어에서 프레임의 위치와 FPS 동기를 제작된 콘텐츠와 맞추고 애니메이션을 실행한다. 즉, 본 실시예에 따른 플레이어에서 플래쉬로 만들어진 파일을 호출한 후 데이터를 추출하여 본 실시예에 따른 애니메이션과 연동하여 재생함으로써, 종래 콘텐츠를 본 실시예에 적용할 수 있다. Referring to the process of animate the content produced by flash in conjunction with the emotional animation character according to the present embodiment, first, the text data and frame data is extracted from the content produced by the flash, the extracted text according to the present embodiment Specify the animation code by selecting the range of. Then, the player according to the present embodiment matches the position of the frame and the FPS synchronization with the produced content and executes the animation. That is, by calling the file made of flash in the player according to the present embodiment and extracting the data to play in conjunction with the animation according to the present embodiment, the conventional content can be applied to this embodiment.

이-러닝, 유-러닝 분야에서 강의를 진행하는 강사 표현에 있어서, 기존의 방법에 있어서는 정지된 사진이나 엔코딩된 동영상 파일을 첨부하여 콘텐츠의 내용과 강사의 연결이 매우 부자연스럽고 그 한계가 컸으나, 본 실시예에 따르면, 강사의 캐릭터와 콘텐츠의 자연스러운 연동을 가져올 수 있다.In the expression of instructors in lectures in the field of e-learning and u-learning, in the conventional method, the contents of the content and the instructor were very unnatural and the limits were large by attaching still pictures or encoded video files. According to this embodiment, it is possible to bring natural linkage between the character of the instructor and the content.

그 외 본 발명의 실시예에 따른 감성형 캐릭터 및 애니메이션 생성 장치에 대한 구체적인 시스템 형태, 임베디드 시스템, O/S 등의 공통 플랫폼 기술과 통신 프로토콜, I/O 인터페이스 등 인터페이스 표준화 기술 등에 대한 구체적인 설명은 본 발명이 속하는 기술 분야의 통상의 지식을 가진 자에게 자명한 사항이므로 생략하기로 한다.In addition, a detailed description of a system type, an embedded system, a common platform technology such as an embedded system, an O / S, an interface standardization technology such as an I / O interface, etc. As it is obvious to those skilled in the art, the present invention will be omitted.

상술한 본 발명의 실시예에 따른 감성형 캐릭터 및 애니메이션 생성 방법은 기록매체에 저장된 후 소정의 장치, 예를 들면, 이동 통신 단말기와 결합하여 수행될 수 있다. 여기서, 기록매체는 하드 디스크, 비디오 테이프, CD, VCD, DVD와 같은 자기 또는 광 기록매체이거나 또는 오프라인 또는 온라인 상에 구축된 클라이언트 또는 서버 컴퓨터의 데이터베이스일 수도 있다.Emotional character and animation generation method according to an embodiment of the present invention described above may be performed in combination with a predetermined device, for example, a mobile communication terminal after being stored in the recording medium. Here, the recording medium may be a magnetic or optical recording medium such as a hard disk, a video tape, a CD, a VCD, a DVD, or a database of a client or server computer built offline or online.

상기한 바에서, 본 발명의 실시예에 따른 감성형 캐릭터 및 애니메이션 생성 방법 및 그 장치는 캐릭터 및 애니메이션의 구성을 일 실시예에 따라 기술하였으나, 반드시 이에 한정될 필요는 없고, 다른 명칭의 객체를 생성하거나 코드를 달리 구성하여 방법을 구현하는 경우라도 전체적인 작용 및 효과에는 차이가 없다면 이러한 다른 구성은 본 발명의 권리범위에 포함될 수 있으며, 해당 기술 분야에서 통상의 지식을 가진 자라면 하기의 특허 청구의 범위에 기재된 본 발명의 사상 및 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다.In the above, the emotional character and animation generation method and apparatus according to an embodiment of the present invention described the configuration of the character and animation in accordance with an embodiment, but is not necessarily limited to this, and an object of another name Even if the method is implemented by generating or otherwise configuring the code, if there is no difference in the overall operation and effect, such other configuration may be included in the scope of the present invention, and those skilled in the art may claim It will be understood that various modifications and changes can be made in the present invention without departing from the spirit and scope of the invention as set forth in the claims.

도 1은 본 발명의 실시예에 따른 감성형 캐릭터 및 애니메이션 생성 장치에 대한 블록 구성도. 1 is a block diagram of an emotional character and animation generating apparatus according to an embodiment of the present invention.

도 2는 본 발명의 실시예에 따른 감성형 캐릭터 및 애니메이션 생성 방법에 대한 흐름도.2 is a flowchart illustrating a method for generating an emotional character and animation according to an embodiment of the present invention.

도 3은 본 발명의 실시예에 따른 전처리 이미지 및 기준점을 도시한 도면. 3 illustrates a preprocessing image and a reference point according to an embodiment of the invention.

도 4는 본 발명의 실시예에 따른 그룹 아이콘을 도시한 도면. 4 illustrates a group icon according to an embodiment of the invention.

도 5는 본 발명의 실시예에 따른 감성형 캐릭터 및 애니메이션을 도시한 도면. 5 is a diagram illustrating an emotional character and animation according to an embodiment of the present invention.

<도면의 주요부분에 대한 부호의 설명><Description of the symbols for the main parts of the drawings>

100 : 감성형 캐릭터 및 애니메이션 생성 장치100: emotional character and animation generating device

110 : 저장부 120 : 전처리부110: storage unit 120: preprocessing unit

130 : 아이콘 생성부 140 : 캐릭터 생성부130: icon generator 140: character generator

150 : 애니메이션 생성부 160 : 사용자 인터페이스150: animation generator 160: user interface

310 : 기준점310: reference point

Claims (8)

표준 캐릭터의 특징부를 중심으로 표준 데이터를 생성하여 저장하는 단계;Generating and storing standard data based on a feature of the standard character; 입력된 이미지 정보로부터 이미지의 외곽선 검출을 위해 전처리 이미지를 생성하는 단계;Generating a preprocessed image for detecting an outline of the image from the input image information; 상기 외곽선에서 선택된 기준점과 상기 표준 데이터를 이용하여 부위별 그룹 아이콘을 생성하는 단계; 및Generating a group icon for each part using the reference point selected from the outline and the standard data; And 상기 부위별 그룹 아이콘을 조합하여 특정 캐릭터를 생성하는 단계를 포함하는 감성형 캐릭터 및 애니메이션 생성 방법. Emotional character and animation generation method comprising the step of generating a specific character by combining the group icon for each part. 제1항에 있어서, The method of claim 1, 상기 특정 캐릭터 생성 단계 이후에,After the specific character generation step, 상기 생성된 특정 캐릭터에 동일한 애니메이션 코드를 적용하여 애니메이션을 생성하는 단계를 더 포함하는 감성형 캐릭터 및 애니메이션 생성 방법. Emotional character and animation generation method further comprising the step of generating an animation by applying the same animation code to the generated specific character. 제1항에 있어서, The method of claim 1, 상기 특정 캐릭터 생성 단계는, The specific character generation step, 상기 특정 캐릭터의 구성 정보에 상응하여 생성된 상기 부위별 그룹 아이콘의 개수를 조절하거나 상기 부위별 그룹 아이콘을 그리는 방법을 달리하여 3차원 캐릭터, 섬세 캐릭터, 실루엣 캐릭터, 만화 캐릭터 및 단순 캐릭터 중 어느 하나 이상의 캐릭터를 사용자 선택에 의해 생성하는 것을 특징으로 하는 감성형 캐릭터 및 애니메이션 생성 방법. Any one of a three-dimensional character, a delicate character, a silhouette character, a cartoon character, and a simple character by adjusting the number of the group icon for each part generated according to the configuration information of the specific character or changing the method for drawing the group icon for each part Emotional character and animation generation method characterized by generating the above character by user selection. 제1항에 있어서, The method of claim 1, 상기 특정 캐릭터 생성 단계 이후에,After the specific character generation step, 상기 부위별 그룹 아이콘에 상응하는 아이콘 식별자를 포함하는 애니메이션 코드 실행 시 없는 상기 부위별 그룹 아이콘에는 상기 애니메이션 코드를 적용하지 않고 스킵하는 단계를 더 포함하는 것을 특징으로 하는 감성형 캐릭터 및 애니메이션 생성 방법. Emotional character and animation generation method further comprising the step of skipping without applying the animation code to the group icon for each part when the animation code including the icon identifier corresponding to the group icon for each part. 제2항에 있어서, The method of claim 2, 상기 애니메이션 코드는 교체가능한 상기 특정 캐릭터의 캐릭터 식별자를 더 포함하는 것을 특징으로 하는 감성형 캐릭터 및 애니메이션 생성 방법. And the animation code further comprises a character identifier of the specific character that is replaceable. 제1항에 있어서, The method of claim 1, 입력된 텍스트의 문자 단위의 범위에 상응하여, 미리 설정된 복수의 동작을 수행하도록 상기 특정 캐릭터를 애니메이션하는 단계를 더 포함하는 것을 특징으로 하는 감성형 캐릭터 및 애니메이션 생성 방법. And animating the specific character so as to perform a plurality of preset operations corresponding to a range of character units of the input text. 제1항에 있어서,The method of claim 1, 상기 특정 캐릭터 생성 단계 이후, After the specific character generation step, 미리 작성된 콘텐츠로부터 텍스트 데이터와 프레임 속도(FPS) 데이터를 추출하는 단계; 및Extracting text data and frame rate (FPS) data from pre-written content; And 상기 텍스트 데이터에 상응하여 상기 프레임 속도 데이터에 동기화되도록 상기 특정 캐릭터를 애니메이션하는 단계를 더 포함하는 것을 특징으로 하는 감성형 캐릭터 및 애니메이션 생성 방법. And animating the specific character so as to be synchronized with the frame rate data in correspondence with the text data. 표준 캐릭터의 특징부를 중심으로 표준 데이터를 생성하여 저장하는 저장부;A storage unit which generates and stores standard data based on a feature of the standard character; 입력된 이미지 정보로부터 이미지의 외곽선 검출을 위해 전처리 이미지를 생성하는 전처리부;A preprocessor configured to generate a preprocessed image for detecting an outline of the image from the input image information; 상기 외곽선에서 선택된 기준점과 상기 표준 데이터를 이용하여 부위별 그룹 아이콘을 생성하는 아이콘 생성부; 및An icon generator which generates a group icon for each part using the reference point selected from the outline and the standard data; And 상기 부위별 그룹 아이콘을 조합하여 특정 캐릭터를 생성하는 캐릭터 생성부를 포함하는 감성형 캐릭터 및 애니메이션 생성 장치. Emotional character and animation generating device comprising a character generator for generating a specific character by combining the group icon for each part.
KR1020080107676A 2008-10-31 2008-10-31 Method and Apparatus for making sensitive character and animation KR100965622B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020080107676A KR100965622B1 (en) 2008-10-31 2008-10-31 Method and Apparatus for making sensitive character and animation

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020080107676A KR100965622B1 (en) 2008-10-31 2008-10-31 Method and Apparatus for making sensitive character and animation

Publications (2)

Publication Number Publication Date
KR20100048490A true KR20100048490A (en) 2010-05-11
KR100965622B1 KR100965622B1 (en) 2010-06-23

Family

ID=42275247

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020080107676A KR100965622B1 (en) 2008-10-31 2008-10-31 Method and Apparatus for making sensitive character and animation

Country Status (1)

Country Link
KR (1) KR100965622B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20160010810A (en) 2014-07-18 2016-01-28 (주)참빛솔루션 Realistic character creation method and creating system capable of providing real voice

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100327541B1 (en) * 2000-08-10 2002-03-08 김재성, 이두원 3D facial modeling system and modeling method
KR20030023291A (en) * 2001-09-13 2003-03-19 주식회사 조이퍼스트 Method and apparatus for automatically manufacturing charactor
KR20060040118A (en) * 2004-11-04 2006-05-10 이성혜 Method and appartus for producing customized three dimensional animation and system for distributing thereof
KR100912877B1 (en) * 2006-12-02 2009-08-18 한국전자통신연구원 A mobile communication terminal having a function of the creating 3d avata model and the method thereof

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20160010810A (en) 2014-07-18 2016-01-28 (주)참빛솔루션 Realistic character creation method and creating system capable of providing real voice

Also Published As

Publication number Publication date
KR100965622B1 (en) 2010-06-23

Similar Documents

Publication Publication Date Title
WO2022048403A1 (en) Virtual role-based multimodal interaction method, apparatus and system, storage medium, and terminal
US8988436B2 (en) Training system and methods for dynamically injecting expression information into an animated facial mesh
KR102503413B1 (en) Animation interaction method, device, equipment and storage medium
US10860838B1 (en) Universal facial expression translation and character rendering system
CN110390704B (en) Image processing method, image processing device, terminal equipment and storage medium
KR101306221B1 (en) Method and apparatus for providing moving picture using 3d user avatar
US20120130717A1 (en) Real-time Animation for an Expressive Avatar
CN108942919B (en) Interaction method and system based on virtual human
WO2021248473A1 (en) Personalized speech-to-video with three-dimensional (3d) skeleton regularization and expressive body poses
KR101743763B1 (en) Method for providng smart learning education based on sensitivity avatar emoticon, and smart learning education device for the same
US11968433B2 (en) Systems and methods for generating synthetic videos based on audio contents
US20210166461A1 (en) Avatar animation
JP2011159329A (en) Automatic 3d modeling system and method
Kacorri TR-2015001: A survey and critique of facial expression synthesis in sign language animation
CN114222076A (en) Face changing video generation method, device, equipment and storage medium
KR20160010810A (en) Realistic character creation method and creating system capable of providing real voice
KR100965622B1 (en) Method and Apparatus for making sensitive character and animation
CN115376487A (en) Control method of digital human, model training method and device
CN114898019A (en) Animation fusion method and device
WO2021155666A1 (en) Method and apparatus for generating image
Chen et al. Animating lip-sync characters with dominated animeme models
CN112750184A (en) Data processing, action driving and man-machine interaction method and equipment
TWI814318B (en) Method for training a model using a simulated character for animating a facial expression of a game character and method for generating label values for facial expressions of a game character using three-imensional (3d) image capture
US20220408031A1 (en) Systems and Methods for Video Editing and Effects
CN117372577A (en) Method and device for generating mouth shape image of virtual object

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20130614

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20140630

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20160523

Year of fee payment: 7

LAPS Lapse due to unpaid annual fee