KR20160010810A - 실음성 표출 가능한 실사형 캐릭터 생성 방법 및 생성 시스템 - Google Patents

실음성 표출 가능한 실사형 캐릭터 생성 방법 및 생성 시스템 Download PDF

Info

Publication number
KR20160010810A
KR20160010810A KR1020140091131A KR20140091131A KR20160010810A KR 20160010810 A KR20160010810 A KR 20160010810A KR 1020140091131 A KR1020140091131 A KR 1020140091131A KR 20140091131 A KR20140091131 A KR 20140091131A KR 20160010810 A KR20160010810 A KR 20160010810A
Authority
KR
South Korea
Prior art keywords
character
animation
voice
user
present
Prior art date
Application number
KR1020140091131A
Other languages
English (en)
Inventor
김영자
Original Assignee
(주)참빛솔루션
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by (주)참빛솔루션 filed Critical (주)참빛솔루션
Priority to KR1020140091131A priority Critical patent/KR20160010810A/ko
Publication of KR20160010810A publication Critical patent/KR20160010810A/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Systems or methods specially adapted for specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/203D [Three Dimensional] animation
    • G06T13/403D [Three Dimensional] animation of characters, e.g. humans, animals or virtual beings

Abstract

본 발명은 사용자가 원하는 캐릭터나 애니메이션 또는 사용자의 자신의 사진을 선택하고 선택된 대상을 통해 실음성이 표출될 수 있도록 하여 학습 콘텐츠 등 다양한 콘텐츠에 적용할 수 있는 실음성 표출 가능한 실사형 캐릭터 생성 방법 및 생성 시스템을 제공하는데 그 목적이 있다. 상기 목적을 달성하기 위한 본 발명은 캐릭터와 애니메이션, 표준 음성이 삽입된 이모티콘을 미리 생성하여 템플릿 콘텐츠를 DB에 데이터베이스화(DB화) 하는 단계; 사용자 캐릭터 또는 사용자 사진 또는 일반 캐릭터 중에서 선택된 표출대상을 생성하는 단계; 표정 또는 립싱크 애니메이션이 포함된 템플릿 콘텐츠를 선택하는 단계; 상기 템플릿 콘텐츠를 상기 생성된 캐릭터로 변환시키는 단계; 사용자 음성과 같이 외부 음성(실음성)이 입력되면, 입력된 음성 데이터를 파싱하여 립싱크 애니메이션을 실행(즉, 생성된 표출대상이 주체가 되어 립싱크 및 애니메이션을 실행)하는 것을 포함한다. 여기에서, 외부 음성이 입력되지 않으면 표준음성 애니메이션을 실행한다.

Description

실음성 표출 가능한 실사형 캐릭터 생성 방법 및 생성 시스템{REALISTIC CHARACTER CREATION METHOD AND CREATING SYSTEM CAPABLE OF PROVIDING REAL VOICE }
본 발명은 실사형 캐릭터 생성 방법 및 생성 시스템에 관한 것으로, 더욱 상세하게는 사용자가 원하는 캐릭터나 애니메이션 또는 사용자의 자신의 사진을 선택하고 선택된 대상을 통해 실음성이 표출될 수 있도록 하여 학습 콘텐츠 등 다양한 콘텐츠에 적용할 수 있는 실음성 표출 가능한 실사형 캐릭터 생성 방법 및 생성 시스템에 관한 것이다.
현재 컴퓨터 및 전자 기기의 발전 및 일상화에 따라 그 내용을 이루는 콘텐츠의 중요성이 더욱 강조되고 있다. 특히, 콘텐츠에 포함되는 캐릭터 또는 애니메이션에 대한 기술은 영상 기술의 발전과 더불어 응용 분야가 매우 큰 기술이다. 예를 들면, 캐릭터와 애니메이션은 E-러닝, 블러그/홈페이지, 메신저, 홍보/안내 시스템과 분야에 다양하게 적용될 수 있다.
종래 기술에 따르면, 대부분의 캐릭터 제작과 애니메이션 생성은 플래쉬(FLASH)나 3D MAX와 같은 범용그래픽 프로그램을 이용하고 있다. 이 중 플래쉬는 다양한 애니메이션 효과를 매우 쉽게 구현 가능한 장점을 가지고 있으며, 생성된 데이터 크기도 작고 스크립트와 같은 프로그램 기능 지원도 가능하다. 하지만 플래쉬는 캐릭터 애니메이션 전용 툴이 아니므로 캐릭터를 콘텐츠에 삽입한 후 자연스런 립싱크 구현이 불가능하고 캐릭터 애니메이션을 다양하게 구현하기에는 매우 어렵다. 즉, 이러한 범용그래픽 프로그램을 이용하여 생성된 캐릭터와 애니메이션은 사용자가 상황에 맞게 변경가능한 형태로 제작되지 않으므로, 실제 상황을 표현하기에는 어려운 점이 있다.
또한, 대학이나 연구소에서 모델의 사진을 분석하여 자동으로 얼굴의 특징을 검출하는 기술 등을 발표하였으나 실제로 모델 사진을 사용하여 영상 특징을 검출 방법은 빛에 의한 영향 때문에 불특정 다수의 사진에 대하여 캐릭터의 특징을 제대로 살리는 영상을 얻는다는 것은 어려운 문제점이 있다. 따라서 다양한 분야에 적용가능하며, 손쉽게 캐릭터 및 애니메이션을 제작할 수 있는 장치에 대한 필요성이 대두되고 있다
예를 들어, 대한민국 공개특허공보 제10-2010-0028689호(문헌 1)를 보면, 개인 실시 캐릭터를 생성하고, 사용자에 의해 선택된 배경, 액자 및 타 사용자의 개인 실사 개릭터 등을 합성하기 위한 개인 실시 캐릭터 생성 시스템 및 그 방법을 제안하고 있다.
또한, 본 발명의 발명자는 "감성형 캐릭터 및 애니메이션 생성 방법 및 장치"라는 명칭으로 출원한바 있다(특허출원 제10-2008-0107676호)(문헌 1). 본 특허출원에서는 컴퓨터 부분에 비전문가인 일반 사용자가 쉽게 자신의 캐릭터를 생성할 수 있는 방법에 대하여 제안하였다.
그러나 이러한 종래 기술은 화면에 디스플레이되는 캐릭터나 애니메이션으로 국한되어 있어 다양한 콘텐츠를 제공하는데 한계가 따르는 문제점이 있다.
대한민국 공개특허공보 제10-2010-0048490호(2010.05.11) 대한민국 공개특허공보 제10-2010-0028689호(2010.03.15)
따라서, 본 발명은 상기한 종래의 문제점들을 해결하기 위하여 제안된 것으로서, 사용자가 원하는 캐릭터나 애니메이션 또는 사용자의 자신의 사진을 선택하고 선택된 대상을 통해 실음성이 표출될 수 있도록 하여 학습 콘텐츠 등 다양한 콘텐츠에 적용할 수 있는 실음성 표출 가능한 실사형 캐릭터 생성 방법 및 생성 시스템을 제공하는데 그 목적이 있다.
본 발명의 해결과제는 이상에서 언급한 것들에 한정되지 않으며, 언급되지 아니한 다른 해결과제들은 아래의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.
상기한 목적들 및 다른 특징들을 달성하기 위한 본 발명의 일 관점에 따르면, 캐릭터와 애니메이션, 표준 음성이 삽입된 이모티콘을 미리 생성하여 템플릿 콘텐츠를 DB에 데이터베이스화(DB화) 하는 단계; 사용자 캐릭터 또는 사용자 사진 또는 일반 캐릭터 중에서 선택된 표출대상을 생성하는 단계; 표정 또는 립싱크 애니메이션이 포함된 템플릿 콘텐츠를 선택하는 단계; 상기 템플릿 콘텐츠를 상기 생성된 캐릭터로 변환시키는 단계; 및 사용자 음성과 같이 외부 음성이 입력되면, 입력된 음성 데이터를 파싱하여 립싱크 애니메이션을 실행하는 것을 포함하며, 상기 표출대상생성은 일반 캐릭터, 사용자 캐릭터 또는 사용자 사진을 선택하여 생성되는 실음성 표출 가능한 실사형 캐릭터 생성 방법이 제공된다.
본 발명에 따른 실음성 표출 가능한 실사형 캐릭터 생성 방법 및 생성 시스템은, 사용자가 원하는 캐릭터나 애니메이션 또는 사용자의 자신의 사진을 선택하고 선택된 대상을 통해 실음성이 표출될 수 있는 청각적 효과도 제공하여 학습 콘텐츠 등 다양한 콘텐츠에 적용할 수 있으며, 이에 따라 캐릭터 등을 이용하는 IT산업 전반의 시장 활성화에 기여할 수 있는 효과가 있다.
본 발명의 효과는 이상에서 언급된 것들에 한정되지 않으며, 언급되지 아니한 다른 해결과제들은 아래의 기재로부터 당업자에게 명확하게 이해되어 질 수 있을 것이다.
도 1은 본 발명의 일 실시 예의 실사형 캐릭터 생성 방법을 도시한 플로차트이다.
도 2는 본 발명의 다른 실시 예의 실사형 캐릭터 생성 방법을 도시한 플로차트이다.
도 3은 본 발명의 또 다른 실시 예의 실사형 캐릭터 생성 방법을 도시한 플로차트이다.
본 발명의 추가적인 목적들, 특징들 및 장점들은 다음의 상세한 설명 및 첨부도면으로부터 보다 명료하게 이해될 수 있다.
본 발명의 상세한 설명에 앞서, 본 발명은 다양한 변경을 도모할 수 있고, 여러 가지 실시 예를 가질 수 있는바, 아래에서 설명되고 도면에 도시된 예시들은 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.
어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다.
본 명세서에서 사용한 용어는 단지 특정한 실시 예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도는 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 명세서에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.
또한, 명세서에 기재된 "...부", "...유닛", "...모듈" 등의 용어는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미할 수 있다.
또한, 첨부 도면을 참조하여 설명함에 있어, 도면 부호에 관계없이 동일한 구성 요소는 동일한 참조부호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다. 본 발명을 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다.
이하 본 발명의 바람직한 실시 예에 따른 실음성 표출 가능한 실사형 캐릭터 생성 방법 및 생성 시스템에 대하여 설명한다.
본 발명에 따른 실사형 캐릭터 생성 방법은 크게 세 가지 실시 예, 즉 첫째, 사용자 음성이 입력되는 경우에서 이모티콘 생성과 학습콘텐츠를 생성하는 방법; 둘째, 학습자의 캐릭터와 음성이 입력되는 경우에서 학습 콘텐츠를 생성하는 방법; 셋째, DID(Digital Information Display) 시스템 기반에서 사용자의 캐릭터로 콘텐츠를 생성하여 인쇄/전송하는 방법으로 구분된다.
먼저, 본 발명에 따른 실음성 표출 가능한 실사형 캐릭터 생성 방법에서 일 실시 예를 도 1 내지 도 3을 참조하여 설명한다.
먼저, 본 발명의 일 실시 예의 실사형 캐릭터 생성 방법에 대하여 도 1을 참조하여 설명한다. 도 1은 본 발명의 일 실시 예의 실사형 캐릭터 생성 방법을 도시한 플로차트이다.
본 발명의 일 실시 형태는 사용자의 음성이 입력되는 경우, 이를 통해 이모티콘 등의 애니메이션이나 사용자 사진에 삽입하여 실음성 표출이 가능하도록 한 실시 형태이다.
구체적으로, 도 1에 도시된 바와 같이, 캐릭터와 애니메이션, 표준 음성이 삽입된 이모티콘을 미리 생성하여 템플릿 콘텐츠를 DB에 데이터베이스화(DB화) 하는 단계; 사용자 캐릭터 또는 사용자 사진 또는 일반 캐릭터 중에서 선택된 표출대상을 생성하는 단계; 표정 또는 립싱크 애니메이션이 포함된 템플릿 콘텐츠를 선택하는 단계; 상기 템플릿 콘텐츠를 상기 생성된 캐릭터로 변환시키는 단계; 사용자 음성과 같이 외부 음성(실음성)이 입력되면, 입력된 음성 데이터를 파싱하여 립싱크 애니메이션을 실행(즉, 생성된 표출대상이 주체가 되어 립싱크 및 애니메이션을 실행)하는 것을 포함한다. 여기에서, 외부 음성이 입력되지 않으면 표준음성 애니메이션을 실행한다.
여기에서, 상기 표출대상생성은 일반 캐릭터, 사용자 캐릭터 또는 사용자 사진을 선택하여 생성할 수 있다.
이때, 사용자 캐릭터를 선택하여 생성할 시에는 사진을 분석하고 캐릭터를 생성하는 과정을 거치게 되며, 사용자 사진을 선택하여 생성할 시에는 선택된 사진을 기초하여 얼굴영역을 추출하고 눈, 코 및 입의 위치를 자동으로 파악하는 과정을 거치게 된다.
구체적으로 캐릭터 또는 애니메이션을 생성하기 위해서 미리 저장된 표준 데이터와 실제 대상(사용자 사진)으로부터 추출된 캐릭터 정보를 이용하는데 특징이 있다. 즉, 가상의 표준 캐릭터로부터 표준 데이터를 미리 추출하고 이를 저장한 후 실제 캐릭터화할 대상으로부터 각 부위의 외곽선에서 선택된 기준점과 미리 저장된 표준 데이터를 이용하여 캐릭터의 각 부위별 그룹 아이콘을 생성함으로써 특정 캐릭터나 실제 사진의 애니메이션을 생성한다.
특히, 사용자 캐릭터의 경우에 있어서 각 부위별 그룹 아이콘은 캐릭터의 각 특징을 결정하는 부위, 예를 들면, 얼굴의 경우 눈, 코, 입과 같은 아이콘의 그룹이며, 특정 캐릭터를 표현하는 구성 정보이다. 여기서, 표준 캐릭터와 특정 캐릭터는 사람, 동물, 식물, 가상 캐릭터 등 다양한 객체가 될 수도 있다.
본 발명에서 표준 데이터는 템플릿 데이터가 될 수 있으며, 표준 캐릭터의 특징부를 중심으로 하여 미리 생성된다. 표준 캐릭터가 사람의 얼굴인 경우, 표준 데이터는 눈, 코, 입, 귀 등과 같이 부위별로 구분될 수 있고, 각 부위는 표준 그룹 아이콘을 포함한다. 즉, 표준 데이터는 부위별 그룹 아이콘을 포함할 수 있다. 예를 들면, 눈 그룹의 경우 눈 밑 주름, 흰자위, 눈동자 테두리 등과 같은 그룹 아이콘을 가질 수 있으며, 입의 경우 입술 라인, 입술 반짝이, 입술 주름 등과 같은 그룹 아이콘을 가질 수 있다. 또한, 표준 데이터는 표준 캐릭터의 정면, 측면, 후면 데이터를 포함한다. 이러한 정면, 측면, 후면 데이터를 이용하면, 특정 캐릭터를 3D 애니메이션으로 구현할 수 있는 효과가 있다.
본 발명에서 전처리 이미지는 입력된 이미지 정보로부터 이미지의 외곽선 검출을 위해 생성된다. 전처리를 하기 위해서는 캐릭터의 정면 이미지 정보가 입력된다. 이미지의 외곽선 검출을 하기 위해서 사진의 이미지에 대해 이진화 또는 특수처리를 한다. 이진화는 여러 단계(보통 256)의 컬러값을 0과1의 값으로 낮추는 과정이며, 이진화를 통해 이미지의 에지 정보를 더욱 선명하게 할 수 있다. 또한, 특수처리는 컬러 이미지를 그레이 레벨로 변경하거나 외곽선 검출을 실행하는 처리이다. 특수처리를 하면 외곽선이 추출되어 사용자가 외곽선에 기준점을 선택하기 용이하게 될 수 있다.
본 발명에 있어서 외곽선에서 선택된 기준점과 표준 데이터를 이용하여 입력된 이미지에 대한 부위별 그룹 아이콘이 생성된다. 이미지의 외곽선을 검출 후 그 중에서 특징을 나타낼 수 있는 기준점을 클릭하면, 미리 저장된 부위별 표준 그룹 아이콘을 수정하여 부위별 특정 그룹 아이콘을 생성한다. 여기서, 기준점 클릭은 사용자 인터페이스, 예를 들면, 마우스에 의해 수행될 수 있다. 이 경우 사용자는 이미지의 외곽선 중 모든 점을 선택하지 않고, 특징을 부각할 수 있는 기준점만을 클릭하면, 기준점을 서로 잇는 벡터형 이미지의 패턴이 생성되고, 특정 그룹 아이콘은 표준 그룹 아이콘을 수정하고 재조정함으로써 생성될 수 있다. 패턴 생성의 방법은 클릭된 위치를 중심으로, DB화를 통해 미리 설정된 기준에 따라 나머지 포인트를 자동 생성하는 방법이 될 수 있다.
여기서, 미리 설정된 기준은 각 부위별 특성에 상응하는 기준이 될 수 있다. 예를 들면, 미리 설정된 기준은 눈 그룹의 경우 기준점 간의 평균점을 생성하거나, 눈의 굴곡을 고려하여 곡선상의 평균점을 생성하는 기준이 될 수 있다. 또한, 세부적 데이터 구성은 표준 데이터 값을 사용하여 현재 생성된 데이터의 크기와 모양을 고려하여 재조정할 수 있다. 예를 들면, 특정 그룹 아이콘이 기준점만을 이어 생성하기 때문에 생길 수 있는 직선, 각진 부분 등은 표준 데이터를 고려하여 재조정함으로써, 자연스러운 그룹 아이콘이 될 수 있도록 할 수 있다.
또한, 본 발명은 상기 과정에 의해 생성된 정면 데이터를 이용하여 측면 데이터 및 후면 데이터를 생성할 수 있다. 측면 데이터와 후면 데이터도 상술한 바와 같이 부위별 그룹 아이콘을 포함할 수 있다. 여기서, 표준 데이터의 측면과 후면 데이터는 정면 데이터로부터 떨어진 거리 값으로 구성되어 있으며, 특정 캐릭터의 측면과 후면 데이터도 이러한 거리 정보를 이용하여 구할 수 있다. 즉, 특정 캐릭터의 측면 데이터 및 후면 데이터는 그 정면 데이터를 기초로 하여 표준 데이터의 정면 데이터, 측면 데이터 및 후면 데이터를 참조함으로써 생성될 수 있다. 이러한 데이터 생성 과정은 다음과 같다. 먼저, 특정 캐릭터를 생성하는 경우 상기한 방법에 의해 표준 데이터를 참조하여 특정 캐릭터의 정면 데이터를 생성한다. 이후 표준 데이터의 정면 데이터와 특정 캐릭터의 정면 데이터를 비교하여 차이값을 산출한다. 이후, 표준 데이터의 측면 데이터에 산출된 차이 값을 적용하여 특정 캐릭터의 측면 데이터를 생성한다.
특정 캐릭터는 부위별 그룹 아이콘을 조합하여 생성된다. 부위별 그룹 아이콘은 눈 그룹, 코 그룹, 입 그룹, 귀 그룹 등 캐릭터를 생성할 수 있는 구성요소를 모두 포함하고 있으므로, 이들을 조합하여 특정 캐릭터를 생성할 수 있다.
전체 섬세 표현 형식의 캐릭터를 표현할 부위별 그룹 아이콘을 생성한 후 표현 시 그룹 아이콘의 개수를 조절하거나 부위별 그룹 아이콘을 그리는 방법을 달리하여 3차원 캐릭터, 섬세 캐릭터, 실루엣 캐릭터, 만화 캐릭터 및 단순 캐릭터의 표현 효과를 가져올 수 있다. 사용자는 별도의 제작 작업을 반복적으로 수행하지 않고 이러한 캐릭터 종류를 단순히 선택함으로써 한번 생성된 캐릭터를 사용하여 캐릭터의 효과를 다양하게 표출할 수 있다. 이러한 캐릭터의 종류는 캐릭터의 각 그룹 아이콘을 생략하거나 아이콘을 그리는 방법을 달리하여 구현될 수 있다. 예를 들어, 볼의 표현에 있어서 섬세 모드에서는 4개의 아이콘을 포함한다면 단순 캐릭터의 표출은 1개의 아이콘만으로 표출한다. 단순 캐릭터는 데이터 크기가 작으므로 PDA와 같은 환경에 적용가능한 캐릭터이다.
또한, 실루엣 캐릭터의 경우에는 아이콘을 생략 후 아이콘을 이루는 엘리먼트(element)를 채우지 않고 투명도를 약간 가진 라인 스타일로만 구현하고 외곽을 이루는 부분은 더욱 두꺼운 라인으로 그려서 실루엣 느낌을 준다.
이러한 모든 표출 방식을 지정하는 그룹 아이콘의 구성 정보는 미리 생성되어 저장될 수 있으며, 각 표출 방식에 대한 아이콘 정보를 구분하여 포함할 수 있다. 따라서 사용자들이 표출 방식만을 지정함에 따라서 동일한 데이터를 다양한 표출방식으로 사용할 수 있다.
본 발명에서 캐릭터 생성은 특정 캐릭터를 이용하여 애니메이션을 생성할 수 있고, 동일한 애니메이션 코드가 서로 다른 캐릭터 표출 방식에 공통으로 적용될 수 있다. 즉, 각 특정 캐릭터의 데이터는 그룹 단위로 구성되어 있고 각 그룹은 세부 모양을 형성하는 아이콘 단위로 구성되어 있으며, 애니메이션 코드의 구성은 서로 다른 특정 캐릭터를 구별하는 캐릭터 식별자와 각 아이콘에 대해서 아이콘 식별자를 가지고 있기 때문에 이러한 캐릭터 식별자와 아이콘 식별자를 교체하면 다른 캐릭터 및 아이콘이 애니메이션될 수 있다. 따라서 동일한 애니메이션 코드에 다양한 캐릭터 및 아이콘을 교체, 적용할 수 있는 장점이 있다.
이 경우 애니메이션 코드 실행 시에 특정 캐릭터의 데이터에 존재하지 않는 아이콘에 대해서는 애니메이션 코드를 생략하여 실행하므로, 본 고안을 통해서 작성된 애니메이션 코드는 본 고안에 의해서 개발된 모든 표출 방식에서 공통적으로 적용 가능하다. 즉, 프로그램 내에서 애니메이션을 실행할 때 애니메이션 키에 해당하는 특정 캐릭터의 그룹에 아이콘이 감추어져 있거나 삭제되어 있으면 출력하지 않고 스킵하여 실행하므로 동일한 애니메이션 코드의 공동 적용이 가능하다. 애니메이션 코드가 모든 캐릭터에 공통적으로 적용될 수 있는 이유는 모든 캐릭터가 동일한 벡터 데이터 구조를 가지고 있으므로 가능하다.
또한, 애니메이션화는 입력된 텍스트에 상응하여 상기 특정 캐릭터를 애니메이션할 수 있다. 즉, 애니메이션화는 지정된 문자의 범위에 대해서 애니메이션 코드를 연결함으로써 감성형 캐릭터가 지정된 문자의 위치에서 지정된 애니메이션을 실행하며 립싱크 애니메이션과 조합하여 실행 가능하므로 감성이 표현되는 립싱크 애니메이션 효과도 더불어 가져올 수 있다.
또한, 다른 방식으로서, 애니메이션화는 미리 작성된 콘텐츠로부터 텍스트 데이터와 프레임 속도(FPS: frame per second) 데이터를 추출하고, 프레임 속도 데이터에 특정 캐릭터의 동작을 동기화하고 텍스트 데이터에 상응하여 특정 캐릭터를 애니메이션할 수 있다. 즉, 기존의 애니메이션 프로그램에서 제작된 콘텐츠와 프레임 속도(FPS)를 맞추어 특정 캐릭터와 그에 따른 애니메이션을 적절하게 배치하여 표출함으로써, 일반적인 콘텐츠와 본 발명의 특정 캐릭터의 자연스러운 연동이 가능하다.
또한, 애니메이션 실행 시 특정 캐릭터의 데이터 값과 표준 데이터의 값을 비교하여 그 값의 차이가 클 경우 그 차이 값을 자동 적용합니다. 예를 들면, 립싱크 애니메이션의 적용의 경우 애니메이션을 적용하고자 하는 특정 캐릭터의 입 그룹 정보가 표준 데이터의 입 그룹 정보에 비해서 심하게 크거나 작다면 애니메이션 코드 적용 시 그 크기의 비율을 립싱크 애니메이션에 적용하여 보다 특정 캐릭터에 적합한 애니메이션 표출 효과를 가져올 수 있다.
본 발명에서는 본 발명의 구성이 작동 가능하도록 하는 기구, 화면 배치, 화면 구성 요소 등과 같은 사용자 조작 가능 인터페이스를 실행할 수 있는 것을 포함한다. 예를 들면, 사용자는 마우스를 이용하여 이미지의 외곽선에 기준점을 클릭하고, 화면에 표시된 체크 박스를 이용하여 그룹 아이콘을 지정하며, 캐릭터 종류 선택 수단을 이용하여 상술한 캐릭터 종류를 선택할 수 있다. 여기에서, 사용자 인터페이스가 가능한 예로 마우스, 체크 박스, 캐릭터 종류 선택 수단일 수 있으며, 기타 다른 수단으로 구현될 수 있음은 물론이다.
특정 캐릭터가 특정 문자에 대해 립싱크를 진행하면서 표정, 동작 등과 관련된 지정된 애니메이션 코드를 더불어 실행함으로써, 단순히 정해진 문자열에 대해서 립싱크 애니메이션만 실행하는 것이 아니라 감성 전달을 가능하게 할 수 있는 효과가 있다. 예를 들면, 입력된 텍스트의 범위를 지정하여 립싱크 애니메이션과 웃는 모습 및 돌아서는 모습을 중복 지정하면, 특정 캐릭터가 정해진 텍스트에 대해 웃는 동시에 말하면서 돌아서는 애니메이션이 생성될 수 있으므로, 텍스트에 감성을 부여하는 캐릭터 애니메이션 효과가 있다.
플래쉬로 제작된 콘텐츠를 애니메이션 캐릭터와 연동하여 애니메이션하는 과정을 설명하면, 먼저, 플래쉬로 제작된 콘텐츠에서 텍스트 데이터와 프레임 데이터를 추출하고, 본 실시예에 따라 추출된 텍스트의 범위를 선정하여 애니메이션 코드를 지정한다. 이후 플레이어에서 프레임의 위치와 FPS 동기를 제작된 콘텐츠와 맞추고 애니메이션을 실행한다. 즉, 플레이어에서 플래쉬로 만들어진 파일을 호출한 후 데이터를 추출하여 애니메이션과 연동하여 재생함으로써, 종래 콘텐츠를 본 발명에 적용할 수 있다.
이-러닝, 유-러닝 분야에서 강의를 진행하는 강사 표현에 있어서, 기존의 방법에 있어서는 정지된 사진이나 엔코딩된 동영상 파일을 첨부하여 콘텐츠의 내용과 강사의 연결이 매우 부자연스럽고 그 한계가 컸으나, 본 발명에 따르면, 강사의 캐릭터와 콘텐츠의 자연스러운 연동을 가져올 수 있다.
그 외 캐릭터 및 애니메이션 생성 장치에 대한 구체적인 시스템 형태, 임베디드 시스템, O/S 등의 공통 플랫폼 기술과 통신 프로토콜, I/O 인터페이스 등 인터페이스 표준화 기술 등에 대한 구체적인 설명은 본 발명이 속하는 기술 분야의 통상의 지식을 가진 자에게 자명한 사항이므로 생략하기로 한다.
본 발명에 따른 캐릭터 및 애니메이션 생성 방법은 기록매체에 저장된 후 소정의 장치, 예를 들면, 이동 통신 단말기와 결합하여 수행될 수 있다. 여기서, 기록매체는 하드 디스크, 비디오 테이프, CD, VCD, DVD와 같은 자기 또는 광 기록매체이거나 또는 오프라인 또는 온라인 상에 구축된 클라이언트 또는 서버 컴퓨터의 데이터베이스일 수도 있다.
계속해서, 본 발명의 다른 실시 예의 실사형 캐릭터 생성 방법에 대하여 도 2를 참조하여 설명한다. 도 2는 본 발명의 다른 실시 예의 실사형 캐릭터 생성 방법을 도시한 플로차트이다.
본 발명의 다른 실시 예는 학습자 캐릭터와 목소리가 삽입된 학습 콘텐츠를 생성하는 경우로서, 학습 콘텐츠에서 학습자(즉, 사용자)의 캐릭터와 음성이 삽입되어 학습 콘텐츠에서 실음성 표출이 가능하도록 한 실시 형태이다.
본 발명의 다른 실시 예는 도 2에 도시된 바와 같이, 캐릭터와 애니메이션, 표준 음성이 삽입된 이모티콘을 미리 생성하여 템플릿 콘텐츠를 DB에 데이터베이스화(DB화) 하는 단계; 선택된 표출대상인 학습자(사용자) 또는 교사 사진을 생성하는 단계; 해당 캐릭터를 자동 생성하는 단계; 템플릿 학습 콘텐츠의 매 캐릭터 위치에 자동 생성된 캐릭터로 변환시키는 단계(즉, 템플릿 학습 콘텐츠의 매 개릭터 위치에 캐릭터를 대체하는 단계); 학습자 음성과 같이 외부 음성(실음성)이 입력되면, 입력된 외부 음성으로 대체시키는 단계; 대체된 캐릭터에 애니메이션 및 립싱크를 대체하여 실행하는 것을 포함한다. 여기에서, 외부 음성이 입력되지 않으면 표준음성 애니메이션을 실행한다.
앞서 설명한 일 실시 예와 동일 또는 유사 과정(예를 들면, 애니메이션 실행 과정)에 대해서는 그에 대한 상세한 설명은 생략한다.
다음으로, 본 발명의 또 다른 실시 예의 실사형 캐릭터 생성 방법에 대하여 도 3을 참조하여 설명한다. 도 3은 본 발명의 또 다른 실시 예의 실사형 캐릭터 생성 방법을 도시한 플로차트이다.
본 발명의 또 다른 실시 예는 DID 시스템(Digital Information Display system) 기반에서 사용자의 캐릭터로 콘텐츠를 생성하여 인쇄하거나 이메일 또는 SNS에 전송하도록 할 수 있는 실시 형태이다.
본 발명의 또 다른 실시 예는, 도 3에 도시된 바와 같이, 사진 촬영하거나 사진을 선택하여 해당 캐릭터를 생성하는 단계; 템플릿 콘텐츠를 선택하는 단계; 상기 템플릿 콘텐츠를 생성된 사용자 캐릭터로 변환(대체)하는 단계; 사용자 음성과 같이 외부 음성(실음성)이 입력되면, 입력된 외부 음성(외부 실음성)으로 변환(대체)시키는 단계; 변환된 사용자 캐릭터와 변환된 외부 실음성으로 동영상을 생성하는 단계; 및 상기 생성된 동영상을 저장 매체에 기록 또는 이메일 또는 SNS로 전송하거나 DID 시스템에서 인쇄하는 단계를 포함한다.
앞서 설명한 일 실시 예 및/또는 다른 실시 예와 동일 또는 유사 과정에 대해서는 그에 대한 상세한 설명은 생략한다.
한편, 본 발명은 앞서 설명한 내용에서 알 수 있는 바와 같이, 사용자의 음성(실음성)이 삽입되거나 삽입되어 있는 이모티콘을 메신저, 이메일 등 다양한 분야에 활용할 수 있다.
또한, 본 발명은 앞서 설명한 캐릭터 또는 애니메이션 생성에 있어서, 입력된 사진에서 얼굴의 특징(얼굴형, 눈썹, 눈, 코, 입)의 외곽선을 검출한 다음, 세션화하고, 에니메이션 실행가능한 구조로로 도형화하여 세이딩(컬러 입힘)을 통해 생성할 수도 있다. 다시 말해서, 얼굴 영역의 특징점을 검출하고 엣지 세션화를 통해 부분적으로 손실된 선을 패턴에 따라 자동 복원하여 캐릭터를 생성하고, 캐릭터의 3D 각도면을 생성시키도록 하여 생성할 수 있다.
상기한 바와 같은 본 발명에 따른 실음성 표출 가능한 실사형 캐릭터 생성 방법 및 생성 시스템은, 사용자가 원하는 캐릭터나 애니메이션 또는 사용자의 자신의 사진을 선택하고 선택된 대상을 통해 실음성이 표출될 수 있는 청각적 효과도 제공하여 학습 콘텐츠 등 다양한 콘텐츠에 적용할 수 있으며, 이에 따라 캐릭터 등을 이용하는 IT산업 전반의 시장 활성화에 기여할 수 있는 이점이 있다.
본 명세서에서 설명되는 실시 예와 첨부된 도면은 본 발명에 포함되는 기술적 사상의 일부를 예시적으로 설명하는 것에 불과하다. 따라서, 본 명세서에 개시된 실시 예들은 본 발명의 기술적 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이므로, 이러한 실시 예에 의하여 본 발명의 기술 사상의 범위가 한정되는 것은 아님은 자명하다. 본 발명의 명세서 및 도면에 포함된 기술적 사상의 범위 내에서 당업자가 용이하게 유추할 수 있는 변형 예와 구체적인 실시 예는 모두 본 발명의 권리범위에 포함되는 것으로 해석되어야 할 것이다.

Claims (1)

  1. 캐릭터와 애니메이션, 표준 음성이 삽입된 이모티콘을 미리 생성하여 템플릿 콘텐츠를 DB에 데이터베이스화(DB화) 하는 단계;
    사용자 캐릭터 또는 사용자 사진 또는 일반 캐릭터 중에서 선택된 표출대상을 생성하는 단계;
    표정 또는 립싱크 애니메이션이 포함된 템플릿 콘텐츠를 선택하는 단계;
    상기 템플릿 콘텐츠를 상기 생성된 캐릭터로 변환시키는 단계; 및
    사용자 음성과 같이 외부 음성이 입력되면, 입력된 음성 데이터를 파싱하여 립싱크 애니메이션을 실행하는 것을 포함하며,
    상기 표출대상생성은 일반 캐릭터, 사용자 캐릭터 또는 사용자 사진을 선택하여 생성되는
    실음성 표출 가능한 실사형 캐릭터 생성 방법.
KR1020140091131A 2014-07-18 2014-07-18 실음성 표출 가능한 실사형 캐릭터 생성 방법 및 생성 시스템 KR20160010810A (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020140091131A KR20160010810A (ko) 2014-07-18 2014-07-18 실음성 표출 가능한 실사형 캐릭터 생성 방법 및 생성 시스템

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020140091131A KR20160010810A (ko) 2014-07-18 2014-07-18 실음성 표출 가능한 실사형 캐릭터 생성 방법 및 생성 시스템

Publications (1)

Publication Number Publication Date
KR20160010810A true KR20160010810A (ko) 2016-01-28

Family

ID=55309826

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020140091131A KR20160010810A (ko) 2014-07-18 2014-07-18 실음성 표출 가능한 실사형 캐릭터 생성 방법 및 생성 시스템

Country Status (1)

Country Link
KR (1) KR20160010810A (ko)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109256128A (zh) * 2018-11-19 2019-01-22 广东小天才科技有限公司 一种根据用户语料自动判定用户角色的方法及系统
KR102274162B1 (ko) * 2020-08-01 2021-07-07 최정안 한자 학습용 이모티콘 및 시스템과 방법
KR102274161B1 (ko) * 2020-08-01 2021-07-07 이명관 어학 학습용 이모티콘 및 시스템과 방법
WO2022143179A1 (zh) * 2020-12-31 2022-07-07 魔珐(上海)信息科技有限公司 虚拟角色模型创建方法、装置、电子设备和存储介质

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20100028689A (ko) 2008-09-05 2010-03-15 고광현 개인 실사 캐릭터 생성 시스템 및 그 방법
KR20100048490A (ko) 2008-10-31 2010-05-11 김영자 감성형 캐릭터 및 애니메이션 생성 방법 및 장치

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20100028689A (ko) 2008-09-05 2010-03-15 고광현 개인 실사 캐릭터 생성 시스템 및 그 방법
KR20100048490A (ko) 2008-10-31 2010-05-11 김영자 감성형 캐릭터 및 애니메이션 생성 방법 및 장치

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109256128A (zh) * 2018-11-19 2019-01-22 广东小天才科技有限公司 一种根据用户语料自动判定用户角色的方法及系统
KR102274162B1 (ko) * 2020-08-01 2021-07-07 최정안 한자 학습용 이모티콘 및 시스템과 방법
KR102274161B1 (ko) * 2020-08-01 2021-07-07 이명관 어학 학습용 이모티콘 및 시스템과 방법
WO2022143179A1 (zh) * 2020-12-31 2022-07-07 魔珐(上海)信息科技有限公司 虚拟角色模型创建方法、装置、电子设备和存储介质

Similar Documents

Publication Publication Date Title
US11062494B2 (en) Electronic messaging utilizing animatable 3D models
KR102503413B1 (ko) 애니메이션 인터랙션 방법, 장치, 기기 및 저장 매체
US9866795B2 (en) System and method for interactive animations for enhanced and personalized video communications
US9667574B2 (en) Animated delivery of electronic messages
US8988436B2 (en) Training system and methods for dynamically injecting expression information into an animated facial mesh
US20160110922A1 (en) Method and system for enhancing communication by using augmented reality
KR101743763B1 (ko) 감성 아바타 이모티콘 기반의 스마트 러닝 학습 제공 방법, 그리고 이를 구현하기 위한 스마트 러닝 학습 단말장치
US20020194006A1 (en) Text to visual speech system and method incorporating facial emotions
KR101743764B1 (ko) 감성 아바타 이모티콘 기반의 초경량 데이터 애니메이션 방식 제공 방법, 그리고 이를 구현하기 위한 감성 아바타 이모티콘 제공 단말장치
US11005796B2 (en) Animated delivery of electronic messages
US20190171869A1 (en) Creating videos with facial expressions
KR20160010810A (ko) 실음성 표출 가능한 실사형 캐릭터 생성 방법 및 생성 시스템
US11741650B2 (en) Advanced electronic messaging utilizing animatable 3D models
KR100965622B1 (ko) 감성형 캐릭터 및 애니메이션 생성 방법 및 장치
KR20210074962A (ko) 손쉬운 영상 메시지 제작 방법 및 이를 이용한 장치
US20240119690A1 (en) Stylizing representations in immersive reality applications
US20240037879A1 (en) Artificial Reality Integrations with External Devices
WO2018018076A1 (en) Creating videos with facial expressions
CN115766971A (zh) 演示视频生成方法、装置、电子设备和可读存储介质
CN117372577A (zh) 虚拟对象的口型图像生成方法及装置
Goncalves et al. Expressive Audiovisual Message Presenter for Mobile Devices
KR20190115621A (ko) 가상 현실 기반의 작품 제공 방법 및 이를 수행하는 장치
Gonçalves et al. Expressive audiovisual SMS reading
KR20120076469A (ko) 사용자정의 아바타 미디어 제작장치 및 방법

Legal Events

Date Code Title Description
WITN Withdrawal due to no request for examination