KR102608863B1 - 만화 특성 표현을 위한 애니메이팅 방법 - Google Patents

만화 특성 표현을 위한 애니메이팅 방법 Download PDF

Info

Publication number
KR102608863B1
KR102608863B1 KR1020220142772A KR20220142772A KR102608863B1 KR 102608863 B1 KR102608863 B1 KR 102608863B1 KR 1020220142772 A KR1020220142772 A KR 1020220142772A KR 20220142772 A KR20220142772 A KR 20220142772A KR 102608863 B1 KR102608863 B1 KR 102608863B1
Authority
KR
South Korea
Prior art keywords
background
model
character
processor
cartoon
Prior art date
Application number
KR1020220142772A
Other languages
English (en)
Inventor
이준원
이충혁
송현찬
안진영
Original Assignee
주식회사 스튜디오징스
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 스튜디오징스 filed Critical 주식회사 스튜디오징스
Priority to KR1020220142772A priority Critical patent/KR102608863B1/ko
Application granted granted Critical
Publication of KR102608863B1 publication Critical patent/KR102608863B1/ko

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/203D [Three Dimensional] animation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Architecture (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Processing Or Creating Images (AREA)

Abstract

본 개시의 일 실시예에 따르면, 적어도 하나의 프로세서에 의해 수행되는 만화 특성 표현을 위한 애니메이팅 방법은 캐릭터의 바디(body)를 나타내는 3D 바디 모델을 획득하는 단계, 캐릭터의 표정을 나타내는 2D 표정 소스를 획득하는 단계, 바디와 연관된 제1 라인 모델을 획득하는 단계, 제1 라인 모델에 기초하는 사용자 입력을 수신하는 것에 응답하여, 바디와 연관된 제1 스트로크 소스를 3D 바디 모델에 오버레이하는 단계 및 3D 바디 모델 및 2D 표정 소스 각각에 대한 리깅을 수행하여, 표정을 포함하는 캐릭터의 애니메이션을 생성하는 단계를 포함할 수 있다.

Description

만화 특성 표현을 위한 애니메이팅 방법{ANIMATING METHOD FOR EXPRESSING CARTOON CHARACTERISTICS}
본 개시는 만화 특성 표현을 위한 애니메이팅 방법에 관한 것이다.
종래 3D 애니메이션의 캐릭터는 3D 모델의 특성상 2D 만화에서 보여지는 시각적 특징들을 표현하는데에 어려움이 있었다.
삭제
일본 등록특허공보 제4761492호(2011.06.17)
본 개시에서는 상술한 문제를 해결하기 위하여 만화의 장점을 고려한 만화 특성들을 3D 애니메이션에 결합함으로써 새로운 유형의 애니메이션을 생성하는 방법이 제공된다.
본 개시의 일 실시예에 따르면, 적어도 하나의 프로세서에 의해 수행되는 만화 특성 표현을 위한 애니메이팅 방법은 캐릭터의 바디(body)를 나타내는 3D 바디 모델을 획득하는 단계, 캐릭터의 표정을 나타내는 2D 표정 소스를 획득하는 단계, 바디와 연관된 제1 라인 모델을 획득하는 단계, 제1 라인 모델에 기초하는 사용자 입력을 수신하는 것에 응답하여, 바디와 연관된 제1 스트로크 소스를 3D 바디 모델에 오버레이하는 단계 및 3D 바디 모델 및 2D 표정 소스 각각에 대한 리깅을 수행하여, 표정을 포함하는 캐릭터의 애니메이션을 생성하는 단계를 포함할 수 있다.
일 실시예에 따르면, 캐릭터의 적어도 일부는 2D 표정 소스가 3D 바디 모델의 아웃라인을 벗어나도록 구성될 수 있다.
일 실시예에 따르면, 적어도 하나의 프로세서에 의해 수행되는 만화 특성 표현을 위한 애니메이팅 방법은 제1 라인 모델에 기초하는 사용자 입력을 수신하는 것에 응답하여, 제1 스트로크 소스가 오버레이된 3D 바디 모델에 대하여 라이팅(lighting)을 수행하는 단계를 더 포함할 수 있다.
일 실시예에 따르면, 라이팅의 조명 범위는 사전 결정된 임계치 이하의 값으로 결정될 수 있다.
일 실시예에 따르면, 적어도 하나의 프로세서에 의해 수행되는 만화 특성 표현을 위한 애니메이팅 방법은 캐릭터의 배경을 나타내는 3D 백그라운드 모델을 획득하는 단계, 배경과 연관된 제2 라인 모델을 획득하는 단계 및 제2 라인 모델에 기초하는 사용자 입력에 응답하여, 배경과 연관된 제2 스트로크 소스를 3D 백그라운드 모델에 오버레이 하는 단계를 더 포함할 수 있다.
일 실시예에 따르면, 3D 바디 모델 및 2D 표정 소스 각각에 대한 리깅을 수행하여, 표정을 포함하는 캐릭터의 애니메이션을 생성하는 단계는, 3D 바디 모델, 3D 백그라운드 모델 및 2D 표정 소스 각각에 대한 리깅을 수행하여, 표정을 포함하는 캐릭터가 배경에 배치된 애니메이션을 생성하는 단계를 포함할 수 있다.
일 실시예에 따르면, 적어도 하나의 프로세서에 의해 수행되는 만화 특성 표현을 위한 애니메이팅 방법은 제2 라인 모델에 기초하는 사용자 입력을 수신하는 것에 응답하여, 3D 백그라운드 모델에 대하여 라이팅을 수행하는 단계를 더 포함할 수 있다.
일 실시예에 따르면, 적어도 하나의 프로세서에 의해 수행되는 만화 특성 표현을 위한 애니메이팅 방법은 화이트 스크린톤 패턴 및 블랙 백그라운드를 포함하는 스크린톤 패스를 생성하는 단계 및 3D 백그라운드 모델 및 2D 라인 모델을 기초로 배경에 포함된 적어도 일부의 객체에 스크린톤 패스를 오버레이하는 단계를 더 포함할 수 있다.
일 실시예에 따르면, 적어도 하나의 프로세서에 의해 수행되는 만화 특성 표현을 위한 애니메이팅 방법은 배경과 연관된 CMYK 채널을 통해 배경에 왜곡 효과를 적용하여 캐릭터에 대한 아웃포커싱을 수행하는 단계를 더 포함할 수 있다.
본 개시의 다른 실시예에 따르면, 만화 특성 표현을 위한 애니메이팅 방법을 실행시키도록 컴퓨터로 판독 가능한 기록매체에 기록된 컴퓨터 프로그램이 제공될 수 있다.
본 개시의 일부 실시예에 따르면, 애니메이션 캐릭터의 표정 표현을 3D 모델에 구애받지 않고 자유롭게 구현할 수 있다.
본 개시의 일부 실시예에 따르면, 3D 애니메이션보다 색감이 개선된 애니메이션을 제작할 수 있다.
본 개시의 일부 실시예에 따르면, 기존 3D 애니메이션의 사실적 표현과 만화 특성을 융합함으로써 새로운 질감 및 색감이 표현된 애니메이션을 제작할 수 있다.
도 1은 본 개시의 일 실시예에 따른 만화 특성이 표현된 애니메이션과 3D 애니메이션의 예시를 나타낸다.
도 2는 본 개시의 일 실시예에 따라 3D 바디 모델에 2D 표정 소스를 오버레이하는 예시를 나타낸다.
도 3은 본 개시의 일 실시예에 따른 2.5D 애니메이션 캐릭터들의 예시를 나타낸다.
도 4는 본 개시의 일 실시예에 따른 2.5D 애니메이션 캐릭터들의 예시를 나타낸다.
도 5는 본 개시의 일 실시예에 따른 2.5D 애니메이션의 예시 장면들을 나타낸다.
도 6은 본 개시의 일 실시예에 따라 만화 특성 표현을 위한 애니메이팅 방법을 수행하는 컴퓨팅 장치의 블록도이다.
도 7은 본 개시의 일 실시예에 따른 만화 특성 표현을 위한 애니메이션 생성 방법의 흐름도이다.

이하, 본 개시의 실시를 위한 구체적인 내용을 첨부된 도면을 참조하여 상세히 설명한다. 다만, 이하의 설명에서는 본 개시의 요지를 불필요하게 흐릴 우려가 있는 경우, 널리 알려진 기능이나 구성에 관한 구체적 설명은 생략하기로 한다.
첨부된 도면에서, 동일하거나 대응하는 구성요소에는 동일한 참조부호가 부여되어 있다. 또한, 이하의 실시예들의 설명에 있어서, 동일하거나 대응되는 구성요소를 중복하여 기술하는 것이 생략될 수 있다. 그러나 구성요소에 관한 기술이 생략되어도, 그러한 구성요소가 어떤 실시예에 포함되지 않는 것으로 의도되지는 않는다.
개시된 실시예의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나 본 개시는 이하에서 개시되는 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시예들은 본 개시가 완전하도록 하고, 본 개시가 통상의 기술자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것일 뿐이다.
본 명세서에서 사용되는 용어에 대해 간략히 설명하고, 개시된 실시예에 대해 구체적으로 설명하기로 한다. 본 명세서에서 사용되는 용어는 본 개시에서의 기능을 고려하면서 가능한 현재 널리 사용되는 일반적인 용어들을 선택하였으나, 이는 관련 분야에 종사하는 기술자의 의도 또는 판례, 새로운 기술의 출현 등에 따라 달라질 수 있다. 또한, 특정한 경우는 출원인이 임의로 선정한 용어도 있으며, 이 경우 해당되는 발명의 설명 부분에서 상세히 그 의미를 기재할 것이다. 따라서 본 개시에서 사용되는 용어는 단순한 용어의 명칭이 아닌, 그 용어가 가지는 의미와 본 개시의 전반에 걸친 내용을 토대로 정의되어야 한다.
본 명세서에서의 단수의 표현은 문맥상 명백하게 단수인 것으로 특정하지 않는 한, 복수의 표현을 포함한다. 또한, 복수의 표현은 문맥상 명백하게 복수인 것으로 특정하지 않는 한, 단수의 표현을 포함한다. 명세서 전체에서 어떤 부분이 어떤 구성요소를 '포함'한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있음을 의미한다.
본 개시의 일 실시예에 따르면, '메모리'는 전자 정보를 저장 가능한 임의의 전자 컴포넌트를 포함하도록 넓게 해석되어야 한다. '메모리'는 임의 액세스 메모리(RAM), 판독-전용 메모리(ROM), 비-휘발성 임의 액세스 메모리(NVRAM), 프로그램가능 판독-전용 메모리(PROM), 소거-프로그램가능 판독 전용 메모리(EPROM), 전기적으로 소거가능 PROM(EEPROM), 플래쉬 메모리, 자기 또는 광학 데이터 저장장치, 레지스터들 등과 같은 프로세서-판독가능 매체의 다양한 유형들을 지칭할 수도 있다. 프로세서가 메모리로부터 정보를 판독하고/하거나 메모리에 정보를 기록할 수 있다면 메모리는 프로세서와 전자 통신 상태에 있다고 불린다.
도 1은 본 개시의 일 실시예에 따른 만화 특성이 표현된 애니메이션(110)과 3D 애니메이션(120)의 예시를 나타낸다. 본 개시에서는 본 개시의 만화 특성 표현을 위한 애니메이팅 방법에 따라 생성된 애니메이션을 ‘2.5D 애니메이션’으로 정의한다. 즉, 도 1의 만화 특성이 표현된 애니메이션(110)은 2.5D 애니메이션(110)과 동일하게 해석될 수 있다. 한편, 본 개시의 만화 특성 표현을 위한 애니메이팅 방법은 적어도 하나의 프로세서에 의해 수행될 수 있다.
프로세서는 만화 특성이 표현된 캐릭터를 생성하기 위해 데이터 베이스로부터 데이터를 추출할 수 있다. 구체적으로, 프로세서는 데이터 베이스로부터 캐릭터의 바디(body)를 나타내는 3D 바디 모델을 획득할 수 있다. 이 경우, 프로세서는 추가적으로 캐릭터의 바디의 스트로크를 나타내는 제1 라인 모델을 더 획득할 수 있다. 추가적으로 또는 대안적으로, 프로세서는 데이터 베이스로부터 캐릭터의 표정을 나타내는 2D 표정 소스를 획득할 수 있다. 여기서, 2D 표정 소스는 캐릭터의 표정을 나타내는 2D 그래픽 객체를 지칭할 수 있다. 예를 들어, 2D 표정 소스는 캐릭터의 표정을 결정하는 캐릭터의 눈, 눈썹, 코, 입 및/또는 귀 중 적어도 하나를 나타내는 2D 그래픽 객체를 지칭할 수 있다.
프로세서는 만화 특성이 표현된 캐릭터를 생성하기 위해 획득한 데이터를 가공할 수 있다. 예를 들어, 프로세서는 제1 라인 모델에 기초하는 사용자 입력을 수신하는 것에 응답하여, 캐릭터의 바디와 연관된 스트로크 소스를 3D 바디 모델에 오버레이 할 수 있다.
프로세서는 만화 특성이 표현된 배경을 생성하기 위해 데이터 베이스로부터 데이터를 추출할 수 있다. 구체적으로, 프로세서는 데이터 베이스로부터 캐릭터가 배치될 배경을 나타내는 3D 백그라운드 모델을 획득할 수 있다. 이 경우, 프로세서는 추가적으로 배경에 포함된 객체(들) 중 적어도 일부의 스트로크를 나타내는 제2 라인 모델을 획득할 수 있다.
프로세서는 만화 특성이 표현된 배경을 생성하기 위해 획득한 데이터를 가공할 수 있다. 구체적으로, 프로세서는 제2 라인 모델에 기초하는 사용자 입력을 수신하는 것에 응답하여, 배경에 포함된 객체들 중 적어도 하나의 스트로크 소스를 3D 백그라운드 모델에 오버레이 할 수 있다. 추가적으로 또는 대안적으로, 프로세서는 스크린톤 패턴 데이터를 이용하여 스크린톤 패스를 생성하고, 생성된 스크린톤 패스를 배경의 적어도 일부 위에 오버레이할 수 있다.
프로세서는 만화 특성 표현을 위해 애니메이션의 특정 스트로크에 라이팅을 수행할 수 있다. 예를 들어, 프로세서는 만화 특성 표현을 위해 캐릭터 바디의 스트로크 중 적어도 일부에 대하여 라이팅을 수행할 수 있다. 다른 예를 들어, 프로세서는 만화 특성 표현을 위해 배경의 스트로크 중 적어도 일부에 대하여 라이팅을 수행할 수 있다. 이에 대한 상세한 설명은 도 6에 후술된다.
프로세서는 애니메이션을 생성할 수 있다. 구체적으로, 프로세서는 3D 바디 모델, 2D 표정 소스 및 3D 백그라운드 모델 각각에 대한 리깅을 수행하여 애니메이션을 생성할 수 있다. 이 경우, 애니메이션은 바디에 표정이 입혀진 캐릭터가 배경에 배치된 장면을 포함할 수 있다. 추가적으로 또는 대안적으로, 프로세서는 만화 특성 표현을 위해 생성한 애니메이션을 가공할 수 있다. 예를 들어, 프로세서는 생성된 애니메이션의 컬러 채널(예: CMYK 채널)의 초기 설정값을 왜곡 효과와 연관된 값으로 변경함으로써, 애니메이션에 대한 아웃 포커싱을 수행할 수 있다.
상술한 프로세서의 동작들 중 적어도 일부에 따라 2.5D 애니메이션(110)이 생성될 수 있다. 2.5D 애니메이션(110)은 3D 애니메이션(120)과 비교하여 컬러감과 선명도가 개선되어 밝은 느낌을 갖는 것을 특징으로 한다.
도 2는 본 개시의 일 실시예에 따라 3D 바디 모델에 2D 표정 소스를 오버레이하는 예시를 나타낸다. 제1 인터페이스(210)는 데이터 베이스에 저장된 2D 표정 소스들의 예시를 나타낸다. 제1 인터페이스(210)에 도시된 바와 같이, 2D 표정 소스는 캐릭터의 이목구비 및 얼굴에 포함된 신체부위 중 적어도 하나를 나타내는 그래픽 객체를 지칭할 수 있다. 한편, 제1 인터페이스(210)에서 2D 표정 소스들이 신체부위의 종류를 기준으로 구분되어 있는 것으로 도시되었으나 이에 한정되지 않는다. 예를 들어, 2D 표정 소스는 눈, 눈썹, 코 및 입을 모두 나타내는 하나의 그래픽 객체를 지칭할 수도 있다. 제2 인터페이스(220)는 데이터 베이스로부터 추출된 2D 표정 소스를 3D 바디 모델에 오버레이하는 예시를 나타낸다. 도시된 바와 같이, 프로세서는 입을 나타내는 2D 표정 소스를 3D 바디 모델에 오버레이할 수 있다.
도 3은 본 개시의 일 실시예에 따른 2.5D 애니메이션 캐릭터들(310 내지 350)의 예시를 나타낸다. 캐릭터들(310 내지 350)을 참고하면, 프로세서는 캐릭터들(310 내지 350) 각각의 표정을 결정하는 눈, 눈동자, 눈썹, 주름 및 입의 크기, 형태 및 위치 중 적어도 하나를 캐릭터의 바디(즉, 3D 바디 모델)과 관계없이 결정할 수 있다. 예를 들어, 프로세서는 제1 캐릭터(310)의 눈, 제2 캐릭터(320)의 입 및 제3 캐릭터(330)의 입과 같이, 2D 표정 소스를 3D 바디 모델의 아웃라인을 벗어난 영역에 오버레이 할 수도 있다. 또한, 프로세서는 캐릭터들(310 내지 350) 각각의 눈, 눈동자 및/또는 입의 크기를 자유롭게 변형하여 3D 바디 모델에 오버레이 할 수 있다.
도 4는 본 개시의 일 실시예에 따른 2.5D 애니메이션 캐릭터들(410 내지 480)의 예시를 나타낸다. 캐릭터들(410 내지 480)을 참고하면, 프로세서는 도 3과 마찬가지로 캐릭터들(410 내지 480) 각각의 표정을 결정하는 눈, 눈동자, 눈썹, 주름 및 입의 크기, 형태 및 위치 중 적어도 하나를 캐릭터의 바디(즉, 3D 바디 모델)과 관계없이 결정할 수 있다. 예를 들어, 프로세서는 캐릭터들(410 내지 480)의 실선으로 표현된 입, 혓바닥을 내민 입 등과 같이 비정형 2D 도형 그래픽 객체(즉, 2D 표정 소스)를 이용하여 3D 애니메이션 캐릭터에서는 구현될 수 없는 표정을 짓는 캐릭터들(410 내지 480)을 생성할 수 있다. 이러한 구성에 의해, 프로세서는 기존에 존재하는 만화로부터 다양한 2D 표정 소스를 획득하고, 획득된 2D 표정 소스를 이용하여 2.5D 애니메이션을 생성할 수 있다.
도 5는 본 개시의 일 실시예에 따른 2.5D 애니메이션의 예시 장면들(510 내지 550)을 나타낸다. 제1 장면(510), 제2 장면(520) 및 제5 장면을 참고하면 캐릭터(들) 각각의 아웃라인이 라이팅(lighting)된 것을 확인할 수 있다. 이를 위해, 프로세서는 캐릭터 바디의 라인 모델을 획득할 수 있다. 그리고 나서, 해당 라인 모델에 기초하는 사용자 입력을 수신하는 것에 응답하여, 캐릭터(들) 각각의 아웃라인 중 적어도 일부에 라이팅(lighting) 효과를 적용할 수 있다.
제3 장면(530) 및 제4 장면(540)을 각각 참고하면, 우주를 표현한 배경 및 조명에 의해 비춰지는 빛의 스트로크가 표시된 것을 확인할 수 있다. 이와 같이, 프로세서는 배경의 라인 모델을 획득하고, 해당 라인 모델에 기초하는 사용자 입력을 수신하는 것에 응답하여, 배경에 포함된 객체(들) 각각의 아웃라인 중 적어도 일부에 스트로크를 표시하여 아웃라인을 선명하게 표현할 수 있다.
제4 장면(540)을 참고하면, 배경에 ‘G’를 나타내는 그래픽 객체에 스크린톤 패턴이 오버레이 된 것을 확인할 수 있다. 이와 같이, 프로세서는 스크린톤 패스를 생성하고, 3D 백그라운드 모델 및 2D 라인 모델을 기초로 배경에 포함된 적어도 일부의 객체(여기서, ‘G’)에 스크린톤 패스를 오버레이 할 수 있다.
제5 장면(550)을 표현하면, 캐릭터에 대하여 아웃포커싱이 적용된 것을 확인할 수 있다. 이와 같이, 프로세서는 2.5D 애니메이션의 배경과 연관된 컬러 채널(예를 들어, CMYK 채널)의 초기 설정값을 변경하여, 배경에 왜곡 효과를 적용함으로써 캐릭터에 대한 아웃포커싱을 수행할 수 있다.
도 6은 본 개시의 일 실시예에 따라 만화 특성 표현을 위한 애니메이팅 방법을 수행하는 컴퓨팅 장치(610)의 블록도이다. 구체적으로, 컴퓨팅 장치(610)는 만화 특성 표현을 위한 애니메이팅 제작 서비스를 제어하기 위한 프로그램 등이 실행 가능하고, 유/무선 통신이 가능한 임의의 컴퓨팅 장치를 지칭할 수 있다.
도시된 바와 같이, 컴퓨팅 장치(610)는 메모리(612), 프로세서(614), 통신 모듈(616) 및 입출력 인터페이스(618)를 포함할 수 있다. 컴퓨팅 장치(610)는 통신 모듈(616)을 이용하여 네트워크를 통해 2.5D 애니메이션 제작에 필요한 정보 및/또는 데이터를 송수신할 수 있다. 예를 들어, 컴퓨팅 장치(610)는 통신 모듈(616)을 외부 데이터 베이스로부터 2D 표정 소스를 획득할 수 있다. 입출력 장치(622)는 입출력 인터페이스(618)를 통해 컴퓨팅 장치(610)에 정보 및/또는 데이터를 입력하거나 컴퓨팅 장치(610)로부터 생성된 정보 및/또는 데이터를 출력하도록 구성될 수 있다.
메모리(612)는 비-일시적인 임의의 컴퓨터 판독 가능한 기록매체를 포함할 수 있다. 일 실시예에 따르면, 메모리(612)는 RAM(random access memory), ROM(read only memory), 디스크 드라이브, SSD(solid state drive), 플래시 메모리(flash memory) 등과 같은 비소멸성 대용량 저장 장치(permanent mass storage device)를 포함할 수 있다. 다른 예로서, ROM, SSD, 플래시 메모리, 디스크 드라이브 등과 같은 비소멸성 대용량 저장 장치는 메모리와는 구분되는 별도의 영구 저장 장치로서 컴퓨팅 장치(610)에 포함될 수 있다. 또한, 메모리(612)에는 운영체제와 적어도 하나의 프로그램 코드(예를 들어, 컴퓨팅 장치(610)에 설치되어 구동되는 애니메이션 제작 프로그램의 코드)가 저장될 수 있다.
이러한 소프트웨어 구성요소들은 메모리(612)와는 별도의 컴퓨터에서 판독 가능한 기록매체로부터 로딩될 수 있다. 이러한 별도의 컴퓨터에서 판독가능한 기록매체는 이러한 컴퓨팅 장치(610)에 직접 연결가능한 기록 매체를 포함할 수 있는데, 예를 들어, 플로피 드라이브, 디스크, 테이프, DVD/CD-ROM 드라이브, 메모리 카드 등의 컴퓨터에서 판독 가능한 기록매체를 포함할 수 있다. 다른 예로서, 소프트웨어 구성요소들은 컴퓨터에서 판독 가능한 기록매체가 아닌 통신 모듈(616)을 통해 메모리(612)에 로딩될 수도 있다. 예를 들어, 적어도 하나의 프로그램은 개발자들 또는 어플리케이션의 설치 파일을 배포하는 파일 배포 시스템이 네트워크를 통해 제공하는 파일들에 의해 설치되는 컴퓨터 프로그램에 기반하여 메모리(612)에 로딩될 수 있다.
프로세서(614)는 기본적인 산술, 로직 및 입출력 연산을 수행함으로써, 컴퓨터 프로그램의 명령을 처리하도록 구성될 수 있다. 명령은 메모리(612) 또는 통신 모듈(616)에 의해 프로세서(614)로 제공될 수 있다. 예를 들어, 프로세서(614)는 입출력 장치(622)를 통해 수신된 사용자 입력 및/또는 메모리(612)와 같은 기록 장치에 저장된 프로그램 코드에 따라 수신되는 명령을 실행하도록 구성될 수 있다.
입출력 인터페이스(618)는 입출력 장치(622)와의 상호 작용을 위한 수단일 수 있다. 구체적으로, 입출력 장치(622)는 오디오 센서 및/또는 이미지 센서를 포함한 카메라, IMU(Inertial Measurement Unit) 센서, 키보드, 마이크로폰, 마우스 등의 입력 장치를 포함할 수 있다. 추가적으로, 입출력 장치(622)는 디스플레이, 스피커, 햅틱 피드백 디바이스(haptic feedback device) 등과 같은 출력 장치를 포함할 수 있다. 다른 예로, 입출력 인터페이스(618)는 터치스크린 등과 같이 입력과 출력을 수행하기 위한 구성 또는 기능이 하나로 통합된 장치와의 인터페이스를 위한 수단일 수 있다.
도 6에서는 입출력 장치(622)가 컴퓨팅 장치(610)에 포함되지 않도록 도시되어 있으나, 이에 한정되지 않으며, 컴퓨팅 장치(610)와 하나의 장치로 구성될 수 있다. 또한, 도 6에서는 입출력 인터페이스(618)가 프로세서(614)와 별도로 구성된 요소로서 도시되었으나, 이에 한정되지 않으며, 입출력 인터페이스(618)가 프로세서(614)에 포함되도록 구성될 수 있다.
컴퓨팅 장치(610)는 도 6의 구성요소들보다 더 많은 구성요소들을 포함할 수 있다. 그러나, 대부분의 종래기술적 구성요소들을 명확하게 도시할 필요성은 없다. 일 실시예에 따르면, 컴퓨팅 장치(610)는 상술된 입출력 장치(622) 중 적어도 일부를 포함하도록 구현될 수 있다. 또한, 컴퓨팅 장치(610)는 트랜시버(transceiver), GPS(Global Positioning system) 모듈, 카메라, 각종 센서, 데이터베이스 등과 같은 다른 구성요소들을 더 포함할 수 있다.
일 실시예에 따르면, 컴퓨팅 장치(610)의 프로세서(614)는 3D 모델링, 2D 모델링, 이미지 처리 등의 기능을 수행하는 컴퓨팅 장치(610)의 제어를 위한 프로그램을 동작하도록 구성될 수 있다. 이 때, 해당 프로그램과 연관된 코드가 컴퓨팅 장치(610)의 메모리(612)에 로딩될 수 있다. 프로그램이 동작되는 동안에, 컴퓨팅 장치(610)의 프로세서(614)는 입출력 장치(622)로부터 제공된 정보 및/또는 데이터를 입출력 인터페이스(618)를 통해 수신하거나, 수신된 정보 및/또는 데이터를 처리하여 메모리(612)에 저장할 수 있다. 또한, 이러한 정보 및/또는 데이터는 통신 모듈(616)을 통해 외부 장치에 제공될 수 있다.
컴퓨팅 장치(610)의 만화 특성 표현을 위한 애니메이션 제작 프로그램이 동작되는 동안에, 프로세서(614)는 입출력 인터페이스(618)와 연결된 입출력 장치(622)를 통해 입력되거나 선택된 음성 데이터, 텍스트, 이미지, 영상 등을 수신할 수 있으며, 수신된 음성 데이터, 텍스트, 이미지 및/또는 영상 등을 메모리(612)에 저장할 수 있다. 추가적으로 또는 대안적으로, 프로세서(614)는 네트워크를 통해 연결된 별도의 데이터 베이스로부터 통해 음성 데이터, 텍스트, 이미지, 영상 등을 수신할 수 있으며, 수신된 음성 데이터, 텍스트, 이미지 및/또는 영상 등을 메모리(612)에 저장할 수 있다.
도 7은 본 개시의 일 실시예에 따른 만화 특성 표현을 위한 애니메이션 생성 방법(700)의 흐름도이다. 방법(700)은 적어도 하나의 프로세서(예: 프로세서(614))에 의해 수행될 수 있으며, 도시된 바와 같이 캐릭터의 바디(body)를 나타내는 3D 바디 모델을 획득하는 단계(S710)로 개시될 수 있다. 추가적으로 또는 대안적으로, 프로세서는 캐릭터의 표정을 나타내는 2D 표정 소스를 획득할 수 있다(S720). 여기서, 캐릭터의 적어도 일부는 2D 표정 소스가 3D 바디 모델의 아웃라인을 벗어나도록 구성될 수 있다.
프로세서는 바디와 연관된 제1 라인 모델을 획득할 수 있다(S730). 이 경우, 프로세서는 제1 라인 모델에 기초하는 사용자 입력을 수신하는 것에 응답하여, 바디와 연관된 제1 스트로크 소스를 3D 바디 모델에 오버레이할 수 있다(S740). 그리고 나서, 프로세서는 3D 바디 모델 및 2D 표정 소스 각각에 대한 리깅을 수행하여, 표정을 포함하는 캐릭터의 애니메이션을 생성할 수 있다(S750). 이 경우, 3D 바디 모델 및 2D 표정 소스 각각에 대한 리깅을 수행하여, 표정을 포함하는 캐릭터의 애니메이션을 생성하는 단계는, 3D 바디 모델, 3D 백그라운드 모델 및 2D 표정 소스 각각에 대한 리깅을 수행하여, 표정을 포함하는 캐릭터가 배경에 배치된 애니메이션을 생성하는 단계를 포함할 수 있다.
프로세서는 제1 라인 모델에 기초하는 사용자 입력을 수신하는 것에 응답하여, 제1 스트로크 소스가 오버레이된 3D 바디 모델에 대하여 라이팅(lighting)을 수행할 수 있다. 이 경우, 라이팅의 조명 범위는 사전 결정된 임계치 이하의 값으로 결정될 수 있다.
프로세서는 캐릭터의 배경을 나타내는 3D 백그라운드 모델을 획득할 수 있다. 이 경우, 프로세서는 배경과 연관된 제2 라인 모델을 획득할 수 있다. 그리고 나서, 프로세서는 제2 라인 모델에 기초하는 사용자 입력에 응답하여, 배경과 연관된 제2 스트로크 소스를 3D 백그라운드 모델에 오버레이할 수 있다. 추가적으로 또는 대안적으로, 프로세서는 제2 라인 모델에 기초하는 사용자 입력을 수신하는 것에 응답하여, 3D 백그라운드 모델에 대하여 라이팅을 수행할 수 있다.
프로세서는 화이트 스크린톤 패턴 및 블랙 백그라운드를 포함하는 스크린톤 패스를 생성할 수 있다. 그리고 나서, 프로세서는 3D 백그라운드 모델 및 2D 라인 모델을 기초로 배경에 포함된 적어도 일부의 객체에 스크린톤 패스를 오버레이할 수 있다. 추가적으로 또는 대안적으로, 프로세서는 배경과 연관된 CMYK 채널을 통해 배경에 왜곡 효과를 적용하여 캐릭터에 대한 아웃포커싱을 수행할 수 있다.
본 개시의 앞선 설명은 통상의 기술자들이 본 개시를 행하거나 이용하는 것을 가능하게 하기 위해 제공된다. 본 개시의 다양한 수정예들이 통상의 기술자들에게 쉽게 자명할 것이고, 본원에 정의된 일반적인 원리들은 본 개시의 취지 또는 범위를 벗어나지 않으면서 다양한 변형예들에 적용될 수도 있다. 따라서, 본 개시는 본원에 설명된 예들에 제한되도록 의도된 것이 아니고, 본원에 개시된 원리들 및 신규한 특징들과 일관되는 최광의의 범위가 부여되도록 의도된다.
비록 예시적인 구현예들이 하나 이상의 독립형 컴퓨터 계통의 맥락에서 현재 개시된 주제의 양태들을 활용하는 것을 언급할 수도 있으나, 본 주제는 그렇게 제한되지 않고, 오히려 네트워크나 분산 컴퓨팅 환경과 같은 임의의 컴퓨팅 환경과 연계하여 구현될 수도 있다. 또 나아가, 현재 개시된 주제의 양상들은 복수의 프로세싱 칩들이나 디바이스들에서 또는 그들에 걸쳐 구현될 수도 있고, 스토리지는 복수의 디바이스들에 걸쳐 유사하게 영향을 받게 될 수도 있다.
본 명세서에서는 본 개시가 일부 실시예들과 관련하여 설명되었지만, 본 발명이 속하는 기술분야의 통상의 기술자가 이해할 수 있는 본 개시의 범위를 벗어나지 않는 범위에서 다양한 변형 및 변경이 이루어질 수 있다는 점을 알아야 할 것이다. 또한, 그러한 변형 및 변경은 본 명세서에서 첨부된 특허청구의 범위 내에 속하는 것으로 생각되어야 한다.
110: 만화 특성이 표현된 애니메이션
120: 3D 애니메이션

Claims (10)

  1. 캐릭터의 바디(body)를 나타내는 3D 바디 모델을 획득하는 단계;
    상기 캐릭터의 표정을 나타내는 2D 표정 소스를 획득하는 단계;
    상기 바디와 연관된 제1 라인 모델을 획득하는 단계;
    상기 제1 라인 모델에 기초하는 사용자 입력을 수신하는 것에 응답하여, 상기 바디와 연관된 제1 스트로크 소스를 상기 3D 바디 모델에 오버레이하는 단계;
    상기 제1 라인 모델에 기초하는 사용자 입력을 수신하는 것에 응답하여, 상기 제1 스트로크 소스가 오버레이된 상기 3D 바디 모델에 대하여 아웃라인 중 적어도 일부에 조명 범위가 사전 결정된 임계치 이하의 값으로 결정된 라이팅(lighting)을 수행하는 단계;
    상기 캐릭터의 배경을 나타내는 3D 백그라운드 모델을 획득하는 단계;
    상기 배경과 연관된 제2 라인 모델을 획득하는 단계;
    상기 제2 라인 모델에 기초하는 사용자 입력에 응답하여, 상기 배경과 연관된 제2 스트로크 소스를 상기 3D 백그라운드 모델에 오버레이 하는 단계;
    상기 캐릭터의 배경을 나타내는 3D 백그라운드 모델을 획득하는 단계;
    상기 배경과 연관된 제2 라인 모델을 획득하는 단계;
    상기 제2 라인 모델에 기초하는 사용자 입력에 응답하여, 상기 배경과 연관된 제2 스트로크 소스를 상기 3D 백그라운드 모델에 오버레이 하는 단계; 및
    상기 3D 바디 모델, 상기 3D 백그라운드 모델 및 상기 2D 표정 소스 각각에 대한 리깅을 수행하여, 상기 표정을 포함하는 상기 캐릭터가 상기 배경에 배치된 애니메이션을 생성하는 단계
    를 포함하고,
    상기 2D 표정 소스는 상기 표정을 결정하는 눈, 눈동자, 눈썹, 주름 및 입의 형태 및 위치 중 적어도 하나가 상기 3D 바디 모델의 아웃라인을 벗어나도록 상기 3D 바디 모델에 오버레이 되는, 적어도 하나의 프로세서에 의해 수행되는 만화 특성 표현을 위한 애니메이팅 방법.
  2. 삭제
  3. 삭제
  4. 삭제
  5. 삭제
  6. 삭제
  7. 제1항에 있어서,
    상기 제2 라인 모델에 기초하는 사용자 입력을 수신하는 것에 응답하여, 상기 3D 백그라운드 모델에 대하여 라이팅을 수행하는 단계
    를 더 포함하는, 적어도 하나의 프로세서에 의해 수행되는 만화 특성 표현을 위한 애니메이팅 방법.
  8. 삭제
  9. 제1항에 있어서,
    상기 배경과 연관된 CMYK 채널을 통해 상기 배경에 왜곡 효과를 적용하여 상기 캐릭터에 대한 아웃포커싱을 수행하는 단계
    를 더 포함하는, 적어도 하나의 프로세서에 의해 수행되는 만화 특성 표현을 위한 애니메이팅 방법.
  10. 제1항에 기재된 만화 특성 표현을 위한 애니메이팅 방법을 실행시키도록 컴퓨터로 판독 가능한 기록매체에 기록된 컴퓨터 프로그램.
KR1020220142772A 2022-10-31 2022-10-31 만화 특성 표현을 위한 애니메이팅 방법 KR102608863B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020220142772A KR102608863B1 (ko) 2022-10-31 2022-10-31 만화 특성 표현을 위한 애니메이팅 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020220142772A KR102608863B1 (ko) 2022-10-31 2022-10-31 만화 특성 표현을 위한 애니메이팅 방법

Publications (1)

Publication Number Publication Date
KR102608863B1 true KR102608863B1 (ko) 2023-12-01

Family

ID=89124351

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020220142772A KR102608863B1 (ko) 2022-10-31 2022-10-31 만화 특성 표현을 위한 애니메이팅 방법

Country Status (1)

Country Link
KR (1) KR102608863B1 (ko)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4761492B2 (ja) 2000-08-23 2011-08-31 任天堂株式会社 グラフィックシステムにおける無色光のライティング
KR20160008769A (ko) * 2014-07-15 2016-01-25 에이플러스미디어(주) 삼차원 애니메이션 제작방법
KR20200017294A (ko) * 2018-08-08 2020-02-18 삼성전자주식회사 드로잉 입력에 의한 애니메이티드 메시지를 생성하는 전자 장치
KR20210040555A (ko) * 2019-10-04 2021-04-14 주식회사 케이티 베이시스 모델에 기초하여 가상 캐릭터의 표정을 모사하는 장치, 방법 및 컴퓨터 프로그램
KR20210080484A (ko) * 2018-12-05 2021-06-30 소니그룹주식회사 스크린-톤 룩 생성기
KR20210082241A (ko) * 2018-10-31 2021-07-02 스냅 인코포레이티드 3d 아바타 렌더링

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4761492B2 (ja) 2000-08-23 2011-08-31 任天堂株式会社 グラフィックシステムにおける無色光のライティング
KR20160008769A (ko) * 2014-07-15 2016-01-25 에이플러스미디어(주) 삼차원 애니메이션 제작방법
KR20200017294A (ko) * 2018-08-08 2020-02-18 삼성전자주식회사 드로잉 입력에 의한 애니메이티드 메시지를 생성하는 전자 장치
KR20210082241A (ko) * 2018-10-31 2021-07-02 스냅 인코포레이티드 3d 아바타 렌더링
KR20210080484A (ko) * 2018-12-05 2021-06-30 소니그룹주식회사 스크린-톤 룩 생성기
KR20210040555A (ko) * 2019-10-04 2021-04-14 주식회사 케이티 베이시스 모델에 기초하여 가상 캐릭터의 표정을 모사하는 장치, 방법 및 컴퓨터 프로그램

Similar Documents

Publication Publication Date Title
KR102658960B1 (ko) 얼굴 재연을 위한 시스템 및 방법
Baggio Mastering OpenCV with practical computer vision projects
KR20220030263A (ko) 텍스처 메시 빌딩
US10916044B2 (en) Information processing apparatus, information processing method, and program
WO2019173108A1 (en) Electronic messaging utilizing animatable 3d models
KR102624635B1 (ko) 메시징 시스템에서의 3d 데이터 생성
US11783556B2 (en) Augmented reality content generators including 3D data in a messaging system
US11494999B2 (en) Procedurally generating augmented reality content generators
CN112041891A (zh) 增强表情系统
CN108876886B (zh) 图像处理方法、装置和计算机设备
US20220319127A1 (en) Facial synthesis in augmented reality content for third party applications
CN106447756B (zh) 用于生成用户定制的计算机生成动画的方法和系统
CN113302659A (zh) 用于生成具有定制的文本消息的个性化视频的系统和方法
US20220319230A1 (en) Facial synthesis in augmented reality content for online communities
US20220319060A1 (en) Facial synthesis in augmented reality content for advertisements
CN110580733A (zh) 一种数据处理方法、装置和用于数据处理的装置
KR20230162107A (ko) 증강 현실 콘텐츠에서의 머리 회전들에 대한 얼굴 합성
US20220101419A1 (en) Ingestion pipeline for generating augmented reality content generators
KR102608863B1 (ko) 만화 특성 표현을 위한 애니메이팅 방법
US11354860B1 (en) Object reconstruction using media data
US20220321804A1 (en) Facial synthesis in overlaid augmented reality content
CN117011430A (zh) 游戏资源处理方法、装置、设备、存储介质和程序产品

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant