KR20200064591A - Webtoons color customizing programs and applications of deep learning - Google Patents

Webtoons color customizing programs and applications of deep learning Download PDF

Info

Publication number
KR20200064591A
KR20200064591A KR1020180150846A KR20180150846A KR20200064591A KR 20200064591 A KR20200064591 A KR 20200064591A KR 1020180150846 A KR1020180150846 A KR 1020180150846A KR 20180150846 A KR20180150846 A KR 20180150846A KR 20200064591 A KR20200064591 A KR 20200064591A
Authority
KR
South Korea
Prior art keywords
coloring
image
webtoon
user
color
Prior art date
Application number
KR1020180150846A
Other languages
Korean (ko)
Inventor
전달용
Original Assignee
(주)아이디어 콘서트
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by (주)아이디어 콘서트 filed Critical (주)아이디어 콘서트
Priority to KR1020180150846A priority Critical patent/KR20200064591A/en
Publication of KR20200064591A publication Critical patent/KR20200064591A/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/40Filling a planar surface by adding surface attributes, e.g. colour or texture
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/001Texturing; Colouring; Generation of texture or colour
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B11/00Teaching hand-writing, shorthand, drawing, or painting
    • G09B11/10Teaching painting

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Educational Administration (AREA)
  • Educational Technology (AREA)
  • Image Analysis (AREA)

Abstract

The present invention relates to a deep learning based webtoon coloring customization program and an application therefor. The deep learning based webtoon coloring customization program can execute, in a computer having an input means for inputting data and a processing means for processing the input data, the steps of: (a) receiving a webtoon image from a user by the input means; (b) generating, by the processing means, a coloring model learned through a deep leaning based algorithm by using black and white sketch image and original color image as input values; (c) inferring, by the processing means, colors based on the coloring model to automatically color the black and white sketch image of a user; (d) selecting a partial colored area by the user; and (e) selecting a combined coloring pattern by the user.

Description

딥러닝 기반 웹툰의 채색 커스터마이징 프로그램 및 애플리케이션{WEBTOONS COLOR CUSTOMIZING PROGRAMS AND APPLICATIONS OF DEEP LEARNING}Deep learning based webtoon color customization program and application {WEBTOONS COLOR CUSTOMIZING PROGRAMS AND APPLICATIONS OF DEEP LEARNING}

본 발명은 사용자의 스케치 스타일을 딥러닝 기반으로 학습하여 웹툰을 채색하는 프로그램 및 애플리케이션으로서, 특히 사용자의 스케치 패턴을 조합하여 다양한 커스터마이징 채색 패턴을 제공할 수 있는 프로그램 및 애플리케이션에 관한 것이다.The present invention relates to a program and application for learning a user's sketch style based on deep learning to color a webtoon, and in particular, to a program and application capable of providing various customized coloring patterns by combining a user's sketch pattern.

웹툰은 인터넷을 뜻하는 ‘웹(web)'과 만화를 뜻하는 '카툰(cartoon)'의 합성어로서 각종 멀티미디어 효과를 동원해 제작된 인터넷 만화를 말한다. 웹툰은 창작자가 스케치를 하고, 수동으로 채색을 입히는 형식으로 제작되고 있다. 일반적으로 흑백의 그림으로 출판되었던 만화와 달리 웹툰은 채색이 완료된 컬러 이미지로 소비자에게 제공되는 특징을 갖는다. Webtoon is a compound word of'web', which means the Internet, and'cartoon', which means cartoon. It is an internet cartoon produced using various multimedia effects. Webtoons are produced in the form of creators sketching and coloring manually. Unlike cartoons that were generally published in black and white drawings, webtoons have the characteristic of being provided to consumers as color images that have been colored.

웹툰 제작시 창작자가 수동으로 일일이 채색을 하는 경우 웹툰 제작에 많은 시간이 소요되는 문제점이 있다. 이에, 웹툰 창작자는 채색하는 시간을 줄이기 위하여 보조 작가를 두기도 하였다. 웹툰 제작시 흑백 스케치의 상태에서 상황에 맞는 적절한 색상을 선택하고, 빛과 그림자를 알맞게 조합하는 생생한 카툰 이미지를 만든다는 것은 예술적 재능이 요구된다. 이러한 채색 과정은 보통 사람들에게 쉽지 않은 작업으로서 웹툰 창작자 본인이 원하는 대로 채색을 입혀주는 보조 작가를 구하는 것도 용이하지 않은 실정이다. 따라서 창작자의 스케치 이미지에 자동으로 채색하여 주는 어플리케이션이 제공될 경우 기존의 수동 채색 작업 대비 시간 및 인력 소모를 줄일 수 있을 것이다.When creating a webtoon, if the creator manually colors each one, there is a problem that it takes a lot of time to produce the webtoon. Accordingly, the creators of webtoons have also placed auxiliary artists to reduce the coloring time. When creating a webtoon, artistic talent is required to select a suitable color for the situation in a black and white sketch, and to create a vivid cartoon image that properly combines light and shadow. This process of coloring is not an easy task for ordinary people, and it is not easy to find an assistant writer who colors the webtoon as he wants. Therefore, if an application for automatically coloring the sketch image of the creator is provided, time and manpower consumption can be reduced compared to the existing manual coloring work.

종래에 Paintchainer와 같은 스케치 채색 어플리케이션이 존재하나, 해당 어플리케이션은 다양한 색상을 지닌 일러스트들을 기반으로 학습된 프로그램으로서, 결과물이 창작자의 특징적인 채색 스타일과 다르다는 한계를 갖는다. 웹툰은 작가 개인마다 특징적인 채색 스타일이 있어, 자동으로 채색해주는 프로그램이 본인이 원하는 스타일로 채색되지 않는다면 작업 시 사용할 이유가 없다. 그러므로 작가 개인의 채색 스타일과 유사하게 스케치 이미지를 자동으로 채색하여 제공하는 기술이 필요하다.Conventionally, a sketch coloring application such as Paintchainer exists, but the application is a program learned based on illustrations with various colors, and has a limitation that the result is different from the creator's characteristic coloring style. Each webtoon has a unique coloring style for each artist, so there is no reason to use it when the program that automatically paints is not colored in the style you want. Therefore, there is a need for a technique that automatically paints and provides sketch images similar to the artist's individual coloring style.

한편, 창작자는 오랜시간 익숙해져온 스케치 스타일을 고수하는 것이 일반적이다. 다른 창작자의 채색 스타일을 모방한다 할지라도 미숙하여 자연스럽지 못하거나 어색하기 때문이다. 이러한 이유로, 창작자는 자신의 스타일을 벗어난 새로운 작품의 제작에 어려움을 겪을 수 있다. 이에, 본 출원인은 창작자의 스케치 스타일을 반영하여 자동채색이 가능하면서, 부분적으로는 타인의 스케치 스타일이 딥러닝으로 조합된 새로운 채색 스타일을 제공할 수 있는 채색 커스터마이징 프로그램 및 애플리케이션을 고안하게 되었다. On the other hand, it is common for creators to adhere to the sketch style they have been accustomed to for a long time. This is because even if you imitate the coloring style of other creators, they are immature and unnatural or awkward. For this reason, creators may have difficulty creating new works outside their own style. Accordingly, the present applicant has devised a color customizing program and application that can automatically color by reflecting the sketch style of the creator, and partially provide a new coloring style in which other people's sketch style is combined by deep learning.

특허공개공보 제10-2018-0066440호Patent Publication No. 10-2018-0066440

본 발명은 사용자의 채색 스타일과 유사하게 자동으로 채색된 이미지를 제공하는 딥러닝 기반 웹툰의 채색 커스터마이징 프로그램 및 애플리케이션을 제공하고자 한다. The present invention seeks to provide a deep learning based webtoon color customizing program and application that provides an automatically colored image similar to a user's coloring style.

또한, 본 발명은 타인의 채색 스타일을 자신의 채색 스타일과 조합하여 채색 결과값을 다양하게 제시할 수 있는 딥러닝 기반 웹툰의 채색 커스터마이징 프로그램 및 애플리케이션을 제공하고자 한다.In addition, the present invention is to provide a coloring learning program and application of deep learning based webtoon that can present a variety of coloring results by combining the coloring style of others with their coloring style.

상기 목적을 달성하기 위하여 본 발명은, 데이터를 입력하는 입력 수단, 입력된 데이터를 처리하는 처리 수단을 갖춘 컴퓨터에, (a) 상기 입력 수단이 사용자로부터 웹툰 이미지를 입력받는 단계; (b) 상기 처리 수단이 상기 웹툰 이미지의 흑백 스케치 이미지와 원본 컬러 이미지를 입력값으로 하여 딥러닝 기반 알고리즘으로 학습된 채색 모델을 생성하는 단계; (c) 상기 처리 수단이 상기 채색 모델을 기반으로 색상을 추론하여 사용자의 흑백 스케치 이미지를 자동으로 채색하는 단계; (d) 사용자가 부분적인 채색 영역을 선택하는 단계; 및 (e) 사용자가 조합된 채색 패턴을 선택하는 단계를 실행시킬 수 있다.In order to achieve the above object, the present invention, a computer having an input means for inputting data and a processing means for processing input data, (a) the input means receiving a webtoon image from a user; (b) the processing means generating a coloring model trained by a deep learning based algorithm using the black and white sketch image and the original color image of the webtoon image as input values; (c) automatically processing the user's black and white sketch image by inferring color based on the coloring model; (d) the user selecting a partial colored area; And (e) a user selecting a combined coloring pattern.

본 발명에 따르면, 사용자 별로 채색 패턴을 학습함에 따라 창작자 고유의 특징적인 채색 스타일을 살려 자동 채색을 수행한다. 이는 동일 사용자의 새로운 웹툰에 적용하여 사용자 개인의 채색 방식이 반영된 이미지를 빠른 시간 안에 얻을 수 있는 효과가 있다. 이에 따라, 본 발명은 동일한 웹툰 작가의 다른 웹툰 작품에 자신의 채색 스타일을 빠르게 적용시킬 수 있다.According to the present invention, as a user learns a coloring pattern for each user, automatic coloring is performed using a characteristic coloring style unique to the creator. This has the effect of applying to a new webtoon of the same user and quickly obtaining an image reflecting the user's coloring method. Accordingly, the present invention can quickly apply its coloring style to other webtoon works of the same webtoon artist.

또한 본 발명에 따르면, 채색의 조합으로 수작업으로는 구현이 어려운 스케치 스타일이 제공될 수 있고, 자신의 스케치 스타일과 타인의 스케치 스타일이 조합된 다양한 채색 결과를 선택할 수 있으며, 채색 패턴의 공유로 수익 창출이 가능하다. 이에 따라, 창작자에게 웹툰 창작의 동기부여, 자유도 및 편의성에 크게 기여할 수 있다. In addition, according to the present invention, a combination of coloring may provide a sketch style that is difficult to implement by hand, and a variety of coloring results in which one's sketch style and another person's sketch style are combined can be selected, and revenue is shared by sharing the coloring pattern. Creation is possible. Accordingly, it is possible to greatly contribute to the motivation, freedom and convenience of webtoon creation to the creator.

도 1은 본 발명의 실시예에 따른 웹툰 자동 채색 프로그램의 시스템 흐름도를 나타낸 것이다.
도 2는 본 발명의 실시예에 따른 흑백 스케치 변환 단계가 수행되어 웹툰의 프레임이 추출된 예시를 나타낸다.
도 3은 흑백 스케치 변환 단계가 추출된 프레임인 원본 컬러 이미지를 흑백 스케치 이미지로 변환한 예시를 나타낸다.
도 4는 학습 단계에서 GAN 알고리즘으로 채색을 학습하는 방법을 도시한 것이다.
도 5는 본 발명의 실시예에 따른 채색 커스터마이즈 프로그램의 시스템 흐름도를 나타낸 것이다.
도 6은 도 5의 실시예에서 채색 패턴을 입력하는 단계의 컷의 영역을 선택하는 실시예를 나타낸 것이다.
도 7은 도 5의 실시예에서, 채색 패턴을 결정하는 단계의 시스템 흐름도를 나타낸 것이다.
도 8은 채색패턴을 조합하는 알고리즘의 예시를 나타낸 것이다.
1 shows a system flowchart of a webtoon automatic coloring program according to an embodiment of the present invention.
2 shows an example in which a frame of a webtoon is extracted by performing a black and white sketch conversion step according to an embodiment of the present invention.
3 shows an example in which the original color image, which is the frame in which the black and white sketch conversion step is extracted, is converted into a black and white sketch image.
4 shows a method of learning coloring with the GAN algorithm in the learning stage.
5 illustrates a system flow diagram of a color customization program according to an embodiment of the present invention.
FIG. 6 shows an embodiment of selecting a region of a cut in the step of inputting a coloring pattern in the embodiment of FIG. 5.
FIG. 7 shows a system flow diagram of the step of determining a coloring pattern in the embodiment of FIG. 5.
8 shows an example of an algorithm for combining color patterns.

이하, 첨부된 도면들에 기재된 내용들을 참조하여 본 발명을 상세히 설명한다. 다만, 본 발명이 예시적 실시 예들에 의해 제한되거나 한정되는 것은 아니다. 각 도면에 제시된 동일 참조부호는 실질적으로 동일한 기능을 수행하는 부재를 나타낸다.Hereinafter, the present invention will be described in detail with reference to the contents described in the accompanying drawings. However, the present invention is not limited or limited by the exemplary embodiments. The same reference numerals in each drawing denote members that perform substantially the same function.

본 발명의 목적 및 효과는 하기의 설명에 의해서 자연스럽게 이해되거나 보다 분명해 질 수 있으며, 하기의 기재만으로 본 발명의 목적 및 효과가 제한되는 것은 아니다. 또한, 본 발명을 설명함에 있어서 본 발명과 관련된 공지 기술에 대한 구체적인 설명이, 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명을 생략하기로 한다.The objects and effects of the present invention may be naturally understood or more apparent by the following description, and the objects and effects of the present invention are not limited only by the following description. In addition, in the description of the present invention, when it is determined that the detailed description of the known technology related to the present invention may unnecessarily obscure the subject matter of the present invention, the detailed description will be omitted.

도 1은 본 발명의 실시예에 따른 웹툰 자동 채색 프로그램의 시스템 흐름도를 나타낸 것이다. 웹툰 자동 채색 프로그램은 데이터를 입력하는 입력 수단, 입력된 데이터를 처리하는 처리 수단, 처리된 데이터를 출력하는 출력 수단을 갖춘 컴퓨터에, 웹툰 이미지를 입력받는 (a)단계(S10), 채색 모델을 생성하는 (b)단계(S30), 및 자동으로 채색하는 (c)단계(S50)를 실행시킬 수 있다. 1 shows a system flowchart of a webtoon automatic coloring program according to an embodiment of the present invention. The webtoon automatic coloring program is a computer equipped with an input means for inputting data, a processing means for processing the input data, and an output means for outputting the processed data. The (b) step (S30) to be generated and the (c) step (S50) to be automatically colored may be executed.

컴퓨터는 입력 수단으로 키보드, 마우스 등의 입출력 장치를 포함하고, 처리 수단으로 프로세서를 구비할 수 있다. 본 실시예에 따른 웹툰 자동 채색 프로그램은 다운로드 가능한 웹 또는 매체에 저장되어 사용자에게 배포될 수 있으며, 사용자의 컴퓨터상에 다운로드 되어 각 단계가 실행될 수 있다. The computer may include input/output devices such as a keyboard and a mouse as input means, and a processor as a processing means. The webtoon automatic coloring program according to the present embodiment may be stored in a downloadable web or media and distributed to a user, and may be downloaded on a user's computer and executed in each step.

본 실시예에 따른 웹툰 자동 채색 프로그램은 딥러닝 기반으로 흑백 스케치 웹툰을 자동으로 채색(colorization)하는 시스템으로, 학습 모델을 이용하여 자동 채색을 수행한다. 또한, 본 발명의 사용자인 웹툰 작가별로 학습 모델을 생성하여 작가 별 특유의 색감 및 색체를 새로운 흑백 스케치에 적용할 수 있도록 한다. 도 1은 웹툰 자동 채색 프로그램의 전체적인 시스템 구성 및 흐름도를 나타낸다. The webtoon automatic coloring program according to the present embodiment is a system for automatically colorizing a black and white sketch webtoon based on deep learning, and performs automatic coloring using a learning model. In addition, by creating a learning model for each webtoon writer who is the user of the present invention, it is possible to apply unique colors and colors of each artist to a new black and white sketch. 1 shows the overall system configuration and flow chart of a webtoon automatic coloring program.

도 1을 참조하면, (a)단계(S10)는 컴퓨터의 입력 수단이 사용자로부터 웹툰 이미지를 입력받는 단계일 수 있다. 본 명세서에서 말하는 웹툰 이미지는 온라인 상에 연재되는 만화만을 의미하는 것은 아니며, 프로세서가 구비된 컴퓨터상에 작화를 처리하게 되는 이미지를 총칭할 수 있다. 즉, 본 명세서의 웹툰 이미지는 온라인 웹 도구를 이용하여 스케치 또는 채색된 이미지를 포함할 수 있으며, 만화 이미지, 애니메이션 제작을 위한 콘티 이미지, 일러스트 제작을 위한 이미지, 오프라인의 만화책으로 인쇄하기 위해 온라인 웹 도구를 이용하여 스케치된 이미지 등이 될 수도 있다. 또한, 웹툰 이미지에는 사용자의 스마트폰 혹은 타블랫을 통해 그려진 이미지 그리고 사용자의 스마트폰 ,타블랫, 기타기기의 카메라를 이용하여 찍은 이미지도 포함될 수 있다.Referring to FIG. 1, step (a) (S10) may be a step in which a computer input means receives a webtoon image from a user. The webtoon image referred to in this specification does not only mean a cartoon that is serialized online, but may refer to an image that processes a drawing on a computer equipped with a processor. That is, the webtoon image of the present specification may include a sketched or colored image using an online web tool, and an online web for printing a cartoon image, a continuation image for animation production, an image for illustration production, and an offline comic book. It may be a sketched image using a tool. Also, the webtoon image may include an image drawn through the user's smartphone or tablet and an image taken using the user's smartphone, tablet, or other device's camera.

(a)단계(S10)는 사용자가 직접 스케치한 원본의 그림 이미지인 웹툰 이미지를 입력받는 단계를 의미한다. 여기서, 사용자가 직접 스케치한 웹툰 이미지 원본은 컴퓨터 상에서 작화한 스케치 이미지 뿐만 아니라, 오프라인 상에서 스케치된 이미지를 스캔한 컴퓨터 이미지 파일 또는 사용자의 스마트폰이나 타블랫 기타기기의 카메라를 이용하여 찍은 사진 이미지이어도 무방하다. (a)단계(S10)는 컴퓨터의 입력 수단을 통해 온-오프라인상에서 제작된 작가의 원본 웹툰 이미지를 입력받는다.Step (a) (S10) means a step of receiving a webtoon image, which is a picture image of the original sketched by the user. Here, the original webtoon image directly sketched by the user may be not only a sketch image created on a computer, but also a computer image file that scans the sketched image offline or a photo image taken using a camera of a user's smartphone or tablet or other device. It is okay. In step (a) (S10), the original webtoon image of the artist produced on-offline is input through the computer's input means.

본 실시예로, (a)단계(S10)는 사용자로부터 채색이 완료된 웹툰의 원본 컬러 이미지를 입력받을 수 있다. (a)단계(S10)에서 입력 받는 웹툰 이미지는 흑백 또는 원본 컬러 이미지일 수 있다. 다만, (a)단계(S10)는 학습시 사용자 별 채색 스타일을 학습하기 위하여 최소 1회 이상의 웹툰의 원본 컬러 이미지를 입력받아야 한다. 본 실시예로, (a)단계(S10)는 초기 학습을 위하여 사용자로부터 최초로 입력받는 원본 컬러 이미지인 경우를 설명한다. 학습에 따른 채색 모델 생성 이후, (a)단계(S10)는 사용자로부터 흑백의 스케치 이미지를 웹툰 이미지로 입력받는다.In this embodiment, step (a) (S10) may receive an original color image of the webtoon, which has been colored, from the user. The webtoon image input in step (a) (S10) may be a black and white or original color image. However, in step (a) (S10), the original color image of at least one webtoon must be input to learn the coloring style for each user during learning. In the present embodiment, step (a) (S10) describes a case in which the original color image is first input from the user for initial learning. After creating a coloring model according to learning, step (a) (S10) receives a black and white sketch image as a webtoon image from the user.

(b)단계(S30)는 컴퓨터의 처리 수단이 웹툰 이미지의 흑백 스케치 이미지와 원본 컬러 이미지를 입력값으로 하여 딥러닝 기반 알고리즘으로 학습된 채색 모델을 생성하는 단계일 수 있다. 본 실시예에 따른 웹툰 자동 채색 프로그램은 학습 데이터 셋을 기반으로 학습 모델을 생성하는 기능과 생성된 학습 모델을 기반으로 색상을 추론하는 기능으로 구분될 수 있다. 학습 데이터 셋을 기반으로 학습 모델을 생성하는 기능이 (b)단계(S30)에서 수행되며, 색상을 추론하는 기능은 후술하게 될 (c)단계(S50)에서 수행될 수 있다.Step (b) (S30) may be a step in which the computer's processing means generates a coloring model trained by a deep learning-based algorithm using black and white sketch images of webtoon images and original color images as input values. The webtoon automatic coloring program according to this embodiment may be divided into a function of generating a learning model based on a set of learning data and a function of inferring color based on the generated learning model. The function of generating a learning model based on the learning data set is performed in step (b) (S30), and the function of inferring color can be performed in step (c) (S50), which will be described later.

(b)단계(S30)는 재학습 여부의 결정 단계(S301), 흑백 스케치 변환 단계(S303) 및 학습 단계(S305)를 포함할 수 있다.(B) Step (S30) may include a step of determining whether to re-learn (S301), a black and white sketch conversion step (S303) and a learning step (S305).

재학습 여부의 결정 단계(S301)는 사용자의 선택에 따라 재학습 또는 신규 학습을 수행하는 단계일 수 있다. 재학습 여부의 결정 단계(S301)는 신규 학습을 수행하는 경우 사용자의 웹툰 이미지를 신규 데이터셋으로 하여 딥러닝 기반 알고리즘으로 학습하여 신규 채색 모델을 생성하고, 재학습을 수행하는 경우 기존의 채색 모델에 사용자의 웹툰 이미지를 추가 학습하도록 한다.The re-learning determination step S301 may be a step of performing re-learning or new learning according to a user's selection. In re-learning or not (S301), when performing new learning, a user's webtoon image is used as a new data set to learn with a deep learning-based algorithm to generate a new coloring model, and when re-learning, an existing coloring model is used. Let's learn the user's webtoon image.

재학습 여부의 결정 단계(S301)는 사용자의 선택에 따라 진행되도록 재학습 또는 신규학습의 기능 버튼으로 구현될 수 있다. 사용자는 자동으로 채색하게 될 시리즈의 지속 학습을 원하는 경우, 재학습을 선택할 수 있으며, 이 경우 기존에 수행된 (b)단계(S30)의 채색 모델이 업데이트 된다. 반면, 사용자는 신규 웹툰 시리즈 등 다른 채색 스타일의 적용이 필요한 경우 신규학습을 선택할 수 있다. 사용자가 신규학습을 선택한 경우, (a)단계(S10)에서 원본 컬러 이미지를 입력받아 새로운 채색 모델 생성 과정이 진행된다. 이하, 딥러닝 학습으로 채색 모델을 생성하는 (b)단계(S30)의 세부 기능을 살펴보면 다음과 같다.The step of determining whether to re-learn may be implemented as a function button of re-learning or new learning to proceed according to a user's selection. If the user wants continuous learning of the series to be automatically colored, he/she can select re-learning, and in this case, the coloring model of step (b) (S30) previously performed is updated. On the other hand, if the user needs to apply a different coloring style such as a new webtoon series, the user can select a new learning. When the user selects a new learning, in step (a) (S10), an original color image is received and a new coloring model generation process is performed. Hereinafter, a detailed function of step (b) (S30) for generating a coloring model through deep learning is as follows.

흑백 스케치 변환 단계(S303)는 원본 컬러 이미지의 개별 프레임을 추출하여 흑백 스케치 이미지로 변환하는 단계를 의미한다. (a)단계(S10)에서 입력받은 웹툰 이미지는 학습 데이터셋 형식에 맞게 개별 프레임이 추출되어야 한다. 웹툰의 경우 세로로 길게 구성된 형태가 특징이며, 다양한 위치에 개별 프레임이 존재한다. 도 2는 흑백 스케치 변환 단계(S303)가 수행되어 웹툰의 프레임이 추출된 예시를 나타낸다.The black and white sketch conversion step (S303) means a step of extracting individual frames of the original color image and converting them into a black and white sketch image. (a) In the webtoon image input in step S10, individual frames must be extracted according to the learning dataset format. In the case of webtoons, it is characterized by a vertically long form, and individual frames exist in various positions. 2 shows an example in which a black and white sketch conversion step (S303) is performed and the webtoon frame is extracted.

흑백 스케치 변환 단계(S303)는 개별 프레임 추출을 위해 가로 및 세로 방향 스캔 기반 마스크, 레이블링, 에지 탐색, 모폴로지 연산, 확률적 허브 변환, 컨벡스헐, 바운딩 박스 등의 방법이 적용될 수 있다. 딥러닝은 방대한 학습 데이터를 요구하며, 이러한 요구를 만족시키기 위하여 일일이 수동으로 웹툰 내의 개별 프레임을 추출하는 것은 비효율적이며 어려운 일이다. 이러한 이유로, 흑백 스케치 변환 단계(S303)는 상기의 프레임 추출 방법을 사용하여 자동으로 웹툰 내의 개별 프레임을 효율적으로 추출한다. 도 2를 참조하면, 좌측부터 (a)단계(S10)에서 입력받은 웹툰 이미지, 흑백 스케치 변환 단계(S303)가 수행되어 프레임을 추출한 이미지, 프레임 추출 결과 이미지를 확인할 수 있다. 프레임 추출 결과, 원본 웹툰 이미지에서 제각각이었던 웹툰 장면의 프레임 크기를 정규화 할 수 있다.In the black and white sketch conversion step (S303), methods such as horizontal and vertical scan-based masking, labeling, edge search, morphological operation, stochastic hub conversion, convex hull, and bounding box may be applied to extract individual frames. Deep learning requires a large amount of learning data, and it is inefficient and difficult to manually extract individual frames within webtoons manually to satisfy these needs. For this reason, the black and white sketch conversion step (S303) automatically extracts individual frames in the webtoon using the frame extraction method. Referring to FIG. 2, a webtoon image input in step (a) (S10) from a left side, and a black and white sketch conversion step (S303) is performed, so that the image extracted from the frame and the image resulting from the frame extraction can be confirmed. As a result of the frame extraction, it is possible to normalize the frame size of each webtoon scene from the original webtoon image.

흑백 스케치 변환 단계(S303)는 프레임의 크기를 정규화 하여 추출한 후, 흑백 스케치화를 적용한다. 자동 채색을 위한 학습 데이터셋은 흑백 스케치 이미지와 원본 컬러 이미지가 쌍으로 요구된다. 이와 같은 2개의 이미지가 요구되는 것은 추후에 후술하게 될 본 실시예의 딥러닝 적용 알고리즘이 비지도 학습 기반이기 때문이다. 상기 학습 데이터셋은 구축이 어렵기 때문에 초기 원본인 웹툰 이미지를 흑백으로 스케치화하여 수행할 수 있다. In the black and white sketch conversion step (S303), the size of the frame is normalized and extracted, and then black and white sketching is applied. The training data set for automatic coloring requires a pair of black and white sketch images and original color images. The two images are required because the deep learning application algorithm of the present embodiment, which will be described later, is based on unsupervised learning. Since the learning dataset is difficult to construct, an initial original webtoon image can be sketched in black and white.

흑백 스케치 변환 단계(S303)는 원본 컬러 이미지에 대한 그레이스케일 이미지와 이에 대해 팽창 연산을 수행한 이미지의 차이 등의 방법을 적용하여 원본 컬러 이미지를 흑백 스케치 이미지로 변환할 수 있다. 혹은 3채널 컬러 이미지를 입력으로 넣고 1채널 흑백 스케치 이미지를 출력으로 하는 딥러닝 기반의 알고리즘을 이용하여 변환할 수 있다. 도 3은 흑백 스케치 변환 단계(S303)가 추출된 프레임인 원본 컬러 이미지를 흑백 스케치 이미지로 변환한 예시를 나타낸다.The black-and-white sketch conversion step S303 may convert the original color image into a black-and-white sketch image by applying a method such as a difference between a grayscale image of the original color image and an image that has been expanded. Alternatively, it can be converted using a deep learning-based algorithm that inputs a 3-channel color image as an input and outputs a 1-channel black and white sketch image as an output. 3 illustrates an example in which the original color image, which is the frame in which the black and white sketch conversion step S303 is extracted, is converted into a black and white sketch image.

이후, (b)단계(S30)는 학습 단계(S305)를 수행하여 채색 모델을 생성한다.Then, step (b) (S30) performs a learning step (S305) to generate a coloring model.

학습 단계(S305)는 원본 컬러 이미지와 흑백 스케치 이미지를 비지도 학습 모델로 학습하는 단계를 의미할 수 있다. 본 실시예로, 학습 단계(S305)는 비지도 학습 생성 모델로 흑백 스케치 이미지와 원본 컬러 이미지를 학습할 수 있다. 머신러닝은 크게 지도학습(supercised learning)과 비지도 학습(unsupervised learning)으로 구분된다. 현재까지 머신러닝의 주류를 이뤘던 지도학습은 데이터와 라벨(이름)의 짝을 집중 학습하는 방법이었다. 예시로서, 컴퓨터에게 ‘개’또는 고양이‘의 라벨을 입력하여 사물 X와 이름 Y의 쌍을 지속적으로 학습시키는 것이다. 이렇게 수많은 (X, Y)의 함수를 알게 되면, 전혀 알지 못하는 미지의 사물 X에 대해서도 적절한 예측 Y를 내놓을 수 있게 된다. 상기의 지도학습 기반 머신러닝 기술은 구글과 페이스북 등에서 사용하는 얼굴인식이나 사물인식, 음성인식에 이용되고 있다. 그러나, 지도 학습에는 누군가 일일이 각 사물의 정답(label)을 알려줘야만 학습이 가능하다는 한계가 있다. 궁극적인 인공지능을 구현하려면 누군가 정답을 가르쳐주지 않더라도 인공지능 스스로 사물의 특성을 파악할 수 있는 능력이 있어야 한다. 이렇게 라벨 없이 데이터 그 자체에서 지식을 얻는 방법을 비지도 학습이라고 한다. The learning step S305 may mean a step of learning the original color image and the black and white sketch image as an unsupervised learning model. In this embodiment, the learning step (S305) may learn a black and white sketch image and an original color image as an unsupervised learning generation model. Machine learning is largely divided into supercised learning and unsupervised learning. Supervised learning, which has been the mainstream of machine learning to date, is a method of intensively learning pairs of data and labels (names). As an example, the computer continuously labels the object X and the name Y by inputting a label of'dog' or cat'. Knowing such a large number of (X, Y) functions, it is possible to produce a proper prediction Y for an unknown object X, which is unknown at all. The machine learning technology based on supervised learning is used for face recognition, object recognition, and voice recognition used in Google and Facebook. However, in supervised learning, there is a limit in that learning is possible only when someone individually informs the correct label of each object. In order to realize the ultimate artificial intelligence, even if someone does not teach the correct answer, the artificial intelligence must have the ability to grasp the characteristics of the object by itself. This method of obtaining knowledge from the data itself without a label is called unsupervised learning.

본 실시예에서, 학습 단계(S305)는 정답(label)이 없는 상황에서 지도학습의 방법을 차용한 비지도 학습 기반 채색 모델을 생성한다. 본 실시예로, 학습 단계(S305)는 비지도 학습 생성 모델로 GAN(Generative Adversarial Network)이 적용될 수 있다.In this embodiment, the learning step S305 generates an unsupervised learning-based coloring model using a method of supervised learning in a situation in which there is no correct answer. In this embodiment, the learning step (S305) may be applied to the GAN (Generative Adversarial Network) as an unsupervised learning generation model.

GAN은 모조품과의 경쟁을 통해서 학습하는 알고리즘이다. 학습 단계(S305)는 학습 데이터의 확률 분포를 근사하는 G 모델과 컬러 이미지의 원본을 판별하는 D 모델이 구비된 딥러닝 알고리즘이, 상기 원본 컬러 이미지의 확률 분포를 근사하여 생성한 G 모델의 컬러 이미지를 D 모델이 컬러 이미지의 원본으로 판별하도록 학습할 수 있다. 본 실시예로, G 모델과 D 모델은 Convolutional neural network로 구성될 수 있다.GAN is an algorithm that learns through competition with counterfeits. In the learning step S305, a deep learning algorithm equipped with a G model approximating the probability distribution of the training data and a D model for determining the original color image, the color of the G model generated by approximating the probability distribution of the original color image An image can be trained to determine that the D model is the original color image. In this embodiment, the G model and the D model may be configured as a convolutional neural network.

G 모델은 만드는 자(generator)로 이해할 수 있다. D 모델은 구별하는 자(discriminator)로 이해할 수 있다. G 모델은 진짜와 같은 위조품을 만들기 위해 노력하고, D 모델은 감별사와 같이 진짜와 가짜를 구분하기 위해 노력함으로써 서로의 발전을 꾀한다.The G model can be understood as a generator. The D model can be understood as a discriminator. The G model strives to make real counterfeits, while the D model seeks to develop each other by trying to distinguish the real from the fake, like a discriminator.

도 4는 학습 단계(S305)에서 GAN 알고리즘으로 채색을 학습하는 방법을 도시한 것이다. G 모델의 네트워크 구조는 인코더 레이어를 디코더의 해당 레이어에 연결하는 U-net 구조를 이용할 수 있다. G 모델은 흑백 스케치 이미지의 로우 레벨 정보를 디코딩하고, 컬러풀한 이미지를 얻기 위해 인코터 레이어에 연결한다. 여기서, 인코더 레이어는 스케치 에지 정보를 포함하고 디코더 레이어는 주로 학습된 색상 정보를 포함한다.4 illustrates a method of learning coloring using the GAN algorithm in the learning step (S305). The network structure of the G model can use a U-net structure that connects the encoder layer to the corresponding layer of the decoder. The G model decodes the low-level information of the black and white sketch image and connects it to the encoder layer to get a colorful image. Here, the encoder layer includes sketch edge information, and the decoder layer mainly includes learned color information.

D 모델은 G 모델과 비교하여 인코더 유닛만 사용하고, 생성된 컬러 이미지 혹은 원본 컬러 이미지가 진짜인지 가짜인지 판별하는 것을 목표로 판별 정확도를 최대화하도록 학습한다. 흑백 스케치 이미지에서의 자동 채색은 일반적인 그레이스케일에서의 채색보다 좀 더 어려운 문제가 될 수 있다. 이는 흑백 스케치 이미지의 정보가 그레이스케일의 이미지 보다 훨씬 적기 때문이다. 상기의 문제를 해결하고, 좀 더 향상된 성능을 위해서 G 모델에는 다양한 손실 함수가 요구된다. The D model uses only the encoder unit compared to the G model, and learns to maximize discrimination accuracy with the goal of determining whether the generated color image or the original color image is real or fake. Automatic coloring in black-and-white sketch images can be a more difficult problem than normal grayscale coloring. This is because black and white sketch images have much less information than grayscale images. In order to solve the above problem and improve performance, various loss functions are required in the G model.

본 실시예로, G 모델은 생성된 컬러 이미지와 진짜 라벨(0)과의 소프트맥스 크로스 엔트로피를 손실 함수 1로 정의할 수 있다. G 모델은 생성된 컬러 이미지와 원본 컬러 이미지의 MSE(mean absolute error)를 손실 함수 2로 정의할 수 있다. G 모델은 마지막으로 생성된 컬러 이미지와 원본 컬러 이미지에 대한 에지 특징 정보의 MSE를 손실 함수 3으로 정의할 수 있다. 각 손실 함수는 가중치를 설정할 수 있으며, 모든 손실 함수를 더한 것이 최종 손실 함수로 정의할 수 있다. 흑백 스케치 이미지와 컬러 이미지의 상관관계는 상기 손실 함수를 최소화하도록 학습된다.In this embodiment, the G model may define a softmax cross entropy between the generated color image and the real label (0) as a loss function 1. The G model can define the mean absolute error (MSE) of the generated color image and the original color image as a loss function 2. The G model may define the MSE of edge feature information for the last generated color image and the original color image as a loss function 3. Each loss function can set a weight, and the sum of all loss functions can be defined as the final loss function. The correlation between the black and white sketch image and the color image is learned to minimize the loss function.

D 모델의 손실 함수는 원본 컬러 이미지와 진짜 라벨(0)과의 소프트맥스 크로스 엔트로피 및 생성된 컬러 이미지와 가짜 라벨(1)과의 소프트맥스 크로스 엔트로피의 합으로 정의될 수 있다. D 모델은 정의된 손실 함수가 최소화되도록 학습한다. 이와 같은 학습으로 채색 모델이 생성된다. 사용자가 정의한 세대(epoch)만큼 학습이 진행되면 채색 모델이 생성되며, 일정 세대마다 채색 모델을 생성할 수 있다. The loss function of the D model can be defined as the sum of the softmax cross entropy of the original color image and the real label (0) and the softmax cross entropy of the generated color image and the fake label (1). The D model is trained so that the defined loss function is minimized. A color model is created by learning like this. When learning progresses as much as a user-defined epoch, a color model is generated, and a color model can be generated for each generation.

(c)단계(S50)는 컴퓨터의 처리 수단이 상기 채색 모델을 기반으로 색상을 추론하여 사용자의 스케치 이미지를 자동으로 채색하는 단계일 수 있다. 자동으로 채색된 이미지는 컴퓨터의 출력 수단을 통해 사용자의 컴퓨터에 디스플레이 될 수 있다. 채색 모델에서 학습 모델 기반 색상 추론 부분에서는 사용자가 먼저 원하는 채색 모델을 불러온다. 그리고, 사용자가 새로운 흑백 스케치 이미지를 입력하면 불러온 채색 모델을 기반으로 색상을 추론하여 자동 채색을 수행할 수 있다. Step (c) (S50) may be a step in which the computer's processing means infers the color based on the coloring model and automatically colors the user's sketch image. The automatically colored image can be displayed on the user's computer through the computer's output means. In the color model, the color modeling based on the learning model first loads the color model desired by the user. In addition, when the user inputs a new black and white sketch image, color can be inferred based on the imported color model to perform automatic coloring.

(c)단계(S50)는 사용자에 따른 채색 모델을 호출하며 사용자의 스케치 특성이 반영된 색상을 추론하여 스케치 이미지를 자동으로 채색할 수 있다. 이 경우, (b)단계(S50)는 둘 이상의 사용자가 유사한 채색 패턴을 보이는 것으로 판단될 경우, 둘 이상의 사용자가 입력한 복수개의 웹툰 이미지를 함께 학습하여 채색 모델을 생성할 수도 있다.Step (c) (S50) calls the coloring model according to the user and can automatically color the sketch image by inferring the color reflecting the sketch characteristics of the user. In this case, in step (b) (S50), when it is determined that two or more users show similar coloring patterns, a coloring model may be generated by learning together a plurality of webtoon images input by two or more users.

다른 실시예로, 웹툰 자동 채색 프로그램은 애플리케이션으로 제공될 수 있다. 웹툰 자동 채색 애플리케이션은 데이터를 입력하는 입력 수단, 입력된 데이터를 처리하는 처리 수단 및 처리된 데이터를 출력하는 출력 수단을 갖춘 스마트폰, 태블릿, 또는 노트북에, 상기 입력 수단이 사용자로부터 웹툰 이미지를 입력받는 제1 기능; 상기 처리 수단이 상기 웹툰 이미지의 흑백 스케치 이미지와 원본 컬러 이미지를 입력값으로 하여 딥러닝 기반 알고리즘으로 학습된 채색 모델을 생성하는 제2 기능; 및 상기 처리 수단이 상기 채색 모델을 기반으로 색상을 추론하여 사용자의 스케치 이미지를 자동으로 채색하는 제3 기능을 실행시킬 수 있다.In another embodiment, the webtoon automatic coloring program may be provided as an application. The webtoon automatic coloring application is a smart phone, a tablet, or a laptop equipped with an input means for inputting data, a processing means for processing input data, and an output means for outputting processed data, wherein the input means inputs a webtoon image from a user Receiving first function; A second function for the processing means to generate a coloring model trained by a deep learning-based algorithm using the black and white sketch image and the original color image of the webtoon image as input values; And the processing means may execute a third function for automatically coloring the sketch image of the user by inferring color based on the coloring model.

본 실시예에서, 제1 기능은 전술한 (a)단계(S10)이며 제2 기능은 전술한 (b)단계(S30)이고, 제3 기능은 전술한 (c)단계(S50)일 수 있다. 최근, IT기술의 고도화에 따라, 웹툰 작가들을 위한 작화용 대형 태플릿 PC가 보급되고 있다. 과거, 펜으로 직접 용지에 스케치를 해야 했던 웹툰 작가들은 태플릿 PC의 작화 어플리케이션을 이용하여 실제 펜과 같은 정밀도로 스케치, 수정, 채색을 작업할 수 있으며, 뿐만 아니라, 블러링, 브러쉬 등의 다양한 효과를 손쉽게 구현할 수 있어 전통적인 페이퍼 또는 PC 작업보다 선호되고 있다. 이에, 본 실시예에 따른 웹툰 자동 채색 프로그램은 스마트폰, 태블릿, 또는 노트북에 보급되기 위하여 매체에 저장된 애플리케이션으로 제공될 수 있다.In this embodiment, the first function is the above-mentioned step (a) (S10), the second function is the above-described step (b) (S30), and the third function is the above-described step (c) (S50). . Recently, with the advancement of IT technology, large-scale tablet PCs for drawing for webtoon writers have been spreading. In the past, webtoon writers who had to sketch directly on paper with a pen can use the tablet PC's drawing application to work with sketches, corrections, and coloring with the same precision as a real pen, as well as various blurring, brushes, etc. The effect is easy to implement, so it is preferred over traditional paper or PC work. Accordingly, the webtoon automatic coloring program according to the present embodiment may be provided as an application stored in a medium in order to be distributed to a smartphone, tablet, or notebook.

도 5는 본 발명의 실시예에 따른 채색 커스터마이즈 프로그램의 시스템 흐름도를 나타낸 것이다. 도 6은 도 5의 실시예에서 채색 패턴을 입력하는 단계의 컷의 영역을 선택하는 실시예를 나타낸 것이다. 도 7은 도 5의 실시예에서, 채색 패턴을 결정하는 단계의 시스템 흐름도를 나타낸 것이다. 도 8은 채색패턴을 조합하는 알고리즘의 예시를 나타낸 것이다.5 illustrates a system flow diagram of a color customization program according to an embodiment of the present invention. FIG. 6 shows an embodiment of selecting a region of a cut in the step of inputting a coloring pattern in the embodiment of FIG. 5. FIG. 7 shows a system flow diagram of the step of determining a coloring pattern in the embodiment of FIG. 5. 8 shows an example of an algorithm for combining color patterns.

도 6 내지 도 8을 참조하면, 본 발명의 실시예에 따른 채색 커스터마이즈 프로그램은 만화나 이미지 등을 채색하는 방법에 있어서 자동채색이 완료된 이후 제작자의 의도에 의하여 지정한 채색(색상)패턴을 추가하여 적용하여 이미지의 색으로 변경을 할 수 있다. 채색패턴은 특정적인 색상을 지정하여 자동채색 시에 추가하여 반영하도록 할 수 있으며, 이때 채색(색상)패턴의 지정은 도 7에 예시된다. 6 to 8, the coloring customization program according to the embodiment of the present invention is applied by adding a coloring (color) pattern designated by the manufacturer's intention after automatic coloring is completed in a method of coloring cartoons or images, etc. To change the color of the image. The coloring pattern can be assigned to reflect a specific color by automatic coloring, and the designation of the coloring (color) pattern is illustrated in FIG. 7.

도 7을 참조하면, 이미지 전체를 지정하거나, 일부 가로영역만 조정하거나, 일부 세로영역만 조정하거나, 사용자가 지정한 컷의 영역만 조정할 수 있도록 레이블을 형성할 수 있다. 예시로서, 사용자가 각 컷 별로 선택영역을 지정하면 해당 이미지에 영역이 선택되어 지고 해당 영역에 추가되어 자동채색이 이루어지며, 해당 컷은 한 장 혹은 여러 장일 수 있다. 또한, 기본적으로 연속적인 컷이지만 때로는 비 연속적으로 지정되어도 무방하다.Referring to FIG. 7, a label may be formed to designate an entire image, adjust only a portion of a horizontal area, adjust only a portion of a vertical area, or adjust only a region of a user-specified cut. As an example, when a user designates a selection area for each cut, an area is selected in the corresponding image and added to the area to perform automatic coloring, and the corresponding cut may be a single sheet or multiple sheets. Also, it is basically a continuous cut, but sometimes it may be designated non-consecutively.

사용자의 패턴은 색상일 수 있으며, 특정사물, 특정동물, 인체형상, 패션의류, 잡화 등 특정모양일 수 있다. 특히 패턴은 사람일 경우 얼굴, 몸, 팔 , 의상 등 잡화등을 AI를 통하여 인지시키고 해당 영역을 지정하여 채색을 하는 것으로 자동채색을 할 경우 해당 영역을 사용자가 지정한 인물의 이미지톤으로 결과값을 나타낼 수 있다. The user's pattern may be a color, and may be a specific shape such as a specific object, a specific animal, a human body shape, fashion clothing, and sundries. In particular, in the case of a person, the face, body, arms, clothes, and other miscellaneous goods are recognized through AI, and the area is designated and colored. In the case of automatic coloring, the result value is displayed as the image tone of the person designated by the user. Can be represented.

사용자의 패턴은 사용자의 의도에 따라 지정 및 생성할 수 있으며, A,B,C,D,E 로 저장하여 사용자가 의도대로 패턴을 언제든 사용할 수 있으며, 사용자(원사용자)는 해당패턴을 공유하여 다른 사용자가 패턴을 이용하게 할 수 있다. 이때 다른 사용자는 패턴을 만든 원사용자에게 해당비용을 지불하거나 해당패턴을 이용하여 수입을 얻을 경우 수입을 쉐어할 수 있도록 할 수 있다. 이때의 수익은 비율에 따라 나뉘게 되는데 이때 비율은 원사용자와 다른 사용자, 저작툴이나 플랫폼(있을 경우)가 정할 수 있다. The user's pattern can be designated and created according to the user's intention, and saved as A, B, C, D, E, so that the user can use the pattern as intended, and the user (original user) can share the pattern You can let other users use the pattern. At this time, other users can share the income when they pay the corresponding cost to the original user who created the pattern or obtain income using the pattern. At this time, the profit is divided according to the ratio. At this time, the ratio can be determined by the original user and other users, authoring tools or platforms (if any).

도 8의 자동채색의 사용방법은 자동채색을 실시하기 전 자동채색의 기본패턴을 선택하고 또한 채색패턴을 적용하여 채색을 결과값을 다양하게 내는 방법이다. 이때 자동채색의 종류와 채색패턴의 종류는 사용자가 별도로 만들 수 있도록 할 수 있다. The method of using automatic coloring in FIG. 8 is a method of selecting a basic pattern of automatic coloring before performing automatic coloring, and applying a coloring pattern to vary the result of coloring. At this time, the type of automatic coloring and the type of coloring pattern can be made by the user.

이상에서 대표적인 실시예를 통하여 본 발명을 상세하게 설명하였으나, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자는 상술한 실시예에 대하여 본 발명의 범주에서 벗어나지 않는 한도 내에서 다양한 변형이 가능함을 이해할 것이다. 그러므로 본 발명의 권리 범위는 설명한 실시예에 국한되어 정해져서는 안 되며, 후술하는 특허청구범위뿐만 아니라 특허청구범위와 균등 개념으로부터 도출되는 모든 변경 또는 변형된 형태에 의하여 정해져야 한다. Although the present invention has been described in detail through exemplary embodiments above, those skilled in the art to which the present invention pertains understand that various modifications are possible within the limits of the embodiments described above without departing from the scope of the present invention. will be. Therefore, the scope of rights of the present invention should not be limited to the described embodiments, but should be determined by any modified or modified form derived from the claims and equivalent concepts as well as the claims described below.

Claims (5)

데이터를 입력하는 입력 수단, 입력된 데이터를 처리하는 처리 수단을 갖춘 컴퓨터에,
(a) 상기 입력 수단이 사용자로부터 웹툰 이미지를 입력받는 단계;
(b) 상기 처리 수단이 상기 웹툰 이미지의 흑백 스케치 이미지와 원본 컬러 이미지를 입력값으로 하여 딥러닝 기반 알고리즘으로 학습된 채색 모델을 생성하는 단계;
(c) 상기 처리 수단이 상기 채색 모델을 기반으로 색상을 추론하여 사용자의 흑백 스케치 이미지를 자동으로 채색하는 단계;
(d) 사용자가 부분적인 채색 영역을 선택하는 단계; 및
(e) 사용자가 조합된 채색 패턴을 선택하는 단계를 실행시키기 위하여 매체에 저장된 웹툰의 채색 커스터마이징 프로그램.
To a computer equipped with input means for inputting data and processing means for processing inputted data,
(a) the input means receiving a webtoon image from a user;
(b) the processing means generating a coloring model trained by a deep learning-based algorithm using black and white sketch images of the webtoon image and original color images as input values;
(c) automatically processing the user's black and white sketch image by inferring color based on the coloring model;
(d) the user selecting a partial colored area; And
(e) Color customizing program of webtoons stored in the medium to execute the step of selecting the combined coloring pattern by the user.
제 1 항에 있어서,
상기 (d) 단계는,
이미지 전체 지정, 이미지의 가로영역 지정, 이미지의 세로영역 지정, 또는 이미지의 선택 영역을 폐루프로 지정하는 레이블이 제공되는 것을 특징으로 하는 매체에 저장된 웹툰의 채색 커스터마이징 프로그램.
According to claim 1,
Step (d) is,
Webtoon color customization program stored in the media, characterized in that a label is provided to designate the entire image, specify the horizontal area of the image, specify the vertical area of the image, or specify the selected area of the image as a closed loop.
제 1 항에 있어서,
상기 (e)단계는,
채색 패턴으로, 색상, 특정사물, 특정동물, 인체형상, 패션의류, 잡화의 모양을 포함하는 것을 특징으로 하는 매체에 저장된 웹툰의 채색 커스터마이징 프로그램.
According to claim 1,
Step (e) is,
Webtoon's coloring customization program stored in media, characterized by including the pattern of colors, colors, specific objects, specific animals, human body shapes, fashion clothes, and miscellaneous goods.
제 1 항에 있어서,
상기 (e)단계는,
학습된 사용자의 스케치를 비율적으로 반영하여 다른 채색 스케치와 조합하여 채색 패턴을 생성하는 단계;
채색 패턴을 분류하여 저장하는 단계; 및
분류된 채색 패턴을 공유하는 단계를 포함하는 것을 특징으로 하는 매체에 저장된 웹툰의 채색 커스터마이징 프로그램.
According to claim 1,
Step (e) is,
Generating a coloring pattern by combining the learned user's sketch proportionately with other coloring sketches;
Classifying and storing the coloring pattern; And
Coloring customization program of the webtoon stored in the medium, characterized in that it comprises the step of sharing the classified coloring pattern.
데이터를 입력하는 입력 수단, 입력된 데이터를 처리하는 처리 수단을 갖춘 스마트폰, 태블릿, 또는 노트북에,
상기 입력 수단이 사용자로부터 웹툰 이미지를 입력받는 제1 기능;
상기 처리 수단이 상기 웹툰 이미지의 흑백 스케치 이미지와 원본 컬러 이미지를 입력값으로 하여 딥러닝 기반 알고리즘으로 학습된 채색 모델을 생성하는 제2 기능;
상기 처리 수단이 상기 채색 모델을 기반으로 색상을 추론하여 사용자의 스케치 이미지를 자동으로 채색하는 제3 기능;
사용자가 부분적인 채색 영역을 선택하게 되는 제4 기능; 및
사용자가 조합된 채색 패턴을 선택하게 되는 제5 기능을 실행시키기 위하여 매체에 저장된 웹툰 자동 채색 애플리케이션.
In a smartphone, tablet, or laptop equipped with input means for inputting data, and processing means for processing input data,
A first function in which the input means receives a webtoon image from a user;
A second function for the processing means to generate a coloring model trained by a deep learning-based algorithm using the black and white sketch image and the original color image of the webtoon image as input values;
A third function in which the processing means infers a color based on the coloring model to automatically color a sketch image of the user;
A fourth function in which the user selects a partial colored area; And
A webtoon auto-coloring application stored in the medium to execute a fifth function in which the user selects a combined coloring pattern.
KR1020180150846A 2018-11-29 2018-11-29 Webtoons color customizing programs and applications of deep learning KR20200064591A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020180150846A KR20200064591A (en) 2018-11-29 2018-11-29 Webtoons color customizing programs and applications of deep learning

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020180150846A KR20200064591A (en) 2018-11-29 2018-11-29 Webtoons color customizing programs and applications of deep learning

Publications (1)

Publication Number Publication Date
KR20200064591A true KR20200064591A (en) 2020-06-08

Family

ID=71089631

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180150846A KR20200064591A (en) 2018-11-29 2018-11-29 Webtoons color customizing programs and applications of deep learning

Country Status (1)

Country Link
KR (1) KR20200064591A (en)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102247662B1 (en) * 2021-01-29 2021-05-03 주식회사 아이코드랩 Device and method for automatically coloring cartoon sketch image
KR20220048577A (en) 2020-10-13 2022-04-20 엔에이치엔 주식회사 Method and system for image colorization based on deep-learning
KR20220106247A (en) * 2021-01-21 2022-07-29 연세대학교 산학협력단 Method and device for correcting medical image using phantom
KR20220115395A (en) * 2021-02-10 2022-08-17 네이버웹툰 유한회사 Method and apparatus for managing an artificial neural network model that automatically colors sketch images
KR102449795B1 (en) * 2022-02-23 2022-09-30 주식회사 아이코드랩 Apparatus and method for automatically coloring sketch images
KR102449790B1 (en) * 2022-02-23 2022-09-30 주식회사 아이코드랩 Apparatus and method for automatically coloring sketch images
KR102467062B1 (en) * 2021-05-07 2022-11-14 전남대학교산학협력단 Automatic coloring system and method
KR20230064722A (en) 2021-11-04 2023-05-11 장미 Content coloring apparatus

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20180066440A (en) 2016-12-09 2018-06-19 장보라 Apparatus for learning painting, method thereof and computer recordable medium storing program to perform the method

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20180066440A (en) 2016-12-09 2018-06-19 장보라 Apparatus for learning painting, method thereof and computer recordable medium storing program to perform the method

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20220048577A (en) 2020-10-13 2022-04-20 엔에이치엔 주식회사 Method and system for image colorization based on deep-learning
KR20220106247A (en) * 2021-01-21 2022-07-29 연세대학교 산학협력단 Method and device for correcting medical image using phantom
KR102247662B1 (en) * 2021-01-29 2021-05-03 주식회사 아이코드랩 Device and method for automatically coloring cartoon sketch image
US20220245866A1 (en) * 2021-01-29 2022-08-04 icode-lab corps. Device and method for automatically coloring cartoon sketch image
KR20220115395A (en) * 2021-02-10 2022-08-17 네이버웹툰 유한회사 Method and apparatus for managing an artificial neural network model that automatically colors sketch images
KR102467062B1 (en) * 2021-05-07 2022-11-14 전남대학교산학협력단 Automatic coloring system and method
KR20230064722A (en) 2021-11-04 2023-05-11 장미 Content coloring apparatus
KR102449795B1 (en) * 2022-02-23 2022-09-30 주식회사 아이코드랩 Apparatus and method for automatically coloring sketch images
KR102449790B1 (en) * 2022-02-23 2022-09-30 주식회사 아이코드랩 Apparatus and method for automatically coloring sketch images

Similar Documents

Publication Publication Date Title
KR20200064591A (en) Webtoons color customizing programs and applications of deep learning
KR20200052438A (en) Deep learning-based webtoons auto-painting programs and applications
US11783461B2 (en) Facilitating sketch to painting transformations
Lin et al. Probabilistic color-by-numbers: Suggesting pattern colorizations using factor graphs
US11386589B2 (en) Method and device for image generation and colorization
JP2020187727A (en) Line drawing generation
CN112883826B (en) Face cartoon generation method based on learning geometry and texture style migration
KR102490319B1 (en) Methods for automatic generation and transformation of artificial intelligence content
EP3970118A1 (en) Automatic generation of stylized icons
CN113838158A (en) Image and video reconstruction method and device, terminal equipment and storage medium
Lee et al. Emotion-inspired painterly rendering
Aizawa et al. Do you like sclera? Sclera-region detection and colorization for anime character line drawings
Zhang et al. Reducing bias in AI-based analysis of visual artworks
Glez-Morcillo et al. Gaudii: An automated graphic design expert system
Shi [Retracted] Application Model Construction of Traditional Cultural Elements in Illustration Design under Artificial Intelligence Background
CN113763498B (en) Industrial manufacturing-oriented portrait simple drawing region self-adaptive color matching method and system
Castellano et al. A brief overview of deep learning approaches to pattern extraction and recognition in paintings and drawings
Yu et al. Deep semantic space guided multi-scale neural style transfer
KR102622382B1 (en) Method for creating banner image automatically
Wu et al. The Art of Artificial Intelligent Generated Content for Mobile Photography
Kabilka Algorithm driven graphic design
Zhang et al. portrait map Art generation by Asymmetric Image-to-Image translation
DiVerdi et al. Generating Playful Palettes from Images.
Bagwari et al. An edge filter based approach of neural style transfer to the image stylization
US20240135611A1 (en) Neural compositing by embedding generative technologies into non-destructive document editing workflows

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal