KR102449790B1 - Apparatus and method for automatically coloring sketch images - Google Patents

Apparatus and method for automatically coloring sketch images Download PDF

Info

Publication number
KR102449790B1
KR102449790B1 KR1020220023653A KR20220023653A KR102449790B1 KR 102449790 B1 KR102449790 B1 KR 102449790B1 KR 1020220023653 A KR1020220023653 A KR 1020220023653A KR 20220023653 A KR20220023653 A KR 20220023653A KR 102449790 B1 KR102449790 B1 KR 102449790B1
Authority
KR
South Korea
Prior art keywords
class
unit
coloring
color
sketch image
Prior art date
Application number
KR1020220023653A
Other languages
Korean (ko)
Inventor
배정우
서현
신지수
이종연
이효제
정승원
Original Assignee
주식회사 아이코드랩
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 아이코드랩 filed Critical 주식회사 아이코드랩
Priority to KR1020220023653A priority Critical patent/KR102449790B1/en
Application granted granted Critical
Publication of KR102449790B1 publication Critical patent/KR102449790B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/40Filling a planar surface by adding surface attributes, e.g. colour or texture
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/90Determination of colour characteristics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning

Abstract

Provided are an apparatus and a method for automatically coloring sketch images that automatically can color the sketch images of webtoons more accurately and quickly. The apparatus includes: a first region dividing unit dividing a sketch image, which is to be colored, in first unit areas using a first region division technique; a second region dividing unit dividing the sketch image into second unit regions to which classes are mapped by using a second region division technique while the classes are mapped to pixels of the sketch image respectively and the sketch image is divided into the second unit regions based on the class mapped to each of the pixels; a merging unit generating one or more colored unit regions to each of which a class is mapped by using the first unit regions and the second unit regions; and a coloring unit coloring the sketch image using a color corresponding to the class mapped to each of the coloring unit regions.

Description

스케치 이미지 자동 채색 장치 및 방법{Apparatus and method for automatically coloring sketch images} Apparatus and method for automatically coloring sketch images}

본 발명은 스케치 이미지 자동 채색 장치 및 방법에 관한 것으로, 보다 상세하게는 웹툰의 스케치 이미지를 자동으로 채색할 수 있는 스케치 이미지 자동 채색 장치 및 방법에 관한 것이다.The present invention relates to an apparatus and method for automatically coloring a sketch image, and more particularly, to an apparatus and method for automatically coloring a sketch image of a webtoon.

웹툰은 인터넷을 뜻하는 웹(web)과 만화를 뜻하는 카툰(cartoon)의 합성어로서 각종 멀티미디어 효과를 동원해 제작된 인터넷 만화를 말한다. Webtoon is a compound word of web, meaning internet, and cartoon, meaning cartoons, and refers to Internet comics produced by mobilizing various multimedia effects.

웹툰은 창작자가 스케치를 하고, 수동으로 채색을 입히는 형식으로 제작되고 있다. 일반적으로, 흑백의 그림으로 출판되었던 만화와 달리 웹툰은 채색이 완료된 컬러 이미지로 소비자에게 제공되는 특징을 갖는다.Webtoons are produced in the form of sketches by creators and manual coloring. In general, unlike cartoons that were published as black and white drawings, webtoons have the characteristic of being provided to consumers as color images with coloring completed.

웹툰 제작시 창작자가 수동으로 일일이 채색을 하는 경우 웹툰 제작에 많은 시간이 소요되는 문제점이 있다. 이에, 웹툰 창작자는 채색하는 시간을 줄이기 위하여 보조 작가를 두기도 하였다. 이러한 채색 과정은 보통 사람들에게 쉽지 않은 작업으로서 웹툰 창작자 본인이 원하는 대로 채색을 입혀주는 보조 작가를 구하는 것도 용이하지 않은 실정이다.There is a problem in that it takes a lot of time to make a webtoon if the creator manually colorizes each one when making a webtoon. For this reason, the webtoon creator also has an assistant artist to reduce the coloring time. This coloring process is not an easy task for ordinary people, and it is not easy to find an assistant artist who can color the webtoon as desired.

이와 같이 웹툰의 채색은 많은 시간과 비용을 소요하는 작업이기에 이를 자동화하기 위한 연구들이 시도되고 있다. As such, coloring webtoons is a task that takes a lot of time and money, so studies are being made to automate it.

이상의 배경기술에 기재된 사항은 발명의 배경에 대한 이해를 돕기 위한 것으로서, 공개된 종래 기술이 아닌 사항을 포함할 수 있다.The matters described in the background art above are intended to help the understanding of the background of the invention, and may include matters that are not disclosed   prior art.

선행기술 1 : 대한민국 등록특허 제10-2335702호(도메인 적응형 의미론적 영상 분할 장치 및 방법)Prior Art 1: Republic of Korea Patent No. 10-2335702 (Domain Adaptive Semantic Image Segmentation Apparatus and Method) 선행기술 2 : 대한민국 등록특허 제10-2216749호(타겟 이미지의 채색 완성 방법, 장치 및 컴퓨터 프로그램)Prior art 2: Republic of Korea Patent Registration No. 10-2216749 (method, device and computer program for completing coloring of target image)

본 발명은 상기한 종래의 사정을 감안하여 제안된 것으로, 웹툰의 스케치 이미지에 대한 채색을 보다 정확하면서도 빠르게 자동으로 처리해 주도록 하는 스케치 이미지 자동 채색 장치 및 방법을 제공함에 그 목적이 있다.The present invention has been proposed in view of the above-described conventional circumstances, and an object of the present invention is to provide an apparatus and method for automatically coloring a sketch image that automatically and more accurately and quickly processes coloring on a sketch image of a webtoon.

상기와 같은 목적을 달성하기 위하여 본 발명의 바람직한 실시양태에 따른 스케치 이미지 자동 채색 장치는, 제 1 영역 분할 기법을 이용하여 채색 대상인 스케치 이미지를 제 1 단위 영역들로 분할하는 제 1 영역 분할부; 제 2 영역 분할 기법을 이용하여 상기 스케치 이미지를 클래스가 매핑된 제 2 단위 영역들로 분할하되, 상기 스케치 이미지의 각 픽셀에 대하여 클래스를 매핑시키고 픽셀별로 매핑된 클래스를 근거로 상기 스케치 이미지를 제 2 단위 영역들로 분할하는 제 2 영역 분할부; 상기 제 1 단위 영역들과 상기 제 2 단위 영역들을 이용하여 각각이 클래스가 매핑된 하나 이상의 채색 단위 영역을 생성하는 병합부; 및 상기 채색 단위 영역 각각에 매핑된 클래스에 대응하는 색상을 이용하여 상기 스케치 이미지를 채색하는 채색부;를 포함한다.In order to achieve the above object, an apparatus for automatically coloring a sketch image according to a preferred embodiment of the present invention includes: a first region dividing unit that divides a sketch image to be colored into first unit regions using a first region dividing technique; The sketch image is divided into class-mapped second unit regions using a second region division technique, a class is mapped for each pixel of the sketch image, and the sketch image is generated based on the class mapped for each pixel. a second region dividing unit dividing into two unit regions; a merging unit generating one or more color unit regions to which classes are mapped by using the first unit regions and the second unit regions; and a coloring unit that colors the sketch image by using a color corresponding to a class mapped to each of the coloring unit areas.

상기 제 2 영역 분할부는, 클래스간 포함관계를 근거로 상기 각 픽셀별로 매핑된 클래스의 검증 및 자동 조정을 실시할 수 있다.The second region divider may verify and automatically adjust the class mapped to each pixel based on the inclusion relationship between the classes.

상기 병합부는, 상기 검증 및 자동 조정이 완료된 각 픽셀별 클래스를 상기 제 1 단위 영역들의 각 픽셀에 매핑시켜서 하나 이상의 채색 단위 영역을 생성할 수 있다.The merging unit may generate one or more colored unit areas by mapping the class for each pixel for which the verification and automatic adjustment have been completed, to each pixel of the first unit areas.

상기 제 2 영역 분할부는, 상위 클래스 계층에서부터 점차 하위 클래스 계층으로 이동하는 방식으로 클래스 매핑의 옳고 그름을 검증할 수 있다.The second region divider may verify the correctness of the class mapping by gradually moving from the upper class hierarchy to the lower class hierarchy.

상기 제 2 영역 분할부는, 각 픽셀마다, 현재의 클래스 계층내의 클래스들 각각이 매핑될 확률을 구하되, 상위 클래스 계층에서 가장 높은 확률을 갖는 클래스에 포함되는 클래스들 중에서 가장 높은 확률을 갖는 클래스를 현재 클래스 계층의 클래스로 결정할 수 있다.The second region divider, for each pixel, obtains a probability that each of the classes in the current class hierarchy is mapped, and selects the class having the highest probability among the classes included in the class having the highest probability in the upper class hierarchy. It can be determined as a class in the current class hierarchy.

상기 제 2 영역 분할부는, 상기 현재의 클래스 계층 내의 클래스들 중에서 가장 높은 확률을 갖는 클래스가 이전에 판단된 상위 클래스 계층에서 가장 높은 확률을 갖는 클래스에 포함되지 않는다면, 상기 가장 높은 확률을 갖는 클래스를 현재 클래스 계층의 클래스로 결정하지 않고, 상기 가장 높은 확률을 갖는 클래스를 제외한 나머지 클래스들 중에서 가장 높은 확률을 갖는 클래스를 현재 클래스 계층의 클래스로 결정할 수 있다.The second region dividing unit is configured to select the class having the highest probability if the class having the highest probability among the classes in the current class hierarchy is not included in the class having the highest probability in the previously determined upper class hierarchy. Without determining the class of the current class hierarchy, the class having the highest probability among the remaining classes except for the class having the highest probability may be determined as the class of the current class hierarchy.

상기 제 1 영역 분할 기법은, 에지 기반의 이미지 영역 분할 알고리즘일 수 있다.The first region segmentation technique may be an edge-based image region segmentation algorithm.

상기 채색부는, 복수의 분할 영역 및 상기 복수의 분할 영역 각각의 색정보를 포함하는 참조 채색 이미지와 상기 스케치 이미지를 비교하여 상기 스케치 이미지의 각 채색 단위 영역에 대응하는 색상 정보를 추출하고, 추출한 색상 정보를 근거로 상기 스케치 이미지를 채색할 수 있다.The coloring unit compares a plurality of divided regions and a reference colored image including color information of each of the plurality of divided regions with the sketch image, extracts color information corresponding to each coloring unit region of the sketch image, and extracts the extracted color The sketch image may be colored based on the information.

상기 채색부는, 상기 스케치 이미지의 각각의 채색 단위 영역에 대해 영역 신뢰도를 결정하고, 결정된 영역 신뢰도가 소정의 기준 값보다 낮은 채색 단위 영역의 색상은 다른 채색 단위 영역들에 대응하는 색상으로 채색할 수 있다.The coloring unit may determine region reliability for each coloring unit region of the sketch image, and color the coloring unit region having the determined region reliability lower than a predetermined reference value with a color corresponding to other coloring unit regions. have.

상기 채색부는, 상기 영역 신뢰도가 기준값보다 낮은 채색 단위 영역에 대해서, 상기 스케치 이미지의 채색 단위 영역들 중에서 형상과 클래스 중에서 하나 이상이 동일 또는 유사한 채색 단위 영역에 대응하는 색상으로 채색할 수 있다.The coloring unit may color the coloring unit area having the area reliability lower than the reference value with a color corresponding to the coloring unit area having the same or similar shape and class among the coloring unit areas of the sketch image.

상기 채색부는, 사용자 단말로부터의 색 보정 명령에 따라 해당 채색 단위 영역에 대한 색 보정을 행할 수 있다.The coloring unit may perform color correction on the corresponding coloring unit area according to a color correction command from the user terminal.

본 발명의 바람직한 실시양태는, 상기 채색 단위 영역별로 매핑된 클래스를 조정하도록 하는 사용자 피드백 정보를 사용자 단말로부터 수신하여 상기 병합부에게로 전달하는 피드백 반영부;를 더 포함할 수 있다.A preferred embodiment of the present invention may further include a feedback reflecting unit that receives user feedback information for adjusting the class mapped for each colored unit area from the user terminal and transmits it to the merging unit.

본 발명의 바람직한 실시양태는, 상기 채색 단위 영역별로 매핑된 클래스 중에서 사용자 단말로부터의 사용자 피드백 정보를 근거로 조정 대상인 채색 단위 영역에 대한 클래스를 직접 조정하는 피드백 반영부;를 더 포함할 수 있다.A preferred embodiment of the present invention may further include a feedback reflecting unit that directly adjusts a class for a color unit area to be adjusted based on user feedback information from a user terminal among the classes mapped for each color unit area.

한편, 본 발명의 바람직한 실시양태에 따른 스케치 이미지 자동 채색 방법은, 제 1 영역 분할 기법을 이용하여 채색 대상인 스케치 이미지를 제 1 단위 영역들로 분할하는 제 1 단계; 제 2 영역 분할 기법을 이용하여 상기 스케치 이미지를 클래스가 매핑된 제 2 단위 영역들로 분할하되, 상기 스케치 이미지의 각 픽셀에 대하여 클래스를 매핑시키고 픽셀별로 매핑된 클래스를 근거로 상기 스케치 이미지를 제 2 단위 영역들로 분할하는 제 2 단계; 상기 제 1 단위 영역들과 상기 제 2 단위 영역들을 이용하여 각각이 클래스가 매핑된 하나 이상의 채색 단위 영역을 생성하는 제 3 단계; 및 상기 채색 단위 영역 각각에 매핑된 클래스에 대응하는 색상을 이용하여 상기 스케치 이미지를 채색하는 제 4 단계;를 포함한다.Meanwhile, a method for automatically coloring a sketch image according to a preferred embodiment of the present invention includes a first step of dividing a sketch image to be colored into first unit regions using a first region division technique; The sketch image is divided into class-mapped second unit regions using a second region division technique, a class is mapped for each pixel of the sketch image, and the sketch image is generated based on the class mapped for each pixel. a second step of dividing into two unit regions; a third step of generating one or more color unit regions to which classes are mapped by using the first unit regions and the second unit regions; and a fourth step of coloring the sketch image using a color corresponding to a class mapped to each of the coloring unit areas.

이러한 구성의 본 발명에 따르면, 채색 대상인 스케치 이미지를 에지 기반 영상 분할 및 의미론적 영상 분할로 각각 영역 분할하고, 에지 기반으로 분할된 영역에 대해 의미론적 영상 분할 기법에 의한 클래스를 매핑시켜 그에 상응하는 색상을 자동으로 채색할 수 있으므로, 스케치 이미지의 채색에 소요되는 시간을 감소시킬 수 있다. 이에 의해, 웹툰 완성을 위해 소요되는 시간을 감소시킬 수 있는 효과가 있다.According to the present invention of this configuration, a sketch image to be colored is divided into an edge-based image segmentation and a semantic image segmentation, respectively, and a class is mapped by the semantic image segmentation technique to the edge-based segmented area to correspond to the corresponding area. Since colors can be automatically colored, the time required for coloring sketch images can be reduced. Thereby, there is an effect that can reduce the time required to complete the webtoon.

특히, 본 발명은 클래스간 포함관계가 정의된 클래스 계층도를 기반으로, 클래스 매핑된 분할 영역의 클래스 검증 및 조정을 자동으로 할 수 있으므로, 사용자가 일일이 육안으로 클래스를 검증한 후에 조정해야 되는 수고로움을 해소시켜 줄 수 있다. 이로 인해, 사용상의 편리함을 제공하는 효과가 있다.In particular, the present invention can automatically perform class verification and adjustment of class-mapped partitions based on the class hierarchy in which the inclusion relationship between classes is defined. It can relieve loneliness. For this reason, there is an effect of providing convenience in use.

도 1은 본 발명의 실시예에 따른 스케치 이미지 자동 채색 장치가 채용된 시스템 구성도이다.
도 2는 도 1에 도시된 서버의 내부 구성도이다.
도 3은 도 2에 도시된 제어부의 내부 구성도이다.
도 4는 도 3에 도시된 이미지 획득부의 설명에 채용되는 도면이다.
도 5는 도 3에 도시된 제 1 영역 분할부의 설명에 채용되는 도면이다.
도 6은 도 3에 도시된 제 2 영역 분할부의 설명에 채용되는 도면이다.
도 7은 도 3에 도시된 제 2 영역 분할부의 내부 구성도이다.
도 8은 본 발명의 실시예에 채용되는 클래스 계층도의 일 예이다.
도 9 내지 도 11은 도 3에 도시된 제 2 영역 분할부의 설명에 채용되는 도면이다.
도 12 내지 도 14는 도 3에 도시된 채색부의 설명에 채용되는 도면이다.
도 15는 본 발명의 실시예에 따른 스케치 이미지 자동 채색 방법을 설명하기 위한 플로우차트이다.
1 is a system configuration diagram in which an automatic sketch image coloring apparatus according to an embodiment of the present invention is employed.
FIG. 2 is an internal configuration diagram of the server shown in FIG. 1 .
FIG. 3 is an internal configuration diagram of the control unit shown in FIG. 2 .
FIG. 4 is a diagram employed in the description of the image acquisition unit shown in FIG. 3 .
FIG. 5 is a diagram employed to explain the first region division unit shown in FIG. 3 .
FIG. 6 is a diagram employed to explain the second region division unit shown in FIG. 3 .
FIG. 7 is an internal configuration diagram of the second region division unit shown in FIG. 3 .
8 is an example of a class hierarchy employed in an embodiment of the present invention.
9 to 11 are diagrams employed in the description of the second region division unit shown in FIG. 3 .
12 to 14 are diagrams employed to explain the coloring part shown in FIG. 3 .
15 is a flowchart illustrating a method for automatically coloring a sketch image according to an embodiment of the present invention.

본 발명은 다양한 변경을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시 예들을 도면에 예시하고 상세하게 설명하고자 한다.Since the present invention can have various changes and can have various embodiments, specific embodiments are illustrated in the drawings and described in detail.

그러나, 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.However, this is not intended to limit the present invention to specific embodiments, and should be understood to include all modifications, equivalents and substitutes included in the spirit and scope of the present invention.

본 출원에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.The terms used in the present application are only used to describe specific embodiments, and are not intended to limit the present invention. The singular expression includes the plural expression unless the context clearly dictates otherwise. In the present application, terms such as “comprise” or “have” are intended to designate that a feature, number, step, operation, component, part, or combination thereof described in the specification exists, but one or more other features It is to be understood that this does not preclude the possibility of the presence or addition of numbers, steps, operations, components, parts, or combinations thereof.

다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 의미를 가진 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.Unless defined otherwise, all terms used herein, including technical or scientific terms, have the same meaning as commonly understood by one of ordinary skill in the art to which this invention belongs. Terms such as those defined in commonly used dictionaries should be interpreted as having a meaning consistent with the meaning in the context of the related art, and should not be interpreted in an ideal or excessively formal meaning unless explicitly defined in the present application. does not

이하, 첨부한 도면들을 참조하여, 본 발명의 바람직한 실시예를 보다 상세하게 설명하고자 한다. 본 발명을 설명함에 있어 전체적인 이해를 용이하게 하기 위하여 도면상의 동일한 구성요소에 대해서는 동일한 참조부호를 사용하고 동일한 구성요소에 대해서 중복된 설명은 생략한다. Hereinafter, preferred embodiments of the present invention will be described in more detail with reference to the accompanying drawings. In describing the present invention, in order to facilitate the overall understanding, the same reference numerals are used for the same components in the drawings, and duplicate descriptions of the same components are omitted.

도 1은 본 발명의 실시예에 따른 스케치 이미지 자동 채색 장치가 채용된 시스템 구성도이다.1 is a system configuration diagram in which an automatic sketch image coloring apparatus according to an embodiment of the present invention is employed.

도 1의 시스템은 사용자 단말(100), 네트워크(200), 및 서버(300)를 포함할 수 있다. The system of FIG. 1 may include a user terminal 100 , a network 200 , and a server 300 .

사용자 단말(100)은 사용자의 조작에 따라 채색 대상이 되는 스케치 이미지를 네트워크(200)를 통해 서버(300)에게로 전송할 수 있다. 예컨대, 스케치 이미지내에는 하나 이상의 객체(예컨대, 등장 캐릭터, 주변 물체 등)를 나타내는 외곽선이 포함될 수 있다. 스케치 이미지는 선화 이미지로 지칭될 수도 있다.The user terminal 100 may transmit a sketch image to be colored according to a user's manipulation to the server 300 through the network 200 . For example, the sketch image may include an outline indicating one or more objects (eg, an appearance character, a surrounding object, etc.). The sketch image may be referred to as a line drawing image.

사용자 단말(100)은 채색 대상이 되는 스케치 이미지를 생성 또는 저장할 수 있다. 예컨대, 스케치 이미지는 채색이 완성되지 않은 이미지일 수 있다. 즉, 스케치 이미지는 채색되지 않은 부분을 포함하거나 채색이 전혀 되지 않은 이미지일 수 있다. 본 발명의 실시예에서는 채색 대상인 스케치 이미지라 함은 채색이 전혀 되지 않은 이미지를 의미하는 것으로 한다.The user terminal 100 may generate or store a sketch image to be colored. For example, the sketch image may be an image in which coloring is not completed. That is, the sketch image may include an uncolored portion or may be an image that is not colored at all. In the embodiment of the present invention, a sketch image to be colored means an image that is not colored at all.

채색대상인 스케치 이미지가 서버(300)에게로 전송되면, 서버(300)는 스케치 이미지에 대하여 제 1 영역 분할 기법(예컨대, 에지 기반의 이미지 영역 분할 기법) 및 제 2 영역 분할 기법(예컨대, 의미론적 이미지 영역 분할 기법)으로 각각 영역 분할을 행한다. When the sketch image to be colored is transmitted to the server 300 , the server 300 performs a first region dividing technique (eg, an edge-based image region dividing technique) and a second region dividing technique (eg, semantic) with respect to the sketch image. Each region is divided by image region division technique).

서버(300)는 제 1 영역 분할 기법에 의한 분할 영역들과 제 2 영역 분할 기법에 의한 분할 영역들을 병합하여 하나 이상의 채색 단위 영역을 생성하되 각각의 채색 단위 영역에는 그에 상응하는 클래스를 매핑시킬 수 있다. 여기서, 클래스는 눈, 코, 입, 머리카락, 팔, 다리 등과 같은 의미를 지니는 단위라고 할 수 있다.The server 300 may generate one or more colored unit areas by merging the divided areas by the first area division technique and the divided areas by the second area division technique, and a corresponding class may be mapped to each colored unit area. have. Here, the class can be said to be a unit having the same meaning as eyes, nose, mouth, hair, arms, legs, and the like.

서버(300)는 채색 단위 영역별로 클래스가 매핑된 결과물(예컨대, 이미지)을 사용자 단말(100)에게로 출력할 수 있다. The server 300 may output, to the user terminal 100 , a result (eg, an image) in which classes are mapped for each colored unit area.

그에 따라, 사용자 단말(100)은 클래스가 매핑된 채색 단위 영역들 중에서 하나 이상에 대한 피드백 정보(예컨대, 클래스 조정 정보)를 네트워크(200)를 통해 서버(300)에게로 전송할 수 있다. 예를 들어, 어느 한 채색 단위 영역에 대한 클래스가 "눈"이 되어야 함에도 불구하고 "팔"로 잘못 매핑되어 있을 수 있다. 이 경우, 사용자는 이를 육안으로 확인한 후에, 해당 채색 단위 영역에 대하여 수정될 클래스를 입력할 수 있다. 이에, 사용자 단말(100)은 해당 채색 단위 영역에 대해 수정될 클래스를 포함하는 피드백 정보를 네트워크(200)를 통해 서버(300)에게로 전송할 수 있다.Accordingly, the user terminal 100 may transmit feedback information (eg, class adjustment information) on one or more of the class-mapped coloring unit regions to the server 300 through the network 200 . For example, the class for one colored unit area may be incorrectly mapped to "arm" even though it should be "eye". In this case, after visually checking this, the user may input a class to be corrected with respect to the corresponding colored unit area. Accordingly, the user terminal 100 may transmit feedback information including a class to be corrected for the corresponding colored unit area to the server 300 through the network 200 .

사용자 단말(100)은 연산 처리 기능을 갖는 컴퓨팅 장치로서, 이동형 장치이거나 또는 고정형 장치일 수 있다. 예컨대, 사용자 단말(100)은 컴퓨터, PC(personal computer), 스마트폰, 네비게이션, 랩톱 컴퓨터, 태블릿 컴퓨터, 웨어러블 장치 또는 태블릿 등을 의미할 수 있으나, 본 발명의 실시 예들이 이에 한정되는 것은 아니다.The user terminal 100 is a computing device having an arithmetic processing function, and may be a mobile device or a fixed device. For example, the user terminal 100 may mean a computer, a personal computer (PC), a smart phone, a navigation system, a laptop computer, a tablet computer, a wearable device, or a tablet, but embodiments of the present invention are not limited thereto.

도 1에서는 사용자 단말(100)을 하나만 도시하였으나, 실제로는 다수의 사용자 단말(100)이 존재하는 것으로 이해하는 것이 좋다.Although only one user terminal 100 is illustrated in FIG. 1 , it is better to understand that there are actually a plurality of user terminals 100 .

사용자 단말(100)은 네트워크(200)를 통해 서버(300)와 통신할 수 있다. 사용자 단말(100)은 무선 통신 방식의 네트워크 또는 유선 통신 방식의 네트워크에 따라 서버(300)와 이미지 데이터를 주고받을 수 있다.The user terminal 100 may communicate with the server 300 through the network 200 . The user terminal 100 may exchange image data with the server 300 according to a wireless communication network or a wired communication network.

예를 들어, 무선 통신 방식의 네트워크(200)는 무선랜(Wireless LAN (WLAN)), 와이브로(Wireless Broadband (Wibro)), WCDMA(Wideband CDMA), IEEE 802.16, 롱 텀 에볼루션(Long Term Evolution (LTE)), LTE-A(Long Term Evolution-Advanced), 블루투스(Bluetooth), RFID(Radio Frequency Identification), 적외선 통신(Infrared Data Association: IrDA), UWB(Ultra-Wideband), 지그비(ZigBee), 인접 자장 통신(Near Field Communication (NFC)), 초음파 통신(Ultra Sound Communication (USC)), 가시광 통신(Visible Light Communication (VLC)), 와이 파이(Wi-Fi) 등을 포함할 수 있으나, 이에 한정되는 것은 아니다.For example, the wireless communication type network 200 includes a wireless LAN (WLAN), a wireless broadband (Wibro), a wideband CDMA (WCDMA), an IEEE 802.16, and a long term evolution (LTE). )), LTE-A (Long Term Evolution-Advanced), Bluetooth (Bluetooth), RFID (Radio Frequency Identification), Infrared Data Association (IrDA), UWB (Ultra-Wideband), ZigBee, adjacent magnetic field Communication (Near Field Communication (NFC)), Ultrasound Communication (Ultra Sound Communication (USC)), Visible Light Communication (VLC), Wi-Fi, etc. may include, but are limited thereto not.

한편, 유선 통신 방식의 네트워크(200)는 유선 LAN(Local Area Network), 유선 WAN(Wide Area Network), 전력선 통신(Power Line Communication (PLC)), USB 통신, 이더넷(Ethernet), 시리얼 통신(serial communication), 광/동축 케이블 통신 등을 포함할 수 있으나, 이에 한정되는 것은 아니다.On the other hand, the network 200 of the wired communication method is wired LAN (Local Area Network), wired WAN (Wide Area Network), power line communication (Power Line Communication (PLC)), USB communication, Ethernet (Ethernet), serial communication (serial) communication), and optical/coaxial cable communication, but is not limited thereto.

서버(300)는 본 발명의 실시예에 따른 스케치 이미지 자동 채색 장치가 될 수 있다. 물론, 필요에 따라서는 본 발명의 실시예에 따른 스케치 이미지 자동 채색 장치가 서버(300)에 포함되는 것으로 할 수도 있다.The server 300 may be an apparatus for automatically coloring sketch images according to an embodiment of the present invention. Of course, if necessary, the automatic sketch image coloring apparatus according to the embodiment of the present invention may be included in the server 300 .

서버(300)는 사용자 단말(100)로부터 채색 대상인 스케치 이미지를 수신(획득)한다. 물론, 서버(300)는 스케치 이미지와 함께 해당 스케치 이미지에 대한 채색 요청을 수신할 수 있다. 만약, 저마다의 사용자 단말(100)로부터 스케치 이미지를 수신한다면, 서버(300)는 사용자 단말(100)마다의 식별 정보를 함께 수신할 수 있다.The server 300 receives (obtains) a sketch image to be colored from the user terminal 100 . Of course, the server 300 may receive a color request for the sketch image together with the sketch image. If a sketch image is received from each user terminal 100 , the server 300 may receive identification information for each user terminal 100 together.

서버(300)는 제 1 영역 분할 기법(예컨대, 에지 기반의 이미지 영역 분할 기법)으로 스케치 이미지에 대한 영역 분할을 행할 수 있다. The server 300 may perform region division on the sketch image using the first region division technique (eg, an edge-based image region division technique).

또한, 서버(300)는 제 2 영역 분할 기법(예컨대, 의미론적 이미지 영역 분할 기법)으로 스케치 이미지에 대한 영역 분할을 행할 수 있다. 이러한 제 2 영역 분할 기법에 의한 영역 분할의 경우, 스케치 이미지의 각 픽셀에 대하여 클래스를 매핑시키고 픽셀별로 매핑된 클래스를 기준으로 스케치 이미지를 하나 이상의 분할 영역으로 분할할 수 있다. 또한, 서버(300)는 기설정된 클래스간 포함관계를 근거로 각 픽셀별로 매핑된 클래스의 검증 및 조정을 자동으로 실시할 수 있다. 여기서, 검증 및 조정은 매핑된 클래스가 정상인지를 검증하여 비정상이면 정상의 클래스로 자동으로 조정하는 것을 의미한다.Also, the server 300 may divide the sketch image into a region using a second region division technique (eg, a semantic image region division technique). In the case of region division by the second region division technique, a class may be mapped for each pixel of the sketch image, and the sketch image may be divided into one or more divided regions based on the class mapped for each pixel. In addition, the server 300 may automatically verify and adjust the class mapped for each pixel based on the inclusion relationship between the preset classes. Here, the verification and adjustment means verifying whether the mapped class is normal and automatically adjusting it to the normal class if it is abnormal.

서버(300)는 제 1 영역 분할 기법에 의한 분할 영역들과 제 2 영역 분할 기법에 의한 분할 영역들을 병합하여 하나 이상의 채색 단위 영역을 생성하되 각각의 채색 단위 영역에는 그에 상응하는 클래스를 매핑시킬 수 있다. The server 300 may generate one or more colored unit areas by merging the divided areas by the first area division technique and the divided areas by the second area division technique, and a corresponding class may be mapped to each colored unit area. have.

서버(300)는 채색 단위 영역별로 클래스가 매핑된 결과물(예컨대, 이미지)을 사용자 단말(100)에게로 출력할 수 있다. The server 300 may output, to the user terminal 100 , a result (eg, an image) in which classes are mapped for each colored unit area.

서버(300)는 클래스를 매핑시킨 채색 단위 영역들 중에서 하나 이상에 대한 사용자 피드백 정보(예컨대, 클래스 조정 정보)를 사용자 단말(100)로부터 수신하게 되면 해당 사용자 피드백 정보를 근거로 해당 채색 단위 영역에 대한 클래스를 조정할 수 있다. When the server 300 receives user feedback information (eg, class adjustment information) for one or more of the coloring unit areas to which the class is mapped from the user terminal 100 , the server 300 applies the corresponding user feedback information to the corresponding coloring unit area based on the user feedback information. class can be adjusted.

서버(300)는 채색 단위 영역 각각에 매핑된 클래스에 대응하는 색상을 이용하여 채색 대상인 스케치 이미지에 대하여 채색을 할 수 있다.The server 300 may color the sketch image to be colored by using a color corresponding to a class mapped to each of the coloring unit areas.

일 예로, 채색을 위해 서버(300)는 클래스별로 할당된 색상 정보를 미리 저장할 수 있다. 예를 들어, 서버(300)는 클래스 팔레트를 미리 저장하고 있을 수 있다. 클래스 팔레트의 경우 클래스 1은 살색, 클래스 2는 적색 등과 같이 클래스별 색상이 미리 결정되어 있을 수 있다. 다르게는, 클래스 팔레트의 클래스별 색상은 이전 화에서의 클래스별 색상 정보에 기인하여 결정될 수 있다. 웹툰의 경우 다수의 에피소드(episode)("화"라고 할 수 있음)로 구성될 수 있고, 각 화별로는 다수의 컷(cut)을 포함할 수 있다. 그에 따라, 예를 들어 2화의 스케치 이미지에 대해 채색을 하고자 하는 경우 1화의 스케치 이미지의 채색에 사용하였던 클래스별 색상 정보를 그대로 이용할 수 있다.For example, for coloring, the server 300 may store color information allocated for each class in advance. For example, the server 300 may store the class palette in advance. In the case of the class palette, a color for each class, such as class 1 is flesh color, class 2 is red, etc., may be predetermined. Alternatively, the color for each class of the class palette may be determined based on color information for each class in the previous picture. In the case of a webtoon, it may be composed of a plurality of episodes (which may be referred to as "a story"), and each episode may include a plurality of cuts. Accordingly, for example, when it is desired to color the sketch image of episode 2, color information for each class used for coloring the sketch image of episode 1 can be used as it is.

다른 예로, 채색을 위해 서버(300)는 다수의 참조 채색 이미지(또는 "샘플 채색 이미지"라고도 할 수 있음)를 저장할 수 있다. 참조 채색 이미지는 웹툰을 구성하는 이미지일 수 있다. 예를 들어, 참조 채색 이미지는 웹툰 내의 객체(예컨대, 등장 캐릭터, 주변 물체 등)를 나타내는 외곽선과 색채를 포함할 수 있다. 즉, 참조 채색 이미지는 제 1 영역 분할 기법(예컨대, 에지 기반의 이미지 영역 분할 기법)으로 영역 분할된 이미지 및 각 분할 영역의 색정보를 포함할 수 있다.As another example, for coloring, the server 300 may store a plurality of reference coloring images (or may also be referred to as "sample coloring images"). The reference colored image may be an image constituting the webtoon. For example, the reference colored image may include outlines and colors representing objects (eg, characters, surrounding objects, etc.) in the webtoon. That is, the reference colored image may include an image divided by a first region division technique (eg, an edge-based image region division technique) and color information of each division region.

이를 위해, 서버(300)는 웹툰으로부터 참조 채색 이미지가 될 수 있는 채색 이미지를 추출(또는 수집)할 수 있다. 예를 들어, 서버(300)는 웹툰이 게시된 웹(web) 상의 웹페이지의 주소를 이용하여, 게시된 웹툰으로부터 참조 채색 이미지를 추출(또는 수집)할 수 있으나, 이에 한정되는 것은 아니다.To this end, the server 300 may extract (or collect) a colored image that may be a reference colored image from the webtoon. For example, the server 300 may extract (or collect) a reference colored image from a published webtoon by using the address of a webpage on a web on which the webtoon is published, but is not limited thereto.

실시 예들에 따라, 서버(300)는 참조 채색 이미지 및 참조 채색 이미지의 순서 정보를 함께 저장할 수 있다. 이때, 순서 정보는 참조 채색 이미지 각각의 웹툰 내에서의 순서를 나타낼 수 있다. 예를 들어, 순서 정보는 참조 채색 이미지가 포함된 웹툰의 에피소드(episode) 또는 참조 채색 이미지가 포함된 컷(cut)에 대한 정보를 의미할 수 있다.According to embodiments, the server 300 may store the reference colored image and order information of the reference colored image together. In this case, the order information may indicate an order in each webtoon of the reference colored image. For example, the order information may mean information about an episode of a webtoon including a reference colored image or a cut including a reference colored image.

서버(300)는 사용자 단말(100)으로부터 채색 대상이 되는 스케치 이미지를 수신하고, 미리 저장된 채색 이미지들 중에서 스케치 이미지의 채색에 사용될 참조 채색 이미지를 결정할 수 있다. 이때, 참조 채색 이미지는 스케치 이미지내의 객체와 유사한 객체를 포함하는 이미지일 수 있다.The server 300 may receive a sketch image to be colored from the user terminal 100 , and may determine a reference colored image to be used for coloring the sketch image from among previously stored colored images. In this case, the reference colored image may be an image including an object similar to an object in the sketch image.

서버(300)는 결정된 참조 채색 이미지를 이용하여 채색 대상인 스케치 이미지를 채색할 수 있다. 이 경우, 서버(300)는 채색 대상인 스케치 이미지에서의 어느 한 채색 단위 영역(A)과 참조 채색 이미지에서의 채색 단위 영역(a, b, c, ?)을 서로 비교한다. 그리고, 서버(300)는 채색 대상인 스케치 이미지에서의 채색 단위 영역(A)과 유사한 채색 단위 영역(예컨대, a)을 찾게 되면 그 영역(즉, 채색 단위 영역 a)의 색을 가져와서 스케치 이미지에서의 채색 단위 영역(A)을 채색하게 된다. 이와 같은 방식으로 채색 대상의 스케치 이미지의 다른 채색 단위 영역에 대해서도 그에 대응하는 색상 정보를 추출하여 채색할 수 있다.The server 300 may color the sketch image to be colored by using the determined reference colored image. In this case, the server 300 compares any one coloring unit area (A) in the sketch image to be colored and the coloring unit area (a, b, c, ?) in the reference coloring image with each other. Then, when the server 300 finds a coloring unit area (eg, a) similar to the coloring unit area A in the sketch image to be colored, the color of the area (ie, the coloring unit area a) is retrieved from the sketch image. The color unit area (A) of In this way, color information corresponding to other coloring unit areas of the sketch image to be colored may also be extracted and colored.

서버(300)는 채색 대상인 스케치 이미지에 대한 채색이 완료되면 사용자 단말(100)에게로 채색된 결과물을 제공할 수 있다. 이때, 서버(300)는 사용자 단말(100)로부터 색보정할 부분에 대한 정보를 피드백받을 수 있다. 그에 따라, 서버(300)는 사용자 피드백 정보(즉, 색보정할 부분에 대한 정보)를 근거로 해당 채색 단위 영역에 대한 색보정을 행할 수 있다.The server 300 may provide a colored result to the user terminal 100 when the coloring of the sketch image, which is the coloring target, is completed. In this case, the server 300 may receive feedback from the user terminal 100 information on the part to be color corrected. Accordingly, the server 300 may perform color correction on the corresponding color unit area based on user feedback information (ie, information on a part to be color corrected).

상술한 서버(300)는 사용자 단말(100)과 통신 가능하고 연산 처리 기능을 갖는 컴퓨팅 장치일 수 있다. The above-described server 300 may be a computing device capable of communicating with the user terminal 100 and having an arithmetic processing function.

도 2는 도 1에 도시된 서버(300)의 내부 구성도이다.FIG. 2 is an internal configuration diagram of the server 300 shown in FIG. 1 .

서버(300)는 통신부(10), 저장부(20), 및 제어부(30)를 포함할 수 있다.The server 300 may include a communication unit 10 , a storage unit 20 , and a control unit 30 .

통신부(10)는 사용자 단말(100)과 데이터를 주고받을 수 있다. 통신부(10)는 무선 통신 방식 또는 유선 통신 방식에 따라 사용자 단말(100)과 이미지 데이터를 주고받을 수 있다. The communication unit 10 may exchange data with the user terminal 100 . The communication unit 10 may exchange image data with the user terminal 100 according to a wireless communication method or a wired communication method.

저장부(20)는 서버(300)의 동작에 필요한 데이터를 저장할 수 있다. 실시 예들에 따라, 저장부(20)는 채색 대상이 되는 스케치 이미지, 클래스별로 할당된 색상 정보, 스케치 이미지의 채색시 참조하기 위한 참조 채색 이미지 등을 저장할 수 있다. The storage unit 20 may store data necessary for the operation of the server 300 . According to embodiments, the storage unit 20 may store a sketch image to be colored, color information assigned to each class, a reference colored image for reference when coloring the sketch image, and the like.

또한, 저장부(20)는 서버(300)에 의해 수행되는 일련의 동작들을 수행하기 위한 명령어들로 구성되는 프로그램을 저장할 수 있다.Also, the storage unit 20 may store a program composed of instructions for performing a series of operations performed by the server 300 .

저장부(20)는 비휘발성 메모리 장치 또는 휘발성 메모리 장치를 포함할 수 있다. 실시 예들에 따라, 저장부(20)는 제어부(30)에 포함되어 구성될 수 있으나, 이에 한정되는 것은 아니다.The storage unit 20 may include a non-volatile memory device or a volatile memory device. According to embodiments, the storage unit 20 may be configured to be included in the control unit 30 , but is not limited thereto.

제어부(30)는 서버(300)의 전반적인 동작들을 제어할 수 있다. The controller 30 may control overall operations of the server 300 .

예를 들어, 제어부(30)는 채색 대상인 스케치 이미지에 대한 제 1 영역 분할 기법으로의 영역 분할을 실시할 수 있다. 제어부(30)는 채색 대상인 스케치 이미지에 대한 제 2 영역 분할 기법으로의 영역 분할을 실시할 수 있다. 제어부(30)는 제 1 영역 분할 기법에 의한 분할 영역들과 제 2 영역 분할 기법에 의한 분할 영역들을 병합하여 하나 이상의 채색 단위 영역을 생성하되 각각의 채색 단위 영역에는 그에 상응하는 클래스를 매핑시킬 수 있다. 제어부(30)는 채색 단위 영역 각각에 매핑된 클래스에 대응하는 색상으로 스케치 이미지를 채색할 수 있다. 제어부(30)는 사용자 피드백 정보를 근거로 해당 채색 단위 영역의 클래스를 조정할 수 있다.For example, the controller 30 may divide the sketch image to be colored using the first region division technique. The controller 30 may divide the sketch image to be colored using the second region division technique. The controller 30 may generate one or more colored unit areas by merging the divided areas by the first area division technique and the divided areas by the second area division technique, and a corresponding class may be mapped to each colored unit area. have. The controller 30 may color the sketch image with a color corresponding to a class mapped to each of the coloring unit areas. The controller 30 may adjust the class of the corresponding coloring unit area based on user feedback information.

즉, 제어부(30)는 서버(300)의 동작을 위한 일련의 연산들 또는 판단들을 수행할 수 있는 장치를 의미할 수 있다. 예를 들어, 제어부(30)는 CPU(central processing unit), MCU(micro controller unit), GPU(graphical processing unit), ASIC(application specific integrated circuit), 또는 FPGA(field programmable gate array)일 수 있으나, 이에 한정되는 것은 아니다.That is, the control unit 30 may refer to a device capable of performing a series of operations or determinations for the operation of the server 300 . For example, the controller 30 may be a central processing unit (CPU), a micro controller unit (MCU), a graphic processing unit (GPU), an application specific integrated circuit (ASIC), or a field programmable gate array (FPGA), The present invention is not limited thereto.

도 3은 도 2에 도시된 제어부(30)의 내부 구성도이고, 도 4는 도 3에 도시된 이미지 획득부(31)의 설명에 채용되는 도면이고, 도 5는 도 3에 도시된 제 1 영역 분할부(32)의 설명에 채용되는 도면이고, 도 6은 도 3에 도시된 제 2 영역 분할부(33)의 설명에 채용되는 도면이고, 도 7은 도 3에 도시된 제 2 영역 분할부(33)의 내부 구성도이고, 도 8은 본 발명의 실시예에 채용되는 클래스 계층도의 일 예이고, 도 9 내지 도 11은 도 3에 도시된 제 2 영역 분할부(33)의 설명에 채용되는 도면이고, 도 12 내지 도 14는 도 3에 도시된 채색부(36)의 설명에 채용되는 도면이다.3 is an internal configuration diagram of the control unit 30 shown in FIG. 2 , FIG. 4 is a diagram employed in the description of the image acquisition unit 31 shown in FIG. 3 , and FIG. 5 is the first shown in FIG. It is a diagram employed in the description of the region dividing unit 32, FIG. 6 is a diagram employed in the description of the second region dividing unit 33 shown in FIG. 3, and FIG. 7 is the second region division shown in FIG. It is an internal configuration diagram of the installment unit 33, FIG. 8 is an example of a class hierarchy employed in an embodiment of the present invention, and FIGS. 9 to 11 are descriptions of the second region division unit 33 shown in FIG. , and FIGS. 12 to 14 are diagrams employed in the description of the coloring part 36 shown in FIG. 3 .

제어부(30)는 이미지 획득부(31), 제 1 영역 분할부(32), 제 2 영역 분할부(33), 병합부(34), 피드백 반영부(35), 및 채색부(36)를 포함할 수 있다. The controller 30 controls the image acquisition unit 31 , the first region dividing unit 32 , the second region dividing unit 33 , the merging unit 34 , the feedback reflecting unit 35 , and the coloring unit 36 . may include

제어부(30)의 각 구성들(31, 32, 33, 34, 35, 36)은 물리적으로 구별된 하드웨어일 수 있다. 이 때, 각 구성들(31, 32, 33, 34, 35, 36) 중 적어도 두 개 이상의 구성들은 일체로 구현될 수도 있다. 또한, 각 구성들(31, 32, 33, 34, 35, 36)은 기능적으로 구별된 모듈일 수도 있다. 즉, 각 구성들(31, 32, 33, 34, 35, 36)은 제어부(30)의 각 기능을 수행하는 기능 블록을 의미할 수 있는데, 이때 각 구성들(31, 32, 33, 34, 35, 36)은 하나의 하드웨어(예컨대, 프로세서)로 구현될 수 있다.Each of the components 31 , 32 , 33 , 34 , 35 and 36 of the control unit 30 may be physically separated hardware. At this time, at least two or more of the components 31 , 32 , 33 , 34 , 35 and 36 may be integrally implemented. In addition, each of the components 31 , 32 , 33 , 34 , 35 and 36 may be a functionally distinct module. That is, each of the components 31 , 32 , 33 , 34 , 35 and 36 may mean a functional block performing each function of the control unit 30 , in which case each of the components 31 , 32 , 33 , 34 , 35 and 36 may be implemented by one piece of hardware (eg, a processor).

이미지 획득부(31)는 통신부(10)를 통해 사용자 단말(100)로부터의 채색 대상인 스케치 이미지(예컨대, 도 4 참조)를 수신할 수 있다.The image acquisition unit 31 may receive a sketch image (eg, see FIG. 4 ) to be colored from the user terminal 100 through the communication unit 10 .

제 1 영역 분할부(32)는 제 1 영역 분할 기법으로 스케치 이미지에 대한 영역 분할을 행할 수 있다. 여기서, 제 1 영역 분할 기법으로 분할된 영역들은 제 1 단위 영역들이라고 할 수 있다.The first region dividing unit 32 may divide the sketch image by using the first region dividing technique. Here, the regions divided by the first region division technique may be referred to as first unit regions.

예를 들어, 제 1 영역 분할 기법은 에지 기반의 이미지 영역 분할 알고리즘일 수 있다. 그에 따라, 제 1 영역 분할부(32)는 스케치 이미지내의 하나 이상의 객체(예컨대, 등장 캐릭터, 주변 물체 등)의 영역을 분할해 낼 수 있고, 각각의 객체를 에지를 기반으로 하여 하나 이상의 제 1 단위 영역으로 분할할 수 있다.For example, the first region segmentation technique may be an edge-based image region segmentation algorithm. Accordingly, the first region dividing unit 32 may divide regions of one or more objects (eg, characters, surrounding objects, etc.) in the sketch image, and divide each object into one or more first regions based on an edge. It can be divided into unit areas.

제 1 영역 분할부(32)는 예를 들어 도 5와 같이 스케치 이미지가 에지 기반으로 다수의 제 1 단위 영역으로 분할된 영상을 출력할 수 있다. 도 5에서는 이해를 돕기 위해 제 1 영역 분할 기법에 의해 분할된 각각의 제 1 단위 영역을 컬러로 표시한 것일 뿐이다. 예를 들어, 도 4의 스케치 이미지를 제 1 영역 분할 기법으로 분할하게 되면 도 5에서와 같이 크게 5가지의 영역(배경, 몸통, 얼굴, 머리카락, 눈썹)으로 분할될 수 있음을 보여준다. 실제로는 소정의 컬러가 제 1 단위 영역별로 표시되지는 않을 것이다.The first region dividing unit 32 may output an image in which the sketch image is divided into a plurality of first unit regions based on an edge, as shown in FIG. 5 . In FIG. 5 , each of the first unit regions divided by the first region division technique is only displayed in color for better understanding. For example, it shows that when the sketch image of FIG. 4 is divided by the first region division technique, it can be divided into five regions (background, body, face, hair, and eyebrows) as shown in FIG. 5 . In reality, a predetermined color may not be displayed for each first unit area.

제 1 영역 분할부(32)는 분할된 각각의 제 1 단위 영역별로 태그를 할당할 수 있다. 예를 들어, 제 1 영역 분할부(32)는 각각의 제 1 단위 영역별로 소정의 번호를 부여할 수 있다.The first region dividing unit 32 may allocate a tag to each of the divided first unit regions. For example, the first area dividing unit 32 may assign a predetermined number to each first unit area.

제 2 영역 분할부(33)는 제 2 영역 분할 기법으로 스케치 이미지에 대한 영역 분할을 행할 수 있다. 여기서, 제 2 영역 분할 기법으로 분할된 영역들은 제 2 단위 영역들이라고 할 수 있다.The second region dividing unit 33 may divide the sketch image by using the second region dividing technique. Here, the regions divided by the second region division technique may be referred to as second unit regions.

예를 들어, 제 2 영역 분할 기법은 의미론적 이미지 영역 분할 알고리즘일 수 있다. 의미론적 이미지 영역 분할 알고리즘은 스케치 이미지의 각 픽셀을 특정 객체로 분류하며 레이블(label)을 지정하는 작업을 수행하는 것으로서, 스케치 이미지를 픽셀 단위로 분할하여 클래스를 나누는 기술이라고 할 수 있다. 의미론적 이미지 영역 분할을 위해 CNN(Convolutional Neural Network), RNN(Recurrent Neural Network), FCN(Fully Convolutional Networks) 등을 활용한 학습 네트워크를 설계해 학습하는 방법을 사용할 수도 있다. For example, the second region segmentation technique may be a semantic image region segmentation algorithm. The semantic image region segmentation algorithm classifies each pixel of a sketch image into a specific object and assigns a label. For semantic image region segmentation, it is also possible to design and learn a learning network using CNN (Convolutional Neural Network), RNN (Recurrent Neural Network), and FCN (Fully Convolutional Networks).

제 2 영역 분할부(33)는 채색 대상인 스케치 이미지를 인가받아 학습된 방식에 따라 인코딩 및 디코딩하여 스케치 이미지의 각 픽셀에 대하여 기지정된 다수의 클래스에 대응하는 확률을 나타내는 클래스 확률맵을 획득할 수 있다. 예를 들어, 각각의 픽셀은 클래스 a일 확률, 클래스 b일 확률, 클래스 c일 확률 등과 같이 하나 이상의 클래스 확률을 가질 수 있다. 이와 같이 각 픽셀별 하나 이상의 클래스 확률의 집합을 클래스 확률맵이라고 할 수 있다. 또한, 제 2 영역 분할부(33)는 각 픽셀에 대하여 가장 높은 확률을 갖는 클래스를 매핑(또는 "할당"이라고 할 수 있음)하고 픽셀별로 매핑된 클래스를 기준으로 스케치 이미지를 하나 이상의 제 2 단위 영역으로 분할할 수 있다.The second region dividing unit 33 receives the sketch image, which is the coloring object, and encodes and decodes it according to the learned method to obtain a class probability map indicating the probability corresponding to a plurality of classes predetermined for each pixel of the sketch image. have. For example, each pixel may have one or more class probabilities, such as class a probability, class b probability, class c probability, and the like. As described above, a set of one or more class probabilities for each pixel may be referred to as a class probability map. In addition, the second region dividing unit 33 maps (or may be referred to as “allocation”) the class having the highest probability for each pixel, and divides the sketch image into one or more second units based on the class mapped for each pixel. It can be divided into regions.

이와 같이 하면, 제 2 영역 분할부(33)는 도 6에서와 같이 스케치 이미지가 의미론적으로 영역 분할된(클래스 매핑된) 의미론적 분할 영상을 출력할 수 있다. 도 6에서는 이해를 돕기 위해 제 2 영역 분할 기법에 의해 분할된 각각의 제 2 단위 영역을 컬러로 표시한 것일 뿐이다. 예를 들어, 도 4의 스케치 이미지를 제 2 영역 분할 기법으로 분할하게 되면 도 6에서와 같이 다수개의 영역(즉, 각기 다른 색이 칠해져 있는 영역)으로 분할될 수 있음을 보여준다. 실제로는 소정의 컬러가 제 2 단위 영역별로 표시되지 않을 것이다.In this way, the second region dividing unit 33 may output a semantically divided image in which the sketch image is semantically divided into regions (class-mapped) as shown in FIG. 6 . In FIG. 6 , each of the second unit regions divided by the second region division technique is only displayed in color for better understanding. For example, it shows that when the sketch image of FIG. 4 is divided by the second region division technique, it can be divided into a plurality of regions (ie, regions with different colors) as in FIG. 6 . In reality, a predetermined color may not be displayed for each second unit area.

그리고, 제 2 영역 분할부(33)는 각 픽셀에 대하여 가장 높은 확률의 클래스를 할당하였다고 하더라도 할당된 클래스가 정상인지 비정상인지를 검증하여 비정상인 클래스를 바르게 조정할 수 있다.In addition, even if the class with the highest probability is assigned to each pixel, the second region divider 33 verifies whether the assigned class is normal or abnormal, and corrects the abnormal class.

본 발명의 실시예에서, 의미론적 이미지 분할 알고리즘만을 사용한다면 에지 부분의 이미지 분할이 제대로 수행되지 않는 "세밀하지 못한 분할"문제가 있을 수 있다. 그래서, 본 발명의 실시예에서는 이러한 문제를 해결하기 위해 제 1 영역 분할부(32)를 함께 채용한 것이다. 즉, 에지 기반의 이미지 영역 분할 기법이 의미론적 이미지 분할 기법에 비해 스케치 이미지의 에지 주변을 보다 세밀하게(또는 정확하게) 분할할 수 있기 때문이다. In the embodiment of the present invention, if only the semantic image segmentation algorithm is used, there may be a "segmentation coarse" problem in which the image segmentation of the edge part is not performed properly. Therefore, in the embodiment of the present invention, the first area dividing unit 32 is employed together to solve this problem. That is, this is because the edge-based image region segmentation technique can more finely (or accurately) segment the edges of the sketch image compared to the semantic image segmentation technique.

제 2 영역 분할부(33)는 도 7에서와 같이, 학습부(41), 및 분할부(42)를 포함할 수 있다.The second region dividing unit 33 may include a learning unit 41 and a dividing unit 42 as shown in FIG. 7 .

학습부(41)는 학습을 위해 소정의 학습 데이터 세트를 사용할 수 있다. 여기서, 학습 데이터 세트는 여타의 웹툰에서 얻은 스케치 이미지 및 이전 화(에피소드)의 스케치 이미지의 모음일 수 있다. 학습 데이터 세트는 다양한 의미론적 클래스에 대해 픽셀 수준의 레이블을 제공할 수 있다.The learning unit 41 may use a predetermined training data set for learning. Here, the training data set may be a collection of sketch images obtained from other webtoons and sketch images of previous episodes (episodes). The training dataset can provide pixel-level labels for various semantic classes.

물론, 필요에 따라서는 채색된 이미지를 학습 데이터 세트에 포함시킬 수 있다. 즉, 학습 데이터 세트에 채색된 이미지를 포함시키고 태깅을 한 후에 학습을 시키게 되면, 각 픽셀이 어디(예컨대, 눈, 코, 입 등)에 포함되는 것인지를 알 수 있다.Of course, colored images can be included in the training data set if desired. That is, if a colored image is included in the training data set and the training is performed after tagging, it is possible to know where each pixel is included (eg, eyes, nose, mouth, etc.).

분할부(42)는 학습부(41)에서의 학습 결과에 따라 현재 입력받은 스케치 이미지에 대하여 의미론적 이미지 분할을 수행한다. The division unit 42 performs semantic image division on the currently input sketch image according to the learning result of the learning unit 41 .

예를 들어, 분할부(42)는 학습부(41)에서 미리 학습된 방식에 따라 입력 이미지를 인코딩하여 입력 특징맵(f)을 획득하고, 획득된 입력 특징맵(f)을 미리 학습된 방식에 따라 디코딩하여 입력 클래스 확률맵(P)을 획득한다. 여기서, 입력 이미지는 의미론적 영상 분할 대상 및 추후의 채색 대상이 되는 이미지로서, 이미지 획득부(31)에서 수신한 스케치 이미지가 될 수 있다. 그리고, 분할부(42)는 입력 클래스 확률맵(P)의 각 픽셀의 클래스별 확률값을 분석하여 예를 들어 최대값을 갖는 클래스를 해당 픽셀의 클래스로 매핑(또는 "할당"이라고 지칭할 수 있음)한다. 그에 따라, 분할부(42)는 입력 이미지에 대한 의미론적 분할 영상(즉, 각각의 제 2 단위 영역별로 클래스가 매핑된 영상)을 출력할 수 있다.For example, the division unit 42 obtains an input feature map f by encoding an input image according to a method previously learned by the learning unit 41, and uses the obtained input feature map f in a previously learned method. By decoding according to , an input class probability map (P) is obtained. Here, the input image is an image to be a semantic image segmentation target and a subsequent coloring target, and may be a sketch image received from the image acquisition unit 31 . And, the division unit 42 analyzes the probability value for each class of each pixel in the input class probability map P, and maps, for example, the class having the maximum value to the class of the corresponding pixel (or may be referred to as "allocation") )do. Accordingly, the segmentation unit 42 may output a semantic segmented image (ie, an image in which classes are mapped for each second unit region) with respect to the input image.

특히, 분할부(42)는 의미론적 이미지 분할만을 하는 것이 아니라 의미론적으로 분할된 각각의 제 2 단위 영역내 픽셀에 매핑된 클래스의 검증 및 자동 조정도 함께 할 수 있다. 이를 위해, 분할부(42)는 조정부(42a)를 포함할 수 있다.In particular, the segmentation unit 42 may not only perform semantic image segmentation, but may also perform verification and automatic adjustment of classes mapped to pixels within each semantically segmented second unit region. To this end, the dividing unit 42 may include an adjusting unit 42a.

조정부(42a)는 각각의 제 2 단위 영역의 픽셀별로 매핑된 클래스를 검증하여 오류가 있는 클래스를 바르게 조정할 수 있다.The adjuster 42a may correct the class having an error by verifying the class mapped to each pixel of each second unit area.

예를 들어, 조정부(42a)는 도 8에서와 같은 클래스 계층도에 따라 클래스 검증 및 자동 조정을 행할 수 있다. 클래스 계층도는 클래스간의 포함관계를 나타낸다고 볼 수 있다. 클래스 계층도의 계층별 클래스는 미리 결정되어 있을 수 있다.For example, the adjustment unit 42a may perform class verification and automatic adjustment according to the class hierarchy diagram as in FIG. 8 . The class hierarchy can be seen as representing the containment relationship between classes. A class for each layer of the class hierarchy may be predetermined.

도 8의 경우, 이미지에는 인물 및 배경이 속하고, 인물에는 머리 및 몸통이 속하고, 머리에는 얼굴 및 머리카락이 속하고, 몸통에는 상체 및 하체가 속하고, 얼굴에는 눈과 코 등이 속하고, 상체에는 오른쪽 팔 및 왼쪽 팔이 속하고, 하체에는 오른쪽 다리 및 왼쪽 다리가 속한다는 것을 의미할 수 있다. 조정부(42a)는 이와 같은 포함관계를 기반으로 각 픽셀별로 매핑된 클래스의 검증 및 자동 조정을 행할 수 있다.In the case of FIG. 8, the image includes a person and a background, a person includes a head and a torso, a head includes a face and hair, a torso includes an upper body and a lower body, and the face includes eyes and nose , may mean that the right arm and the left arm belong to the upper body, and the right leg and the left leg belong to the lower body. The adjustment unit 42a may verify and automatically adjust the class mapped for each pixel based on such an inclusion relationship.

도 8에서, 인물 및 배경은 제 1 클래스 계층이 될 수 있고, 머리 및 몸통은 제 2 클래스 계층이 될 수 있고, 얼굴과 머리카락과 상체 및 하체는 제 3 클래스 계층이 될 수 있고, 눈과 코와 오른쪽 팔과 왼쪽 팔과 오른쪽 다리 및 왼쪽 다리는 제 4 클래스 계층이 될 수 있다.In FIG. 8 , the person and the background may be a first class hierarchy, the head and torso may be a second class hierarchy, the face and hair, upper and lower body may be a third class hierarchy, and eyes and nose With the right arm and the left arm and the right leg and the left leg can be the 4th class tier.

여기서, 제 1 클래스 계층은 최상위 계층이 될 수 있고, 제 4 클래스 계층은 최하위 계층이 될 수 있다. 제 2 클래스 계층은 제 3 클래스 계층보다는 상위 계층이지만 제 1 클래스 계층보다는 하위 계층이 될 수 있다. Here, the first class layer may be the highest layer, and the fourth class layer may be the lowest layer. The second class hierarchy is higher than the third class hierarchy, but may be lower than the first class hierarchy.

또한, 동일 계층의 클래스는 서로 배타적이다. 배타적이라 함은 예를 들어 클래스 계층에 2개의 클래스(A, B)가 속해 있다고 가정하였을 경우, 영역내의 픽셀은 클래스 A에 속하지 않으면 클래스 B에 속한다는 의미이다. 다시 말해서, 배타적이라 함은 동일 계층의 클래스들 중 어느 하나의 클래스에 속하면 나머지 클래스에는 속하지 않는다는 것을 의미한다.Also, classes in the same hierarchy are mutually exclusive. Exclusive means that, for example, if it is assumed that two classes (A, B) belong to the class hierarchy, pixels in the area belong to class B if they do not belong to class A. In other words, exclusive means that if it belongs to one of the classes of the same hierarchy, it does not belong to the other class.

조정부(42a)는 상위 클래스 계층에서부터 점차 하위 클래스 계층으로 이동하는 방식으로 클래스 매핑의 옳고 그름을 검증할 수 있다. 각 클래스 계층에 대한 클래스 매핑 과정은 서로 독립적이므로, 각 클래스 계층에서의 클래스 매핑 확률의 계산은 각 클래스 계층에 속한 클래스 전체에 대해서 이루어져야 한다. 즉, 본 발명의 실시예에서는 예를 들어 머리/몸통에 대해서 클래스 매핑 결과 머리에 속한다고 하더라도, 하위 클래스 매핑에서는 얼굴, 머리카락(이하, 머리 클래스에 속함), 상체, 하체(이하, 몸통 클래스에 속함) 모두에 대한 클래스 매핑을 수행해야 한다. 이는 과검출 및 오검출을 방지하기 위함이다.The adjustment unit 42a may verify the correctness of the class mapping by gradually moving from the upper class hierarchy to the lower class hierarchy. Since the class mapping process for each class hierarchy is independent of each other, the calculation of the class mapping probability in each class hierarchy must be performed for the entire class belonging to each class hierarchy. That is, in the embodiment of the present invention, for example, even if the class mapping result for the head/body belongs to the head, in the subclass mapping, the face, hair (hereinafter, belonging to the head class), upper body, lower body (hereinafter, belonging to the body class) belonging) must perform class mapping for all of them. This is to prevent overdetection and erroneous detection.

이후, 조정부(42a)는 하위 클래스 계층에서의 클래스 매핑시, 하위 클래스 후보중에서 이전에 결정된 상위 클래스 계층의 클래스에 속하지 않은 후보는 클래스 매핑에서 제외시킨다. 다시 말해서, 조정부(42a)는 각 픽셀마다, 현재의 클래스 계층내의 클래스들 각각이 매핑될 확률을 구하되, 상위 클래스 계층에서 가장 높은 확률을 갖는 클래스에 포함되는 클래스들 중에서 가장 높은 확률을 갖는 클래스를 현재 클래스 계층의 클래스로 결정한다. 다시 말하면, 현재의 클래스 계층 내의 클래스들 중에서 가장 높은 확률을 갖는 클래스가 이전에 판단된 상위 클래스 계층에서 가장 높은 확률을 갖는 클래스에 포함되지 않을 수 있다. 그렇다면, 상기 가장 높은 확률을 갖는 클래스를 현재 클래스 계층의 클래스로 결정하지 않고, 상기 가장 높은 확률을 갖는 클래스를 제외한 나머지 클래스들 중에서 가장 높은 확률을 갖는 클래스를 현재 클래스 계층의 클래스로 결정한다. 이와 같이 하면 제 2 단위 영역의 픽셀별로 매핑된 클래스(즉, 의미)의 조정이 보다 정확하게 이루어질 수 있다.Thereafter, during class mapping in the lower class hierarchy, the mediator 42a excludes from the class mapping a candidate that does not belong to a previously determined upper class hierarchy among the lower class candidates. In other words, the adjustment unit 42a obtains the probability that each of the classes in the current class hierarchy is mapped for each pixel, and the class having the highest probability among the classes included in the class having the highest probability in the upper class hierarchy. is determined as the class of the current class hierarchy. In other words, the class having the highest probability among classes in the current class hierarchy may not be included in the class having the highest probability in the previously determined upper class hierarchy. If so, the class having the highest probability is not determined as the class of the current class hierarchy, but the class having the highest probability among the remaining classes except for the class having the highest probability is determined as the class of the current class hierarchy. In this way, the class (that is, the meaning) mapped for each pixel of the second unit area can be more accurately adjusted.

예를 들어, 어느 한 제 2 단위 영역의 픽셀에 대하여 "머리"라는 클래스가 매핑되었다면 하위 클래스 계층으로의 클래스 매핑을 실시한다. 즉, "머리"라는 클래스가 속한 계층(즉, 제 2 클래스 계층)보다 하위 계층인 제 3 클래스 계층의 얼굴, 머리카락, 상체, 및 하체의 클래스 확률값을 계산한다. 여기서, 얼굴의 클래스 확률값은 0.2라고 가정하고, 머리카락의 클래스 확률값은 0.1이라고 가정하고, 상체의 클래스 확률값은 0.4라고 가정하고, 하체의 클래스 확률값은 0.3이라고 가정한다. 이와 같은 클래스 확률값들이 계산된 상태에서 만약 조정부(42a)가 없다면 해당 제 2 단위 영역의 픽셀의 클래스는 상체인 것으로 잘못 매핑될 것이다. For example, if a class called "head" is mapped with respect to a pixel of one second unit area, class mapping to a lower class hierarchy is performed. That is, the class probability values of the face, hair, upper body, and lower body of the third class hierarchy that are lower than the hierarchy to which the class "head" belongs (that is, the second class hierarchy) are calculated. Here, it is assumed that the class probability value of the face is 0.2, the class probability value of the hair is assumed to be 0.1, the class probability value of the upper body is assumed to be 0.4, and the class probability value of the lower body is assumed to be 0.3. In a state in which such class probability values are calculated, if the adjuster 42a is not present, the class of the pixel of the corresponding second unit area will be incorrectly mapped to the upper body.

그러나, 본 발명의 실시예에서는 조정부(42a)를 채용하였으므로, 상기의 예의 경우 조정부(42a)는 해당 제 2 단위 영역의 픽셀의 클래스를 얼굴의 클래스로 바르게 조정할 수 있다. 즉, 상기와 같은 클래스 확률값들이 계산되었다고 하더라도, 조정부(42a)는 해당 제 2 단위 영역내 픽셀에 대한 클래스를 머리에 속하는 얼굴 및 머리카락 중에서 클래스 확률값이 보다 높은 얼굴로 조정할 수 있다. 따라서, 조정부(42a)는 상기의 예와 같은 경우에 상체의 클래스로 잘못 매핑되어 있는 것을 얼굴의 클래스로 바르게 조정할 수 있다. However, since the adjusting unit 42a is employed in the embodiment of the present invention, in the above example, the adjusting unit 42a can correctly adjust the class of pixels in the second unit area to the class of the face. That is, even if the class probability values are calculated as described above, the adjusting unit 42a may adjust the class of the pixel in the second unit region to a face having a higher class probability value among faces and hair belonging to the head. Accordingly, in the case of the above example, the adjustment unit 42a can correctly adjust what is incorrectly mapped to the class of the upper body as the class of the face.

상기에서는 제 2 영역 분할 기법에 의한 제 2 단위 영역의 픽셀별 클래스를 검증 및 자동 조정하는 것으로 설명하였으나, 필요에 따라서는 제2 단위 영역별 클래스를 검증 및 자동 조정하는 것으로 할 수도 있다.In the above description, it has been described that the class for each pixel of the second unit region is verified and automatically adjusted by the second region division technique. However, if necessary, the class for each second unit region may be verified and automatically adjusted.

이러한 조정부(42a)의 기능의 부가로 인해, 채색을 위해 예측되어 생성되는 모델의 정확도가 보다 높아지게 된다.Due to the addition of the function of the adjustment unit 42a, the accuracy of the predicted and generated model for coloring becomes higher.

조정부(42a)의 쓰임새에 대해 다시 한번 설명하면 아래와 같다. The use of the adjustment unit 42a will be described once again as follows.

제 2 영역 분할부(33)는 도 9의 스케치 이미지(50)와 같은 이미지를 입력받았다면 모델 예측의 결과로서 하부의 이미지(52)와 같은 의미론적 분할 영상을 출력할 수 있다. If an image such as the sketch image 50 of FIG. 9 is received, the second region divider 33 may output a semantic segmented image such as the lower image 52 as a result of model prediction.

그런데, 조정부(42a)에 의해 클래스 검증 및 자동 조정이 이루어지므로 제 2 영역 분할부(33)는 최종적으로 도 10에서와 같이 픽셀별 클래스 조정이 이루어진 의미론적 분할 영상(56)을 출력할 수 있다. 즉, 도 9에서, 제 2 단위 영역(54)의 픽셀들은 몸통에 속해 있으면서 얼굴로 잘못 클래스 매핑되어 있으므로, 해당 제 2 단위 영역(54)의 픽셀들은 조정부(42a)에서의 클래스 검증에 의해 도 10에서와 같이 몸통이라는 클래스로 조정된다. 다시 말해서, 몸통에는 상체 및 하체만이 속할 수 있으므로, 해당 제 2 단위 영역(54)의 픽셀들은 몸통의 클래스로 조정되는 것이다. 도 9 및 도 10에서는 이해를 돕기 위해 제 2 영역 분할 기법에 의해 분할된 각각의 제 2 단위 영역을 컬러로 표시한 것일 뿐이다. 예를 들어, 도 9의 스케치 이미지(50)를 제 2 영역 분할 기법으로 영역 분할하게 되면 도 10에서와 같이 다수개의 제 2 단위 영역(즉, 각기 다른 색이 칠해져 있는 영역)으로 분할될 수 있음을 보여준다. 실제로는 소정의 컬러가 제 2 단위 영역별로 표시되지 않을 것이다. However, since class verification and automatic adjustment are performed by the adjuster 42a, the second region segmentation unit 33 may finally output the semantic segmented image 56 with class adjustment for each pixel as shown in FIG. 10 . . That is, in FIG. 9 , since the pixels of the second unit area 54 belong to the body and are incorrectly class-mapped to the face, the pixels of the second unit area 54 are determined by class verification in the adjustment unit 42a. As in 10, it is coordinated with a class called torso. In other words, since only an upper body and a lower body may belong to the body, the pixels of the corresponding second unit area 54 are adjusted to the class of the body. In FIGS. 9 and 10 , each of the second unit regions divided by the second region division technique is only displayed in color for better understanding. For example, if the sketch image 50 of FIG. 9 is divided by the second region dividing technique, it may be divided into a plurality of second unit regions (that is, regions with different colors) as shown in FIG. 10 . shows In reality, a predetermined color may not be displayed for each second unit area.

물론, 상술한 바와 같은 클래스 검증 및 자동 조정은 추후에 사용자가 직접 육안으로 확인하면서 행할 수도 있다. 그러나, 본 발명의 실시예에서는 상술한 바와 같은 조정부(42a)가 추가되어 제기능을 수행함으로써 사용자가 일일이 육안으로 클래스를 검증한 후에 조정해야 되는 수고로움을 해소시켜 줄 수 있다. 이로 인해, 사용상의 편리함을 제공하는 효과가 있다.Of course, the class verification and automatic adjustment as described above may be performed while the user directly visually confirms the adjustment. However, in the embodiment of the present invention, the adjustment unit 42a as described above is added to perform its functions, thereby eliminating the trouble of the user having to adjust the class after visually verifying the class. For this reason, there is an effect of providing convenience in use.

그리고, 제 2 영역 분할부(33)의 학습부(41)는 이전 화의 스케치 이미지의 정보를 학습 데이터 세트에 포함시켜 학습하므로, 제 2 영역 분할부(33)는 예를 들어 2화의 경우에는 1화에 비해 도 11에서와 같이 스케치 이미지(60)에 대해 오류가 없는 보다 개선된 의미론적 분할 영상(62)을 출력할 수 있다. 도 11에서는 이해를 돕기 위해 제 2 영역 분할 기법에 의해 분할된 각각의 제 2 단위 영역을 컬러로 표시한 것일 뿐이다. 예를 들어, 도 11의 상부의 스케치 이미지(60)를 제 2 영역 분할 기법으로 분할하게 되면 도 11의 의미론적 분할 영상(62)에서와 같이 다수개의 영역(즉, 각기 다른 색이 칠해져 있는 영역)으로 분할될 수 있음을 보여준다. 실제로는 소정의 컬러가 제 2 단위 영역별로 표시되지 않을 것이다.And, since the learning unit 41 of the second region dividing unit 33 learns by including the information of the sketch image of the previous episode in the learning data set, the second region dividing unit 33 is, for example, in the case of two episodes. can output an improved semantic segmented image 62 without errors with respect to the sketch image 60 as shown in FIG. 11 compared to the first episode. In FIG. 11 , each of the second unit regions divided by the second region division technique is only displayed in color for better understanding. For example, when the sketch image 60 in the upper part of FIG. 11 is divided by the second region segmentation technique, a plurality of regions (ie, regions with different colors) as in the semantic segmentation image 62 of FIG. 11 . ) can be divided into In reality, a predetermined color may not be displayed for each second unit area.

도 3에서, 병합부(34)는 제 1 영역 분할부(32)에 의한 제 1 단위 영역들과 제 2 영역 분할부(33)에 대한 제 2 단위 영역들을 병합(merge)하여 하나 이상의 채색 단위 영역을 생성하되, 각각의 채색 단위 영역에는 그에 상응하는 클래스를 매핑(결정)시킬 수 있다. In FIG. 3 , the merging unit 34 merges the first unit regions by the first region divider 32 and the second unit regions for the second region divider 33 to form one or more colored units. A region may be created, but a corresponding class may be mapped (determined) to each colored unit region.

병합부(34)는 제 1 영역 분할부(32)에 의한 제 1 단위 영역을 기본으로 한다. 이는 제 1 영역 분할부(32)가 제 2 영역 분할부(33)에 비해 에지 부분의 이미지 분할을 보다 정확하게 하기 때문이다.The merging unit 34 is based on the first unit region by the first region dividing unit 32 . This is because the first region dividing unit 32 divides the image of the edge portion more accurately than the second region dividing unit 33 .

제 1 영역 분할부(32)에 의한 제 1 단위 영역들과 제 2 영역 분할부(33)에 대한 제 2 단위 영역들을 병합(merge)하게 되면 제 1 영역 분할 기법에 의한 각각의 제 1 단위 영역내에는 하나 이상의 픽셀이 포함될 것이다. 이때, 각각의 픽셀은 저마다의 클래스(조정부(42a)에 의해 미리 조정되었을 수도 있음)가 매핑되어 있다. When the first unit regions by the first region dividing unit 32 and the second unit regions of the second region dividing unit 33 are merged, each of the first unit regions by the first region dividing method It may contain one or more pixels. At this time, each pixel is mapped to a respective class (which may have been previously adjusted by the adjusting unit 42a).

그에 따라, 병합부(34)는 제 1 영역 분할 기법에 의한 각각의 제 1 단위 영역별로 해당 영역내의 모든 픽셀의 클래스를 확인하여 대표적인 클래스를 해당 제 1 단위 영역의 클래스로 결정할 수 있다. 예를 들어, 특정 제 1 단위 영역내의 각 픽셀들이 갖는 클래스(즉, 의미)가 "눈"이 대부분이라면 특정 제 1 단위 영역은 "눈"으로 결정될 수 있다.Accordingly, the merging unit 34 may determine the representative class as the class of the first unit area by checking the classes of all pixels in the corresponding area for each first unit area by the first area division technique. For example, if the class (ie, meaning) of each pixel in the specific first unit area is mostly "eye", the specific first unit area may be determined as "eye".

다시 말해서, 하나의 스케치 이미지에 대하여 제 1 영역 분할 기법 및 제 2 영역 기법으로 각각 영역 분할하게 되면 서로간에 약간의 차이가 있다. 그에 따라, 본 발명의 실시예에서는 제 1 단위 영역이 제 2 단위 영역에 비해 에지를 따라 보다 정확하게 분할된 것이므로 제 1 단위 영역들을 채색 단위 영역들로 결정한다고 볼 수 있다. 그리고, 제 2 영역 분할 기법에 의한 각 픽셀별 클래스를 근거로 채색 단위 영역별로 그에 상응하는 클래스를 매핑시킨다고 볼 수 있다.In other words, when regions of one sketch image are divided using the first region division technique and the second region technique, there is a slight difference between them. Accordingly, in the embodiment of the present invention, since the first unit area is more accurately divided along the edge than the second unit area, it can be seen that the first unit areas are determined as the colored unit areas. In addition, it can be seen that a class corresponding to each color unit region is mapped based on the class for each pixel by the second region division technique.

이에 의해, 병합부(34)는 하나 이상의 채색 단위 영역을 생성하되, 채색 단위 영역별로는 태그가 부여되어 있으면서 채색 단위 영역별로 어떠한 영역인지에 대한 정보를 갖는 이미지를 출력한다고 볼 수 있다. 여기서, 어떠한 영역인지에 대한 정보는 채색 단위 영역별로 어떠한 의미(즉, 클래스)를 갖는지를 나타내는 정보라고 할 수 있다.Accordingly, it can be seen that the merging unit 34 generates one or more colored unit areas, and outputs an image having information about the type of each colored unit area while a tag is attached to each colored unit area. Here, the information on the type of region may be referred to as information indicating what meaning (ie, class) for each colored unit region.

한편, 병합부(34)는 채색 단위 영역별로 클래스가 매핑된 결과를 통신부(10) 및 네트워크(200)를 통해 사용자 단말(100)에게로 전송할 수 있다. 이는 사용자측으로부터의 피드백 정보(예컨대, 클래스 조정 정보)를 얻기 위함이다. 물론, 앞서의 조정부(42a)에서의 클래스 검증 및 자동 조정으로 인해 채색 단위 영역별 클래스 매핑이 정상적으로 행해졌을 것이지만, 혹시나 모를 오류를 정정하기 위해 필요한 동작이라고 볼 수 있다.Meanwhile, the merging unit 34 may transmit a result of mapping classes for each colored unit area to the user terminal 100 through the communication unit 10 and the network 200 . This is to obtain feedback information (eg, class adjustment information) from the user side. Of course, class mapping for each colored unit area would have been normally performed due to class verification and automatic adjustment by the adjusting unit 42a, but it can be regarded as an operation necessary to correct an unexpected error.

사용자는 자신의 단말(100)에 디스플레이되는 채색 단위 영역별로 클래스가 매핑된 결과를 육안으로 확인하여 오류가 없으면 피드백 정보를 전송하지 않을 것이다. The user will not transmit feedback information if there is no error by visually checking the result of class mapping for each colored unit area displayed on his/her terminal 100 .

만약, 하나 이상의 채색 단위 영역에 대한 클래스가 잘못 매핑되어 있다면 사용자는 자신의 단말(100)을 조작하여 해당 채색 단위 영역에 대해 수정될 클래스를 포함하는 피드백 정보(예컨대, 클래스 조정 정보)를 네트워크(200)를 통해 서버(300)에게로 전송한다.If a class for one or more coloring unit areas is incorrectly mapped, the user manipulates his/her terminal 100 to transmit feedback information (eg, class adjustment information) including a class to be corrected for the corresponding coloring unit area to the network ( 200) through the server 300.

상술한 본 발명의 실시예에서는 제 1 영역 분할부(32) 및 제 2 영역 분할부(33)에서의 분할 결과를 병합(중첩)하기 전에 제 2 영역 분할 기법에 의한 분할 영역(즉, 제 2 단위 영역)내 픽셀의 클래스 조정이 이루어진 후에 병합이 이루어지는 것으로 설명하였다. 그런데, 이와 다르게, 제 1 영역 분할부(32) 및 제 2 영역 분할부(33)에서의 분할 결과를 병합(중첩)한 다음에, 클래스 계층도에 근거한 분할 영역별 클래스 조정이 이루어지는 것을 고려해 볼 수도 있다. 그러나, 병합하기 전에 제 2 영역 분할부(33)에서의 잘못된 결과를 미리 조정한 후에 병합하는 것이 병합부(34)의 입장에서는 보다 정확한 결과물을 출력할 수 있을 것이다.In the above-described embodiment of the present invention, before merging (overlapping) the division results in the first region dividing unit 32 and the second region dividing unit 33, the divided region (ie, the second It has been described that merging is performed after class adjustment of pixels within the unit area). However, different from this, it is considered that after merging (overlapping) the division results in the first region dividing unit 32 and the second region dividing unit 33, class adjustment for each division based on the class hierarchy is performed. may be However, before merging, the merging unit 34 may output a more accurate result by adjusting the erroneous result of the second region dividing unit 33 in advance and then merging.

피드백 반영부(35)는 통신부(10)를 통해 사용자 단말(100)로부터의 사용자 피드백 정보(예컨대, 하나 이상의 채색 단위 영역에 매핑된 클래스를 조정하도록 하는 클래스 조정 정보)를 수신할 수 있다. The feedback reflecting unit 35 may receive user feedback information (eg, class adjustment information for adjusting a class mapped to one or more colored unit areas) from the user terminal 100 through the communication unit 10 .

이 경우, 해당 채색 단위 영역에 대한 클래스 조정은 피드백 반영부(35)가 직접 하거나 병합부(34)에서 클래스 조정을 하도록 할 수도 있다.In this case, the class adjustment for the color unit region may be directly performed by the feedback reflecting unit 35 or the class adjustment may be performed by the merging unit 34 .

일 예로, 피드백 반영부(35)는 병합부(34)로부터 채색 단위 영역별로 클래스가 매핑된 결과를 수신하고, 사용자 단말(100)로부터의 사용자 피드백 정보를 수신하게 되면 조정 대상인 채색 단위 영역에 대한 클래스를 직접 조정할 수 있다. For example, the feedback reflecting unit 35 receives a result of mapping classes for each colored unit area from the merging unit 34 , and when receiving user feedback information from the user terminal 100 , You can adjust the class directly.

다른 예로, 피드백 반영부(35)는 사용자 단말(100)로부터의 사용자 피드백 정보(예컨대, 하나 이상의 채색 단위 영역에 매핑된 클래스를 조정하도록 하는 클래스 조정 정보)를 병합부(34)에 제공함으로써, 병합부(34)에서 조정 대상인 채색 단위 영역에 대한 클래스를 조정하도록 하게 할 수도 있다.As another example, the feedback reflecting unit 35 provides the merging unit 34 with user feedback information (eg, class adjustment information for adjusting a class mapped to one or more colored unit areas) from the user terminal 100 , The merging unit 34 may be configured to adjust the class of the color unit area to be adjusted.

채색부(36)는 병합부(34) 또는 피드백 반영부(35)로부터의 결과물(즉, 채색 단위 영역별로 클래스 매핑 및 조정이 완료된 스케치 이미지)을 수신하고, 채색 단위 영역별로 매핑된 클래스에 대응하는 색상을 이용하여 스케치 이미지를 채색할 수 있다.The coloring unit 36 receives the result from the merging unit 34 or the feedback reflecting unit 35 (that is, a sketch image on which class mapping and adjustment for each coloring unit area has been completed), and corresponds to the class mapped for each coloring unit area. You can color the sketch image using the color you want.

채색부(36)에서의 채색 방식은 크게 두 가지가 있을 수 있다.There may be two types of coloring methods in the coloring unit 36 .

첫번째 방식은 클래스별로 미리 할당된 색상 정보를 이용하는 방식이다. 이 방식의 경우, 클래스별 색상 정보는 저장부(20) 또는 채색부(36)에 미리 저장되어 있어야 한다. 예를 들어, 클래스 1은 살색, 클래스 2는 적색, 클래스 3은 검은색 등과 같이 클래스별 색상 정보가 미리 결정되어 있는 클래스 팔레트를 미리 저장하고 있어야 한다. 그리고, 클래스별 색상 정보는 이전 화에서의 클래스별 색상 정보에 기인하여 결정될 수 있다.The first method uses color information pre-allocated for each class. In this method, color information for each class should be stored in advance in the storage unit 20 or the coloring unit 36 . For example, a class palette in which color information for each class is predetermined, such as flesh color for class 1, red color for class 2, black color for class 3, etc. must be stored in advance. And, the color information for each class may be determined based on the color information for each class in the previous picture.

이와 같이 첫번째 방식을 채용한 경우, 채색부(36)는 클래스별로 미리 할당된 색상 정보를 근거로 스케치 이미지를 채색할 수 있다.When the first method is adopted as described above, the coloring unit 36 may color the sketch image based on color information pre-allocated for each class.

두번째 방식은 참조 채색 이미지를 이용하는 방식이다. 이 방식의 경우, 다수의 참조 채색 이미지(또는 "샘플 채색 이미지"라고도 할 수 있음)는 저장부(20) 또는 채색부(36)에 미리 저장되어 있어야 한다. 여기서, 참조 채색 이미지는 웹툰 내의 객체(예컨대, 등장 캐릭터, 주변 물체 등)를 나타내는 외곽선과 색채를 포함할 수 있다. 예를 들어, 참조 채색 이미지는 복수의 분할 영역들로 구분될 수 있고, 각 분할 영역의 색정보를 포함할 수 있다. The second method is to use a reference colored image. In this method, a plurality of reference colored images (or may also be referred to as “sample colored images”) should be previously stored in the storage unit 20 or the coloring unit 36 . Here, the reference colored image may include outlines and colors indicating objects (eg, characters, surrounding objects, etc.) in the webtoon. For example, the reference colored image may be divided into a plurality of divided regions, and may include color information of each divided region.

이때, 참조 채색 이미지의 분할 영역은 제 1 영역 분할 기법으로 영역 분할되거나, 또는 제 2 영역 분할 기법으로 영역 분할되거나, 또는 제 1 영역 분할 기법 및 제 2 영역 분할 기법의 조합으로 영역 분할된 것일 수 있다.In this case, the divided region of the reference colored image may be region-divided by the first region-divisioning technique, by the second region-segmentation technique, or by a combination of the first region dividing technique and the second region dividing technique. have.

이와 같은 두번째 방식을 채용한 경우, 채색부(36)는 스케치 이미지(즉, 채색되지 않은 이미지)와 참조 채색 이미지를 비교하여 스케치 이미지의 각 채색 단위 영역에 대응하는 색상 정보를 추출할 수 있다. 그리고 나서, 채색부(36)는 추출한 색상 정보를 근거로 스케치 이미지내의 채색 단위 영역을 채색할 수 있다.In the case of adopting the second method, the coloring unit 36 may extract color information corresponding to each coloring unit area of the sketch image by comparing the sketch image (ie, the uncolored image) with the reference coloring image. Then, the coloring unit 36 may color the coloring unit area in the sketch image based on the extracted color information.

여기서, 상술한 비교를 보다 구체적으로 설명하면 다음과 같다. Here, the above-described comparison will be described in more detail as follows.

먼저, 딥러닝 알고리즘에 기초하여 스케치 이미지의 분할 영역(예를 들어, 채색 단위 영역)내의 픽셀과 참조 채색 이미지의 분할 영역내의 픽셀을 각각 벡터로 변환한다. 변환된 벡터는 해당 픽셀의 위치, 주변 픽셀 정보 등을 가질 수 있다. 또한, 변환된 벡터는 해당하는 분할 영역이 가지는 모양, 형상, 외형 등을 나타내는 값을 가질 수 있다. 예를 들어, 딥러닝 알고리즘은 미리 준비된 학습용 이미지들을 학습 데이터 세트로 하여, 서로 유사한 특성(모양, 형상, 외형 등)을 갖는 벡터들은 서로 유사한 방향을 갖도록 하는 학습을 통해 생성된 알고리즘일 수 있다.First, based on a deep learning algorithm, a pixel in a divided region (eg, a colored unit region) of a sketch image and a pixel in a divided region of a reference colored image are converted into vectors, respectively. The transformed vector may have a position of a corresponding pixel, information about neighboring pixels, and the like. In addition, the transformed vector may have a value indicating the shape, shape, outline, etc. of the corresponding divided region. For example, the deep learning algorithm may be an algorithm generated through learning using pre-prepared learning images as a training data set, so that vectors having similar characteristics (shape, shape, appearance, etc.) have similar directions to each other.

이와 같이 생성된 벡터들을 이용하여, 스케치 이미지의 분할 영역의 픽셀들 각각과 연관된 벡터와 참조 채색 이미지의 분할 영역의 픽셀들 각각과 연관된 벡터 사이의 유사도를 결정한다. 즉, 스케치 이미지의 분할 영역의 픽셀과 참조 채색 이미지의 분할 영역의 픽셀 간의 유사도를 결정한다. 예를 들어, 서로 비교되는 두 벡터의 방향이 유사할수록, 그에 상응하는 두 픽셀 사이의 유사도를 높은 값으로서 계산할 수 있다. Using the vectors generated as described above, a degree of similarity between a vector associated with each pixel of the divided region of the sketch image and a vector associated with each pixel of the divided region of the reference colored image is determined. That is, the degree of similarity between the pixels of the divided region of the sketch image and the pixels of the divided region of the reference colored image is determined. For example, as the directions of two vectors compared to each other are similar, the degree of similarity between two pixels corresponding thereto may be calculated as a high value.

채색부(36)는 스케치 이미지의 분할 영역의 픽셀과 참조 채색 이미지의 분할 영역의 픽셀 간의 유사도를 결정(계산)하고, 스케치 이미지의 분할 영역의 픽셀의 색을, 참조 채색 이미지의 픽셀 중 유사한 픽셀의 색상으로 채색할 수 있다. 예를 들어, 채색부(36)는 스케치 이미지의 분할 영역 각각을, 스케치 이미지의 분할 영역 각각과 유사한(즉, 가장 유사한) 참조 채색 이미지의 해당 분할 영역의 색상으로 채색할 수 있다. 이때, 예를 들어, 채색부(36)는 스케치 이미지의 분할 영역 각각의 픽셀들의 색상을, 상기 픽셀들과 대응하는 참조 채색 이미지의 분할 영역의 픽셀들의 색상을 대표하는 하나의 색상으로 채색할 수도 있다. 예를 들어, 상기의 대표하는 하나의 색상은 픽셀들과 대응하는 참조 채색 이미지의 분할 영역의 픽셀들의 색상들의 가중 합을 통해 생성된 색상일 수 있다. 이 때, 가중 합에 사용되는 픽셀들 각각에 대한 가중치는 상술한 유사도에 기초하여 결정될 수 있다. 이와 같이 채색 대상인 스케치 이미지의 각각의 채색 단위 영역은 채색 단위 영역별로 가장 적합하다고 판단(결정)된 색상(예를 들어, 가중 합된 색상)으로 일괄 채색될 수 있다.The coloring unit 36 determines (calculates) the similarity between the pixels of the divided area of the sketch image and the pixels of the divided area of the reference colored image, and sets the color of the pixels of the divided area of the sketch image, the similar pixels among the pixels of the reference colored image. It can be colored with For example, the coloring unit 36 may color each divided area of the sketch image with a color of the corresponding divided area of the reference colored image similar to (ie, most similar to) each divided area of the sketch image. In this case, for example, the coloring unit 36 may color the color of each pixel of the divided area of the sketch image with one color representing the color of pixels of the divided area of the reference colored image corresponding to the pixels. have. For example, the one representative color may be a color generated through a weighted sum of the pixels and colors of pixels of a division region of the reference colored image corresponding to the pixels. In this case, a weight for each pixel used for the weighted sum may be determined based on the above-described similarity. As described above, each coloring unit area of a sketch image to be colored may be collectively colored with a color (eg, a color that is weighted) determined to be most suitable for each coloring unit area.

한편, 채색부(36)는 채색시 색 보정 작업을 할 수 있다. Meanwhile, the coloring unit 36 may perform a color correction operation during coloring.

즉, 채색부(36)는 채색 모델의 아웃풋인 채색 결과물(즉, 색 보정되기 이전의 채색 결과물)과 정답 이미지 간의 차이를 학습하여 스케치 이미지의 채색 단위 영역별(또는 픽셀별) 신뢰도 값을 계산할 수 있다. 스케치 이미지의 영역별 신뢰도 값 계산을 위해, 채색부(36)는 소정의 신뢰도 계산 딥러닝 모델을 이용할 수 있다. 여기서, 신뢰도 계산 딥러닝 모델은 스케치 이미지와 참조 채색 이미지를 입력으로 받고, 스케치 이미지의 채색 단위 영역별 신뢰도 값을 출력할 수 있다.That is, the color unit 36 learns the difference between the color result (that is, the color result before color correction) that is the output of the color model and the correct image to calculate the reliability value for each color unit area (or per pixel) of the sketch image. can In order to calculate the reliability value for each region of the sketch image, the coloring unit 36 may use a predetermined reliability calculation deep learning model. Here, the reliability calculation deep learning model may receive a sketch image and a reference colored image as inputs, and may output a reliability value for each colored unit area of the sketch image.

다시 말해서, 색 보정되기 전까지는, 채색부(36)는 채색 딥러닝 모델을 이용하여 참조 채색 이미지와 스케치 이미지의 영역별 유사도를 계산하여 스케치 이미지에 영역별 채색을 할 수 있다. 이 경우, 채색 딥러닝 모델은 자신이 계산한 영역별 유사도와 채색에 대해서 계산 결과만 알려줄 뿐, 그 결과물이 얼마나 정확하게 신뢰할 수 있는지를 알려주지는 않는다. 따라서, 채색부(36)는 채색 딥러닝 모델이 계산한 것들의 신뢰도를 계산할 수 있는 딥러닝 모델(즉, 신뢰도 계산 딥러닝 모델)을 별도로 만들어 학습한다고 볼 수 있다. In other words, until color correction is performed, the coloring unit 36 may color the sketch image by region by calculating the similarity of each region between the reference colored image and the sketch image using the coloring deep learning model. In this case, the coloring deep learning model only informs the calculation results about the similarity and coloring for each area it has calculated, but does not tell how accurately the results are reliable. Accordingly, it can be seen that the coloring unit 36 separately creates and learns a deep learning model capable of calculating the reliability of those calculated by the coloring deep learning model (ie, a reliability calculation deep learning model).

결국, 채색부(36)는 스케치 이미지의 각각의 채색 단위 영역들 각각의 영역 신뢰도를 결정(계산)하고, 결정된 영역 신뢰도가 소정의 기준 값보다 낮은 채색 단위 영역의 색상은 다른 채색 단위 영역들에 대응하는 색으로 채색(즉, 색 보정)할 수 있다. 실시 예들에 따라, 채색부(36)는 영역 신뢰도가 소정의 기준 값보다 낮은 채색 단위 영역(이하, 보정 대상 영역)에 대해서, 스케치 이미지의 채색 단위 영역들 중에서 상기 보정 대상 영역과 형상이 동일 또는 유사한 채색 단위 영역에 대응하는 색으로 채색(즉, 색 보정)을 수행할 수 있다.As a result, the coloring unit 36 determines (calculates) the region reliability of each of the coloring unit regions of the sketch image, and the color of the coloring unit region having the determined region reliability lower than a predetermined reference value is applied to other coloring unit regions. It can be colored (i.e. color corrected) with the corresponding color. In some embodiments, the coloring unit 36 may be configured to have the same shape as the correction target region among coloring unit regions of the sketch image with respect to a coloring unit region (hereinafter, a correction target region) having a region reliability lower than a predetermined reference value. Coloring (ie, color correction) may be performed with a color corresponding to a similar color unit area.

예를 들어, 도 13에서 제 1 눈 영역(70)은 기준값(예컨대, 55% 정도)보다 낮은 영역 신뢰도를 갖는 영역이고, 제 2 눈 영역(72)은 기준값 보다 높은 영역 신뢰도를 갖는 영역이라고 가정한다. For example, in FIG. 13 , it is assumed that the first eye area 70 is an area having area reliability lower than the reference value (eg, about 55%), and the second eye area 72 is an area having area reliability higher than the reference value. do.

상기의 예의 경우, 제 2 눈 영역(72)에는 눈에 상응하는 색상이 올바르게 채색된다. 그러나, 제 1 눈 영역(70)은 실제로는 눈이지만 눈에 대응하지 않는 색상으로 잘못 채색될 수 있다.In the case of the above example, the color corresponding to the eye is correctly colored in the second eye region 72 . However, the first eye region 70 is actually an eye but may be incorrectly colored with a color that does not correspond to the eye.

이와 같이 잘못 채색되는 경우를 제거하기 위해, 채색부(36)는 해당 영역(예컨대, 70)에 대응되는 다른 영역(예컨대, 72)의 색상을 기초로 해당 영역(예컨대, 70)의 색상을 보정한다. 여기서, 대응은 해당 영역과 형상이 동일 내지는 유사함을 의미할 수 있다. 한편으로, 대응은 해당 영역에 매핑된 클래스가 동일한 것을 의미할 수 있다. 이에 의해, 도 14에서와 같이 제 1 눈 영역(70)의 색상은 제 2 눈 영역(72)의 색상과 동일하게 보정될 수 있다.In order to remove such a case of erroneous coloring, the coloring unit 36 corrects the color of the corresponding area (eg, 70) based on the color of another area (eg, 72) corresponding to the corresponding area (eg, 70). do. Here, the correspondence may mean that the corresponding region and the shape are the same or similar. On the other hand, the correspondence may mean that classes mapped to the corresponding region are the same. Accordingly, as shown in FIG. 14 , the color of the first eye area 70 may be corrected to be the same as the color of the second eye area 72 .

필요에 따라서는, 상술한 스케치 이미지의 채색 단위 영역별 신뢰도를 계산할 때 신뢰도 계산 딥러닝 모델만을 사용하지 않을 수 있다. 예를 들어, 채색 딥러닝 모델의 학습된 파라미터에 임의의 노이즈 값을 더하거나 무작위성(Randomness)을 주어서(dropout 등을 이용) 얻은 여러 개의 결과물 값의 차이를 계산한다. 노이즈를 다양하게 주었음에도 결과물의 값의 차이가 작고 안정적이면(즉, 여러 결과값들의 표준편차가 작으면) 신뢰도가 높은 것으로 판단하고, 반대로 차이가 크고 불안정하면(즉, 여러 결과값들의 표준편차가 크면) 신뢰도가 낮은 것으로 판단한다. 이와 같은 판단 기준으로 계산하는 신뢰도 계산 결과와 상술한 신뢰도 계산 딥러닝 모델의 결과 값을 합산하여 신뢰도 값을 계산할 수 있다.If necessary, only the reliability calculation deep learning model may not be used when calculating the reliability for each colored unit area of the sketch image. For example, by adding a random noise value or giving randomness (using dropout, etc.) to the learned parameters of the colored deep learning model, the difference between several obtained values is calculated. If the difference in the values of the results is small and stable even with various noises (that is, if the standard deviation of several result values is small), the reliability is judged to be high. is large), the reliability is judged to be low. A reliability value can be calculated by adding the reliability calculation result calculated based on such a judgment criterion and the result value of the above-described reliability calculation deep learning model.

물론, 채색부(36)는 상술한 신뢰도에 입각한 자동적인 색 보정 이외로, 사용자 단말(100)로부터의 특정 채색 단위 영역에 대한 색 보정 명령(즉, 사용자 피드백 정보라고 할 수 있음)에 따라 해당 특정 채색 단위 영역에 대하여 색 보정을 실시할 수 있다.Of course, in addition to the automatic color correction based on the reliability described above, the coloring unit 36 may be configured according to a color correction command for a specific coloring unit area from the user terminal 100 (that is, it may be referred to as user feedback information). Color correction may be performed on the specific colored unit area.

도 15는 본 발명의 실시예에 따른 스케치 이미지 자동 채색 방법을 설명하기 위한 플로우차트이다.15 is a flowchart illustrating a method for automatically coloring a sketch image according to an embodiment of the present invention.

일단, 서버(300)는 사용자 단말(100)로부터 채색 대상인 스케치 이미지(즉, 채색이 되지 않은 이미지)를 수신한다(S10).First, the server 300 receives a sketch image to be colored (ie, an image that is not colored) from the user terminal 100 ( S10 ).

그에 따라, 서버(300)는 제 1 영역 분할 기법(예컨대, 에지 기반의 이미지 영역 분할 기법)으로 스케치 이미지에 대한 영역 분할을 행한다(S12). 제 1 영역 분할 기법에 의한 분할 영역들은 제 1 단위 영역들이라고 한다.Accordingly, the server 300 divides the sketch image into a region using the first region division technique (eg, an edge-based image region division technique) (S12). Regions divided by the first region division technique are referred to as first unit regions.

이와 함께, 서버(300)는 제 2 영역 분할 기법(예컨대, 의미론적 이미지 영역 분할 기법)으로 스케치 이미지에 대한 의미론적 영역 분할을 행한다(S14). 제 2 영역 분할 기법에 의한 분할 영역들은 제 2 단위 영역들이라고 한다. 이와 함께, 서버(300)는 제 2 영역 분할 기법에 의한 각각의 분할 영역(즉, 제 2 단위 영역)내 픽셀별로 클래스를 매핑시킨다. 그리고, 서버(300)는 각각의 제 2 단위 영역의 픽셀별로 매핑된 클래스를 검증하여 오류가 있는 클래스를 바르게 조정한다.At the same time, the server 300 performs semantic region division on the sketch image using the second region division technique (eg, a semantic image region division technique) (S14). Regions divided by the second region division technique are referred to as second unit regions. At the same time, the server 300 maps the class for each pixel in each divided area (ie, the second unit area) by the second area division technique. Then, the server 300 verifies the class mapped for each pixel of each second unit area and corrects the erroneous class.

그리고 나서, 서버(300)는 제 1 영역 분할 기법에 의한 분할 영역(즉, 제 1 단위 영역)들과 제 2 영역 분할 기법에 의한 분할 영역(즉, 제 2 단위 영역)들을 병합하여 하나 이상의 채색 단위 영역을 생성하되, 각각의 채색 단위 영역에는 그에 상응하는 클래스를 매핑시킨다(S16). 즉, 서버(300)는 제 1 영역 분할 기법에 의한 각각의 제 1 단위 영역을 채색 단위 영역으로 하되, 제 2 영역 분할 기법에 의한 각 픽셀별 클래스를 기준으로 채색 단위 영역별로 그에 상응하는 클래스를 매핑시킨다고 볼 수 있다. Then, the server 300 merges the divided areas (ie, the first unit area) by the first area division technique and the divided areas (ie, the second unit area) by the second area division technique to color one or more A unit area is generated, and a corresponding class is mapped to each colored unit area (S16). That is, the server 300 uses each of the first unit regions by the first region division technique as a coloring unit region, and selects a class corresponding to each color unit region based on the class for each pixel by the second region division technique. It can be seen as mapping.

이후, 서버(300)는 상기 단계 S16에서의 채색 단위 영역별로 클래스가 매핑된 결과를 사용자 단말(100)에게로 전송한다(S18). 이는 사용자측으로부터의 사용자 피드백 정보(예컨대, 클래스 조정 정보)를 얻기 위함이다.Thereafter, the server 300 transmits to the user terminal 100 the result of mapping classes for each colored unit area in step S16 (S18). This is to obtain user feedback information (eg, class adjustment information) from the user side.

그런데, 채색 단위 영역별로 클래스가 매핑된 결과에 오류가 없으면 서버(300)는 사용자 피드백 정보(예컨대, 클래스 조정 정보)를 수신하지 않을 것이므로, 이 경우에는 바로 채색 단계(S20)로 이동한다.However, if there is no error in the result of class mapping for each color unit area, the server 300 will not receive user feedback information (eg, class adjustment information).

그러나, 하나 이상의 채색 단위 영역에 대한 클래스가 잘못 매핑되어 있다면 서버(300)는 사용자 단말(100)로부터의 사용자 피드백 정보(예컨대, 클래스 조정 정보)를 수신한다.However, if a class for one or more colored unit areas is incorrectly mapped, the server 300 receives user feedback information (eg, class adjustment information) from the user terminal 100 .

그에 따라, 서버(300)는 사용자 단말(100)로부터의 사용자 피드백 정보(예컨대, 클래스 조정 정보)를 근거로 해당 채색 단위 영역에 대한 클래스를 조정한다(S18).Accordingly, the server 300 adjusts the class for the corresponding colored unit area based on the user feedback information (eg, class adjustment information) from the user terminal 100 ( S18 ).

그리고 나서, 서버(300)는 채색 단위 영역별로 최종 결정된 클래스에 대응되는 색상을 기초로, 채색 대상인 스케치 이미지에 대하여 채색을 한다(S20). 물론, 서버(300)는 채색된 이후에 잘못 채색된 영역에 대한 색 보정을 할 수 있다. 이때, 색 보정은 신뢰도에 입각한 자동적인 색 보정 이외로, 사용자 단말(100)로부터의 특정 채색 단위 영역에 대한 색 보정 명령(즉, 사용자 피드백 정보라고 할 수 있음)에 따라 해당 특정 채색 단위 영역에 대하여 색 보정을 실시할 수 있다.Then, the server 300 colors the sketch image to be colored based on the color corresponding to the class finally determined for each coloring unit area (S20). Of course, the server 300 may perform color correction on an incorrectly colored area after being colored. In this case, the color correction is performed according to a color correction command for a specific color unit area from the user terminal 100 (that is, it may be referred to as user feedback information), in addition to automatic color correction based on reliability. color correction can be performed.

또한, 상술한 본 발명의 웹툰 자동 채색 방법은, 컴퓨터로 읽을 수 있는 기록매체에 컴퓨터가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 컴퓨터가 읽을 수 있는 기록매체는 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록 장치를 포함한다. 컴퓨터가 읽을 수 있는 기록매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 플로피디스크, 광데이터 저장장치 등이 있다. 또한, 컴퓨터가 읽을 수 있는 기록매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어, 분산방식으로 컴퓨터가 읽을 수 있는 코드가 저장되고 실행될 수 있다. 그리고, 상기 방법을 구현하기 위한 기능적인(function) 프로그램, 코드 및 코드 세그먼트들은 본 발명이 속하는 기술분야의 프로그래머들에 의해 용이하게 추론될 수 있다.In addition, the method for automatically coloring webtoons of the present invention described above can be implemented as computer-readable codes on a computer-readable recording medium. The computer-readable recording medium includes all types of recording devices in which data readable by a computer system is stored. Examples of computer-readable recording media include ROM, RAM, CD-ROM, magnetic tape, floppy disk, and optical data storage device. In addition, the computer-readable recording medium is distributed in a computer system connected through a network, so that the computer-readable code can be stored and executed in a distributed manner. In addition, functional programs, codes, and code segments for implementing the method can be easily inferred by programmers in the art to which the present invention pertains.

이상의 설명은 본 발명의 기술 사상을 예시적으로 설명한 것에 불과한 것으로서, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 다양한 수정 및 변형이 가능할 것이다. 따라서, 본 발명에 개시된 실시예들은 본 발명의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시예에 의하여 본 발명의 기술 사상의 범위가 한정되는 것은 아니다. 본 발명의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 발명의 권리범위에 포함되는 것으로 해석되어야 할 것이다.The above description is merely illustrative of the technical spirit of the present invention, and various modifications and variations will be possible without departing from the essential characteristics of the present invention by those skilled in the art to which the present invention pertains. Therefore, the embodiments disclosed in the present invention are not intended to limit the technical spirit of the present invention, but to explain, and the scope of the technical spirit of the present invention is not limited by these embodiments. The protection scope of the present invention should be construed by the following claims, and all technical ideas within the equivalent range should be construed as being included in the scope of the present invention.

10 : 통신부 20 : 저장부
30 : 제어부 31 : 이미지 획득부
32 : 제 1 영역 분할부 33 : 제 2 영역 분할부
34 : 병합부 35 : 피드백 반영부
36 : 채색부 41 : 학습부
42 : 분할부 42a : 조정부
100 : 사용자 단말 200 : 네트워크
300 : 서버
10: communication unit 20: storage unit
30: control unit 31: image acquisition unit
32: first region dividing unit 33: second region dividing unit
34: merging unit 35: feedback reflecting unit
36: coloring part 41: learning part
42: division part 42a: adjustment part
100: user terminal 200: network
300 : server

Claims (20)

제 1 영역 분할 기법을 이용하여 채색 대상인 스케치 이미지를 제 1 단위 영역들로 분할하는 제 1 영역 분할부;
제 2 영역 분할 기법을 이용하여 상기 스케치 이미지를 클래스가 매핑된 제 2 단위 영역들로 분할하되, 상기 스케치 이미지의 각 픽셀에 대하여 클래스를 매핑시키고 픽셀별로 매핑된 클래스를 근거로 상기 스케치 이미지를 제 2 단위 영역들로 분할하는 제 2 영역 분할부;
상기 제 1 단위 영역들과 상기 제 2 단위 영역들을 이용하여 각각이 클래스가 매핑된 하나 이상의 채색 단위 영역을 생성하는 병합부; 및
상기 채색 단위 영역 각각에 매핑된 클래스에 대응하는 색상을 이용하여 상기 스케치 이미지를 채색하는 채색부;를 포함하고,
상기 채색부는,
상기 스케치 이미지의 채색 후, 기생성된 채색 단위 영역들 각각에 대한 영역 신뢰도를 결정하고, 결정된 영역 신뢰도가 기준값보다 낮은 채색 단위 영역에 채색된 색상을 보정하되, 상기 스케치 이미지의 채색 단위 영역들 중에서 형상이 동일 또는 유사한 다른 채색 단위 영역에 채색된 색상으로 보정하는,
스케치 이미지 자동 채색 장치.
a first region dividing unit that divides a sketch image to be colored into first unit regions by using a first region dividing technique;
The sketch image is divided into class-mapped second unit regions using a second region division technique, a class is mapped for each pixel of the sketch image, and the sketch image is generated based on the class mapped for each pixel. a second region dividing unit dividing into two unit regions;
a merging unit generating one or more color unit regions to which classes are mapped by using the first unit regions and the second unit regions; and
a coloring unit for coloring the sketch image using a color corresponding to a class mapped to each of the coloring unit areas;
The coloring part,
After coloring the sketch image, region reliability for each of the pre-generated coloring unit regions is determined, and a color colored in a coloring unit region having a determined region reliability lower than a reference value is corrected, from among the coloring unit regions of the sketch image. Correcting with a colored color in another colored unit area of the same or similar shape;
Sketch image automatic coloring device.
제 1항에 있어서,
상기 제 2 영역 분할부는,
클래스간 포함관계를 근거로 상기 각 픽셀별로 매핑된 클래스의 검증 및 자동 조정을 실시하는,
스케치 이미지 자동 채색 장치.
The method of claim 1,
The second region dividing unit,
Verification and automatic adjustment of the class mapped for each pixel based on the inclusion relationship between classes,
Sketch image automatic coloring device.
제 2항에 있어서,
상기 병합부는,
상기 검증 및 자동 조정이 완료된 각 픽셀별 클래스를 상기 제 1 단위 영역들의 각 픽셀에 매핑시켜서 하나 이상의 채색 단위 영역을 생성하는,
스케치 이미지 자동 채색 장치.
3. The method of claim 2,
The merging unit,
generating one or more colored unit areas by mapping each pixel class for which the verification and automatic adjustment has been completed to each pixel of the first unit areas;
Sketch image automatic coloring device.
제 2항에 있어서,
상기 제 2 영역 분할부는,
상위 클래스 계층에서부터 점차 하위 클래스 계층으로 이동하는 방식으로 클래스 매핑의 옳고 그름을 검증하는,
스케치 이미지 자동 채색 장치.
3. The method of claim 2,
The second region dividing unit,
Verifies the correctness of class mapping in a way that gradually moves from the upper class hierarchy to the lower class hierarchy,
Sketch image automatic coloring device.
제 4항에 있어서,
상기 제 2 영역 분할부는,
각 픽셀마다, 현재의 클래스 계층내의 클래스들 각각이 매핑될 확률을 구하되, 상위 클래스 계층에서 가장 높은 확률을 갖는 클래스에 포함되는 클래스들 중에서 가장 높은 확률을 갖는 클래스를 현재 클래스 계층의 클래스로 결정하는,
스케치 이미지 자동 채색 장치.
5. The method of claim 4,
The second region dividing unit,
For each pixel, the probability of mapping each of the classes in the current class hierarchy is obtained, and the class having the highest probability among the classes included in the class having the highest probability in the upper class hierarchy is determined as the class of the current class hierarchy doing,
Sketch image automatic coloring device.
제 5항에 있어서,
상기 제 2 영역 분할부는,
상기 현재의 클래스 계층 내의 클래스들 중에서 가장 높은 확률을 갖는 클래스가 이전에 판단된 상위 클래스 계층에서 가장 높은 확률을 갖는 클래스에 포함되지 않는다면, 상기 가장 높은 확률을 갖는 클래스를 현재 클래스 계층의 클래스로 결정하지 않고, 상기 가장 높은 확률을 갖는 클래스를 제외한 나머지 클래스들 중에서 가장 높은 확률을 갖는 클래스를 현재 클래스 계층의 클래스로 결정하는,
스케치 이미지 자동 채색 장치.
6. The method of claim 5,
The second region dividing unit,
If the class having the highest probability among the classes in the current class hierarchy is not included in the class having the highest probability in the previously determined upper class hierarchy, the class having the highest probability is determined as the class of the current class hierarchy Determining the class having the highest probability among the remaining classes except for the class having the highest probability as the class of the current class hierarchy,
Sketch image automatic coloring device.
제 1항에 있어서,
상기 채색부는,
복수의 분할 영역 및 상기 복수의 분할 영역 각각의 색정보를 포함하는 참조 채색 이미지와 상기 스케치 이미지를 비교하여 상기 스케치 이미지의 각 채색 단위 영역에 대응하는 색상 정보를 추출하고, 추출한 색상 정보를 근거로 상기 스케치 이미지를 채색하는,
스케치 이미지 자동 채색 장치.
The method of claim 1,
The coloring part,
A plurality of divided regions and a reference colored image including color information of each of the plurality of divided regions are compared with the sketch image to extract color information corresponding to each colored unit region of the sketch image, and based on the extracted color information coloring the sketch image,
Sketch image automatic coloring device.
삭제delete 삭제delete 제 1항에 있어서,
상기 채색부는,
사용자 단말로부터의 색 보정 명령에 따라 해당 채색 단위 영역에 대한 색 보정을 행하는,
스케치 이미지 자동 채색 장치.
The method of claim 1,
The coloring part,
performing color correction on the color unit area according to a color correction command from the user terminal;
Sketch image automatic coloring device.
제 1항에 있어서,
상기 채색 단위 영역별로 매핑된 클래스를 조정하도록 하는 사용자 피드백 정보를 사용자 단말로부터 수신하여 상기 병합부에게로 전달하는 피드백 반영부;를 더 포함하는,
스케치 이미지 자동 채색 장치.
The method of claim 1,
and a feedback reflecting unit that receives user feedback information for adjusting the class mapped for each colored unit area from the user terminal and transmits it to the merging unit.
Sketch image automatic coloring device.
제 1항에 있어서,
상기 채색 단위 영역별로 매핑된 클래스 중에서 사용자 단말로부터의 사용자 피드백 정보를 근거로 조정 대상인 채색 단위 영역에 대한 클래스를 직접 조정하는 피드백 반영부;를 더 포함하는,
스케치 이미지 자동 채색 장치.
The method of claim 1,
a feedback reflecting unit that directly adjusts a class for a color unit area to be adjusted based on user feedback information from a user terminal among the classes mapped for each color unit area;
Sketch image automatic coloring device.
제 1 영역 분할 기법을 이용하여 채색 대상인 스케치 이미지를 제 1 단위 영역들로 분할하는 제 1 단계;
제 2 영역 분할 기법을 이용하여 상기 스케치 이미지를 클래스가 매핑된 제 2 단위 영역들로 분할하되, 상기 스케치 이미지의 각 픽셀에 대하여 클래스를 매핑시키고 픽셀별로 매핑된 클래스를 근거로 상기 스케치 이미지를 제 2 단위 영역들로 분할하는 제 2 단계;
상기 제 1 단위 영역들과 상기 제 2 단위 영역들을 이용하여 각각이 클래스가 매핑된 하나 이상의 채색 단위 영역을 생성하는 제 3 단계; 및
상기 채색 단위 영역 각각에 매핑된 클래스에 대응하는 색상을 이용하여 상기 스케치 이미지를 채색하는 제 4 단계;를 포함하고,
상기 제 4 단계는,
상기 스케치 이미지의 채색 후, 기생성된 채색 단위 영역들 각각에 대한 영역 신뢰도를 결정하고, 결정된 영역 신뢰도가 기준값보다 낮은 채색 단위 영역에 채색된 색상을 보정하되, 상기 스케치 이미지의 채색 단위 영역들 중에서 형상이 동일 또는 유사한 다른 채색 단위 영역에 채색된 색상으로 보정하는,
스케치 이미지 자동 채색 방법.
a first step of dividing a sketch image to be colored into first unit regions using a first region division technique;
The sketch image is divided into class-mapped second unit regions using a second region division technique, a class is mapped for each pixel of the sketch image, and the sketch image is generated based on the class mapped for each pixel. a second step of dividing into two unit regions;
a third step of generating one or more color unit areas to which classes are mapped by using the first unit areas and the second unit areas; and
a fourth step of coloring the sketch image using a color corresponding to a class mapped to each of the coloring unit areas;
The fourth step is
After coloring the sketch image, region reliability for each of the pre-generated coloring unit regions is determined, and a color colored in a coloring unit region having a determined region reliability lower than a reference value is corrected, from among the coloring unit regions of the sketch image. Correcting with a colored color in another colored unit area of the same or similar shape;
How to automatically color sketch images.
제 13항에 있어서,
상기 제 2 단계는,
클래스간 포함관계를 근거로 상기 각 픽셀별로 매핑된 클래스의 검증 및 자동 조정을 실시하는 단계를 포함하는,
스케치 이미지 자동 채색 방법.
14. The method of claim 13,
The second step is
Including the step of verifying and automatically adjusting the class mapped for each pixel based on the inclusion relationship between the classes,
How to automatically color sketch images.
제 14항에 있어서,
상기 제 3 단계는,
상기 검증 및 자동 조정이 완료된 각 픽셀별 클래스를 상기 제 1 단위 영역들의 각 픽셀에 매핑시켜서 하나 이상의 채색 단위 영역을 생성하는,
스케치 이미지 자동 채색 방법.
15. The method of claim 14,
The third step is
generating one or more colored unit areas by mapping each pixel class for which the verification and automatic adjustment has been completed to each pixel of the first unit areas;
How to automatically color sketch images.
제 14항에 있어서,
상기 제 2 단계는,
각 픽셀마다, 현재의 클래스 계층내의 클래스들 각각이 매핑될 확률을 구하되, 상위 클래스 계층에서 가장 높은 확률을 갖는 클래스에 포함되는 클래스들 중에서 가장 높은 확률을 갖는 클래스를 현재 클래스 계층의 클래스로 결정하는,
스케치 이미지 자동 채색 방법.
15. The method of claim 14,
The second step is
For each pixel, the probability of mapping each of the classes in the current class hierarchy is obtained, and the class having the highest probability among the classes included in the class having the highest probability in the upper class hierarchy is determined as the class of the current class hierarchy doing,
How to automatically color sketch images.
제 16항에 있어서,
상기 제 2 단계는,
상기 현재의 클래스 계층 내의 클래스들 중에서 가장 높은 확률을 갖는 클래스가 이전에 판단된 상위 클래스 계층에서 가장 높은 확률을 갖는 클래스에 포함되지 않는다면, 상기 가장 높은 확률을 갖는 클래스를 현재 클래스 계층의 클래스로 결정하지 않고, 상기 가장 높은 확률을 갖는 클래스를 제외한 나머지 클래스들 중에서 가장 높은 확률을 갖는 클래스를 현재 클래스 계층의 클래스로 결정하는,
스케치 이미지 자동 채색 방법.
17. The method of claim 16,
The second step is
If the class having the highest probability among the classes in the current class hierarchy is not included in the class having the highest probability in the previously determined upper class hierarchy, the class having the highest probability is determined as the class of the current class hierarchy Determining the class having the highest probability among the remaining classes except for the class having the highest probability as the class of the current class hierarchy,
How to automatically color sketch images.
삭제delete 삭제delete 제 13항에 기재된 스케치 이미지 자동 채색 방법을 수행하기 위한 명령들을 포함하는 프로그램을 저장하는 컴퓨터 판독가능한 저장 매체.

A computer-readable storage medium storing a program including instructions for performing the method for automatically coloring a sketch image according to claim 13.

KR1020220023653A 2022-02-23 2022-02-23 Apparatus and method for automatically coloring sketch images KR102449790B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020220023653A KR102449790B1 (en) 2022-02-23 2022-02-23 Apparatus and method for automatically coloring sketch images

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020220023653A KR102449790B1 (en) 2022-02-23 2022-02-23 Apparatus and method for automatically coloring sketch images

Publications (1)

Publication Number Publication Date
KR102449790B1 true KR102449790B1 (en) 2022-09-30

Family

ID=83451667

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020220023653A KR102449790B1 (en) 2022-02-23 2022-02-23 Apparatus and method for automatically coloring sketch images

Country Status (1)

Country Link
KR (1) KR102449790B1 (en)

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20020041898A (en) * 2000-11-29 2002-06-05 구자홍 Method to search picture data
KR20150034058A (en) * 2013-09-25 2015-04-02 삼성전자주식회사 Method and Apparatus For Generating Drawing Animation Based On Image Analysis
KR20200064591A (en) * 2018-11-29 2020-06-08 (주)아이디어 콘서트 Webtoons color customizing programs and applications of deep learning
KR20200078314A (en) * 2018-12-21 2020-07-01 삼성전자주식회사 System and method for providing dominant scene classification by semantic segmentation
KR20200106754A (en) * 2019-03-05 2020-09-15 네이버웹툰컴퍼니 주식회사 Method, apparatus and computer program for coloring of a target image
KR102247662B1 (en) * 2021-01-29 2021-05-03 주식회사 아이코드랩 Device and method for automatically coloring cartoon sketch image
KR102335702B1 (en) 2020-11-24 2021-12-06 연세대학교 산학협력단 Apparatus And Method For Domain Adaptive Semantic Segmentation

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20020041898A (en) * 2000-11-29 2002-06-05 구자홍 Method to search picture data
KR20150034058A (en) * 2013-09-25 2015-04-02 삼성전자주식회사 Method and Apparatus For Generating Drawing Animation Based On Image Analysis
KR20200064591A (en) * 2018-11-29 2020-06-08 (주)아이디어 콘서트 Webtoons color customizing programs and applications of deep learning
KR20200078314A (en) * 2018-12-21 2020-07-01 삼성전자주식회사 System and method for providing dominant scene classification by semantic segmentation
KR20200106754A (en) * 2019-03-05 2020-09-15 네이버웹툰컴퍼니 주식회사 Method, apparatus and computer program for coloring of a target image
KR102216749B1 (en) 2019-03-05 2021-02-17 네이버웹툰 유한회사 Method, apparatus and computer program for coloring of a target image
KR102335702B1 (en) 2020-11-24 2021-12-06 연세대학교 산학협력단 Apparatus And Method For Domain Adaptive Semantic Segmentation
KR102247662B1 (en) * 2021-01-29 2021-05-03 주식회사 아이코드랩 Device and method for automatically coloring cartoon sketch image

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
C. W. Seo et al., "Seg2pix: Few Shot Training Line Art Colorization with Segmented Image Data", Appl. Sci. 2021(2021.02.05.)* *

Similar Documents

Publication Publication Date Title
US20210350504A1 (en) Aesthetics-guided image enhancement
CN106022221B (en) Image processing method and system
US20230237841A1 (en) Occlusion Detection
KR102124466B1 (en) Apparatus and method for generating conti for webtoon
US7889892B2 (en) Face detecting method, and system and program for the methods
US10726206B2 (en) Visual reference resolution using attention memory for visual dialog
RU2630742C1 (en) Method, system and device for biometric iris recognition
US20220036127A1 (en) Semantic image manipulation using visual-semantic joint embeddings
EP4109412A1 (en) Three-dimensional model reconstruction method and apparatus, and three-dimensional reconstruction model training method and apparatus
JP2017062778A (en) Method and device for classifying object of image, and corresponding computer program product and computer-readable medium
US20230059499A1 (en) Image processing system, image processing method, and non-transitory computer readable medium
CN114677565B (en) Training method and image processing method and device for feature extraction network
US11893773B2 (en) Finger vein comparison method, computer equipment, and storage medium
US20220130139A1 (en) Image processing method and apparatus, electronic device and storage medium
US11741684B2 (en) Image processing method, electronic device and storage medium for performing skin color recognition on a face image
CN113792827B (en) Target object recognition method, electronic device, and computer-readable storage medium
CN112446322A (en) Eyeball feature detection method, device, equipment and computer-readable storage medium
KR102449790B1 (en) Apparatus and method for automatically coloring sketch images
WO2018118099A1 (en) Shape prediction for face alignment
US20230237630A1 (en) Image processing method and apparatus
KR102449795B1 (en) Apparatus and method for automatically coloring sketch images
CN114333038B (en) Training method of object recognition model, object recognition method, device and equipment
CN113658195B (en) Image segmentation method and device and electronic equipment
US20230059407A1 (en) Image processing system, image processing method, and non-transitory computer readable medium
US11113606B2 (en) Learning method, learning device, program, and recording medium

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant