KR102449790B1 - Apparatus and method for automatically coloring sketch images - Google Patents
Apparatus and method for automatically coloring sketch images Download PDFInfo
- Publication number
- KR102449790B1 KR102449790B1 KR1020220023653A KR20220023653A KR102449790B1 KR 102449790 B1 KR102449790 B1 KR 102449790B1 KR 1020220023653 A KR1020220023653 A KR 1020220023653A KR 20220023653 A KR20220023653 A KR 20220023653A KR 102449790 B1 KR102449790 B1 KR 102449790B1
- Authority
- KR
- South Korea
- Prior art keywords
- class
- unit
- coloring
- color
- sketch image
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T11/00—2D [Two Dimensional] image generation
- G06T11/40—Filling a planar surface by adding surface attributes, e.g. colour or texture
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/90—Determination of colour characteristics
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10024—Color image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
Abstract
Description
본 발명은 스케치 이미지 자동 채색 장치 및 방법에 관한 것으로, 보다 상세하게는 웹툰의 스케치 이미지를 자동으로 채색할 수 있는 스케치 이미지 자동 채색 장치 및 방법에 관한 것이다.The present invention relates to an apparatus and method for automatically coloring a sketch image, and more particularly, to an apparatus and method for automatically coloring a sketch image of a webtoon.
웹툰은 인터넷을 뜻하는 웹(web)과 만화를 뜻하는 카툰(cartoon)의 합성어로서 각종 멀티미디어 효과를 동원해 제작된 인터넷 만화를 말한다. Webtoon is a compound word of web, meaning internet, and cartoon, meaning cartoons, and refers to Internet comics produced by mobilizing various multimedia effects.
웹툰은 창작자가 스케치를 하고, 수동으로 채색을 입히는 형식으로 제작되고 있다. 일반적으로, 흑백의 그림으로 출판되었던 만화와 달리 웹툰은 채색이 완료된 컬러 이미지로 소비자에게 제공되는 특징을 갖는다.Webtoons are produced in the form of sketches by creators and manual coloring. In general, unlike cartoons that were published as black and white drawings, webtoons have the characteristic of being provided to consumers as color images with coloring completed.
웹툰 제작시 창작자가 수동으로 일일이 채색을 하는 경우 웹툰 제작에 많은 시간이 소요되는 문제점이 있다. 이에, 웹툰 창작자는 채색하는 시간을 줄이기 위하여 보조 작가를 두기도 하였다. 이러한 채색 과정은 보통 사람들에게 쉽지 않은 작업으로서 웹툰 창작자 본인이 원하는 대로 채색을 입혀주는 보조 작가를 구하는 것도 용이하지 않은 실정이다.There is a problem in that it takes a lot of time to make a webtoon if the creator manually colorizes each one when making a webtoon. For this reason, the webtoon creator also has an assistant artist to reduce the coloring time. This coloring process is not an easy task for ordinary people, and it is not easy to find an assistant artist who can color the webtoon as desired.
이와 같이 웹툰의 채색은 많은 시간과 비용을 소요하는 작업이기에 이를 자동화하기 위한 연구들이 시도되고 있다. As such, coloring webtoons is a task that takes a lot of time and money, so studies are being made to automate it.
이상의 배경기술에 기재된 사항은 발명의 배경에 대한 이해를 돕기 위한 것으로서, 공개된 종래 기술이 아닌 사항을 포함할 수 있다.The matters described in the background art above are intended to help the understanding of the background of the invention, and may include matters that are not disclosed prior art.
본 발명은 상기한 종래의 사정을 감안하여 제안된 것으로, 웹툰의 스케치 이미지에 대한 채색을 보다 정확하면서도 빠르게 자동으로 처리해 주도록 하는 스케치 이미지 자동 채색 장치 및 방법을 제공함에 그 목적이 있다.The present invention has been proposed in view of the above-described conventional circumstances, and an object of the present invention is to provide an apparatus and method for automatically coloring a sketch image that automatically and more accurately and quickly processes coloring on a sketch image of a webtoon.
상기와 같은 목적을 달성하기 위하여 본 발명의 바람직한 실시양태에 따른 스케치 이미지 자동 채색 장치는, 제 1 영역 분할 기법을 이용하여 채색 대상인 스케치 이미지를 제 1 단위 영역들로 분할하는 제 1 영역 분할부; 제 2 영역 분할 기법을 이용하여 상기 스케치 이미지를 클래스가 매핑된 제 2 단위 영역들로 분할하되, 상기 스케치 이미지의 각 픽셀에 대하여 클래스를 매핑시키고 픽셀별로 매핑된 클래스를 근거로 상기 스케치 이미지를 제 2 단위 영역들로 분할하는 제 2 영역 분할부; 상기 제 1 단위 영역들과 상기 제 2 단위 영역들을 이용하여 각각이 클래스가 매핑된 하나 이상의 채색 단위 영역을 생성하는 병합부; 및 상기 채색 단위 영역 각각에 매핑된 클래스에 대응하는 색상을 이용하여 상기 스케치 이미지를 채색하는 채색부;를 포함한다.In order to achieve the above object, an apparatus for automatically coloring a sketch image according to a preferred embodiment of the present invention includes: a first region dividing unit that divides a sketch image to be colored into first unit regions using a first region dividing technique; The sketch image is divided into class-mapped second unit regions using a second region division technique, a class is mapped for each pixel of the sketch image, and the sketch image is generated based on the class mapped for each pixel. a second region dividing unit dividing into two unit regions; a merging unit generating one or more color unit regions to which classes are mapped by using the first unit regions and the second unit regions; and a coloring unit that colors the sketch image by using a color corresponding to a class mapped to each of the coloring unit areas.
상기 제 2 영역 분할부는, 클래스간 포함관계를 근거로 상기 각 픽셀별로 매핑된 클래스의 검증 및 자동 조정을 실시할 수 있다.The second region divider may verify and automatically adjust the class mapped to each pixel based on the inclusion relationship between the classes.
상기 병합부는, 상기 검증 및 자동 조정이 완료된 각 픽셀별 클래스를 상기 제 1 단위 영역들의 각 픽셀에 매핑시켜서 하나 이상의 채색 단위 영역을 생성할 수 있다.The merging unit may generate one or more colored unit areas by mapping the class for each pixel for which the verification and automatic adjustment have been completed, to each pixel of the first unit areas.
상기 제 2 영역 분할부는, 상위 클래스 계층에서부터 점차 하위 클래스 계층으로 이동하는 방식으로 클래스 매핑의 옳고 그름을 검증할 수 있다.The second region divider may verify the correctness of the class mapping by gradually moving from the upper class hierarchy to the lower class hierarchy.
상기 제 2 영역 분할부는, 각 픽셀마다, 현재의 클래스 계층내의 클래스들 각각이 매핑될 확률을 구하되, 상위 클래스 계층에서 가장 높은 확률을 갖는 클래스에 포함되는 클래스들 중에서 가장 높은 확률을 갖는 클래스를 현재 클래스 계층의 클래스로 결정할 수 있다.The second region divider, for each pixel, obtains a probability that each of the classes in the current class hierarchy is mapped, and selects the class having the highest probability among the classes included in the class having the highest probability in the upper class hierarchy. It can be determined as a class in the current class hierarchy.
상기 제 2 영역 분할부는, 상기 현재의 클래스 계층 내의 클래스들 중에서 가장 높은 확률을 갖는 클래스가 이전에 판단된 상위 클래스 계층에서 가장 높은 확률을 갖는 클래스에 포함되지 않는다면, 상기 가장 높은 확률을 갖는 클래스를 현재 클래스 계층의 클래스로 결정하지 않고, 상기 가장 높은 확률을 갖는 클래스를 제외한 나머지 클래스들 중에서 가장 높은 확률을 갖는 클래스를 현재 클래스 계층의 클래스로 결정할 수 있다.The second region dividing unit is configured to select the class having the highest probability if the class having the highest probability among the classes in the current class hierarchy is not included in the class having the highest probability in the previously determined upper class hierarchy. Without determining the class of the current class hierarchy, the class having the highest probability among the remaining classes except for the class having the highest probability may be determined as the class of the current class hierarchy.
상기 제 1 영역 분할 기법은, 에지 기반의 이미지 영역 분할 알고리즘일 수 있다.The first region segmentation technique may be an edge-based image region segmentation algorithm.
상기 채색부는, 복수의 분할 영역 및 상기 복수의 분할 영역 각각의 색정보를 포함하는 참조 채색 이미지와 상기 스케치 이미지를 비교하여 상기 스케치 이미지의 각 채색 단위 영역에 대응하는 색상 정보를 추출하고, 추출한 색상 정보를 근거로 상기 스케치 이미지를 채색할 수 있다.The coloring unit compares a plurality of divided regions and a reference colored image including color information of each of the plurality of divided regions with the sketch image, extracts color information corresponding to each coloring unit region of the sketch image, and extracts the extracted color The sketch image may be colored based on the information.
상기 채색부는, 상기 스케치 이미지의 각각의 채색 단위 영역에 대해 영역 신뢰도를 결정하고, 결정된 영역 신뢰도가 소정의 기준 값보다 낮은 채색 단위 영역의 색상은 다른 채색 단위 영역들에 대응하는 색상으로 채색할 수 있다.The coloring unit may determine region reliability for each coloring unit region of the sketch image, and color the coloring unit region having the determined region reliability lower than a predetermined reference value with a color corresponding to other coloring unit regions. have.
상기 채색부는, 상기 영역 신뢰도가 기준값보다 낮은 채색 단위 영역에 대해서, 상기 스케치 이미지의 채색 단위 영역들 중에서 형상과 클래스 중에서 하나 이상이 동일 또는 유사한 채색 단위 영역에 대응하는 색상으로 채색할 수 있다.The coloring unit may color the coloring unit area having the area reliability lower than the reference value with a color corresponding to the coloring unit area having the same or similar shape and class among the coloring unit areas of the sketch image.
상기 채색부는, 사용자 단말로부터의 색 보정 명령에 따라 해당 채색 단위 영역에 대한 색 보정을 행할 수 있다.The coloring unit may perform color correction on the corresponding coloring unit area according to a color correction command from the user terminal.
본 발명의 바람직한 실시양태는, 상기 채색 단위 영역별로 매핑된 클래스를 조정하도록 하는 사용자 피드백 정보를 사용자 단말로부터 수신하여 상기 병합부에게로 전달하는 피드백 반영부;를 더 포함할 수 있다.A preferred embodiment of the present invention may further include a feedback reflecting unit that receives user feedback information for adjusting the class mapped for each colored unit area from the user terminal and transmits it to the merging unit.
본 발명의 바람직한 실시양태는, 상기 채색 단위 영역별로 매핑된 클래스 중에서 사용자 단말로부터의 사용자 피드백 정보를 근거로 조정 대상인 채색 단위 영역에 대한 클래스를 직접 조정하는 피드백 반영부;를 더 포함할 수 있다.A preferred embodiment of the present invention may further include a feedback reflecting unit that directly adjusts a class for a color unit area to be adjusted based on user feedback information from a user terminal among the classes mapped for each color unit area.
한편, 본 발명의 바람직한 실시양태에 따른 스케치 이미지 자동 채색 방법은, 제 1 영역 분할 기법을 이용하여 채색 대상인 스케치 이미지를 제 1 단위 영역들로 분할하는 제 1 단계; 제 2 영역 분할 기법을 이용하여 상기 스케치 이미지를 클래스가 매핑된 제 2 단위 영역들로 분할하되, 상기 스케치 이미지의 각 픽셀에 대하여 클래스를 매핑시키고 픽셀별로 매핑된 클래스를 근거로 상기 스케치 이미지를 제 2 단위 영역들로 분할하는 제 2 단계; 상기 제 1 단위 영역들과 상기 제 2 단위 영역들을 이용하여 각각이 클래스가 매핑된 하나 이상의 채색 단위 영역을 생성하는 제 3 단계; 및 상기 채색 단위 영역 각각에 매핑된 클래스에 대응하는 색상을 이용하여 상기 스케치 이미지를 채색하는 제 4 단계;를 포함한다.Meanwhile, a method for automatically coloring a sketch image according to a preferred embodiment of the present invention includes a first step of dividing a sketch image to be colored into first unit regions using a first region division technique; The sketch image is divided into class-mapped second unit regions using a second region division technique, a class is mapped for each pixel of the sketch image, and the sketch image is generated based on the class mapped for each pixel. a second step of dividing into two unit regions; a third step of generating one or more color unit regions to which classes are mapped by using the first unit regions and the second unit regions; and a fourth step of coloring the sketch image using a color corresponding to a class mapped to each of the coloring unit areas.
이러한 구성의 본 발명에 따르면, 채색 대상인 스케치 이미지를 에지 기반 영상 분할 및 의미론적 영상 분할로 각각 영역 분할하고, 에지 기반으로 분할된 영역에 대해 의미론적 영상 분할 기법에 의한 클래스를 매핑시켜 그에 상응하는 색상을 자동으로 채색할 수 있으므로, 스케치 이미지의 채색에 소요되는 시간을 감소시킬 수 있다. 이에 의해, 웹툰 완성을 위해 소요되는 시간을 감소시킬 수 있는 효과가 있다.According to the present invention of this configuration, a sketch image to be colored is divided into an edge-based image segmentation and a semantic image segmentation, respectively, and a class is mapped by the semantic image segmentation technique to the edge-based segmented area to correspond to the corresponding area. Since colors can be automatically colored, the time required for coloring sketch images can be reduced. Thereby, there is an effect that can reduce the time required to complete the webtoon.
특히, 본 발명은 클래스간 포함관계가 정의된 클래스 계층도를 기반으로, 클래스 매핑된 분할 영역의 클래스 검증 및 조정을 자동으로 할 수 있으므로, 사용자가 일일이 육안으로 클래스를 검증한 후에 조정해야 되는 수고로움을 해소시켜 줄 수 있다. 이로 인해, 사용상의 편리함을 제공하는 효과가 있다.In particular, the present invention can automatically perform class verification and adjustment of class-mapped partitions based on the class hierarchy in which the inclusion relationship between classes is defined. It can relieve loneliness. For this reason, there is an effect of providing convenience in use.
도 1은 본 발명의 실시예에 따른 스케치 이미지 자동 채색 장치가 채용된 시스템 구성도이다.
도 2는 도 1에 도시된 서버의 내부 구성도이다.
도 3은 도 2에 도시된 제어부의 내부 구성도이다.
도 4는 도 3에 도시된 이미지 획득부의 설명에 채용되는 도면이다.
도 5는 도 3에 도시된 제 1 영역 분할부의 설명에 채용되는 도면이다.
도 6은 도 3에 도시된 제 2 영역 분할부의 설명에 채용되는 도면이다.
도 7은 도 3에 도시된 제 2 영역 분할부의 내부 구성도이다.
도 8은 본 발명의 실시예에 채용되는 클래스 계층도의 일 예이다.
도 9 내지 도 11은 도 3에 도시된 제 2 영역 분할부의 설명에 채용되는 도면이다.
도 12 내지 도 14는 도 3에 도시된 채색부의 설명에 채용되는 도면이다.
도 15는 본 발명의 실시예에 따른 스케치 이미지 자동 채색 방법을 설명하기 위한 플로우차트이다.1 is a system configuration diagram in which an automatic sketch image coloring apparatus according to an embodiment of the present invention is employed.
FIG. 2 is an internal configuration diagram of the server shown in FIG. 1 .
FIG. 3 is an internal configuration diagram of the control unit shown in FIG. 2 .
FIG. 4 is a diagram employed in the description of the image acquisition unit shown in FIG. 3 .
FIG. 5 is a diagram employed to explain the first region division unit shown in FIG. 3 .
FIG. 6 is a diagram employed to explain the second region division unit shown in FIG. 3 .
FIG. 7 is an internal configuration diagram of the second region division unit shown in FIG. 3 .
8 is an example of a class hierarchy employed in an embodiment of the present invention.
9 to 11 are diagrams employed in the description of the second region division unit shown in FIG. 3 .
12 to 14 are diagrams employed to explain the coloring part shown in FIG. 3 .
15 is a flowchart illustrating a method for automatically coloring a sketch image according to an embodiment of the present invention.
본 발명은 다양한 변경을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시 예들을 도면에 예시하고 상세하게 설명하고자 한다.Since the present invention can have various changes and can have various embodiments, specific embodiments are illustrated in the drawings and described in detail.
그러나, 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.However, this is not intended to limit the present invention to specific embodiments, and should be understood to include all modifications, equivalents and substitutes included in the spirit and scope of the present invention.
본 출원에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.The terms used in the present application are only used to describe specific embodiments, and are not intended to limit the present invention. The singular expression includes the plural expression unless the context clearly dictates otherwise. In the present application, terms such as “comprise” or “have” are intended to designate that a feature, number, step, operation, component, part, or combination thereof described in the specification exists, but one or more other features It is to be understood that this does not preclude the possibility of the presence or addition of numbers, steps, operations, components, parts, or combinations thereof.
다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 의미를 가진 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.Unless defined otherwise, all terms used herein, including technical or scientific terms, have the same meaning as commonly understood by one of ordinary skill in the art to which this invention belongs. Terms such as those defined in commonly used dictionaries should be interpreted as having a meaning consistent with the meaning in the context of the related art, and should not be interpreted in an ideal or excessively formal meaning unless explicitly defined in the present application. does not
이하, 첨부한 도면들을 참조하여, 본 발명의 바람직한 실시예를 보다 상세하게 설명하고자 한다. 본 발명을 설명함에 있어 전체적인 이해를 용이하게 하기 위하여 도면상의 동일한 구성요소에 대해서는 동일한 참조부호를 사용하고 동일한 구성요소에 대해서 중복된 설명은 생략한다. Hereinafter, preferred embodiments of the present invention will be described in more detail with reference to the accompanying drawings. In describing the present invention, in order to facilitate the overall understanding, the same reference numerals are used for the same components in the drawings, and duplicate descriptions of the same components are omitted.
도 1은 본 발명의 실시예에 따른 스케치 이미지 자동 채색 장치가 채용된 시스템 구성도이다.1 is a system configuration diagram in which an automatic sketch image coloring apparatus according to an embodiment of the present invention is employed.
도 1의 시스템은 사용자 단말(100), 네트워크(200), 및 서버(300)를 포함할 수 있다. The system of FIG. 1 may include a
사용자 단말(100)은 사용자의 조작에 따라 채색 대상이 되는 스케치 이미지를 네트워크(200)를 통해 서버(300)에게로 전송할 수 있다. 예컨대, 스케치 이미지내에는 하나 이상의 객체(예컨대, 등장 캐릭터, 주변 물체 등)를 나타내는 외곽선이 포함될 수 있다. 스케치 이미지는 선화 이미지로 지칭될 수도 있다.The
사용자 단말(100)은 채색 대상이 되는 스케치 이미지를 생성 또는 저장할 수 있다. 예컨대, 스케치 이미지는 채색이 완성되지 않은 이미지일 수 있다. 즉, 스케치 이미지는 채색되지 않은 부분을 포함하거나 채색이 전혀 되지 않은 이미지일 수 있다. 본 발명의 실시예에서는 채색 대상인 스케치 이미지라 함은 채색이 전혀 되지 않은 이미지를 의미하는 것으로 한다.The
채색대상인 스케치 이미지가 서버(300)에게로 전송되면, 서버(300)는 스케치 이미지에 대하여 제 1 영역 분할 기법(예컨대, 에지 기반의 이미지 영역 분할 기법) 및 제 2 영역 분할 기법(예컨대, 의미론적 이미지 영역 분할 기법)으로 각각 영역 분할을 행한다. When the sketch image to be colored is transmitted to the
서버(300)는 제 1 영역 분할 기법에 의한 분할 영역들과 제 2 영역 분할 기법에 의한 분할 영역들을 병합하여 하나 이상의 채색 단위 영역을 생성하되 각각의 채색 단위 영역에는 그에 상응하는 클래스를 매핑시킬 수 있다. 여기서, 클래스는 눈, 코, 입, 머리카락, 팔, 다리 등과 같은 의미를 지니는 단위라고 할 수 있다.The
서버(300)는 채색 단위 영역별로 클래스가 매핑된 결과물(예컨대, 이미지)을 사용자 단말(100)에게로 출력할 수 있다. The
그에 따라, 사용자 단말(100)은 클래스가 매핑된 채색 단위 영역들 중에서 하나 이상에 대한 피드백 정보(예컨대, 클래스 조정 정보)를 네트워크(200)를 통해 서버(300)에게로 전송할 수 있다. 예를 들어, 어느 한 채색 단위 영역에 대한 클래스가 "눈"이 되어야 함에도 불구하고 "팔"로 잘못 매핑되어 있을 수 있다. 이 경우, 사용자는 이를 육안으로 확인한 후에, 해당 채색 단위 영역에 대하여 수정될 클래스를 입력할 수 있다. 이에, 사용자 단말(100)은 해당 채색 단위 영역에 대해 수정될 클래스를 포함하는 피드백 정보를 네트워크(200)를 통해 서버(300)에게로 전송할 수 있다.Accordingly, the
사용자 단말(100)은 연산 처리 기능을 갖는 컴퓨팅 장치로서, 이동형 장치이거나 또는 고정형 장치일 수 있다. 예컨대, 사용자 단말(100)은 컴퓨터, PC(personal computer), 스마트폰, 네비게이션, 랩톱 컴퓨터, 태블릿 컴퓨터, 웨어러블 장치 또는 태블릿 등을 의미할 수 있으나, 본 발명의 실시 예들이 이에 한정되는 것은 아니다.The
도 1에서는 사용자 단말(100)을 하나만 도시하였으나, 실제로는 다수의 사용자 단말(100)이 존재하는 것으로 이해하는 것이 좋다.Although only one
사용자 단말(100)은 네트워크(200)를 통해 서버(300)와 통신할 수 있다. 사용자 단말(100)은 무선 통신 방식의 네트워크 또는 유선 통신 방식의 네트워크에 따라 서버(300)와 이미지 데이터를 주고받을 수 있다.The
예를 들어, 무선 통신 방식의 네트워크(200)는 무선랜(Wireless LAN (WLAN)), 와이브로(Wireless Broadband (Wibro)), WCDMA(Wideband CDMA), IEEE 802.16, 롱 텀 에볼루션(Long Term Evolution (LTE)), LTE-A(Long Term Evolution-Advanced), 블루투스(Bluetooth), RFID(Radio Frequency Identification), 적외선 통신(Infrared Data Association: IrDA), UWB(Ultra-Wideband), 지그비(ZigBee), 인접 자장 통신(Near Field Communication (NFC)), 초음파 통신(Ultra Sound Communication (USC)), 가시광 통신(Visible Light Communication (VLC)), 와이 파이(Wi-Fi) 등을 포함할 수 있으나, 이에 한정되는 것은 아니다.For example, the wireless
한편, 유선 통신 방식의 네트워크(200)는 유선 LAN(Local Area Network), 유선 WAN(Wide Area Network), 전력선 통신(Power Line Communication (PLC)), USB 통신, 이더넷(Ethernet), 시리얼 통신(serial communication), 광/동축 케이블 통신 등을 포함할 수 있으나, 이에 한정되는 것은 아니다.On the other hand, the
서버(300)는 본 발명의 실시예에 따른 스케치 이미지 자동 채색 장치가 될 수 있다. 물론, 필요에 따라서는 본 발명의 실시예에 따른 스케치 이미지 자동 채색 장치가 서버(300)에 포함되는 것으로 할 수도 있다.The
서버(300)는 사용자 단말(100)로부터 채색 대상인 스케치 이미지를 수신(획득)한다. 물론, 서버(300)는 스케치 이미지와 함께 해당 스케치 이미지에 대한 채색 요청을 수신할 수 있다. 만약, 저마다의 사용자 단말(100)로부터 스케치 이미지를 수신한다면, 서버(300)는 사용자 단말(100)마다의 식별 정보를 함께 수신할 수 있다.The
서버(300)는 제 1 영역 분할 기법(예컨대, 에지 기반의 이미지 영역 분할 기법)으로 스케치 이미지에 대한 영역 분할을 행할 수 있다. The
또한, 서버(300)는 제 2 영역 분할 기법(예컨대, 의미론적 이미지 영역 분할 기법)으로 스케치 이미지에 대한 영역 분할을 행할 수 있다. 이러한 제 2 영역 분할 기법에 의한 영역 분할의 경우, 스케치 이미지의 각 픽셀에 대하여 클래스를 매핑시키고 픽셀별로 매핑된 클래스를 기준으로 스케치 이미지를 하나 이상의 분할 영역으로 분할할 수 있다. 또한, 서버(300)는 기설정된 클래스간 포함관계를 근거로 각 픽셀별로 매핑된 클래스의 검증 및 조정을 자동으로 실시할 수 있다. 여기서, 검증 및 조정은 매핑된 클래스가 정상인지를 검증하여 비정상이면 정상의 클래스로 자동으로 조정하는 것을 의미한다.Also, the
서버(300)는 제 1 영역 분할 기법에 의한 분할 영역들과 제 2 영역 분할 기법에 의한 분할 영역들을 병합하여 하나 이상의 채색 단위 영역을 생성하되 각각의 채색 단위 영역에는 그에 상응하는 클래스를 매핑시킬 수 있다. The
서버(300)는 채색 단위 영역별로 클래스가 매핑된 결과물(예컨대, 이미지)을 사용자 단말(100)에게로 출력할 수 있다. The
서버(300)는 클래스를 매핑시킨 채색 단위 영역들 중에서 하나 이상에 대한 사용자 피드백 정보(예컨대, 클래스 조정 정보)를 사용자 단말(100)로부터 수신하게 되면 해당 사용자 피드백 정보를 근거로 해당 채색 단위 영역에 대한 클래스를 조정할 수 있다. When the
서버(300)는 채색 단위 영역 각각에 매핑된 클래스에 대응하는 색상을 이용하여 채색 대상인 스케치 이미지에 대하여 채색을 할 수 있다.The
일 예로, 채색을 위해 서버(300)는 클래스별로 할당된 색상 정보를 미리 저장할 수 있다. 예를 들어, 서버(300)는 클래스 팔레트를 미리 저장하고 있을 수 있다. 클래스 팔레트의 경우 클래스 1은 살색, 클래스 2는 적색 등과 같이 클래스별 색상이 미리 결정되어 있을 수 있다. 다르게는, 클래스 팔레트의 클래스별 색상은 이전 화에서의 클래스별 색상 정보에 기인하여 결정될 수 있다. 웹툰의 경우 다수의 에피소드(episode)("화"라고 할 수 있음)로 구성될 수 있고, 각 화별로는 다수의 컷(cut)을 포함할 수 있다. 그에 따라, 예를 들어 2화의 스케치 이미지에 대해 채색을 하고자 하는 경우 1화의 스케치 이미지의 채색에 사용하였던 클래스별 색상 정보를 그대로 이용할 수 있다.For example, for coloring, the
다른 예로, 채색을 위해 서버(300)는 다수의 참조 채색 이미지(또는 "샘플 채색 이미지"라고도 할 수 있음)를 저장할 수 있다. 참조 채색 이미지는 웹툰을 구성하는 이미지일 수 있다. 예를 들어, 참조 채색 이미지는 웹툰 내의 객체(예컨대, 등장 캐릭터, 주변 물체 등)를 나타내는 외곽선과 색채를 포함할 수 있다. 즉, 참조 채색 이미지는 제 1 영역 분할 기법(예컨대, 에지 기반의 이미지 영역 분할 기법)으로 영역 분할된 이미지 및 각 분할 영역의 색정보를 포함할 수 있다.As another example, for coloring, the
이를 위해, 서버(300)는 웹툰으로부터 참조 채색 이미지가 될 수 있는 채색 이미지를 추출(또는 수집)할 수 있다. 예를 들어, 서버(300)는 웹툰이 게시된 웹(web) 상의 웹페이지의 주소를 이용하여, 게시된 웹툰으로부터 참조 채색 이미지를 추출(또는 수집)할 수 있으나, 이에 한정되는 것은 아니다.To this end, the
실시 예들에 따라, 서버(300)는 참조 채색 이미지 및 참조 채색 이미지의 순서 정보를 함께 저장할 수 있다. 이때, 순서 정보는 참조 채색 이미지 각각의 웹툰 내에서의 순서를 나타낼 수 있다. 예를 들어, 순서 정보는 참조 채색 이미지가 포함된 웹툰의 에피소드(episode) 또는 참조 채색 이미지가 포함된 컷(cut)에 대한 정보를 의미할 수 있다.According to embodiments, the
서버(300)는 사용자 단말(100)으로부터 채색 대상이 되는 스케치 이미지를 수신하고, 미리 저장된 채색 이미지들 중에서 스케치 이미지의 채색에 사용될 참조 채색 이미지를 결정할 수 있다. 이때, 참조 채색 이미지는 스케치 이미지내의 객체와 유사한 객체를 포함하는 이미지일 수 있다.The
서버(300)는 결정된 참조 채색 이미지를 이용하여 채색 대상인 스케치 이미지를 채색할 수 있다. 이 경우, 서버(300)는 채색 대상인 스케치 이미지에서의 어느 한 채색 단위 영역(A)과 참조 채색 이미지에서의 채색 단위 영역(a, b, c, ?)을 서로 비교한다. 그리고, 서버(300)는 채색 대상인 스케치 이미지에서의 채색 단위 영역(A)과 유사한 채색 단위 영역(예컨대, a)을 찾게 되면 그 영역(즉, 채색 단위 영역 a)의 색을 가져와서 스케치 이미지에서의 채색 단위 영역(A)을 채색하게 된다. 이와 같은 방식으로 채색 대상의 스케치 이미지의 다른 채색 단위 영역에 대해서도 그에 대응하는 색상 정보를 추출하여 채색할 수 있다.The
서버(300)는 채색 대상인 스케치 이미지에 대한 채색이 완료되면 사용자 단말(100)에게로 채색된 결과물을 제공할 수 있다. 이때, 서버(300)는 사용자 단말(100)로부터 색보정할 부분에 대한 정보를 피드백받을 수 있다. 그에 따라, 서버(300)는 사용자 피드백 정보(즉, 색보정할 부분에 대한 정보)를 근거로 해당 채색 단위 영역에 대한 색보정을 행할 수 있다.The
상술한 서버(300)는 사용자 단말(100)과 통신 가능하고 연산 처리 기능을 갖는 컴퓨팅 장치일 수 있다. The above-described
도 2는 도 1에 도시된 서버(300)의 내부 구성도이다.FIG. 2 is an internal configuration diagram of the
서버(300)는 통신부(10), 저장부(20), 및 제어부(30)를 포함할 수 있다.The
통신부(10)는 사용자 단말(100)과 데이터를 주고받을 수 있다. 통신부(10)는 무선 통신 방식 또는 유선 통신 방식에 따라 사용자 단말(100)과 이미지 데이터를 주고받을 수 있다. The
저장부(20)는 서버(300)의 동작에 필요한 데이터를 저장할 수 있다. 실시 예들에 따라, 저장부(20)는 채색 대상이 되는 스케치 이미지, 클래스별로 할당된 색상 정보, 스케치 이미지의 채색시 참조하기 위한 참조 채색 이미지 등을 저장할 수 있다. The
또한, 저장부(20)는 서버(300)에 의해 수행되는 일련의 동작들을 수행하기 위한 명령어들로 구성되는 프로그램을 저장할 수 있다.Also, the
저장부(20)는 비휘발성 메모리 장치 또는 휘발성 메모리 장치를 포함할 수 있다. 실시 예들에 따라, 저장부(20)는 제어부(30)에 포함되어 구성될 수 있으나, 이에 한정되는 것은 아니다.The
제어부(30)는 서버(300)의 전반적인 동작들을 제어할 수 있다. The
예를 들어, 제어부(30)는 채색 대상인 스케치 이미지에 대한 제 1 영역 분할 기법으로의 영역 분할을 실시할 수 있다. 제어부(30)는 채색 대상인 스케치 이미지에 대한 제 2 영역 분할 기법으로의 영역 분할을 실시할 수 있다. 제어부(30)는 제 1 영역 분할 기법에 의한 분할 영역들과 제 2 영역 분할 기법에 의한 분할 영역들을 병합하여 하나 이상의 채색 단위 영역을 생성하되 각각의 채색 단위 영역에는 그에 상응하는 클래스를 매핑시킬 수 있다. 제어부(30)는 채색 단위 영역 각각에 매핑된 클래스에 대응하는 색상으로 스케치 이미지를 채색할 수 있다. 제어부(30)는 사용자 피드백 정보를 근거로 해당 채색 단위 영역의 클래스를 조정할 수 있다.For example, the
즉, 제어부(30)는 서버(300)의 동작을 위한 일련의 연산들 또는 판단들을 수행할 수 있는 장치를 의미할 수 있다. 예를 들어, 제어부(30)는 CPU(central processing unit), MCU(micro controller unit), GPU(graphical processing unit), ASIC(application specific integrated circuit), 또는 FPGA(field programmable gate array)일 수 있으나, 이에 한정되는 것은 아니다.That is, the
도 3은 도 2에 도시된 제어부(30)의 내부 구성도이고, 도 4는 도 3에 도시된 이미지 획득부(31)의 설명에 채용되는 도면이고, 도 5는 도 3에 도시된 제 1 영역 분할부(32)의 설명에 채용되는 도면이고, 도 6은 도 3에 도시된 제 2 영역 분할부(33)의 설명에 채용되는 도면이고, 도 7은 도 3에 도시된 제 2 영역 분할부(33)의 내부 구성도이고, 도 8은 본 발명의 실시예에 채용되는 클래스 계층도의 일 예이고, 도 9 내지 도 11은 도 3에 도시된 제 2 영역 분할부(33)의 설명에 채용되는 도면이고, 도 12 내지 도 14는 도 3에 도시된 채색부(36)의 설명에 채용되는 도면이다.3 is an internal configuration diagram of the
제어부(30)는 이미지 획득부(31), 제 1 영역 분할부(32), 제 2 영역 분할부(33), 병합부(34), 피드백 반영부(35), 및 채색부(36)를 포함할 수 있다. The
제어부(30)의 각 구성들(31, 32, 33, 34, 35, 36)은 물리적으로 구별된 하드웨어일 수 있다. 이 때, 각 구성들(31, 32, 33, 34, 35, 36) 중 적어도 두 개 이상의 구성들은 일체로 구현될 수도 있다. 또한, 각 구성들(31, 32, 33, 34, 35, 36)은 기능적으로 구별된 모듈일 수도 있다. 즉, 각 구성들(31, 32, 33, 34, 35, 36)은 제어부(30)의 각 기능을 수행하는 기능 블록을 의미할 수 있는데, 이때 각 구성들(31, 32, 33, 34, 35, 36)은 하나의 하드웨어(예컨대, 프로세서)로 구현될 수 있다.Each of the
이미지 획득부(31)는 통신부(10)를 통해 사용자 단말(100)로부터의 채색 대상인 스케치 이미지(예컨대, 도 4 참조)를 수신할 수 있다.The
제 1 영역 분할부(32)는 제 1 영역 분할 기법으로 스케치 이미지에 대한 영역 분할을 행할 수 있다. 여기서, 제 1 영역 분할 기법으로 분할된 영역들은 제 1 단위 영역들이라고 할 수 있다.The first
예를 들어, 제 1 영역 분할 기법은 에지 기반의 이미지 영역 분할 알고리즘일 수 있다. 그에 따라, 제 1 영역 분할부(32)는 스케치 이미지내의 하나 이상의 객체(예컨대, 등장 캐릭터, 주변 물체 등)의 영역을 분할해 낼 수 있고, 각각의 객체를 에지를 기반으로 하여 하나 이상의 제 1 단위 영역으로 분할할 수 있다.For example, the first region segmentation technique may be an edge-based image region segmentation algorithm. Accordingly, the first
제 1 영역 분할부(32)는 예를 들어 도 5와 같이 스케치 이미지가 에지 기반으로 다수의 제 1 단위 영역으로 분할된 영상을 출력할 수 있다. 도 5에서는 이해를 돕기 위해 제 1 영역 분할 기법에 의해 분할된 각각의 제 1 단위 영역을 컬러로 표시한 것일 뿐이다. 예를 들어, 도 4의 스케치 이미지를 제 1 영역 분할 기법으로 분할하게 되면 도 5에서와 같이 크게 5가지의 영역(배경, 몸통, 얼굴, 머리카락, 눈썹)으로 분할될 수 있음을 보여준다. 실제로는 소정의 컬러가 제 1 단위 영역별로 표시되지는 않을 것이다.The first
제 1 영역 분할부(32)는 분할된 각각의 제 1 단위 영역별로 태그를 할당할 수 있다. 예를 들어, 제 1 영역 분할부(32)는 각각의 제 1 단위 영역별로 소정의 번호를 부여할 수 있다.The first
제 2 영역 분할부(33)는 제 2 영역 분할 기법으로 스케치 이미지에 대한 영역 분할을 행할 수 있다. 여기서, 제 2 영역 분할 기법으로 분할된 영역들은 제 2 단위 영역들이라고 할 수 있다.The second
예를 들어, 제 2 영역 분할 기법은 의미론적 이미지 영역 분할 알고리즘일 수 있다. 의미론적 이미지 영역 분할 알고리즘은 스케치 이미지의 각 픽셀을 특정 객체로 분류하며 레이블(label)을 지정하는 작업을 수행하는 것으로서, 스케치 이미지를 픽셀 단위로 분할하여 클래스를 나누는 기술이라고 할 수 있다. 의미론적 이미지 영역 분할을 위해 CNN(Convolutional Neural Network), RNN(Recurrent Neural Network), FCN(Fully Convolutional Networks) 등을 활용한 학습 네트워크를 설계해 학습하는 방법을 사용할 수도 있다. For example, the second region segmentation technique may be a semantic image region segmentation algorithm. The semantic image region segmentation algorithm classifies each pixel of a sketch image into a specific object and assigns a label. For semantic image region segmentation, it is also possible to design and learn a learning network using CNN (Convolutional Neural Network), RNN (Recurrent Neural Network), and FCN (Fully Convolutional Networks).
제 2 영역 분할부(33)는 채색 대상인 스케치 이미지를 인가받아 학습된 방식에 따라 인코딩 및 디코딩하여 스케치 이미지의 각 픽셀에 대하여 기지정된 다수의 클래스에 대응하는 확률을 나타내는 클래스 확률맵을 획득할 수 있다. 예를 들어, 각각의 픽셀은 클래스 a일 확률, 클래스 b일 확률, 클래스 c일 확률 등과 같이 하나 이상의 클래스 확률을 가질 수 있다. 이와 같이 각 픽셀별 하나 이상의 클래스 확률의 집합을 클래스 확률맵이라고 할 수 있다. 또한, 제 2 영역 분할부(33)는 각 픽셀에 대하여 가장 높은 확률을 갖는 클래스를 매핑(또는 "할당"이라고 할 수 있음)하고 픽셀별로 매핑된 클래스를 기준으로 스케치 이미지를 하나 이상의 제 2 단위 영역으로 분할할 수 있다.The second
이와 같이 하면, 제 2 영역 분할부(33)는 도 6에서와 같이 스케치 이미지가 의미론적으로 영역 분할된(클래스 매핑된) 의미론적 분할 영상을 출력할 수 있다. 도 6에서는 이해를 돕기 위해 제 2 영역 분할 기법에 의해 분할된 각각의 제 2 단위 영역을 컬러로 표시한 것일 뿐이다. 예를 들어, 도 4의 스케치 이미지를 제 2 영역 분할 기법으로 분할하게 되면 도 6에서와 같이 다수개의 영역(즉, 각기 다른 색이 칠해져 있는 영역)으로 분할될 수 있음을 보여준다. 실제로는 소정의 컬러가 제 2 단위 영역별로 표시되지 않을 것이다.In this way, the second
그리고, 제 2 영역 분할부(33)는 각 픽셀에 대하여 가장 높은 확률의 클래스를 할당하였다고 하더라도 할당된 클래스가 정상인지 비정상인지를 검증하여 비정상인 클래스를 바르게 조정할 수 있다.In addition, even if the class with the highest probability is assigned to each pixel, the
본 발명의 실시예에서, 의미론적 이미지 분할 알고리즘만을 사용한다면 에지 부분의 이미지 분할이 제대로 수행되지 않는 "세밀하지 못한 분할"문제가 있을 수 있다. 그래서, 본 발명의 실시예에서는 이러한 문제를 해결하기 위해 제 1 영역 분할부(32)를 함께 채용한 것이다. 즉, 에지 기반의 이미지 영역 분할 기법이 의미론적 이미지 분할 기법에 비해 스케치 이미지의 에지 주변을 보다 세밀하게(또는 정확하게) 분할할 수 있기 때문이다. In the embodiment of the present invention, if only the semantic image segmentation algorithm is used, there may be a "segmentation coarse" problem in which the image segmentation of the edge part is not performed properly. Therefore, in the embodiment of the present invention, the first
제 2 영역 분할부(33)는 도 7에서와 같이, 학습부(41), 및 분할부(42)를 포함할 수 있다.The second
학습부(41)는 학습을 위해 소정의 학습 데이터 세트를 사용할 수 있다. 여기서, 학습 데이터 세트는 여타의 웹툰에서 얻은 스케치 이미지 및 이전 화(에피소드)의 스케치 이미지의 모음일 수 있다. 학습 데이터 세트는 다양한 의미론적 클래스에 대해 픽셀 수준의 레이블을 제공할 수 있다.The
물론, 필요에 따라서는 채색된 이미지를 학습 데이터 세트에 포함시킬 수 있다. 즉, 학습 데이터 세트에 채색된 이미지를 포함시키고 태깅을 한 후에 학습을 시키게 되면, 각 픽셀이 어디(예컨대, 눈, 코, 입 등)에 포함되는 것인지를 알 수 있다.Of course, colored images can be included in the training data set if desired. That is, if a colored image is included in the training data set and the training is performed after tagging, it is possible to know where each pixel is included (eg, eyes, nose, mouth, etc.).
분할부(42)는 학습부(41)에서의 학습 결과에 따라 현재 입력받은 스케치 이미지에 대하여 의미론적 이미지 분할을 수행한다. The
예를 들어, 분할부(42)는 학습부(41)에서 미리 학습된 방식에 따라 입력 이미지를 인코딩하여 입력 특징맵(f)을 획득하고, 획득된 입력 특징맵(f)을 미리 학습된 방식에 따라 디코딩하여 입력 클래스 확률맵(P)을 획득한다. 여기서, 입력 이미지는 의미론적 영상 분할 대상 및 추후의 채색 대상이 되는 이미지로서, 이미지 획득부(31)에서 수신한 스케치 이미지가 될 수 있다. 그리고, 분할부(42)는 입력 클래스 확률맵(P)의 각 픽셀의 클래스별 확률값을 분석하여 예를 들어 최대값을 갖는 클래스를 해당 픽셀의 클래스로 매핑(또는 "할당"이라고 지칭할 수 있음)한다. 그에 따라, 분할부(42)는 입력 이미지에 대한 의미론적 분할 영상(즉, 각각의 제 2 단위 영역별로 클래스가 매핑된 영상)을 출력할 수 있다.For example, the
특히, 분할부(42)는 의미론적 이미지 분할만을 하는 것이 아니라 의미론적으로 분할된 각각의 제 2 단위 영역내 픽셀에 매핑된 클래스의 검증 및 자동 조정도 함께 할 수 있다. 이를 위해, 분할부(42)는 조정부(42a)를 포함할 수 있다.In particular, the
조정부(42a)는 각각의 제 2 단위 영역의 픽셀별로 매핑된 클래스를 검증하여 오류가 있는 클래스를 바르게 조정할 수 있다.The
예를 들어, 조정부(42a)는 도 8에서와 같은 클래스 계층도에 따라 클래스 검증 및 자동 조정을 행할 수 있다. 클래스 계층도는 클래스간의 포함관계를 나타낸다고 볼 수 있다. 클래스 계층도의 계층별 클래스는 미리 결정되어 있을 수 있다.For example, the
도 8의 경우, 이미지에는 인물 및 배경이 속하고, 인물에는 머리 및 몸통이 속하고, 머리에는 얼굴 및 머리카락이 속하고, 몸통에는 상체 및 하체가 속하고, 얼굴에는 눈과 코 등이 속하고, 상체에는 오른쪽 팔 및 왼쪽 팔이 속하고, 하체에는 오른쪽 다리 및 왼쪽 다리가 속한다는 것을 의미할 수 있다. 조정부(42a)는 이와 같은 포함관계를 기반으로 각 픽셀별로 매핑된 클래스의 검증 및 자동 조정을 행할 수 있다.In the case of FIG. 8, the image includes a person and a background, a person includes a head and a torso, a head includes a face and hair, a torso includes an upper body and a lower body, and the face includes eyes and nose , may mean that the right arm and the left arm belong to the upper body, and the right leg and the left leg belong to the lower body. The
도 8에서, 인물 및 배경은 제 1 클래스 계층이 될 수 있고, 머리 및 몸통은 제 2 클래스 계층이 될 수 있고, 얼굴과 머리카락과 상체 및 하체는 제 3 클래스 계층이 될 수 있고, 눈과 코와 오른쪽 팔과 왼쪽 팔과 오른쪽 다리 및 왼쪽 다리는 제 4 클래스 계층이 될 수 있다.In FIG. 8 , the person and the background may be a first class hierarchy, the head and torso may be a second class hierarchy, the face and hair, upper and lower body may be a third class hierarchy, and eyes and nose With the right arm and the left arm and the right leg and the left leg can be the 4th class tier.
여기서, 제 1 클래스 계층은 최상위 계층이 될 수 있고, 제 4 클래스 계층은 최하위 계층이 될 수 있다. 제 2 클래스 계층은 제 3 클래스 계층보다는 상위 계층이지만 제 1 클래스 계층보다는 하위 계층이 될 수 있다. Here, the first class layer may be the highest layer, and the fourth class layer may be the lowest layer. The second class hierarchy is higher than the third class hierarchy, but may be lower than the first class hierarchy.
또한, 동일 계층의 클래스는 서로 배타적이다. 배타적이라 함은 예를 들어 클래스 계층에 2개의 클래스(A, B)가 속해 있다고 가정하였을 경우, 영역내의 픽셀은 클래스 A에 속하지 않으면 클래스 B에 속한다는 의미이다. 다시 말해서, 배타적이라 함은 동일 계층의 클래스들 중 어느 하나의 클래스에 속하면 나머지 클래스에는 속하지 않는다는 것을 의미한다.Also, classes in the same hierarchy are mutually exclusive. Exclusive means that, for example, if it is assumed that two classes (A, B) belong to the class hierarchy, pixels in the area belong to class B if they do not belong to class A. In other words, exclusive means that if it belongs to one of the classes of the same hierarchy, it does not belong to the other class.
조정부(42a)는 상위 클래스 계층에서부터 점차 하위 클래스 계층으로 이동하는 방식으로 클래스 매핑의 옳고 그름을 검증할 수 있다. 각 클래스 계층에 대한 클래스 매핑 과정은 서로 독립적이므로, 각 클래스 계층에서의 클래스 매핑 확률의 계산은 각 클래스 계층에 속한 클래스 전체에 대해서 이루어져야 한다. 즉, 본 발명의 실시예에서는 예를 들어 머리/몸통에 대해서 클래스 매핑 결과 머리에 속한다고 하더라도, 하위 클래스 매핑에서는 얼굴, 머리카락(이하, 머리 클래스에 속함), 상체, 하체(이하, 몸통 클래스에 속함) 모두에 대한 클래스 매핑을 수행해야 한다. 이는 과검출 및 오검출을 방지하기 위함이다.The
이후, 조정부(42a)는 하위 클래스 계층에서의 클래스 매핑시, 하위 클래스 후보중에서 이전에 결정된 상위 클래스 계층의 클래스에 속하지 않은 후보는 클래스 매핑에서 제외시킨다. 다시 말해서, 조정부(42a)는 각 픽셀마다, 현재의 클래스 계층내의 클래스들 각각이 매핑될 확률을 구하되, 상위 클래스 계층에서 가장 높은 확률을 갖는 클래스에 포함되는 클래스들 중에서 가장 높은 확률을 갖는 클래스를 현재 클래스 계층의 클래스로 결정한다. 다시 말하면, 현재의 클래스 계층 내의 클래스들 중에서 가장 높은 확률을 갖는 클래스가 이전에 판단된 상위 클래스 계층에서 가장 높은 확률을 갖는 클래스에 포함되지 않을 수 있다. 그렇다면, 상기 가장 높은 확률을 갖는 클래스를 현재 클래스 계층의 클래스로 결정하지 않고, 상기 가장 높은 확률을 갖는 클래스를 제외한 나머지 클래스들 중에서 가장 높은 확률을 갖는 클래스를 현재 클래스 계층의 클래스로 결정한다. 이와 같이 하면 제 2 단위 영역의 픽셀별로 매핑된 클래스(즉, 의미)의 조정이 보다 정확하게 이루어질 수 있다.Thereafter, during class mapping in the lower class hierarchy, the
예를 들어, 어느 한 제 2 단위 영역의 픽셀에 대하여 "머리"라는 클래스가 매핑되었다면 하위 클래스 계층으로의 클래스 매핑을 실시한다. 즉, "머리"라는 클래스가 속한 계층(즉, 제 2 클래스 계층)보다 하위 계층인 제 3 클래스 계층의 얼굴, 머리카락, 상체, 및 하체의 클래스 확률값을 계산한다. 여기서, 얼굴의 클래스 확률값은 0.2라고 가정하고, 머리카락의 클래스 확률값은 0.1이라고 가정하고, 상체의 클래스 확률값은 0.4라고 가정하고, 하체의 클래스 확률값은 0.3이라고 가정한다. 이와 같은 클래스 확률값들이 계산된 상태에서 만약 조정부(42a)가 없다면 해당 제 2 단위 영역의 픽셀의 클래스는 상체인 것으로 잘못 매핑될 것이다. For example, if a class called "head" is mapped with respect to a pixel of one second unit area, class mapping to a lower class hierarchy is performed. That is, the class probability values of the face, hair, upper body, and lower body of the third class hierarchy that are lower than the hierarchy to which the class "head" belongs (that is, the second class hierarchy) are calculated. Here, it is assumed that the class probability value of the face is 0.2, the class probability value of the hair is assumed to be 0.1, the class probability value of the upper body is assumed to be 0.4, and the class probability value of the lower body is assumed to be 0.3. In a state in which such class probability values are calculated, if the
그러나, 본 발명의 실시예에서는 조정부(42a)를 채용하였으므로, 상기의 예의 경우 조정부(42a)는 해당 제 2 단위 영역의 픽셀의 클래스를 얼굴의 클래스로 바르게 조정할 수 있다. 즉, 상기와 같은 클래스 확률값들이 계산되었다고 하더라도, 조정부(42a)는 해당 제 2 단위 영역내 픽셀에 대한 클래스를 머리에 속하는 얼굴 및 머리카락 중에서 클래스 확률값이 보다 높은 얼굴로 조정할 수 있다. 따라서, 조정부(42a)는 상기의 예와 같은 경우에 상체의 클래스로 잘못 매핑되어 있는 것을 얼굴의 클래스로 바르게 조정할 수 있다. However, since the adjusting
상기에서는 제 2 영역 분할 기법에 의한 제 2 단위 영역의 픽셀별 클래스를 검증 및 자동 조정하는 것으로 설명하였으나, 필요에 따라서는 제2 단위 영역별 클래스를 검증 및 자동 조정하는 것으로 할 수도 있다.In the above description, it has been described that the class for each pixel of the second unit region is verified and automatically adjusted by the second region division technique. However, if necessary, the class for each second unit region may be verified and automatically adjusted.
이러한 조정부(42a)의 기능의 부가로 인해, 채색을 위해 예측되어 생성되는 모델의 정확도가 보다 높아지게 된다.Due to the addition of the function of the
조정부(42a)의 쓰임새에 대해 다시 한번 설명하면 아래와 같다. The use of the
제 2 영역 분할부(33)는 도 9의 스케치 이미지(50)와 같은 이미지를 입력받았다면 모델 예측의 결과로서 하부의 이미지(52)와 같은 의미론적 분할 영상을 출력할 수 있다. If an image such as the
그런데, 조정부(42a)에 의해 클래스 검증 및 자동 조정이 이루어지므로 제 2 영역 분할부(33)는 최종적으로 도 10에서와 같이 픽셀별 클래스 조정이 이루어진 의미론적 분할 영상(56)을 출력할 수 있다. 즉, 도 9에서, 제 2 단위 영역(54)의 픽셀들은 몸통에 속해 있으면서 얼굴로 잘못 클래스 매핑되어 있으므로, 해당 제 2 단위 영역(54)의 픽셀들은 조정부(42a)에서의 클래스 검증에 의해 도 10에서와 같이 몸통이라는 클래스로 조정된다. 다시 말해서, 몸통에는 상체 및 하체만이 속할 수 있으므로, 해당 제 2 단위 영역(54)의 픽셀들은 몸통의 클래스로 조정되는 것이다. 도 9 및 도 10에서는 이해를 돕기 위해 제 2 영역 분할 기법에 의해 분할된 각각의 제 2 단위 영역을 컬러로 표시한 것일 뿐이다. 예를 들어, 도 9의 스케치 이미지(50)를 제 2 영역 분할 기법으로 영역 분할하게 되면 도 10에서와 같이 다수개의 제 2 단위 영역(즉, 각기 다른 색이 칠해져 있는 영역)으로 분할될 수 있음을 보여준다. 실제로는 소정의 컬러가 제 2 단위 영역별로 표시되지 않을 것이다. However, since class verification and automatic adjustment are performed by the
물론, 상술한 바와 같은 클래스 검증 및 자동 조정은 추후에 사용자가 직접 육안으로 확인하면서 행할 수도 있다. 그러나, 본 발명의 실시예에서는 상술한 바와 같은 조정부(42a)가 추가되어 제기능을 수행함으로써 사용자가 일일이 육안으로 클래스를 검증한 후에 조정해야 되는 수고로움을 해소시켜 줄 수 있다. 이로 인해, 사용상의 편리함을 제공하는 효과가 있다.Of course, the class verification and automatic adjustment as described above may be performed while the user directly visually confirms the adjustment. However, in the embodiment of the present invention, the
그리고, 제 2 영역 분할부(33)의 학습부(41)는 이전 화의 스케치 이미지의 정보를 학습 데이터 세트에 포함시켜 학습하므로, 제 2 영역 분할부(33)는 예를 들어 2화의 경우에는 1화에 비해 도 11에서와 같이 스케치 이미지(60)에 대해 오류가 없는 보다 개선된 의미론적 분할 영상(62)을 출력할 수 있다. 도 11에서는 이해를 돕기 위해 제 2 영역 분할 기법에 의해 분할된 각각의 제 2 단위 영역을 컬러로 표시한 것일 뿐이다. 예를 들어, 도 11의 상부의 스케치 이미지(60)를 제 2 영역 분할 기법으로 분할하게 되면 도 11의 의미론적 분할 영상(62)에서와 같이 다수개의 영역(즉, 각기 다른 색이 칠해져 있는 영역)으로 분할될 수 있음을 보여준다. 실제로는 소정의 컬러가 제 2 단위 영역별로 표시되지 않을 것이다.And, since the
도 3에서, 병합부(34)는 제 1 영역 분할부(32)에 의한 제 1 단위 영역들과 제 2 영역 분할부(33)에 대한 제 2 단위 영역들을 병합(merge)하여 하나 이상의 채색 단위 영역을 생성하되, 각각의 채색 단위 영역에는 그에 상응하는 클래스를 매핑(결정)시킬 수 있다. In FIG. 3 , the merging
병합부(34)는 제 1 영역 분할부(32)에 의한 제 1 단위 영역을 기본으로 한다. 이는 제 1 영역 분할부(32)가 제 2 영역 분할부(33)에 비해 에지 부분의 이미지 분할을 보다 정확하게 하기 때문이다.The merging
제 1 영역 분할부(32)에 의한 제 1 단위 영역들과 제 2 영역 분할부(33)에 대한 제 2 단위 영역들을 병합(merge)하게 되면 제 1 영역 분할 기법에 의한 각각의 제 1 단위 영역내에는 하나 이상의 픽셀이 포함될 것이다. 이때, 각각의 픽셀은 저마다의 클래스(조정부(42a)에 의해 미리 조정되었을 수도 있음)가 매핑되어 있다. When the first unit regions by the first
그에 따라, 병합부(34)는 제 1 영역 분할 기법에 의한 각각의 제 1 단위 영역별로 해당 영역내의 모든 픽셀의 클래스를 확인하여 대표적인 클래스를 해당 제 1 단위 영역의 클래스로 결정할 수 있다. 예를 들어, 특정 제 1 단위 영역내의 각 픽셀들이 갖는 클래스(즉, 의미)가 "눈"이 대부분이라면 특정 제 1 단위 영역은 "눈"으로 결정될 수 있다.Accordingly, the merging
다시 말해서, 하나의 스케치 이미지에 대하여 제 1 영역 분할 기법 및 제 2 영역 기법으로 각각 영역 분할하게 되면 서로간에 약간의 차이가 있다. 그에 따라, 본 발명의 실시예에서는 제 1 단위 영역이 제 2 단위 영역에 비해 에지를 따라 보다 정확하게 분할된 것이므로 제 1 단위 영역들을 채색 단위 영역들로 결정한다고 볼 수 있다. 그리고, 제 2 영역 분할 기법에 의한 각 픽셀별 클래스를 근거로 채색 단위 영역별로 그에 상응하는 클래스를 매핑시킨다고 볼 수 있다.In other words, when regions of one sketch image are divided using the first region division technique and the second region technique, there is a slight difference between them. Accordingly, in the embodiment of the present invention, since the first unit area is more accurately divided along the edge than the second unit area, it can be seen that the first unit areas are determined as the colored unit areas. In addition, it can be seen that a class corresponding to each color unit region is mapped based on the class for each pixel by the second region division technique.
이에 의해, 병합부(34)는 하나 이상의 채색 단위 영역을 생성하되, 채색 단위 영역별로는 태그가 부여되어 있으면서 채색 단위 영역별로 어떠한 영역인지에 대한 정보를 갖는 이미지를 출력한다고 볼 수 있다. 여기서, 어떠한 영역인지에 대한 정보는 채색 단위 영역별로 어떠한 의미(즉, 클래스)를 갖는지를 나타내는 정보라고 할 수 있다.Accordingly, it can be seen that the merging
한편, 병합부(34)는 채색 단위 영역별로 클래스가 매핑된 결과를 통신부(10) 및 네트워크(200)를 통해 사용자 단말(100)에게로 전송할 수 있다. 이는 사용자측으로부터의 피드백 정보(예컨대, 클래스 조정 정보)를 얻기 위함이다. 물론, 앞서의 조정부(42a)에서의 클래스 검증 및 자동 조정으로 인해 채색 단위 영역별 클래스 매핑이 정상적으로 행해졌을 것이지만, 혹시나 모를 오류를 정정하기 위해 필요한 동작이라고 볼 수 있다.Meanwhile, the merging
사용자는 자신의 단말(100)에 디스플레이되는 채색 단위 영역별로 클래스가 매핑된 결과를 육안으로 확인하여 오류가 없으면 피드백 정보를 전송하지 않을 것이다. The user will not transmit feedback information if there is no error by visually checking the result of class mapping for each colored unit area displayed on his/her
만약, 하나 이상의 채색 단위 영역에 대한 클래스가 잘못 매핑되어 있다면 사용자는 자신의 단말(100)을 조작하여 해당 채색 단위 영역에 대해 수정될 클래스를 포함하는 피드백 정보(예컨대, 클래스 조정 정보)를 네트워크(200)를 통해 서버(300)에게로 전송한다.If a class for one or more coloring unit areas is incorrectly mapped, the user manipulates his/her
상술한 본 발명의 실시예에서는 제 1 영역 분할부(32) 및 제 2 영역 분할부(33)에서의 분할 결과를 병합(중첩)하기 전에 제 2 영역 분할 기법에 의한 분할 영역(즉, 제 2 단위 영역)내 픽셀의 클래스 조정이 이루어진 후에 병합이 이루어지는 것으로 설명하였다. 그런데, 이와 다르게, 제 1 영역 분할부(32) 및 제 2 영역 분할부(33)에서의 분할 결과를 병합(중첩)한 다음에, 클래스 계층도에 근거한 분할 영역별 클래스 조정이 이루어지는 것을 고려해 볼 수도 있다. 그러나, 병합하기 전에 제 2 영역 분할부(33)에서의 잘못된 결과를 미리 조정한 후에 병합하는 것이 병합부(34)의 입장에서는 보다 정확한 결과물을 출력할 수 있을 것이다.In the above-described embodiment of the present invention, before merging (overlapping) the division results in the first
피드백 반영부(35)는 통신부(10)를 통해 사용자 단말(100)로부터의 사용자 피드백 정보(예컨대, 하나 이상의 채색 단위 영역에 매핑된 클래스를 조정하도록 하는 클래스 조정 정보)를 수신할 수 있다. The
이 경우, 해당 채색 단위 영역에 대한 클래스 조정은 피드백 반영부(35)가 직접 하거나 병합부(34)에서 클래스 조정을 하도록 할 수도 있다.In this case, the class adjustment for the color unit region may be directly performed by the
일 예로, 피드백 반영부(35)는 병합부(34)로부터 채색 단위 영역별로 클래스가 매핑된 결과를 수신하고, 사용자 단말(100)로부터의 사용자 피드백 정보를 수신하게 되면 조정 대상인 채색 단위 영역에 대한 클래스를 직접 조정할 수 있다. For example, the
다른 예로, 피드백 반영부(35)는 사용자 단말(100)로부터의 사용자 피드백 정보(예컨대, 하나 이상의 채색 단위 영역에 매핑된 클래스를 조정하도록 하는 클래스 조정 정보)를 병합부(34)에 제공함으로써, 병합부(34)에서 조정 대상인 채색 단위 영역에 대한 클래스를 조정하도록 하게 할 수도 있다.As another example, the
채색부(36)는 병합부(34) 또는 피드백 반영부(35)로부터의 결과물(즉, 채색 단위 영역별로 클래스 매핑 및 조정이 완료된 스케치 이미지)을 수신하고, 채색 단위 영역별로 매핑된 클래스에 대응하는 색상을 이용하여 스케치 이미지를 채색할 수 있다.The
채색부(36)에서의 채색 방식은 크게 두 가지가 있을 수 있다.There may be two types of coloring methods in the
첫번째 방식은 클래스별로 미리 할당된 색상 정보를 이용하는 방식이다. 이 방식의 경우, 클래스별 색상 정보는 저장부(20) 또는 채색부(36)에 미리 저장되어 있어야 한다. 예를 들어, 클래스 1은 살색, 클래스 2는 적색, 클래스 3은 검은색 등과 같이 클래스별 색상 정보가 미리 결정되어 있는 클래스 팔레트를 미리 저장하고 있어야 한다. 그리고, 클래스별 색상 정보는 이전 화에서의 클래스별 색상 정보에 기인하여 결정될 수 있다.The first method uses color information pre-allocated for each class. In this method, color information for each class should be stored in advance in the
이와 같이 첫번째 방식을 채용한 경우, 채색부(36)는 클래스별로 미리 할당된 색상 정보를 근거로 스케치 이미지를 채색할 수 있다.When the first method is adopted as described above, the
두번째 방식은 참조 채색 이미지를 이용하는 방식이다. 이 방식의 경우, 다수의 참조 채색 이미지(또는 "샘플 채색 이미지"라고도 할 수 있음)는 저장부(20) 또는 채색부(36)에 미리 저장되어 있어야 한다. 여기서, 참조 채색 이미지는 웹툰 내의 객체(예컨대, 등장 캐릭터, 주변 물체 등)를 나타내는 외곽선과 색채를 포함할 수 있다. 예를 들어, 참조 채색 이미지는 복수의 분할 영역들로 구분될 수 있고, 각 분할 영역의 색정보를 포함할 수 있다. The second method is to use a reference colored image. In this method, a plurality of reference colored images (or may also be referred to as “sample colored images”) should be previously stored in the
이때, 참조 채색 이미지의 분할 영역은 제 1 영역 분할 기법으로 영역 분할되거나, 또는 제 2 영역 분할 기법으로 영역 분할되거나, 또는 제 1 영역 분할 기법 및 제 2 영역 분할 기법의 조합으로 영역 분할된 것일 수 있다.In this case, the divided region of the reference colored image may be region-divided by the first region-divisioning technique, by the second region-segmentation technique, or by a combination of the first region dividing technique and the second region dividing technique. have.
이와 같은 두번째 방식을 채용한 경우, 채색부(36)는 스케치 이미지(즉, 채색되지 않은 이미지)와 참조 채색 이미지를 비교하여 스케치 이미지의 각 채색 단위 영역에 대응하는 색상 정보를 추출할 수 있다. 그리고 나서, 채색부(36)는 추출한 색상 정보를 근거로 스케치 이미지내의 채색 단위 영역을 채색할 수 있다.In the case of adopting the second method, the
여기서, 상술한 비교를 보다 구체적으로 설명하면 다음과 같다. Here, the above-described comparison will be described in more detail as follows.
먼저, 딥러닝 알고리즘에 기초하여 스케치 이미지의 분할 영역(예를 들어, 채색 단위 영역)내의 픽셀과 참조 채색 이미지의 분할 영역내의 픽셀을 각각 벡터로 변환한다. 변환된 벡터는 해당 픽셀의 위치, 주변 픽셀 정보 등을 가질 수 있다. 또한, 변환된 벡터는 해당하는 분할 영역이 가지는 모양, 형상, 외형 등을 나타내는 값을 가질 수 있다. 예를 들어, 딥러닝 알고리즘은 미리 준비된 학습용 이미지들을 학습 데이터 세트로 하여, 서로 유사한 특성(모양, 형상, 외형 등)을 갖는 벡터들은 서로 유사한 방향을 갖도록 하는 학습을 통해 생성된 알고리즘일 수 있다.First, based on a deep learning algorithm, a pixel in a divided region (eg, a colored unit region) of a sketch image and a pixel in a divided region of a reference colored image are converted into vectors, respectively. The transformed vector may have a position of a corresponding pixel, information about neighboring pixels, and the like. In addition, the transformed vector may have a value indicating the shape, shape, outline, etc. of the corresponding divided region. For example, the deep learning algorithm may be an algorithm generated through learning using pre-prepared learning images as a training data set, so that vectors having similar characteristics (shape, shape, appearance, etc.) have similar directions to each other.
이와 같이 생성된 벡터들을 이용하여, 스케치 이미지의 분할 영역의 픽셀들 각각과 연관된 벡터와 참조 채색 이미지의 분할 영역의 픽셀들 각각과 연관된 벡터 사이의 유사도를 결정한다. 즉, 스케치 이미지의 분할 영역의 픽셀과 참조 채색 이미지의 분할 영역의 픽셀 간의 유사도를 결정한다. 예를 들어, 서로 비교되는 두 벡터의 방향이 유사할수록, 그에 상응하는 두 픽셀 사이의 유사도를 높은 값으로서 계산할 수 있다. Using the vectors generated as described above, a degree of similarity between a vector associated with each pixel of the divided region of the sketch image and a vector associated with each pixel of the divided region of the reference colored image is determined. That is, the degree of similarity between the pixels of the divided region of the sketch image and the pixels of the divided region of the reference colored image is determined. For example, as the directions of two vectors compared to each other are similar, the degree of similarity between two pixels corresponding thereto may be calculated as a high value.
채색부(36)는 스케치 이미지의 분할 영역의 픽셀과 참조 채색 이미지의 분할 영역의 픽셀 간의 유사도를 결정(계산)하고, 스케치 이미지의 분할 영역의 픽셀의 색을, 참조 채색 이미지의 픽셀 중 유사한 픽셀의 색상으로 채색할 수 있다. 예를 들어, 채색부(36)는 스케치 이미지의 분할 영역 각각을, 스케치 이미지의 분할 영역 각각과 유사한(즉, 가장 유사한) 참조 채색 이미지의 해당 분할 영역의 색상으로 채색할 수 있다. 이때, 예를 들어, 채색부(36)는 스케치 이미지의 분할 영역 각각의 픽셀들의 색상을, 상기 픽셀들과 대응하는 참조 채색 이미지의 분할 영역의 픽셀들의 색상을 대표하는 하나의 색상으로 채색할 수도 있다. 예를 들어, 상기의 대표하는 하나의 색상은 픽셀들과 대응하는 참조 채색 이미지의 분할 영역의 픽셀들의 색상들의 가중 합을 통해 생성된 색상일 수 있다. 이 때, 가중 합에 사용되는 픽셀들 각각에 대한 가중치는 상술한 유사도에 기초하여 결정될 수 있다. 이와 같이 채색 대상인 스케치 이미지의 각각의 채색 단위 영역은 채색 단위 영역별로 가장 적합하다고 판단(결정)된 색상(예를 들어, 가중 합된 색상)으로 일괄 채색될 수 있다.The
한편, 채색부(36)는 채색시 색 보정 작업을 할 수 있다. Meanwhile, the
즉, 채색부(36)는 채색 모델의 아웃풋인 채색 결과물(즉, 색 보정되기 이전의 채색 결과물)과 정답 이미지 간의 차이를 학습하여 스케치 이미지의 채색 단위 영역별(또는 픽셀별) 신뢰도 값을 계산할 수 있다. 스케치 이미지의 영역별 신뢰도 값 계산을 위해, 채색부(36)는 소정의 신뢰도 계산 딥러닝 모델을 이용할 수 있다. 여기서, 신뢰도 계산 딥러닝 모델은 스케치 이미지와 참조 채색 이미지를 입력으로 받고, 스케치 이미지의 채색 단위 영역별 신뢰도 값을 출력할 수 있다.That is, the
다시 말해서, 색 보정되기 전까지는, 채색부(36)는 채색 딥러닝 모델을 이용하여 참조 채색 이미지와 스케치 이미지의 영역별 유사도를 계산하여 스케치 이미지에 영역별 채색을 할 수 있다. 이 경우, 채색 딥러닝 모델은 자신이 계산한 영역별 유사도와 채색에 대해서 계산 결과만 알려줄 뿐, 그 결과물이 얼마나 정확하게 신뢰할 수 있는지를 알려주지는 않는다. 따라서, 채색부(36)는 채색 딥러닝 모델이 계산한 것들의 신뢰도를 계산할 수 있는 딥러닝 모델(즉, 신뢰도 계산 딥러닝 모델)을 별도로 만들어 학습한다고 볼 수 있다. In other words, until color correction is performed, the
결국, 채색부(36)는 스케치 이미지의 각각의 채색 단위 영역들 각각의 영역 신뢰도를 결정(계산)하고, 결정된 영역 신뢰도가 소정의 기준 값보다 낮은 채색 단위 영역의 색상은 다른 채색 단위 영역들에 대응하는 색으로 채색(즉, 색 보정)할 수 있다. 실시 예들에 따라, 채색부(36)는 영역 신뢰도가 소정의 기준 값보다 낮은 채색 단위 영역(이하, 보정 대상 영역)에 대해서, 스케치 이미지의 채색 단위 영역들 중에서 상기 보정 대상 영역과 형상이 동일 또는 유사한 채색 단위 영역에 대응하는 색으로 채색(즉, 색 보정)을 수행할 수 있다.As a result, the
예를 들어, 도 13에서 제 1 눈 영역(70)은 기준값(예컨대, 55% 정도)보다 낮은 영역 신뢰도를 갖는 영역이고, 제 2 눈 영역(72)은 기준값 보다 높은 영역 신뢰도를 갖는 영역이라고 가정한다. For example, in FIG. 13 , it is assumed that the
상기의 예의 경우, 제 2 눈 영역(72)에는 눈에 상응하는 색상이 올바르게 채색된다. 그러나, 제 1 눈 영역(70)은 실제로는 눈이지만 눈에 대응하지 않는 색상으로 잘못 채색될 수 있다.In the case of the above example, the color corresponding to the eye is correctly colored in the
이와 같이 잘못 채색되는 경우를 제거하기 위해, 채색부(36)는 해당 영역(예컨대, 70)에 대응되는 다른 영역(예컨대, 72)의 색상을 기초로 해당 영역(예컨대, 70)의 색상을 보정한다. 여기서, 대응은 해당 영역과 형상이 동일 내지는 유사함을 의미할 수 있다. 한편으로, 대응은 해당 영역에 매핑된 클래스가 동일한 것을 의미할 수 있다. 이에 의해, 도 14에서와 같이 제 1 눈 영역(70)의 색상은 제 2 눈 영역(72)의 색상과 동일하게 보정될 수 있다.In order to remove such a case of erroneous coloring, the
필요에 따라서는, 상술한 스케치 이미지의 채색 단위 영역별 신뢰도를 계산할 때 신뢰도 계산 딥러닝 모델만을 사용하지 않을 수 있다. 예를 들어, 채색 딥러닝 모델의 학습된 파라미터에 임의의 노이즈 값을 더하거나 무작위성(Randomness)을 주어서(dropout 등을 이용) 얻은 여러 개의 결과물 값의 차이를 계산한다. 노이즈를 다양하게 주었음에도 결과물의 값의 차이가 작고 안정적이면(즉, 여러 결과값들의 표준편차가 작으면) 신뢰도가 높은 것으로 판단하고, 반대로 차이가 크고 불안정하면(즉, 여러 결과값들의 표준편차가 크면) 신뢰도가 낮은 것으로 판단한다. 이와 같은 판단 기준으로 계산하는 신뢰도 계산 결과와 상술한 신뢰도 계산 딥러닝 모델의 결과 값을 합산하여 신뢰도 값을 계산할 수 있다.If necessary, only the reliability calculation deep learning model may not be used when calculating the reliability for each colored unit area of the sketch image. For example, by adding a random noise value or giving randomness (using dropout, etc.) to the learned parameters of the colored deep learning model, the difference between several obtained values is calculated. If the difference in the values of the results is small and stable even with various noises (that is, if the standard deviation of several result values is small), the reliability is judged to be high. is large), the reliability is judged to be low. A reliability value can be calculated by adding the reliability calculation result calculated based on such a judgment criterion and the result value of the above-described reliability calculation deep learning model.
물론, 채색부(36)는 상술한 신뢰도에 입각한 자동적인 색 보정 이외로, 사용자 단말(100)로부터의 특정 채색 단위 영역에 대한 색 보정 명령(즉, 사용자 피드백 정보라고 할 수 있음)에 따라 해당 특정 채색 단위 영역에 대하여 색 보정을 실시할 수 있다.Of course, in addition to the automatic color correction based on the reliability described above, the
도 15는 본 발명의 실시예에 따른 스케치 이미지 자동 채색 방법을 설명하기 위한 플로우차트이다.15 is a flowchart illustrating a method for automatically coloring a sketch image according to an embodiment of the present invention.
일단, 서버(300)는 사용자 단말(100)로부터 채색 대상인 스케치 이미지(즉, 채색이 되지 않은 이미지)를 수신한다(S10).First, the
그에 따라, 서버(300)는 제 1 영역 분할 기법(예컨대, 에지 기반의 이미지 영역 분할 기법)으로 스케치 이미지에 대한 영역 분할을 행한다(S12). 제 1 영역 분할 기법에 의한 분할 영역들은 제 1 단위 영역들이라고 한다.Accordingly, the
이와 함께, 서버(300)는 제 2 영역 분할 기법(예컨대, 의미론적 이미지 영역 분할 기법)으로 스케치 이미지에 대한 의미론적 영역 분할을 행한다(S14). 제 2 영역 분할 기법에 의한 분할 영역들은 제 2 단위 영역들이라고 한다. 이와 함께, 서버(300)는 제 2 영역 분할 기법에 의한 각각의 분할 영역(즉, 제 2 단위 영역)내 픽셀별로 클래스를 매핑시킨다. 그리고, 서버(300)는 각각의 제 2 단위 영역의 픽셀별로 매핑된 클래스를 검증하여 오류가 있는 클래스를 바르게 조정한다.At the same time, the
그리고 나서, 서버(300)는 제 1 영역 분할 기법에 의한 분할 영역(즉, 제 1 단위 영역)들과 제 2 영역 분할 기법에 의한 분할 영역(즉, 제 2 단위 영역)들을 병합하여 하나 이상의 채색 단위 영역을 생성하되, 각각의 채색 단위 영역에는 그에 상응하는 클래스를 매핑시킨다(S16). 즉, 서버(300)는 제 1 영역 분할 기법에 의한 각각의 제 1 단위 영역을 채색 단위 영역으로 하되, 제 2 영역 분할 기법에 의한 각 픽셀별 클래스를 기준으로 채색 단위 영역별로 그에 상응하는 클래스를 매핑시킨다고 볼 수 있다. Then, the
이후, 서버(300)는 상기 단계 S16에서의 채색 단위 영역별로 클래스가 매핑된 결과를 사용자 단말(100)에게로 전송한다(S18). 이는 사용자측으로부터의 사용자 피드백 정보(예컨대, 클래스 조정 정보)를 얻기 위함이다.Thereafter, the
그런데, 채색 단위 영역별로 클래스가 매핑된 결과에 오류가 없으면 서버(300)는 사용자 피드백 정보(예컨대, 클래스 조정 정보)를 수신하지 않을 것이므로, 이 경우에는 바로 채색 단계(S20)로 이동한다.However, if there is no error in the result of class mapping for each color unit area, the
그러나, 하나 이상의 채색 단위 영역에 대한 클래스가 잘못 매핑되어 있다면 서버(300)는 사용자 단말(100)로부터의 사용자 피드백 정보(예컨대, 클래스 조정 정보)를 수신한다.However, if a class for one or more colored unit areas is incorrectly mapped, the
그에 따라, 서버(300)는 사용자 단말(100)로부터의 사용자 피드백 정보(예컨대, 클래스 조정 정보)를 근거로 해당 채색 단위 영역에 대한 클래스를 조정한다(S18).Accordingly, the
그리고 나서, 서버(300)는 채색 단위 영역별로 최종 결정된 클래스에 대응되는 색상을 기초로, 채색 대상인 스케치 이미지에 대하여 채색을 한다(S20). 물론, 서버(300)는 채색된 이후에 잘못 채색된 영역에 대한 색 보정을 할 수 있다. 이때, 색 보정은 신뢰도에 입각한 자동적인 색 보정 이외로, 사용자 단말(100)로부터의 특정 채색 단위 영역에 대한 색 보정 명령(즉, 사용자 피드백 정보라고 할 수 있음)에 따라 해당 특정 채색 단위 영역에 대하여 색 보정을 실시할 수 있다.Then, the
또한, 상술한 본 발명의 웹툰 자동 채색 방법은, 컴퓨터로 읽을 수 있는 기록매체에 컴퓨터가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 컴퓨터가 읽을 수 있는 기록매체는 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록 장치를 포함한다. 컴퓨터가 읽을 수 있는 기록매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 플로피디스크, 광데이터 저장장치 등이 있다. 또한, 컴퓨터가 읽을 수 있는 기록매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어, 분산방식으로 컴퓨터가 읽을 수 있는 코드가 저장되고 실행될 수 있다. 그리고, 상기 방법을 구현하기 위한 기능적인(function) 프로그램, 코드 및 코드 세그먼트들은 본 발명이 속하는 기술분야의 프로그래머들에 의해 용이하게 추론될 수 있다.In addition, the method for automatically coloring webtoons of the present invention described above can be implemented as computer-readable codes on a computer-readable recording medium. The computer-readable recording medium includes all types of recording devices in which data readable by a computer system is stored. Examples of computer-readable recording media include ROM, RAM, CD-ROM, magnetic tape, floppy disk, and optical data storage device. In addition, the computer-readable recording medium is distributed in a computer system connected through a network, so that the computer-readable code can be stored and executed in a distributed manner. In addition, functional programs, codes, and code segments for implementing the method can be easily inferred by programmers in the art to which the present invention pertains.
이상의 설명은 본 발명의 기술 사상을 예시적으로 설명한 것에 불과한 것으로서, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 다양한 수정 및 변형이 가능할 것이다. 따라서, 본 발명에 개시된 실시예들은 본 발명의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시예에 의하여 본 발명의 기술 사상의 범위가 한정되는 것은 아니다. 본 발명의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 발명의 권리범위에 포함되는 것으로 해석되어야 할 것이다.The above description is merely illustrative of the technical spirit of the present invention, and various modifications and variations will be possible without departing from the essential characteristics of the present invention by those skilled in the art to which the present invention pertains. Therefore, the embodiments disclosed in the present invention are not intended to limit the technical spirit of the present invention, but to explain, and the scope of the technical spirit of the present invention is not limited by these embodiments. The protection scope of the present invention should be construed by the following claims, and all technical ideas within the equivalent range should be construed as being included in the scope of the present invention.
10 : 통신부 20 : 저장부
30 : 제어부 31 : 이미지 획득부
32 : 제 1 영역 분할부 33 : 제 2 영역 분할부
34 : 병합부 35 : 피드백 반영부
36 : 채색부 41 : 학습부
42 : 분할부 42a : 조정부
100 : 사용자 단말 200 : 네트워크
300 : 서버10: communication unit 20: storage unit
30: control unit 31: image acquisition unit
32: first region dividing unit 33: second region dividing unit
34: merging unit 35: feedback reflecting unit
36: coloring part 41: learning part
42:
100: user terminal 200: network
300 : server
Claims (20)
제 2 영역 분할 기법을 이용하여 상기 스케치 이미지를 클래스가 매핑된 제 2 단위 영역들로 분할하되, 상기 스케치 이미지의 각 픽셀에 대하여 클래스를 매핑시키고 픽셀별로 매핑된 클래스를 근거로 상기 스케치 이미지를 제 2 단위 영역들로 분할하는 제 2 영역 분할부;
상기 제 1 단위 영역들과 상기 제 2 단위 영역들을 이용하여 각각이 클래스가 매핑된 하나 이상의 채색 단위 영역을 생성하는 병합부; 및
상기 채색 단위 영역 각각에 매핑된 클래스에 대응하는 색상을 이용하여 상기 스케치 이미지를 채색하는 채색부;를 포함하고,
상기 채색부는,
상기 스케치 이미지의 채색 후, 기생성된 채색 단위 영역들 각각에 대한 영역 신뢰도를 결정하고, 결정된 영역 신뢰도가 기준값보다 낮은 채색 단위 영역에 채색된 색상을 보정하되, 상기 스케치 이미지의 채색 단위 영역들 중에서 형상이 동일 또는 유사한 다른 채색 단위 영역에 채색된 색상으로 보정하는,
스케치 이미지 자동 채색 장치.a first region dividing unit that divides a sketch image to be colored into first unit regions by using a first region dividing technique;
The sketch image is divided into class-mapped second unit regions using a second region division technique, a class is mapped for each pixel of the sketch image, and the sketch image is generated based on the class mapped for each pixel. a second region dividing unit dividing into two unit regions;
a merging unit generating one or more color unit regions to which classes are mapped by using the first unit regions and the second unit regions; and
a coloring unit for coloring the sketch image using a color corresponding to a class mapped to each of the coloring unit areas;
The coloring part,
After coloring the sketch image, region reliability for each of the pre-generated coloring unit regions is determined, and a color colored in a coloring unit region having a determined region reliability lower than a reference value is corrected, from among the coloring unit regions of the sketch image. Correcting with a colored color in another colored unit area of the same or similar shape;
Sketch image automatic coloring device.
상기 제 2 영역 분할부는,
클래스간 포함관계를 근거로 상기 각 픽셀별로 매핑된 클래스의 검증 및 자동 조정을 실시하는,
스케치 이미지 자동 채색 장치.The method of claim 1,
The second region dividing unit,
Verification and automatic adjustment of the class mapped for each pixel based on the inclusion relationship between classes,
Sketch image automatic coloring device.
상기 병합부는,
상기 검증 및 자동 조정이 완료된 각 픽셀별 클래스를 상기 제 1 단위 영역들의 각 픽셀에 매핑시켜서 하나 이상의 채색 단위 영역을 생성하는,
스케치 이미지 자동 채색 장치.3. The method of claim 2,
The merging unit,
generating one or more colored unit areas by mapping each pixel class for which the verification and automatic adjustment has been completed to each pixel of the first unit areas;
Sketch image automatic coloring device.
상기 제 2 영역 분할부는,
상위 클래스 계층에서부터 점차 하위 클래스 계층으로 이동하는 방식으로 클래스 매핑의 옳고 그름을 검증하는,
스케치 이미지 자동 채색 장치.3. The method of claim 2,
The second region dividing unit,
Verifies the correctness of class mapping in a way that gradually moves from the upper class hierarchy to the lower class hierarchy,
Sketch image automatic coloring device.
상기 제 2 영역 분할부는,
각 픽셀마다, 현재의 클래스 계층내의 클래스들 각각이 매핑될 확률을 구하되, 상위 클래스 계층에서 가장 높은 확률을 갖는 클래스에 포함되는 클래스들 중에서 가장 높은 확률을 갖는 클래스를 현재 클래스 계층의 클래스로 결정하는,
스케치 이미지 자동 채색 장치.5. The method of claim 4,
The second region dividing unit,
For each pixel, the probability of mapping each of the classes in the current class hierarchy is obtained, and the class having the highest probability among the classes included in the class having the highest probability in the upper class hierarchy is determined as the class of the current class hierarchy doing,
Sketch image automatic coloring device.
상기 제 2 영역 분할부는,
상기 현재의 클래스 계층 내의 클래스들 중에서 가장 높은 확률을 갖는 클래스가 이전에 판단된 상위 클래스 계층에서 가장 높은 확률을 갖는 클래스에 포함되지 않는다면, 상기 가장 높은 확률을 갖는 클래스를 현재 클래스 계층의 클래스로 결정하지 않고, 상기 가장 높은 확률을 갖는 클래스를 제외한 나머지 클래스들 중에서 가장 높은 확률을 갖는 클래스를 현재 클래스 계층의 클래스로 결정하는,
스케치 이미지 자동 채색 장치.6. The method of claim 5,
The second region dividing unit,
If the class having the highest probability among the classes in the current class hierarchy is not included in the class having the highest probability in the previously determined upper class hierarchy, the class having the highest probability is determined as the class of the current class hierarchy Determining the class having the highest probability among the remaining classes except for the class having the highest probability as the class of the current class hierarchy,
Sketch image automatic coloring device.
상기 채색부는,
복수의 분할 영역 및 상기 복수의 분할 영역 각각의 색정보를 포함하는 참조 채색 이미지와 상기 스케치 이미지를 비교하여 상기 스케치 이미지의 각 채색 단위 영역에 대응하는 색상 정보를 추출하고, 추출한 색상 정보를 근거로 상기 스케치 이미지를 채색하는,
스케치 이미지 자동 채색 장치.The method of claim 1,
The coloring part,
A plurality of divided regions and a reference colored image including color information of each of the plurality of divided regions are compared with the sketch image to extract color information corresponding to each colored unit region of the sketch image, and based on the extracted color information coloring the sketch image,
Sketch image automatic coloring device.
상기 채색부는,
사용자 단말로부터의 색 보정 명령에 따라 해당 채색 단위 영역에 대한 색 보정을 행하는,
스케치 이미지 자동 채색 장치.The method of claim 1,
The coloring part,
performing color correction on the color unit area according to a color correction command from the user terminal;
Sketch image automatic coloring device.
상기 채색 단위 영역별로 매핑된 클래스를 조정하도록 하는 사용자 피드백 정보를 사용자 단말로부터 수신하여 상기 병합부에게로 전달하는 피드백 반영부;를 더 포함하는,
스케치 이미지 자동 채색 장치.The method of claim 1,
and a feedback reflecting unit that receives user feedback information for adjusting the class mapped for each colored unit area from the user terminal and transmits it to the merging unit.
Sketch image automatic coloring device.
상기 채색 단위 영역별로 매핑된 클래스 중에서 사용자 단말로부터의 사용자 피드백 정보를 근거로 조정 대상인 채색 단위 영역에 대한 클래스를 직접 조정하는 피드백 반영부;를 더 포함하는,
스케치 이미지 자동 채색 장치.The method of claim 1,
a feedback reflecting unit that directly adjusts a class for a color unit area to be adjusted based on user feedback information from a user terminal among the classes mapped for each color unit area;
Sketch image automatic coloring device.
제 2 영역 분할 기법을 이용하여 상기 스케치 이미지를 클래스가 매핑된 제 2 단위 영역들로 분할하되, 상기 스케치 이미지의 각 픽셀에 대하여 클래스를 매핑시키고 픽셀별로 매핑된 클래스를 근거로 상기 스케치 이미지를 제 2 단위 영역들로 분할하는 제 2 단계;
상기 제 1 단위 영역들과 상기 제 2 단위 영역들을 이용하여 각각이 클래스가 매핑된 하나 이상의 채색 단위 영역을 생성하는 제 3 단계; 및
상기 채색 단위 영역 각각에 매핑된 클래스에 대응하는 색상을 이용하여 상기 스케치 이미지를 채색하는 제 4 단계;를 포함하고,
상기 제 4 단계는,
상기 스케치 이미지의 채색 후, 기생성된 채색 단위 영역들 각각에 대한 영역 신뢰도를 결정하고, 결정된 영역 신뢰도가 기준값보다 낮은 채색 단위 영역에 채색된 색상을 보정하되, 상기 스케치 이미지의 채색 단위 영역들 중에서 형상이 동일 또는 유사한 다른 채색 단위 영역에 채색된 색상으로 보정하는,
스케치 이미지 자동 채색 방법.a first step of dividing a sketch image to be colored into first unit regions using a first region division technique;
The sketch image is divided into class-mapped second unit regions using a second region division technique, a class is mapped for each pixel of the sketch image, and the sketch image is generated based on the class mapped for each pixel. a second step of dividing into two unit regions;
a third step of generating one or more color unit areas to which classes are mapped by using the first unit areas and the second unit areas; and
a fourth step of coloring the sketch image using a color corresponding to a class mapped to each of the coloring unit areas;
The fourth step is
After coloring the sketch image, region reliability for each of the pre-generated coloring unit regions is determined, and a color colored in a coloring unit region having a determined region reliability lower than a reference value is corrected, from among the coloring unit regions of the sketch image. Correcting with a colored color in another colored unit area of the same or similar shape;
How to automatically color sketch images.
상기 제 2 단계는,
클래스간 포함관계를 근거로 상기 각 픽셀별로 매핑된 클래스의 검증 및 자동 조정을 실시하는 단계를 포함하는,
스케치 이미지 자동 채색 방법.14. The method of claim 13,
The second step is
Including the step of verifying and automatically adjusting the class mapped for each pixel based on the inclusion relationship between the classes,
How to automatically color sketch images.
상기 제 3 단계는,
상기 검증 및 자동 조정이 완료된 각 픽셀별 클래스를 상기 제 1 단위 영역들의 각 픽셀에 매핑시켜서 하나 이상의 채색 단위 영역을 생성하는,
스케치 이미지 자동 채색 방법.15. The method of claim 14,
The third step is
generating one or more colored unit areas by mapping each pixel class for which the verification and automatic adjustment has been completed to each pixel of the first unit areas;
How to automatically color sketch images.
상기 제 2 단계는,
각 픽셀마다, 현재의 클래스 계층내의 클래스들 각각이 매핑될 확률을 구하되, 상위 클래스 계층에서 가장 높은 확률을 갖는 클래스에 포함되는 클래스들 중에서 가장 높은 확률을 갖는 클래스를 현재 클래스 계층의 클래스로 결정하는,
스케치 이미지 자동 채색 방법.15. The method of claim 14,
The second step is
For each pixel, the probability of mapping each of the classes in the current class hierarchy is obtained, and the class having the highest probability among the classes included in the class having the highest probability in the upper class hierarchy is determined as the class of the current class hierarchy doing,
How to automatically color sketch images.
상기 제 2 단계는,
상기 현재의 클래스 계층 내의 클래스들 중에서 가장 높은 확률을 갖는 클래스가 이전에 판단된 상위 클래스 계층에서 가장 높은 확률을 갖는 클래스에 포함되지 않는다면, 상기 가장 높은 확률을 갖는 클래스를 현재 클래스 계층의 클래스로 결정하지 않고, 상기 가장 높은 확률을 갖는 클래스를 제외한 나머지 클래스들 중에서 가장 높은 확률을 갖는 클래스를 현재 클래스 계층의 클래스로 결정하는,
스케치 이미지 자동 채색 방법.17. The method of claim 16,
The second step is
If the class having the highest probability among the classes in the current class hierarchy is not included in the class having the highest probability in the previously determined upper class hierarchy, the class having the highest probability is determined as the class of the current class hierarchy Determining the class having the highest probability among the remaining classes except for the class having the highest probability as the class of the current class hierarchy,
How to automatically color sketch images.
A computer-readable storage medium storing a program including instructions for performing the method for automatically coloring a sketch image according to claim 13.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020220023653A KR102449790B1 (en) | 2022-02-23 | 2022-02-23 | Apparatus and method for automatically coloring sketch images |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020220023653A KR102449790B1 (en) | 2022-02-23 | 2022-02-23 | Apparatus and method for automatically coloring sketch images |
Publications (1)
Publication Number | Publication Date |
---|---|
KR102449790B1 true KR102449790B1 (en) | 2022-09-30 |
Family
ID=83451667
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020220023653A KR102449790B1 (en) | 2022-02-23 | 2022-02-23 | Apparatus and method for automatically coloring sketch images |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102449790B1 (en) |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20020041898A (en) * | 2000-11-29 | 2002-06-05 | 구자홍 | Method to search picture data |
KR20150034058A (en) * | 2013-09-25 | 2015-04-02 | 삼성전자주식회사 | Method and Apparatus For Generating Drawing Animation Based On Image Analysis |
KR20200064591A (en) * | 2018-11-29 | 2020-06-08 | (주)아이디어 콘서트 | Webtoons color customizing programs and applications of deep learning |
KR20200078314A (en) * | 2018-12-21 | 2020-07-01 | 삼성전자주식회사 | System and method for providing dominant scene classification by semantic segmentation |
KR20200106754A (en) * | 2019-03-05 | 2020-09-15 | 네이버웹툰컴퍼니 주식회사 | Method, apparatus and computer program for coloring of a target image |
KR102247662B1 (en) * | 2021-01-29 | 2021-05-03 | 주식회사 아이코드랩 | Device and method for automatically coloring cartoon sketch image |
KR102335702B1 (en) | 2020-11-24 | 2021-12-06 | 연세대학교 산학협력단 | Apparatus And Method For Domain Adaptive Semantic Segmentation |
-
2022
- 2022-02-23 KR KR1020220023653A patent/KR102449790B1/en active IP Right Grant
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20020041898A (en) * | 2000-11-29 | 2002-06-05 | 구자홍 | Method to search picture data |
KR20150034058A (en) * | 2013-09-25 | 2015-04-02 | 삼성전자주식회사 | Method and Apparatus For Generating Drawing Animation Based On Image Analysis |
KR20200064591A (en) * | 2018-11-29 | 2020-06-08 | (주)아이디어 콘서트 | Webtoons color customizing programs and applications of deep learning |
KR20200078314A (en) * | 2018-12-21 | 2020-07-01 | 삼성전자주식회사 | System and method for providing dominant scene classification by semantic segmentation |
KR20200106754A (en) * | 2019-03-05 | 2020-09-15 | 네이버웹툰컴퍼니 주식회사 | Method, apparatus and computer program for coloring of a target image |
KR102216749B1 (en) | 2019-03-05 | 2021-02-17 | 네이버웹툰 유한회사 | Method, apparatus and computer program for coloring of a target image |
KR102335702B1 (en) | 2020-11-24 | 2021-12-06 | 연세대학교 산학협력단 | Apparatus And Method For Domain Adaptive Semantic Segmentation |
KR102247662B1 (en) * | 2021-01-29 | 2021-05-03 | 주식회사 아이코드랩 | Device and method for automatically coloring cartoon sketch image |
Non-Patent Citations (1)
Title |
---|
C. W. Seo et al., "Seg2pix: Few Shot Training Line Art Colorization with Segmented Image Data", Appl. Sci. 2021(2021.02.05.)* * |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20210350504A1 (en) | Aesthetics-guided image enhancement | |
CN106022221B (en) | Image processing method and system | |
US20230237841A1 (en) | Occlusion Detection | |
KR102124466B1 (en) | Apparatus and method for generating conti for webtoon | |
US7889892B2 (en) | Face detecting method, and system and program for the methods | |
US10726206B2 (en) | Visual reference resolution using attention memory for visual dialog | |
RU2630742C1 (en) | Method, system and device for biometric iris recognition | |
US20220036127A1 (en) | Semantic image manipulation using visual-semantic joint embeddings | |
EP4109412A1 (en) | Three-dimensional model reconstruction method and apparatus, and three-dimensional reconstruction model training method and apparatus | |
JP2017062778A (en) | Method and device for classifying object of image, and corresponding computer program product and computer-readable medium | |
US20230059499A1 (en) | Image processing system, image processing method, and non-transitory computer readable medium | |
CN114677565B (en) | Training method and image processing method and device for feature extraction network | |
US11893773B2 (en) | Finger vein comparison method, computer equipment, and storage medium | |
US20220130139A1 (en) | Image processing method and apparatus, electronic device and storage medium | |
US11741684B2 (en) | Image processing method, electronic device and storage medium for performing skin color recognition on a face image | |
CN113792827B (en) | Target object recognition method, electronic device, and computer-readable storage medium | |
CN112446322A (en) | Eyeball feature detection method, device, equipment and computer-readable storage medium | |
KR102449790B1 (en) | Apparatus and method for automatically coloring sketch images | |
WO2018118099A1 (en) | Shape prediction for face alignment | |
US20230237630A1 (en) | Image processing method and apparatus | |
KR102449795B1 (en) | Apparatus and method for automatically coloring sketch images | |
CN114333038B (en) | Training method of object recognition model, object recognition method, device and equipment | |
CN113658195B (en) | Image segmentation method and device and electronic equipment | |
US20230059407A1 (en) | Image processing system, image processing method, and non-transitory computer readable medium | |
US11113606B2 (en) | Learning method, learning device, program, and recording medium |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |