KR102160092B1 - Method and system for processing image using lookup table and layered mask - Google Patents

Method and system for processing image using lookup table and layered mask Download PDF

Info

Publication number
KR102160092B1
KR102160092B1 KR1020180108481A KR20180108481A KR102160092B1 KR 102160092 B1 KR102160092 B1 KR 102160092B1 KR 1020180108481 A KR1020180108481 A KR 1020180108481A KR 20180108481 A KR20180108481 A KR 20180108481A KR 102160092 B1 KR102160092 B1 KR 102160092B1
Authority
KR
South Korea
Prior art keywords
image
mask
lookup table
coordinate
mask images
Prior art date
Application number
KR1020180108481A
Other languages
Korean (ko)
Other versions
KR20180103037A (en
Inventor
안두경
박성현
서동진
조현태
Original Assignee
스노우 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 스노우 주식회사 filed Critical 스노우 주식회사
Priority to KR1020180108481A priority Critical patent/KR102160092B1/en
Publication of KR20180103037A publication Critical patent/KR20180103037A/en
Application granted granted Critical
Publication of KR102160092B1 publication Critical patent/KR102160092B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/40Filling a planar surface by adding surface attributes, e.g. colour or texture
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/90Determination of colour characteristics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging

Abstract

레이어드 마스크와 룩업테이블을 이용한 이미지 처리 방법 및 시스템을 제공한다. 이미지 처리 방법은, 입력 이미지와 연관하여 결정된 이펙트를 상기 입력 이미지에 적용하기 위해, 상기 입력 이미지를 분석하여 상기 이펙트를 적용하기 위한 영역을 계산하는 단계, 상기 결정된 이펙트와 연관하여 상기 계산된 영역에 적용될 복수의 마스크 이미지들을 결정하는 단계, 상기 결정된 복수의 마스크 이미지들 각각에 적용하기 위한 룩업테이블을 결정하는 단계, 상기 복수의 마스크 이미지들 각각에 대응하는 룩업테이블을 적용하고, 상기 룩업테이블이 적용된 복수의 마스크 이미지들을 결합하여 레이어드 마스크 이미지를 생성하는 단계 및 상기 생성된 레이어드 마스크 이미지를 상기 계산된 영역에 적용하여 결과 이미지를 생성하는 단계를 포함할 수 있다.An image processing method and system using a layered mask and a lookup table are provided. The image processing method includes: analyzing the input image and calculating an area for applying the effect to the input image in order to apply an effect determined in association with the input image, and the calculated area in association with the determined effect Determining a plurality of mask images to be applied, determining a lookup table to be applied to each of the determined plurality of mask images, applying a lookup table corresponding to each of the plurality of mask images, and applying the lookup table The method may include generating a layered mask image by combining a plurality of mask images, and generating a result image by applying the generated layered mask image to the calculated area.

Description

레이어드 마스크와 룩업테이블을 이용한 이미지 처리 방법 및 시스템{METHOD AND SYSTEM FOR PROCESSING IMAGE USING LOOKUP TABLE AND LAYERED MASK}Image processing method and system using layered mask and lookup table {METHOD AND SYSTEM FOR PROCESSING IMAGE USING LOOKUP TABLE AND LAYERED MASK}

아래의 설명은 레이어드 마스크와 룩업테이블을 이용한 이미지 처리 방법 및 시스템, 그리고 컴퓨터와 결합되어 이미지 처리 방법을 컴퓨터에 실행시키기 위해 컴퓨터 판독 가능한 기록매체에 저장된 컴퓨터 프로그램에 관한 것이다.The following description relates to an image processing method and system using a layered mask and a lookup table, and a computer program stored in a computer-readable recording medium in order to execute the image processing method on a computer in combination with a computer.

이미지에 다양한 이펙트를 적용하기 위한 종래기술들이 존재한다. 특히, 사용자의 모습이 담긴 이미지에 화장용품들과 같은 실제 제품이 사용된 것과 같은 이펙트를 가상으로 적용하여 보여줌으로써, 사용자가 실제 제품을 구매하지 않은 상태에서도 실제 제품의 사용에 따른 결과를 미리 확인해볼 수 있도록 서비스하는 기술들이 존재한다.There are conventional techniques for applying various effects to an image. In particular, by showing the same effect as the actual product used, such as cosmetic products, to the image containing the user's image, the user can check the results of the actual product use even when the user does not purchase the actual product. There are technologies that serve you so you can try.

예를 들어, 종래기술에서는 제품에 따른 이펙트의 적용을 위한 텍스쳐들을 미리 생성하여 관리하고, 사용자가 입력한 이미지의 지정된 위치에 선택된 제품에 대해 미리 생성된 텍스쳐를 덮어씌우는 방식으로 가상의 이펙트를 이미지상에 적용할 수 있다. 도 1은 종래기술에 따른 이미지 처리 방법의 일례를 도시한 도면이다. 이러한 도 1은 입력된 이미지(110)에 미리 생성된 텍스쳐(120)를 단순히 오버랩하여 가상의 이펙트를 이미지상에 적용하는 예를 나타내고 있다. 이러한 종래기술은 구현이 간편하고 이펙트의 직관적인 적용이 가능하다는 점, 서비스 제공자가 원하는 이펙트를 이미지상에 쉽게 적용할 수 있다는 장점이 있다. 그러나 이러한 종래기술은 미리 생성된 텍스쳐를 사용하기 때문에 입력된 이미지에 나타난 따라 피부나 입술의 주름, 이미지에 표현된 재질 등의 영향을 텍스쳐에 반영할 수 없다는 문제점이 있으며, 이미지에 나타나는 주변 광원에 따른 영향 등도 텍스쳐에 반영할 수 없기 때문에 이미지가 자연스럽지 못하다는 문제점이 있다.For example, in the prior art, a virtual effect is imaged by creating and managing textures for applying an effect according to a product in advance, and overwriting a previously created texture for the selected product at a designated location of the image input by the user. Can be applied to the phase. 1 is a diagram showing an example of an image processing method according to the prior art. FIG. 1 shows an example of applying a virtual effect to an image by simply overlapping the previously generated texture 120 on the input image 110. Such a conventional technique has advantages in that it is easy to implement and can intuitively apply an effect, and that an effect desired by a service provider can be easily applied to an image. However, since this prior art uses a texture created in advance, there is a problem that the influence of skin or lip wrinkles, materials expressed in the image, etc., as indicated in the input image cannot be reflected in the texture. There is a problem that the image is not natural because the effect of the result cannot be reflected in the texture.

또 다른 종래기술로 입력된 이미지에 적절한 연산처리를 하여 이미지의 색상을 변화시키는 기술이 존재한다. 도 2는 종래기술에 따른 이미지 처리 방법의 다른 예를 도시한 도면이다. 도 2에서는 커브(curve)의 연산처리를 이용하여 입력된 이미지의 색상을 다양하게 변화시키는 예를 나타내고 있다. 예를 들어 포토샵 등의 이미지 편집툴은 입력된 이미지에 다양한 효과를 적용할 수 있다. 이러한 종래기술은 입력되는 색상값에 따라 다양한 다른 변화를 입력된 이미지에 적용할 수 있어 보다 자연스러운 변환이 가능하다는 장점이 있다. 그러나 이러한 종래기술은 계산량이 많아, 많은 CPU 자원이 요구된다는 문제점이 있을 뿐만 아니라, 색상을 기반으로 이미지 전반에 걸쳐 결과가 결정되기 때문에 입력된 이미지의 특정 위치에 효과를 주기는 어렵다는 문제점이 있다.Another conventional technique exists to change the color of an image by performing an appropriate operation on an input image. 2 is a diagram showing another example of an image processing method according to the prior art. FIG. 2 shows an example of variously changing the color of an input image by using a curve operation process. For example, an image editing tool such as Photoshop can apply various effects to the input image. This prior art has the advantage that a more natural conversion is possible because various other changes can be applied to the input image according to the input color value. However, such a conventional technique has a problem in that a large amount of calculation is required and a lot of CPU resources are required, and it is difficult to give an effect to a specific position of an input image because the result is determined throughout the image based on color.

참고자료: <PCT/KR/2014/010167, US20340019540A1, US20330332543A1, US20330260893>Reference: <PCT/KR/2014/010167, US20340019540A1, US20330332543A1, US20330260893>

원본 이미지에 색상변화가 적용될 영역에 대응하여 변화시키고자 하는 색상 테마별로 각각의 레이어를 생성하고, 생성된 복수의 레이어들을 단색 채널 이미지로 변환하여 하나의 이미지에 결합함으로써 레이어드 마스크를 생성하고, 생성된 레이어드 마스크를 원본 이미지에 적용함으로써 이미지 영역에 따라 원하는 색상 변화를 적용할 수 있는 이미지 처리 방법 및 시스템, 그리고 컴퓨터와 결합되어 이미지 처리 방법을 컴퓨터에 실행시키기 위해 컴퓨터 판독 가능한 기록매체에 저장된 컴퓨터 프로그램을 제공한다.Each layer is created for each color theme to be changed in response to the area to which the color change is applied to the original image, and a layered mask is created by converting the generated layers into a single color channel image and combining them into one image. An image processing method and system capable of applying a desired color change according to the image area by applying the layered mask to the original image, and a computer program stored in a computer-readable recording medium to execute the image processing method on a computer in combination with a computer. Provides.

색상 변화를 위해 원본 색상을 출력 색상으로 1:1 치환해주는 색상 변환 테이블로서 미리 생성된 룩업테이블을 이용하여 계산량을 줄일 수 있으며, 다양하게 생성된 룩업테이블을 원본 이미지에 적용할 위치의 중요도에 따라 선택하여 사용함으로써 메모리 공간을 효율적으로 사용할 수 있는 이미지 처리 방법 및 시스템, 그리고 컴퓨터와 결합되어 이미지 처리 방법을 컴퓨터에 실행시키기 위해 컴퓨터 판독 가능한 기록매체에 저장된 컴퓨터 프로그램을 제공한다.As a color conversion table that replaces the original color with the output color 1:1 for color change, the amount of calculation can be reduced by using a pre-generated lookup table, and variously generated lookup tables can be applied to the original image according to the importance of the position to be applied. An image processing method and a system capable of efficiently using a memory space by selective use, and a computer program stored in a computer-readable recording medium for executing the image processing method on a computer in combination with a computer are provided.

원본 이미지에 나타난 상황에 따라 이미지에 적용되어야 할 룩업테이블을 레이어별로 결정함으로써, 환경의 변화나 조명의 변화에도 자연스러운 이미지 처리가 가능한 이미지 처리 방법 및 시스템, 그리고 컴퓨터와 결합되어 이미지 처리 방법을 컴퓨터에 실행시키기 위해 컴퓨터 판독 가능한 기록매체에 저장된 컴퓨터 프로그램을 제공한다.By determining the lookup table to be applied to the image by layer according to the situation shown in the original image, an image processing method and system capable of natural image processing even with changes in environment or lighting, and an image processing method in combination with a computer A computer program stored on a computer-readable recording medium for execution is provided.

컴퓨터와 결합되어 이미지 처리 방법을 컴퓨터에 실행시키기 위해 컴퓨터 판독 가능한 기록매체에 저장된 컴퓨터 프로그램에 있어서, 상기 이미지 처리 방법은, 입력 이미지와 연관하여 결정된 이펙트를 상기 입력 이미지에 적용하기 위해, 상기 입력 이미지를 분석하여 상기 이펙트를 적용하기 위한 영역을 계산하는 단계; 상기 결정된 이펙트와 연관하여 상기 계산된 영역에 적용될 복수의 마스크 이미지들을 결정하는 단계; 상기 결정된 복수의 마스크 이미지들 각각에 적용하기 위한 룩업테이블을 결정하는 단계; 상기 복수의 마스크 이미지들 각각에 대응하는 룩업테이블을 적용하고, 상기 룩업테이블이 적용된 복수의 마스크 이미지들을 결합하여 레이어드 마스크 이미지를 생성하는 단계; 및 상기 생성된 레이어드 마스크 이미지를 상기 계산된 영역에 적용하여 결과 이미지를 생성하는 단계를 포함하는 것을 특징으로 하는 컴퓨터 프로그램을 제공한다.A computer program combined with a computer and stored in a computer-readable recording medium to execute an image processing method on a computer, wherein the image processing method comprises: in order to apply an effect determined in association with the input image to the input image, the input image Analyzing the data to calculate an area for applying the effect; Determining a plurality of mask images to be applied to the calculated area in association with the determined effect; Determining a lookup table to be applied to each of the determined plurality of mask images; Generating a layered mask image by applying a lookup table corresponding to each of the plurality of mask images and combining the plurality of mask images to which the lookup table is applied; And applying the generated layered mask image to the calculated area to generate a result image.

이미지 처리 방법에 있어서, 입력 이미지와 연관하여 결정된 이펙트를 상기 입력 이미지에 적용하기 위해, 상기 입력 이미지를 분석하여 상기 이펙트를 적용하기 위한 영역을 계산하는 단계; 상기 결정된 이펙트와 연관하여 상기 계산된 영역에 적용될 복수의 마스크 이미지들을 결정하는 단계; 상기 결정된 복수의 마스크 이미지들 각각에 적용하기 위한 룩업테이블을 결정하는 단계; 상기 복수의 마스크 이미지들 각각에 대응하는 룩업테이블을 적용하고, 상기 룩업테이블이 적용된 복수의 마스크 이미지들을 결합하여 레이어드 마스크 이미지를 생성하는 단계; 및 상기 생성된 레이어드 마스크 이미지를 상기 계산된 영역에 적용하여 결과 이미지를 생성하는 단계를 포함하는 것을 특징으로 하는 이미지 처리 방법을 제공한다.An image processing method, comprising: analyzing the input image and calculating a region for applying the effect to the input image to apply an effect determined in association with the input image; Determining a plurality of mask images to be applied to the calculated area in association with the determined effect; Determining a lookup table to be applied to each of the determined plurality of mask images; Generating a layered mask image by applying a lookup table corresponding to each of the plurality of mask images and combining the plurality of mask images to which the lookup table is applied; And applying the generated layered mask image to the calculated area to generate a result image.

이미지 처리 방법을 실행하는 이미지 처리 시스템에 있어서, 컴퓨터 판독 가능한 명령을 실행하도록 구현되는 적어도 하나의 프로세서를 포함하고, 상기 적어도 하나의 프로세서는, 입력 이미지와 연관하여 결정된 이펙트를 상기 입력 이미지에 적용하기 위해, 상기 입력 이미지를 분석하여 상기 이펙트를 적용하기 위한 영역을 계산하고, 상기 결정된 이펙트와 연관하여 상기 계산된 영역에 적용될 복수의 마스크 이미지들을 결정하고, 상기 결정된 복수의 마스크 이미지들 각각에 적용하기 위한 룩업테이블을 결정하고, 상기 복수의 마스크 이미지들 각각에 대응하는 룩업테이블을 적용하고, 상기 룩업테이블이 적용된 복수의 마스크 이미지들을 결합하여 레이어드 마스크 이미지를 생성하고, 상기 생성된 레이어드 마스크 이미지를 상기 계산된 영역에 적용하여 결과 이미지를 생성하는 것을 특징으로 하는 이미지 처리 시스템을 제공한다.An image processing system for executing an image processing method, comprising: at least one processor embodied to execute a computer-readable instruction, wherein the at least one processor applies an effect determined in association with an input image to the input image For this, analyzing the input image to calculate a region for applying the effect, determining a plurality of mask images to be applied to the calculated region in association with the determined effect, and applying to each of the determined plurality of mask images A lookup table is determined for, a lookup table corresponding to each of the plurality of mask images is applied, a layered mask image is generated by combining a plurality of mask images to which the lookup table is applied, and the generated layered mask image is It provides an image processing system characterized in that it applies to the calculated area to generate a result image.

원본 이미지에 색상변화가 적용될 영역에 대응하여 변화시키고자 하는 색상 테마별로 각각의 레이어를 생성하고, 생성된 복수의 레이어들을 단색 채널 이미지로 변환하여 하나의 이미지에 결합함으로써 레이어드 마스크를 생성하고, 생성된 레이어드 마스크를 원본 이미지에 적용함으로써 이미지 영역에 따라 원하는 색상 변화를 적용할 수 있다.Each layer is created for each color theme to be changed in response to the area to which the color change is applied to the original image, and a layered mask is created by converting the generated layers into a single color channel image and combining them into one image. By applying the layered mask to the original image, a desired color change can be applied according to the image area.

색상 변화를 위해 원본 색상을 출력 색상으로 1:1 치환해주는 색상 변환 테이블로서 미리 생성된 룩업테이블을 이용하여 계산량을 줄일 수 있으며, 다양하게 생성된 룩업테이블을 원본 이미지에 적용할 위치의 중요도에 따라 선택하여 사용함으로써 메모리 공간을 효율적으로 사용할 수 있다.As a color conversion table that replaces the original color with the output color 1:1 for color change, the amount of calculation can be reduced by using a pre-generated lookup table, and variously generated lookup tables can be applied to the original image according to the importance of the position to be applied. By selecting and using, the memory space can be used efficiently.

원본 이미지에 나타난 상황에 따라 이미지에 적용되어야 할 룩업테이블을 레이어별로 결정함으로써, 환경의 변화나 조명의 변화에도 자연스러운 이미지 처리를 가능하게 할 수 있다.By determining the lookup table to be applied to the image layer by layer according to the situation shown in the original image, natural image processing can be performed even with changes in environment or lighting.

도 1은 종래기술에 따른 이미지 처리 방법의 일례를 도시한 도면이다.
도 2는 종래기술에 따른 이미지 처리 방법의 다른 예를 도시한 도면이다.
도 3은 본 발명의 일실시예에 따른 네트워크 환경의 예를 도시한 도면이다.
도 4는 본 발명의 일실시예에 있어서, 전자 기기 및 서버의 내부 구성을 설명하기 위한 블록도이다.
도 5는 본 발명의 일실시예에 있어서, 이미지 처리 방법의 전체 과정의 예를 설명하기 위한 예이다.
도 6은 본 발명의 일실시예에 있어서, 레이어드 마스크 이미지의 예를 도시한 도면이다.
도 7은 본 발명의 일실시예에 있어서, 입력 이미지에 레이어드 마스크 이미지를 적용하는 예를 도시한 도면이다.
도 8은 본 발명의 일실시예에 있어서, 룩업테이블의 예를 도시한 도면이다.
도 9는 본 발명의 일실시예에 따른 이미지 처리 시스템이 포함하는 프로세서의 내부 구성의 예를 설명하기 위한 블록도이다.
도 10은 본 발명의 일실시예에 따른 이미지 처리 시스템이 수행할 수 있는 방법의 예를 도시한 흐름도이다.
1 is a diagram showing an example of an image processing method according to the prior art.
2 is a diagram showing another example of an image processing method according to the prior art.
3 is a diagram illustrating an example of a network environment according to an embodiment of the present invention.
4 is a block diagram illustrating an internal configuration of an electronic device and a server according to an embodiment of the present invention.
5 is an example for explaining an example of an entire process of an image processing method according to an embodiment of the present invention.
6 is a diagram illustrating an example of a layered mask image according to an embodiment of the present invention.
7 is a diagram illustrating an example of applying a layered mask image to an input image according to an embodiment of the present invention.
8 is a diagram illustrating an example of a lookup table in an embodiment of the present invention.
9 is a block diagram illustrating an example of an internal configuration of a processor included in the image processing system according to an embodiment of the present invention.
10 is a flowchart illustrating an example of a method that can be performed by an image processing system according to an embodiment of the present invention.

이하, 실시예를 첨부한 도면을 참조하여 상세히 설명한다.Hereinafter, embodiments will be described in detail with reference to the accompanying drawings.

본 발명의 실시예들에 따른 이미지 처리를 위한 이미지 처리 시스템은 이후 설명될 전자 기기나 서버를 통해 구현될 수 있으며, 본 발명의 실시예들에 따른 이미지 처리 방법은 상술한 전자 기기나 서버를 통해 수행될 수 있다. 일실시예로, 전자 기기는 본 발명의 실시예들에 따른 레이어드 마스크 및/또는 룩업테이블(LookUp Table, LUT)을 이용하여 특정 제품이나 서비스에 따라 디자인된 이펙트를 입력된 이미지에 적용함으로써 결과 이미지를 제공할 수 있다. 이때, 전자 기기는 전자 기기나 서버에 설치된 컴퓨터 프로그램의 제어에 따라 본 발명의 실시예들에 따른 이미지 처리 방법을 수행할 수 있다. 서버 역시 서버에 설치되는 컴퓨터 프로그램의 제어에 따라 본 발명의 실시예들에 따른 이미지 처리 방법을 수행할 수 있다. 예를 들어, 서버는 전자 기기로부터 이미지를 수신할 수 있고, 레이어드 마스크 및/또는 룩업테이블을 이용하여 특정 제품이나 서비스에 따라 디자인된 이펙트를 수신된 이미지에 적용함으로써, 결과 이미지를 생성할 수 있으며, 생성된 결과 이미지를 전자 기기로 제공할 수 있다. 컴퓨터 프로그램은 상술한 전자 기기나 서버와 같은 컴퓨터와 결합되어 이미지 처리 방법을 컴퓨터에 실행시키기 위해 컴퓨터 판독 가능한 기록매체에 저장될 수 있다. The image processing system for image processing according to the embodiments of the present invention may be implemented through an electronic device or server to be described later, and the image processing method according to the embodiments of the present invention may be implemented through the electronic device or server described above. Can be done. In one embodiment, the electronic device applies an effect designed according to a specific product or service to an input image using a layered mask and/or a lookup table (LUT) according to the embodiments of the present invention. Can provide. In this case, the electronic device may perform the image processing method according to embodiments of the present invention under control of the electronic device or a computer program installed in the server. The server may also perform the image processing method according to embodiments of the present invention under control of a computer program installed in the server. For example, the server may receive an image from an electronic device and generate a result image by applying an effect designed according to a specific product or service to the received image using a layered mask and/or a lookup table. , The generated result image may be provided to an electronic device. The computer program may be combined with a computer such as an electronic device or server described above and stored in a computer-readable recording medium to execute the image processing method on the computer.

도 3은 본 발명의 일실시예에 따른 네트워크 환경의 예를 도시한 도면이다. 도 3의 네트워크 환경은 복수의 전자 기기들(310, 320, 330, 340), 복수의 서버들(350, 360) 및 네트워크(370)를 포함하는 예를 나타내고 있다. 이러한 도 3은 발명의 설명을 위한 일례로 전자 기기의 수나 서버의 수가 도 3과 같이 한정되는 것은 아니다.3 is a diagram illustrating an example of a network environment according to an embodiment of the present invention. The network environment of FIG. 3 shows an example including a plurality of electronic devices 310, 320, 330, 340, a plurality of servers 350 and 360, and a network 370. 3 is an example for explaining the invention, and the number of electronic devices or servers is not limited as shown in FIG. 3.

복수의 전자 기기들(310, 320, 330, 340)은 컴퓨터 장치로 구현되는 고정형 단말이거나 이동형 단말일 수 있다. 복수의 전자 기기들(310, 320, 330, 340)의 예를 들면, 스마트폰(smart phone), 휴대폰, 네비게이션, 컴퓨터, 노트북, 디지털방송용 단말, PDA(Personal Digital Assistants), PMP(Portable Multimedia Player), 태블릿 PC 등이 있다. 일례로 도 3에서는 전자 기기 1(310)의 예로 스마트폰의 형상을 나타내고 있으나, 본 발명의 실시예들에서는 실질적으로 무선 또는 유선 통신 방식을 이용하여 네트워크(370)를 통해 다른 전자 기기들(320, 330, 340) 및/또는 서버(350, 360)와 통신할 수 있는 다양한 기기들 중 하나를 의미할 수 있다.The plurality of electronic devices 310, 320, 330, 340 may be a fixed terminal implemented as a computer device or a mobile terminal. Examples of the plurality of electronic devices 310, 320, 330, and 340 include smart phones, mobile phones, navigation, computers, notebook computers, digital broadcasting terminals, personal digital assistants (PDAs), portable multimedia players (PMPs). ), tablet PC, etc. As an example, in FIG. 3, the shape of a smartphone is shown as an example of the electronic device 1 310, but in the embodiments of the present invention, other electronic devices 320 are substantially transmitted through the network 370 using a wireless or wired communication method. , 330, 340 and/or the server 350, 360 may mean one of various devices capable of communicating.

통신 방식은 제한되지 않으며, 네트워크(370)가 포함할 수 있는 통신망(일례로, 이동통신망, 유선 인터넷, 무선 인터넷, 방송망)을 활용하는 통신 방식뿐만 아니라 기기들간의 근거리 무선 통신 역시 포함될 수 있다. 예를 들어, 네트워크(370)는, PAN(personal area network), LAN(local area network), CAN(campus area network), MAN(metropolitan area network), WAN(wide area network), BBN(broadband network), 인터넷 등의 네트워크 중 하나 이상의 임의의 네트워크를 포함할 수 있다. 또한, 네트워크(370)는 버스 네트워크, 스타 네트워크, 링 네트워크, 메쉬 네트워크, 스타-버스 네트워크, 트리 또는 계층적(hierarchical) 네트워크 등을 포함하는 네트워크 토폴로지 중 임의의 하나 이상을 포함할 수 있으나, 이에 제한되지 않는다.The communication method is not limited, and short-range wireless communication between devices as well as a communication method using a communication network (for example, a mobile communication network, a wired Internet, a wireless Internet, a broadcasting network) that the network 370 may include may be included. For example, the network 370 is a personal area network (PAN), a local area network (LAN), a campus area network (CAN), a metropolitan area network (MAN), a wide area network (WAN), and a broadband network (BBN). , Internet, and the like. In addition, the network 370 may include any one or more of a network topology including a bus network, a star network, a ring network, a mesh network, a star-bus network, a tree or a hierarchical network, etc. Not limited.

서버(350, 360) 각각은 복수의 전자 기기들(310, 320, 330, 340)과 네트워크(370)를 통해 통신하여 명령, 코드, 파일, 컨텐츠, 서비스 등을 제공하는 컴퓨터 장치 또는 복수의 컴퓨터 장치들로 구현될 수 있다. 예를 들어, 서버(350)는 네트워크(370)를 통해 접속한 복수의 전자 기기들(310, 320, 330, 340)로 제1 서비스를 제공하는 시스템일 수 있으며, 서버(360) 역시 네트워크(370)를 통해 접속한 복수의 전자 기기들(310, 320, 330, 340)로 제2 서비스를 제공하는 시스템일 수 있다. 보다 구체적인 예로, 서버(350)는 제1 서비스로서 이미지 처리를 위한 서비스를 복수의 전자 기기들(310, 320, 330, 340)로 제공하는 시스템일 수 있다. 또한, 서버(360)는 제2 서비스로서 이미지 처리를 위한 서비스를 제공받을 수 있도록 하기 위한 어플리케이션(일례로, 상술한 컴퓨터 프로그램)의 설치파일을 복수의 전자 기기들(310, 320, 330, 340)로 제공하는 파일 배포 시스템일 수 있다.Each of the servers 350 and 360 is a computer device or a plurality of computers that communicates with a plurality of electronic devices 310, 320, 330, and 340 through a network 370 to provide commands, codes, files, contents, services, etc. It can be implemented with devices. For example, the server 350 may be a system that provides a first service to a plurality of electronic devices 310, 320, 330, 340 accessed through the network 370, and the server 360 is also a network ( It may be a system that provides a second service to a plurality of electronic devices 310, 320, 330, and 340 accessed through 370. As a more specific example, the server 350 may be a system that provides a service for image processing as a first service to a plurality of electronic devices 310, 320, 330, and 340. In addition, the server 360 stores an installation file of an application (for example, the computer program described above) for receiving a service for image processing as a second service to a plurality of electronic devices 310, 320, 330, 340. It may be a file distribution system provided by ).

도 4는 본 발명의 일실시예에 있어서, 전자 기기 및 서버의 내부 구성을 설명하기 위한 블록도이다. 도 4에서는 전자 기기에 대한 예로서 전자 기기 1(310), 그리고 서버(350)의 내부 구성을 설명한다. 또한, 다른 전자 기기들(320, 330, 340)이나 서버(360) 역시 상술한 전자 기기 1(310) 또는 서버(350)와 동일한 또는 유사한 내부 구성을 가질 수 있다.4 is a block diagram illustrating an internal configuration of an electronic device and a server according to an embodiment of the present invention. In FIG. 4, internal configurations of the electronic device 1 310 and the server 350 are described as examples of the electronic device. In addition, the other electronic devices 320, 330, 340 or the server 360 may also have the same or similar internal configuration as the electronic device 1 310 or the server 350 described above.

전자 기기 1(310)과 서버(350)는 메모리(411, 421), 프로세서(412, 422), 통신 모듈(413, 423) 그리고 입출력 인터페이스(414, 424)를 포함할 수 있다. 메모리(411, 421)는 컴퓨터에서 판독 가능한 기록 매체로서, RAM(random access memory), ROM(read only memory) 및 디스크 드라이브와 같은 비소멸성 대용량 기록장치(permanent mass storage device)를 포함할 수 있다. 여기서 ROM과 디스크 드라이브와 같은 비소멸성 대용량 기록장치는 메모리(411, 421)와는 구분되는 별도의 영구 저장 장치로서 전자 기기 1(310)나 서버(350)에 포함될 수도 있다. 또한, 메모리(411, 421)에는 운영체제와 적어도 하나의 프로그램 코드(일례로 전자 기기 1(310)에 설치되어 구동되는 브라우저나 특정 서비스의 제공을 위해 전자 기기 1(310)에 설치된 어플리케이션 등을 위한 코드)가 저장될 수 있다. 이러한 소프트웨어 구성요소들은 메모리(411, 421)와는 별도의 컴퓨터에서 판독 가능한 기록 매체로부터 로딩될 수 있다. 이러한 별도의 컴퓨터에서 판독 가능한 기록 매체는 플로피 드라이브, 디스크, 테이프, DVD/CD-ROM 드라이브, 메모리 카드 등의 컴퓨터에서 판독 가능한 기록 매체를 포함할 수 있다. 다른 실시예에서 소프트웨어 구성요소들은 컴퓨터에서 판독 가능한 기록 매체가 아닌 통신 모듈(413, 423)을 통해 메모리(411, 421)에 로딩될 수도 있다. 예를 들어, 적어도 하나의 프로그램은 개발자들 또는 어플리케이션의 설치 파일을 배포하는 파일 배포 시스템(일례로, 서버(360))이 네트워크(370)를 통해 제공하는 파일들에 의해 설치되는 프로그램(일례로 상술한 어플리케이션)에 기반하여 메모리(411, 421)에 로딩될 수 있다.The electronic device 1310 and the server 350 may include memories 411 and 421, processors 412 and 422, communication modules 413 and 423, and input/output interfaces 414 and 424. The memories 411 and 421 are computer-readable recording media, and may include a permanent mass storage device such as a random access memory (RAM), read only memory (ROM), and a disk drive. Here, a non-destructive large-capacity recording device such as a ROM and a disk drive may be included in the electronic device 1310 or the server 350 as a separate permanent storage device separated from the memories 411 and 421. In addition, the memories 411 and 421 contain an operating system and at least one program code (for example, a browser installed and driven in the electronic device 1 310 or an application installed in the electronic device 1 310 to provide a specific service). Code) can be saved. These software components may be loaded from a computer-readable recording medium separate from the memories 411 and 421. Such a separate computer-readable recording medium may include a computer-readable recording medium such as a floppy drive, a disk, a tape, a DVD/CD-ROM drive, and a memory card. In another embodiment, software components may be loaded into the memories 411 and 421 through the communication modules 413 and 423 rather than a computer-readable recording medium. For example, at least one program is a program installed by files provided by the file distribution system (for example, the server 360) for distributing the installation files of developers or applications (for example, the server 360). It may be loaded into the memories 411 and 421 based on the aforementioned application).

프로세서(412, 422)는 기본적인 산술, 로직 및 입출력 연산을 수행함으로써, 컴퓨터 프로그램의 명령을 처리하도록 구성될 수 있다. 명령은 메모리(411, 421) 또는 통신 모듈(413, 423)에 의해 프로세서(412, 422)로 제공될 수 있다. 예를 들어 프로세서(412, 422)는 메모리(411, 421)와 같은 기록 장치에 저장된 프로그램 코드에 따라 수신되는 명령을 실행하도록 구성될 수 있다.The processors 412 and 422 may be configured to process instructions of a computer program by performing basic arithmetic, logic, and input/output operations. The instructions may be provided to the processors 412 and 422 by the memories 411 and 421 or the communication modules 413 and 423. For example, the processors 412 and 422 may be configured to execute a command received according to a program code stored in a recording device such as the memories 411 and 421.

통신 모듈(413, 423)은 네트워크(370)를 통해 전자 기기 1(310)과 서버(350)가 서로 통신하기 위한 기능을 제공할 수 있으며, 전자 기기 1(310) 및/또는 서버(350)가 다른 전자 기기(일례로 전자 기기 2(320)) 또는 다른 서버(일례로 서버(360))와 통신하기 위한 기능을 제공할 수 있다. 일례로, 전자 기기 1(310)의 프로세서(412)가 메모리(411)와 같은 기록 장치에 저장된 프로그램 코드에 따라 생성한 요청이 통신 모듈(413)의 제어에 따라 네트워크(370)를 통해 서버(350)로 전달될 수 있다. 역으로, 서버(350)의 프로세서(422)의 제어에 따라 제공되는 제어 신호나 명령, 컨텐츠, 파일 등이 통신 모듈(423)과 네트워크(370)를 거쳐 전자 기기 1(310)의 통신 모듈(413)을 통해 전자 기기 1(310)로 수신될 수 있다. 예를 들어 통신 모듈(413)을 통해 수신된 서버(350)의 제어 신호나 명령, 컨텐츠, 파일 등은 프로세서(412)나 메모리(411)로 전달될 수 있고, 컨텐츠나 파일 등은 전자 기기 1(310)가 더 포함할 수 있는 저장 매체(상술한 영구 저장 장치)로 저장될 수 있다.The communication modules 413 and 423 may provide a function for the electronic device 1 310 and the server 350 to communicate with each other through the network 370, and the electronic device 1 310 and/or the server 350 May provide a function for communicating with another electronic device (for example, electronic device 2 320) or another server (for example, server 360 ). For example, a request generated by the processor 412 of the electronic device 1 310 according to a program code stored in a recording device such as a memory 411 is transmitted through the network 370 under the control of the communication module 413. 350). Conversely, control signals, commands, contents, files, etc. provided under the control of the processor 422 of the server 350 are transmitted via the communication module 423 and the network 370 to the communication module of the electronic device 1 310 ( It may be received by the electronic device 1 310 through 413. For example, control signals, commands, contents, files, etc. of the server 350 received through the communication module 413 may be transmitted to the processor 412 or the memory 411, and the contents or files are electronic devices 1 It may be stored in a storage medium (permanent storage device described above) that may further include 310.

입출력 인터페이스(414)는 입출력 장치(415)와의 인터페이스를 위한 수단일 수 있다. 예를 들어, 입력 장치는 키보드 또는 마우스 등의 장치를, 그리고 출력 장치는 디스플레이와 같은 장치를 포함할 수 있다. 다른 예로 입출력 인터페이스(414)는 터치스크린과 같이 입력과 출력을 위한 기능이 하나로 통합된 장치와의 인터페이스를 위한 수단일 수도 있다. 입출력 장치(415)는 전자 기기 1(310)과 하나의 장치로 구성될 수도 있다. 또한, 서버(350)의 입출력 인터페이스(424)는 서버(350)와 연결되거나 서버(350)가 포함할 수 있는 입력 또는 출력을 위한 장치(미도시)와의 인터페이스를 위한 수단일 수 있다. 보다 구체적인 예로, 전자 기기 1(310)의 프로세서(412)는 메모리(411)에 로딩된 컴퓨터 프로그램의 명령을 처리함에 있어서 서버(350)나 전자 기기 2(320)가 제공하는 데이터를 이용하여 구성되는 서비스 화면이나 컨텐츠가 입출력 인터페이스(414)를 통해 디스플레이에 표시될 수 있다.The input/output interface 414 may be a means for an interface with the input/output device 415. For example, the input device may include a device such as a keyboard or mouse, and the output device may include a device such as a display. As another example, the input/output interface 414 may be a means for an interface with a device in which input and output functions are integrated into one, such as a touch screen. The input/output device 415 may be configured with the electronic device 1310 and one device. In addition, the input/output interface 424 of the server 350 may be a means for interface with a device (not shown) for input or output that is connected to the server 350 or that the server 350 may include. As a more specific example, the processor 412 of the electronic device 1 310 is configured by using data provided by the server 350 or the electronic device 2 320 in processing a command of a computer program loaded in the memory 411 The service screen or content to be displayed may be displayed on the display through the input/output interface 414.

또한, 다른 실시예들에서 전자 기기 1(310) 및 서버(350)는 도 4의 구성요소들보다 더 많은 구성요소들을 포함할 수도 있다. 그러나, 대부분의 종래기술적 구성요소들을 명확하게 도시할 필요성은 없다. 예를 들어, 전자 기기 1(310)은 상술한 입출력 장치(415) 중 적어도 일부를 포함하도록 구현되거나 또는 트랜시버(transceiver), GPS(Global Positioning System) 모듈, 카메라, 각종 센서, 데이터베이스 등과 같은 다른 구성요소들을 더 포함할 수도 있다. 보다 구체적인 예로, 전자 기기 1(310)이 스마트폰인 경우, 일반적으로 스마트폰이 포함하고 있는 가속도 센서나 자이로 센서, 카메라, 각종 물리적인 버튼, 터치패널을 이용한 버튼, 입출력 포트, 진동을 위한 진동기 등의 다양한 구성요소들이 전자 기기 1(310)에 더 포함되도록 구현될 수 있다.In addition, in other embodiments, the electronic device 1 310 and the server 350 may include more components than those of FIG. 4. However, there is no need to clearly show most of the prior art components. For example, the electronic device 1 310 may be implemented to include at least a portion of the input/output devices 415 described above, or other components such as a transceiver, a global positioning system (GPS) module, a camera, various sensors, and a database. It may also contain more elements. As a more specific example, when the electronic device 1 310 is a smartphone, an acceleration sensor or a gyro sensor, a camera, various physical buttons, a button using a touch panel, an input/output port, a vibrator for vibration generally included in a smartphone Various components such as may be implemented to be further included in the electronic device 1 310.

도 5는 본 발명의 일실시예에 있어서, 이미지 처리 방법의 전체 과정의 예를 설명하기 위한 예이다. 본 실시예에 따른 이미지 처리 시스템(500)은 입력된 이미지(510)를 처리하여 결과 이미지(520)를 제공하는 시스템으로서 앞서 설명한 전자 기기 1(310)이나 서버(350)에 구현될 수 있다. 이하에서는 전자 기기 1(310)에 구현된 이미지 처리 시스템(500)을 기준으로 본 실시예에 대해 설명한다.5 is an example for explaining an example of an entire process of an image processing method according to an embodiment of the present invention. The image processing system 500 according to the present embodiment is a system that provides a result image 520 by processing the input image 510, and may be implemented in the electronic device 1 310 or the server 350 described above. Hereinafter, the present embodiment will be described based on the image processing system 500 implemented in the electronic device 1 310.

입력 이미지(510)는 이미지 처리 시스템(500)으로 입력되는 이미지로, 이미지 처리 시스템(500)이 구현된 전자 기기 1(310)의 메모리나 영구 저장 장치에 저장된 이미지들 중 선택된 하나의 이미지이거나, 전자 기기 1(310)의 카메라를 통해 입력된 이미지이거나, 또는 전자 기기 1(310)의 통신 모듈(413)을 이용하여 네트워크(370)를 통해 전자 기기 1(310)이 수신한 이미지들 중 선택된 하나의 이미지일 수 있다.The input image 510 is an image input to the image processing system 500 and is one selected from images stored in a memory or a permanent storage device of the electronic device 1 310 in which the image processing system 500 is implemented, It is an image input through the camera of the electronic device 1 310 or selected from the images received by the electronic device 1 310 through the network 370 using the communication module 413 of the electronic device 1 310 It can be one image.

적용 영역 계산 알고리즘(530)은 입력 이미지(510)에서 이펙트를 적용할 영역을 계산하는 모듈일 수 있으며, 일례로 전자 기기 1(310)의 프로세서(412)가 입력 이미지(510)에서 이펙트를 적용할 영역을 계산하도록 전자 기기 1(310)을 제어하는 프로세서(412)의 기능적 표현일 수 있다. 예를 들어, 이미지 처리 방법을 컴퓨터에 실행시키기 위한 컴퓨터 프로그램은 적용 영역 계산 알고리즘(530)을 위한 프로그램 코드를 포함할 수 있으며, 프로세서(412)는 해당 프로그램 코드에 따른 제어 명령에 따라 입력 이미지(510)에서 이펙트를 적용할 영역을 계산하도록 전자 기기 1(310)을 제어할 수 있다. 보다 구체적인 예로, 입력 이미지(510)에 포함된 사람의 입술 영역에 '립스틱 제품 A를 바른 효과'를 가상으로 적용하기 위해, 프로세서(412)는 적용 영역 계산 알고리즘(530)이 제공하는 제어 명령에 따라 입력 이미지(510)에 포함된 사람의 입술 영역을 결정할 수 있다. 보다 구체적인 예로, 프로세서(412)는 이펙트를 적용하기 위한 입력 이미지(510) 상에서의 좌표를 계산할 수 있다.The application area calculation algorithm 530 may be a module that calculates an area to which an effect is to be applied from the input image 510. For example, the processor 412 of the electronic device 1 310 applies the effect from the input image 510 It may be a functional representation of the processor 412 that controls the electronic device 1 310 to calculate the to-do area. For example, a computer program for executing an image processing method on a computer may include a program code for the application area calculation algorithm 530, and the processor 412 may include an input image ( In 510, the electronic device 1 310 may be controlled to calculate an area to which the effect is to be applied. As a more specific example, in order to virtually apply the'effect of applying the lipstick product A'to the lips region of the person included in the input image 510, the processor 412 responds to a control command provided by the application region calculation algorithm 530. Accordingly, a region of a person's lips included in the input image 510 may be determined. As a more specific example, the processor 412 may calculate coordinates on the input image 510 for applying the effect.

디자인된 마스크 이미지(540)는 미리 제작된 마스크 이미지들 또는 입력 이미지(510)에 기반하여 레이어별로 생성된 마스크 이미지들을 포함할 수 있다. 입력 이미지(510)에 기반하여 마스크 이미지들을 생성하기 위해, 앞서 설명한 컴퓨터 프로그램은 마스크 이미지의 생성을 위한 프로그램 코드를 더 포함할 수 있으며, 프로세서(412)는 이러한 프로그램 코드에 따른 제어 명령에 따라 입력 이미지(510)에 기반하여 마스크 이미지들을 생성할 수 있다. 이때, 마스크 이미지들은 이후 설명될 룩업테이블을 적용하는 강도에 대한 정보를 포함할 수 있다. 이러한 마스크 이미지들에 대해서는 이후 더욱 자세히 설명한다.The designed mask image 540 may include mask images produced in advance or mask images generated for each layer based on the input image 510. In order to generate mask images based on the input image 510, the computer program described above may further include a program code for generating a mask image, and the processor 412 is input according to a control command according to the program code. Mask images may be generated based on the image 510. In this case, the mask images may include information on the intensity of applying the lookup table to be described later. These mask images will be described in more detail later.

적용 영역 선정 레이어드 마스크(550)는 적용 영역 계산 알고리즘(530)을 통해 계산된 적용 영역을 위한 디자인된 마스크 이미지(540)를 결합하여 레이어드 마스크 이미지를 생성하는 과정일 수 있다. 다시 말해, 적용 영역 선정 레이어드 마스크(550)는 레이어별로 생성된 마스크 이미지들 중 입력 이미지(510)에 적용될 마스크 이미지들을 결합하여 레이어드 마스크 이미지를 생성할 수 있다.The application region selection layered mask 550 may be a process of generating a layered mask image by combining the designed mask image 540 for the application region calculated through the application region calculation algorithm 530. In other words, the application area selection layered mask 550 may generate a layered mask image by combining mask images to be applied to the input image 510 among mask images generated for each layer.

이때, 적용 영역 선정 레이어드 마스크(550)는 단순히 마스크 이미지들을 결합하는 것이 아니라, 룩업테이블 리스트(560)를 통해 마스크 이미지들 각각마다 적용될 룩업테이블들을 선택하고, 선택된 룩업테이블들을 대응하는 마스크 이미지들에 적용할 수 있다. 룩업테이블 리스트(560)는 미리 제작된 다수의 룩업테이블들의 리스트일 수 있으며, 각각의 룩업테이블들은 품질을 향상시키거나 자원 사용을 줄이기 위해 그 크기를 다르게 적용하는 것이 가능하다. 일례로, 룩업테이블은 입력되는 이미지(일례로, 대응하는 마스크 이미지)의 RGB값을 입력 파라미터로 받아 입력된 RGB 값에 대해 지정된 출력 RGB 값을 결과로 산출하는 함수의 형태로 구현될 수 있다.At this time, the application region selection layered mask 550 does not simply combine mask images, but selects lookup tables to be applied to each of the mask images through the lookup table list 560, and uses the selected lookup tables to the corresponding mask images. Can be applied. The lookup table list 560 may be a list of a plurality of lookup tables prepared in advance, and each of the lookup tables may have different sizes to improve quality or reduce resource use. For example, the lookup table may be implemented in the form of a function that receives an RGB value of an input image (eg, a corresponding mask image) as an input parameter and calculates an output RGB value designated for the input RGB value as a result.

마스크 이미지별로 룩업테이블들이 선택되면, 레이어드 마스크 이미지에 포함된 각각의 마스크 이미지별로 룩업테이블을 적용하는 병합연산을 통해 결과 이미지(520)가 생성될 수 있다.When the lookup tables are selected for each mask image, a result image 520 may be generated through a merge operation in which the lookup table is applied to each mask image included in the layered mask image.

도 6은 본 발명의 일실시예에 있어서, 레이어드 마스크 이미지의 예를 도시한 도면이다. 이미지 처리 시스템(500)은 원본 이미지에 색상변화가 적용될 영역과 관련하여 해당 영역을 변화시키고자 하는 색상 테마에 따라 각각의 레이어들을 생성할 수 있다. 예를 들어, 이미지 처리 시스템(500)은 도 6에 도시된 바와 같이 마스크 이미지 1(mask image 1, 610)과 마스크 이미지 2(mask image 2, 620)를 결합하여 레이어드 마스크 이미지(layered mask image, 630)를 생성할 수 있다. 이때, 이미 설명한 바와 같이 마스크 이미지들(610, 620) 각각은 룩업테이블을 적용하는 강도에 대한 정보를 포함할 수 있다. 예를 들어, 도 6의 마스크 이미지들(610, 620)은 입력 이미지(510)의 분석에 따라 결정된 밝기의 정도를 위치별로 표현하고 있다. 이때, 룩업테이블은 동일한 좌표의 동일한 입력값에 대해 마스크 이미지의 동일한 좌표의 밝기의 정도에 따라 서로 다른 가중치가 적용되어 룩업테이블을 적용하는 강도가 조절될 수 있도록 생성될 수 있다. 구체적인 예로, 도 6의 마스크 이미지들(610, 620)은 입술모양의 외각으로 갈수록 밝기의 정도가 상대적으로 더 낮아지도록 생성되었고, 이에 따라 입술모양의 외각으로 갈수록 룩업테이블이 더 낮은 강도로 적용(출력값에 상대적으로 더 낮은 가중치가 부여됨)된 예를 나타내고 있다. 또한, 마스크 이미지 1(610)과 마스크 이미지 2(620)에는 각각 다른 룩업테이블이 적용될 수 있다. 따라서 이미지 영역에 따라 원하는 색상 변화를 적용하는 것이 가능해지며, 단일 마스크 이미지가 아닌 여러 가지 색상 변화(서로 다른 룩업테이블)를 적용할 수 있어서 리소스 관리에 효율적이고 빠른 속도로 결과 이미지를 생성할 수 있다.6 is a diagram illustrating an example of a layered mask image according to an embodiment of the present invention. The image processing system 500 may generate each layer according to a color theme in which the corresponding region is to be changed in relation to the region to which the color change is applied to the original image. For example, the image processing system 500 combines the mask image 1 (mask image 1, 610) and the mask image 2 (mask image 2, 620) as shown in FIG. 6 to provide a layered mask image. 630) can be created. In this case, as described above, each of the mask images 610 and 620 may include information on the intensity to which the lookup table is applied. For example, the mask images 610 and 620 of FIG. 6 express the degree of brightness determined by the analysis of the input image 510 for each location. In this case, the lookup table may be generated so that different weights are applied to the same input value of the same coordinates according to the brightness of the same coordinates of the mask image so that the intensity of applying the lookup table can be adjusted. As a specific example, the mask images 610 and 620 of FIG. 6 were created so that the degree of brightness became relatively lower toward the outer side of the lip shape, and accordingly, the lookup table was applied with a lower intensity toward the outer side of the lip shape ( A relatively lower weight is given to the output value). In addition, different lookup tables may be applied to the mask image 1 610 and the mask image 2 620, respectively. Therefore, it is possible to apply a desired color change according to the image area, and various color changes (different lookup tables) can be applied instead of a single mask image, so that the resulting image can be generated efficiently and quickly for resource management. .

도 7은 본 발명의 일실시예에 있어서, 입력 이미지에 레이어드 마스크 이미지를 적용하는 예를 도시한 도면이다. 도 7은 원본 이미지(Original Image, 710)의 색상과 입술 색상의 유사도를 계산하여 생성된 입술 색 마스크(Lip color mask, 720)와 원본 이미지의 색상에서 평균적인 얼굴 색상에 비해 상대적으로 더 밝은 부분을 하이라이트 마스크(Highlight Mask, 730)로 생성한 예를 나타내고 있다. 또한, 도 7은 입술 색 마스크(720)와 하이라이트 마스크(730)에 각각 서로 다른 룩업테이블을 적용하고 결합하여 레이어드 마스크 이미지를 생성하고, 생성된 레이어드 마스크 이미지를 원본 이미지(710)에 적용하여 결과 이미지(Result, 740)를 생성한 예를 나타내고 있다. 따라서 입력된 이미지에 따라 원하는 색상 변화를 적용할 수 있게 될 뿐만 아니라, 광원이나 환경 색상의 변화에도 자연스러운 결과 이미지를 제공할 수 있게 된다.7 is a diagram illustrating an example of applying a layered mask image to an input image according to an embodiment of the present invention. 7 shows a lip color mask 720 generated by calculating the similarity between the color of the original image 710 and the color of the lips, and a relatively brighter part of the color of the original image compared to the average face color Shows an example of creating a highlight mask (730). In addition, FIG. 7 is a result of applying and combining different lookup tables to the lip color mask 720 and the highlight mask 730 to generate a layered mask image, and applying the generated layered mask image to the original image 710. An example of generating an image (Result, 740) is shown. Therefore, not only can a desired color change be applied according to the input image, but also a natural result image can be provided to changes in light source or environmental color.

도 8은 본 발명의 일실시예에 있어서, 룩업테이블의 예를 도시한 도면이다. 룩업테이블은 원본 색상을 출력 색상으로 1:1 치환해주는 변환 테이블일 수 있으며, 조건(일례로, 특정 제품)에 따라 다양한 크기의 룩업테이블들을 미리 생성해놓을 수 있다. 예를 들어, 립스틱 제품 A에 대해 복수 개의 룩업테이블들이 미리 생성될 수 있다. 이때, 이미지 처리 시스템(500)은 원본 이미지가 입력되면, 도 7을 통해 설명한 바와 같이 원본 이미지에 따라 복수의 마스크 이미지들이 생성될 수 있고, 각각의 마스크 이미지들에 필요한 룩업테이블들을 각각 선택 및 적용하여 하나의 레이어드 마스크 이미지로 결합할 수 있다. 또한, 이미지 처리 시스템(500)은 도 8의 실시예에서와 같이 색상 변환이 적용될 영역의 중요도에 따라 차등적인 크기의 룩업테이블을 적용할 수 있다. 예를 들어, 상대적으로 중요도가 낮은 마스크 이미지의 경우에는 4×4×4 색상의 룩업테이블(810)을 적용하여 리소스 사용을 줄일 수 있고, 상대적으로 중요도가 높은 마스크 이미지의 경우에는 8×8×8 색상의 룩업테이블(820)을 적용하여 결과 이미지의 품질을 향상시킬 수 있다. 보다 구체적인 예로, 립스틱 제품 A에 대한 색상 큐브(830)로서 16×16×16 색상 크기의 룩업테이블이 미리 생성되면, 이미지 처리 시스템(500)은 미리 생성된 룩업테이블을 그대로 이용할 수도 있으며, 필요에 따라 미리 생성된 룩업테이블을 4×4×4 색상 크기의 룩업테이블이나 8×8×8 색상 크기의 룩업테이블로 변환하여 사용할 수도 있다. 이처럼 이미지 처리 시스템(500)은 개별적으로 미리 생성된 룩업테이블들을 활용될 수도 있고, 도 8에서와 같이 색상 큐브(cube)를 통해 필요한 크기의 룩업테이블들을 실시간으로 생성하여 활용할 수도 있다. 색상 큐브(cube)는 특정 조건(일례로 이펙트별로)에 따라 미리 생성될 수 있다.8 is a diagram illustrating an example of a lookup table in an embodiment of the present invention. The lookup table may be a conversion table that replaces the original color 1:1 with the output color, and lookup tables of various sizes may be created in advance according to conditions (for example, a specific product). For example, a plurality of lookup tables for lipstick product A may be generated in advance. At this time, when an original image is input, the image processing system 500 may generate a plurality of mask images according to the original image as described with reference to FIG. 7, and select and apply lookup tables required for each mask image, respectively. Thus, it can be combined into a single layered mask image. Also, as in the embodiment of FIG. 8, the image processing system 500 may apply a lookup table having a differential size according to the importance of a region to which color conversion is to be applied. For example, in the case of a mask image of relatively low importance, resource use can be reduced by applying a lookup table 810 of 4×4×4 colors, and for a mask image of relatively high importance, 8×8× The quality of the resulting image may be improved by applying the 8-color lookup table 820. As a more specific example, if a 16×16×16 color size lookup table is previously generated as the color cube 830 for lipstick product A, the image processing system 500 may use the previously generated lookup table as it is, and if necessary. Accordingly, the pre-generated lookup table may be converted into a lookup table having a color size of 4×4×4 or a lookup table having a color size of 8×8×8 and used. As described above, the image processing system 500 may utilize individually pre-generated lookup tables, or may generate and utilize lookup tables of a required size in real time through a color cube as shown in FIG. 8. Color cubes may be generated in advance according to specific conditions (for example, for each effect).

이처럼, 본 발명의 실시예들에 따르면, 기존 방법에 비해서 공간적으로 원하는 위치에 원하는 테마의 색상 변환 테이블인 룩업테이블을 적용함으로써 이미지의 각 부위에 대해 보다 자연스러운 변환이 가능하고, 미리 만들어진 색상 변환 테이블을 사용함으로써 계산량을 줄일 수 있으며, 적용할 위치에 중요도에 따라 색상 변환 테이블의 크기를 조절하여 메모리 공간을 효율적으로 사용할 수 있고, 상황에 따라 입력된 영상에서 적용되어야 할 색상 변환 테이블과 적용 강도를 실시간으로 계산하여, 환경의 변화나 조명의 변화에도 강인하고 자연스러운 모습의 결과 이미지를 생성할 수 있다. As described above, according to embodiments of the present invention, a more natural conversion is possible for each part of an image by applying a lookup table, which is a color conversion table of a desired theme, at a spatially desired location compared to the existing method, and a pre-made color conversion table The amount of calculation can be reduced by using, and memory space can be efficiently used by adjusting the size of the color conversion table according to the importance of the location to be applied, and the color conversion table and applied intensity to be applied in the input image depending on the situation. By calculating in real time, it is possible to create a result image that is robust and natural even to changes in environment or lighting.

도 9는 본 발명의 일실시예에 따른 이미지 처리 시스템이 포함하는 프로세서의 내부 구성의 예를 설명하기 위한 블록도이고, 도 10은 본 발명의 일실시예에 따른 이미지 처리 시스템이 수행할 수 있는 방법의 예를 도시한 흐름도이다. 도 9는 이미지 처리 시스템(500)의 프로세서(900)를 나타내고 있다. 이미 설명한 바와 같이 이미지 처리 시스템(500)은 전자 기기 1(310)이나 서버(350)에 구현될 수 있으며, 프로세서(900)는 전자 기기 1(110)의 프로세서(412)나 서버(350)의 프로세서(422)에 대응될 수 있다.9 is a block diagram illustrating an example of an internal configuration of a processor included in the image processing system according to an embodiment of the present invention, and FIG. 10 is a block diagram that can be performed by the image processing system according to an embodiment of the present invention. It is a flow chart showing an example of the method. 9 shows processor 900 of image processing system 500. As already described, the image processing system 500 may be implemented in the electronic device 1 310 or the server 350, and the processor 900 is the processor 412 of the electronic device 1 110 or the server 350. It may correspond to the processor 422.

이때, 프로세서(900)는 도 9에 도시된 바와 같이 마스크 이미지 관리부(910), 영역 계산부(920), 마스크 이미지 결정부(930), 룩업테이블 결정부(940), 레이어드 마스크 이미지 생성부(950) 및 결과 이미지 생성부(960)를 포함할 수 있다. 이러한 프로세서(900) 및 프로세서(900)의 구성요소들은 도 10의 이미지 처리 방법이 포함하는 단계들(1010 내지 1060)을 수행할 수 있다. 이때, 프로세서(900) 및 프로세서(900)의 구성요소들은 이미지 처리 시스템(500)의 메모리가 포함하는 운영체제의 코드나 적어도 하나의 컴퓨터 프로그램의 코드에 따른 명령(instruction)을 실행하도록 구현될 수 있다. 여기서 이미지 처리 시스템(500)의 메모리는 전자 기기 1(110)의 메모리(411)나 서버(350)의 메모리(421)에 대응될 수 있다.In this case, the processor 900 includes a mask image management unit 910, an area calculation unit 920, a mask image determination unit 930, a lookup table determination unit 940, and a layered mask image generation unit ( 950) and a result image generation unit 960. The processor 900 and components of the processor 900 may perform steps 1010 to 1060 included in the image processing method of FIG. 10. In this case, the processor 900 and the components of the processor 900 may be implemented to execute an instruction according to the code of the operating system included in the memory of the image processing system 500 or the code of at least one computer program. . Here, the memory of the image processing system 500 may correspond to the memory 411 of the electronic device 1110 or the memory 421 of the server 350.

또한, 프로세서(900)의 구성요소들은 이미지 처리 시스템(500)에 저장된 코드가 제공하는 제어 명령에 따라 프로세서(900)에 의해 수행되는 프로세서(900)의 서로 다른 기능들(different functions)의 표현들일 수 있다. 예를 들어, 프로세서(900)가 상술한 제어 명령에 따라 입력 이미지에서 특정 영역을 계산하는 프로세서(900)의 기능적 표현으로 영역 계산부(910)가 사용될 수 있다.In addition, the components of the processor 900 are expressions of different functions of the processor 900 performed by the processor 900 according to a control command provided by a code stored in the image processing system 500. I can. For example, the area calculation unit 910 may be used as a functional expression of the processor 900 in which the processor 900 calculates a specific area from an input image according to the above-described control command.

단계(1010)에서 마스크 이미지 관리부(910)는 복수의 이펙트들 각각마다 기 생성된 마스크 이미지들을 대응하는 이펙트와 연관하여 저장소에 저장 및 관리할 수 있다. 앞서 설명한 바와 같이, 마스크 이미지들은 이펙트별로 미리 생성되어 이미지 처리 시스템(500)의 저장소에 미리 저장 및 관리될 수 있다. 마스크 이미지 관리부(910)는 이러한 마스크 이미지들을 저장소에 저장하고 관리하는 역할을 처리할 수 있다. 만약, 다른 실시예에서 마스크 이미지가 실시간으로 생성되는 경우, 이러한 마스크 이미지 관리부(910)와 단계(1010)는 생략될 수 있다.In operation 1010, the mask image management unit 910 may store and manage mask images previously generated for each of the plurality of effects in a storage in association with a corresponding effect. As described above, mask images may be generated in advance for each effect, and may be stored and managed in advance in the storage of the image processing system 500. The mask image management unit 910 may perform a role of storing and managing such mask images in a storage. If, in another embodiment, a mask image is generated in real time, the mask image manager 910 and step 1010 may be omitted.

단계(1020)에서 영역 계산부(920)는 입력 이미지와 연관하여 결정된 이펙트를 입력 이미지에 적용하기 위해, 입력 이미지를 분석하여 이펙트를 적용하기 위한 영역을 계산할 수 있다. 이미 설명한 바와 같이 이미지 처리 시스템(500)은 전자 기기 1(310)이나 서버(350)에 구현될 수 있다. 전자 기기 1(310)에 이미지 처리 시스템(500)이 구현된 경우, 입력된 이미지는 전자 기기 1(310)에 기존에 저장되어 있던 이미지거나 전자 기기 1(310)의 카메라를 통해 입력되는 이미지거나 또는 전자 기기 1(310)이 통신 모듈(413)을 통해 수신한 이미지일 수 있다. 다른 실시예에서 서버(350)에 이미지 처리 시스템(500)이 구현된 경우, 입력된 이미지는 전자 기기 1(310)로부터 수신된 이미지일 수 있다. 다시 말해, 일실시예에 따르면, 전자 기기 1(310)에 구현된 이미지 처리 시스템(500)이 직접 입력된 이미지를 처리하여 결과 이미지를 전자 기기 1(310)을 통해 사용자에게 제공할 수 있다. 다른 실시예에 따르면, 전자 기기 1(310)이 서버(350)로 이미지를 전송하면, 서버(350)에 구현된 이미지 처리 시스템(500)이 서버(350)를 통해 입력된 이미지를 처리하여 결과 이미지를 생성하고, 생성된 결과 이미지를 전자 기기 1(310)로 전송할 수도 있다.In operation 1020, the region calculation unit 920 may analyze the input image and calculate a region for applying the effect by analyzing the input image in order to apply the effect determined in association with the input image to the input image. As already described, the image processing system 500 may be implemented in the electronic device 1 310 or the server 350. When the image processing system 500 is implemented in the electronic device 1 310, the input image may be an image previously stored in the electronic device 1 310 or an image input through the camera of the electronic device 1 310. Alternatively, the electronic device 1 310 may be an image received through the communication module 413. In another embodiment, when the image processing system 500 is implemented in the server 350, the input image may be an image received from the electronic device 1 310. In other words, according to an embodiment, the image processing system 500 implemented in the electronic device 1 310 may directly process an input image and provide a result image to the user through the electronic device 1 310. According to another embodiment, when the electronic device 1 310 transmits an image to the server 350, the image processing system 500 implemented in the server 350 processes the image input through the server 350 An image may be generated and the generated result image may be transmitted to the electronic device 1 310.

이때, 특정 이미지를 분석하여 원하는 영역을 구하는 것은 이미 잘 알려진 이미지 처리 기법들을 통해 당업자가 용이하게 이해할 수 있을 것이다. 한편, 본 발명의 일실시예에서 이펙트는 사용자의 전자 기기 1(110)이 포함하는 카메라를 통해 입력되는 사용자의 얼굴 이미지에 적용될 화장 이펙트들을 포함할 수 있다. 이러한 실시예에서 영역 계산부(920)는 사용자에 의해 선택되는 화장 이펙트들이 적용될 얼굴 이미지에서의 적어도 하나의 좌표를 계산함으로써 이펙트가 적용될 영역을 결정할 수 있다.In this case, analyzing a specific image to obtain a desired region may be easily understood by those skilled in the art through well-known image processing techniques. Meanwhile, in an embodiment of the present invention, the effect may include makeup effects to be applied to the user's face image input through a camera included in the user's electronic device 1 110. In this embodiment, the area calculator 920 may determine the area to which the effect is to be applied by calculating at least one coordinate in the face image to which the makeup effects selected by the user are applied.

단계(1030)에서 마스크 이미지 결정부(930)는 결정된 이펙트와 연관하여 계산된 영역에 적용될 복수의 마스크 이미지들을 결정할 수 있다.In operation 1030, the mask image determiner 930 may determine a plurality of mask images to be applied to the calculated area in association with the determined effect.

일실시예로, 마스크 이미지 결정부(930)는 단계(1010)에서 마스크 이미지 관리부(910)를 통해 저장소에 저장 및 관리되는 마스크 이미지들 중 결정된 이펙트와 연관된 마스크 이미지들을 추출할 수 있다. 보다 구체적인 예로, 전자 기기 1(310)에 이미지 처리 시스템(500)이 구현된 경우, 전자 기기 1(310)은 전자 기기 1(310)에 설치 및 구동된 어플리케이션의 제어에 따라 복수의 이펙트들 중 적어도 하나의 이펙트를 선택할 수 있는 사용자 인터페이스를 사용자에게 제공할 수 있다. 이때, 마스크 이미지 결정부(930)는 사용자가 사용자 인터페이스를 통해 선택한 이펙트와 연관되어 전자 기기 1(310)의 저장소로부터 추출할 수 있다. 만약, 이미지 처리 시스템(500)이 서버(350)에 구현된 경우, 이미지 처리 시스템(500)은 전자 기기 1(310)로부터 선택된 이펙트에 대한 정보를 수신할 수 있다. 이 경우, 마스크 이미지 결정부(930)는 수신된 정보에 따라 선택된 이펙트와 연관된 마스크 이미지들을 저장소로부터 추출할 수 있다.In an embodiment, the mask image determiner 930 may extract mask images associated with the determined effect from among mask images stored and managed in the storage through the mask image management unit 910 in operation 1010. As a more specific example, when the image processing system 500 is implemented in the electronic device 1 310, the electronic device 1 310 is among a plurality of effects according to the control of an application installed and driven in the electronic device 1 310. A user interface for selecting at least one effect may be provided to a user. In this case, the mask image determiner 930 may be associated with the effect selected by the user through the user interface and extracted from the storage of the electronic device 1310. If the image processing system 500 is implemented in the server 350, the image processing system 500 may receive information on the selected effect from the electronic device 1 310. In this case, the mask image determiner 930 may extract mask images associated with the selected effect from the storage according to the received information.

다른 실시예로, 마스크 이미지 결정부(930)는 결정된 이펙트에 따라 기설정된 색상 테마별로 서로 다른 레이어의 마스크 이미지들을 직접 생성할 수도 있다. 예를 들어, 특정 화장품과 관련된 화장 이펙트들을 적용하기 위해 다수의 색상 테마들이 미리 설정될 수 있고, 마스크 이미지 결정부(930)는 이러한 색상 테마별로 서로 다른 레이어를 위한 마스크 이미지들을 생성할 수 있다.In another embodiment, the mask image determiner 930 may directly generate mask images of different layers for each preset color theme according to the determined effect. For example, a plurality of color themes may be set in advance to apply makeup effects related to a specific cosmetic product, and the mask image determination unit 930 may generate mask images for different layers for each color theme.

단계(1040)에서 룩업테이블 결정부(940)는 결정된 복수의 마스크 이미지들 각각에 적용하기 위한 룩업테이블을 결정할 수 있다. 룩업테이블은 대응하는 마스크 이미지의 좌표별 색상값을 입력 파라미터로 입력 받아 입력된 색상값에 대해 지정된 색상값을 결과로 산출하는 함수를 포함할 수 있다.In operation 1040, the lookup table determiner 940 may determine a lookup table to be applied to each of the determined mask images. The lookup table may include a function that receives a color value for each coordinate of a corresponding mask image as an input parameter and calculates a color value designated for the input color value as a result.

또한, 실시예에 따라 복수의 마스크 이미지들 각각은 입력 이미지의 대응하는 좌표의 밝기에 따른 가중치 정보를 대응하는 좌표별로 포함할 수 있다. 예를 들어, 도 6 및 도 7에서는 마스크 이미지가 좌표별 밝기를 포함하고 있음을 나타내고 있다. 이러한 마스크 이미지에 설정된 좌표별 밝기는 입력 이미지의 좌표별 밝기에 대응할 수 있고, 이러한 좌표별 밝기가 가중치 정보로서 활용될 수 있다. 예를 들어, 룩업테이블은 대응하는 마스크 이미지의 좌표별 색상값 및 좌표별 가중치 정보를 입력 파라미터로 입력받을 수 있다. 이 경우, 룩업테이블은 입력된 색상값에 대해 지정된 색상값을 결과로 산출하되, 상기 가중치 정보에 따라 산출되는 색상값의 밝기를 조절하여 산출하는 함수를 포함할 수 있다. 따라서 서로 다른 마스크 이미지들에 서로 다른 룩업테이블이 적용될 수 있을 뿐만 아니라, 서로 다른 룩업테이블을 통해 출력되는 서로 다른 색상들의 밝기까지 마스크 이미지의 좌표별로 제어가 가능해진다.In addition, according to an embodiment, each of the plurality of mask images may include weight information according to brightness of corresponding coordinates of the input image for each corresponding coordinate. For example, in FIGS. 6 and 7, it is shown that the mask image includes brightness for each coordinate. The brightness for each coordinate set in the mask image may correspond to the brightness for each coordinate of the input image, and the brightness for each coordinate may be used as weight information. For example, the lookup table may receive color values for each coordinate of a corresponding mask image and weight information for each coordinate as input parameters. In this case, the lookup table may include a function that calculates a color value designated for the input color value as a result, and calculates by adjusting the brightness of the color value calculated according to the weight information. Therefore, not only can different lookup tables be applied to different mask images, but also brightness of different colors output through different lookup tables can be controlled by coordinates of the mask image.

또한 이미 설명한 바와 같이, 룩업테이블의 색상 크기는 마스크 이미지가 입력 이미지에 적용될 위치에 따른 중요도에 따라 결정될 수 있다. 예를 들어, 룩업테이블 결정부(940)는 제1 마스크 이미지가 입력 이미지에 적용될 위치에 따른 중요도를 계산하고, 계산된 중요도에 따라 결정되는 색상 크기의 룩업테이블을 제1 마스크 이미지에 대응하여 결정할 수 있다. 보다 구체적인 예로, 도 7에서 설명한 립스틱 이펙트와 관련하여 입술 영역의 색상과 관련된 입술 색 마스크(720)가 적용될 원본 이미지(710)의 위치는 입술과 입술 주변의 하이라이트 마스크(730)가 적용될 원본 이미지(710)의 위치보다 상대적으로 중요도가 더 높다고 판단될 수 있다. 이때, 입술 색 마스크(720)에 적용될 제1 룩업테이블의 색상 크기는 하이라이트 마스크(730)에 적용될 제2 룩업테이블의 색상 크기보다 상대적으로 더 크게 결정될 수 있다. 보다 구체적인 예로, 입술 색 마스크(720)에는 8×8×8 색상 크기의 제1 룩업테이블이, 하이라이트 마스크(730)에는 4×4×4 색상 크기의 제2 룩업테이블이 각각 적용될 수 있다. Also, as already described, the color size of the lookup table may be determined according to the importance according to the position to which the mask image is applied to the input image. For example, the lookup table determination unit 940 calculates the importance according to the position where the first mask image is to be applied to the input image, and determines a lookup table of the color size determined according to the calculated importance corresponding to the first mask image. I can. As a more specific example, in relation to the lipstick effect described in FIG. 7, the position of the original image 710 to which the lip color mask 720 related to the color of the lip region is applied is the original image to which the lip and the highlight mask 730 around the lips is applied ( It may be determined that the importance is relatively higher than the location of 710). In this case, the color size of the first lookup table to be applied to the lip color mask 720 may be determined to be relatively larger than the color size of the second lookup table to be applied to the highlight mask 730. As a more specific example, a first lookup table having a color size of 8×8×8 may be applied to the lip color mask 720 and a second lookup table having a color size of 4×4×4 may be applied to the highlight mask 730, respectively.

단계(1050)에서 레이어드 마스크 이미지 생성부(950)는 복수의 마스크 이미지들 각각에 대응하는 룩업테이블을 적용하고, 룩업테이블이 적용된 복수의 마스크 이미지들을 결합하여 레이어드 마스크 이미지를 생성할 수 있다. 이러한 레이어드 마스크 이미지는 도 6을 통해 이미 설명한 바 있다. In operation 1050, the layered mask image generator 950 may generate a layered mask image by applying a lookup table corresponding to each of the plurality of mask images and combining the plurality of mask images to which the lookup table is applied. Such a layered mask image has already been described with reference to FIG. 6.

단계(1060)에서 결과 이미지 생성부(960)는 생성된 레이어드 마스크 이미지를 계산된 영역에 적용하여 결과 이미지를 생성할 수 있다. 이처럼, 단순히 이펙트에 따라 미리 생성된 이미지를 입력된 이미지에 적용하는 것이 아니라, 색상 테마에 따라 서로 다른 복수의 마스크 이미지들 결합하여 활용함으로써, 입력 이미지의 영역에 따라 원하는 색상 변화를 적용할 수 있다. 또한, 원본 이미지에 적용할 위치의 중요도에 따라 룩업테이블을 선택하여 활용함으로써 계산량을 줄일 수 있을 뿐만 아니라, 원본 이미지에 나타난 상황에 따라 이미지에 적용되어야 할 룩업테이블을 레이어별로 결정함으로써, 환경의 변화나 조명의 변화에도 자연스러운 이미지 처리를 가능하게 할 수 있다.In operation 1060, the resultant image generator 960 may generate a resultant image by applying the generated layered mask image to the calculated area. In this way, a desired color change can be applied according to the area of the input image by combining and using a plurality of mask images different from each other according to the color theme, rather than simply applying a pre-generated image according to the effect to the input image. . In addition, by selecting and utilizing the lookup table according to the importance of the position to be applied to the original image, it is possible to reduce the amount of calculation, and by determining the lookup table to be applied to the image by layer according to the situation in the original image, changes in the environment I can enable natural image processing even with changes in lighting.

이상에서 설명된 시스템 또는 장치는 하드웨어 구성요소, 소프트웨어 구성요소 또는 하드웨어 구성요소 및 소프트웨어 구성요소의 조합으로 구현될 수 있다. 예를 들어, 실시예들에서 설명된 장치 및 구성요소는, 예를 들어, 프로세서, 콘트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPGA(field programmable gate array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 하나 이상의 범용 컴퓨터 또는 특수 목적 컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 상기 운영 체제 상에서 수행되는 하나 이상의 소프트웨어 어플리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다. 이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 콘트롤러를 포함할 수 있다. 또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.The system or device described above may be implemented as a hardware component, a software component, or a combination of a hardware component and a software component. For example, the devices and components described in the embodiments are, for example, a processor, a controller, an arithmetic logic unit (ALU), a digital signal processor, a microcomputer, a field programmable gate array (FPGA). , A programmable logic unit (PLU), a microprocessor, or any other device capable of executing and responding to instructions, such as one or more general purpose computers or special purpose computers. The processing device may execute an operating system (OS) and one or more software applications executed on the operating system. In addition, the processing device may access, store, manipulate, process, and generate data in response to the execution of software. For the convenience of understanding, although it is sometimes described that one processing device is used, one of ordinary skill in the art, the processing device is a plurality of processing elements and/or a plurality of types of processing elements. It can be seen that it may include. For example, the processing device may include a plurality of processors or one processor and one controller. In addition, other processing configurations are possible, such as a parallel processor.

소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상 장치(virtual equipment), 컴퓨터 저장 매체 또는 장치에 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.The software may include a computer program, code, instructions, or a combination of one or more of these, configuring the processing unit to behave as desired or processed independently or collectively. You can command the device. Software and/or data may be interpreted by a processing device or to provide instructions or data to a processing device, of any type of machine, component, physical device, virtual equipment, computer storage medium or device. Can be embodyed in The software may be distributed over networked computer systems and stored or executed in a distributed manner. Software and data may be stored on one or more computer-readable recording media.

실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다.The method according to the embodiment may be implemented in the form of program instructions that can be executed through various computer means and recorded in a computer-readable medium. The computer-readable medium may include program instructions, data files, data structures, and the like alone or in combination. The program instructions recorded on the medium may be specially designed and configured for the embodiment, or may be known and usable to those skilled in computer software. Examples of computer-readable recording media include magnetic media such as hard disks, floppy disks, and magnetic tapes, optical media such as CD-ROMs and DVDs, and magnetic media such as floptical disks. -A hardware device specially configured to store and execute program instructions such as magneto-optical media, and ROM, RAM, flash memory, and the like. Examples of the program instructions include not only machine language codes such as those produced by a compiler, but also high-level language codes that can be executed by a computer using an interpreter or the like.

이상과 같이 실시예들이 비록 한정된 실시예와 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기의 기재로부터 다양한 수정 및 변형이 가능하다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.As described above, although the embodiments have been described by the limited embodiments and drawings, various modifications and variations are possible from the above description by those of ordinary skill in the art. For example, the described techniques are performed in a different order from the described method, and/or components such as a system, structure, device, circuit, etc. described are combined or combined in a form different from the described method, or other components Alternatively, even if substituted or substituted by an equivalent, an appropriate result can be achieved.

그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 특허청구범위의 범위에 속한다.Therefore, other implementations, other embodiments, and claims and equivalents fall within the scope of the claims to be described later.

Claims (20)

컴퓨터와 결합되어 이미지 처리 방법을 컴퓨터에 실행시키기 위해 컴퓨터 판독 가능한 기록매체에 저장된 컴퓨터 프로그램에 있어서,
상기 이미지 처리 방법은,
입력 이미지를 분석하여 이펙트를 적용하기 위한 영역을 계산하는 단계;
상기 이펙트의 적용을 위한 서로 다른 레이어의 복수의 마스크 이미지들을 결정하는 단계;
상기 계산된 영역의 적어도 하나의 좌표에 대해 적어도 둘 이상의 마스크 이미지들이 서로 다른 가중치를 갖도록 상기 복수의 마스크 이미지들 각각의 좌표별 가중치를 결정하는 단계;
상기 복수의 마스크 이미지들 각각에 적용하기 위한 룩업테이블을 결정하는 단계;
상기 복수의 마스크 이미지들 각각에 대응하는 룩업테이블을 적용하되, 상기 좌표별 가중치에 따라 상기 적어도 둘 이상의 마스크 이미지들에 서로 다른 강도로 룩업테이블을 적용하는 단계;
상기 룩업테이블이 적용된 복수의 마스크 이미지들을 상기 계산된 영역에 상기 이펙트를 적용하기 위한 하나의 이미지로서 결합하여 레이어드 마스크 이미지를 생성하는 단계; 및
상기 생성된 레이어드 마스크 이미지를 상기 계산된 영역에 적용하여 결과 이미지를 생성하는 단계
를 포함하는 것을 특징으로 하는 컴퓨터 프로그램.
In a computer program stored in a computer-readable recording medium for executing an image processing method on a computer in combination with a computer,
The image processing method,
Analyzing the input image and calculating an area for applying the effect;
Determining a plurality of mask images of different layers for applying the effect;
Determining a weight for each coordinate of each of the plurality of mask images such that at least two or more mask images have different weights for at least one coordinate of the calculated area;
Determining a lookup table to be applied to each of the plurality of mask images;
Applying a lookup table corresponding to each of the plurality of mask images, and applying a lookup table with different intensities to the at least two mask images according to the weights for each coordinate;
Generating a layered mask image by combining the plurality of mask images to which the lookup table is applied as one image for applying the effect to the calculated area; And
Generating a result image by applying the generated layered mask image to the calculated area
Computer program comprising a.
제1항에 있어서,
상기 이미지 처리 방법은,
복수의 이펙트들 각각마다 기 생성된 마스크 이미지들을 대응하는 이펙트와 연관하여 저장소에 저장 및 관리하는 단계
를 더 포함하고,
상기 복수의 마스크 이미지들을 결정하는 단계는,
상기 결정된 이펙트와 연관되어 저장된 마스크 이미지들을 상기 저장소에서 추출하는 것을 특징으로 하는 컴퓨터 프로그램.
The method of claim 1,
The image processing method,
Step of storing and managing mask images previously generated for each of a plurality of effects in a storage in association with a corresponding effect
Including more,
Determining the plurality of mask images,
And extracting mask images stored in association with the determined effect from the storage.
제1항에 있어서,
상기 복수의 마스크 이미지들을 결정하는 단계는,
상기 이펙트에 따라 기설정된 색상 테마별로 서로 다른 레이어의 마스크 이미지들을 생성하는 것을 특징으로 하는 컴퓨터 프로그램.
The method of claim 1,
Determining the plurality of mask images,
And generating mask images of different layers for each preset color theme according to the effect.
제1항에 있어서,
상기 룩업테이블은 대응하는 마스크 이미지의 좌표별 색상값을 입력 파라미터로 입력 받아 입력된 색상값에 대해 지정된 색상값을 결과로 산출하는 함수를 포함하는 것을 특징으로 하는 컴퓨터 프로그램.
The method of claim 1,
And the lookup table includes a function that receives a color value for each coordinate of a corresponding mask image as an input parameter and calculates a color value designated for the input color value as a result.
제1항에 있어서,
상기 룩업테이블을 결정하는 단계는,
제1 마스크 이미지가 상기 입력 이미지에 적용될 위치에 따른 중요도를 계산하고, 상기 계산된 중요도에 따라 결정되는 색상 크기의 룩업테이블을 상기 제1 마스크 이미지에 대응하여 결정하는 것을 특징으로 하는 컴퓨터 프로그램.
The method of claim 1,
The step of determining the lookup table,
A computer program, comprising: calculating an importance level according to a position where a first mask image is to be applied to the input image, and determining a lookup table of a color size determined according to the calculated importance level corresponding to the first mask image.
제1항에 있어서,
상기 복수의 마스크 이미지들 각각은 상기 입력 이미지의 대응하는 좌표의 밝기에 따른 가중치 정보를 대응하는 좌표별로 포함하는 것을 특징으로 하는 컴퓨터 프로그램.
The method of claim 1,
Each of the plurality of mask images includes weight information according to brightness of a corresponding coordinate of the input image for each corresponding coordinate.
제6항에 있어서,
상기 가중치 정보는 상기 마스크 이미지의 좌표별 밝기를 통해 상기 마스크 이미지에 설정되는 것을 특징으로 하는 컴퓨터 프로그램.
The method of claim 6,
The weight information is set in the mask image through the brightness of each coordinate of the mask image.
제6항에 있어서,
상기 룩업테이블은 대응하는 마스크 이미지의 좌표별 색상값 및 좌표별 가중치 정보를 입력 파라미터로 입력 받아 입력된 색상값에 대해 지정된 색상값을 결과로 산출하되, 상기 가중치 정보에 따라 산출되는 색상값의 밝기를 조절하여 산출하는 함수를 포함하는 것을 특징으로 하는 컴퓨터 프로그램.
The method of claim 6,
The lookup table receives color values for each coordinate of a corresponding mask image and weight information for each coordinate as an input parameter, and calculates a color value designated for the input color value as a result, and the brightness of the color value calculated according to the weight information Computer program, characterized in that it comprises a function for calculating by adjusting.
제1항에 있어서,
상기 이펙트는 사용자의 전자 기기가 포함하는 카메라를 통해 입력되는 상기 사용자의 얼굴 이미지에 적용될 화장 이펙트들을 포함하고,
상기 이펙트를 적용하기 위한 영역을 계산하는 단계는,
상기 사용자에 의해 선택되는 화장 이펙트들이 적용될 상기 얼굴 이미지에서의 적어도 하나의 좌표를 계산하는 것을 특징으로 하는 컴퓨터 프로그램.
The method of claim 1,
The effect includes makeup effects to be applied to the user's face image input through a camera included in the user's electronic device,
The step of calculating an area for applying the effect,
A computer program, characterized in that calculating at least one coordinate in the face image to which the makeup effects selected by the user are to be applied.
이미지 처리 방법에 있어서,
입력 이미지를 분석하여 이펙트를 적용하기 위한 영역을 계산하는 단계;
상기 이펙트의 적용을 위한 서로 다른 레이어의 복수의 마스크 이미지들을 결정하는 단계;
상기 계산된 영역의 적어도 하나의 좌표에 대해 적어도 둘 이상의 마스크 이미지들이 서로 다른 가중치를 갖도록 상기 복수의 마스크 이미지들 각각의 좌표별 가중치를 결정하는 단계;
상기 복수의 마스크 이미지들 각각에 적용하기 위한 룩업테이블을 결정하는 단계;
상기 복수의 마스크 이미지들 각각에 대응하는 룩업테이블을 적용하되, 상기 좌표별 가중치에 따라 상기 적어도 둘 이상의 마스크 이미지들에 서로 다른 강도로 룩업테이블을 적용하는 단계;
상기 룩업테이블이 적용된 복수의 마스크 이미지들을 상기 계산된 영역에 상기 이펙트를 적용하기 위한 하나의 이미지로서 결합하여 레이어드 마스크 이미지를 생성하는 단계; 및
상기 생성된 레이어드 마스크 이미지를 상기 계산된 영역에 적용하여 결과 이미지를 생성하는 단계
를 포함하는 것을 특징으로 하는 이미지 처리 방법.
In the image processing method,
Analyzing the input image and calculating an area for applying the effect;
Determining a plurality of mask images of different layers for applying the effect;
Determining a weight for each coordinate of each of the plurality of mask images such that at least two or more mask images have different weights for at least one coordinate of the calculated area;
Determining a lookup table to be applied to each of the plurality of mask images;
Applying a lookup table corresponding to each of the plurality of mask images, and applying a lookup table with different intensities to the at least two mask images according to the weights for each coordinate;
Generating a layered mask image by combining the plurality of mask images to which the lookup table is applied as one image for applying the effect to the calculated area; And
Generating a result image by applying the generated layered mask image to the calculated area
Image processing method comprising a.
제10항에 있어서,
복수의 이펙트들 각각마다 기 생성된 마스크 이미지들을 대응하는 이펙트와 연관하여 저장소에 저장 및 관리하는 단계
를 더 포함하고,
상기 복수의 마스크 이미지들을 결정하는 단계는,
상기 결정된 이펙트와 연관되어 저장된 마스크 이미지들을 상기 저장소에서 추출하는 것을 특징으로 하는 이미지 처리 방법.
The method of claim 10,
Step of storing and managing mask images previously generated for each of a plurality of effects in a storage in association with a corresponding effect
Including more,
Determining the plurality of mask images,
And extracting mask images stored in association with the determined effect from the storage.
제10항에 있어서,
상기 복수의 마스크 이미지들을 결정하는 단계는,
상기 이펙트에 따라 기설정된 색상 테마별로 서로 다른 레이어의 마스크 이미지들을 생성하는 것을 특징으로 하는 이미지 처리 방법.
The method of claim 10,
Determining the plurality of mask images,
And generating mask images of different layers for each preset color theme according to the effect.
제10항에 있어서,
상기 룩업테이블은 대응하는 마스크 이미지의 좌표별 색상값을 입력 파라미터로 입력 받아 입력된 색상값에 대해 지정된 색상값을 결과로 산출하는 함수를 포함하는 것을 특징으로 하는 이미지 처리 방법.
The method of claim 10,
And the lookup table includes a function that receives a color value for each coordinate of a corresponding mask image as an input parameter and calculates a color value designated for the input color value as a result.
제10항에 있어서,
상기 룩업테이블을 결정하는 단계는,
제1 마스크 이미지가 상기 입력 이미지에 적용될 위치에 따른 중요도를 계산하고, 상기 계산된 중요도에 따라 결정되는 색상 크기의 룩업테이블을 상기 제1 마스크 이미지에 대응하여 결정하는 것을 특징으로 하는 이미지 처리 방법.
The method of claim 10,
The step of determining the lookup table,
And calculating an importance according to a position to which a first mask image is to be applied to the input image, and determining a lookup table of a color size determined according to the calculated importance corresponding to the first mask image.
제10항에 있어서,
상기 복수의 마스크 이미지들 각각은 상기 입력 이미지의 대응하는 좌표의 밝기에 따른 가중치 정보를 대응하는 좌표별로 포함하는 것을 특징으로 하는 이미지 처리 방법.
The method of claim 10,
And each of the plurality of mask images includes weight information according to brightness of a corresponding coordinate of the input image for each corresponding coordinate.
제15항에 있어서,
상기 가중치 정보는 상기 마스크 이미지의 좌표별 밝기를 통해 상기 마스크 이미지에 설정되는 것을 특징으로 하는 이미지 처리 방법.
The method of claim 15,
The weight information is set in the mask image through brightness of each coordinate of the mask image.
제15항에 있어서,
상기 룩업테이블은 대응하는 마스크 이미지의 좌표별 색상값 및 좌표별 가중치 정보를 입력 파라미터로 입력 받아 입력된 색상값에 대해 지정된 색상값을 결과로 산출하되, 상기 가중치 정보에 따라 산출되는 색상값의 밝기를 조절하여 산출하는 함수를 포함하는 것을 특징으로 하는 이미지 처리 방법.
The method of claim 15,
The lookup table receives color values for each coordinate of a corresponding mask image and weight information for each coordinate as an input parameter, and calculates a color value designated for the input color value as a result, and the brightness of the color value calculated according to the weight information An image processing method comprising a function that calculates by adjusting.
이미지 처리 방법을 실행하는 이미지 처리 시스템에 있어서,
컴퓨터 판독 가능한 명령을 실행하도록 구현되는 적어도 하나의 프로세서
를 포함하고,
상기 적어도 하나의 프로세서는,
입력 이미지를 분석하여 이펙트를 적용하기 위한 영역을 계산하고,
상기 이펙트의 적용을 위한 서로 다른 레이어의 복수의 마스크 이미지들을 결정하고,
상기 계산된 영역의 적어도 하나의 좌표에 대해 적어도 둘 이상의 마스크 이미지들이 서로 다른 가중치를 갖도록 상기 복수의 마스크 이미지들 각각의 좌표별 가중치를 결정하고,
상기 복수의 마스크 이미지들 각각에 적용하기 위한 룩업테이블을 결정하고,
상기 복수의 마스크 이미지들 각각에 대응하는 룩업테이블을 적용하되, 상기 좌표별 가중치에 따라 상기 적어도 둘 이상의 마스크 이미지들에 서로 다른 강도로 룩업테이블을 적용하고,
상기 룩업테이블이 적용된 복수의 마스크 이미지들을 상기 계산된 영역에 상기 이펙트를 적용하기 위한 하나의 이미지로서 결합하여 레이어드 마스크 이미지를 생성하고,
상기 생성된 레이어드 마스크 이미지를 상기 계산된 영역에 적용하여 결과 이미지를 생성하는 것
을 특징으로 하는 이미지 처리 시스템.
In the image processing system for executing the image processing method,
At least one processor implemented to execute computer readable instructions
Including,
The at least one processor,
Analyze the input image to calculate the area for applying the effect,
Determining a plurality of mask images of different layers for applying the effect,
Determining a weight for each coordinate of each of the plurality of mask images such that at least two or more mask images have different weights for at least one coordinate of the calculated area,
Determining a lookup table to be applied to each of the plurality of mask images,
Applying a lookup table corresponding to each of the plurality of mask images, and applying a lookup table with different intensities to the at least two mask images according to the weight for each coordinate,
A layered mask image is generated by combining a plurality of mask images to which the lookup table is applied as one image for applying the effect to the calculated area,
Applying the generated layered mask image to the calculated area to generate a result image
Image processing system, characterized in that.
제18항에 있어서,
상기 복수의 마스크 이미지들 각각은 상기 입력 이미지의 대응하는 좌표의 밝기에 따른 가중치 정보를 대응하는 좌표별로 포함하는 것을 특징으로 하는 이미지 처리 시스템.
The method of claim 18,
Each of the plurality of mask images includes weight information according to brightness of corresponding coordinates of the input image for each corresponding coordinate.
제19항에 있어서,
상기 가중치 정보는 상기 마스크 이미지의 좌표별 밝기를 통해 상기 마스크 이미지에 설정되고,
상기 룩업테이블은 대응하는 마스크 이미지의 좌표별 색상값 및 좌표별 가중치 정보를 입력 파라미터로 입력 받아 입력된 색상값에 대해 지정된 색상값을 결과로 산출하되, 상기 가중치 정보에 따라 산출되는 색상값의 밝기를 조절하여 산출하는 함수를 포함하는 것을 특징으로 하는 이미지 처리 시스템.
The method of claim 19,
The weight information is set in the mask image through the brightness of each coordinate of the mask image,
The lookup table receives color values for each coordinate of a corresponding mask image and weight information for each coordinate as an input parameter, and calculates a color value designated for the input color value as a result, and the brightness of the color value calculated according to the weight information An image processing system comprising a function for calculating by adjusting.
KR1020180108481A 2018-09-11 2018-09-11 Method and system for processing image using lookup table and layered mask KR102160092B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020180108481A KR102160092B1 (en) 2018-09-11 2018-09-11 Method and system for processing image using lookup table and layered mask

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020180108481A KR102160092B1 (en) 2018-09-11 2018-09-11 Method and system for processing image using lookup table and layered mask

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
KR1020160176905A Division KR101899685B1 (en) 2016-09-01 2016-12-22 Method and system for processing image using lookup table and layered mask

Publications (2)

Publication Number Publication Date
KR20180103037A KR20180103037A (en) 2018-09-18
KR102160092B1 true KR102160092B1 (en) 2020-09-25

Family

ID=63718417

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180108481A KR102160092B1 (en) 2018-09-11 2018-09-11 Method and system for processing image using lookup table and layered mask

Country Status (1)

Country Link
KR (1) KR102160092B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102593156B1 (en) 2023-08-23 2023-10-24 이효원 Photo Correction Device and Driving Method Thereof

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11335088B2 (en) * 2020-03-30 2022-05-17 Snap Inc. Augmented reality item collections
KR20220161461A (en) * 2020-03-31 2022-12-06 스냅 인코포레이티드 Augmented Reality Experiences for Physical Products in Messaging Systems

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0187133A2 (en) 1984-12-24 1986-07-09 Polaroid Corporation Thermal recording medium and method
JP2003219191A (en) * 2002-01-21 2003-07-31 Sharp Corp Image processor and image forming apparatus comprising it
JP2003259213A (en) * 2002-02-28 2003-09-12 Sanyo Electric Co Ltd Image processor and image processing method
JP2004007202A (en) * 2002-05-31 2004-01-08 Fuji Photo Film Co Ltd Image processor
US20050035976A1 (en) 2003-06-26 2005-02-17 Canon Kabushiki Kaisha Antialiasing compositing in graphic object rendering

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CA1258319A (en) * 1985-07-26 1989-08-08 Milton J. Kimmel Configurable parallel pipeline image processing system
EP0850462B1 (en) * 1995-08-04 2006-10-04 Microsoft Corporation Method and system for rendering graphical objects to image chunks and combining image layers into a display image
US7302111B2 (en) * 2001-09-12 2007-11-27 Micronic Laser Systems A.B. Graphics engine for high precision lithography
EP2873240A1 (en) * 2012-07-13 2015-05-20 Huawei Technologies Co., Ltd. Apparatus for coding a bit stream representing a three-dimensional video
KR20140095739A (en) * 2013-01-25 2014-08-04 한국전자통신연구원 Method for virtual makeup and apparatus therefor

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0187133A2 (en) 1984-12-24 1986-07-09 Polaroid Corporation Thermal recording medium and method
JP2003219191A (en) * 2002-01-21 2003-07-31 Sharp Corp Image processor and image forming apparatus comprising it
JP2003259213A (en) * 2002-02-28 2003-09-12 Sanyo Electric Co Ltd Image processor and image processing method
JP2004007202A (en) * 2002-05-31 2004-01-08 Fuji Photo Film Co Ltd Image processor
US20050035976A1 (en) 2003-06-26 2005-02-17 Canon Kabushiki Kaisha Antialiasing compositing in graphic object rendering

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
중요도 지도에 기반한 관심 영역 비디오 압축, 2014년도 한국방송공학회 추계 학술대회(2014)*

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102593156B1 (en) 2023-08-23 2023-10-24 이효원 Photo Correction Device and Driving Method Thereof
KR102627785B1 (en) 2023-08-23 2024-01-19 이효원 Photo Correction Device and Driving Method Thereof

Also Published As

Publication number Publication date
KR20180103037A (en) 2018-09-18

Similar Documents

Publication Publication Date Title
US10437541B2 (en) Graphics engine and environment for efficient real time rendering of graphics that are not pre-known
KR102160092B1 (en) Method and system for processing image using lookup table and layered mask
US11087430B2 (en) Customizable render pipelines using render graphs
KR101989089B1 (en) Method and system for authoring ar content by collecting ar content templates based on crowdsourcing
US20150348316A1 (en) Equivalent Lighting For Mixed 2D and 3D Scenes
US20210398331A1 (en) Method for coloring a target image, and device and computer program therefor
KR102199735B1 (en) Method and system for sharing effects for video
US11094036B2 (en) Task execution on a graphics processor using indirect argument buffers
US11887229B2 (en) Method and system for populating a digital environment using a semantic map
US20190385344A1 (en) Applying colors on textures
EP3137993B1 (en) Combining compute tasks for a graphics processing unit
WO2016200738A1 (en) Graphics engine and environment for encapsulating graphics libraries and hardware
US20150348315A1 (en) Dynamic Lighting Effects For Textures Without Normal Maps
CN111583379A (en) Rendering method and device of virtual model, storage medium and electronic equipment
CN114669047B (en) Image processing method, electronic equipment and storage medium
JP6820160B2 (en) Programs and systems that render images
Wang et al. Computer vision accelerators for mobile systems based on opencl gpgpu co-processing
KR102551914B1 (en) Method and system for generating interactive object viewer
US10888777B2 (en) Deep learning from real world and digital exemplars
KR20150130307A (en) Graphics processing using multiple primitives
KR101899685B1 (en) Method and system for processing image using lookup table and layered mask
CN113419806B (en) Image processing method, device, computer equipment and storage medium
Kumar et al. Using flutter to develop a hybrid application of augmented reality
CN112346579A (en) Pointing and interaction control device for large-scale desktop model
US20190311424A1 (en) Product visualization system and method for using two-dimensional images to interactively display photorealistic representations of three-dimensional objects based on smart tagging

Legal Events

Date Code Title Description
A107 Divisional application of patent
A201 Request for examination
E902 Notification of reason for refusal
AMND Amendment
E601 Decision to refuse application
AMND Amendment
J201 Request for trial against refusal decision
J301 Trial decision

Free format text: TRIAL NUMBER: 2019101002421; TRIAL DECISION FOR APPEAL AGAINST DECISION TO DECLINE REFUSAL REQUESTED 20190718

Effective date: 20200611

GRNO Decision to grant (after opposition)
GRNT Written decision to grant