KR102160092B1 - Method and system for processing image using lookup table and layered mask - Google Patents
Method and system for processing image using lookup table and layered mask Download PDFInfo
- Publication number
- KR102160092B1 KR102160092B1 KR1020180108481A KR20180108481A KR102160092B1 KR 102160092 B1 KR102160092 B1 KR 102160092B1 KR 1020180108481 A KR1020180108481 A KR 1020180108481A KR 20180108481 A KR20180108481 A KR 20180108481A KR 102160092 B1 KR102160092 B1 KR 102160092B1
- Authority
- KR
- South Korea
- Prior art keywords
- image
- mask
- lookup table
- coordinate
- mask images
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T11/00—2D [Two Dimensional] image generation
- G06T11/60—Editing figures and text; Combining figures or text
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T11/00—2D [Two Dimensional] image generation
- G06T11/40—Filling a planar surface by adding surface attributes, e.g. colour or texture
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/90—Determination of colour characteristics
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20212—Image combination
- G06T2207/20221—Image fusion; Image merging
Abstract
레이어드 마스크와 룩업테이블을 이용한 이미지 처리 방법 및 시스템을 제공한다. 이미지 처리 방법은, 입력 이미지와 연관하여 결정된 이펙트를 상기 입력 이미지에 적용하기 위해, 상기 입력 이미지를 분석하여 상기 이펙트를 적용하기 위한 영역을 계산하는 단계, 상기 결정된 이펙트와 연관하여 상기 계산된 영역에 적용될 복수의 마스크 이미지들을 결정하는 단계, 상기 결정된 복수의 마스크 이미지들 각각에 적용하기 위한 룩업테이블을 결정하는 단계, 상기 복수의 마스크 이미지들 각각에 대응하는 룩업테이블을 적용하고, 상기 룩업테이블이 적용된 복수의 마스크 이미지들을 결합하여 레이어드 마스크 이미지를 생성하는 단계 및 상기 생성된 레이어드 마스크 이미지를 상기 계산된 영역에 적용하여 결과 이미지를 생성하는 단계를 포함할 수 있다.An image processing method and system using a layered mask and a lookup table are provided. The image processing method includes: analyzing the input image and calculating an area for applying the effect to the input image in order to apply an effect determined in association with the input image, and the calculated area in association with the determined effect Determining a plurality of mask images to be applied, determining a lookup table to be applied to each of the determined plurality of mask images, applying a lookup table corresponding to each of the plurality of mask images, and applying the lookup table The method may include generating a layered mask image by combining a plurality of mask images, and generating a result image by applying the generated layered mask image to the calculated area.
Description
아래의 설명은 레이어드 마스크와 룩업테이블을 이용한 이미지 처리 방법 및 시스템, 그리고 컴퓨터와 결합되어 이미지 처리 방법을 컴퓨터에 실행시키기 위해 컴퓨터 판독 가능한 기록매체에 저장된 컴퓨터 프로그램에 관한 것이다.The following description relates to an image processing method and system using a layered mask and a lookup table, and a computer program stored in a computer-readable recording medium in order to execute the image processing method on a computer in combination with a computer.
이미지에 다양한 이펙트를 적용하기 위한 종래기술들이 존재한다. 특히, 사용자의 모습이 담긴 이미지에 화장용품들과 같은 실제 제품이 사용된 것과 같은 이펙트를 가상으로 적용하여 보여줌으로써, 사용자가 실제 제품을 구매하지 않은 상태에서도 실제 제품의 사용에 따른 결과를 미리 확인해볼 수 있도록 서비스하는 기술들이 존재한다.There are conventional techniques for applying various effects to an image. In particular, by showing the same effect as the actual product used, such as cosmetic products, to the image containing the user's image, the user can check the results of the actual product use even when the user does not purchase the actual product. There are technologies that serve you so you can try.
예를 들어, 종래기술에서는 제품에 따른 이펙트의 적용을 위한 텍스쳐들을 미리 생성하여 관리하고, 사용자가 입력한 이미지의 지정된 위치에 선택된 제품에 대해 미리 생성된 텍스쳐를 덮어씌우는 방식으로 가상의 이펙트를 이미지상에 적용할 수 있다. 도 1은 종래기술에 따른 이미지 처리 방법의 일례를 도시한 도면이다. 이러한 도 1은 입력된 이미지(110)에 미리 생성된 텍스쳐(120)를 단순히 오버랩하여 가상의 이펙트를 이미지상에 적용하는 예를 나타내고 있다. 이러한 종래기술은 구현이 간편하고 이펙트의 직관적인 적용이 가능하다는 점, 서비스 제공자가 원하는 이펙트를 이미지상에 쉽게 적용할 수 있다는 장점이 있다. 그러나 이러한 종래기술은 미리 생성된 텍스쳐를 사용하기 때문에 입력된 이미지에 나타난 따라 피부나 입술의 주름, 이미지에 표현된 재질 등의 영향을 텍스쳐에 반영할 수 없다는 문제점이 있으며, 이미지에 나타나는 주변 광원에 따른 영향 등도 텍스쳐에 반영할 수 없기 때문에 이미지가 자연스럽지 못하다는 문제점이 있다.For example, in the prior art, a virtual effect is imaged by creating and managing textures for applying an effect according to a product in advance, and overwriting a previously created texture for the selected product at a designated location of the image input by the user. Can be applied to the phase. 1 is a diagram showing an example of an image processing method according to the prior art. FIG. 1 shows an example of applying a virtual effect to an image by simply overlapping the previously generated
또 다른 종래기술로 입력된 이미지에 적절한 연산처리를 하여 이미지의 색상을 변화시키는 기술이 존재한다. 도 2는 종래기술에 따른 이미지 처리 방법의 다른 예를 도시한 도면이다. 도 2에서는 커브(curve)의 연산처리를 이용하여 입력된 이미지의 색상을 다양하게 변화시키는 예를 나타내고 있다. 예를 들어 포토샵 등의 이미지 편집툴은 입력된 이미지에 다양한 효과를 적용할 수 있다. 이러한 종래기술은 입력되는 색상값에 따라 다양한 다른 변화를 입력된 이미지에 적용할 수 있어 보다 자연스러운 변환이 가능하다는 장점이 있다. 그러나 이러한 종래기술은 계산량이 많아, 많은 CPU 자원이 요구된다는 문제점이 있을 뿐만 아니라, 색상을 기반으로 이미지 전반에 걸쳐 결과가 결정되기 때문에 입력된 이미지의 특정 위치에 효과를 주기는 어렵다는 문제점이 있다.Another conventional technique exists to change the color of an image by performing an appropriate operation on an input image. 2 is a diagram showing another example of an image processing method according to the prior art. FIG. 2 shows an example of variously changing the color of an input image by using a curve operation process. For example, an image editing tool such as Photoshop can apply various effects to the input image. This prior art has the advantage that a more natural conversion is possible because various other changes can be applied to the input image according to the input color value. However, such a conventional technique has a problem in that a large amount of calculation is required and a lot of CPU resources are required, and it is difficult to give an effect to a specific position of an input image because the result is determined throughout the image based on color.
참고자료: <PCT/KR/2014/010167, US20340019540A1, US20330332543A1, US20330260893>Reference: <PCT/KR/2014/010167, US20340019540A1, US20330332543A1, US20330260893>
원본 이미지에 색상변화가 적용될 영역에 대응하여 변화시키고자 하는 색상 테마별로 각각의 레이어를 생성하고, 생성된 복수의 레이어들을 단색 채널 이미지로 변환하여 하나의 이미지에 결합함으로써 레이어드 마스크를 생성하고, 생성된 레이어드 마스크를 원본 이미지에 적용함으로써 이미지 영역에 따라 원하는 색상 변화를 적용할 수 있는 이미지 처리 방법 및 시스템, 그리고 컴퓨터와 결합되어 이미지 처리 방법을 컴퓨터에 실행시키기 위해 컴퓨터 판독 가능한 기록매체에 저장된 컴퓨터 프로그램을 제공한다.Each layer is created for each color theme to be changed in response to the area to which the color change is applied to the original image, and a layered mask is created by converting the generated layers into a single color channel image and combining them into one image. An image processing method and system capable of applying a desired color change according to the image area by applying the layered mask to the original image, and a computer program stored in a computer-readable recording medium to execute the image processing method on a computer in combination with a computer. Provides.
색상 변화를 위해 원본 색상을 출력 색상으로 1:1 치환해주는 색상 변환 테이블로서 미리 생성된 룩업테이블을 이용하여 계산량을 줄일 수 있으며, 다양하게 생성된 룩업테이블을 원본 이미지에 적용할 위치의 중요도에 따라 선택하여 사용함으로써 메모리 공간을 효율적으로 사용할 수 있는 이미지 처리 방법 및 시스템, 그리고 컴퓨터와 결합되어 이미지 처리 방법을 컴퓨터에 실행시키기 위해 컴퓨터 판독 가능한 기록매체에 저장된 컴퓨터 프로그램을 제공한다.As a color conversion table that replaces the original color with the output color 1:1 for color change, the amount of calculation can be reduced by using a pre-generated lookup table, and variously generated lookup tables can be applied to the original image according to the importance of the position to be applied. An image processing method and a system capable of efficiently using a memory space by selective use, and a computer program stored in a computer-readable recording medium for executing the image processing method on a computer in combination with a computer are provided.
원본 이미지에 나타난 상황에 따라 이미지에 적용되어야 할 룩업테이블을 레이어별로 결정함으로써, 환경의 변화나 조명의 변화에도 자연스러운 이미지 처리가 가능한 이미지 처리 방법 및 시스템, 그리고 컴퓨터와 결합되어 이미지 처리 방법을 컴퓨터에 실행시키기 위해 컴퓨터 판독 가능한 기록매체에 저장된 컴퓨터 프로그램을 제공한다.By determining the lookup table to be applied to the image by layer according to the situation shown in the original image, an image processing method and system capable of natural image processing even with changes in environment or lighting, and an image processing method in combination with a computer A computer program stored on a computer-readable recording medium for execution is provided.
컴퓨터와 결합되어 이미지 처리 방법을 컴퓨터에 실행시키기 위해 컴퓨터 판독 가능한 기록매체에 저장된 컴퓨터 프로그램에 있어서, 상기 이미지 처리 방법은, 입력 이미지와 연관하여 결정된 이펙트를 상기 입력 이미지에 적용하기 위해, 상기 입력 이미지를 분석하여 상기 이펙트를 적용하기 위한 영역을 계산하는 단계; 상기 결정된 이펙트와 연관하여 상기 계산된 영역에 적용될 복수의 마스크 이미지들을 결정하는 단계; 상기 결정된 복수의 마스크 이미지들 각각에 적용하기 위한 룩업테이블을 결정하는 단계; 상기 복수의 마스크 이미지들 각각에 대응하는 룩업테이블을 적용하고, 상기 룩업테이블이 적용된 복수의 마스크 이미지들을 결합하여 레이어드 마스크 이미지를 생성하는 단계; 및 상기 생성된 레이어드 마스크 이미지를 상기 계산된 영역에 적용하여 결과 이미지를 생성하는 단계를 포함하는 것을 특징으로 하는 컴퓨터 프로그램을 제공한다.A computer program combined with a computer and stored in a computer-readable recording medium to execute an image processing method on a computer, wherein the image processing method comprises: in order to apply an effect determined in association with the input image to the input image, the input image Analyzing the data to calculate an area for applying the effect; Determining a plurality of mask images to be applied to the calculated area in association with the determined effect; Determining a lookup table to be applied to each of the determined plurality of mask images; Generating a layered mask image by applying a lookup table corresponding to each of the plurality of mask images and combining the plurality of mask images to which the lookup table is applied; And applying the generated layered mask image to the calculated area to generate a result image.
이미지 처리 방법에 있어서, 입력 이미지와 연관하여 결정된 이펙트를 상기 입력 이미지에 적용하기 위해, 상기 입력 이미지를 분석하여 상기 이펙트를 적용하기 위한 영역을 계산하는 단계; 상기 결정된 이펙트와 연관하여 상기 계산된 영역에 적용될 복수의 마스크 이미지들을 결정하는 단계; 상기 결정된 복수의 마스크 이미지들 각각에 적용하기 위한 룩업테이블을 결정하는 단계; 상기 복수의 마스크 이미지들 각각에 대응하는 룩업테이블을 적용하고, 상기 룩업테이블이 적용된 복수의 마스크 이미지들을 결합하여 레이어드 마스크 이미지를 생성하는 단계; 및 상기 생성된 레이어드 마스크 이미지를 상기 계산된 영역에 적용하여 결과 이미지를 생성하는 단계를 포함하는 것을 특징으로 하는 이미지 처리 방법을 제공한다.An image processing method, comprising: analyzing the input image and calculating a region for applying the effect to the input image to apply an effect determined in association with the input image; Determining a plurality of mask images to be applied to the calculated area in association with the determined effect; Determining a lookup table to be applied to each of the determined plurality of mask images; Generating a layered mask image by applying a lookup table corresponding to each of the plurality of mask images and combining the plurality of mask images to which the lookup table is applied; And applying the generated layered mask image to the calculated area to generate a result image.
이미지 처리 방법을 실행하는 이미지 처리 시스템에 있어서, 컴퓨터 판독 가능한 명령을 실행하도록 구현되는 적어도 하나의 프로세서를 포함하고, 상기 적어도 하나의 프로세서는, 입력 이미지와 연관하여 결정된 이펙트를 상기 입력 이미지에 적용하기 위해, 상기 입력 이미지를 분석하여 상기 이펙트를 적용하기 위한 영역을 계산하고, 상기 결정된 이펙트와 연관하여 상기 계산된 영역에 적용될 복수의 마스크 이미지들을 결정하고, 상기 결정된 복수의 마스크 이미지들 각각에 적용하기 위한 룩업테이블을 결정하고, 상기 복수의 마스크 이미지들 각각에 대응하는 룩업테이블을 적용하고, 상기 룩업테이블이 적용된 복수의 마스크 이미지들을 결합하여 레이어드 마스크 이미지를 생성하고, 상기 생성된 레이어드 마스크 이미지를 상기 계산된 영역에 적용하여 결과 이미지를 생성하는 것을 특징으로 하는 이미지 처리 시스템을 제공한다.An image processing system for executing an image processing method, comprising: at least one processor embodied to execute a computer-readable instruction, wherein the at least one processor applies an effect determined in association with an input image to the input image For this, analyzing the input image to calculate a region for applying the effect, determining a plurality of mask images to be applied to the calculated region in association with the determined effect, and applying to each of the determined plurality of mask images A lookup table is determined for, a lookup table corresponding to each of the plurality of mask images is applied, a layered mask image is generated by combining a plurality of mask images to which the lookup table is applied, and the generated layered mask image is It provides an image processing system characterized in that it applies to the calculated area to generate a result image.
원본 이미지에 색상변화가 적용될 영역에 대응하여 변화시키고자 하는 색상 테마별로 각각의 레이어를 생성하고, 생성된 복수의 레이어들을 단색 채널 이미지로 변환하여 하나의 이미지에 결합함으로써 레이어드 마스크를 생성하고, 생성된 레이어드 마스크를 원본 이미지에 적용함으로써 이미지 영역에 따라 원하는 색상 변화를 적용할 수 있다.Each layer is created for each color theme to be changed in response to the area to which the color change is applied to the original image, and a layered mask is created by converting the generated layers into a single color channel image and combining them into one image. By applying the layered mask to the original image, a desired color change can be applied according to the image area.
색상 변화를 위해 원본 색상을 출력 색상으로 1:1 치환해주는 색상 변환 테이블로서 미리 생성된 룩업테이블을 이용하여 계산량을 줄일 수 있으며, 다양하게 생성된 룩업테이블을 원본 이미지에 적용할 위치의 중요도에 따라 선택하여 사용함으로써 메모리 공간을 효율적으로 사용할 수 있다.As a color conversion table that replaces the original color with the output color 1:1 for color change, the amount of calculation can be reduced by using a pre-generated lookup table, and variously generated lookup tables can be applied to the original image according to the importance of the position to be applied. By selecting and using, the memory space can be used efficiently.
원본 이미지에 나타난 상황에 따라 이미지에 적용되어야 할 룩업테이블을 레이어별로 결정함으로써, 환경의 변화나 조명의 변화에도 자연스러운 이미지 처리를 가능하게 할 수 있다.By determining the lookup table to be applied to the image layer by layer according to the situation shown in the original image, natural image processing can be performed even with changes in environment or lighting.
도 1은 종래기술에 따른 이미지 처리 방법의 일례를 도시한 도면이다.
도 2는 종래기술에 따른 이미지 처리 방법의 다른 예를 도시한 도면이다.
도 3은 본 발명의 일실시예에 따른 네트워크 환경의 예를 도시한 도면이다.
도 4는 본 발명의 일실시예에 있어서, 전자 기기 및 서버의 내부 구성을 설명하기 위한 블록도이다.
도 5는 본 발명의 일실시예에 있어서, 이미지 처리 방법의 전체 과정의 예를 설명하기 위한 예이다.
도 6은 본 발명의 일실시예에 있어서, 레이어드 마스크 이미지의 예를 도시한 도면이다.
도 7은 본 발명의 일실시예에 있어서, 입력 이미지에 레이어드 마스크 이미지를 적용하는 예를 도시한 도면이다.
도 8은 본 발명의 일실시예에 있어서, 룩업테이블의 예를 도시한 도면이다.
도 9는 본 발명의 일실시예에 따른 이미지 처리 시스템이 포함하는 프로세서의 내부 구성의 예를 설명하기 위한 블록도이다.
도 10은 본 발명의 일실시예에 따른 이미지 처리 시스템이 수행할 수 있는 방법의 예를 도시한 흐름도이다.1 is a diagram showing an example of an image processing method according to the prior art.
2 is a diagram showing another example of an image processing method according to the prior art.
3 is a diagram illustrating an example of a network environment according to an embodiment of the present invention.
4 is a block diagram illustrating an internal configuration of an electronic device and a server according to an embodiment of the present invention.
5 is an example for explaining an example of an entire process of an image processing method according to an embodiment of the present invention.
6 is a diagram illustrating an example of a layered mask image according to an embodiment of the present invention.
7 is a diagram illustrating an example of applying a layered mask image to an input image according to an embodiment of the present invention.
8 is a diagram illustrating an example of a lookup table in an embodiment of the present invention.
9 is a block diagram illustrating an example of an internal configuration of a processor included in the image processing system according to an embodiment of the present invention.
10 is a flowchart illustrating an example of a method that can be performed by an image processing system according to an embodiment of the present invention.
이하, 실시예를 첨부한 도면을 참조하여 상세히 설명한다.Hereinafter, embodiments will be described in detail with reference to the accompanying drawings.
본 발명의 실시예들에 따른 이미지 처리를 위한 이미지 처리 시스템은 이후 설명될 전자 기기나 서버를 통해 구현될 수 있으며, 본 발명의 실시예들에 따른 이미지 처리 방법은 상술한 전자 기기나 서버를 통해 수행될 수 있다. 일실시예로, 전자 기기는 본 발명의 실시예들에 따른 레이어드 마스크 및/또는 룩업테이블(LookUp Table, LUT)을 이용하여 특정 제품이나 서비스에 따라 디자인된 이펙트를 입력된 이미지에 적용함으로써 결과 이미지를 제공할 수 있다. 이때, 전자 기기는 전자 기기나 서버에 설치된 컴퓨터 프로그램의 제어에 따라 본 발명의 실시예들에 따른 이미지 처리 방법을 수행할 수 있다. 서버 역시 서버에 설치되는 컴퓨터 프로그램의 제어에 따라 본 발명의 실시예들에 따른 이미지 처리 방법을 수행할 수 있다. 예를 들어, 서버는 전자 기기로부터 이미지를 수신할 수 있고, 레이어드 마스크 및/또는 룩업테이블을 이용하여 특정 제품이나 서비스에 따라 디자인된 이펙트를 수신된 이미지에 적용함으로써, 결과 이미지를 생성할 수 있으며, 생성된 결과 이미지를 전자 기기로 제공할 수 있다. 컴퓨터 프로그램은 상술한 전자 기기나 서버와 같은 컴퓨터와 결합되어 이미지 처리 방법을 컴퓨터에 실행시키기 위해 컴퓨터 판독 가능한 기록매체에 저장될 수 있다. The image processing system for image processing according to the embodiments of the present invention may be implemented through an electronic device or server to be described later, and the image processing method according to the embodiments of the present invention may be implemented through the electronic device or server described above. Can be done. In one embodiment, the electronic device applies an effect designed according to a specific product or service to an input image using a layered mask and/or a lookup table (LUT) according to the embodiments of the present invention. Can provide. In this case, the electronic device may perform the image processing method according to embodiments of the present invention under control of the electronic device or a computer program installed in the server. The server may also perform the image processing method according to embodiments of the present invention under control of a computer program installed in the server. For example, the server may receive an image from an electronic device and generate a result image by applying an effect designed according to a specific product or service to the received image using a layered mask and/or a lookup table. , The generated result image may be provided to an electronic device. The computer program may be combined with a computer such as an electronic device or server described above and stored in a computer-readable recording medium to execute the image processing method on the computer.
도 3은 본 발명의 일실시예에 따른 네트워크 환경의 예를 도시한 도면이다. 도 3의 네트워크 환경은 복수의 전자 기기들(310, 320, 330, 340), 복수의 서버들(350, 360) 및 네트워크(370)를 포함하는 예를 나타내고 있다. 이러한 도 3은 발명의 설명을 위한 일례로 전자 기기의 수나 서버의 수가 도 3과 같이 한정되는 것은 아니다.3 is a diagram illustrating an example of a network environment according to an embodiment of the present invention. The network environment of FIG. 3 shows an example including a plurality of
복수의 전자 기기들(310, 320, 330, 340)은 컴퓨터 장치로 구현되는 고정형 단말이거나 이동형 단말일 수 있다. 복수의 전자 기기들(310, 320, 330, 340)의 예를 들면, 스마트폰(smart phone), 휴대폰, 네비게이션, 컴퓨터, 노트북, 디지털방송용 단말, PDA(Personal Digital Assistants), PMP(Portable Multimedia Player), 태블릿 PC 등이 있다. 일례로 도 3에서는 전자 기기 1(310)의 예로 스마트폰의 형상을 나타내고 있으나, 본 발명의 실시예들에서는 실질적으로 무선 또는 유선 통신 방식을 이용하여 네트워크(370)를 통해 다른 전자 기기들(320, 330, 340) 및/또는 서버(350, 360)와 통신할 수 있는 다양한 기기들 중 하나를 의미할 수 있다.The plurality of
통신 방식은 제한되지 않으며, 네트워크(370)가 포함할 수 있는 통신망(일례로, 이동통신망, 유선 인터넷, 무선 인터넷, 방송망)을 활용하는 통신 방식뿐만 아니라 기기들간의 근거리 무선 통신 역시 포함될 수 있다. 예를 들어, 네트워크(370)는, PAN(personal area network), LAN(local area network), CAN(campus area network), MAN(metropolitan area network), WAN(wide area network), BBN(broadband network), 인터넷 등의 네트워크 중 하나 이상의 임의의 네트워크를 포함할 수 있다. 또한, 네트워크(370)는 버스 네트워크, 스타 네트워크, 링 네트워크, 메쉬 네트워크, 스타-버스 네트워크, 트리 또는 계층적(hierarchical) 네트워크 등을 포함하는 네트워크 토폴로지 중 임의의 하나 이상을 포함할 수 있으나, 이에 제한되지 않는다.The communication method is not limited, and short-range wireless communication between devices as well as a communication method using a communication network (for example, a mobile communication network, a wired Internet, a wireless Internet, a broadcasting network) that the
서버(350, 360) 각각은 복수의 전자 기기들(310, 320, 330, 340)과 네트워크(370)를 통해 통신하여 명령, 코드, 파일, 컨텐츠, 서비스 등을 제공하는 컴퓨터 장치 또는 복수의 컴퓨터 장치들로 구현될 수 있다. 예를 들어, 서버(350)는 네트워크(370)를 통해 접속한 복수의 전자 기기들(310, 320, 330, 340)로 제1 서비스를 제공하는 시스템일 수 있으며, 서버(360) 역시 네트워크(370)를 통해 접속한 복수의 전자 기기들(310, 320, 330, 340)로 제2 서비스를 제공하는 시스템일 수 있다. 보다 구체적인 예로, 서버(350)는 제1 서비스로서 이미지 처리를 위한 서비스를 복수의 전자 기기들(310, 320, 330, 340)로 제공하는 시스템일 수 있다. 또한, 서버(360)는 제2 서비스로서 이미지 처리를 위한 서비스를 제공받을 수 있도록 하기 위한 어플리케이션(일례로, 상술한 컴퓨터 프로그램)의 설치파일을 복수의 전자 기기들(310, 320, 330, 340)로 제공하는 파일 배포 시스템일 수 있다.Each of the
도 4는 본 발명의 일실시예에 있어서, 전자 기기 및 서버의 내부 구성을 설명하기 위한 블록도이다. 도 4에서는 전자 기기에 대한 예로서 전자 기기 1(310), 그리고 서버(350)의 내부 구성을 설명한다. 또한, 다른 전자 기기들(320, 330, 340)이나 서버(360) 역시 상술한 전자 기기 1(310) 또는 서버(350)와 동일한 또는 유사한 내부 구성을 가질 수 있다.4 is a block diagram illustrating an internal configuration of an electronic device and a server according to an embodiment of the present invention. In FIG. 4, internal configurations of the
전자 기기 1(310)과 서버(350)는 메모리(411, 421), 프로세서(412, 422), 통신 모듈(413, 423) 그리고 입출력 인터페이스(414, 424)를 포함할 수 있다. 메모리(411, 421)는 컴퓨터에서 판독 가능한 기록 매체로서, RAM(random access memory), ROM(read only memory) 및 디스크 드라이브와 같은 비소멸성 대용량 기록장치(permanent mass storage device)를 포함할 수 있다. 여기서 ROM과 디스크 드라이브와 같은 비소멸성 대용량 기록장치는 메모리(411, 421)와는 구분되는 별도의 영구 저장 장치로서 전자 기기 1(310)나 서버(350)에 포함될 수도 있다. 또한, 메모리(411, 421)에는 운영체제와 적어도 하나의 프로그램 코드(일례로 전자 기기 1(310)에 설치되어 구동되는 브라우저나 특정 서비스의 제공을 위해 전자 기기 1(310)에 설치된 어플리케이션 등을 위한 코드)가 저장될 수 있다. 이러한 소프트웨어 구성요소들은 메모리(411, 421)와는 별도의 컴퓨터에서 판독 가능한 기록 매체로부터 로딩될 수 있다. 이러한 별도의 컴퓨터에서 판독 가능한 기록 매체는 플로피 드라이브, 디스크, 테이프, DVD/CD-ROM 드라이브, 메모리 카드 등의 컴퓨터에서 판독 가능한 기록 매체를 포함할 수 있다. 다른 실시예에서 소프트웨어 구성요소들은 컴퓨터에서 판독 가능한 기록 매체가 아닌 통신 모듈(413, 423)을 통해 메모리(411, 421)에 로딩될 수도 있다. 예를 들어, 적어도 하나의 프로그램은 개발자들 또는 어플리케이션의 설치 파일을 배포하는 파일 배포 시스템(일례로, 서버(360))이 네트워크(370)를 통해 제공하는 파일들에 의해 설치되는 프로그램(일례로 상술한 어플리케이션)에 기반하여 메모리(411, 421)에 로딩될 수 있다.The electronic device 1310 and the
프로세서(412, 422)는 기본적인 산술, 로직 및 입출력 연산을 수행함으로써, 컴퓨터 프로그램의 명령을 처리하도록 구성될 수 있다. 명령은 메모리(411, 421) 또는 통신 모듈(413, 423)에 의해 프로세서(412, 422)로 제공될 수 있다. 예를 들어 프로세서(412, 422)는 메모리(411, 421)와 같은 기록 장치에 저장된 프로그램 코드에 따라 수신되는 명령을 실행하도록 구성될 수 있다.The
통신 모듈(413, 423)은 네트워크(370)를 통해 전자 기기 1(310)과 서버(350)가 서로 통신하기 위한 기능을 제공할 수 있으며, 전자 기기 1(310) 및/또는 서버(350)가 다른 전자 기기(일례로 전자 기기 2(320)) 또는 다른 서버(일례로 서버(360))와 통신하기 위한 기능을 제공할 수 있다. 일례로, 전자 기기 1(310)의 프로세서(412)가 메모리(411)와 같은 기록 장치에 저장된 프로그램 코드에 따라 생성한 요청이 통신 모듈(413)의 제어에 따라 네트워크(370)를 통해 서버(350)로 전달될 수 있다. 역으로, 서버(350)의 프로세서(422)의 제어에 따라 제공되는 제어 신호나 명령, 컨텐츠, 파일 등이 통신 모듈(423)과 네트워크(370)를 거쳐 전자 기기 1(310)의 통신 모듈(413)을 통해 전자 기기 1(310)로 수신될 수 있다. 예를 들어 통신 모듈(413)을 통해 수신된 서버(350)의 제어 신호나 명령, 컨텐츠, 파일 등은 프로세서(412)나 메모리(411)로 전달될 수 있고, 컨텐츠나 파일 등은 전자 기기 1(310)가 더 포함할 수 있는 저장 매체(상술한 영구 저장 장치)로 저장될 수 있다.The
입출력 인터페이스(414)는 입출력 장치(415)와의 인터페이스를 위한 수단일 수 있다. 예를 들어, 입력 장치는 키보드 또는 마우스 등의 장치를, 그리고 출력 장치는 디스플레이와 같은 장치를 포함할 수 있다. 다른 예로 입출력 인터페이스(414)는 터치스크린과 같이 입력과 출력을 위한 기능이 하나로 통합된 장치와의 인터페이스를 위한 수단일 수도 있다. 입출력 장치(415)는 전자 기기 1(310)과 하나의 장치로 구성될 수도 있다. 또한, 서버(350)의 입출력 인터페이스(424)는 서버(350)와 연결되거나 서버(350)가 포함할 수 있는 입력 또는 출력을 위한 장치(미도시)와의 인터페이스를 위한 수단일 수 있다. 보다 구체적인 예로, 전자 기기 1(310)의 프로세서(412)는 메모리(411)에 로딩된 컴퓨터 프로그램의 명령을 처리함에 있어서 서버(350)나 전자 기기 2(320)가 제공하는 데이터를 이용하여 구성되는 서비스 화면이나 컨텐츠가 입출력 인터페이스(414)를 통해 디스플레이에 표시될 수 있다.The input/
또한, 다른 실시예들에서 전자 기기 1(310) 및 서버(350)는 도 4의 구성요소들보다 더 많은 구성요소들을 포함할 수도 있다. 그러나, 대부분의 종래기술적 구성요소들을 명확하게 도시할 필요성은 없다. 예를 들어, 전자 기기 1(310)은 상술한 입출력 장치(415) 중 적어도 일부를 포함하도록 구현되거나 또는 트랜시버(transceiver), GPS(Global Positioning System) 모듈, 카메라, 각종 센서, 데이터베이스 등과 같은 다른 구성요소들을 더 포함할 수도 있다. 보다 구체적인 예로, 전자 기기 1(310)이 스마트폰인 경우, 일반적으로 스마트폰이 포함하고 있는 가속도 센서나 자이로 센서, 카메라, 각종 물리적인 버튼, 터치패널을 이용한 버튼, 입출력 포트, 진동을 위한 진동기 등의 다양한 구성요소들이 전자 기기 1(310)에 더 포함되도록 구현될 수 있다.In addition, in other embodiments, the
도 5는 본 발명의 일실시예에 있어서, 이미지 처리 방법의 전체 과정의 예를 설명하기 위한 예이다. 본 실시예에 따른 이미지 처리 시스템(500)은 입력된 이미지(510)를 처리하여 결과 이미지(520)를 제공하는 시스템으로서 앞서 설명한 전자 기기 1(310)이나 서버(350)에 구현될 수 있다. 이하에서는 전자 기기 1(310)에 구현된 이미지 처리 시스템(500)을 기준으로 본 실시예에 대해 설명한다.5 is an example for explaining an example of an entire process of an image processing method according to an embodiment of the present invention. The
입력 이미지(510)는 이미지 처리 시스템(500)으로 입력되는 이미지로, 이미지 처리 시스템(500)이 구현된 전자 기기 1(310)의 메모리나 영구 저장 장치에 저장된 이미지들 중 선택된 하나의 이미지이거나, 전자 기기 1(310)의 카메라를 통해 입력된 이미지이거나, 또는 전자 기기 1(310)의 통신 모듈(413)을 이용하여 네트워크(370)를 통해 전자 기기 1(310)이 수신한 이미지들 중 선택된 하나의 이미지일 수 있다.The
적용 영역 계산 알고리즘(530)은 입력 이미지(510)에서 이펙트를 적용할 영역을 계산하는 모듈일 수 있으며, 일례로 전자 기기 1(310)의 프로세서(412)가 입력 이미지(510)에서 이펙트를 적용할 영역을 계산하도록 전자 기기 1(310)을 제어하는 프로세서(412)의 기능적 표현일 수 있다. 예를 들어, 이미지 처리 방법을 컴퓨터에 실행시키기 위한 컴퓨터 프로그램은 적용 영역 계산 알고리즘(530)을 위한 프로그램 코드를 포함할 수 있으며, 프로세서(412)는 해당 프로그램 코드에 따른 제어 명령에 따라 입력 이미지(510)에서 이펙트를 적용할 영역을 계산하도록 전자 기기 1(310)을 제어할 수 있다. 보다 구체적인 예로, 입력 이미지(510)에 포함된 사람의 입술 영역에 '립스틱 제품 A를 바른 효과'를 가상으로 적용하기 위해, 프로세서(412)는 적용 영역 계산 알고리즘(530)이 제공하는 제어 명령에 따라 입력 이미지(510)에 포함된 사람의 입술 영역을 결정할 수 있다. 보다 구체적인 예로, 프로세서(412)는 이펙트를 적용하기 위한 입력 이미지(510) 상에서의 좌표를 계산할 수 있다.The application
디자인된 마스크 이미지(540)는 미리 제작된 마스크 이미지들 또는 입력 이미지(510)에 기반하여 레이어별로 생성된 마스크 이미지들을 포함할 수 있다. 입력 이미지(510)에 기반하여 마스크 이미지들을 생성하기 위해, 앞서 설명한 컴퓨터 프로그램은 마스크 이미지의 생성을 위한 프로그램 코드를 더 포함할 수 있으며, 프로세서(412)는 이러한 프로그램 코드에 따른 제어 명령에 따라 입력 이미지(510)에 기반하여 마스크 이미지들을 생성할 수 있다. 이때, 마스크 이미지들은 이후 설명될 룩업테이블을 적용하는 강도에 대한 정보를 포함할 수 있다. 이러한 마스크 이미지들에 대해서는 이후 더욱 자세히 설명한다.The designed
적용 영역 선정 레이어드 마스크(550)는 적용 영역 계산 알고리즘(530)을 통해 계산된 적용 영역을 위한 디자인된 마스크 이미지(540)를 결합하여 레이어드 마스크 이미지를 생성하는 과정일 수 있다. 다시 말해, 적용 영역 선정 레이어드 마스크(550)는 레이어별로 생성된 마스크 이미지들 중 입력 이미지(510)에 적용될 마스크 이미지들을 결합하여 레이어드 마스크 이미지를 생성할 수 있다.The application region selection layered
이때, 적용 영역 선정 레이어드 마스크(550)는 단순히 마스크 이미지들을 결합하는 것이 아니라, 룩업테이블 리스트(560)를 통해 마스크 이미지들 각각마다 적용될 룩업테이블들을 선택하고, 선택된 룩업테이블들을 대응하는 마스크 이미지들에 적용할 수 있다. 룩업테이블 리스트(560)는 미리 제작된 다수의 룩업테이블들의 리스트일 수 있으며, 각각의 룩업테이블들은 품질을 향상시키거나 자원 사용을 줄이기 위해 그 크기를 다르게 적용하는 것이 가능하다. 일례로, 룩업테이블은 입력되는 이미지(일례로, 대응하는 마스크 이미지)의 RGB값을 입력 파라미터로 받아 입력된 RGB 값에 대해 지정된 출력 RGB 값을 결과로 산출하는 함수의 형태로 구현될 수 있다.At this time, the application region selection layered
마스크 이미지별로 룩업테이블들이 선택되면, 레이어드 마스크 이미지에 포함된 각각의 마스크 이미지별로 룩업테이블을 적용하는 병합연산을 통해 결과 이미지(520)가 생성될 수 있다.When the lookup tables are selected for each mask image, a
도 6은 본 발명의 일실시예에 있어서, 레이어드 마스크 이미지의 예를 도시한 도면이다. 이미지 처리 시스템(500)은 원본 이미지에 색상변화가 적용될 영역과 관련하여 해당 영역을 변화시키고자 하는 색상 테마에 따라 각각의 레이어들을 생성할 수 있다. 예를 들어, 이미지 처리 시스템(500)은 도 6에 도시된 바와 같이 마스크 이미지 1(mask image 1, 610)과 마스크 이미지 2(mask image 2, 620)를 결합하여 레이어드 마스크 이미지(layered mask image, 630)를 생성할 수 있다. 이때, 이미 설명한 바와 같이 마스크 이미지들(610, 620) 각각은 룩업테이블을 적용하는 강도에 대한 정보를 포함할 수 있다. 예를 들어, 도 6의 마스크 이미지들(610, 620)은 입력 이미지(510)의 분석에 따라 결정된 밝기의 정도를 위치별로 표현하고 있다. 이때, 룩업테이블은 동일한 좌표의 동일한 입력값에 대해 마스크 이미지의 동일한 좌표의 밝기의 정도에 따라 서로 다른 가중치가 적용되어 룩업테이블을 적용하는 강도가 조절될 수 있도록 생성될 수 있다. 구체적인 예로, 도 6의 마스크 이미지들(610, 620)은 입술모양의 외각으로 갈수록 밝기의 정도가 상대적으로 더 낮아지도록 생성되었고, 이에 따라 입술모양의 외각으로 갈수록 룩업테이블이 더 낮은 강도로 적용(출력값에 상대적으로 더 낮은 가중치가 부여됨)된 예를 나타내고 있다. 또한, 마스크 이미지 1(610)과 마스크 이미지 2(620)에는 각각 다른 룩업테이블이 적용될 수 있다. 따라서 이미지 영역에 따라 원하는 색상 변화를 적용하는 것이 가능해지며, 단일 마스크 이미지가 아닌 여러 가지 색상 변화(서로 다른 룩업테이블)를 적용할 수 있어서 리소스 관리에 효율적이고 빠른 속도로 결과 이미지를 생성할 수 있다.6 is a diagram illustrating an example of a layered mask image according to an embodiment of the present invention. The
도 7은 본 발명의 일실시예에 있어서, 입력 이미지에 레이어드 마스크 이미지를 적용하는 예를 도시한 도면이다. 도 7은 원본 이미지(Original Image, 710)의 색상과 입술 색상의 유사도를 계산하여 생성된 입술 색 마스크(Lip color mask, 720)와 원본 이미지의 색상에서 평균적인 얼굴 색상에 비해 상대적으로 더 밝은 부분을 하이라이트 마스크(Highlight Mask, 730)로 생성한 예를 나타내고 있다. 또한, 도 7은 입술 색 마스크(720)와 하이라이트 마스크(730)에 각각 서로 다른 룩업테이블을 적용하고 결합하여 레이어드 마스크 이미지를 생성하고, 생성된 레이어드 마스크 이미지를 원본 이미지(710)에 적용하여 결과 이미지(Result, 740)를 생성한 예를 나타내고 있다. 따라서 입력된 이미지에 따라 원하는 색상 변화를 적용할 수 있게 될 뿐만 아니라, 광원이나 환경 색상의 변화에도 자연스러운 결과 이미지를 제공할 수 있게 된다.7 is a diagram illustrating an example of applying a layered mask image to an input image according to an embodiment of the present invention. 7 shows a
도 8은 본 발명의 일실시예에 있어서, 룩업테이블의 예를 도시한 도면이다. 룩업테이블은 원본 색상을 출력 색상으로 1:1 치환해주는 변환 테이블일 수 있으며, 조건(일례로, 특정 제품)에 따라 다양한 크기의 룩업테이블들을 미리 생성해놓을 수 있다. 예를 들어, 립스틱 제품 A에 대해 복수 개의 룩업테이블들이 미리 생성될 수 있다. 이때, 이미지 처리 시스템(500)은 원본 이미지가 입력되면, 도 7을 통해 설명한 바와 같이 원본 이미지에 따라 복수의 마스크 이미지들이 생성될 수 있고, 각각의 마스크 이미지들에 필요한 룩업테이블들을 각각 선택 및 적용하여 하나의 레이어드 마스크 이미지로 결합할 수 있다. 또한, 이미지 처리 시스템(500)은 도 8의 실시예에서와 같이 색상 변환이 적용될 영역의 중요도에 따라 차등적인 크기의 룩업테이블을 적용할 수 있다. 예를 들어, 상대적으로 중요도가 낮은 마스크 이미지의 경우에는 4×4×4 색상의 룩업테이블(810)을 적용하여 리소스 사용을 줄일 수 있고, 상대적으로 중요도가 높은 마스크 이미지의 경우에는 8×8×8 색상의 룩업테이블(820)을 적용하여 결과 이미지의 품질을 향상시킬 수 있다. 보다 구체적인 예로, 립스틱 제품 A에 대한 색상 큐브(830)로서 16×16×16 색상 크기의 룩업테이블이 미리 생성되면, 이미지 처리 시스템(500)은 미리 생성된 룩업테이블을 그대로 이용할 수도 있으며, 필요에 따라 미리 생성된 룩업테이블을 4×4×4 색상 크기의 룩업테이블이나 8×8×8 색상 크기의 룩업테이블로 변환하여 사용할 수도 있다. 이처럼 이미지 처리 시스템(500)은 개별적으로 미리 생성된 룩업테이블들을 활용될 수도 있고, 도 8에서와 같이 색상 큐브(cube)를 통해 필요한 크기의 룩업테이블들을 실시간으로 생성하여 활용할 수도 있다. 색상 큐브(cube)는 특정 조건(일례로 이펙트별로)에 따라 미리 생성될 수 있다.8 is a diagram illustrating an example of a lookup table in an embodiment of the present invention. The lookup table may be a conversion table that replaces the original color 1:1 with the output color, and lookup tables of various sizes may be created in advance according to conditions (for example, a specific product). For example, a plurality of lookup tables for lipstick product A may be generated in advance. At this time, when an original image is input, the
이처럼, 본 발명의 실시예들에 따르면, 기존 방법에 비해서 공간적으로 원하는 위치에 원하는 테마의 색상 변환 테이블인 룩업테이블을 적용함으로써 이미지의 각 부위에 대해 보다 자연스러운 변환이 가능하고, 미리 만들어진 색상 변환 테이블을 사용함으로써 계산량을 줄일 수 있으며, 적용할 위치에 중요도에 따라 색상 변환 테이블의 크기를 조절하여 메모리 공간을 효율적으로 사용할 수 있고, 상황에 따라 입력된 영상에서 적용되어야 할 색상 변환 테이블과 적용 강도를 실시간으로 계산하여, 환경의 변화나 조명의 변화에도 강인하고 자연스러운 모습의 결과 이미지를 생성할 수 있다. As described above, according to embodiments of the present invention, a more natural conversion is possible for each part of an image by applying a lookup table, which is a color conversion table of a desired theme, at a spatially desired location compared to the existing method, and a pre-made color conversion table The amount of calculation can be reduced by using, and memory space can be efficiently used by adjusting the size of the color conversion table according to the importance of the location to be applied, and the color conversion table and applied intensity to be applied in the input image depending on the situation. By calculating in real time, it is possible to create a result image that is robust and natural even to changes in environment or lighting.
도 9는 본 발명의 일실시예에 따른 이미지 처리 시스템이 포함하는 프로세서의 내부 구성의 예를 설명하기 위한 블록도이고, 도 10은 본 발명의 일실시예에 따른 이미지 처리 시스템이 수행할 수 있는 방법의 예를 도시한 흐름도이다. 도 9는 이미지 처리 시스템(500)의 프로세서(900)를 나타내고 있다. 이미 설명한 바와 같이 이미지 처리 시스템(500)은 전자 기기 1(310)이나 서버(350)에 구현될 수 있으며, 프로세서(900)는 전자 기기 1(110)의 프로세서(412)나 서버(350)의 프로세서(422)에 대응될 수 있다.9 is a block diagram illustrating an example of an internal configuration of a processor included in the image processing system according to an embodiment of the present invention, and FIG. 10 is a block diagram that can be performed by the image processing system according to an embodiment of the present invention. It is a flow chart showing an example of the method. 9 shows
이때, 프로세서(900)는 도 9에 도시된 바와 같이 마스크 이미지 관리부(910), 영역 계산부(920), 마스크 이미지 결정부(930), 룩업테이블 결정부(940), 레이어드 마스크 이미지 생성부(950) 및 결과 이미지 생성부(960)를 포함할 수 있다. 이러한 프로세서(900) 및 프로세서(900)의 구성요소들은 도 10의 이미지 처리 방법이 포함하는 단계들(1010 내지 1060)을 수행할 수 있다. 이때, 프로세서(900) 및 프로세서(900)의 구성요소들은 이미지 처리 시스템(500)의 메모리가 포함하는 운영체제의 코드나 적어도 하나의 컴퓨터 프로그램의 코드에 따른 명령(instruction)을 실행하도록 구현될 수 있다. 여기서 이미지 처리 시스템(500)의 메모리는 전자 기기 1(110)의 메모리(411)나 서버(350)의 메모리(421)에 대응될 수 있다.In this case, the
또한, 프로세서(900)의 구성요소들은 이미지 처리 시스템(500)에 저장된 코드가 제공하는 제어 명령에 따라 프로세서(900)에 의해 수행되는 프로세서(900)의 서로 다른 기능들(different functions)의 표현들일 수 있다. 예를 들어, 프로세서(900)가 상술한 제어 명령에 따라 입력 이미지에서 특정 영역을 계산하는 프로세서(900)의 기능적 표현으로 영역 계산부(910)가 사용될 수 있다.In addition, the components of the
단계(1010)에서 마스크 이미지 관리부(910)는 복수의 이펙트들 각각마다 기 생성된 마스크 이미지들을 대응하는 이펙트와 연관하여 저장소에 저장 및 관리할 수 있다. 앞서 설명한 바와 같이, 마스크 이미지들은 이펙트별로 미리 생성되어 이미지 처리 시스템(500)의 저장소에 미리 저장 및 관리될 수 있다. 마스크 이미지 관리부(910)는 이러한 마스크 이미지들을 저장소에 저장하고 관리하는 역할을 처리할 수 있다. 만약, 다른 실시예에서 마스크 이미지가 실시간으로 생성되는 경우, 이러한 마스크 이미지 관리부(910)와 단계(1010)는 생략될 수 있다.In
단계(1020)에서 영역 계산부(920)는 입력 이미지와 연관하여 결정된 이펙트를 입력 이미지에 적용하기 위해, 입력 이미지를 분석하여 이펙트를 적용하기 위한 영역을 계산할 수 있다. 이미 설명한 바와 같이 이미지 처리 시스템(500)은 전자 기기 1(310)이나 서버(350)에 구현될 수 있다. 전자 기기 1(310)에 이미지 처리 시스템(500)이 구현된 경우, 입력된 이미지는 전자 기기 1(310)에 기존에 저장되어 있던 이미지거나 전자 기기 1(310)의 카메라를 통해 입력되는 이미지거나 또는 전자 기기 1(310)이 통신 모듈(413)을 통해 수신한 이미지일 수 있다. 다른 실시예에서 서버(350)에 이미지 처리 시스템(500)이 구현된 경우, 입력된 이미지는 전자 기기 1(310)로부터 수신된 이미지일 수 있다. 다시 말해, 일실시예에 따르면, 전자 기기 1(310)에 구현된 이미지 처리 시스템(500)이 직접 입력된 이미지를 처리하여 결과 이미지를 전자 기기 1(310)을 통해 사용자에게 제공할 수 있다. 다른 실시예에 따르면, 전자 기기 1(310)이 서버(350)로 이미지를 전송하면, 서버(350)에 구현된 이미지 처리 시스템(500)이 서버(350)를 통해 입력된 이미지를 처리하여 결과 이미지를 생성하고, 생성된 결과 이미지를 전자 기기 1(310)로 전송할 수도 있다.In
이때, 특정 이미지를 분석하여 원하는 영역을 구하는 것은 이미 잘 알려진 이미지 처리 기법들을 통해 당업자가 용이하게 이해할 수 있을 것이다. 한편, 본 발명의 일실시예에서 이펙트는 사용자의 전자 기기 1(110)이 포함하는 카메라를 통해 입력되는 사용자의 얼굴 이미지에 적용될 화장 이펙트들을 포함할 수 있다. 이러한 실시예에서 영역 계산부(920)는 사용자에 의해 선택되는 화장 이펙트들이 적용될 얼굴 이미지에서의 적어도 하나의 좌표를 계산함으로써 이펙트가 적용될 영역을 결정할 수 있다.In this case, analyzing a specific image to obtain a desired region may be easily understood by those skilled in the art through well-known image processing techniques. Meanwhile, in an embodiment of the present invention, the effect may include makeup effects to be applied to the user's face image input through a camera included in the user's
단계(1030)에서 마스크 이미지 결정부(930)는 결정된 이펙트와 연관하여 계산된 영역에 적용될 복수의 마스크 이미지들을 결정할 수 있다.In
일실시예로, 마스크 이미지 결정부(930)는 단계(1010)에서 마스크 이미지 관리부(910)를 통해 저장소에 저장 및 관리되는 마스크 이미지들 중 결정된 이펙트와 연관된 마스크 이미지들을 추출할 수 있다. 보다 구체적인 예로, 전자 기기 1(310)에 이미지 처리 시스템(500)이 구현된 경우, 전자 기기 1(310)은 전자 기기 1(310)에 설치 및 구동된 어플리케이션의 제어에 따라 복수의 이펙트들 중 적어도 하나의 이펙트를 선택할 수 있는 사용자 인터페이스를 사용자에게 제공할 수 있다. 이때, 마스크 이미지 결정부(930)는 사용자가 사용자 인터페이스를 통해 선택한 이펙트와 연관되어 전자 기기 1(310)의 저장소로부터 추출할 수 있다. 만약, 이미지 처리 시스템(500)이 서버(350)에 구현된 경우, 이미지 처리 시스템(500)은 전자 기기 1(310)로부터 선택된 이펙트에 대한 정보를 수신할 수 있다. 이 경우, 마스크 이미지 결정부(930)는 수신된 정보에 따라 선택된 이펙트와 연관된 마스크 이미지들을 저장소로부터 추출할 수 있다.In an embodiment, the
다른 실시예로, 마스크 이미지 결정부(930)는 결정된 이펙트에 따라 기설정된 색상 테마별로 서로 다른 레이어의 마스크 이미지들을 직접 생성할 수도 있다. 예를 들어, 특정 화장품과 관련된 화장 이펙트들을 적용하기 위해 다수의 색상 테마들이 미리 설정될 수 있고, 마스크 이미지 결정부(930)는 이러한 색상 테마별로 서로 다른 레이어를 위한 마스크 이미지들을 생성할 수 있다.In another embodiment, the
단계(1040)에서 룩업테이블 결정부(940)는 결정된 복수의 마스크 이미지들 각각에 적용하기 위한 룩업테이블을 결정할 수 있다. 룩업테이블은 대응하는 마스크 이미지의 좌표별 색상값을 입력 파라미터로 입력 받아 입력된 색상값에 대해 지정된 색상값을 결과로 산출하는 함수를 포함할 수 있다.In
또한, 실시예에 따라 복수의 마스크 이미지들 각각은 입력 이미지의 대응하는 좌표의 밝기에 따른 가중치 정보를 대응하는 좌표별로 포함할 수 있다. 예를 들어, 도 6 및 도 7에서는 마스크 이미지가 좌표별 밝기를 포함하고 있음을 나타내고 있다. 이러한 마스크 이미지에 설정된 좌표별 밝기는 입력 이미지의 좌표별 밝기에 대응할 수 있고, 이러한 좌표별 밝기가 가중치 정보로서 활용될 수 있다. 예를 들어, 룩업테이블은 대응하는 마스크 이미지의 좌표별 색상값 및 좌표별 가중치 정보를 입력 파라미터로 입력받을 수 있다. 이 경우, 룩업테이블은 입력된 색상값에 대해 지정된 색상값을 결과로 산출하되, 상기 가중치 정보에 따라 산출되는 색상값의 밝기를 조절하여 산출하는 함수를 포함할 수 있다. 따라서 서로 다른 마스크 이미지들에 서로 다른 룩업테이블이 적용될 수 있을 뿐만 아니라, 서로 다른 룩업테이블을 통해 출력되는 서로 다른 색상들의 밝기까지 마스크 이미지의 좌표별로 제어가 가능해진다.In addition, according to an embodiment, each of the plurality of mask images may include weight information according to brightness of corresponding coordinates of the input image for each corresponding coordinate. For example, in FIGS. 6 and 7, it is shown that the mask image includes brightness for each coordinate. The brightness for each coordinate set in the mask image may correspond to the brightness for each coordinate of the input image, and the brightness for each coordinate may be used as weight information. For example, the lookup table may receive color values for each coordinate of a corresponding mask image and weight information for each coordinate as input parameters. In this case, the lookup table may include a function that calculates a color value designated for the input color value as a result, and calculates by adjusting the brightness of the color value calculated according to the weight information. Therefore, not only can different lookup tables be applied to different mask images, but also brightness of different colors output through different lookup tables can be controlled by coordinates of the mask image.
또한 이미 설명한 바와 같이, 룩업테이블의 색상 크기는 마스크 이미지가 입력 이미지에 적용될 위치에 따른 중요도에 따라 결정될 수 있다. 예를 들어, 룩업테이블 결정부(940)는 제1 마스크 이미지가 입력 이미지에 적용될 위치에 따른 중요도를 계산하고, 계산된 중요도에 따라 결정되는 색상 크기의 룩업테이블을 제1 마스크 이미지에 대응하여 결정할 수 있다. 보다 구체적인 예로, 도 7에서 설명한 립스틱 이펙트와 관련하여 입술 영역의 색상과 관련된 입술 색 마스크(720)가 적용될 원본 이미지(710)의 위치는 입술과 입술 주변의 하이라이트 마스크(730)가 적용될 원본 이미지(710)의 위치보다 상대적으로 중요도가 더 높다고 판단될 수 있다. 이때, 입술 색 마스크(720)에 적용될 제1 룩업테이블의 색상 크기는 하이라이트 마스크(730)에 적용될 제2 룩업테이블의 색상 크기보다 상대적으로 더 크게 결정될 수 있다. 보다 구체적인 예로, 입술 색 마스크(720)에는 8×8×8 색상 크기의 제1 룩업테이블이, 하이라이트 마스크(730)에는 4×4×4 색상 크기의 제2 룩업테이블이 각각 적용될 수 있다. Also, as already described, the color size of the lookup table may be determined according to the importance according to the position to which the mask image is applied to the input image. For example, the lookup
단계(1050)에서 레이어드 마스크 이미지 생성부(950)는 복수의 마스크 이미지들 각각에 대응하는 룩업테이블을 적용하고, 룩업테이블이 적용된 복수의 마스크 이미지들을 결합하여 레이어드 마스크 이미지를 생성할 수 있다. 이러한 레이어드 마스크 이미지는 도 6을 통해 이미 설명한 바 있다. In
단계(1060)에서 결과 이미지 생성부(960)는 생성된 레이어드 마스크 이미지를 계산된 영역에 적용하여 결과 이미지를 생성할 수 있다. 이처럼, 단순히 이펙트에 따라 미리 생성된 이미지를 입력된 이미지에 적용하는 것이 아니라, 색상 테마에 따라 서로 다른 복수의 마스크 이미지들 결합하여 활용함으로써, 입력 이미지의 영역에 따라 원하는 색상 변화를 적용할 수 있다. 또한, 원본 이미지에 적용할 위치의 중요도에 따라 룩업테이블을 선택하여 활용함으로써 계산량을 줄일 수 있을 뿐만 아니라, 원본 이미지에 나타난 상황에 따라 이미지에 적용되어야 할 룩업테이블을 레이어별로 결정함으로써, 환경의 변화나 조명의 변화에도 자연스러운 이미지 처리를 가능하게 할 수 있다.In
이상에서 설명된 시스템 또는 장치는 하드웨어 구성요소, 소프트웨어 구성요소 또는 하드웨어 구성요소 및 소프트웨어 구성요소의 조합으로 구현될 수 있다. 예를 들어, 실시예들에서 설명된 장치 및 구성요소는, 예를 들어, 프로세서, 콘트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPGA(field programmable gate array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 하나 이상의 범용 컴퓨터 또는 특수 목적 컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 상기 운영 체제 상에서 수행되는 하나 이상의 소프트웨어 어플리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다. 이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 콘트롤러를 포함할 수 있다. 또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.The system or device described above may be implemented as a hardware component, a software component, or a combination of a hardware component and a software component. For example, the devices and components described in the embodiments are, for example, a processor, a controller, an arithmetic logic unit (ALU), a digital signal processor, a microcomputer, a field programmable gate array (FPGA). , A programmable logic unit (PLU), a microprocessor, or any other device capable of executing and responding to instructions, such as one or more general purpose computers or special purpose computers. The processing device may execute an operating system (OS) and one or more software applications executed on the operating system. In addition, the processing device may access, store, manipulate, process, and generate data in response to the execution of software. For the convenience of understanding, although it is sometimes described that one processing device is used, one of ordinary skill in the art, the processing device is a plurality of processing elements and/or a plurality of types of processing elements. It can be seen that it may include. For example, the processing device may include a plurality of processors or one processor and one controller. In addition, other processing configurations are possible, such as a parallel processor.
소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상 장치(virtual equipment), 컴퓨터 저장 매체 또는 장치에 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.The software may include a computer program, code, instructions, or a combination of one or more of these, configuring the processing unit to behave as desired or processed independently or collectively. You can command the device. Software and/or data may be interpreted by a processing device or to provide instructions or data to a processing device, of any type of machine, component, physical device, virtual equipment, computer storage medium or device. Can be embodyed in The software may be distributed over networked computer systems and stored or executed in a distributed manner. Software and data may be stored on one or more computer-readable recording media.
실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다.The method according to the embodiment may be implemented in the form of program instructions that can be executed through various computer means and recorded in a computer-readable medium. The computer-readable medium may include program instructions, data files, data structures, and the like alone or in combination. The program instructions recorded on the medium may be specially designed and configured for the embodiment, or may be known and usable to those skilled in computer software. Examples of computer-readable recording media include magnetic media such as hard disks, floppy disks, and magnetic tapes, optical media such as CD-ROMs and DVDs, and magnetic media such as floptical disks. -A hardware device specially configured to store and execute program instructions such as magneto-optical media, and ROM, RAM, flash memory, and the like. Examples of the program instructions include not only machine language codes such as those produced by a compiler, but also high-level language codes that can be executed by a computer using an interpreter or the like.
이상과 같이 실시예들이 비록 한정된 실시예와 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기의 기재로부터 다양한 수정 및 변형이 가능하다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.As described above, although the embodiments have been described by the limited embodiments and drawings, various modifications and variations are possible from the above description by those of ordinary skill in the art. For example, the described techniques are performed in a different order from the described method, and/or components such as a system, structure, device, circuit, etc. described are combined or combined in a form different from the described method, or other components Alternatively, even if substituted or substituted by an equivalent, an appropriate result can be achieved.
그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 특허청구범위의 범위에 속한다.Therefore, other implementations, other embodiments, and claims and equivalents fall within the scope of the claims to be described later.
Claims (20)
상기 이미지 처리 방법은,
입력 이미지를 분석하여 이펙트를 적용하기 위한 영역을 계산하는 단계;
상기 이펙트의 적용을 위한 서로 다른 레이어의 복수의 마스크 이미지들을 결정하는 단계;
상기 계산된 영역의 적어도 하나의 좌표에 대해 적어도 둘 이상의 마스크 이미지들이 서로 다른 가중치를 갖도록 상기 복수의 마스크 이미지들 각각의 좌표별 가중치를 결정하는 단계;
상기 복수의 마스크 이미지들 각각에 적용하기 위한 룩업테이블을 결정하는 단계;
상기 복수의 마스크 이미지들 각각에 대응하는 룩업테이블을 적용하되, 상기 좌표별 가중치에 따라 상기 적어도 둘 이상의 마스크 이미지들에 서로 다른 강도로 룩업테이블을 적용하는 단계;
상기 룩업테이블이 적용된 복수의 마스크 이미지들을 상기 계산된 영역에 상기 이펙트를 적용하기 위한 하나의 이미지로서 결합하여 레이어드 마스크 이미지를 생성하는 단계; 및
상기 생성된 레이어드 마스크 이미지를 상기 계산된 영역에 적용하여 결과 이미지를 생성하는 단계
를 포함하는 것을 특징으로 하는 컴퓨터 프로그램.In a computer program stored in a computer-readable recording medium for executing an image processing method on a computer in combination with a computer,
The image processing method,
Analyzing the input image and calculating an area for applying the effect;
Determining a plurality of mask images of different layers for applying the effect;
Determining a weight for each coordinate of each of the plurality of mask images such that at least two or more mask images have different weights for at least one coordinate of the calculated area;
Determining a lookup table to be applied to each of the plurality of mask images;
Applying a lookup table corresponding to each of the plurality of mask images, and applying a lookup table with different intensities to the at least two mask images according to the weights for each coordinate;
Generating a layered mask image by combining the plurality of mask images to which the lookup table is applied as one image for applying the effect to the calculated area; And
Generating a result image by applying the generated layered mask image to the calculated area
Computer program comprising a.
상기 이미지 처리 방법은,
복수의 이펙트들 각각마다 기 생성된 마스크 이미지들을 대응하는 이펙트와 연관하여 저장소에 저장 및 관리하는 단계
를 더 포함하고,
상기 복수의 마스크 이미지들을 결정하는 단계는,
상기 결정된 이펙트와 연관되어 저장된 마스크 이미지들을 상기 저장소에서 추출하는 것을 특징으로 하는 컴퓨터 프로그램.The method of claim 1,
The image processing method,
Step of storing and managing mask images previously generated for each of a plurality of effects in a storage in association with a corresponding effect
Including more,
Determining the plurality of mask images,
And extracting mask images stored in association with the determined effect from the storage.
상기 복수의 마스크 이미지들을 결정하는 단계는,
상기 이펙트에 따라 기설정된 색상 테마별로 서로 다른 레이어의 마스크 이미지들을 생성하는 것을 특징으로 하는 컴퓨터 프로그램.The method of claim 1,
Determining the plurality of mask images,
And generating mask images of different layers for each preset color theme according to the effect.
상기 룩업테이블은 대응하는 마스크 이미지의 좌표별 색상값을 입력 파라미터로 입력 받아 입력된 색상값에 대해 지정된 색상값을 결과로 산출하는 함수를 포함하는 것을 특징으로 하는 컴퓨터 프로그램.The method of claim 1,
And the lookup table includes a function that receives a color value for each coordinate of a corresponding mask image as an input parameter and calculates a color value designated for the input color value as a result.
상기 룩업테이블을 결정하는 단계는,
제1 마스크 이미지가 상기 입력 이미지에 적용될 위치에 따른 중요도를 계산하고, 상기 계산된 중요도에 따라 결정되는 색상 크기의 룩업테이블을 상기 제1 마스크 이미지에 대응하여 결정하는 것을 특징으로 하는 컴퓨터 프로그램. The method of claim 1,
The step of determining the lookup table,
A computer program, comprising: calculating an importance level according to a position where a first mask image is to be applied to the input image, and determining a lookup table of a color size determined according to the calculated importance level corresponding to the first mask image.
상기 복수의 마스크 이미지들 각각은 상기 입력 이미지의 대응하는 좌표의 밝기에 따른 가중치 정보를 대응하는 좌표별로 포함하는 것을 특징으로 하는 컴퓨터 프로그램.The method of claim 1,
Each of the plurality of mask images includes weight information according to brightness of a corresponding coordinate of the input image for each corresponding coordinate.
상기 가중치 정보는 상기 마스크 이미지의 좌표별 밝기를 통해 상기 마스크 이미지에 설정되는 것을 특징으로 하는 컴퓨터 프로그램.The method of claim 6,
The weight information is set in the mask image through the brightness of each coordinate of the mask image.
상기 룩업테이블은 대응하는 마스크 이미지의 좌표별 색상값 및 좌표별 가중치 정보를 입력 파라미터로 입력 받아 입력된 색상값에 대해 지정된 색상값을 결과로 산출하되, 상기 가중치 정보에 따라 산출되는 색상값의 밝기를 조절하여 산출하는 함수를 포함하는 것을 특징으로 하는 컴퓨터 프로그램.The method of claim 6,
The lookup table receives color values for each coordinate of a corresponding mask image and weight information for each coordinate as an input parameter, and calculates a color value designated for the input color value as a result, and the brightness of the color value calculated according to the weight information Computer program, characterized in that it comprises a function for calculating by adjusting.
상기 이펙트는 사용자의 전자 기기가 포함하는 카메라를 통해 입력되는 상기 사용자의 얼굴 이미지에 적용될 화장 이펙트들을 포함하고,
상기 이펙트를 적용하기 위한 영역을 계산하는 단계는,
상기 사용자에 의해 선택되는 화장 이펙트들이 적용될 상기 얼굴 이미지에서의 적어도 하나의 좌표를 계산하는 것을 특징으로 하는 컴퓨터 프로그램.The method of claim 1,
The effect includes makeup effects to be applied to the user's face image input through a camera included in the user's electronic device,
The step of calculating an area for applying the effect,
A computer program, characterized in that calculating at least one coordinate in the face image to which the makeup effects selected by the user are to be applied.
입력 이미지를 분석하여 이펙트를 적용하기 위한 영역을 계산하는 단계;
상기 이펙트의 적용을 위한 서로 다른 레이어의 복수의 마스크 이미지들을 결정하는 단계;
상기 계산된 영역의 적어도 하나의 좌표에 대해 적어도 둘 이상의 마스크 이미지들이 서로 다른 가중치를 갖도록 상기 복수의 마스크 이미지들 각각의 좌표별 가중치를 결정하는 단계;
상기 복수의 마스크 이미지들 각각에 적용하기 위한 룩업테이블을 결정하는 단계;
상기 복수의 마스크 이미지들 각각에 대응하는 룩업테이블을 적용하되, 상기 좌표별 가중치에 따라 상기 적어도 둘 이상의 마스크 이미지들에 서로 다른 강도로 룩업테이블을 적용하는 단계;
상기 룩업테이블이 적용된 복수의 마스크 이미지들을 상기 계산된 영역에 상기 이펙트를 적용하기 위한 하나의 이미지로서 결합하여 레이어드 마스크 이미지를 생성하는 단계; 및
상기 생성된 레이어드 마스크 이미지를 상기 계산된 영역에 적용하여 결과 이미지를 생성하는 단계
를 포함하는 것을 특징으로 하는 이미지 처리 방법.In the image processing method,
Analyzing the input image and calculating an area for applying the effect;
Determining a plurality of mask images of different layers for applying the effect;
Determining a weight for each coordinate of each of the plurality of mask images such that at least two or more mask images have different weights for at least one coordinate of the calculated area;
Determining a lookup table to be applied to each of the plurality of mask images;
Applying a lookup table corresponding to each of the plurality of mask images, and applying a lookup table with different intensities to the at least two mask images according to the weights for each coordinate;
Generating a layered mask image by combining the plurality of mask images to which the lookup table is applied as one image for applying the effect to the calculated area; And
Generating a result image by applying the generated layered mask image to the calculated area
Image processing method comprising a.
복수의 이펙트들 각각마다 기 생성된 마스크 이미지들을 대응하는 이펙트와 연관하여 저장소에 저장 및 관리하는 단계
를 더 포함하고,
상기 복수의 마스크 이미지들을 결정하는 단계는,
상기 결정된 이펙트와 연관되어 저장된 마스크 이미지들을 상기 저장소에서 추출하는 것을 특징으로 하는 이미지 처리 방법.The method of claim 10,
Step of storing and managing mask images previously generated for each of a plurality of effects in a storage in association with a corresponding effect
Including more,
Determining the plurality of mask images,
And extracting mask images stored in association with the determined effect from the storage.
상기 복수의 마스크 이미지들을 결정하는 단계는,
상기 이펙트에 따라 기설정된 색상 테마별로 서로 다른 레이어의 마스크 이미지들을 생성하는 것을 특징으로 하는 이미지 처리 방법.The method of claim 10,
Determining the plurality of mask images,
And generating mask images of different layers for each preset color theme according to the effect.
상기 룩업테이블은 대응하는 마스크 이미지의 좌표별 색상값을 입력 파라미터로 입력 받아 입력된 색상값에 대해 지정된 색상값을 결과로 산출하는 함수를 포함하는 것을 특징으로 하는 이미지 처리 방법.The method of claim 10,
And the lookup table includes a function that receives a color value for each coordinate of a corresponding mask image as an input parameter and calculates a color value designated for the input color value as a result.
상기 룩업테이블을 결정하는 단계는,
제1 마스크 이미지가 상기 입력 이미지에 적용될 위치에 따른 중요도를 계산하고, 상기 계산된 중요도에 따라 결정되는 색상 크기의 룩업테이블을 상기 제1 마스크 이미지에 대응하여 결정하는 것을 특징으로 하는 이미지 처리 방법.The method of claim 10,
The step of determining the lookup table,
And calculating an importance according to a position to which a first mask image is to be applied to the input image, and determining a lookup table of a color size determined according to the calculated importance corresponding to the first mask image.
상기 복수의 마스크 이미지들 각각은 상기 입력 이미지의 대응하는 좌표의 밝기에 따른 가중치 정보를 대응하는 좌표별로 포함하는 것을 특징으로 하는 이미지 처리 방법.The method of claim 10,
And each of the plurality of mask images includes weight information according to brightness of a corresponding coordinate of the input image for each corresponding coordinate.
상기 가중치 정보는 상기 마스크 이미지의 좌표별 밝기를 통해 상기 마스크 이미지에 설정되는 것을 특징으로 하는 이미지 처리 방법.The method of claim 15,
The weight information is set in the mask image through brightness of each coordinate of the mask image.
상기 룩업테이블은 대응하는 마스크 이미지의 좌표별 색상값 및 좌표별 가중치 정보를 입력 파라미터로 입력 받아 입력된 색상값에 대해 지정된 색상값을 결과로 산출하되, 상기 가중치 정보에 따라 산출되는 색상값의 밝기를 조절하여 산출하는 함수를 포함하는 것을 특징으로 하는 이미지 처리 방법.The method of claim 15,
The lookup table receives color values for each coordinate of a corresponding mask image and weight information for each coordinate as an input parameter, and calculates a color value designated for the input color value as a result, and the brightness of the color value calculated according to the weight information An image processing method comprising a function that calculates by adjusting.
컴퓨터 판독 가능한 명령을 실행하도록 구현되는 적어도 하나의 프로세서
를 포함하고,
상기 적어도 하나의 프로세서는,
입력 이미지를 분석하여 이펙트를 적용하기 위한 영역을 계산하고,
상기 이펙트의 적용을 위한 서로 다른 레이어의 복수의 마스크 이미지들을 결정하고,
상기 계산된 영역의 적어도 하나의 좌표에 대해 적어도 둘 이상의 마스크 이미지들이 서로 다른 가중치를 갖도록 상기 복수의 마스크 이미지들 각각의 좌표별 가중치를 결정하고,
상기 복수의 마스크 이미지들 각각에 적용하기 위한 룩업테이블을 결정하고,
상기 복수의 마스크 이미지들 각각에 대응하는 룩업테이블을 적용하되, 상기 좌표별 가중치에 따라 상기 적어도 둘 이상의 마스크 이미지들에 서로 다른 강도로 룩업테이블을 적용하고,
상기 룩업테이블이 적용된 복수의 마스크 이미지들을 상기 계산된 영역에 상기 이펙트를 적용하기 위한 하나의 이미지로서 결합하여 레이어드 마스크 이미지를 생성하고,
상기 생성된 레이어드 마스크 이미지를 상기 계산된 영역에 적용하여 결과 이미지를 생성하는 것
을 특징으로 하는 이미지 처리 시스템.In the image processing system for executing the image processing method,
At least one processor implemented to execute computer readable instructions
Including,
The at least one processor,
Analyze the input image to calculate the area for applying the effect,
Determining a plurality of mask images of different layers for applying the effect,
Determining a weight for each coordinate of each of the plurality of mask images such that at least two or more mask images have different weights for at least one coordinate of the calculated area,
Determining a lookup table to be applied to each of the plurality of mask images,
Applying a lookup table corresponding to each of the plurality of mask images, and applying a lookup table with different intensities to the at least two mask images according to the weight for each coordinate,
A layered mask image is generated by combining a plurality of mask images to which the lookup table is applied as one image for applying the effect to the calculated area,
Applying the generated layered mask image to the calculated area to generate a result image
Image processing system, characterized in that.
상기 복수의 마스크 이미지들 각각은 상기 입력 이미지의 대응하는 좌표의 밝기에 따른 가중치 정보를 대응하는 좌표별로 포함하는 것을 특징으로 하는 이미지 처리 시스템.The method of claim 18,
Each of the plurality of mask images includes weight information according to brightness of corresponding coordinates of the input image for each corresponding coordinate.
상기 가중치 정보는 상기 마스크 이미지의 좌표별 밝기를 통해 상기 마스크 이미지에 설정되고,
상기 룩업테이블은 대응하는 마스크 이미지의 좌표별 색상값 및 좌표별 가중치 정보를 입력 파라미터로 입력 받아 입력된 색상값에 대해 지정된 색상값을 결과로 산출하되, 상기 가중치 정보에 따라 산출되는 색상값의 밝기를 조절하여 산출하는 함수를 포함하는 것을 특징으로 하는 이미지 처리 시스템.The method of claim 19,
The weight information is set in the mask image through the brightness of each coordinate of the mask image,
The lookup table receives color values for each coordinate of a corresponding mask image and weight information for each coordinate as an input parameter, and calculates a color value designated for the input color value as a result, and the brightness of the color value calculated according to the weight information An image processing system comprising a function for calculating by adjusting.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020180108481A KR102160092B1 (en) | 2018-09-11 | 2018-09-11 | Method and system for processing image using lookup table and layered mask |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020180108481A KR102160092B1 (en) | 2018-09-11 | 2018-09-11 | Method and system for processing image using lookup table and layered mask |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020160176905A Division KR101899685B1 (en) | 2016-09-01 | 2016-12-22 | Method and system for processing image using lookup table and layered mask |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20180103037A KR20180103037A (en) | 2018-09-18 |
KR102160092B1 true KR102160092B1 (en) | 2020-09-25 |
Family
ID=63718417
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020180108481A KR102160092B1 (en) | 2018-09-11 | 2018-09-11 | Method and system for processing image using lookup table and layered mask |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102160092B1 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102593156B1 (en) | 2023-08-23 | 2023-10-24 | 이효원 | Photo Correction Device and Driving Method Thereof |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11335088B2 (en) * | 2020-03-30 | 2022-05-17 | Snap Inc. | Augmented reality item collections |
KR20220161461A (en) * | 2020-03-31 | 2022-12-06 | 스냅 인코포레이티드 | Augmented Reality Experiences for Physical Products in Messaging Systems |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP0187133A2 (en) | 1984-12-24 | 1986-07-09 | Polaroid Corporation | Thermal recording medium and method |
JP2003219191A (en) * | 2002-01-21 | 2003-07-31 | Sharp Corp | Image processor and image forming apparatus comprising it |
JP2003259213A (en) * | 2002-02-28 | 2003-09-12 | Sanyo Electric Co Ltd | Image processor and image processing method |
JP2004007202A (en) * | 2002-05-31 | 2004-01-08 | Fuji Photo Film Co Ltd | Image processor |
US20050035976A1 (en) | 2003-06-26 | 2005-02-17 | Canon Kabushiki Kaisha | Antialiasing compositing in graphic object rendering |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CA1258319A (en) * | 1985-07-26 | 1989-08-08 | Milton J. Kimmel | Configurable parallel pipeline image processing system |
EP0850462B1 (en) * | 1995-08-04 | 2006-10-04 | Microsoft Corporation | Method and system for rendering graphical objects to image chunks and combining image layers into a display image |
US7302111B2 (en) * | 2001-09-12 | 2007-11-27 | Micronic Laser Systems A.B. | Graphics engine for high precision lithography |
EP2873240A1 (en) * | 2012-07-13 | 2015-05-20 | Huawei Technologies Co., Ltd. | Apparatus for coding a bit stream representing a three-dimensional video |
KR20140095739A (en) * | 2013-01-25 | 2014-08-04 | 한국전자통신연구원 | Method for virtual makeup and apparatus therefor |
-
2018
- 2018-09-11 KR KR1020180108481A patent/KR102160092B1/en active IP Right Grant
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP0187133A2 (en) | 1984-12-24 | 1986-07-09 | Polaroid Corporation | Thermal recording medium and method |
JP2003219191A (en) * | 2002-01-21 | 2003-07-31 | Sharp Corp | Image processor and image forming apparatus comprising it |
JP2003259213A (en) * | 2002-02-28 | 2003-09-12 | Sanyo Electric Co Ltd | Image processor and image processing method |
JP2004007202A (en) * | 2002-05-31 | 2004-01-08 | Fuji Photo Film Co Ltd | Image processor |
US20050035976A1 (en) | 2003-06-26 | 2005-02-17 | Canon Kabushiki Kaisha | Antialiasing compositing in graphic object rendering |
Non-Patent Citations (1)
Title |
---|
중요도 지도에 기반한 관심 영역 비디오 압축, 2014년도 한국방송공학회 추계 학술대회(2014)* |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102593156B1 (en) | 2023-08-23 | 2023-10-24 | 이효원 | Photo Correction Device and Driving Method Thereof |
KR102627785B1 (en) | 2023-08-23 | 2024-01-19 | 이효원 | Photo Correction Device and Driving Method Thereof |
Also Published As
Publication number | Publication date |
---|---|
KR20180103037A (en) | 2018-09-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10437541B2 (en) | Graphics engine and environment for efficient real time rendering of graphics that are not pre-known | |
KR102160092B1 (en) | Method and system for processing image using lookup table and layered mask | |
US11087430B2 (en) | Customizable render pipelines using render graphs | |
KR101989089B1 (en) | Method and system for authoring ar content by collecting ar content templates based on crowdsourcing | |
US20150348316A1 (en) | Equivalent Lighting For Mixed 2D and 3D Scenes | |
US20210398331A1 (en) | Method for coloring a target image, and device and computer program therefor | |
KR102199735B1 (en) | Method and system for sharing effects for video | |
US11094036B2 (en) | Task execution on a graphics processor using indirect argument buffers | |
US11887229B2 (en) | Method and system for populating a digital environment using a semantic map | |
US20190385344A1 (en) | Applying colors on textures | |
EP3137993B1 (en) | Combining compute tasks for a graphics processing unit | |
WO2016200738A1 (en) | Graphics engine and environment for encapsulating graphics libraries and hardware | |
US20150348315A1 (en) | Dynamic Lighting Effects For Textures Without Normal Maps | |
CN111583379A (en) | Rendering method and device of virtual model, storage medium and electronic equipment | |
CN114669047B (en) | Image processing method, electronic equipment and storage medium | |
JP6820160B2 (en) | Programs and systems that render images | |
Wang et al. | Computer vision accelerators for mobile systems based on opencl gpgpu co-processing | |
KR102551914B1 (en) | Method and system for generating interactive object viewer | |
US10888777B2 (en) | Deep learning from real world and digital exemplars | |
KR20150130307A (en) | Graphics processing using multiple primitives | |
KR101899685B1 (en) | Method and system for processing image using lookup table and layered mask | |
CN113419806B (en) | Image processing method, device, computer equipment and storage medium | |
Kumar et al. | Using flutter to develop a hybrid application of augmented reality | |
CN112346579A (en) | Pointing and interaction control device for large-scale desktop model | |
US20190311424A1 (en) | Product visualization system and method for using two-dimensional images to interactively display photorealistic representations of three-dimensional objects based on smart tagging |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A107 | Divisional application of patent | ||
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
AMND | Amendment | ||
E601 | Decision to refuse application | ||
AMND | Amendment | ||
J201 | Request for trial against refusal decision | ||
J301 | Trial decision |
Free format text: TRIAL NUMBER: 2019101002421; TRIAL DECISION FOR APPEAL AGAINST DECISION TO DECLINE REFUSAL REQUESTED 20190718 Effective date: 20200611 |
|
GRNO | Decision to grant (after opposition) | ||
GRNT | Written decision to grant |