KR20180103037A - 레이어드 마스크와 룩업테이블을 이용한 이미지 처리 방법 및 시스템 - Google Patents

레이어드 마스크와 룩업테이블을 이용한 이미지 처리 방법 및 시스템 Download PDF

Info

Publication number
KR20180103037A
KR20180103037A KR1020180108481A KR20180108481A KR20180103037A KR 20180103037 A KR20180103037 A KR 20180103037A KR 1020180108481 A KR1020180108481 A KR 1020180108481A KR 20180108481 A KR20180108481 A KR 20180108481A KR 20180103037 A KR20180103037 A KR 20180103037A
Authority
KR
South Korea
Prior art keywords
image
mask
mask images
lookup table
coordinate
Prior art date
Application number
KR1020180108481A
Other languages
English (en)
Other versions
KR102160092B1 (ko
Inventor
안두경
박성현
서동진
조현태
Original Assignee
스노우 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 스노우 주식회사 filed Critical 스노우 주식회사
Priority to KR1020180108481A priority Critical patent/KR102160092B1/ko
Publication of KR20180103037A publication Critical patent/KR20180103037A/ko
Application granted granted Critical
Publication of KR102160092B1 publication Critical patent/KR102160092B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/40Filling a planar surface by adding surface attributes, e.g. colour or texture
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/90Determination of colour characteristics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Processing (AREA)

Abstract

레이어드 마스크와 룩업테이블을 이용한 이미지 처리 방법 및 시스템을 제공한다. 이미지 처리 방법은, 입력 이미지와 연관하여 결정된 이펙트를 상기 입력 이미지에 적용하기 위해, 상기 입력 이미지를 분석하여 상기 이펙트를 적용하기 위한 영역을 계산하는 단계, 상기 결정된 이펙트와 연관하여 상기 계산된 영역에 적용될 복수의 마스크 이미지들을 결정하는 단계, 상기 결정된 복수의 마스크 이미지들 각각에 적용하기 위한 룩업테이블을 결정하는 단계, 상기 복수의 마스크 이미지들 각각에 대응하는 룩업테이블을 적용하고, 상기 룩업테이블이 적용된 복수의 마스크 이미지들을 결합하여 레이어드 마스크 이미지를 생성하는 단계 및 상기 생성된 레이어드 마스크 이미지를 상기 계산된 영역에 적용하여 결과 이미지를 생성하는 단계를 포함할 수 있다.

Description

레이어드 마스크와 룩업테이블을 이용한 이미지 처리 방법 및 시스템{METHOD AND SYSTEM FOR PROCESSING IMAGE USING LOOKUP TABLE AND LAYERED MASK}
아래의 설명은 레이어드 마스크와 룩업테이블을 이용한 이미지 처리 방법 및 시스템, 그리고 컴퓨터와 결합되어 이미지 처리 방법을 컴퓨터에 실행시키기 위해 컴퓨터 판독 가능한 기록매체에 저장된 컴퓨터 프로그램에 관한 것이다.
이미지에 다양한 이펙트를 적용하기 위한 종래기술들이 존재한다. 특히, 사용자의 모습이 담긴 이미지에 화장용품들과 같은 실제 제품이 사용된 것과 같은 이펙트를 가상으로 적용하여 보여줌으로써, 사용자가 실제 제품을 구매하지 않은 상태에서도 실제 제품의 사용에 따른 결과를 미리 확인해볼 수 있도록 서비스하는 기술들이 존재한다.
예를 들어, 종래기술에서는 제품에 따른 이펙트의 적용을 위한 텍스쳐들을 미리 생성하여 관리하고, 사용자가 입력한 이미지의 지정된 위치에 선택된 제품에 대해 미리 생성된 텍스쳐를 덮어씌우는 방식으로 가상의 이펙트를 이미지상에 적용할 수 있다. 도 1은 종래기술에 따른 이미지 처리 방법의 일례를 도시한 도면이다. 이러한 도 1은 입력된 이미지(110)에 미리 생성된 텍스쳐(120)를 단순히 오버랩하여 가상의 이펙트를 이미지상에 적용하는 예를 나타내고 있다. 이러한 종래기술은 구현이 간편하고 이펙트의 직관적인 적용이 가능하다는 점, 서비스 제공자가 원하는 이펙트를 이미지상에 쉽게 적용할 수 있다는 장점이 있다. 그러나 이러한 종래기술은 미리 생성된 텍스쳐를 사용하기 때문에 입력된 이미지에 나타난 따라 피부나 입술의 주름, 이미지에 표현된 재질 등의 영향을 텍스쳐에 반영할 수 없다는 문제점이 있으며, 이미지에 나타나는 주변 광원에 따른 영향 등도 텍스쳐에 반영할 수 없기 때문에 이미지가 자연스럽지 못하다는 문제점이 있다.
또 다른 종래기술로 입력된 이미지에 적절한 연산처리를 하여 이미지의 색상을 변화시키는 기술이 존재한다. 도 2는 종래기술에 따른 이미지 처리 방법의 다른 예를 도시한 도면이다. 도 2에서는 커브(curve)의 연산처리를 이용하여 입력된 이미지의 색상을 다양하게 변화시키는 예를 나타내고 있다. 예를 들어 포토샵 등의 이미지 편집툴은 입력된 이미지에 다양한 효과를 적용할 수 있다. 이러한 종래기술은 입력되는 색상값에 따라 다양한 다른 변화를 입력된 이미지에 적용할 수 있어 보다 자연스러운 변환이 가능하다는 장점이 있다. 그러나 이러한 종래기술은 계산량이 많아, 많은 CPU 자원이 요구된다는 문제점이 있을 뿐만 아니라, 색상을 기반으로 이미지 전반에 걸쳐 결과가 결정되기 때문에 입력된 이미지의 특정 위치에 효과를 주기는 어렵다는 문제점이 있다.
참고자료: <PCT/KR/2014/010167, US20340019540A1, US20330332543A1, US20330260893>
원본 이미지에 색상변화가 적용될 영역에 대응하여 변화시키고자 하는 색상 테마별로 각각의 레이어를 생성하고, 생성된 복수의 레이어들을 단색 채널 이미지로 변환하여 하나의 이미지에 결합함으로써 레이어드 마스크를 생성하고, 생성된 레이어드 마스크를 원본 이미지에 적용함으로써 이미지 영역에 따라 원하는 색상 변화를 적용할 수 있는 이미지 처리 방법 및 시스템, 그리고 컴퓨터와 결합되어 이미지 처리 방법을 컴퓨터에 실행시키기 위해 컴퓨터 판독 가능한 기록매체에 저장된 컴퓨터 프로그램을 제공한다.
색상 변화를 위해 원본 색상을 출력 색상으로 1:1 치환해주는 색상 변환 테이블로서 미리 생성된 룩업테이블을 이용하여 계산량을 줄일 수 있으며, 다양하게 생성된 룩업테이블을 원본 이미지에 적용할 위치의 중요도에 따라 선택하여 사용함으로써 메모리 공간을 효율적으로 사용할 수 있는 이미지 처리 방법 및 시스템, 그리고 컴퓨터와 결합되어 이미지 처리 방법을 컴퓨터에 실행시키기 위해 컴퓨터 판독 가능한 기록매체에 저장된 컴퓨터 프로그램을 제공한다.
원본 이미지에 나타난 상황에 따라 이미지에 적용되어야 할 룩업테이블을 레이어별로 결정함으로써, 환경의 변화나 조명의 변화에도 자연스러운 이미지 처리가 가능한 이미지 처리 방법 및 시스템, 그리고 컴퓨터와 결합되어 이미지 처리 방법을 컴퓨터에 실행시키기 위해 컴퓨터 판독 가능한 기록매체에 저장된 컴퓨터 프로그램을 제공한다.
컴퓨터와 결합되어 이미지 처리 방법을 컴퓨터에 실행시키기 위해 컴퓨터 판독 가능한 기록매체에 저장된 컴퓨터 프로그램에 있어서, 상기 이미지 처리 방법은, 입력 이미지와 연관하여 결정된 이펙트를 상기 입력 이미지에 적용하기 위해, 상기 입력 이미지를 분석하여 상기 이펙트를 적용하기 위한 영역을 계산하는 단계; 상기 결정된 이펙트와 연관하여 상기 계산된 영역에 적용될 복수의 마스크 이미지들을 결정하는 단계; 상기 결정된 복수의 마스크 이미지들 각각에 적용하기 위한 룩업테이블을 결정하는 단계; 상기 복수의 마스크 이미지들 각각에 대응하는 룩업테이블을 적용하고, 상기 룩업테이블이 적용된 복수의 마스크 이미지들을 결합하여 레이어드 마스크 이미지를 생성하는 단계; 및 상기 생성된 레이어드 마스크 이미지를 상기 계산된 영역에 적용하여 결과 이미지를 생성하는 단계를 포함하는 것을 특징으로 하는 컴퓨터 프로그램을 제공한다.
이미지 처리 방법에 있어서, 입력 이미지와 연관하여 결정된 이펙트를 상기 입력 이미지에 적용하기 위해, 상기 입력 이미지를 분석하여 상기 이펙트를 적용하기 위한 영역을 계산하는 단계; 상기 결정된 이펙트와 연관하여 상기 계산된 영역에 적용될 복수의 마스크 이미지들을 결정하는 단계; 상기 결정된 복수의 마스크 이미지들 각각에 적용하기 위한 룩업테이블을 결정하는 단계; 상기 복수의 마스크 이미지들 각각에 대응하는 룩업테이블을 적용하고, 상기 룩업테이블이 적용된 복수의 마스크 이미지들을 결합하여 레이어드 마스크 이미지를 생성하는 단계; 및 상기 생성된 레이어드 마스크 이미지를 상기 계산된 영역에 적용하여 결과 이미지를 생성하는 단계를 포함하는 것을 특징으로 하는 이미지 처리 방법을 제공한다.
이미지 처리 방법을 실행하는 이미지 처리 시스템에 있어서, 컴퓨터 판독 가능한 명령을 실행하도록 구현되는 적어도 하나의 프로세서를 포함하고, 상기 적어도 하나의 프로세서는, 입력 이미지와 연관하여 결정된 이펙트를 상기 입력 이미지에 적용하기 위해, 상기 입력 이미지를 분석하여 상기 이펙트를 적용하기 위한 영역을 계산하고, 상기 결정된 이펙트와 연관하여 상기 계산된 영역에 적용될 복수의 마스크 이미지들을 결정하고, 상기 결정된 복수의 마스크 이미지들 각각에 적용하기 위한 룩업테이블을 결정하고, 상기 복수의 마스크 이미지들 각각에 대응하는 룩업테이블을 적용하고, 상기 룩업테이블이 적용된 복수의 마스크 이미지들을 결합하여 레이어드 마스크 이미지를 생성하고, 상기 생성된 레이어드 마스크 이미지를 상기 계산된 영역에 적용하여 결과 이미지를 생성하는 것을 특징으로 하는 이미지 처리 시스템을 제공한다.
원본 이미지에 색상변화가 적용될 영역에 대응하여 변화시키고자 하는 색상 테마별로 각각의 레이어를 생성하고, 생성된 복수의 레이어들을 단색 채널 이미지로 변환하여 하나의 이미지에 결합함으로써 레이어드 마스크를 생성하고, 생성된 레이어드 마스크를 원본 이미지에 적용함으로써 이미지 영역에 따라 원하는 색상 변화를 적용할 수 있다.
색상 변화를 위해 원본 색상을 출력 색상으로 1:1 치환해주는 색상 변환 테이블로서 미리 생성된 룩업테이블을 이용하여 계산량을 줄일 수 있으며, 다양하게 생성된 룩업테이블을 원본 이미지에 적용할 위치의 중요도에 따라 선택하여 사용함으로써 메모리 공간을 효율적으로 사용할 수 있다.
원본 이미지에 나타난 상황에 따라 이미지에 적용되어야 할 룩업테이블을 레이어별로 결정함으로써, 환경의 변화나 조명의 변화에도 자연스러운 이미지 처리를 가능하게 할 수 있다.
도 1은 종래기술에 따른 이미지 처리 방법의 일례를 도시한 도면이다.
도 2는 종래기술에 따른 이미지 처리 방법의 다른 예를 도시한 도면이다.
도 3은 본 발명의 일실시예에 따른 네트워크 환경의 예를 도시한 도면이다.
도 4는 본 발명의 일실시예에 있어서, 전자 기기 및 서버의 내부 구성을 설명하기 위한 블록도이다.
도 5는 본 발명의 일실시예에 있어서, 이미지 처리 방법의 전체 과정의 예를 설명하기 위한 예이다.
도 6은 본 발명의 일실시예에 있어서, 레이어드 마스크 이미지의 예를 도시한 도면이다.
도 7은 본 발명의 일실시예에 있어서, 입력 이미지에 레이어드 마스크 이미지를 적용하는 예를 도시한 도면이다.
도 8은 본 발명의 일실시예에 있어서, 룩업테이블의 예를 도시한 도면이다.
도 9는 본 발명의 일실시예에 따른 이미지 처리 시스템이 포함하는 프로세서의 내부 구성의 예를 설명하기 위한 블록도이다.
도 10은 본 발명의 일실시예에 따른 이미지 처리 시스템이 수행할 수 있는 방법의 예를 도시한 흐름도이다.
이하, 실시예를 첨부한 도면을 참조하여 상세히 설명한다.
본 발명의 실시예들에 따른 이미지 처리를 위한 이미지 처리 시스템은 이후 설명될 전자 기기나 서버를 통해 구현될 수 있으며, 본 발명의 실시예들에 따른 이미지 처리 방법은 상술한 전자 기기나 서버를 통해 수행될 수 있다. 일실시예로, 전자 기기는 본 발명의 실시예들에 따른 레이어드 마스크 및/또는 룩업테이블(LookUp Table, LUT)을 이용하여 특정 제품이나 서비스에 따라 디자인된 이펙트를 입력된 이미지에 적용함으로써 결과 이미지를 제공할 수 있다. 이때, 전자 기기는 전자 기기나 서버에 설치된 컴퓨터 프로그램의 제어에 따라 본 발명의 실시예들에 따른 이미지 처리 방법을 수행할 수 있다. 서버 역시 서버에 설치되는 컴퓨터 프로그램의 제어에 따라 본 발명의 실시예들에 따른 이미지 처리 방법을 수행할 수 있다. 예를 들어, 서버는 전자 기기로부터 이미지를 수신할 수 있고, 레이어드 마스크 및/또는 룩업테이블을 이용하여 특정 제품이나 서비스에 따라 디자인된 이펙트를 수신된 이미지에 적용함으로써, 결과 이미지를 생성할 수 있으며, 생성된 결과 이미지를 전자 기기로 제공할 수 있다. 컴퓨터 프로그램은 상술한 전자 기기나 서버와 같은 컴퓨터와 결합되어 이미지 처리 방법을 컴퓨터에 실행시키기 위해 컴퓨터 판독 가능한 기록매체에 저장될 수 있다.
도 3은 본 발명의 일실시예에 따른 네트워크 환경의 예를 도시한 도면이다. 도 3의 네트워크 환경은 복수의 전자 기기들(310, 320, 330, 340), 복수의 서버들(350, 360) 및 네트워크(370)를 포함하는 예를 나타내고 있다. 이러한 도 3은 발명의 설명을 위한 일례로 전자 기기의 수나 서버의 수가 도 3과 같이 한정되는 것은 아니다.
복수의 전자 기기들(310, 320, 330, 340)은 컴퓨터 장치로 구현되는 고정형 단말이거나 이동형 단말일 수 있다. 복수의 전자 기기들(310, 320, 330, 340)의 예를 들면, 스마트폰(smart phone), 휴대폰, 네비게이션, 컴퓨터, 노트북, 디지털방송용 단말, PDA(Personal Digital Assistants), PMP(Portable Multimedia Player), 태블릿 PC 등이 있다. 일례로 도 3에서는 전자 기기 1(310)의 예로 스마트폰의 형상을 나타내고 있으나, 본 발명의 실시예들에서는 실질적으로 무선 또는 유선 통신 방식을 이용하여 네트워크(370)를 통해 다른 전자 기기들(320, 330, 340) 및/또는 서버(350, 360)와 통신할 수 있는 다양한 기기들 중 하나를 의미할 수 있다.
통신 방식은 제한되지 않으며, 네트워크(370)가 포함할 수 있는 통신망(일례로, 이동통신망, 유선 인터넷, 무선 인터넷, 방송망)을 활용하는 통신 방식뿐만 아니라 기기들간의 근거리 무선 통신 역시 포함될 수 있다. 예를 들어, 네트워크(370)는, PAN(personal area network), LAN(local area network), CAN(campus area network), MAN(metropolitan area network), WAN(wide area network), BBN(broadband network), 인터넷 등의 네트워크 중 하나 이상의 임의의 네트워크를 포함할 수 있다. 또한, 네트워크(370)는 버스 네트워크, 스타 네트워크, 링 네트워크, 메쉬 네트워크, 스타-버스 네트워크, 트리 또는 계층적(hierarchical) 네트워크 등을 포함하는 네트워크 토폴로지 중 임의의 하나 이상을 포함할 수 있으나, 이에 제한되지 않는다.
서버(350, 360) 각각은 복수의 전자 기기들(310, 320, 330, 340)과 네트워크(370)를 통해 통신하여 명령, 코드, 파일, 컨텐츠, 서비스 등을 제공하는 컴퓨터 장치 또는 복수의 컴퓨터 장치들로 구현될 수 있다. 예를 들어, 서버(350)는 네트워크(370)를 통해 접속한 복수의 전자 기기들(310, 320, 330, 340)로 제1 서비스를 제공하는 시스템일 수 있으며, 서버(360) 역시 네트워크(370)를 통해 접속한 복수의 전자 기기들(310, 320, 330, 340)로 제2 서비스를 제공하는 시스템일 수 있다. 보다 구체적인 예로, 서버(350)는 제1 서비스로서 이미지 처리를 위한 서비스를 복수의 전자 기기들(310, 320, 330, 340)로 제공하는 시스템일 수 있다. 또한, 서버(360)는 제2 서비스로서 이미지 처리를 위한 서비스를 제공받을 수 있도록 하기 위한 어플리케이션(일례로, 상술한 컴퓨터 프로그램)의 설치파일을 복수의 전자 기기들(310, 320, 330, 340)로 제공하는 파일 배포 시스템일 수 있다.
도 4는 본 발명의 일실시예에 있어서, 전자 기기 및 서버의 내부 구성을 설명하기 위한 블록도이다. 도 4에서는 전자 기기에 대한 예로서 전자 기기 1(310), 그리고 서버(350)의 내부 구성을 설명한다. 또한, 다른 전자 기기들(320, 330, 340)이나 서버(360) 역시 상술한 전자 기기 1(310) 또는 서버(350)와 동일한 또는 유사한 내부 구성을 가질 수 있다.
전자 기기 1(310)과 서버(350)는 메모리(411, 421), 프로세서(412, 422), 통신 모듈(413, 423) 그리고 입출력 인터페이스(414, 424)를 포함할 수 있다. 메모리(411, 421)는 컴퓨터에서 판독 가능한 기록 매체로서, RAM(random access memory), ROM(read only memory) 및 디스크 드라이브와 같은 비소멸성 대용량 기록장치(permanent mass storage device)를 포함할 수 있다. 여기서 ROM과 디스크 드라이브와 같은 비소멸성 대용량 기록장치는 메모리(411, 421)와는 구분되는 별도의 영구 저장 장치로서 전자 기기 1(310)나 서버(350)에 포함될 수도 있다. 또한, 메모리(411, 421)에는 운영체제와 적어도 하나의 프로그램 코드(일례로 전자 기기 1(310)에 설치되어 구동되는 브라우저나 특정 서비스의 제공을 위해 전자 기기 1(310)에 설치된 어플리케이션 등을 위한 코드)가 저장될 수 있다. 이러한 소프트웨어 구성요소들은 메모리(411, 421)와는 별도의 컴퓨터에서 판독 가능한 기록 매체로부터 로딩될 수 있다. 이러한 별도의 컴퓨터에서 판독 가능한 기록 매체는 플로피 드라이브, 디스크, 테이프, DVD/CD-ROM 드라이브, 메모리 카드 등의 컴퓨터에서 판독 가능한 기록 매체를 포함할 수 있다. 다른 실시예에서 소프트웨어 구성요소들은 컴퓨터에서 판독 가능한 기록 매체가 아닌 통신 모듈(413, 423)을 통해 메모리(411, 421)에 로딩될 수도 있다. 예를 들어, 적어도 하나의 프로그램은 개발자들 또는 어플리케이션의 설치 파일을 배포하는 파일 배포 시스템(일례로, 서버(360))이 네트워크(370)를 통해 제공하는 파일들에 의해 설치되는 프로그램(일례로 상술한 어플리케이션)에 기반하여 메모리(411, 421)에 로딩될 수 있다.
프로세서(412, 422)는 기본적인 산술, 로직 및 입출력 연산을 수행함으로써, 컴퓨터 프로그램의 명령을 처리하도록 구성될 수 있다. 명령은 메모리(411, 421) 또는 통신 모듈(413, 423)에 의해 프로세서(412, 422)로 제공될 수 있다. 예를 들어 프로세서(412, 422)는 메모리(411, 421)와 같은 기록 장치에 저장된 프로그램 코드에 따라 수신되는 명령을 실행하도록 구성될 수 있다.
통신 모듈(413, 423)은 네트워크(370)를 통해 전자 기기 1(310)과 서버(350)가 서로 통신하기 위한 기능을 제공할 수 있으며, 전자 기기 1(310) 및/또는 서버(350)가 다른 전자 기기(일례로 전자 기기 2(320)) 또는 다른 서버(일례로 서버(360))와 통신하기 위한 기능을 제공할 수 있다. 일례로, 전자 기기 1(310)의 프로세서(412)가 메모리(411)와 같은 기록 장치에 저장된 프로그램 코드에 따라 생성한 요청이 통신 모듈(413)의 제어에 따라 네트워크(370)를 통해 서버(350)로 전달될 수 있다. 역으로, 서버(350)의 프로세서(422)의 제어에 따라 제공되는 제어 신호나 명령, 컨텐츠, 파일 등이 통신 모듈(423)과 네트워크(370)를 거쳐 전자 기기 1(310)의 통신 모듈(413)을 통해 전자 기기 1(310)로 수신될 수 있다. 예를 들어 통신 모듈(413)을 통해 수신된 서버(350)의 제어 신호나 명령, 컨텐츠, 파일 등은 프로세서(412)나 메모리(411)로 전달될 수 있고, 컨텐츠나 파일 등은 전자 기기 1(310)가 더 포함할 수 있는 저장 매체(상술한 영구 저장 장치)로 저장될 수 있다.
입출력 인터페이스(414)는 입출력 장치(415)와의 인터페이스를 위한 수단일 수 있다. 예를 들어, 입력 장치는 키보드 또는 마우스 등의 장치를, 그리고 출력 장치는 디스플레이와 같은 장치를 포함할 수 있다. 다른 예로 입출력 인터페이스(414)는 터치스크린과 같이 입력과 출력을 위한 기능이 하나로 통합된 장치와의 인터페이스를 위한 수단일 수도 있다. 입출력 장치(415)는 전자 기기 1(310)과 하나의 장치로 구성될 수도 있다. 또한, 서버(350)의 입출력 인터페이스(424)는 서버(350)와 연결되거나 서버(350)가 포함할 수 있는 입력 또는 출력을 위한 장치(미도시)와의 인터페이스를 위한 수단일 수 있다. 보다 구체적인 예로, 전자 기기 1(310)의 프로세서(412)는 메모리(411)에 로딩된 컴퓨터 프로그램의 명령을 처리함에 있어서 서버(350)나 전자 기기 2(320)가 제공하는 데이터를 이용하여 구성되는 서비스 화면이나 컨텐츠가 입출력 인터페이스(414)를 통해 디스플레이에 표시될 수 있다.
또한, 다른 실시예들에서 전자 기기 1(310) 및 서버(350)는 도 4의 구성요소들보다 더 많은 구성요소들을 포함할 수도 있다. 그러나, 대부분의 종래기술적 구성요소들을 명확하게 도시할 필요성은 없다. 예를 들어, 전자 기기 1(310)은 상술한 입출력 장치(415) 중 적어도 일부를 포함하도록 구현되거나 또는 트랜시버(transceiver), GPS(Global Positioning System) 모듈, 카메라, 각종 센서, 데이터베이스 등과 같은 다른 구성요소들을 더 포함할 수도 있다. 보다 구체적인 예로, 전자 기기 1(310)이 스마트폰인 경우, 일반적으로 스마트폰이 포함하고 있는 가속도 센서나 자이로 센서, 카메라, 각종 물리적인 버튼, 터치패널을 이용한 버튼, 입출력 포트, 진동을 위한 진동기 등의 다양한 구성요소들이 전자 기기 1(310)에 더 포함되도록 구현될 수 있다.
도 5는 본 발명의 일실시예에 있어서, 이미지 처리 방법의 전체 과정의 예를 설명하기 위한 예이다. 본 실시예에 따른 이미지 처리 시스템(500)은 입력된 이미지(510)를 처리하여 결과 이미지(520)를 제공하는 시스템으로서 앞서 설명한 전자 기기 1(310)이나 서버(350)에 구현될 수 있다. 이하에서는 전자 기기 1(310)에 구현된 이미지 처리 시스템(500)을 기준으로 본 실시예에 대해 설명한다.
입력 이미지(510)는 이미지 처리 시스템(500)으로 입력되는 이미지로, 이미지 처리 시스템(500)이 구현된 전자 기기 1(310)의 메모리나 영구 저장 장치에 저장된 이미지들 중 선택된 하나의 이미지이거나, 전자 기기 1(310)의 카메라를 통해 입력된 이미지이거나, 또는 전자 기기 1(310)의 통신 모듈(413)을 이용하여 네트워크(370)를 통해 전자 기기 1(310)이 수신한 이미지들 중 선택된 하나의 이미지일 수 있다.
적용 영역 계산 알고리즘(530)은 입력 이미지(510)에서 이펙트를 적용할 영역을 계산하는 모듈일 수 있으며, 일례로 전자 기기 1(310)의 프로세서(412)가 입력 이미지(510)에서 이펙트를 적용할 영역을 계산하도록 전자 기기 1(310)을 제어하는 프로세서(412)의 기능적 표현일 수 있다. 예를 들어, 이미지 처리 방법을 컴퓨터에 실행시키기 위한 컴퓨터 프로그램은 적용 영역 계산 알고리즘(530)을 위한 프로그램 코드를 포함할 수 있으며, 프로세서(412)는 해당 프로그램 코드에 따른 제어 명령에 따라 입력 이미지(510)에서 이펙트를 적용할 영역을 계산하도록 전자 기기 1(310)을 제어할 수 있다. 보다 구체적인 예로, 입력 이미지(510)에 포함된 사람의 입술 영역에 '립스틱 제품 A를 바른 효과'를 가상으로 적용하기 위해, 프로세서(412)는 적용 영역 계산 알고리즘(530)이 제공하는 제어 명령에 따라 입력 이미지(510)에 포함된 사람의 입술 영역을 결정할 수 있다. 보다 구체적인 예로, 프로세서(412)는 이펙트를 적용하기 위한 입력 이미지(510) 상에서의 좌표를 계산할 수 있다.
디자인된 마스크 이미지(540)는 미리 제작된 마스크 이미지들 또는 입력 이미지(510)에 기반하여 레이어별로 생성된 마스크 이미지들을 포함할 수 있다. 입력 이미지(510)에 기반하여 마스크 이미지들을 생성하기 위해, 앞서 설명한 컴퓨터 프로그램은 마스크 이미지의 생성을 위한 프로그램 코드를 더 포함할 수 있으며, 프로세서(412)는 이러한 프로그램 코드에 따른 제어 명령에 따라 입력 이미지(510)에 기반하여 마스크 이미지들을 생성할 수 있다. 이때, 마스크 이미지들은 이후 설명될 룩업테이블을 적용하는 강도에 대한 정보를 포함할 수 있다. 이러한 마스크 이미지들에 대해서는 이후 더욱 자세히 설명한다.
적용 영역 선정 레이어드 마스크(550)는 적용 영역 계산 알고리즘(530)을 통해 계산된 적용 영역을 위한 디자인된 마스크 이미지(540)를 결합하여 레이어드 마스크 이미지를 생성하는 과정일 수 있다. 다시 말해, 적용 영역 선정 레이어드 마스크(550)는 레이어별로 생성된 마스크 이미지들 중 입력 이미지(510)에 적용될 마스크 이미지들을 결합하여 레이어드 마스크 이미지를 생성할 수 있다.
이때, 적용 영역 선정 레이어드 마스크(550)는 단순히 마스크 이미지들을 결합하는 것이 아니라, 룩업테이블 리스트(560)를 통해 마스크 이미지들 각각마다 적용될 룩업테이블들을 선택하고, 선택된 룩업테이블들을 대응하는 마스크 이미지들에 적용할 수 있다. 룩업테이블 리스트(560)는 미리 제작된 다수의 룩업테이블들의 리스트일 수 있으며, 각각의 룩업테이블들은 품질을 향상시키거나 자원 사용을 줄이기 위해 그 크기를 다르게 적용하는 것이 가능하다. 일례로, 룩업테이블은 입력되는 이미지(일례로, 대응하는 마스크 이미지)의 RGB값을 입력 파라미터로 받아 입력된 RGB 값에 대해 지정된 출력 RGB 값을 결과로 산출하는 함수의 형태로 구현될 수 있다.
마스크 이미지별로 룩업테이블들이 선택되면, 레이어드 마스크 이미지에 포함된 각각의 마스크 이미지별로 룩업테이블을 적용하는 병합연산을 통해 결과 이미지(520)가 생성될 수 있다.
도 6은 본 발명의 일실시예에 있어서, 레이어드 마스크 이미지의 예를 도시한 도면이다. 이미지 처리 시스템(500)은 원본 이미지에 색상변화가 적용될 영역과 관련하여 해당 영역을 변화시키고자 하는 색상 테마에 따라 각각의 레이어들을 생성할 수 있다. 예를 들어, 이미지 처리 시스템(500)은 도 6에 도시된 바와 같이 마스크 이미지 1(mask image 1, 610)과 마스크 이미지 2(mask image 2, 620)를 결합하여 레이어드 마스크 이미지(layered mask image, 630)를 생성할 수 있다. 이때, 이미 설명한 바와 같이 마스크 이미지들(610, 620) 각각은 룩업테이블을 적용하는 강도에 대한 정보를 포함할 수 있다. 예를 들어, 도 6의 마스크 이미지들(610, 620)은 입력 이미지(510)의 분석에 따라 결정된 밝기의 정도를 위치별로 표현하고 있다. 이때, 룩업테이블은 동일한 좌표의 동일한 입력값에 대해 마스크 이미지의 동일한 좌표의 밝기의 정도에 따라 서로 다른 가중치가 적용되어 룩업테이블을 적용하는 강도가 조절될 수 있도록 생성될 수 있다. 구체적인 예로, 도 6의 마스크 이미지들(610, 620)은 입술모양의 외각으로 갈수록 밝기의 정도가 상대적으로 더 낮아지도록 생성되었고, 이에 따라 입술모양의 외각으로 갈수록 룩업테이블이 더 낮은 강도로 적용(출력값에 상대적으로 더 낮은 가중치가 부여됨)된 예를 나타내고 있다. 또한, 마스크 이미지 1(610)과 마스크 이미지 2(620)에는 각각 다른 룩업테이블이 적용될 수 있다. 따라서 이미지 영역에 따라 원하는 색상 변화를 적용하는 것이 가능해지며, 단일 마스크 이미지가 아닌 여러 가지 색상 변화(서로 다른 룩업테이블)를 적용할 수 있어서 리소스 관리에 효율적이고 빠른 속도로 결과 이미지를 생성할 수 있다.
도 7은 본 발명의 일실시예에 있어서, 입력 이미지에 레이어드 마스크 이미지를 적용하는 예를 도시한 도면이다. 도 7은 원본 이미지(Original Image, 710)의 색상과 입술 색상의 유사도를 계산하여 생성된 입술 색 마스크(Lip color mask, 720)와 원본 이미지의 색상에서 평균적인 얼굴 색상에 비해 상대적으로 더 밝은 부분을 하이라이트 마스크(Highlight Mask, 730)로 생성한 예를 나타내고 있다. 또한, 도 7은 입술 색 마스크(720)와 하이라이트 마스크(730)에 각각 서로 다른 룩업테이블을 적용하고 결합하여 레이어드 마스크 이미지를 생성하고, 생성된 레이어드 마스크 이미지를 원본 이미지(710)에 적용하여 결과 이미지(Result, 740)를 생성한 예를 나타내고 있다. 따라서 입력된 이미지에 따라 원하는 색상 변화를 적용할 수 있게 될 뿐만 아니라, 광원이나 환경 색상의 변화에도 자연스러운 결과 이미지를 제공할 수 있게 된다.
도 8은 본 발명의 일실시예에 있어서, 룩업테이블의 예를 도시한 도면이다. 룩업테이블은 원본 색상을 출력 색상으로 1:1 치환해주는 변환 테이블일 수 있으며, 조건(일례로, 특정 제품)에 따라 다양한 크기의 룩업테이블들을 미리 생성해놓을 수 있다. 예를 들어, 립스틱 제품 A에 대해 복수 개의 룩업테이블들이 미리 생성될 수 있다. 이때, 이미지 처리 시스템(500)은 원본 이미지가 입력되면, 도 7을 통해 설명한 바와 같이 원본 이미지에 따라 복수의 마스크 이미지들이 생성될 수 있고, 각각의 마스크 이미지들에 필요한 룩업테이블들을 각각 선택 및 적용하여 하나의 레이어드 마스크 이미지로 결합할 수 있다. 또한, 이미지 처리 시스템(500)은 도 8의 실시예에서와 같이 색상 변환이 적용될 영역의 중요도에 따라 차등적인 크기의 룩업테이블을 적용할 수 있다. 예를 들어, 상대적으로 중요도가 낮은 마스크 이미지의 경우에는 4×4×4 색상의 룩업테이블(810)을 적용하여 리소스 사용을 줄일 수 있고, 상대적으로 중요도가 높은 마스크 이미지의 경우에는 8×8×8 색상의 룩업테이블(820)을 적용하여 결과 이미지의 품질을 향상시킬 수 있다. 보다 구체적인 예로, 립스틱 제품 A에 대한 색상 큐브(830)로서 16×16×16 색상 크기의 룩업테이블이 미리 생성되면, 이미지 처리 시스템(500)은 미리 생성된 룩업테이블을 그대로 이용할 수도 있으며, 필요에 따라 미리 생성된 룩업테이블을 4×4×4 색상 크기의 룩업테이블이나 8×8×8 색상 크기의 룩업테이블로 변환하여 사용할 수도 있다. 이처럼 이미지 처리 시스템(500)은 개별적으로 미리 생성된 룩업테이블들을 활용될 수도 있고, 도 8에서와 같이 색상 큐브(cube)를 통해 필요한 크기의 룩업테이블들을 실시간으로 생성하여 활용할 수도 있다. 색상 큐브(cube)는 특정 조건(일례로 이펙트별로)에 따라 미리 생성될 수 있다.
이처럼, 본 발명의 실시예들에 따르면, 기존 방법에 비해서 공간적으로 원하는 위치에 원하는 테마의 색상 변환 테이블인 룩업테이블을 적용함으로써 이미지의 각 부위에 대해 보다 자연스러운 변환이 가능하고, 미리 만들어진 색상 변환 테이블을 사용함으로써 계산량을 줄일 수 있으며, 적용할 위치에 중요도에 따라 색상 변환 테이블의 크기를 조절하여 메모리 공간을 효율적으로 사용할 수 있고, 상황에 따라 입력된 영상에서 적용되어야 할 색상 변환 테이블과 적용 강도를 실시간으로 계산하여, 환경의 변화나 조명의 변화에도 강인하고 자연스러운 모습의 결과 이미지를 생성할 수 있다.
도 9는 본 발명의 일실시예에 따른 이미지 처리 시스템이 포함하는 프로세서의 내부 구성의 예를 설명하기 위한 블록도이고, 도 10은 본 발명의 일실시예에 따른 이미지 처리 시스템이 수행할 수 있는 방법의 예를 도시한 흐름도이다. 도 9는 이미지 처리 시스템(500)의 프로세서(900)를 나타내고 있다. 이미 설명한 바와 같이 이미지 처리 시스템(500)은 전자 기기 1(310)이나 서버(350)에 구현될 수 있으며, 프로세서(900)는 전자 기기 1(110)의 프로세서(412)나 서버(350)의 프로세서(422)에 대응될 수 있다.
이때, 프로세서(900)는 도 9에 도시된 바와 같이 마스크 이미지 관리부(910), 영역 계산부(920), 마스크 이미지 결정부(930), 룩업테이블 결정부(940), 레이어드 마스크 이미지 생성부(950) 및 결과 이미지 생성부(960)를 포함할 수 있다. 이러한 프로세서(900) 및 프로세서(900)의 구성요소들은 도 10의 이미지 처리 방법이 포함하는 단계들(1010 내지 1060)을 수행할 수 있다. 이때, 프로세서(900) 및 프로세서(900)의 구성요소들은 이미지 처리 시스템(500)의 메모리가 포함하는 운영체제의 코드나 적어도 하나의 컴퓨터 프로그램의 코드에 따른 명령(instruction)을 실행하도록 구현될 수 있다. 여기서 이미지 처리 시스템(500)의 메모리는 전자 기기 1(110)의 메모리(411)나 서버(350)의 메모리(421)에 대응될 수 있다.
또한, 프로세서(900)의 구성요소들은 이미지 처리 시스템(500)에 저장된 코드가 제공하는 제어 명령에 따라 프로세서(900)에 의해 수행되는 프로세서(900)의 서로 다른 기능들(different functions)의 표현들일 수 있다. 예를 들어, 프로세서(900)가 상술한 제어 명령에 따라 입력 이미지에서 특정 영역을 계산하는 프로세서(900)의 기능적 표현으로 영역 계산부(910)가 사용될 수 있다.
단계(1010)에서 마스크 이미지 관리부(910)는 복수의 이펙트들 각각마다 기 생성된 마스크 이미지들을 대응하는 이펙트와 연관하여 저장소에 저장 및 관리할 수 있다. 앞서 설명한 바와 같이, 마스크 이미지들은 이펙트별로 미리 생성되어 이미지 처리 시스템(500)의 저장소에 미리 저장 및 관리될 수 있다. 마스크 이미지 관리부(910)는 이러한 마스크 이미지들을 저장소에 저장하고 관리하는 역할을 처리할 수 있다. 만약, 다른 실시예에서 마스크 이미지가 실시간으로 생성되는 경우, 이러한 마스크 이미지 관리부(910)와 단계(1010)는 생략될 수 있다.
단계(1020)에서 영역 계산부(920)는 입력 이미지와 연관하여 결정된 이펙트를 입력 이미지에 적용하기 위해, 입력 이미지를 분석하여 이펙트를 적용하기 위한 영역을 계산할 수 있다. 이미 설명한 바와 같이 이미지 처리 시스템(500)은 전자 기기 1(310)이나 서버(350)에 구현될 수 있다. 전자 기기 1(310)에 이미지 처리 시스템(500)이 구현된 경우, 입력된 이미지는 전자 기기 1(310)에 기존에 저장되어 있던 이미지거나 전자 기기 1(310)의 카메라를 통해 입력되는 이미지거나 또는 전자 기기 1(310)이 통신 모듈(413)을 통해 수신한 이미지일 수 있다. 다른 실시예에서 서버(350)에 이미지 처리 시스템(500)이 구현된 경우, 입력된 이미지는 전자 기기 1(310)로부터 수신된 이미지일 수 있다. 다시 말해, 일실시예에 따르면, 전자 기기 1(310)에 구현된 이미지 처리 시스템(500)이 직접 입력된 이미지를 처리하여 결과 이미지를 전자 기기 1(310)을 통해 사용자에게 제공할 수 있다. 다른 실시예에 따르면, 전자 기기 1(310)이 서버(350)로 이미지를 전송하면, 서버(350)에 구현된 이미지 처리 시스템(500)이 서버(350)를 통해 입력된 이미지를 처리하여 결과 이미지를 생성하고, 생성된 결과 이미지를 전자 기기 1(310)로 전송할 수도 있다.
이때, 특정 이미지를 분석하여 원하는 영역을 구하는 것은 이미 잘 알려진 이미지 처리 기법들을 통해 당업자가 용이하게 이해할 수 있을 것이다. 한편, 본 발명의 일실시예에서 이펙트는 사용자의 전자 기기 1(110)이 포함하는 카메라를 통해 입력되는 사용자의 얼굴 이미지에 적용될 화장 이펙트들을 포함할 수 있다. 이러한 실시예에서 영역 계산부(920)는 사용자에 의해 선택되는 화장 이펙트들이 적용될 얼굴 이미지에서의 적어도 하나의 좌표를 계산함으로써 이펙트가 적용될 영역을 결정할 수 있다.
단계(1030)에서 마스크 이미지 결정부(930)는 결정된 이펙트와 연관하여 계산된 영역에 적용될 복수의 마스크 이미지들을 결정할 수 있다.
일실시예로, 마스크 이미지 결정부(930)는 단계(1010)에서 마스크 이미지 관리부(910)를 통해 저장소에 저장 및 관리되는 마스크 이미지들 중 결정된 이펙트와 연관된 마스크 이미지들을 추출할 수 있다. 보다 구체적인 예로, 전자 기기 1(310)에 이미지 처리 시스템(500)이 구현된 경우, 전자 기기 1(310)은 전자 기기 1(310)에 설치 및 구동된 어플리케이션의 제어에 따라 복수의 이펙트들 중 적어도 하나의 이펙트를 선택할 수 있는 사용자 인터페이스를 사용자에게 제공할 수 있다. 이때, 마스크 이미지 결정부(930)는 사용자가 사용자 인터페이스를 통해 선택한 이펙트와 연관되어 전자 기기 1(310)의 저장소로부터 추출할 수 있다. 만약, 이미지 처리 시스템(500)이 서버(350)에 구현된 경우, 이미지 처리 시스템(500)은 전자 기기 1(310)로부터 선택된 이펙트에 대한 정보를 수신할 수 있다. 이 경우, 마스크 이미지 결정부(930)는 수신된 정보에 따라 선택된 이펙트와 연관된 마스크 이미지들을 저장소로부터 추출할 수 있다.
다른 실시예로, 마스크 이미지 결정부(930)는 결정된 이펙트에 따라 기설정된 색상 테마별로 서로 다른 레이어의 마스크 이미지들을 직접 생성할 수도 있다. 예를 들어, 특정 화장품과 관련된 화장 이펙트들을 적용하기 위해 다수의 색상 테마들이 미리 설정될 수 있고, 마스크 이미지 결정부(930)는 이러한 색상 테마별로 서로 다른 레이어를 위한 마스크 이미지들을 생성할 수 있다.
단계(1040)에서 룩업테이블 결정부(940)는 결정된 복수의 마스크 이미지들 각각에 적용하기 위한 룩업테이블을 결정할 수 있다. 룩업테이블은 대응하는 마스크 이미지의 좌표별 색상값을 입력 파라미터로 입력 받아 입력된 색상값에 대해 지정된 색상값을 결과로 산출하는 함수를 포함할 수 있다.
또한, 실시예에 따라 복수의 마스크 이미지들 각각은 입력 이미지의 대응하는 좌표의 밝기에 따른 가중치 정보를 대응하는 좌표별로 포함할 수 있다. 예를 들어, 도 6 및 도 7에서는 마스크 이미지가 좌표별 밝기를 포함하고 있음을 나타내고 있다. 이러한 마스크 이미지에 설정된 좌표별 밝기는 입력 이미지의 좌표별 밝기에 대응할 수 있고, 이러한 좌표별 밝기가 가중치 정보로서 활용될 수 있다. 예를 들어, 룩업테이블은 대응하는 마스크 이미지의 좌표별 색상값 및 좌표별 가중치 정보를 입력 파라미터로 입력받을 수 있다. 이 경우, 룩업테이블은 입력된 색상값에 대해 지정된 색상값을 결과로 산출하되, 상기 가중치 정보에 따라 산출되는 색상값의 밝기를 조절하여 산출하는 함수를 포함할 수 있다. 따라서 서로 다른 마스크 이미지들에 서로 다른 룩업테이블이 적용될 수 있을 뿐만 아니라, 서로 다른 룩업테이블을 통해 출력되는 서로 다른 색상들의 밝기까지 마스크 이미지의 좌표별로 제어가 가능해진다.
또한 이미 설명한 바와 같이, 룩업테이블의 색상 크기는 마스크 이미지가 입력 이미지에 적용될 위치에 따른 중요도에 따라 결정될 수 있다. 예를 들어, 룩업테이블 결정부(940)는 제1 마스크 이미지가 입력 이미지에 적용될 위치에 따른 중요도를 계산하고, 계산된 중요도에 따라 결정되는 색상 크기의 룩업테이블을 제1 마스크 이미지에 대응하여 결정할 수 있다. 보다 구체적인 예로, 도 7에서 설명한 립스틱 이펙트와 관련하여 입술 영역의 색상과 관련된 입술 색 마스크(720)가 적용될 원본 이미지(710)의 위치는 입술과 입술 주변의 하이라이트 마스크(730)가 적용될 원본 이미지(710)의 위치보다 상대적으로 중요도가 더 높다고 판단될 수 있다. 이때, 입술 색 마스크(720)에 적용될 제1 룩업테이블의 색상 크기는 하이라이트 마스크(730)에 적용될 제2 룩업테이블의 색상 크기보다 상대적으로 더 크게 결정될 수 있다. 보다 구체적인 예로, 입술 색 마스크(720)에는 8×8×8 색상 크기의 제1 룩업테이블이, 하이라이트 마스크(730)에는 4×4×4 색상 크기의 제2 룩업테이블이 각각 적용될 수 있다.
단계(1050)에서 레이어드 마스크 이미지 생성부(950)는 복수의 마스크 이미지들 각각에 대응하는 룩업테이블을 적용하고, 룩업테이블이 적용된 복수의 마스크 이미지들을 결합하여 레이어드 마스크 이미지를 생성할 수 있다. 이러한 레이어드 마스크 이미지는 도 6을 통해 이미 설명한 바 있다.
단계(1060)에서 결과 이미지 생성부(960)는 생성된 레이어드 마스크 이미지를 계산된 영역에 적용하여 결과 이미지를 생성할 수 있다. 이처럼, 단순히 이펙트에 따라 미리 생성된 이미지를 입력된 이미지에 적용하는 것이 아니라, 색상 테마에 따라 서로 다른 복수의 마스크 이미지들 결합하여 활용함으로써, 입력 이미지의 영역에 따라 원하는 색상 변화를 적용할 수 있다. 또한, 원본 이미지에 적용할 위치의 중요도에 따라 룩업테이블을 선택하여 활용함으로써 계산량을 줄일 수 있을 뿐만 아니라, 원본 이미지에 나타난 상황에 따라 이미지에 적용되어야 할 룩업테이블을 레이어별로 결정함으로써, 환경의 변화나 조명의 변화에도 자연스러운 이미지 처리를 가능하게 할 수 있다.
이상에서 설명된 시스템 또는 장치는 하드웨어 구성요소, 소프트웨어 구성요소 또는 하드웨어 구성요소 및 소프트웨어 구성요소의 조합으로 구현될 수 있다. 예를 들어, 실시예들에서 설명된 장치 및 구성요소는, 예를 들어, 프로세서, 콘트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPGA(field programmable gate array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 하나 이상의 범용 컴퓨터 또는 특수 목적 컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 상기 운영 체제 상에서 수행되는 하나 이상의 소프트웨어 어플리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다. 이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 콘트롤러를 포함할 수 있다. 또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.
소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상 장치(virtual equipment), 컴퓨터 저장 매체 또는 장치에 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.
실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다.
이상과 같이 실시예들이 비록 한정된 실시예와 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기의 기재로부터 다양한 수정 및 변형이 가능하다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.
그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 특허청구범위의 범위에 속한다.

Claims (20)

  1. 컴퓨터와 결합되어 이미지 처리 방법을 컴퓨터에 실행시키기 위해 컴퓨터 판독 가능한 기록매체에 저장된 컴퓨터 프로그램에 있어서,
    상기 이미지 처리 방법은,
    입력 이미지를 분석하여 이펙트를 적용하기 위한 영역을 계산하는 단계;
    상기 이펙트의 적용을 위한 서로 다른 레이어의 복수의 마스크 이미지들을 결정하는 단계;
    상기 계산된 영역의 적어도 하나의 좌표에 대해 적어도 둘 이상의 마스크 이미지들이 서로 다른 가중치를 갖도록 상기 복수의 마스크 이미지들 각각의 좌표별 가중치를 결정하는 단계;
    상기 복수의 마스크 이미지들 각각에 적용하기 위한 룩업테이블을 결정하는 단계;
    상기 복수의 마스크 이미지들 각각에 대응하는 룩업테이블을 적용하되, 상기 좌표별 가중치에 따라 상기 적어도 둘 이상의 마스크 이미지들에 서로 다른 강도로 룩업테이블을 적용하는 단계;
    상기 룩업테이블이 적용된 복수의 마스크 이미지들을 결합하여 하나의 이미지로서 레이어드 마스크 이미지를 생성하는 단계; 및
    상기 생성된 레이어드 마스크 이미지를 상기 계산된 영역에 적용하여 결과 이미지를 생성하는 단계
    를 포함하는 것을 특징으로 하는 컴퓨터 프로그램.
  2. 제1항에 있어서,
    상기 이미지 처리 방법은,
    복수의 이펙트들 각각마다 기 생성된 마스크 이미지들을 대응하는 이펙트와 연관하여 저장소에 저장 및 관리하는 단계
    를 더 포함하고,
    상기 복수의 마스크 이미지들을 결정하는 단계는,
    상기 결정된 이펙트와 연관되어 저장된 마스크 이미지들을 상기 저장소에서 추출하는 것을 특징으로 하는 컴퓨터 프로그램.
  3. 제1항에 있어서,
    상기 복수의 마스크 이미지들을 결정하는 단계는,
    상기 이펙트에 따라 기설정된 색상 테마별로 서로 다른 레이어의 마스크 이미지들을 생성하는 것을 특징으로 하는 컴퓨터 프로그램.
  4. 제1항에 있어서,
    상기 룩업테이블은 대응하는 마스크 이미지의 좌표별 색상값을 입력 파라미터로 입력 받아 입력된 색상값에 대해 지정된 색상값을 결과로 산출하는 함수를 포함하는 것을 특징으로 하는 컴퓨터 프로그램.
  5. 제1항에 있어서,
    상기 룩업테이블을 결정하는 단계는,
    제1 마스크 이미지가 상기 입력 이미지에 적용될 위치에 따른 중요도를 계산하고, 상기 계산된 중요도에 따라 결정되는 색상 크기의 룩업테이블을 상기 제1 마스크 이미지에 대응하여 결정하는 것을 특징으로 하는 컴퓨터 프로그램.
  6. 제1항에 있어서,
    상기 복수의 마스크 이미지들 각각은 상기 입력 이미지의 대응하는 좌표의 밝기에 따른 가중치 정보를 대응하는 좌표별로 포함하는 것을 특징으로 하는 컴퓨터 프로그램.
  7. 제6항에 있어서,
    상기 가중치 정보는 상기 마스크 이미지의 좌표별 밝기를 통해 상기 마스크 이미지에 설정되는 것을 특징으로 하는 컴퓨터 프로그램.
  8. 제6항에 있어서,
    상기 룩업테이블은 대응하는 마스크 이미지의 좌표별 색상값 및 좌표별 가중치 정보를 입력 파라미터로 입력 받아 입력된 색상값에 대해 지정된 색상값을 결과로 산출하되, 상기 가중치 정보에 따라 산출되는 색상값의 밝기를 조절하여 산출하는 함수를 포함하는 것을 특징으로 하는 컴퓨터 프로그램.
  9. 제1항에 있어서,
    상기 이펙트는 사용자의 전자 기기가 포함하는 카메라를 통해 입력되는 상기 사용자의 얼굴 이미지에 적용될 화장 이펙트들을 포함하고,
    상기 이펙트를 적용하기 위한 영역을 계산하는 단계는,
    상기 사용자에 의해 선택되는 화장 이펙트들이 적용될 상기 얼굴 이미지에서의 적어도 하나의 좌표를 계산하는 것을 특징으로 하는 컴퓨터 프로그램.
  10. 이미지 처리 방법에 있어서,
    입력 이미지를 분석하여 이펙트를 적용하기 위한 영역을 계산하는 단계;
    상기 이펙트의 적용을 위한 서로 다른 레이어의 복수의 마스크 이미지들을 결정하는 단계;
    상기 계산된 영역의 적어도 하나의 좌표에 대해 적어도 둘 이상의 마스크 이미지들이 서로 다른 가중치를 갖도록 상기 복수의 마스크 이미지들 각각의 좌표별 가중치를 결정하는 단계;
    상기 복수의 마스크 이미지들 각각에 적용하기 위한 룩업테이블을 결정하는 단계;
    상기 복수의 마스크 이미지들 각각에 대응하는 룩업테이블을 적용하되, 상기 좌표별 가중치에 따라 상기 적어도 둘 이상의 마스크 이미지들에 서로 다른 강도로 룩업테이블을 적용하는 단계;
    상기 룩업테이블이 적용된 복수의 마스크 이미지들을 결합하여 하나의 이미지로서 레이어드 마스크 이미지를 생성하는 단계; 및
    상기 생성된 레이어드 마스크 이미지를 상기 계산된 영역에 적용하여 결과 이미지를 생성하는 단계
    를 포함하는 것을 특징으로 하는 이미지 처리 방법.
  11. 제10항에 있어서,
    복수의 이펙트들 각각마다 기 생성된 마스크 이미지들을 대응하는 이펙트와 연관하여 저장소에 저장 및 관리하는 단계
    를 더 포함하고,
    상기 복수의 마스크 이미지들을 결정하는 단계는,
    상기 결정된 이펙트와 연관되어 저장된 마스크 이미지들을 상기 저장소에서 추출하는 것을 특징으로 하는 이미지 처리 방법.
  12. 제10항에 있어서,
    상기 복수의 마스크 이미지들을 결정하는 단계는,
    상기 이펙트에 따라 기설정된 색상 테마별로 서로 다른 레이어의 마스크 이미지들을 생성하는 것을 특징으로 하는 이미지 처리 방법.
  13. 제10항에 있어서,
    상기 룩업테이블은 대응하는 마스크 이미지의 좌표별 색상값을 입력 파라미터로 입력 받아 입력된 색상값에 대해 지정된 색상값을 결과로 산출하는 함수를 포함하는 것을 특징으로 하는 이미지 처리 방법.
  14. 제10항에 있어서,
    상기 룩업테이블을 결정하는 단계는,
    제1 마스크 이미지가 상기 입력 이미지에 적용될 위치에 따른 중요도를 계산하고, 상기 계산된 중요도에 따라 결정되는 색상 크기의 룩업테이블을 상기 제1 마스크 이미지에 대응하여 결정하는 것을 특징으로 하는 이미지 처리 방법.
  15. 제10항에 있어서,
    상기 복수의 마스크 이미지들 각각은 상기 입력 이미지의 대응하는 좌표의 밝기에 따른 가중치 정보를 대응하는 좌표별로 포함하는 것을 특징으로 하는 이미지 처리 방법.
  16. 제15항에 있어서,
    상기 가중치 정보는 상기 마스크 이미지의 좌표별 밝기를 통해 상기 마스크 이미지에 설정되는 것을 특징으로 하는 이미지 처리 방법.
  17. 제15항에 있어서,
    상기 룩업테이블은 대응하는 마스크 이미지의 좌표별 색상값 및 좌표별 가중치 정보를 입력 파라미터로 입력 받아 입력된 색상값에 대해 지정된 색상값을 결과로 산출하되, 상기 가중치 정보에 따라 산출되는 색상값의 밝기를 조절하여 산출하는 함수를 포함하는 것을 특징으로 하는 이미지 처리 방법.
  18. 이미지 처리 방법을 실행하는 이미지 처리 시스템에 있어서,
    컴퓨터 판독 가능한 명령을 실행하도록 구현되는 적어도 하나의 프로세서
    를 포함하고,
    상기 적어도 하나의 프로세서는,
    입력 이미지를 분석하여 이펙트를 적용하기 위한 영역을 계산하고,
    상기 이펙트의 적용을 위한 서로 다른 레이어의 복수의 마스크 이미지들을 결정하고,
    상기 계산된 영역의 적어도 하나의 좌표에 대해 적어도 둘 이상의 마스크 이미지들이 서로 다른 가중치를 갖도록 상기 복수의 마스크 이미지들 각각의 좌표별 가중치를 결정하고,
    상기 복수의 마스크 이미지들 각각에 적용하기 위한 룩업테이블을 결정하고,
    상기 복수의 마스크 이미지들 각각에 대응하는 룩업테이블을 적용하되, 상기 좌표별 가중치에 따라 상기 적어도 둘 이상의 마스크 이미지들에 서로 다른 강도로 룩업테이블을 적용하고,
    상기 룩업테이블이 적용된 복수의 마스크 이미지들을 결합하여 하나의 이미지로서 레이어드 마스크 이미지를 생성하고,
    상기 생성된 레이어드 마스크 이미지를 상기 계산된 영역에 적용하여 결과 이미지를 생성하는 것
    을 특징으로 하는 이미지 처리 시스템.
  19. 제18항에 있어서,
    상기 복수의 마스크 이미지들 각각은 상기 입력 이미지의 대응하는 좌표의 밝기에 따른 가중치 정보를 대응하는 좌표별로 포함하는 것을 특징으로 하는 이미지 처리 시스템.
  20. 제19항에 있어서,
    상기 가중치 정보는 상기 마스크 이미지의 좌표별 밝기를 통해 상기 마스크 이미지에 설정되고,
    상기 룩업테이블은 대응하는 마스크 이미지의 좌표별 색상값 및 좌표별 가중치 정보를 입력 파라미터로 입력 받아 입력된 색상값에 대해 지정된 색상값을 결과로 산출하되, 상기 가중치 정보에 따라 산출되는 색상값의 밝기를 조절하여 산출하는 함수를 포함하는 것을 특징으로 하는 이미지 처리 시스템.
KR1020180108481A 2018-09-11 2018-09-11 레이어드 마스크와 룩업테이블을 이용한 이미지 처리 방법 및 시스템 KR102160092B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020180108481A KR102160092B1 (ko) 2018-09-11 2018-09-11 레이어드 마스크와 룩업테이블을 이용한 이미지 처리 방법 및 시스템

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020180108481A KR102160092B1 (ko) 2018-09-11 2018-09-11 레이어드 마스크와 룩업테이블을 이용한 이미지 처리 방법 및 시스템

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
KR1020160176905A Division KR101899685B1 (ko) 2016-09-01 2016-12-22 레이어드 마스크와 룩업테이블을 이용한 이미지 처리 방법 및 시스템

Publications (2)

Publication Number Publication Date
KR20180103037A true KR20180103037A (ko) 2018-09-18
KR102160092B1 KR102160092B1 (ko) 2020-09-25

Family

ID=63718417

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180108481A KR102160092B1 (ko) 2018-09-11 2018-09-11 레이어드 마스크와 룩업테이블을 이용한 이미지 처리 방법 및 시스템

Country Status (1)

Country Link
KR (1) KR102160092B1 (ko)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021202191A1 (en) * 2020-03-30 2021-10-07 Snap Inc. Augmented reality item collections
WO2021203119A1 (en) * 2020-03-31 2021-10-07 Snap Inc. Augmented reality experiences for physical products in a messaging system

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102593156B1 (ko) 2023-08-23 2023-10-24 이효원 사진 보정 장치 및 그 장치의 구동방법

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0187133A2 (en) * 1984-12-24 1986-07-09 Polaroid Corporation Thermal recording medium and method
EP0210434B1 (en) * 1985-07-26 1993-09-29 International Business Machines Corporation Configurable parallel pipeline image processing system
JPH11511277A (ja) * 1995-08-04 1999-09-28 マイクロソフト コーポレイション グラフィック対象物をチャンク映像に変換し、かつ、映像層を結合して表示画像に換える方法、および、装置
JP2003219191A (ja) * 2002-01-21 2003-07-31 Sharp Corp 画像処理装置およびそれを用いた画像形成装置
JP2003259213A (ja) * 2002-02-28 2003-09-12 Sanyo Electric Co Ltd 画像処理装置および画像処理方法
JP2004007202A (ja) * 2002-05-31 2004-01-08 Fuji Photo Film Co Ltd 画像処理装置
US20050035976A1 (en) * 2003-06-26 2005-02-17 Canon Kabushiki Kaisha Antialiasing compositing in graphic object rendering
KR20070091697A (ko) * 2001-09-12 2007-09-11 마이크로닉 레이저 시스템즈 에이비 다각형의 한개의 변(an edge)의 일부분에 대응하는다중-값 픽셀에 대한 값을 연산하는 방법
KR20140095739A (ko) * 2013-01-25 2014-08-04 한국전자통신연구원 가상 분장 방법 및 장치
KR20150036261A (ko) * 2012-07-13 2015-04-07 후아웨이 테크놀러지 컴퍼니 리미티드 3차원 비디오를 표현하는 비트 스트림을 코딩하는 장치

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0187133A2 (en) * 1984-12-24 1986-07-09 Polaroid Corporation Thermal recording medium and method
EP0210434B1 (en) * 1985-07-26 1993-09-29 International Business Machines Corporation Configurable parallel pipeline image processing system
JPH11511277A (ja) * 1995-08-04 1999-09-28 マイクロソフト コーポレイション グラフィック対象物をチャンク映像に変換し、かつ、映像層を結合して表示画像に換える方法、および、装置
KR20070091697A (ko) * 2001-09-12 2007-09-11 마이크로닉 레이저 시스템즈 에이비 다각형의 한개의 변(an edge)의 일부분에 대응하는다중-값 픽셀에 대한 값을 연산하는 방법
JP2003219191A (ja) * 2002-01-21 2003-07-31 Sharp Corp 画像処理装置およびそれを用いた画像形成装置
JP2003259213A (ja) * 2002-02-28 2003-09-12 Sanyo Electric Co Ltd 画像処理装置および画像処理方法
JP2004007202A (ja) * 2002-05-31 2004-01-08 Fuji Photo Film Co Ltd 画像処理装置
US20050035976A1 (en) * 2003-06-26 2005-02-17 Canon Kabushiki Kaisha Antialiasing compositing in graphic object rendering
KR20150036261A (ko) * 2012-07-13 2015-04-07 후아웨이 테크놀러지 컴퍼니 리미티드 3차원 비디오를 표현하는 비트 스트림을 코딩하는 장치
KR20140095739A (ko) * 2013-01-25 2014-08-04 한국전자통신연구원 가상 분장 방법 및 장치

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
중요도 지도에 기반한 관심 영역 비디오 압축, 2014년도 한국방송공학회 추계 학술대회(2014)* *

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021202191A1 (en) * 2020-03-30 2021-10-07 Snap Inc. Augmented reality item collections
US11335088B2 (en) 2020-03-30 2022-05-17 Snap Inc. Augmented reality item collections
US11893790B2 (en) 2020-03-30 2024-02-06 Snap Inc. Augmented reality item collections
WO2021203119A1 (en) * 2020-03-31 2021-10-07 Snap Inc. Augmented reality experiences for physical products in a messaging system
US11900504B2 (en) 2020-03-31 2024-02-13 Snap Inc. Augmented reality experiences for physical products in a messaging system

Also Published As

Publication number Publication date
KR102160092B1 (ko) 2020-09-25

Similar Documents

Publication Publication Date Title
US11158117B2 (en) Estimating lighting parameters for positions within augmented-reality scenes
US11880977B2 (en) Interactive image matting using neural networks
CN108876931B (zh) 三维物体颜色调整方法、装置、计算机设备及计算机可读存储介质
US10754422B1 (en) Systems and methods for providing interaction with elements in a virtual architectural visualization
JP6396890B2 (ja) メイクアップ塗材が塗布された状態を仮想的に再現することができる画像処理装置、画像処理方法、プログラム
KR20180103037A (ko) 레이어드 마스크와 룩업테이블을 이용한 이미지 처리 방법 및 시스템
US11417033B2 (en) Applying colors on textures
US20150348316A1 (en) Equivalent Lighting For Mixed 2D and 3D Scenes
KR102199735B1 (ko) 영상을 위한 효과 공유 방법 및 시스템
US11163418B2 (en) Systems and methods for providing a user interface for an environment that includes virtual objects
KR20150132527A (ko) 컨텐츠 전달의 세그먼테이션
US7064755B2 (en) System and method for implementing shadows using pre-computed textures
CN112053423A (zh) 模型渲染方法、装置、存储介质及计算机设备
US20150348315A1 (en) Dynamic Lighting Effects For Textures Without Normal Maps
CN111583379A (zh) 虚拟模型的渲染方法、装置、存储介质与电子设备
US11227075B2 (en) Product design, configuration and decision system using machine learning
KR101899685B1 (ko) 레이어드 마스크와 룩업테이블을 이용한 이미지 처리 방법 및 시스템
Wang et al. Computer vision accelerators for mobile systems based on opencl gpgpu co-processing
US11087525B2 (en) Unsupervised learning of three dimensional visual alphabet
JP2016517574A (ja) 複数のプリミティブを使用するグラフィック処理
CN114972466A (zh) 图像处理方法、装置、电子设备和可读存储介质
EP3371803B1 (en) Control methods, computer-readable media, and controllers
US20190311424A1 (en) Product visualization system and method for using two-dimensional images to interactively display photorealistic representations of three-dimensional objects based on smart tagging
CN109308703A (zh) 利用结构化的用户点击点对解剖结构智能描轮廓
KR20240024537A (ko) 3d 캐릭터 기반 표준 모델을 이용한 이미지 합성을 통해 얼굴 표정을 생성하는 방법, 컴퓨터 장치, 및 컴퓨터 프로그램

Legal Events

Date Code Title Description
A107 Divisional application of patent
A201 Request for examination
E902 Notification of reason for refusal
AMND Amendment
E601 Decision to refuse application
AMND Amendment
J201 Request for trial against refusal decision
J301 Trial decision

Free format text: TRIAL NUMBER: 2019101002421; TRIAL DECISION FOR APPEAL AGAINST DECISION TO DECLINE REFUSAL REQUESTED 20190718

Effective date: 20200611

GRNO Decision to grant (after opposition)
GRNT Written decision to grant