KR102372523B1 - Rewarding system for posting image with selectively applied makeup effects - Google Patents

Rewarding system for posting image with selectively applied makeup effects Download PDF

Info

Publication number
KR102372523B1
KR102372523B1 KR1020210038347A KR20210038347A KR102372523B1 KR 102372523 B1 KR102372523 B1 KR 102372523B1 KR 1020210038347 A KR1020210038347 A KR 1020210038347A KR 20210038347 A KR20210038347 A KR 20210038347A KR 102372523 B1 KR102372523 B1 KR 102372523B1
Authority
KR
South Korea
Prior art keywords
unit
user
predetermined
image
posting
Prior art date
Application number
KR1020210038347A
Other languages
Korean (ko)
Other versions
KR20220019614A (en
Inventor
강덕호
Original Assignee
주식회사 타키온비앤티
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 타키온비앤티 filed Critical 주식회사 타키온비앤티
Publication of KR20220019614A publication Critical patent/KR20220019614A/en
Application granted granted Critical
Publication of KR102372523B1 publication Critical patent/KR102372523B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Systems or methods specially adapted for specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/02Marketing; Price estimation or determination; Fundraising
    • G06Q30/0207Discounts or incentives, e.g. coupons or rebates
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Systems or methods specially adapted for specific business sectors, e.g. utilities or tourism
    • G06Q50/01Social networking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/20Perspective computation
    • G06T15/205Image-based rendering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/14Systems for two-way working
    • H04N7/141Systems for two-way working between two video terminals, e.g. videophone
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face

Abstract

본 발명은 메이크업 이펙트가 선택적으로 적용된 이미지의 포스팅에 대한 리워드 제공 시스템에 관한 것으로서, 유저의 페이스 영역을 선택적으로 검출하는 레코그니션 유닛; 검출된 유저의 페이스 영역으로부터 유저의 페이셜 파트를 개별적으로 추출하는 익스트랙팅 유닛; 추출된 유저의 페이셜 파트 각각에 소정의 이펙트를 선택적으로 적용하는 이펙팅 유닛; 소정의 이펙트가 적용된 유저의 이미지를 SNS에 공유하는 쉐어링 유닛; 및 SNS에 공유된 유저의 게시물에 대한 소정의 포인트를 제공하는 리워드 유닛을 포함하는 것을 기술적 사상을 개시한다.The present invention relates to a system for providing a reward for posting an image to which a makeup effect is selectively applied, comprising: a registration unit selectively detecting a face region of a user; an extracting unit that individually extracts the user's facial parts from the detected user's face regions; an effecting unit for selectively applying a predetermined effect to each of the extracted user's facial parts; a sharing unit that shares an image of a user to which a predetermined effect is applied to SNS; And discloses a technical idea to include a reward unit that provides a predetermined point for the user's post shared on SNS.

Description

메이크업 이펙트가 선택적으로 적용된 이미지의 포스팅에 대한 리워드 제공 시스템{Rewarding system for posting image with selectively applied makeup effects}Rewarding system for posting image with selectively applied makeup effects}

본 발명은 메이크업 이펙트가 선택적으로 적용된 이미지의 포스팅에 대한 리워드 제공 시스템에 관한 것이다. 보다 자세하게는, 보다 자세하게는, 유저의 페이스를 인식하고 유저의 페이셜 파트 각각에 가상의 뷰티 메이크업을 선택적으로 적용한 유저의 이미지를 SNS에 포스팅하며, 포스팅에 대해 소정의 포인트를 제공하는 시스템에 관한 기술분야이다.The present invention relates to a system for providing a reward for posting an image to which a makeup effect is selectively applied. In more detail, in more detail, a technology related to a system that recognizes a user's face, posts an image of a user who selectively applies virtual beauty makeup to each of the user's facial parts, on SNS, and provides a predetermined point for posting is the field

안면 인식 시스템(facial recognition system)은 디지털 이미지를 통해 각 사람을 자동으로 식별하는 컴퓨터 지원 응용 프로그램을 말한다. 이는 살아 있는 이미지에 나타나는 선택된 얼굴 특징과 안면 데이터베이스를 서로 비교함으로써 이루어진다.A facial recognition system refers to a computer-aided application that automatically identifies each person through a digital image. This is done by comparing selected facial features appearing in the live image with a facial database.

안면 인식 기술은 AI기반의 생체인식 기술로서 사진이나 영상으로부터 얼굴의 특징적인 형상을 인식하여 데이터베이스에 저장하며, 이를 비교 분석하여 안면을 식별하는 기술이다. Face recognition technology is an AI-based biometric technology that recognizes a characteristic shape of a face from a photo or video, stores it in a database, and identifies a face by comparing and analyzing it.

최근에는 안면인식 기술을 활용한 분야가 뷰티 업계에서 활성화되고 있다. 특히, 뷰티 테크의 핵심이 되는 안면 인식 기술은 사람들의 안면 기능의 위치를 감지해, 헤어스타일이나 컨투어링 등 여러 가지 변화된 모습을 보여준다. 이러한 기술은 사람들이 더욱 더 정교하고 과학적으로 뷰티 트렌드에 접근할 수 있도록 한다.Recently, the field using facial recognition technology has been revitalized in the beauty industry. In particular, facial recognition technology, which is the core of beauty technology, detects the location of people's facial functions and shows various changes such as hairstyles and contouring. These technologies allow people to access beauty trends more sophisticated and scientifically.

이와 관련된 선행 특허문헌의 예로서 “3D 얼굴인식 시스템 및 방법 (공개번호 제10-2020-0098875호, 이하 특허문헌1라 한다.)”이 존재한다.As an example of a related prior patent document, “3D face recognition system and method (Publication No. 10-2020-0098875, hereinafter referred to as Patent Document 1)” exists.

특허문헌1에 따른 발명의 경우, 서비스를 통해 의뢰 영상을 입력하여, 의뢰 영상에 대한 얼굴 검색을 요청하는 검색 요청 단말기, 웹 서비스를 통해 얼굴 검색 요청을 접수하고, 의뢰 영상에 대하여 매칭 조건을 설정하여, 의뢰 영상에 대한 검색을 요청하는 검색 처리 단말기, 및 의뢰 영상에서 추출된 얼굴 영역으로부터 특징점을 추출하고 얼굴의 포즈 예측을 수행하여 생성한 예측 얼굴 포즈 정보와, 데이터베이스에 저장된 3차원 얼굴 모델링 정보를 이용한 3차원 얼굴 인식 과정에 따라 검색된 얼굴 관련 정보를 검색 처리 단말기로 전송하는 검색 서버부를 포함하며, 검색 처리 단말기는 웹 서비스를 통해 얼굴 관련 정보와 얼굴 관련 정보에 대한 감정서를 검색 요청 단말기로 전송한다.In the case of the invention according to Patent Document 1, a search request terminal that requests a face search for the requested image by inputting a requested image through a service, receives a face search request through a web service, and sets matching conditions for the requested image Thus, the search processing terminal requesting a search for the requested image, and the predicted face pose information generated by extracting feature points from the facial region extracted from the requested image and performing pose prediction of the face, and 3D face modeling information stored in the database and a search server unit for transmitting face-related information retrieved according to a three-dimensional face recognition process using do.

또 다른 특허문헌의 예로서 “증강된 화장 서비스 제공 방법 (등록번호 제10-2158233호, 이하 특허문헌2이라 한다.)”이 존재한다.As another example of a patent document, “a method of providing an enhanced makeup service (registration number 10-2158233, hereinafter referred to as Patent Document 2)” exists.

특허문헌2에 따른 발명의 경우, 사용자 무선단말의 앱이 사용자 무선단말의 카메라부의 자동초점 촬영 상태에서 입력되는 영상데이터에 포함된 하나 이상의 화상데이터를 판독하여 화장할 사용자 안면에 대응하는 안면 영역을 인식하고, 사용자 무선단말의 앱이 인식된 안면 영역에 형성된 사용자 안면의 기하학 구조를 해석한 사용자 안면 기하학구조 정보를 생성하여 지정된 저장영역에 저장하고, 사용자 안면 기하학 구조 상의 거리 산출을 위해 특정가능한 둘 이상의 특징 점을 결정하고, 카메라부의 자동초점 과정에서 자동 결정된 초점거리와 화상데이터 상의 둘 이상 특정 점 간 픽셀 거리와 무선단말에 구비된 카메라 스펙 정보 중 하나 이상의 정보를 지정된 산출식의 입력값으로 대입하여 둘 이상의 특정 점 간 거리를 포함하는 사용자 안면 기하학 구조에 대한 현실세계와 일대일 축적의 사용자 안면 수치 정보를 결정하고, 사용자 무선단말의 앱이 사용자 안면 기하학 구조 정보와 사용자 안면 수치 정보를 지정된 운영서버로 전송하면, 운영서버에서 사용자 안면 기하학 구조 정보와 사용자 안면 수치 정보를 수신하고, 운영서버에서 사용자 안면 기하학 구조 정보와 일대일 축적의 사용자 안면 수치 정보를 이용하여 사용자의 실제 안면과 일대일 매칭되는 사용자 전용 화장의 3D 모델링 데이터를 생성하고, 운영서버에서 사용자의 실제 안면에 일대일 매칭시켜 생성된 사용자 전용 모델링 데이터에 지정된 화장을 적용하여 생성된 사용자 전용 화장 데이터를 확인하고, 운영서버에서 사용자 무선단말의 앱으로 사용자 전용 화장 데이터를 제공하면, 사용자 무선단말의 앱이 사용자 전용 화장 데이터를 수신하여 지정된 저장영역에 저장하고, 사용자 무선단말의 앱이 지정된 저장영역에 저장된 사용자 안면 기하학 구조 정보를 근거로 카메라부를 통해 입력되는 영상데이터에 포함된 화상데이터를 판독하여 영상데이터에 존재하는 사용자의 안면 영역을 실시간 인식하며, 사용자 무선단말의 앱이 영상데이터에 존재하는 사용자의 안면 영역을 실시간 인식한 경우 영상데이터 상에서 인식된 사용자의 안면 영역에 사용자 전용 화장 데이터를 중첩 표시하여 사용자의 안면을 증강한다.In the case of the invention according to Patent Document 2, the app of the user wireless terminal reads one or more image data included in the image data input in the auto-focus shooting state of the camera unit of the user wireless terminal, and selects a facial area corresponding to the user's face to be makeup Recognizes, generates and stores user facial geometry information that interprets the geometry of the user's face formed in the recognized facial area by the app of the user's wireless terminal, and stores it in a designated storage area. The above characteristic points are determined, and one or more of the focal length automatically determined in the autofocus process of the camera unit, the pixel distance between two or more specific points on the image data, and the camera specification information provided in the wireless terminal are substituted into the input value of the specified calculation formula. to determine the real-world and one-to-one accumulation of user facial numerical information about the user's facial geometry including the distance between two or more specific points, and the app of the user's wireless terminal stores the user's facial geometry information and the user's facial numerical information to the specified operating server When transmitted to, it receives user facial geometry information and user facial numerical information from the operation server, and uses the user facial geometry information and one-to-one accumulated user facial numerical information from the operation server to only match the user's real face one-to-one 3D modeling data of makeup is generated, and the user-only makeup data generated by applying the specified makeup to the user-only modeling data created by matching the user's actual face one-to-one in the operation server is checked, and the application of the user's wireless terminal in the operation server When the user-only makeup data is provided by the user-specific makeup data, the app of the user wireless terminal receives the user-only makeup data and stores it in the designated storage area, and based on the user's facial geometry information stored in the designated storage area, the user's wireless terminal app receives the user-only makeup data and uses the camera unit. By reading the image data included in the image data input through The user's face is augmented by superimposing user-only makeup data on the user's face area recognized on the image data.

또 다른 특허문헌의 예로서 “소셜 네트워크 서비스 사진 등록 방법 (등록번호 제10-1839102호, 이하 특허문헌3이라 한다.)”이 존재한다.As another example of a patent document, "Social Network Service Photo Registration Method (Registration No. 10-1839102, hereinafter referred to as Patent Document 3)" exists.

특허문헌3에 따른 발명의 경우, 사용자 단말기에 설치된 프로그램인 소셜 네트워크 서비스(SNS) 어플리케이션이, SNS에 사진을 등록시키는 SNS 사진 등록시키는 SNS 사진 등록 방법에 있어서, SNS 어플리케이션의 실행되면, 사진 촬영 버튼과 SNS 보기 버튼이 표시된 SNS 메인 화면을 표시하는 SNS 메인 화면 표시 과정; 사용자로부터 SNS 메인 화면내의 사진 촬영 버튼이 눌리어져 촬영이 이루어지면, 촬영된 사진을 사용자 단말기의 화면에 표시하지 않은채 SNS에 등록시키는 사진 등록 과정; 및 미리 설정된 사진 삭제 조건이 충족되는 경우에 한하여, SNS에 등록된 사진 삭제가 이루어지도록 하는 조건부 사진 삭제 과정;을 포함할 수 있다.In the case of the invention according to Patent Document 3, in the SNS photo registration method in which a social network service (SNS) application, which is a program installed in the user terminal, registers an SNS photo to register a photo in the SNS, when the SNS application is executed, the photo shoot button and the SNS main screen display process of displaying the SNS main screen displaying the SNS view button; a photo registration process of registering the captured photo in the SNS without displaying the captured photo on the screen of the user terminal when the photo taking button in the SNS main screen is pressed by the user; and a conditional photo deletion process for deleting photos registered in SNS only when a preset photo deletion condition is satisfied.

또 다른 특허문헌의 예로서 “휴대용 단말기의 폰북과 연동한 SNS를 제공하는 방법 및 시스템 (등록번호 제10-1665692호, 이하 특허문헌4이라 한다.)”이 존재한다.As another example of the patent document, "a method and system for providing an SNS linked with a phone book of a portable terminal (registration number 10-1665692, hereinafter referred to as Patent Document 4)" exists.

특허문헌4에 따른 발명의 경우, 휴대용 단말기에서 SNS의 가입자 정보에 해당하는 정보를 휴대용 단말기의 폰북에서 추출하고, 특정 데이터 포맷으로 변환하여 SNS 서버로 전송하는 과정과, 수신된 특정 데이터 포맷으로 변환된 정보와 SNS의 가입자 정보에서 일치하는 값을 검색하여, 검색된 값과 이에 해당하는 SNS ID를 특정 데이터 포맷으로 변환하여 휴대용 단말기로 전송하는 과정을 포함함을 특징으로 한다.In the case of the invention according to Patent Document 4, the process of extracting information corresponding to subscriber information of SNS from the portable terminal from the phone book of the portable terminal, converting it into a specific data format and transmitting it to the SNS server, and converting the received specific data format It is characterized in that it includes the process of searching for a matching value in the searched information and subscriber information of SNS, converting the searched value and the corresponding SNS ID into a specific data format, and transmitting the searched value to the portable terminal.

그러나, 특허문헌 1과 2의 경우, 단말기로부터 촬영되는 사진이나 영상으로부터 사용자의 얼굴을 인식하며, 인식된 얼굴 부위에 뷰티 효과를 적용하는 기술을 포함하지만, 이때, 적용되는 뷰티 효과는 인식된 얼굴 부위에 이미지 보정 필터나 컬러 필터를 입히는 한정된 기술적 사상만을 개시하고 있다.However, in the case of Patent Documents 1 and 2, the user's face is recognized from a photo or image taken from the terminal, and a technique for applying a beauty effect to the recognized face part is included, but in this case, the applied beauty effect is the recognized face Only a limited technical idea of applying an image correction filter or a color filter to the area is disclosed.

또한, 특허문헌 3과 4의 경우, 촬영된 사진이나 영상을 SNS으로 공유하는 과정에 있어서, 사진이나 영상에 포함된 정보를 SNS에 포스팅하며, 포스팅에 따른 리워드를 제공하는 기술적 사상은 존재하지 않는다.In addition, in the case of Patent Documents 3 and 4, in the process of sharing a photographed photo or video to an SNS, information included in the photo or video is posted to the SNS, and there is no technical idea of providing a reward according to the posting. .

공개번호 제10-2020-0098875호Publication No. 10-2020-0098875 등록번호 제10-2158233호Registration No. 10-2158233 등록번호 제10-1839102호Registration No. 10-1839102 등록번호 제10-1665692호Registration No. 10-1665692

본 발명에 따른 메이크업 이펙트가 선택적으로 적용된 이미지의 포스팅에 대한 리워드 제공 시스템은 상기한 바와 같은 종래 문제점을 해결하기 위해 안출된 것으로서, 다음과 같은 해결하고자 하는 과제를 제시한다.The system for providing a reward for posting an image to which a makeup effect is selectively applied according to the present invention has been devised to solve the conventional problems as described above, and presents the following problems to be solved.

첫째, 유저의 단말기로부터 촬영되는 유저의 영상 정보를 수집하여, 유저의 얼굴을 인식하고자 한다.First, by collecting image information of the user photographed from the user's terminal, the user's face is to be recognized.

둘째, 인식된 유저의 얼굴의 부위에 따라 소정의 효과를 적용하여 가상의 메이크업을 구현하고자 한다.Second, it is intended to implement a virtual makeup by applying a predetermined effect according to the recognized part of the user's face.

셋째, 가상의 메이크업이 적용된 유저의 이미지를 유저의 SNS에 공유하여 게시하고자 한다.Third, the image of the user with virtual makeup applied is to be shared and posted on the user's SNS.

본 발명의 해결 과제는 이상에서 언급된 것들에 한정되지 않으며, 언급되지 아니한 다른 해결과제들은 아래의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.The problems to be solved of the present invention are not limited to those mentioned above, and other problems not mentioned will be clearly understood by those skilled in the art from the following description.

본 발명에 따른 메이크업 이펙트가 선택적으로 적용된 이미지의 포스팅에 대한 리워드 제공 시스템은 상기의 해결하고자 하는 과제를 위하여 다음과 같은 과제 해결 수단을 가진다.The system for providing a reward for posting an image to which a makeup effect is selectively applied according to the present invention has the following problem solving means for the above problem to be solved.

본 발명에 따른 메이크업 이펙트가 선택적으로 적용된 이미지의 포스팅에 대한 리워드 제공 시스템은 모바일 유닛으로부터 취득된 유저의 영상으로부터 상기 유저의 페이스 영역을 선택적으로 검출하는 레코그니션 유닛(recognition unit); 상기 레코그니션 유닛으로부터 검출된 상기 유저의 페이스 영역으로부터 상기 유저의 페이셜 파트(facial part)를 개별적으로 추출하는 익스트랙팅 유닛(extracting unit); 상기 익스트랙팅 유닛으로부터 추출된 상기 유저의 상기 페이셜 파트 각각에 소정의 이펙트를 선택적으로 적용하는 이펙팅 유닛(effecting unit); 및 상기 이펙팅 유닛으로부터 상기 소정의 이펙트가 적용된 유저의 이미지를 SNS에 공유하는 쉐어링 유닛(sharing unit); 및 상기 쉐어링 유닛을 통하여 상기 SNS에 공유된 유저의 게시물에 대한 소정의 포인트를 제공하는 리워드 유닛(reward unit)을 포함하는 것을 특징으로 할 수 있다.A system for providing a reward for posting an image to which a makeup effect is selectively applied according to the present invention includes: a recognition unit for selectively detecting a face region of the user from an image of the user acquired from a mobile unit; an extracting unit for individually extracting a facial part of the user from the face region of the user detected from the recording unit; an effecting unit selectively applying a predetermined effect to each of the facial parts of the user extracted from the extracting unit; and a sharing unit for sharing an image of a user to which the predetermined effect is applied from the effecting unit to SNS; and a reward unit that provides a predetermined point for a user's post shared on the SNS through the sharing unit.

본 발명에 따른 메이크업 이펙트가 선택적으로 적용된 이미지의 포스팅에 대한 리워드 제공 시스템의 상기 레코그니션 유닛은, 상기 모바일 유닛으로부터 상기 유저의 영상을 가져와서 스캔하는 스캔(scan)부; 상기 유저의 영상으로부터 소정의 무브먼트가 포착되는 영역을 상기 유저의 페이스 영역으로 인식하는 퍼시빙(perceiving)부; 및 상기 퍼시빙부로부터 인식된 상기 유저의 페이스 영역과 백그라운드 영역을 분리하여, 상기 유저의 페이스 영역을 선택적으로 검출하는 디텍팅(detecting)부를 포함하는 것을 특징으로 할 수 있다.The record unit of the system for providing a reward for posting an image to which the makeup effect according to the present invention is selectively applied may include: a scan unit that scans the user's image from the mobile unit; a perceiving unit for recognizing an area in which a movement is captured from the user's image as the face area of the user; and a detecting unit that separates the user's face area and the background area recognized by the perceiving unit to selectively detect the user's face area.

본 발명에 따른 메이크업 이펙트가 선택적으로 적용된 이미지의 포스팅에 대한 리워드 제공 시스템의 상기 익스트랙팅 유닛은, 상기 디텍팅부로부터 선택적으로 검출된 상기 유저의 페이스 영역으로부터 3차원의 페이스 쉐입을 형성하는 쉐이핑(shaping)부; 상기 쉐이핑부로부터 형성된 상기 3차원의 페이스 쉐입으로부터 상기 유저의 페이셜 파트를 선택적으로 추출하는 트레킹(tracking)부; 및 상기 유저의 상기 소정의 무브먼트에 따른 상기 페이셜 파트의 앵글 변화를 감지하여, 상기 3차원의 페이스 쉐입에 반영하여 얼라이닝(aligning)부를 포함하는 것을 특징으로 할 수 있다.The extracting unit of the system for providing a reward for posting an image to which a makeup effect according to the present invention is selectively applied is a shaping ( shaping) part; a tracking unit for selectively extracting the user's facial part from the three-dimensional face shape formed from the shaping unit; and an aligning unit by detecting an angle change of the facial part according to the predetermined movement of the user, and reflecting the change in the three-dimensional face shape.

본 발명에 따른 메이크업 이펙트가 선택적으로 적용된 이미지의 포스팅에 대한 리워드 제공 시스템의 상기 이펙팅 유닛은, 상기 유저로부터 미리 결정된 액션과 상호 연동되어, 상기 미리 결정된 액션에 의해 상기 페이셜 파트가 선택되도록 하는 유저 액션(user action)부; 및 상기 미리 결정된 액션에 의해 선택된 상기 페이셜 파트에 상기 소정의 이펙트를 선택적으로 적용하는 어플라잉(applying)부를 포함하는 것을 특징으로 할 수 있다.The effecting unit of the system for providing a reward for posting of an image to which the makeup effect according to the present invention is selectively applied is interlocked with a predetermined action from the user, and a user action to select the facial part by the predetermined action (user action) part; and an applying unit for selectively applying the predetermined effect to the facial part selected by the predetermined action.

본 발명에 따른 메이크업 이펙트가 선택적으로 적용된 이미지의 포스팅에 대한 리워드 제공 시스템의 상기 어플라잉부는, 상기 미리 결정된 액션에 의해 선택된 상기 페이셜 파트 중 피부, 눈, 눈썹, 코, 입, 턱, 이마, 인중 또는 얼굴형 중 적어도 하나 이상의 외형에 메이크업 이펙트를 적용하는 메이크업(makeup)부를 포함하는 것을 특징으로 할 수 있다.The applying unit of the system for providing a reward for posting an image to which the makeup effect according to the present invention is selectively applied is skin, eyes, eyebrows, nose, mouth, chin, forehead, and pharynx among the facial parts selected by the predetermined action Alternatively, it may be characterized in that it includes a makeup unit that applies a makeup effect to the appearance of at least one of the face shapes.

본 발명에 따른 메이크업 이펙트가 선택적으로 적용된 이미지의 포스팅에 대한 리워드 제공 시스템의 상기 어플라잉부는, 상기 미리 결정된 액션에 의해 선택된 상기 페이셜 파트 중 피부, 눈, 눈썹, 코, 입, 턱, 이마, 인중 또는 얼굴형 중 적어도 하나 이상의 외형이 튜닝되도록 피규레이션 이펙트를 적용하는 피규레이션(figuration)부를 더 포함하는 것을 특징으로 할 수 있다.The applying unit of the system for providing a reward for posting an image to which the makeup effect according to the present invention is selectively applied is skin, eyes, eyebrows, nose, mouth, chin, forehead, and pharynx among the facial parts selected by the predetermined action Alternatively, it may be characterized in that it further comprises a figuration unit for applying a figure effect so that at least one appearance of the face shape is tuned.

본 발명에 따른 메이크업 이펙트가 선택적으로 적용된 이미지의 포스팅에 대한 리워드 제공 시스템의 상기 쉐어링 유닛은, 상기 소정의 이펙트가 적용된 상기 유저의 이미지를 공유하기 위한 상기 SNS를 하나 이상을 선택하는 셀렉팅부; 상기 셀렉팅부로부터 선택된 상기 SNS의 유저의 계정에 상호 연결하는 커넥팅부; 상기 커넥팅부로부터 상호 연결된 상기 SNS의 상기 유저의 계정에 상기 소정의 이펙트가 적용된 상기 유저의 이미지를 전송하는 트랜스미팅부; 및 상기 트랜스미팅부로부터 전송된 상기 소정의 이펙트가 적용된 상기 유저의 이미지를 상기 SNS에 게시하는 포스팅부를 포함하는 것을 특징으로 할 수 있다.The sharing unit of the system for providing a reward for posting of an image to which a makeup effect according to the present invention is selectively applied may include: a selecting unit for selecting one or more SNS for sharing an image of the user to which the predetermined effect is applied; a connecting unit for interconnecting the user's account of the SNS selected by the selecting unit; a transmitting unit for transmitting an image of the user to which the predetermined effect is applied to the user's account of the SNS interconnected from the connecting unit; and a posting unit that posts the image of the user to which the predetermined effect transmitted from the transmitting unit is applied on the SNS.

본 발명에 따른 메이크업 이펙트가 선택적으로 적용된 이미지의 포스팅에 대한 리워드 제공 시스템의 상기 리워드 유닛은, 상기 SNS에 공유된 상기 유저의 게시물의 개수를 카운팅하여 미리 결정된 개수가 되면, 상기 소정의 포인트를 제공하는 넘버 카운팅부를 포함하는 것을 특징으로 할 수 있다.The reward unit of the system for providing a reward for posting of an image to which the makeup effect according to the present invention is selectively applied becomes a predetermined number by counting the number of posts of the user shared on the SNS, and provides the predetermined point It may be characterized in that it includes a number counting unit.

본 발명에 따른 메이크업 이펙트가 선택적으로 적용된 이미지의 포스팅에 대한 리워드 제공 시스템의 상기 리워드 유닛은, 상기 SNS에 공유된 상기 유저의 게시물에 대한 소정의 피드백을 카운팅하여, 상기 소정의 피드백에 비례하여 상기 소정의 포인트를 제공하는 피드백 카운팅부를 더 포함하는 것을 특징으로 할 수 있다.The reward unit of the system for providing a reward for posting of an image to which the makeup effect according to the present invention is selectively applied counts a predetermined feedback on the posting of the user shared on the SNS, and in proportion to the predetermined feedback It may be characterized by further comprising a feedback counting unit that provides a predetermined point.

본 발명에 따른 메이크업 이펙트가 선택적으로 적용된 이미지의 포스팅에 대한 리워드 제공 시스템의 상기 리워드 유닛은, 상기 SNS에 게시된 상기 유저의 게시물의 게시 기간을 카운팅하여 미리 결정된 게시 기간을 유지되는 것을 조건으로 하여, 상기 소정의 포인트를 선제공하는 키핑 카운팅부를 더 포함하는 것을 특징으로 할 수 있다.The reward unit of the system for providing a reward for posting of an image to which the makeup effect according to the present invention is selectively applied counts the posting period of the user's posting posted on the SNS and maintaining the predetermined posting period on condition , It may be characterized in that it further comprises a keeping counting unit for providing the predetermined point in advance.

이상과 같은 구성의 본 발명에 따른 메이크업 이펙트가 선택적으로 적용된 이미지의 포스팅에 대한 리워드 제공 시스템은 다음과 같은 효과를 제공한다.The system for providing a reward for posting an image to which a makeup effect is selectively applied according to the present invention configured as described above provides the following effects.

첫째, 유저의 단말기로부터 유저의 영상 정보를 수집하여 유저의 페이스 영역만을 검출할 수 있게 된다.First, by collecting the user's image information from the user's terminal, it is possible to detect only the user's face area.

둘째, 유저의 페이스 영역으로부터 유저의 페이셜 파트를 추출하고, 유저의 페이셜 파트에 소정의 이펙트를 선택적으로 적용하여 가상의 메이크업을 구현할 수 있게 된다.Second, it is possible to implement virtual makeup by extracting the user's facial part from the user's face area and selectively applying a predetermined effect to the user's facial part.

셋째, 소정의 이펙트가 적용된 유저의 이미지를 SNS에 포스팅할 수 있으며, 포스팅한 게시물에 대한 소정의 포인트를 제공할 수 있게 된다.Third, an image of a user to which a predetermined effect has been applied can be posted on SNS, and a predetermined point can be provided for the posted post.

본 발명의 효과는 이상에서 언급한 것들에 한정되지 않으며, 언급되지 아니한 다른 효과들은 아래의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.Effects of the present invention are not limited to those mentioned above, and other effects not mentioned will be clearly understood by those skilled in the art from the following description.

도1은 본 발명의 일 실시예에 따른 메이크업 이펙트가 선택적으로 적용된 이미지의 포스팅에 대한 리워드 제공 시스템의 개념도이다.
도2는 본 발명의 일 실시예에 따른 메이크업 이펙트가 선택적으로 적용된 이미지의 포스팅에 대한 리워드 제공 시스템의 블록도이다.
도3은 본 발명의 일 실시예에 따른 메이크업 이펙트가 선택적으로 적용된 이미지의 포스팅에 대한 리워드 제공 시스템의 레코그니션 유닛의 블록도이다.
도4는 본 발명의 일 실시예에 따른 메이크업 이펙트가 선택적으로 적용된 이미지의 포스팅에 대한 리워드 제공 시스템의 익스트랙팅 유닛의 개념도이다.
도5는 본 발명의 일 실시예에 따른 메이크업 이펙트가 선택적으로 적용된 이미지의 포스팅에 대한 리워드 제공 시스템의 익스트랙팅 유닛의 블록도이다.
도6은 본 발명의 일 실시예에 따른 메이크업 이펙트가 선택적으로 적용된 이미지의 포스팅에 대한 리워드 제공 시스템의 어플라잉부의 개념도이다.
도7은 본 발명의 일 실시예에 따른 메이크업 이펙트가 선택적으로 적용된 이미지의 포스팅에 대한 리워드 제공 시스템의 스팟 커버링부의 개념도이다.
도8은 본 발명의 일 실시예에 따른 메이크업 이펙트가 선택적으로 적용된 이미지의 포스팅에 대한 리워드 제공 시스템의 이펙팅 유닛의 블록도이다.
도9는 본 발명의 일 실시예에 따른 메이크업 이펙트가 선택적으로 적용된 이미지의 포스팅에 대한 리워드 제공 시스템의 쉐어링 유닛의 개념도이다.
도10은 본 발명의 일 실시예에 따른 메이크업 이펙트가 선택적으로 적용된 이미지의 포스팅에 대한 리워드 제공 시스템의 쉐어링 유닛의 블록도이다.
도11은 본 발명의 일 실시예에 따른 메이크업 이펙트가 선택적으로 적용된 이미지의 포스팅에 대한 리워드 제공 시스템의 리워드 유닛의 개념도이다.
도12는 본 발명의 일 실시예에 따른 메이크업 이펙트가 선택적으로 적용된 이미지의 포스팅에 대한 리워드 제공 시스템의 카운팅 일드부의 개념도이다.
도13은 본 발명의 일 실시예에 따른 메이크업 이펙트가 선택적으로 적용된 이미지의 포스팅에 대한 리워드 제공 시스템의 리워드 유닛의 블록도이다.
1 is a conceptual diagram of a system for providing a reward for posting an image to which a makeup effect is selectively applied according to an embodiment of the present invention.
2 is a block diagram of a system for providing a reward for posting an image to which a makeup effect is selectively applied according to an embodiment of the present invention.
3 is a block diagram of a registration unit of a system for providing a reward for posting an image to which a makeup effect is selectively applied according to an embodiment of the present invention.
4 is a conceptual diagram of an extracting unit of a system for providing a reward for posting an image to which a makeup effect is selectively applied according to an embodiment of the present invention.
5 is a block diagram of an extracting unit of a system for providing a reward for posting an image to which a makeup effect is selectively applied according to an embodiment of the present invention.
6 is a conceptual diagram of the applying unit of the reward providing system for posting of an image to which a makeup effect is selectively applied according to an embodiment of the present invention.
7 is a conceptual diagram of a spot covering unit of a system for providing a reward for posting an image to which a makeup effect is selectively applied according to an embodiment of the present invention.
8 is a block diagram of an effecting unit of a system for providing a reward for posting an image to which a makeup effect is selectively applied according to an embodiment of the present invention.
9 is a conceptual diagram of a sharing unit of a system for providing a reward for posting an image to which a makeup effect is selectively applied according to an embodiment of the present invention.
10 is a block diagram of a sharing unit of a system for providing a reward for posting an image to which a makeup effect is selectively applied according to an embodiment of the present invention.
11 is a conceptual diagram of a reward unit of a system for providing a reward for posting an image to which a makeup effect is selectively applied according to an embodiment of the present invention.
12 is a conceptual diagram of a counting yield unit of a system for providing rewards for posting an image to which a makeup effect is selectively applied according to an embodiment of the present invention.
13 is a block diagram of a reward unit of a system for providing a reward for posting an image to which a makeup effect is selectively applied according to an embodiment of the present invention.

본 발명에 따른 메이크업 이펙트가 선택적으로 적용된 이미지의 포스팅에 대한 리워드 제공 시스템은 다양한 변경을 가할 수 있고 여러 가지 실시예를 가질 수 있는바, 특정 실시예들을 도면에 예시하고 상세한 설명에 상세하게 설명하고자 한다. 그러나, 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 기술적 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. The system for providing a reward for posting of an image to which the makeup effect according to the present invention is selectively applied can make various changes and can have various embodiments. do. However, this is not intended to limit the present invention to specific embodiments, and it should be understood to include all modifications, equivalents and substitutes included in the spirit and scope of the present invention.

도1은 본 발명의 일 실시예에 따른 메이크업 이펙트가 선택적으로 적용된 이미지의 포스팅에 대한 리워드 제공 시스템의 개념도이다. 도2는 본 발명의 일 실시예에 따른 메이크업 이펙트가 선택적으로 적용된 이미지의 포스팅에 대한 리워드 제공 시스템의 블록도이다. 도3은 본 발명의 일 실시예에 따른 메이크업 이펙트가 선택적으로 적용된 이미지의 포스팅에 대한 리워드 제공 시스템의 레코그니션 유닛의 블록도이다. 도4는 본 발명의 일 실시예에 따른 메이크업 이펙트가 선택적으로 적용된 이미지의 포스팅에 대한 리워드 제공 시스템의 익스트랙팅 유닛의 개념도이다. 도5는 본 발명의 일 실시예에 따른 메이크업 이펙트가 선택적으로 적용된 이미지의 포스팅에 대한 리워드 제공 시스템의 익스트랙팅 유닛의 블록도이다. 도6은 본 발명의 일 실시예에 따른 메이크업 이펙트가 선택적으로 적용된 이미지의 포스팅에 대한 리워드 제공 시스템의 어플라잉부의 개념도이다. 도7은 본 발명의 일 실시예에 따른 메이크업 이펙트가 선택적으로 적용된 이미지의 포스팅에 대한 리워드 제공 시스템의 스팟 커버링부의 개념도이다. 도8은 본 발명의 일 실시예에 따른 메이크업 이펙트가 선택적으로 적용된 이미지의 포스팅에 대한 리워드 제공 시스템의 이펙팅 유닛의 블록도이다. 도9는 본 발명의 일 실시예에 따른 메이크업 이펙트가 선택적으로 적용된 이미지의 포스팅에 대한 리워드 제공 시스템의 쉐어링 유닛의 개념도이다. 도10은 본 발명의 일 실시예에 따른 메이크업 이펙트가 선택적으로 적용된 이미지의 포스팅에 대한 리워드 제공 시스템의 쉐어링 유닛의 블록도이다. 도11은 본 발명의 일 실시예에 따른 메이크업 이펙트가 선택적으로 적용된 이미지의 포스팅에 대한 리워드 제공 시스템의 리워드 유닛의 개념도이다. 도12는 본 발명의 일 실시예에 따른 메이크업 이펙트가 선택적으로 적용된 이미지의 포스팅에 대한 리워드 제공 시스템의 카운팅 일드부의 개념도이다. 도13은 본 발명의 일 실시예에 따른 메이크업 이펙트가 선택적으로 적용된 이미지의 포스팅에 대한 리워드 제공 시스템의 리워드 유닛의 블록도이다.1 is a conceptual diagram of a system for providing a reward for posting an image to which a makeup effect is selectively applied according to an embodiment of the present invention. 2 is a block diagram of a system for providing a reward for posting an image to which a makeup effect is selectively applied according to an embodiment of the present invention. 3 is a block diagram of a registration unit of a system for providing a reward for posting an image to which a makeup effect is selectively applied according to an embodiment of the present invention. 4 is a conceptual diagram of an extracting unit of a system for providing a reward for posting an image to which a makeup effect is selectively applied according to an embodiment of the present invention. 5 is a block diagram of an extracting unit of a system for providing a reward for posting an image to which a makeup effect is selectively applied according to an embodiment of the present invention. 6 is a conceptual diagram of the applying unit of the reward providing system for posting of an image to which a makeup effect is selectively applied according to an embodiment of the present invention. 7 is a conceptual diagram of a spot covering unit of a system for providing a reward for posting an image to which a makeup effect is selectively applied according to an embodiment of the present invention. 8 is a block diagram of an effecting unit of a system for providing a reward for posting an image to which a makeup effect is selectively applied according to an embodiment of the present invention. 9 is a conceptual diagram of a sharing unit of a system for providing a reward for posting an image to which a makeup effect is selectively applied according to an embodiment of the present invention. 10 is a block diagram of a sharing unit of a system for providing a reward for posting an image to which a makeup effect is selectively applied according to an embodiment of the present invention. 11 is a conceptual diagram of a reward unit of a system for providing a reward for posting an image to which a makeup effect is selectively applied according to an embodiment of the present invention. 12 is a conceptual diagram of a counting yield unit of a system for providing rewards for posting an image to which a makeup effect is selectively applied according to an embodiment of the present invention. 13 is a block diagram of a reward unit of a system for providing a reward for posting an image to which a makeup effect is selectively applied according to an embodiment of the present invention.

종래 기술들은 풀 프레임(full frame)으로서 유저의 안면을 일정한 틀에 맞추어진 상태로 셋팅, 변형, 색 변형 등에 해당하는바, 본인의 얼굴을 왜곡시키는 문제점이 있다. Conventional technologies have a problem of distorting the user's face as a full frame, which corresponds to setting, transformation, color transformation, etc. of a user's face in a state in which the user's face is adjusted to a certain frame.

종래 기술들은 유저의 얼굴을 그대로 살려 특정 부위만을 선택적으로 원하는 색조 혹은 원하는 화장 테크닉을 선택적으로 적용할 수 없는 문제점이 있었다. Conventional techniques have a problem in that it is not possible to selectively apply a desired color tone or a desired makeup technique to only a specific part by using the user's face as it is.

본원 발명은 위 종래기술들에 비하여, 사용자 혹은 유저의 얼굴을 그대로 반영하되, 본인이 직접 화장하는 것과 같이 실제 화장을 시도해볼 수 있고, 화장을 덧바르는 등의 효과를 낼 수 있게 된다.The present invention reflects the user or the user's face as it is, compared to the above prior art, but it is possible to try actual makeup, such as applying makeup by the person himself, and to achieve effects such as applying makeup.

본 발명에 따른 메이크업 이펙트가 선택적으로 적용된 이미지의 포스팅에 대한 리워드 제공 시스템의 경우, 도1에 도시된 바와 같이, 유저의 모바일 유닛(10)으로부터 유저의 영상으로부터 유저의 페이스 영역과 유저의 페이셜 파트(facial part)를 추출하여, 페이셜 파트 각각에 가상의 메이크업 이펙트(makeup effect)를 적용하여, 가상의 메이크업 이펙트가 적용된 유저의 이미지를 SNS(Social Network Service)에 포스팅(posting)하며, 포스팅에 대한 소정의 포인트(point)를 제공하는 게시하도록 하는 기술을 개시하게 된다.In the case of a system for providing a reward for posting an image to which the makeup effect according to the present invention is selectively applied, as shown in FIG. 1 , the user's face area and the user's facial part from the user's image from the user's mobile unit 10 (facial part) is extracted, a virtual makeup effect is applied to each facial part, and an image of a user to which the virtual makeup effect is applied is posted on SNS (Social Network Service), Techniques will be disclosed that allow posting to provide certain points.

여기서 말하는 모바일 유닛(10)은 유저의 단말기(휴대폰, PC, 태블릿pc) 등에 제공되어, 유저로 하여금 카메라를 실행하여 사진 또는 영상을 촬영하고 편집할 수 있는 어플리케이션, 앱 등으로 정의할 수 있다. The mobile unit 10 referred to herein may be defined as an application, an app, etc. that is provided to a user's terminal (cellular phone, PC, tablet pc), etc. and allows the user to execute a camera to take and edit a photo or video.

즉, 모바일 유닛(10)에 상호 연동된 레코그니션 유닛(100), 익스트랙팅 유닛(200), 이펙팅 유닛(300)을 통해서 유저의 단말기로 촬영된 유저의 영상 또는 셀카 영상으로부터, 유저의 페이스를 인식하고 유저의 페이셜 파트 각각에 가상의 코스메틱 오브젝트(20)를 선택적으로 적용하여 가상의 뷰티 메이크업을 구현할 수 있게 된다. 또한, 가상의 뷰티 메이크업이 적용된 유저의 이미지는 유저의 단말기에 설치된 SNS 앱에 상호 연결되어, 유저의 SNS에 공유 및 게시할 수 있게 된다.That is, from the user's image or selfie image captured by the user's terminal through the recording unit 100 , the extracting unit 200 , and the effecting unit 300 interlocked with the mobile unit 10 , the user's It is possible to realize a virtual beauty makeup by recognizing a face and selectively applying the virtual cosmetic object 20 to each of the user's facial parts. In addition, the image of the user to which the virtual beauty makeup is applied is interconnected to the SNS app installed on the user's terminal, so that it can be shared and posted on the user's SNS.

본 발명에 따른 메이크업 이펙트가 선택적으로 적용된 이미지의 포스팅에 대한 리워드 제공 시스템의 경우, 도2에 도시된 바와 같이, 레코그니션 유닛(recognition unit, 100), 익스트랙팅 유닛(extracting unit, 200), 이펙팅 유닛(effecting unit, 300), 쉐어링 유닛(sharing unit, 400) 및 리워드 유닛(reward unit, 500)을 포함하게 된다.In the case of a system for providing a reward for posting an image to which the makeup effect according to the present invention is selectively applied, as shown in FIG. 2, a recognition unit (100), an extracting unit (200) , will include an effecting unit (effecting unit, 300), a sharing unit (sharing unit, 400) and a reward unit (reward unit, 500).

먼저, 레코그니션 유닛(100)의 경우, 도1에 도시된 바와 같이, 모바일 유닛(10)으로부터 취득된 유저의 영상으로부터 유저의 페이스 영역을 선택적으로 검출하는 구성이다.First, in the case of the registration unit 100 , as shown in FIG. 1 , the face area of the user is selectively detected from the image of the user acquired from the mobile unit 10 .

레코그니션 유닛(100)은 유저로부터 유저의 단말기를 통해서 카메라가 실행될 때, 실시간으로 촬영되는 유저의 영상으로부터 유저의 페이스 영역만을 인식하고 검출하는 구성이다.The recording unit 100 is configured to recognize and detect only the user's face area from the user's image captured in real time when the camera is executed from the user through the user's terminal.

본 발명에 따른 메이크업 이펙트가 선택적으로 적용된 이미지의 포스팅에 대한 리워드 제공 시스템의 레코그니션 유닛(100)의 경우, 도3에 도시된 바와 같이, 스캔(scan)부(110), 퍼시빙(perceiving)부(120), 및 디텍팅(detecting)부(130)를 포함하게 된다.In the case of the registration unit 100 of the system for providing a reward for posting an image to which the makeup effect according to the present invention is selectively applied, as shown in FIG. 3 , a scan unit 110 and perceiving ) unit 120 , and a detecting unit 130 .

먼저, 스캔부(110)의 경우, 모바일 유닛(10)으로부터 유저의 영상을 가져와서 스캔하는 구성이다.First, in the case of the scan unit 110 , the user's image is retrieved from the mobile unit 10 and scanned.

스캔부(110)는 유저의 단말기로부터 실시간으로 촬영되는 유저의 영상을 선별적으로 가져오며, 해당 영상으로부터 유저의 페이스 영역을 인식하기 위해 스캔하도록 한다.The scan unit 110 selectively brings the user's image captured in real time from the user's terminal, and scans the image to recognize the user's face area.

퍼시빙부(120)의 경우, 유저의 영상으로부터 소정의 무브먼트가 포착되는 영역을 유저의 페이스 영역으로 인식하는 구성이다.In the case of the perciting unit 120 , it is configured to recognize an area in which a predetermined movement is captured from the user's image as the user's face area.

퍼시빙부(120)는 유저의 영상 중, 유저의 페이스 영역을 인식하기 위해 유저의 소정의 무브먼트를 포착하여 이를 유저의 페이스 영역으로 정의하도록 한다.The perceiving unit 120 captures a predetermined movement of the user in order to recognize the user's face area in the user's image and defines it as the user's face area.

퍼시빙부(120)에서는 서버로부터 미리 축적된 페이셜 패턴 정보를 제공받아, 미리 축적된 페이셜 패턴 정보에 기초하여, 유저의 영상으로부터 소정의 시간 동안 유저의 소정의 무브먼트를 감지하여 유저의 페이스 영역만을 인식하게 된다.The percing unit 120 receives facial pattern information accumulated in advance from the server, and based on the facial pattern information accumulated in advance, detects a predetermined movement of the user from the user's image for a predetermined time and recognizes only the user's face area will do

예컨대, 퍼시빙부(120)로부터 포착되는 소정의 무브먼트는 유저가 유저의 페이스를 촬영하거나 셀카를 찍을 때, 카메라를 실행한 상태에서 유저의 페이스가 잘 나오도록 하는 각도를 찾기 위해 유저의 페이스를 이리 저리 움직일 때의 무브먼트로 정의하는 것이 바람직하다.For example, the predetermined movement captured from the perceiving unit 120 moves the user's face to find an angle that makes the user's face come out well with the camera running when the user takes a picture of the user's face or takes a selfie. It is desirable to define it as a movement when moving around.

또한, 유저가 유저의 페이스가 잘 나오도록 하는 각도를 찾은 후에, 유저의 페이스가 고정되어 있다 하더라도 유저의 눈동자는 움직임이 발생하기 때문에, 유저의 눈동자의 깜빡임, 움직임을 통해서 소정의 무브먼트를 포착할 수 있게 된다.In addition, after the user finds an angle that allows the user's face to come out well, even if the user's face is fixed, since the user's pupils move, it is possible to capture a certain movement through the blinking and movement of the user's pupils. be able to

디텍팅부(130)의 경우, 퍼시빙부(120)로부터 인식된 유저의 페이스 영역과 백그라운드 영역을 분리하여, 유저의 페이스 영역을 선택적으로 검출하는 구성이다.The detecting unit 130 is configured to selectively detect the user's face area by separating the user's face area and the background area recognized by the perceiving unit 120 .

디텍팅부(130)에서는 유저의 영상 중 유저의 페이스 영역이 인식되면, 유저의 영상 중 페이스 영역을 제외한 부분은 백그라운드 영역으로 인식하고 분리하게 된다.When the user's face area is recognized in the user's image, the detecting unit 130 recognizes and separates the portion of the user's image except for the face area as a background area.

디텍팅부(130)에서는 유저의 페이스 영역과 백그라운드 영역이 각각 분리되면, 유저의 페이스 영역만을 선택적으로 검출하도록 한다.When the user's face area and the background area are separated from each other, the detecting unit 130 selectively detects only the user's face area.

익스트랙팅 유닛(200)의 경우, 도4에 도시된 바와 같이, 레코그니션 유닛(100)으로부터 검출된 유저의 페이스 영역으로부터 유저의 페이셜 파트(facial part)를 개별적으로 추출하는 구성이다.In the case of the extracting unit 200 , as shown in FIG. 4 , the user's facial part is individually extracted from the user's face area detected by the recording unit 100 .

익스트랙팅 유닛(200)에서 개별적으로 추출하는 유저의 페이셜 파트는, 유저의 얼굴 부위 각각으로 정의한다. The user's facial parts individually extracted by the extracting unit 200 are defined as each of the user's face parts.

예컨대, 익스트랙팅 유닛(200)에서 추출하는 유저의 페이셜 파트에는 유저의 눈, 눈썹, 속눈썹, 눈동자, 눈커풀, 애교살, 아이홀, 코, 콧망울, 콧대, 콧구멍, 인중, 입, 입술, 치아, 얼굴형, 피부, 볼, 턱, 광대뼈, 이마, 머리카락 또는 귀 등이 포함된다.For example, the user's facial parts extracted by the extracting unit 200 include the user's eyes, eyebrows, eyelashes, pupils, eyelids, aegyo cheeks, eye holes, nose, nostrils, bridge of the nose, nostrils, pharynx, mouth, lips , teeth, face shape, skin, cheeks, jaw, cheekbones, forehead, hair or ears.

본 발명에 따른 메이크업 이펙트가 선택적으로 적용된 이미지의 포스팅에 대한 리워드 제공 시스템의 익스트랙팅 유닛(200)의 경우, 도5에 도시된 바와 같이, 쉐이핑(shaping)부(210), 트레킹(tracking)부(220), 얼라이닝(aligning)부(230), 및 어드레스(address)부(240)를 포함하게 된다.In the case of the extracting unit 200 of the system for providing a reward for posting an image to which the makeup effect according to the present invention is selectively applied, as shown in FIG. 5 , a shaping unit 210, tracking It includes a unit 220 , an aligning unit 230 , and an address unit 240 .

먼저, 쉐이핑부(210)의 경우, 디텍팅부(130)로부터 검출된 유저의 페이스 영역으로부터 3차원의 페이스 쉐입을 형성하는 구성이다.First, in the case of the shaping unit 210 , a three-dimensional face shape is formed from the user's face area detected by the detecting unit 130 .

쉐이핑부(210)에서는 유저의 페이스를 3차원의 페이스 쉐입으로 형성하는 것은 유저의 페이스의 윤곽에 따른 유저의 페이셜 파트를 추출하기 위해서이다.The shaping unit 210 forms the user's face in a three-dimensional face shape in order to extract the user's facial parts according to the contour of the user's face.

트레킹부(220)의 경우, 쉐이핑부(210)로부터 형성된 3차원의 페이스 쉐입으로부터 유저의 페이셜 파트를 선택적으로 추출하는 구성이다.In the case of the trekking unit 220 , it is configured to selectively extract the user's facial parts from the three-dimensional face shape formed by the shaping unit 210 .

트레킹부(220)에서 페이셜 파트를 선택적으로 추출하기 위해서 유저의 페이셜 파트를 추적하게 된다. 유저의 페이셜 파트를 추적하기 위해서 서버에 미리 축적된 페이셜 패턴 정보에 기초하여 추적하게 된다. The tracking unit 220 tracks the user's facial part in order to selectively extract the facial part. In order to track the user's facial part, it is tracked based on facial pattern information previously accumulated in the server.

미리 축적된 페이셜 패턴 정보에는 통상적인 사람의 얼굴의 비율에 대한 정보와, 얼굴의 형상 정보와 같은 얼굴이 가지는 전형적인 패턴 정보로 정의한다. The pre-accumulated facial pattern information is defined as information about the ratio of a normal human face and typical pattern information of a face, such as face shape information.

예컨대, 미리 축적된 페이셜 패턴 정보에는 얼굴은 크게 두 개의 눈이 좌우에 대칭되어 상부에 배치되며, 중앙에 코가 배치하고 하부에 입이 배치된다는 얼굴의 부위별 배치의 상호 관계가 포함된다. 또한, 얼굴에서 눈, 코, 입의 크기에 대한 비율, 눈과 코 사이의 거리 비율, 눈과 입 사이의 거리 비율, 코와 입 사이의 거리 비율, 이마로부터 눈과의 거리 비율 등의 비율에 대한 정보가 포함된다.For example, the facial pattern information accumulated in advance includes a correlation between the arrangement of each part of the face such that the face has two eyes symmetrically arranged on the left and right, and the nose is arranged in the center and the mouth is arranged at the bottom. In addition, the ratio of the ratio of the size of the face to the eyes, nose, and mouth, the ratio of the distance between the eyes and the nose, the ratio of the distance between the eyes and the mouth, the ratio of the distance between the nose and the mouth, the ratio of the distance from the forehead to the eyes, etc. information is included.

얼라이닝부(230)의 경우, 유저의 소정의 무브먼트에 따른 페이셜 파트의 앵글 변화를 감지하여 3차원 페이스 쉐입에 반영하는 구성이다.In the case of the aligning unit 230, a change in the angle of the facial part according to a predetermined movement of the user is detected and reflected in the three-dimensional face shape.

얼라이닝부(230)는 유저가 유저의 페이스가 잘 나오도록 하는 각도를 찾기 위해 소정의 무브먼트가 발생하기 때문에, 유저의 앵글 변화에 따른 유저의 페이셜 파트의 변화를 반영하기 위한 기능을 수행한다.The aligning unit 230 performs a function to reflect the change of the user's facial part according to the change of the user's angle, since a predetermined movement is generated to find the angle at which the user makes the user's face come out well.

어드레스부(240)의 경우, 도6에 도시된 바와 같이, 트레킹부(220)로부터 추출된 페이셜 파트의 각각에 임의의 주소를 할당하여 개별적으로 저장하는 구성이다.In the case of the address unit 240 , as shown in FIG. 6 , an arbitrary address is allocated to each of the facial parts extracted from the tracking unit 220 and stored individually.

어드레스부(240)는 추출된 페이셜 파트에 따라 임의로 분할하며, 분할된 페이셜 파트에 임의의 주소(A1, A2, A3, ??)를 랜덤하게 부여하여 유저의 페이셜 파트 정보를 개별적으로 저장하도록 한다.The address unit 240 arbitrarily divides the extracted facial parts, and randomly assigns arbitrary addresses (A1, A2, A3, ??) to the divided facial parts to individually store the user's facial part information. .

이펙팅 유닛(300)의 경우, 익스트랙팅 유닛(200)으로부터 추출된 유저의 페이셜 파트 각각에 소정의 이펙트를 선택적으로 적용하는 구성이다.In the case of the effecting unit 300 , a predetermined effect is selectively applied to each of the user's facial parts extracted from the extracting unit 200 .

이펙팅 유닛(300)을 통해 유저의 페이셜 파트에 적용되는 소정의 이펙트에는 메이크업 이펙트 또는 피규레이션 이펙트가 존재하며, 소정의 이펙트를 통해서 유저의 페이셜 파트 각각에 가상의 메이크업 또는 가상의 성형 또는 가상의 튜닝이 가능하게 된다.A makeup effect or a figure effect exists in a predetermined effect applied to the user's facial part through the effecting unit 300 , and virtual makeup or virtual shaping or virtual tuning is applied to each of the user's facial parts through the predetermined effect. This becomes possible.

본 발명에 따른 메이크업 이펙트가 선택적으로 적용된 이미지의 포스팅에 대한 리워드 제공 시스템의 이펙팅 유닛(300)의 경우, 도8에 도시된 바와 같이, 유저 액션(user action)부(310), 및 어플라잉(applying)부(320)를 포함하게 된다. In the case of the effecting unit 300 of the system for providing a reward for posting of an image to which the makeup effect according to the present invention is selectively applied, as shown in FIG. 8, a user action unit 310, and applying ( applying) unit 320 is included.

유저 액션부(310)의 경우, 유저로부터 미리 결정된 액션과 상호 연동되어, 미리 결정된 액션에 의해 페이셜 파트가 선택되도록 하는 구성이다.In the case of the user action unit 310 , it is configured to interwork with a predetermined action from the user so that the facial part is selected by the predetermined action.

유저 액션부(310)는 유저의 미리 결정된 액션에 따라서 소정의 이펙트를 적용하기 위한 것이다. 유저의 미리 결정된 액션은 유저가 유저의 단말기의 액정을 터치하거나, 음성 명령을 하거나, 단축어 등을 사용하여 유저로 하여금, 페이셜 파트를 선택하도록 하는 것이다. 예컨대, 유저가 유저의 단말기에 표시된 유저의 페이셜 파트 중 하나를 선택적으로 터치하면, 모바일 유닛(10)은 유저의 터치를 인식하여 이펙팅 유닛(300)에 전달하여 유저의 액션에 따라 소정의 이펙트 효과를 적용할 수 있게 된다.The user action unit 310 is for applying a predetermined effect according to a predetermined action of the user. The user's predetermined action is to have the user select a facial part by touching the liquid crystal of the user's terminal, giving a voice command, or using a shortcut. For example, when the user selectively touches one of the user's facial parts displayed on the user's terminal, the mobile unit 10 recognizes the user's touch and transmits it to the effecting unit 300 to provide a predetermined effect according to the user's action. can be applied.

또한, 유저 액션부(310)에서는 하나의 페이셜 파트를 선택하여 소정의 이펙트가 단일 적용될 수 있으며, 다중의 페이셜 파트를 선택하여 소정의 이펙트가 다중 적용될 수도 있다.In addition, the user action unit 310 may select one facial part and apply a single predetermined effect, or select multiple facial parts and apply multiple predetermined effects.

어플라잉부(320)의 경우, 도6에 도시된 바와 같이, 미리 결정된 액션에 의해 선택된 페이셜 파트에 소정의 이펙트를 선택적으로 적용하는 구성이다.In the case of the applying unit 320, as shown in FIG. 6, it is configured to selectively apply a predetermined effect to the facial part selected by a predetermined action.

본 발명에 따른 메이크업 이펙트가 선택적으로 적용된 이미지의 포스팅에 대한 리워드 제공 시스템의 어플라잉부(320)의 경우, 도8에 도시된 바와 같이, 메이크업부(321), 피규레이션부(322), 리모델링부(323), 및 스팟 커버링부(324)를 포함하게 된다.In the case of the applying unit 320 of the system for providing a reward for posting an image to which the makeup effect according to the present invention is selectively applied, as shown in FIG. 8, the makeup unit 321, the figure unit 322, and the remodeling It includes a portion 323 , and a spot covering portion 324 .

먼저, 메이크업부(321)의 경우, 유저의 미리 결정된 액션에 의해 페이셜 파트 중 피부, 눈, 눈썹, 속눈썹, 눈동자, 눈커풀, 애교살, 아이홀, 코, 콧망울, 콧대, 콧구멍, 인중, 입, 치아, 턱, 볼, 광대뼈, 이마, 귀, 머리카락 또는 얼굴형 중 적어도 하나 이상의 외형에 메이크업 이펙트를 적용하는 구성이다.First, in the case of the makeup unit 321, skin, eyes, eyebrows, eyelashes, pupils, eyelids, aegyo, eye holes, nose, nostrils, bridge of the nose, nostrils, pharynx, It is a configuration in which a makeup effect is applied to the appearance of at least one of the mouth, teeth, chin, cheeks, cheekbones, forehead, ears, hair, or face shape.

메이크업부(321)는 미리 세팅된 가상의 코스메틱 오브젝트(20)를 페이셜 파트에 선택적으로 적용하는 것을 메이크업 이펙트로 설정하게 된다.The makeup unit 321 selectively applies the preset virtual cosmetic object 20 to the facial part as a makeup effect.

메이크업부(321)에서 메이크업 이펙트를 설정하기 위한 미리 세팅된 가상의 코스메틱 오브젝트(20)는 실제 존재하는 코스메틱을 가상 또는 온라인 상의 코스메틱 오브젝트로 생성한 것이다. 미리 세팅된 가상의 코스메틱 오브젝트(20)에는 베이스 메이크업을 위한 프라이머, 베이스, 비비크림 씨씨크림, 파운데이션, 쿠션, 컨실러, 파우더, 립 메이크업을 위한 립스틱, 립틴트, 립글로스, 립라이너, 립밤, 아이 메이크업을 위한 아이라이너, 아이브로우, 아이섀도우, 마스카라, 윤곽 메이크업을 위한 블러셔, 치크, 하이라이터, 쉐딩, 컨투어링 등을 포함하는 것이 바람직하다.The virtual cosmetic object 20 set in advance for setting the makeup effect in the makeup unit 321 is generated from an actual cosmetic as a virtual or online cosmetic object. Pre-set virtual cosmetic object 20 includes primer, base, BB cream, CC cream, foundation, cushion, concealer, powder, lipstick for lip makeup, lip tint, lip gloss, lip liner, lip balm, and eye makeup for base makeup. It is preferable to include eyeliner, eyebrow, eye shadow, mascara, blusher, cheek, highlighter, shading, contouring, etc. for contour makeup.

이와 같은 미리 세팅된 가상의 코스메틱 오브젝트(20)는 유저에 의해 임의 선택되어, 유저의 페이셜 파트에 개별적으로 적용된다.Such a preset virtual cosmetic object 20 is arbitrarily selected by the user, and is individually applied to the user's facial parts.

또한, 미리 세팅된 가상의 코스메틱 오브젝트(20)는 미리 결정된 액션에 의해 선택된 페이셜 파트에 따라서 각각 상이한 집군의 하위 코스메틱 오브젝트가 제시되며, 유저에 의해 하위 코스메틱 오브젝트의 일부가 선택되면, 선택된 하위 코스메틱 오브젝트가 선택된 페이셜 파트에 적용될 수 있다.In addition, as for the preset virtual cosmetic object 20 , sub cosmetic objects of different groups are presented according to the facial parts selected by a predetermined action. may be applied to the selected facial part.

예컨대, 미리 결정된 액션에 의해 유저의 페이셜 파트 중 입술이 선택되면, 립 메이크업과 관련된 립스틱, 립틴트, 립글로스, 립라이너, 립밤 등이 제시되고, 유저가 이중에서 립 틴트를 선택하면 유저의 페이셜 파트 중 입술에 유저가 선택한 립 틴트가 적용될 수 있다.For example, when lips are selected from among the user's facial parts by a predetermined action, lipstick, lip tint, lip gloss, lip liner, lip balm, etc. related to lip makeup are presented. A lip tint selected by the user may be applied to the lips.

또한, 메이크업부(321)에서는 하위 코스메틱 오브젝트의 브랜드, 컬러, 제형, 가격, 질감, 피부톤, 신상품, 리뷰수, 추천수 또는 성분 중 적어도 하나 이상을 제시하여 유저로 하여금 하위 코스메틱 오브젝트를 선택되도록 한다.In addition, the makeup unit 321 suggests at least one of the brand, color, formulation, price, texture, skin tone, new product, number of reviews, number of recommendations, or ingredients of the lower cosmetic object to allow the user to select the lower cosmetic object.

예컨대, 유저가 립 틴트를 선택하면, 메이크업부(321)에는 립 틴트의 브랜드, 컬러, 제형, 가격, 피부 톤, 신상품, 리뷰, 추천수, 성분에 따라 정렬된 데이터를 유저에게 제시하며, 유저가 코랄 컬러를 원할 경우, 컬러를 선택하여 코랄의 립 틴트를 선택하여 적용할 수 있도록 한다.For example, when the user selects a lip tint, the makeup unit 321 presents data sorted according to the brand, color, formulation, price, skin tone, new product, review, recommendation number, and ingredient of the lip tint to the user, and the user If you want a coral color, select a color so that you can choose and apply a coral lip tint.

피규레이션부(322)의 경우, 유저의 미리 결정된 액션에 의해 페이셜 파트 중 피부, 눈, 눈썹, 속눈썹, 눈동자, 눈커풀, 애교살, 아이홀, 코, 콧망울, 콧대, 콧구멍, 인중, 입, 치아, 턱, 볼, 광대뼈, 이마, 귀, 머리카락 또는 얼굴형 중 적어도 하나 이상의 외형이 튜닝되도록 피규레이션 이펙트를 적용하는 구성이다.In the case of the figure unit 322, the skin, eyes, eyebrows, eyelashes, pupils, eyelids, chubby cheeks, eye holes, nose, nostrils, bridge of the nose, nostrils, pharynx, mouth among the facial parts according to the user's predetermined action. , teeth, chin, cheeks, cheekbones, forehead, ears, hair, and a configuration that applies a figure effect so that the appearance of at least one or more of the face shape is tuned.

피규레이션부(322)는 미리 세팅된 가상의 파트 쉐입을 페이셜 파트에 선택적으로 적용하는 것을 피규레이션 이펙트로 설정하는 구성이다.The figure unit 322 is configured to selectively apply a preset virtual part shape to the facial part as a figure effect.

피규레이션부(322)에서 피규레이션 이펙트를 설정하기 위한 미리 세팅된 가상의 파트 쉐입은 페이셜 파트 중 피부를 매끈함, 톤업, 팔자 주름 삭제, 모공 삭제하거나, 페이셜 파트의 크기 조절, 선명도, 간격, 각도, 모양, 길이 등을 조절하는 것으로 정의할 수 있다.The preset virtual part shape for setting the figure effect in the figure unit 322 is to smooth the skin, tone up, delete nasolabial folds, delete pores, adjust the size of the facial part, sharpness, spacing, and angle among the facial parts. , it can be defined as adjusting the shape, length, etc.

미리 세팅된 가상의 파트 쉐입은 유저에 의해 임의 선택되어, 페이셜 파트에 개별적으로 적용되는 것을 특징으로 한다.The preset virtual part shape is randomly selected by the user and is individually applied to the facial part.

또한, 미리 세팅된 가상의 파트 쉐입은 유저의 미리 결정된 액션에 의해 선택된 페이셜 파트와 관련된 미리 세팅된 가상의 파트 쉐입 집군이 제시되고, 유저는 미리 세팅된 가상의 파트 쉐입 집군 중 어느 하나를 선택하면, 유저의 페이셜 파트는 유저가 선택한 미리 세팅된 가상의 파트 쉐입 집군 중 하나의 스타일로 튜닝되는 것을 특징으로 한다.In addition, as for the preset virtual part shape, a preset virtual part shape collection related to the facial part selected by the user's predetermined action is presented, and the user selects any one of the preset virtual part shape collections. , characterized in that the user's facial part is tuned to a style from one of a group of preset virtual part shapes selected by the user.

예컨대, 유저가 페이셜 파트 중 입을 선택하면, 입과 관련된 미리 세팅된 가상의 파트 쉐입의 집군 되는 입술 모양, 입꼬리, 치아 미백, 입크기 등이 제시된다. 유저가 입술 모양, 입꼬리, 치아 미백, 입 크기 중 입꼬리를 선택하게 되면 입꼬리의 모양이 튜닝될 수 있도록 한다.For example, when a user selects a mouth among facial parts, a lip shape, corners of the mouth, teeth whitening, mouth size, etc. of preset virtual part shapes related to the mouth are presented. When the user selects the corner of the mouth among lip shape, corner of the mouth, teeth whitening, and mouth size, the shape of the corner of the mouth can be tuned.

리모델링부(323)의 경우, 유저 액션부(310)로부터 선택된 페이셜 파트를 선택적으로 삭제하며, 삭제된 페이셜 파트에는 미리 세팅된 가상의 파트 쉐입을 인풋하는 구성이다.In the case of the remodeling unit 323 , the facial part selected from the user action unit 310 is selectively deleted, and a preset virtual part shape is input to the deleted facial part.

스팟 커버링부(324)의 경우, 도7에 도시된 바와 같이, 유저의 페이셜 파트의 특정 부분으로부터 스팟 포인트를 찾아내며, 유저로 하여금 스팟 포인트를 선택적으로 커버링할 수 있도록 한다.In the case of the spot covering unit 324, as shown in FIG. 7, a spot point is found from a specific part of the user's facial part, and the user can selectively cover the spot point.

이때, 스팟 포인트는 익스트랙팅 유닛(200)으로부터 추출된 유저의 페이셜 파트 중 그레이 레벨(gray level) 전형적인 패턴으로부터 벗어나 그레이 레벨의 변화가 있는 부분을 스팟 포인트라고 정의하게 된다.In this case, the spot point is defined as a spot point, which is a part of the user's facial part extracted from the extracting unit 200 , where the gray level is changed from a typical gray level pattern.

예컨대, 유저의 페이스에 존재하는 점, 기미, 주근깨, 여드름, 잡티, 검버섯, 모공 또는 흉터 등이 스팟 포인트로 검출될 수 있다.For example, spots, blemishes, freckles, acne, blemishes, age spots, pores, or scars present on the user's face may be detected as spot points.

스팟 커버링부(324)에서는 어플라잉부(320)로부터 유저의 페이셜 파트 중 스팟 포인트가 검출되면, 유저로 하여금 해당 스팟 포인트는 다른 페이셜 파트와는 상이한 적용을 할 수 있도록 한다. In the spot covering unit 324, when a spot point is detected among the facial parts of the user from the applying unit 320, the corresponding spot point allows the user to apply different from other facial parts.

즉, 스팟 커버링부(324)는 해당 스팟 포인트에는 다른 페이셜 파트와는 다르게 메이크업 이펙트 또는 피규레이션 이펙트를 강화시켜 독립적으로 적용할 수 있도록 한다.That is, the spot covering unit 324 strengthens the makeup effect or the figure effect differently from other facial parts to the corresponding spot point so that it can be applied independently.

아울러, 스팟 커버링부(324)는 스팟 포인트에 상이한 적용을 하는 것은 유저에 의해 선택 가능하도록 한다. In addition, the spot covering part 324 is Different applications of the spot points are selectable by the user.

예컨대, 유저의 페이스 영역에 존재하는 하나의 점이 콤플렉스가 된다면 메이크업 이펙트 또는 피규레이션 이펙트를 강화시켜 커버할 수 있지만, 만약 이 점이 유저의 페이스의 트레이드 마크일 경우, 유저는 이 스팟 포인트를 커버할 이유가 없기 때문이다. 따라서, 유저의 선택에 의해서 스팟 포인트에 상이한 적용을 할 수 있도록 하는 것이 바람직하다.For example, if a single point in the user's face area becomes a complex, it can be covered by strengthening the makeup effect or the figure effect. because there is no Therefore, it is desirable to allow different applications to the spot points according to the user's selection.

쉐어링 유닛(400)의 경우, 도9에 도시된 바와 같이, 이펙팅 유닛으로부터 소정의 이펙트가 적용된 유저의 이미지를 SNS에 공유하는 구성이다.In the case of the sharing unit 400, as shown in FIG. 9, the image of the user to which a predetermined effect is applied from the effecting unit is shared on SNS.

쉐어링 유닛(400)에서 SNS에 공유하는 유저의 이미지는 소정의 이펙트가 적용된 사진 또는 동영상 파일로 정의할 수 있다.The user's image shared on SNS by the sharing unit 400 may be defined as a photo or video file to which a predetermined effect is applied.

쉐어링 유닛(400)은, 이펙팅 유닛으로부터 메이크업 이펙트 또는 피규레이션 이펙트가 적용된 유저의 사진 또는 영상을 모바일 유닛을 통하여 유저의 SNS에 공유할 수 있도록 한다.The sharing unit 400 allows the user's photo or image to which the makeup effect or the figure effect is applied from the effecting unit to be shared on the user's SNS through the mobile unit.

쉐어링 유닛(400)을 통해 유저의 이미지를 공유할 수 있는 SNS에는 트위터, 페이스북, 인스타그램, 유튜브, 텀블러, 카카오톡, 카카오스토리, 네이버, 구글, 핀터레스트, 링크드인, 브콘탁테, 빙글, 싸이월드, 틱톡, 라인, 위챗, 스냅챗, 텔레그램, 스카이프, 플리커, 비메오, 등이 있다.Twitter, Facebook, Instagram, YouTube, Tumblr, KakaoTalk, Kakao Story, Naver, Google, Pinterest, LinkedIn, Bkontakte, Bingle , Cyworld, TikTok, Line, WeChat, Snapchat, Telegram, Skype, Flickr, Vimeo, etc.

또한, 쉐어링 유닛(400)은 모바일 유닛에 상호 연동되어, 유저로 하여금, 공유하기 또는 공유 아이콘을 선택하면, 유저의 페이셜 파트에 메이크업 이펙트 또는 피규레이션 이펙트가 적용된 유저의 이미지를 공유가 실행될 수 있게 된다.In addition, the sharing unit 400 is interlocked with the mobile unit, so that when a user selects a share or a share icon, the user's image with a makeup effect or a figure effect applied to the user's facial part can be shared. do.

본 발명에 따른 메이크업 이펙트가 선택적으로 적용된 이미지의 포스팅에 대한 리워드 제공 시스템의 쉐어링 유닛(400)의 경우, 도10에 도시된 바와 같이, 셀렉팅(selecting)부(410), 커넥팅(connecting)부(420), 트랜스미팅(transmitting)부(430) 및 포스팅(posting)부(440)를 포함하게 된다. In the case of the sharing unit 400 of the system for providing a reward for posting of an image to which the makeup effect according to the present invention is selectively applied, as shown in FIG. 10 , a selecting unit 410 and a connecting unit 420 , a transmitting unit 430 and a posting unit 440 are included.

먼저, 셀렉팅부(410)의 경우, 소정의 이펙트가 적용된 유저의 이미지를 공유하기 위한 SNS를 하나 이상 선택하는 구성이다.First, in the case of the selecting unit 410, it is configured to select one or more SNS for sharing an image of a user to which a predetermined effect is applied.

셀렉팅부(410)에서는 유저로 하여금, 위에서 서술된 복수 개의 SNS 중 하나 이상의 SNS을 선택하도록 하는 구성이다.The selection unit 410 is configured to allow the user to select one or more SNSs from among the plurality of SNSs described above.

즉, 셀렉팅부(410)에서 유저로 하여금 선택된 SNS에 메이크업 이펙트 또는 피규레이션 이펙트가 적용된 유저의 이미지를 공유할 수 있도록 한다.That is, the selection unit 410 allows the user to share the image of the user to which the makeup effect or the figure effect is applied to the selected SNS.

또한, 셀렉팅부(410)에서는 SNS에 공유하고자 하는 유저의 이미지를 선택하는 기능도 수행하게 된다.In addition, the selecting unit 410 also performs a function of selecting an image of a user to be shared on SNS.

커넥팅부(420)의 경우, 셀렉팅부(410)로부터 선택된 SNS의 유저의 계정에 상호 연결하는 구성이다.In the case of the connecting unit 420 , it is configured to mutually connect to the user's account of the SNS selected by the selecting unit 410 .

커넥팅부(420)에서는 먼저, 선택된 SNS에 유저의 계정의 로그인 여부를 확인한다. 유저의 계정이 로그인되어 있다면, 선택된 SNS의 유저의 계정에 상호 연동될 수 있다. 만약, 유저의 계정이 하나 이상일 경우, 유저로 하여금 유저의 이미지를 공유할 계정을 선택하도록 한다. 또한, 유저의 계정이 로그인이 되어 있지 않을 경우, SNS로부터 로그인 페이지로의 전환을 요청하여 유저로 하여금 선택된 SNS에 로그인 한 후 상호 연결될 수 있도록 한다. The connecting unit 420 first checks whether the user's account is logged into the selected SNS. If the user's account is logged in, it may be linked to the user's account of the selected SNS. If the user has more than one account, the user is allowed to select an account to share the user's image. In addition, when the user's account is not logged in, it requests a switch from the SNS to the login page so that the user can be connected to each other after logging in to the selected SNS.

트랜스미팅부(430)의 경우, 커넥팅부(420)로부터 상호 연결된 SNS의 유저의 계정에 소정의 이펙트가 적용된 유저의 이미지를 전송하는 구성이다.In the case of the transmitting unit 430 , it is configured to transmit an image of a user to which a predetermined effect is applied from the connecting unit 420 to the user's account of the connected SNS.

포스팅부(440)의 경우, 트랜스미팅부(430)로부터 전송된 소정의 이펙트가 적용된 유저의 이미지를 SNS에 게시하는 구성이다.In the case of the posting unit 440 , the image of the user to which a predetermined effect transmitted from the transmitting unit 430 is applied is posted on the SNS.

포스팅부(440)에서는 유저의 이미지를 SNS에 게시할 수 있도록 SNS의 에디터가 상호 연동되어, 유저로 하여금 게시할 유저의 이미지에 코멘트를 부가적으로 달 수 있도록 한다.In the posting unit 440, the editor of the SNS is interlocked so that the user's image can be posted on the SNS, so that the user can additionally add a comment to the user's image to be posted.

리워드 유닛(500)의 경우, 도11에 도시된 바와 같이, 쉐어링 유닛을 통하여 SNS에 공유된 유저의 게시물에 대한 소정의 포인트를 제공하는 구성이다.In the case of the reward unit 500, as shown in FIG. 11, it is configured to provide a predetermined point for a user's post shared on SNS through a sharing unit.

리워드 유닛(500)은 유저가 소정의 이펙트가 적용된 유저의 이미지를 SNS에 포스팅하면, 포스팅된 유저의 게시물에 대해서 소정의 포인트를 유저에게 제공하는 것이다.When a user posts an image of a user to which a predetermined effect has been applied, the reward unit 500 provides a predetermined point to the user for the posted user's post.

이때, 반드시 쉐어링 유닛(400)을 통해 SNS에 접속하여 다이렉트로 포스팅된 유저의 게시물에 한정하여 소정의 포인트를 제공하도록 한다. 예컨대, 이펙팅 유닛(300)을 통해 소정의 이펙트를 적용한 유저의 이미지를 유저의 단말기 내에 개별적으로 저장한 후, 다른 루트를 통해 SNS에 접속하여 개별적으로 저장된 유저의 이미지를 게시하는 경우엔 소정의 포인트가 지급되지 않는다.In this case, a predetermined point is provided by limiting the posting of the user directly posted by accessing the SNS through the sharing unit 400 . For example, when an image of a user to which a predetermined effect is applied through the effecting unit 300 is individually stored in the user's terminal, and then the user's image stored individually is posted by accessing SNS through another route, a predetermined point is not paid

또한, 리워드 유닛(500)에서 제공되는 소정의 포인트의 경우, 유저에게 지급되는 포인트는, 업그레이드된 소정의 이펙트를 구매하는데 사용될 수 있으며, 일정 포인트 이상이 되면 캐시로 전환할 수 있도록 제공되는 포인트로 정의할 수 있다.In addition, in the case of a predetermined point provided by the reward unit 500, the point paid to the user can be used to purchase an upgraded predetermined effect, and is provided so that it can be converted into a cash when it exceeds a certain point. can be defined

본 발명에 따른 메이크업 이펙트가 선택적으로 적용된 이미지의 포스팅에 대한 리워드 제공 시스템의 리워드 유닛(500)의 경우, 도13에 도시된 바와 같이, 넘버 카운팅(number counting)부(510), 피드백 카운팅(feedback counting)부(520) 키핑 카운팅(keeping counting)부(530) 및, 카운팅 일드(counting yield)부(540)을 포함하게 된다.In the case of the reward unit 500 of the system for providing a reward for posting of an image to which the makeup effect according to the present invention is selectively applied, as shown in FIG. 13 , a number counting unit 510 and feedback counting (feedback) A counting) unit 520 includes a keeping counting unit 530 and a counting yield unit 540 .

먼저, 넘버 카운팅부(510)의 경우, 도11에 도시된 바와 같이, SNS에 공유된 유저의 게시물의 개수를 카운팅하여 미리 결정된 개수가 되면 소정의 포인트를 제공하는 구성이다.First, in the case of the number counting unit 510, as shown in FIG. 11, it counts the number of posts of users shared on SNS and provides predetermined points when the number reaches a predetermined number.

넘버 카운팅부(510)는, 쉐어링 유닛(400)을 통해 포스팅된 유저의 게시물만을 카운팅하여, 포스팅된 유저의 게시물이 미리 결정된 개수가 되면 유저에게 소정의 포인트를 제공할 수 있게 된다.The number counting unit 510 counts only the posts of the users posted through the sharing unit 400 , and when the number of posts of the posted users reaches a predetermined number, it is possible to provide a predetermined point to the user.

피드백 카운팅부(520)의 경우, 도11에 도시된 바와 같이, SNS에 공유된 유저의 게시물에 대한 소정의 피드백을 카운팅하여, 소정의 피드백에 비례하여 소정의 포인트를 제공하는 구성이다.In the case of the feedback counting unit 520, as shown in FIG. 11, it counts a predetermined feedback for a user's post shared on the SNS, and provides a predetermined point in proportion to the predetermined feedback.

피드백 카운팅부(520)에서 카운팅하는 소정의 피드백이란 SNS에 포스팅된 유저의 게시물에 대한 일반 유저의 피드백으로서, 유저의 게시물에 대한 조회수, 좋아요수, 열람수, 댓글수, 리포스팅 횟수, 링크 연동 수, 공유 횟수, 썸네일 클릭수, 더보기 클릭수, 또는 다운로드수 등이 될 수 있다.The predetermined feedback counted by the feedback counting unit 520 is general user feedback on the user's posts posted on the SNS, and the number of views, likes, views, comments, reposting, link interlocking for the user's posts. It can be the number of times, the number of shares, the number of thumbnail clicks, the number of more clicks, or the number of downloads.

예컨대, 유저의 게시물에 대한 소정의 피드백 중 조회수가 미리 결정된 조회수 이상이 되면, 조회수의 증가에 비례하여 소정의 포인트를 제공할 수 있는 것이 바람직하다.For example, when the number of views among the predetermined feedbacks on the user's post is greater than or equal to the predetermined number of views, it is desirable to be able to provide predetermined points in proportion to the increase in the number of views.

키핑 카운팅부(530)의 경우, 도11에 도시된 바와 같이, SNS에 게시된 유저의 게시물의 게시 기간을 카운팅하여, 미리 결정된 게시 기간을 유지되는 것을 조건으로 하여, 소정의 포인트를 선제공하는 구성이다.In the case of the keeping counting unit 530, as shown in FIG. 11, by counting the posting period of the user's posting posted on the SNS, on condition that the predetermined posting period is maintained, a predetermined point is provided in advance. is the composition

키핑 카운팅부(530)에서는, 유저의 게시물이 포스팅된 기간부터 일정 기간 동안을 미리 결정된 게시 기간으로 설정하고, 해당 기간 동안 유저의 게시물이 유지되는 것을 조건으로 하여, 소정의 포인트를 선제공하는 것이다.The keeping counting unit 530 sets a predetermined period from the period in which the user's posting is posted to the predetermined posting period, and on the condition that the user's posting is maintained during the period, a predetermined point is provided in advance. .

예컨대, 유저가 포스팅한 게시물을 미리 결정된 게시 기간 전에 삭제할 경우엔, 선 제공된 포인트가 차감될 수 있다.For example, if a user posts a post before a predetermined posting period, the pre-provided points may be deducted.

또한, 키핑 카운팅부(530)는, 유저의 게시물이 미리 결정된 게시 기간 이상 유지될 경우, 소정의 피드백에 비례하여 소정의 포인트를 추가적으로 제공할 수도 있다.Also, the keeping counting unit 530 may additionally provide a predetermined point in proportion to a predetermined feedback when the user's posting is maintained for a predetermined posting period or longer.

카운팅 일드부(540)은 리워드 유닛(500)에서 카운팅된 카운팅 밸류를 산출하여, 쉐어링 유닛(400)으로 전송하는 기능을 수행하는 구성이다.The counting yield unit 540 is configured to calculate the counting value counted by the reward unit 500 and transmit it to the sharing unit 400 .

카운팅 일드부(540)에서 산출하는 카운팅 밸류(counting value)는 리워드 유닛(500)으로부터 카운팅되는 유저의 게시물 개수, 소정의 피드백, 유저의 게시물 게시 기간 등을 카운팅하는 값으로 정의할 수 있다.The counting value calculated by the counting yield unit 540 may be defined as a value counting the number of posts counted by the user from the reward unit 500 , a predetermined feedback, a posting period of the user, and the like.

카운트 일드부(540)에서 쉐어링 유닛(400)으로 전송된 카운팅 밸류에 따라서 유저에게 소정의 포인트를 제공할 수 있게 된다.A predetermined point may be provided to the user according to the counting value transmitted from the count yield unit 540 to the sharing unit 400 .

이때, 카운트 일드부(540)에서 카운팅 밸류를 전송하기 위해서, 도12에 도시된 바와 같이, 밸류 정렬부(541), 필터 생성부(542), 밸류 인입부(543), 및 밸류 전송부(544)를 포함하게 된다.At this time, in order to transmit the counting value from the count yield unit 540, as shown in FIG. 12 , a value aligning unit 541, a filter generating unit 542, a value input unit 543, and a value transmitting unit ( 544) will be included.

먼저, 밸류 정렬부(541)의 경우, 카운팅 밸류를 1과 0의 바이너리 시퀀스(binary sequence)로 컨버팅하여, 일렬로 나열하는 구성이다. First, in the case of the value sorting unit 541, the counting values are converted into binary sequences of 1 and 0 and arranged in a line.

밸류 정렬부(541)에서 바이너리 시퀀스로 컨버팅된 카운팅 밸류는 도12에 도시된 바와 같이, #1 과 #2로서 복제하게 된다.As shown in FIG. 12 , the counting values converted into binary sequences by the value sorting unit 541 are duplicated as #1 and #2.

필터 생성부(542)의 경우, #1 과 #2으로 복제된 컨버팅된 카운팅 밸류가 입력되면 소정의 규칙으로 필터링하여 변환하는 구성이다. In the case of the filter generating unit 542, when the converted counting value copied to #1 and #2 is input, it is configured to filter and convert according to a predetermined rule.

또한, 필터 생성부(542)에서의 소정의 규칙에는 and 조건, or 조건 등의 규칙이 존재하며, 소정의 규칙을 통해서 컨버팅된 카운팅 밸류를 필터링하여 변환할 수 있게 된다.In addition, rules such as and conditions and or conditions exist in the predetermined rules in the filter generating unit 542, and the counting value converted through the predetermined rules can be filtered and converted.

밸류 인입부(543)의 경우, 밸류 정렬부(541)에서 정렬된 카운팅 밸류(#1)는 머리(head)부터 binary by binary 로 필터 생성부(542)에 인입시키고, 밸류 정렬부(541)에서 정렬된 카운팅 밸류(#2)는 꼬리(tail)부터 binary by binary 로 필터 생성부(542)에 인입시키는 기능을 수행한다.In the case of the value inlet unit 543, the counting value (#1) sorted by the value sorting unit 541 is introduced into the filter generating unit 542 as binary by binary from the head, and the value sorting unit 541 The counting values (#2) sorted in .

밸류 전송부(544)의 경우, 필터 생성부(542)으로부터 필터링되어 변환된 카운팅 밸류의 정보를 전송하는 구성이다. In the case of the value transmitting unit 544, it is configured to transmit the information of the counting value filtered by the filter generating unit 542 and converted.

이때, 밸류 전송부(544)가 송신단이 되고, 쉐어링 유닛(400)이 수신단이 되며 수신단에서는 변환된 카운팅 밸류의 정보만을 받게 된다. 만약, 수신단이 필터 생성부(542)의 규칙 정보를 모르면 변환된 카운팅 밸류는 원상태로 복원할 수 없게 된다. 따라서, 수신단은 필터 생성부(542)의 규칙에 대한 정보를 미리 가지고 있도록 하며, 해당 규칙은 송신단과 수신단만이 공유하여 외부로부터의 정보 유출이나 해킹을 사전에 방지할 수 있게 된다.At this time, the value transmitter 544 becomes the transmitter, the sharing unit 400 becomes the receiver, and the receiver receives only the converted counting value information. If the receiving end does not know the rule information of the filter generating unit 542, the converted counting value cannot be restored to its original state. Accordingly, the receiving end has information about the rules of the filter generating unit 542 in advance, and the rules are shared only by the transmitting end and the receiving end, so that information leakage or hacking from the outside can be prevented in advance.

본 발명의 권리 범위는 특허청구범위에 기재된 사항에 의해 결정되며, 특허 청구범위에 사용된 괄호는 선택적 한정을 위해 기재된 것이 아니라, 명확한 구성요소를 위해 사용되었으며, 괄호 내의 기재도 필수적 구성요소로 해석되어야 한다.The scope of the present invention is determined by the matters described in the claims, and parentheses used in the claims are not described for selective limitation, but are used for clear components, and descriptions in parentheses are also interpreted as essential components. should be

10: 모바일 유닛 20: 가상의 코스메틱 오브젝트
100: 레코그니션 유닛 110: 스캔부
120: 퍼시빙부 130: 디텍팅부
200: 익스트랙팅 유닛 210: 쉐이핑부
220: 트레킹부 230: 얼라이닝부
240: 어드레스부 300: 이펙팅 유닛
310: 유저 액션부 320: 어플라잉부
321: 메이크업부 322: 피규레이션부
323: 리모델링부 324: 스팟 커버링부
400: 쉐어링 유닛 410: 셀렉팅부
420: 커넥팅부 430: 트랜스미팅부
440: 포스팅부 500: 리워드 유닛
510: 넘버 카운팅부 520: 피드백 카운팅부
530: 키핑 카운팅부 540: 카운팅 일드부
541: 밸류 정렬부 542: 필터 생성부
543: 밸류 인입부 544: 밸류 전송부
10: mobile unit 20: virtual cosmetic object
100: registration unit 110: scan unit
120: Perceiving unit 130: detecting unit
200: extracting unit 210: shaping unit
220: trekking unit 230: aligning unit
240: address unit 300: effecting unit
310: user action unit 320: applying unit
321: makeup unit 322: figure unit
323: remodeling unit 324: spot covering unit
400: sharing unit 410: selecting unit
420: connecting unit 430: transmitting unit
440: posting unit 500: reward unit
510: number counting unit 520: feedback counting unit
530: keeping counting unit 540: counting yield unit
541: value aligning unit 542: filter generating unit
543: value inlet 544: value transmitter

Claims (10)

모바일 유닛으로부터 취득된 유저의 영상으로부터 상기 유저의 페이스 영역을 선택적으로 검출하는 레코그니션 유닛(recognition unit);
상기 레코그니션 유닛으로부터 검출된 상기 유저의 페이스 영역으로부터 상기 유저의 페이셜 파트(facial part)를 개별적으로 추출하는 익스트랙팅 유닛(extracting unit);
상기 익스트랙팅 유닛으로부터 추출된 상기 유저의 상기 페이셜 파트 각각에 소정의 이펙트를 선택적으로 적용하는 이펙팅 유닛(effecting unit); 및
상기 이펙팅 유닛으로부터 상기 소정의 이펙트가 적용된 유저의 이미지를 SNS에 공유하는 쉐어링 유닛(sharing unit); 및
상기 쉐어링 유닛을 통하여 상기 SNS에 공유된 유저의 게시물에 대한 소정의 포인트를 제공하는 리워드 유닛(reward unit)을 포함하되,
상기 레코그니션 유닛은,
상기 모바일 유닛으로부터 상기 유저의 영상을 가져와서 스캔하는 스캔(scan)부;
상기 유저의 영상으로부터 소정의 무브먼트가 포착되는 영역을 상기 유저의 페이스 영역으로 인식하는 퍼시빙(perceiving)부; 및
상기 퍼시빙부로부터 인식된 상기 유저의 페이스 영역과 백그라운드 영역을 분리하여, 상기 유저의 페이스 영역을 선택적으로 검출하는 디텍팅(detecting)부를 포함하며,
상기 익스트랙팅 유닛은,
상기 디텍팅부로부터 선택적으로 검출된 상기 유저의 페이스 영역으로부터 3차원의 페이스 쉐입을 형성하는 쉐이핑(shaping)부;
상기 쉐이핑부로부터 형성된 상기 3차원의 페이스 쉐입으로부터 상기 유저의 페이셜 파트를 선택적으로 추출하는 트레킹(tracking)부; 및
상기 유저의 상기 소정의 무브먼트에 따른 상기 페이셜 파트의 앵글 변화를 감지하여, 상기 3차원의 페이스 쉐입에 반영하여 얼라이닝(aligning)부를 포함하며,
상기 이펙팅 유닛은,
상기 유저로부터 미리 결정된 액션이 입력되면, 상기 미리 결정된 액션에 의해 상기 페이셜 파트가 선택되도록 하는 유저 액션(user action)부; 및
상기 미리 결정된 액션에 의해 선택된 상기 페이셜 파트에 상기 소정의 이펙트를 선택적으로 적용하는 어플라잉(applying)부를 포함하며,
상기 어플라잉부는,
상기 유저의 상기 페이셜 파트로부터 스팟 포인트를 검출하며, 상기 스팟 포인트에 상기 소정의 이펙트를 독립적이고 상이하게 적용하여 상기 스팟 포인트를 선택적으로 커버링하는 스팟 커버링부를 포함하며,
상기 스팟 포인트는,
상기 익스트랙팅 유닛으로부터 추출된 상기 페이셜 파트 중 그레이 레벨의 변화가 있는 부분으로, 상기 유저의 페이스에 존재하는 점, 기미, 주근깨, 여드름, 잡티, 검버섯, 모공 또는 흉터 중 적어도 하나 이상을 포함하며,
상기 쉐어링 유닛은,
상기 소정의 이펙트가 적용된 상기 유저의 이미지를 공유하기 위한 상기 SNS를 하나 이상을 선택하는 셀렉팅부;
상기 셀렉팅부로부터 선택된 상기 SNS의 유저의 계정에 상호 연결하는 커넥팅부;
상기 커넥팅부로부터 상호 연결된 상기 SNS의 상기 유저의 계정에 상기 소정의 이펙트가 적용된 상기 유저의 이미지를 전송하는 트랜스미팅부; 및
상기 트랜스미팅부로부터 전송된 상기 소정의 이펙트가 적용된 상기 유저의 이미지를 상기 SNS에 게시하는 포스팅부를 포함하며,
상기 리워드 유닛은,
상기 SNS에 공유된 상기 유저의 게시물의 개수를 카운팅하여 미리 결정된 개수가 되면, 상기 소정의 포인트를 제공하는 넘버 카운팅부;
상기 SNS에 공유된 상기 유저의 게시물에 대한 소정의 피드백을 카운팅하여, 상기 소정의 피드백에 비례하여 상기 소정의 포인트를 제공하는 피드백 카운팅부;
상기 SNS에 게시된 상기 유저의 게시물의 게시 기간을 카운팅하여 미리 결정된 게시 기간을 유지되는 것을 조건으로 하여, 상기 소정의 포인트를 선제공하는 키핑 카운팅부; 및
상기 유저의 게시물 개수, 상기 소정의 피드백, 또는 상기 유저의 게시물의 게시 기간을 카운팅하여 카운팅 밸류를 산출하여, 상기 쉐어링 유닛으로 전송하는 카운팅 일드부를 포함하며,
상기 카운팅 일드부는,
상기 카운팅 밸류를 바이너리 시퀀스로 컨버팅하여, 일렬로 나열하는 밸류 정렬부;
상기 밸류 정렬부로부터 나열된 상기 카운팅 밸류가 입력되면 소정의 규칙으로 필터링하여 상기 카운팅 밸류를 변환시키는 필터 생성부;
상기 카운팅 밸류를 머리(head)부터 또는 꼬리(tail)부터 상기 필터 생성부로 선택적으로 인입시키는 밸류 인입부; 및
상기 필터 생성부로부터 필터링되어 변환된 상기 카운팅 밸류의 정보를 상기 쉐어링 유닛으로 전송하는 밸류 전송부를 포함하는 것을 특징으로 하는, 메이크업 이펙트가 선택적으로 적용된 이미지의 포스팅에 대한 리워드 제공 시스템.
a recognition unit for selectively detecting a face region of the user from an image of the user acquired from the mobile unit;
an extracting unit for individually extracting a facial part of the user from the face region of the user detected from the recording unit;
an effecting unit selectively applying a predetermined effect to each of the facial parts of the user extracted from the extracting unit; and
a sharing unit for sharing an image of a user to which the predetermined effect is applied from the effecting unit to SNS; and
including a reward unit that provides a predetermined point for a user's post shared on the SNS through the sharing unit;
The registration unit is
a scan unit that scans the user's image from the mobile unit;
a perceiving unit for recognizing an area in which a movement is captured from the user's image as the face area of the user; and
and a detecting unit that separates the user's face area and the background area recognized from the perceiving unit, and selectively detects the user's face area;
The extracting unit is
a shaping unit for forming a three-dimensional face shape from the face region of the user selectively detected by the detecting unit;
a tracking unit for selectively extracting the user's facial part from the three-dimensional face shape formed from the shaping unit; and
and an aligning unit to detect an angle change of the facial part according to the predetermined movement of the user and reflect it in the three-dimensional face shape,
The effecting unit,
When a predetermined action is input from the user, a user action unit configured to select the facial part according to the predetermined action; and
Comprising an applying unit for selectively applying the predetermined effect to the facial part selected by the predetermined action,
The applying unit,
and a spot covering unit that detects a spot point from the facial part of the user and selectively covers the spot point by independently and differently applying the predetermined effect to the spot point,
The spot point is
It is a part with a change in gray level among the facial parts extracted from the extracting unit, and includes at least one or more of points, freckles, freckles, acne, blemishes, age spots, pores, and scars present on the user's face. ,
The sharing unit is
a selecting unit for selecting one or more of the SNS for sharing the image of the user to which the predetermined effect is applied;
a connecting unit for interconnecting the user's account of the SNS selected by the selecting unit;
a transmitting unit for transmitting an image of the user to which the predetermined effect is applied to the user's account of the SNS interconnected from the connecting unit; and
and a posting unit that posts the image of the user to which the predetermined effect transmitted from the transmitting unit is applied to the SNS,
The reward unit is
a number counting unit that counts the number of posts of the user shared on the SNS and provides the predetermined points when the number reaches a predetermined number;
a feedback counting unit that counts a predetermined feedback on the posting of the user shared on the SNS, and provides the predetermined point in proportion to the predetermined feedback;
a keeping counting unit for counting the posting period of the user's posting posted on the SNS and providing the predetermined point in advance on condition that the predetermined posting period is maintained; and
and a counting yield unit for calculating a counting value by counting the number of posts of the user, the predetermined feedback, or a posting period of the user's posts, and transmitting it to the sharing unit,
The counting yield part,
a value sorting unit for converting the counting values into a binary sequence and arranging them in a line;
a filter generating unit for converting the counting value by filtering according to a predetermined rule when the counting value listed from the value sorting unit is input;
a value inlet for selectively introducing the counting value from a head or a tail to the filter generating unit; and
a value transmitter configured to transmit the information of the counting value filtered and converted from the filter generator to the sharing unit A system for providing a reward for posting of an image to which a makeup effect is selectively applied, characterized in that it includes.
삭제delete 삭제delete 삭제delete 제1항에 있어서, 상기 어플라잉부는,
상기 미리 결정된 액션에 의해 선택된 상기 페이셜 파트 중 피부, 눈, 눈썹, 코, 입, 턱, 이마, 인중 또는 얼굴형 중 적어도 하나 이상의 외형에 메이크업 이펙트를 적용하는 메이크업(makeup)부를 포함하는 것을 특징으로 하는, 메이크업 이펙트가 선택적으로 적용된 이미지의 포스팅에 대한 리워드 제공 시스템.
According to claim 1, wherein the applying unit,
Among the facial parts selected by the predetermined action, it comprises a makeup unit that applies a makeup effect to at least one of skin, eyes, eyebrows, nose, mouth, chin, forehead, pharynx, and face shape. A system that provides rewards for posting images with makeup effects selectively applied to them.
제5항에 있어서, 상기 어플라잉부는,
상기 미리 결정된 액션에 의해 선택된 상기 페이셜 파트 중 피부, 눈, 눈썹, 코, 입, 턱, 이마, 인중 또는 얼굴형 중 적어도 하나 이상의 외형이 튜닝되도록 피규레이션 이펙트를 적용하는 피규레이션(figuration)부를 더 포함하는 것을 특징으로 하는, 메이크업 이펙트가 선택적으로 적용된 이미지의 포스팅에 대한 리워드 제공 시스템.
According to claim 5, The applying unit,
Among the facial parts selected by the predetermined action, a figuration unit for applying a figure effect so that the appearance of at least one of skin, eyes, eyebrows, nose, mouth, chin, forehead, pharynx, and face shape is tuned further A system for providing a reward for posting of an image to which a makeup effect is selectively applied, characterized in that it includes.
삭제delete 삭제delete 삭제delete 삭제delete
KR1020210038347A 2020-08-10 2021-03-24 Rewarding system for posting image with selectively applied makeup effects KR102372523B1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020200099638 2020-08-10
KR20200099638 2020-08-10

Publications (2)

Publication Number Publication Date
KR20220019614A KR20220019614A (en) 2022-02-17
KR102372523B1 true KR102372523B1 (en) 2022-03-10

Family

ID=80493411

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210038347A KR102372523B1 (en) 2020-08-10 2021-03-24 Rewarding system for posting image with selectively applied makeup effects

Country Status (1)

Country Link
KR (1) KR102372523B1 (en)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101507410B1 (en) * 2014-10-21 2015-03-31 주식회사 모리아타운 Live make-up photograpy method and apparatus of mobile terminal

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101665692B1 (en) 2009-11-11 2016-10-12 삼성전자주식회사 Method and system for providing social network service coupled phone book in portable terminal
KR20120066773A (en) * 2010-12-15 2012-06-25 고스트리트(주) A method of virtual make-up using mobile device
KR101733512B1 (en) * 2010-12-22 2017-05-10 에스케이플래닛 주식회사 Virtual experience system based on facial feature and method therefore
KR101839102B1 (en) 2017-08-22 2018-03-15 한영재 Method for photo registration in SNS
KR102158233B1 (en) 2018-01-11 2020-09-21 김지환 Method for Providing Augmented Make-up Service
KR20180026412A (en) * 2018-01-29 2018-03-12 주식회사 시어스랩 Method and apparatus for sharing sticker applied image
KR20200098875A (en) 2019-02-13 2020-08-21 주식회사 휴먼아이씨티 System and method for providing 3D face recognition

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101507410B1 (en) * 2014-10-21 2015-03-31 주식회사 모리아타운 Live make-up photograpy method and apparatus of mobile terminal

Also Published As

Publication number Publication date
KR20220019614A (en) 2022-02-17

Similar Documents

Publication Publication Date Title
JP6956389B2 (en) Makeup support device and makeup support method
JP7020626B2 (en) Makeup evaluation system and its operation method
US20190130652A1 (en) Control method, controller, smart mirror, and computer readable storage medium
CN105431852A (en) Electronic apparatus for providing health status information, method of controlling the same, and computer-readable storage medium
CN106648079A (en) Human face identification and gesture interaction-based television entertainment system
KR101866407B1 (en) Avatar creation system and creation method using the same
CN111968248A (en) Intelligent makeup method and device based on virtual image, electronic equipment and storage medium
CN112819718A (en) Image processing method and device, electronic device and storage medium
KR20220026252A (en) Mobile terminal, server and method for composing beauty style
KR102372523B1 (en) Rewarding system for posting image with selectively applied makeup effects
KR102372524B1 (en) System for buying service of cosmetic object and applying selective makeup effect
TWI462030B (en) An intelligent system and algorithms of facial analysis and hairstyle fitting
CN112083863A (en) Image processing method and device, electronic equipment and readable storage medium
KR20220019611A (en) system for posting of image through applying classifying term and selective makeup effect
KR102066892B1 (en) Make-up evaluation system and operating method thereof
KR102435893B1 (en) system for applying selective makeup effect through facial recognition of user
KR20220022432A (en) System for posting of image through inserting mark and applying selective makeup effect
KR102372522B1 (en) System for applying selective makeup effect through sourcing of cosmetic object
KR20220019612A (en) system for applying selective makeup effect during communication through facial recognition of user
KR100791034B1 (en) Method of Hair-Style Shaping based-on Face Recognition and apparatus thereof
KR102372521B1 (en) system for applying wearing effect during communication through facial recognition of user
KR20220022431A (en) System for applying selective makeup effect through recommending of cosmetic object
CN112749357A (en) Interaction method and device based on shared content and computer equipment
KR20220080685A (en) System for suggesting of user's customized object through analyzing of user's preference data
KR20220054177A (en) researching system for preference during communication through facial recognition of user

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right