KR20190085802A - Method for Providing Augmented Make-up Service - Google Patents
Method for Providing Augmented Make-up Service Download PDFInfo
- Publication number
- KR20190085802A KR20190085802A KR1020180004103A KR20180004103A KR20190085802A KR 20190085802 A KR20190085802 A KR 20190085802A KR 1020180004103 A KR1020180004103 A KR 1020180004103A KR 20180004103 A KR20180004103 A KR 20180004103A KR 20190085802 A KR20190085802 A KR 20190085802A
- Authority
- KR
- South Korea
- Prior art keywords
- user
- information
- makeup
- wireless terminal
- face
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims abstract description 100
- 230000003190 augmentative effect Effects 0.000 title abstract description 9
- 238000003860 storage Methods 0.000 claims abstract description 28
- 230000001815 facial effect Effects 0.000 claims description 332
- 239000002537 cosmetic Substances 0.000 claims description 63
- 238000009825 accumulation Methods 0.000 claims description 53
- 238000013461 design Methods 0.000 claims description 51
- 238000004364 calculation method Methods 0.000 claims description 36
- 230000008569 process Effects 0.000 claims description 32
- 210000000720 eyelash Anatomy 0.000 claims description 7
- 230000001186 cumulative effect Effects 0.000 claims description 6
- 210000004709 eyebrow Anatomy 0.000 claims description 6
- 210000001061 forehead Anatomy 0.000 claims description 6
- 210000000216 zygoma Anatomy 0.000 claims description 3
- 238000004891 communication Methods 0.000 description 62
- 238000012545 processing Methods 0.000 description 42
- 230000006870 function Effects 0.000 description 29
- 230000003287 optical effect Effects 0.000 description 9
- 230000008859 change Effects 0.000 description 8
- 238000004422 calculation algorithm Methods 0.000 description 7
- 238000010586 diagram Methods 0.000 description 7
- 239000000284 extract Substances 0.000 description 7
- 238000003909 pattern recognition Methods 0.000 description 7
- 230000009977 dual effect Effects 0.000 description 6
- 230000002708 enhancing effect Effects 0.000 description 6
- 239000000872 buffer Substances 0.000 description 4
- 238000010295 mobile communication Methods 0.000 description 4
- 230000003796 beauty Effects 0.000 description 3
- 230000001795 light effect Effects 0.000 description 3
- 238000004519 manufacturing process Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000000007 visual effect Effects 0.000 description 3
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 2
- 238000010276 construction Methods 0.000 description 2
- 238000009877 rendering Methods 0.000 description 2
- 230000005236 sound signal Effects 0.000 description 2
- 230000006641 stabilisation Effects 0.000 description 2
- 238000011105 stabilization Methods 0.000 description 2
- 238000002910 structure generation Methods 0.000 description 2
- 230000001360 synchronised effect Effects 0.000 description 2
- 230000008901 benefit Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 210000000988 bone and bone Anatomy 0.000 description 1
- 230000003139 buffering effect Effects 0.000 description 1
- 238000005520 cutting process Methods 0.000 description 1
- 230000004438 eyesight Effects 0.000 description 1
- 210000004209 hair Anatomy 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
- G06Q50/10—Services
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
- G06T17/20—Finite element generation, e.g. wire-frame surface description, tesselation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
- G06T2207/30201—Face
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Business, Economics & Management (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Tourism & Hospitality (AREA)
- Computer Graphics (AREA)
- Software Systems (AREA)
- Economics (AREA)
- Computer Hardware Design (AREA)
- Geometry (AREA)
- Health & Medical Sciences (AREA)
- General Engineering & Computer Science (AREA)
- General Health & Medical Sciences (AREA)
- Human Resources & Organizations (AREA)
- Marketing (AREA)
- Primary Health Care (AREA)
- Strategic Management (AREA)
- General Business, Economics & Management (AREA)
- Image Processing (AREA)
Abstract
Description
본 발명은 사용자 무선단말의 카메라부를 통해 입력되는 영상데이터에 포함된 하나 이상의 화상데이터를 판독하여 사용자 안면과 일대일 매칭되는 사용자 전용 화장의 3D 모델링 데이터를 포함하는 사용자 전용 모델링 데이터를 생성하고, 사용자 전용 모델링 데이터에 지정된 화장 디자인을 적용하여 생성된 사용자 전용 화장 데이터를 상기 카메라부를 통해 입력되는 영상데이터에 존재하는 사용자의 안면 영역에 중첩 표시하여 사용자의 안면을 증강한 후 사용자가 자신의 실제 안면에 꼭 맞는 자신만의 사용자 전용 화장을 주문(또는 예약)할 수 있도록 하는 것이다.The present invention generates user-specific modeling data including 3D modeling data of a user-specific makeup that is one-to-one matched with the user's face by reading one or more image data included in image data input through the camera unit of the user wireless terminal, The user-specific cosmetic data generated by applying the cosmetic design specified in the modeling data is superimposed on the face area of the user existing in the image data input through the camera unit to reinforce the user's face, So that you can order (or make reservations) your own makeup exclusively for you.
화장은 화장품을 바르거나 문질러 얼굴을 곱게 꾸미는 것으로, 특히 성인 여성들에게 화장은 매우 중요한 일로 여겨져 왔다.Cosmetics are applied by applying or rubbing cosmetics, and cosmetics have been regarded as very important, especially for adult women.
그만큼 화장만으로 사람이 전혀 다르게 보일 수 있으며, 개성이나 독특한 분위기도 연출할 수 있어, 다양한 화장 기법이 쏟아져 나오고 있다.It is possible to make a person look completely different with just that make-up, and personality and a unique atmosphere can be produced, and various make-up techniques are pouring out.
한편, 화장을 하기 위해서는 화장에 대한 지식이 필요하며, 아무래도 일반인들이 화장을 좀 더 효과적으로 하기는 쉽지 않았다. 또한 화장을 받기 위해 미용실이나 헤어숍(또는 메이크업 숍) 등에 방문하지 않는 이상 더욱 쉽지 않았다.On the other hand, knowledge of make-up is necessary to make-up, and it was not easy for ordinary people to make make-up more effective. Also, it was not easy to visit the beauty salon or hair shop (or make-up shop) for makeup.
이렇게 직접 미용실에 방문하여 메이크업 디자이너와 상담해보고 다른 모델의 화장을 검색해보고 결정하는 방식이 대다수로 시간이 많이 소모되는 문제점을 지니고 있다.This method of consulting the makeup designer directly by visiting the beauty salon and searching for and determining the makeup of the other model is the most time consuming method.
상기와 같은 문제점을 해소하기 위한 본 발명의 안면적은, 사용자 무선단말의 카메라부를 통해 입력되는 영상데이터에 포함된 하나 이상의 화상데이터를 판독하여 사용자 안면 영역을 인식하여 상기 안면 영역에 형성된 사용자 안면의 기하학 구조를 해석한 사용자 안면 기하학 구조 정보를 생성함과 동시에 상기 안면 영역에 형성된 사용자 안면의 기하학 구조에 대한 현실세계와 일대일 축적의 사용자 안면 수치 정보를 결정하고, 상기 사용자 안면 기하학 구조 정보와 일대일 축적의 사용자 안면 수치 정보를 이용하여 상기 사용자의 실제 안면과 일대일 매칭되는 사용자 전용 화장제품의 3D 모델링 데이터를 포함하는 사용자 전용 모델링 데이터를 생성하고, 사용자 전용 모델링 데이터에 지정된 화장 디자인을 적용하여 생성된 사용자 전용 화장 데이터를 상기 카메라부를 통해 입력되는 영상데이터에 존재하는 사용자의 안면 영역에 중첩 표시하여 사용자의 안면을 증강한 후 사용자가 자신의 실제 안면에 꼭 맞는 자신만의 사용자 전용 화장 디자인을 주문(또는 예약)할 수 있도록 처리하는 증강된 화장 서비스 제공 방법을 제공함에 있다.In order to solve the above-described problems, the facial feature of the present invention is to recognize at least one image data included in image data input through the camera unit of the user's wireless terminal, recognize the user facial area, The user facial geometry structure information analyzing the facial geometry structure and the user facial numerical information of the one-to-one accumulation in the real world with respect to the geometric structure of the user facial surface formed in the facial region, Exclusive modeling data including 3D modeling data of a user-specific cosmetic product matching one-to-one with the actual facial face of the user by using the user facial numerical value information, Cremation (Or reservation) of a user-specific cosmetic design that fits the actual face of the user after the face of the user is superimposed on the face area of the user existing in the image data input through the camera unit, So as to enable the user to make a customized make-up service.
본 발명에 따른 증강된 화장 서비스 제공 방법은, 사용자 무선단말의 앱과 통신하는 운영서버를 통해 실행되는 방법에 있어서, 사용자 무선단말의 앱이 사용자 무선단말의 카메라부를 통해 입력되는 영상데이터에 포함된 하나 이상의 화상데이터를 판독하여 사용자 안면에 대응하는 안면 영역을 인식하는 제1 단계와, 사용자 무선단말의 앱이 상기 인식된 안면 영역에 형성된 사용자 안면의 기하학 구조를 해석한 사용자 안면 기하학 구조 정보를 생성하고 상기 안면 영역에 형성된 사용자 안면의 기하학 구조에 대한 현실세계와 일대일 축적의 사용자 안면 수치 정보를 결정하는 제2 단계와, 사용자 무선단말의 앱이 상기 사용자 안면 기하학 구조 정보와 사용자 안면 수치 정보를 지정된 운영서버로 전송하면, 상기 운영서버에서 상기 사용자 안면 기하학 구조 정보와 사용자 안면 수치 정보를 수신하는 제3 단계와, 상기 운영서버에서 상기 사용자 안면 기하학 구조 정보와 일대일 축적의 사용자 안면 수치 정보를 이용하여 사용자의 실제 안면과 일대일 매칭되는 사용자 전용 화장의 3D 모델링 데이터를 생성하는 제4 단계와, 상기 운영서버에서 상기 사용자의 실제 안면에 일대일 매칭시켜 생성된 사용자 전용 모델링 데이터에 지정된 화장을 적용하여 생성된 사용자 전용 화장 데이터를 확인하는 제5 단계와, 상기 운영서버에서 상기 사용자 무선단말의 앱으로 상기 사용자 전용 화장 데이터를 제공하면, 사용자 무선단말의 앱이 상기 사용자 전용 화장 데이터를 수신하여 지정된 저장영역에 저장하는 제6 단계와, 사용자 무선단말의 앱이 사용자 안면에 대한 사용자 안면 기하학 구조 정보를 근거로 상기 카메라부를 통해 입력되는 영상데이터에 포함된 화상데이터를 판독하여 상기 영상데이터에 존재하는 사용자의 안면 영역을 실시간 인식하는 제7 단계와, 사용자 무선단말의 앱이 상기 영상데이터에 존재하는 사용자의 안면 영역을 실시간 인식한 경우 상기 영상데이터 상에서 인식된 사용자의 안면 영역에 상기 사용자 전용 화장 데이터를 중첩 표시하여 사용자의 안면을 증강하는 제8 단계를 포함한다.A method of providing enhanced cosmetic service according to the present invention is a method executed by an operation server communicating with an app of a user wireless terminal, A first step of reading at least one image data and recognizing a facial area corresponding to the user's face; and a step of generating user facial geometry information in which the app of the user's wireless terminal interprets the geometric structure of the user's face formed in the recognized facial area A second step of determining user face value information of a one-to-one accumulation with a real world with respect to a geometric structure of a user face formed in the face area, and a second step of determining the user face face numerical information And transmitting, to the operation server, the user facial geometry Dimensional modeling of a user-specific makeup that is one-to-one matched with the actual face of the user using the facial geometry information of the user and facial numerical information of one-to-one accumulation in the operation server, A fifth step of confirming user-made make-up data generated by applying make-up to user-specific modeling data generated by matching one-to-one with the actual face of the user at the operating server, The method comprising the steps of: if the server provides the user make-up data to the user wireless terminal, the user's wireless make-up data is received by the user wireless terminal and stored in a designated storage area; Based on the user's facial geometry information for the face, A step 7 of reading the image data included in the image data input through the camera unit and recognizing the face area of the user existing in the image data in real time; And a step of enhancing the face of the user by superimposing and displaying the user-specific makeup data on the face area of the user recognized on the image data.
본 발명에 따르면, 상기 제1 단계는 사용자 무선단말의 앱이 상기 카메라부의 자동초점 촬영 상태에서 입력된 화상데이터를 판독하여 화장을 적용할 사용자 안면 영역을 인식하는 단계를 포함하고, 상기 제2 단계는 사용자 무선단말의 앱이 상기 사용자 안면 기하학 구조 상에서 거리 산출을 위해 특정 가능한 둘 이상의 특징 점을 결정하고, 상기 카메라부의 자동초점 과정에서 자동 결정된 초점거리와 상기 화상데이터 상의 둘 이상 특정 점 간 픽셀 거리와 상기 무선단말에 구비된 카메라 스펙 정보 중 하나 이상의 정보를 지정된 산출식의 입력값으로 대입하여 상기 결정된 둘 이상의 특정 점 간 거리를 현실세계와 일대일 축적의 수치 정보로 산출하는 단계를 포함할 수 있다.According to the present invention, the first step includes the step of allowing the app of the user's wireless terminal to read the image data input in the auto-focus photographing state of the camera unit to recognize the user's face area to apply the makeup, Determines at least two feature points that an app of a user wireless terminal can specify for distance calculation on the user's facial geometry, and determines a pixel distance between two or more specific points on the image data, determined automatically in the auto- And the camera specification information included in the wireless terminal as input values of the specified calculation formula and calculating the distance between the determined two or more specific points as the numerical information of the one-to-one accumulation with the real world .
본 발명에 따르면, 상기 제1 단계는 사용자 무선단말의 앱이 상기 카메라 렌즈와 상기 사용자 안면의 각 부분 사이의 거리가 지정된 식별거리를 유지하여 촬영하도록 유도하고, 상기 제2 단계는 사용자 무선단말의 앱이 상기 촬영 유도된 식별거리를 상기 산출식의 입력값에 포함시켜 상기 결정된 둘 이상의 특징 점 간 거리를 현실세계와 일대일 축적의 수치 정보로 산출하는 단계를 포함할 수 있다.According to the present invention, in the first step, the application of the user wireless terminal induces the distance between each portion of the camera lens and the user's face to be kept at a specified distance to be captured, And a step of allowing the app to include the image-capturing-derived identification distance in the input value of the calculation formula and calculating the distance between the two or more characteristic points determined as the numerical information of the one-to-one accumulation with the real world.
본 발명에 따르면, 상기 제2 단계는 사용자 무선단말의 앱이 상기 사용자 안면 기하학 구조 상에서 거리 산출을 위해 특정 가능한 둘 이상의 특징 점을 결정하고, 현실세계의 길이를 재는 도구를 이용하여 상기 결정된 둘 이상의 특징 점 간의 거리를 잰 수치 정보를 입력하도록 처리하는 단계를 포함할 수 있다.According to the present invention, the second step comprises determining at least two characteristic points that the user's wireless terminal's app can specify for distance calculation on the user's facial geometry, and using the tool to determine the length of the real world, And inputting numerical information indicating the distance between the characteristic points.
본 발명에 따르면, 상기 제1 단계는 사용자 무선단말의 앱이 상기 사용자 안면 근처에 현실세계의 길이를 재는 도구를 구비한 후 상기 사용자 안면과 길이를 재는 도구를 함께 촬영하도록 유도하고, 상기 제2 단계는 사용자 무선단말의 앱이 상기 사용자 안면 기하학 구조 상에서 거리 산출을 위해 특정 가능한 둘 이상의 특징 점을 결정하고, 화상데이터 상의 길이를 재는 도구의 눈금 간 현실세계의 수치 거리와 화상데이터 상의 픽셀 거리의 관계를 인식하고, 상기 인식된 도구의 눈금 간 수치 거리와 픽셀 거리의 관계를 통해 상기 결정된 둘 이상의 특징 점 간의 픽셀 거리를 판독하여 상기 둘 이상의 특징 점 간 거리를 현실세계와 일대일 축적의 수치 정보로 산출하는 단계를 포함할 수 있다.According to the present invention, the first step is to allow the app of the user's wireless terminal to have a tool for determining the length of the real world near the user's face, then to shoot a tool for measuring the length with the user's face, The step of determining the two or more feature points that the user's wireless terminal's app can specify for distance calculation on the user's face geometry and determining the distance between the numerical distance of the real world and the pixel distance on the image data, Recognizing the relationship between the two or more characteristic points and reading the pixel distances between the determined two or more characteristic points through the relationship between the numerical distance and the pixel distance between the scales of the recognized tool, And a step of calculating the number of steps.
본 발명에 따르면, 상기 무선단말은 카메라 시선 방향에 존재하는 피사체와 카메라 렌즈 사이의 거리를 인식하는 거리인식 센서부를 구비하고, 상기 제2 단계는 사용자 무선단말의 앱이 상기 사용자 안면 기하학 구조 상에서 거리 산출을 위해 특정 가능한 둘 이상의 특징 점을 결정하고, 상기 거리인식 센서부를 통해 센싱된 상기 카메라 렌즈와 상기 사용자 안면의 각 부분 사이의 식별거리를 확인하고, 상기 확인된 식별거리를 지정된 산출식의 입력값으로 대입하여 상기 결정된 둘 이상의 특징 점 간 거리를 현실세계와 일대일 축적의 수치 정보로 산출하는 단계를 포함할 수 있다.According to the present invention, the wireless terminal includes a distance recognition sensor unit for recognizing a distance between a subject and a camera lens existing in a direction of the camera's sight line, Determining at least two characteristic points that can be specified for calculation, identifying an identification distance between each part of the camera lens and the user's face sensed by the distance recognition sensor unit, and inputting the identified identification distance as input And calculating the distance between the two or more characteristic points determined as the numerical information of the one-to-one accumulation with the real world.
본 발명에 따르면, 상기 제1 단계는 사용자 무선단말의 앱이 상기 카메라부의 자동초점 촬영 상태에서 입력된 화상데이터를 판독하여 화장할 사용자 안면 영역을 인식하는 단계를 포함하고, 상기 제2 단계는 사용자 무선단말의 앱이 상기 카메라부의 자동초점 과정에서 자동 결정된 초점거리와 상기 화상데이터 상의 둘 이상 특정 점 간 픽셀 거리와 상기 무선단말에 구비된 카메라 스펙 정보 중 하나 이상의 정보를 상기 산출식의 입력값에 포함시켜 상기 결정된 둘 이상의 특정 점 간 거리를 현실세계와 일대일 축적의 수치 정보로 산출하는 단계를 포함할 수 있다.According to the present invention, the first step includes the step of recognizing the user's face area to be cremated by reading the image data inputted in the auto-focus photographing state of the camera unit by the user's wireless terminal's app, The application of the wireless terminal adds at least one of the pixel distance between the focal distance automatically determined in the auto focusing process of the camera unit and two or more specific points on the image data and the camera specification information provided in the wireless terminal to the input value of the calculation formula And calculating the distance between the two or more specific points determined as the numerical information of the one-to-one accumulation with the real world.
본 발명에 따르면, 상기 제2 단계는 사용자 무선단말의 앱이 상기 사용자 안면 기하학 구조 정보를 지정된 저장영역에 저장하는 단계를 더 포함하고, 상기 제7 단계는 사용자 무선단말의 앱이 상기 저장된 사용자 안면 기하학 구조 정보를 이용하여 상기 카메라부를 통해 입력되는 영상데이터에 존재하는 사용자의 안면 영역을 실시간 인식하는 단계를 포함할 수 있다.According to the present invention, the second step may further include storing the user's facial geometry information in a designated storage area by an app of the user's wireless terminal, and the step 7) And recognizing the facial region of the user existing in the image data input through the camera unit using the geometric structure information in real time.
본 발명에 따르면, 상기 제6 단계는 상기 운영서버에서 상기 사용자 무선단말의 앱으로 상기 사용자 전용 화장 데이터에 대응하는 사용자 안면 기하학 구조 정보를 제공하면, 사용자 무선단말의 앱이 상기 사용자 안면 기하학 구조 정보를 수신하여 지정된 저장영역에 저장하는 단계를 더 포함하고, 상기 제7 단계는 사용자 무선단말의 앱이 상기 운영서버로부터 수신하여 저장한 사용자 안면 기하학 구조 정보를 이용하여 상기 카메라부를 통해 입력되는 영상데이터에 존재하는 사용자의 안면 영역을 실시간 인식하는 단계를 포하할 수 있다.According to the present invention, in the sixth step, when the operating server provides the user's facial geometry structure information corresponding to the user-specific cosmetic data to the user's wireless terminal, the user's facial geometry structure information And storing the received image data in a designated storage area, wherein the seventh step is a step of storing the image data input through the camera unit using the user's facial geometry structure information received from the application server of the user wireless terminal, A step of real-time recognizing the face area of the user existing in the user's face.
본 발명에 따르면, 상기 사용자 안면 기하학 구조 정보는 이마 크기 정보, 관자놀이 크기 정보, 눈썹 크기 정보, 속눈썹 크기 정보, 코 크기 정보, 볼(또는 뺨) 크기 정보, 광대뼈 크기 정보, 입 크기 정보, 입술 크기 정보, 턱 크기 정보, 이마 곡률 정보, 관자놀이 곡률 정보, 눈썹 곡률 정보, 속눈썹 곡률 정보, 코 곡률 정보, 볼(또는 뺨) 곡률 정보, 광대뼈 곡률 정보, 입 곡률 정보, 입술 곡률 정보, 턱 곡률 정보 중 하나 이상의 정보를 포함할 수 있다.According to the present invention, the user's facial geometry information includes at least one of facial size information, temple size information, eyebrow size information, eyelash size information, nose size information, ball (or cheek) size information, (Or cheek) curvature information, zygomatic curvature information, mouth curvature information, lip curvature information, and jaw curvature information among the information on the curvature of the eye, the information on the jaw size, the curvature information on the forehead, the information on the curvature of the temple, And may include one or more pieces of information.
본 발명에 따르면, 상기 크기 정보는, 사용자 안면 영역의 사용자 안면 기하학 구조를 판별하기 위해 설정된 좌표계 상의 좌표 거리 정보를 포함할 수 있고, 상기 곡률 정보는, 사용자 안면 영역의 사용자 안면 기하학 구조를 판별하기 위해 설정된 좌표계 상의 좌표 곡률 정보를 포함할 수 있다.According to the present invention, the size information may include coordinate distance information on a coordinate system set to discriminate a user's facial geometry of a user's facial region, and the curvature information may include information on a facial geometry of the user facial region And may include coordinate curvature information on the coordinate system set for the coordinate system.
본 발명에 따르면, 상기 곡률 정보는, 화상데이터에 포함된 사용자 안면의 그라데이션 정보와 사용자 안면에 대한 해부학적 통계 정보를 근거로 산출될 수 있다.According to the present invention, the curvature information can be calculated on the basis of gradation information of the user's face included in the image data and anatomical statistical information on the user's face.
본 발명에 따르면, 상기 안면 수치 정보는 현실세계와 일대일 축적의 안면 둘레 길이 범위정보를 포함할 수 있다.According to the present invention, the facial numerical value information may include information on the length of the face circumference of the one-to-one accumulation with the real world.
본 발명에 따르면, 상기 안면 둘레 길이는 상기 사용자 안면 기하학 구조 정보에 대응하여 산출된 하나 이상의 수치 정보와 상기 사용자 안면 기하학 구조를 근거로 지정된 오차 범위 내에서 산출될 수 있다.According to the present invention, the face circumference length may be calculated within a specified error range based on the at least one numerical information calculated corresponding to the user's facial geometry information and the user's facial geometry structure.
본 발명에 따르면, 상기 제4 단계는 상기 운영서버에서 상기 사용자 안면 기하학 구조 정보와 일대일 축적의 사용자 안면 수치 정보를 이용하여 사용자의 실제 안면 영역에 적용 가능하며 사용자의 안면 둘레 길이에 매칭되는 사용자 전용 화장의 3D 모델링 데이터를 생성하는 단계를 포함할 수 있다.According to the present invention, the fourth step can be applied to the actual facial area of the user using the user facial geometry information and the one-to-one cumulative user facial numerical information in the operation server, And creating 3D modeling data of the makeup.
본 발명에 따르면, 상기 제5 단계는 상기 운영서버에서 M(M≥1)명의 메이크업 디자이너가 디자인하여 등록한 N(N≥2)개의 화장 정보를 저장하는 디자인DB로부터 n(1≤n≤N)개의 화장 정보를 추출하여 사용자 무선단말의 앱으로 제공하면, 사용자 무선단말의 앱이 상기 n개의 화장 정보를 수신하여 출력하는 단계와, 사용자 무선단말의 앱이 상기 n개의 화장 정보 중 적어도 하나의 적용 대상 화장 정보를 선택한 디자인선택정보를 전송하면, 상기 운영서버에서 상기 디자인선택정보를 수신하는 단계와, 상기 운영서버에서 상기 사용자 전용 모델링 데이터에 상기 디자인선택정보에 대응하는 화장을 적용한 사용자 전용 화장 데이터를 포함하는 사용자 전용 화장 데이터를 생성하는 단계를 포함할 수 있다.According to the present invention, in the fifth step, n (1? N? N) is selected from a design DB storing N (N? 2) pieces of makeup information designed and registered by M (M? 1) The method comprising the steps of: if the user of the user wireless terminal extracts and outputs the n pieces of makeup information, extracting the makeup information of the user wireless terminal and providing at least one of the n pieces of makeup information The method comprising the steps of: receiving the design selection information from the operation server when the design selection information selected by the designation information is transmitted; and receiving user-specific makeup data And a step of generating user-specific cosmetic data.
본 발명에 따르면, 상기 제5 단계는 상기 운영서버에서 M(M≥1)명의 메이크업 디자이너가 디자인하여 등록한 N(N≥2)개의 화장 정보를 저장하는 디자인DB로부터 n(1≤n≤N)개의 화장 정보를 추출하여 사용자 무선단말의 앱으로 제공하면, 사용자 무선단말의 앱이 상기 n개의 화장 정보를 수신하여 출력하는 단계와, 사용자 무선단말의 앱이 상기 n개의 화장 정보 중 적어도 하나의 적용 대상 화장 정보를 선택한 디자인선택정보를 전송하면, 상기 운영서버에서 상기 디자인선택정보를 수신하는 단계와, 상기 운영서버에서 상기 디자인선택정보에 대응하는 화장 정보를 등록한 디자이너단말로 상기 사용자 전용 모델링 데이터와 상기 디자인선택정보를 제공하는 단계와, 상기 운영서버에서 상기 디자이너단말로부터 상기 사용자 전용 모델링 데이터에 상기 디자인선택정보에 대응하는 화장을 적용하여 생성된 사용자 전용 화장 데이터를 포함하는 사용자 전용 화장 데이터를 수신하는 단계를 포함할 수 있다.According to the present invention, in the fifth step, n (1? N? N) is selected from a design DB storing N (N? 2) pieces of makeup information designed and registered by M (M? 1) The method comprising the steps of: if the user of the user wireless terminal extracts and outputs the n pieces of makeup information, extracting the makeup information of the user wireless terminal and providing at least one of the n pieces of makeup information The method of claim 1, further comprising: receiving design selection information from the operation server when the design selection information selected by the designation information is transmitted; and transmitting the user-specific modeling data to the designer terminal that registered the makeup information corresponding to the design selection information Providing the design selection information to the user terminal; and receiving, from the designer terminal, It may include receiving a user only make data including the user specific make-up data generated by applying the make-up corresponding to the chosen cutting edge information.
본 발명에 따르면, 상기 제5 단계는 상기 운영서버에서 M(M≥1)명의 메이크업 디자이너 중 m(1≤m≤M)명의 화장 디자이너가 이용하는 m개의 디자이너단말로 상기 사용자 전용 모델링 데이터를 제공하는 단계와, 상기 운영서버에서 i(1≤i≤m)개의 디자이너단말로부터 상기 사용자 전용 모델링 데이터에 해당 화장 디자이너의 화장을 적용하여 생성된 사용자 전용 화장 데이터를 포함하는 j(j≥i)개의 사용자 전용 화장 데이터를 수신하는 단계를 포함할 수 있다.According to the present invention, in the fifth step, the operation server provides the user-specific modeling data to m designer terminals used by m (1? M? M) cosmetic designers among M (M? 1) (J > = i) user data including user-specific makeup data generated by applying makeup of a makeup designer to the user-specific modeling data from i (1? I? M) And receiving special makeup data.
본 발명에 따르면, 상기 증강된 화장 서비스 제공 방법은, 사용자 무선단말의 앱이 상기 사용자 전용 화장 데이터에 대응하는 사용자 전용 화장의 주문을 요청하기 위한 주문요청정보를 구성하여 운영서버로 전송하면, 상기 운영서버에서 상기 주문요청정보를 수신하는 단계를 더 포함할 수 있다.According to the present invention, in the enhanced cosmetic service providing method, when an app of a user wireless terminal constructs order request information for requesting an order of user-specific makeup corresponding to the user-specific makeup data and transmits the order request information to the operation server, And receiving the order request information from the operation server.
본 발명에 따르면, 사용자 무선단말의 카메라부를 통해 입력되는 영상데이터에 포함된 하나 이상의 화상데이터를 판독하여 사용자의 실제 안면과 일대일 매칭되는 사용자 전용 화장제품의 3D 모델링 데이터를 포함하는 사용자 전용 모델링 데이터를 생성한 후 상기 사용자 전용 모델링 데이터에 지정된 화장 디자인을 적용하여 직접 방문하지 않고 또는 직접 방문하기 전에 전문가로부터 상담 받는 것과 동일한 수준의 화장 서비스를 제공받는 이점이 있다.According to the present invention, one or more image data included in image data input through a camera unit of a user wireless terminal is read and user-specific modeling data including 3D modeling data of a user-specific cosmetic product matching one- There is an advantage that the makeup design specified in the user-specific modeling data is applied to provide the same level of make-up service as that consulted from an expert before visiting or visiting in person.
도 1은 본 발명의 실시 방법에 따른 증강된 화장 서비스 시스템의 구성을 도시한 도면이다.
도 2는 본 발명의 실시 방법에 따른 사용자 무선단말(200)과 앱(230)의 기능 구성을 도시한 도면이다.
도 3은 본 발명의 실시 방법에 따른 증강된 화장 서비스를 위한 사용자 전용 화장 데이터 제공 과정을 도시한 도면이다.
도 4는 본 발명의 실시 방법에 따른 증강된 화장 서비스 제공 과정을 도시한 도면이다.
도 5는 본 발명의 일 실시 방법에 따른 증강된 화장 서비스를 이용한 사용자 전용 화장의 주문 과정을 도시한 도면이다.1 is a view showing a configuration of an enhanced cosmetic service system according to an embodiment of the present invention.
FIG. 2 is a diagram illustrating a functional configuration of a user wireless terminal 200 and an
FIG. 3 is a diagram illustrating a process of providing makeup data for users for augmented makeup service according to an embodiment of the present invention.
4 is a view illustrating a process of providing enhanced cosmetic services according to an embodiment of the present invention.
FIG. 5 is a diagram illustrating an ordering process of a user-specific makeup using an enhanced makeup service according to an embodiment of the present invention.
이하 첨부된 도면과 설명을 참조하여 본 발명의 바람직한 실시예에 대한 동작 원리를 상세히 설명한다. 다만, 하기에 도시되는 도면과 후술되는 설명은 본 발명의 특징을 효과적으로 설명하기 위한 여러 가지 방법 중에서 바람직한 실시 방법에 대한 것이며, 본 발명이 하기의 도면과 설명만으로 한정되는 것은 아니다.The operation principle of the preferred embodiment of the present invention will be described in detail with reference to the accompanying drawings and description. It should be understood, however, that the drawings and the following detailed description are exemplary and explanatory and are intended to provide further explanation of the invention, and are not to be construed as limiting the present invention.
즉, 하기의 실시예는 본 발명의 수 많은 실시예 중에 바람직한 합집합 형태의 실시예 예에 해당하며, 하기의 실시예에서 특정 구성(또는 단계)를 생략하는 실시예, 또는 특정 구성(또는 단계)에 구현된 기능을 특정 구성(또는 단계)로 분할하는 실시예, 또는 둘 이상의 구성(또는 단계)에 구현된 기능을 어느 하나의 구성(또는 단계)에 통합하는 실시예, 특정 구성(또는 단계)의 동작 순서를 교체하는 실시예 등은, 하기의 실시예에서 별도로 언급하지 않더라도 모두 본 발명의 권리범위에 속함을 명백하게 밝혀두는 바이다. 따라서 하기의 실시예를 기준으로 부분집합 또는 여집합에 해당하는 다양한 실시예들이 본 발명의 출원일을 소급받아 분할될 수 있음을 분명하게 명기하는 바이다.In other words, the following embodiments correspond to the preferred embodiment of the preferred embodiment of the present invention. In the following embodiments, a specific configuration (or step) is omitted, or a specific configuration (or step) (Or steps), or an embodiment that incorporates functions implemented in more than one configuration (or step) into any one configuration (or step), a particular configuration (or step) It will be apparent that the present invention is not limited to the embodiments described below. Therefore, it should be clearly stated that various embodiments corresponding to subsets or combinations based on the following embodiments can be subdivided based on the filing date of the present invention.
또한, 하기에서 본 발명을 설명함에 있어 관련된 공지 기능 또는 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명을 생략할 것이다. 그리고 후술되는 용어들은 본 발명에서의 기능을 고려하여 정의된 용어들로서, 이는 사용자, 운용자의 의도 또는 관례 등에 따라 달라질 수 있다. 그러므로 그 정의는 본 발명에서 전반에 걸친 내용을 토대로 내려져야 할 것이다. In the following description of the present invention, a detailed description of known functions and configurations incorporated herein will be omitted when it may make the subject matter of the present invention rather unclear. The terms used below are defined in consideration of the functions of the present invention, which may vary depending on the user, intention or custom of the operator. Therefore, the definition should be based on the contents throughout the present invention.
결과적으로, 본 발명의 기술적 사상은 청구범위에 의해 결정되며, 이하 실시예는 진보적인 본 발명의 기술적 사상을 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 효율적으로 설명하기 위한 일 수단일 뿐이다.As a result, the technical idea of the present invention is determined by the claims, and the following embodiments are merely means for effectively explaining the technical idea of the present invention to a person having ordinary skill in the art to which the present invention belongs Only.
도면1은 본 발명의 실시 방법에 따른 증강된 화장 서비스 시스템의 구성을 도시한 도면이다.1 is a view showing a configuration of an enhanced cosmetic service system according to an embodiment of the present invention.
보다 상세하게 본 도면1은 사용자 무선단말(200)의 카메라부(210)를 통해 입력되는 영상데이터에 포함된 하나 이상의 화상데이터를 판독하여 사용자 안면 영역을 인식하여 상기 안면 영역에 형성된 사용자 안면의 기하학 구조를 해석한 사용자 안면 기하학 구조 정보를 생성함과 동시에 상기 안면 영역에 형성된 사용자 안면의 기하학 구조에 대한 현실세계와 일대일 축적의 사용자 안면 수치 정보를 결정하고, 상기 사용자 안면 기하학 구조 정보와 일대일 축적의 사용자 안면 수치 정보를 이용하여 상기 사용자의 실제 안면과 일대일 매칭되는 사용자 전용 화장의 3D 모델링 데이터를 포함하는 사용자 전용 모델링 데이터를 생성하고, 사용자 전용 모델링 데이터에 지정된 화장을 적용하여 생성된 사용자 전용 화장 데이터를 상기 카메라부(210)를 통해 입력되는 영상데이터에 존재하는 사용자의 안면 영역에 중첩 표시하여 사용자의 안면을 증강한 후 사용자가 자신의 실제 안면에 꼭 맞는 자신만의 사용자 전용 화장을 주문할 수 있도록 처리하는 시스템의 구성을 도시한 것으로서, 본 발명이 속한 기술분야에서 통상의 지식을 가진 자라면, 본 도면1을 참조 및/또는 변형하여 상기 증강된 화장 서비스 시스템에 대한 다양한 실시 방법(예컨대, 일부 구성부가 생략되거나, 또는 세분화되거나, 또는 합쳐진 실시 방법)을 유추할 수 있을 것이나, 본 발명은 상기 유추되는 모든 실시 방법을 포함하여 이루어지며, 본 도면1에 도시된 실시 방법만으로 그 기술적 특징이 한정되지 아니한다.More specifically, FIG. 1 illustrates one or more image data included in image data input through the camera unit 210 of the user wireless terminal 200, recognizes the user's face area, and displays the geometry of the user's face The user facial geometry structure information analyzing the facial geometry structure and the user facial numerical information of the one-to-one accumulation in the real world with respect to the geometric structure of the user facial surface formed in the facial region, Exclusive modeling data including 3D modeling data of the user-specific make-up matched one-to-one with the actual face of the user by using the user facial numerical value information, and generates user-specific makeup data Through the camera unit 210 FIG. 2 is a block diagram illustrating a configuration of a system for enhancing a face of a user by superimposing on a face area of a user existing in image data to be processed, Those skilled in the art will be able to refer and / or modify this drawing 1 to various implementations of the augmented cosmetic service system (e.g., some of the components may be omitted or subdivided, or alternatively, However, the present invention includes all of the above-described embodiments, and the technical features of the present invention are not limited only by the method shown in FIG.
본 발명의 시스템은, 증강된 화장 서비스를 위한 적어도 하나의 단말 측 기능을 수행하기 위해 지정된 앱(230)(Application)을 설치 실행하는 사용자 무선단말(200)과, 통신망을 경유하여 상기 사용자 무선단말(200)의 앱(230)과 통신하여 증강된 화장 서비스를 제공하기 위해 지정된 적어도 하나의 서버 측 기능을 수행하는 운영서버(100)를 포함하여 이루어지며, 메이크업 디자이너가 이용하며 사용자 전용 화장 데이터를 생성하거나 및/또는 상기 사용자 무선단말(200)의 앱(230)과 운영서버(100)가 연동하여 결정한 사용자 전용 화장을 주문받는데 이용되는 디자이너단말(160)을 더 포함할 수 있다. The system of the present invention comprises a user wireless terminal (200) for installing and executing a specified application (230) (Application) to perform at least one terminal function for enhanced cosmetic service, (100) that performs at least one server-side function designated to provide enhanced cosmetic services by communicating with the apps (230) of the cosmetic application (200). The make-up designer And a designer terminal 160 used to generate and / or order an exclusively user makeup determined by the
상기 사용자 무선단말(200)은 증강된 화장 서비스를 제공받을 사용자가 이용하는 무선통신기기의 총칭으로서, 바람직하게 증강된 화장 서비스를 위한 적어도 하나의 단말 측 기능을 수행하기 위해 지정된 앱(230)을 설치 실행한다. 예를들어, 상기 사용자 무선단말(200)은 지정된 앱(230)을 설치한 사용자의 이동통신단말, 휴대폰, 스마트폰, 태블릿PC 등을 포함할 수 있다. The user wireless terminal 200 is a collective term for a wireless communication device to be used by a user to be provided with enhanced cosmetic service. Preferably, the user wireless terminal 200 is provided with a designated
상기 디자이너단말(160)은 메이크업 디자이너가 이용하는 단말의 총칭으로서, 화장을 디자인하는 기능과, 상기 디자인된 화장을 상기 운영서버(100)에 등록하는 기능과, 사용자 안면 기하학 구조 정보와 일대일 축적의 사용자 안면 둘레 길이범위를 포함하는 사용자 안면 수치 정보를 제공받아 이를 이용하여 사용자 전용 모델링 데이터를 생성하는 기능과, 상기 운영서버(100)에서 상기 사용자 안면 기하학 구조 정보와 일대일 축적의 사용자 안면 수치 정보를 이용하여 생성하거나 또는 상기 디자이너에 의해 생성된 사용자 전용 모델링 데이터에 지정된 화장을 적용하여 사용자 전용 화장 데이터를 포함하는 사용자 전용 화장 데이터를 생성하는 기능과, 상기 사용자 안면 기하학 구조 정보와 일대일 축적의 사용자 안면 수치 정보를 이용하거나 및/또는 상기 생성된 사용자 전용 화장 데이터를 이용하여 실제로 사용자 안면에 적용할 사용자 전용 화장을 제작하기 위한 일련의 기능 중 적어도 하나의 기능을 수행하는 디자이너용 앱을 설치 실행할 수 있다.The designer terminal 160 is a generic name of a terminal used by a makeup designer. The designer terminal 160 includes a function of designing a makeup, a function of registering the designed makeup on the operation server 100, a user facial geometry structure information and a one- A function of generating user-specific modeling data by using the user facial numeral information including the facial circumference length range and using the user facial geometric structure information and the one-to-one cumulative user facial numerical information in the operation server 100 Creating customized makeup data including user specific makeup data by applying the makeup specified in the user-specific modeling data generated by the designer, and generating user-specific makeup data including the user's face geometry information and the one- Use the information and / or Groups using the user specific data generated can actually make you run to install the app for designers to perform at least one function of a set of functions for creating user-only makeup you want to apply to your face.
상기 운영서버(100)는 통신망을 경유하여 상기 사용자 무선단말(200)의 앱(230)과 통신하여 증강된 화장 서비스를 제공하기 위해 지정된 적어도 하나의 서버 측 기능을 수행하는 서버의 총칭으로서, 적어도 하나의 서버나 둘 이상의 서버 조합의 형태로 구현될 수 있으며, 실시 방법에 따라 기 구비된 서버에 설치되는 서버용 소프트웨어 형태로 구현될 수 있다. 편의상 이하 실시예의 설명이나 도면을 통해 본 발명의 증강된 화장 서비스를 위한 기능 중 일부 기능은 사용자 무선단말(200)의 앱(230)을 통해 구현되는 것으로 설명하고 다른 일부 기능은 운영서버(100)를 통해 구현되는 것으로 설명할 것이나, 본 발명에서 증강된 화장 서비스를 제공하는 기능이 단말 측 기능과 서버 측 기능으로 명확하게 구분되는 것은 아니며, 본 발명에 도시 설명된 단말 측 기능 중 일부는 서버 측 기능에 포함되어 수행되거나 반대로 서버 측 기능 중 일부도 단말 측 기능에 포함되어 수행될 수 있으며, 본 발명은 이러한 실시예도 권리범위로 포함함을 명백하게 밝혀두는 바이다.The operating server 100 is a generic name of a server that performs at least one server-side function designated to provide enhanced cosmetic services by communicating with an
도면1을 참조하면, 상기 운영서버(100)는, M(M≥1)명의 메이크업 디자이너가 이용하는 M개의 디자이너단말(160)로부터 N(N≥2)개의 화장 정보를 등록받아 지정된 디자인DB(도시생략)에 저장하는 디자인 등록부(105)를 구비한다. 1, the operation server 100 registers N (N? 2) pieces of makeup information from M designer terminals 160 used by M (M? 1) makeup designers, (Not shown).
상기 운영서버(100)를 운영사는 M(M≥1)명의 메이크업 디자이너와 제휴하여 M명의 디자이너가 이용하는 M개의 디자이너단말(160)에 지정된 디자이너용 앱을 설치하며, 상기 디자인 등록부(105)는 상기 M개의 디자이너단말(160)에 설치 실행된 디자이너용 앱과 연동하여 M개의 디자이너단말(160)로부터 각각의 메이크업 디자이너가 디자인한 N(N≥2)개의 화장 정보를 등록받아 지정된 디자인DB에 저장한다. 여기서, 상기 디자인DB에 등록되는 화장 정보는 특정 사용자 안면의 기하학 구조와 수치에 최적화되지 않은 범용(또는 표준 안면 구조 기반)의 화장에 적용 가능한 범용(또는 표준 안면 구조 기반)의 화장을 포함하며, 특정 사용자 안면의 기하학 구조와 수치에 최적화(또는 조정) 가능한 벡터 정보를 포함하여 이루어질 수 있다. 또는 상기 화장 정보는 와이어프레임으로 이루어진 화장의 3D 모델링 데이터에 렌더링 가능한 디자인 도안이나 패턴, 사진, 캐릭터, 이미지 등의 텍스쳐 데이터를 포함할 수 있다. The operator of the operation server 100 installs an application for designers in M designer terminals 160 used by M designers in cooperation with M (M? 1) makeup designers, N (N? 2) pieces of makeup information designed by the respective makeup designers from the M designer terminals 160 in association with the designer application installed in the M designer terminals 160 are stored in the designated design DB . Here, the makeup information registered in the design DB includes a general purpose (or standard facial structure based) makeup applicable to a general purpose (or standard face structure based) makeup that is not optimized to a specific user face's geometry and numerical values, And may include vector information that can be optimized (or adjusted) to the geometry and numerical values of a particular user face. Alternatively, the makeup information may include texture data such as a design pattern, a pattern, a photograph, a character, and an image that can be rendered on 3D modeling data of makeup made of a wire frame.
한편 본 발명의 실시 방법에 따라 특정 사용자의 사용자 안면 기하학 구조 정보와 일대일 축적의 사용자 안면 둘레 길이범위를 포함하는 사용자 안면 수치 정보가 수신(또는 확인)되는 시점에 적어도 하나의 디자이너단말(160)과 연계하여 상기 사용자 안면 기하학 구조 정보와 안면 수치 정보에 최적화된 사용자 전용 화장을 디자인하는 경우 상기 디자인 등록부(105)나 디자인DB는 생략 가능하며, 이에 의해 본 발명이 한정되지 아니한다. 한편 실시 방법에 따라 상기 디자인DB는 각 사용자 무선단말(200)의 저장영역에 구현될 수 있으며, 이에 의해 본 발명이 한정되지 아니한다. Meanwhile, according to the embodiment of the present invention, at least one designer terminal 160 and a plurality of designer terminals 160 are provided at a time when the user facial numerical information including the user facial geometry information of a specific user and the user facial length range of one- The design registration unit 105 or the design DB may be omitted when designing a user-specific makeup optimized for the user's facial geometry structure information and facial numerical information in conjunction with each other, so that the present invention is not limited thereto. Meanwhile, the design DB may be implemented in a storage area of each user wireless terminal 200 according to an embodiment of the present invention, and thus the present invention is not limited thereto.
도면1을 참조하면, 상기 운영서버(100)는, 지정된 앱(230)을 설치한 사용자 무선단말(200)과 상기 앱(230)의 조합을 고유한 매체로 등록하거나 및/또는 상기 앱(230)을 설치한 무선단말(200)의 사용자를 등록하는 절차를 수행하는 정보 등록부(110)를 구비한다. Referring to FIG. 1, the operation server 100 registers a combination of the user wireless terminal 200 having the designated
사용자 무선단말(200)에 지정된 앱(230)을 설치하고 최초 실행(또는 정보 등록 전 실행) 시, 사용자 무선단말(200)의 앱(230)은 상기 사용자 무선단말(200)과 앱(230)의 조합을 고유한 매체로 고유 식별하는 매체식별정보를 생성하거나 지정된 서버로부터 할당받아 상기 사용자 무선단말(200)의 지정된 저장영역에 저장하는 절차를 수행하며, 상기 사용자 무선단말(200)의 앱(230)은 상기 앱(230)을 설치한 사용자 무선단말(200)과 상기 앱(230)의 조합을 고유한 매체로 고유 식별하는 매체식별정보(예컨대, 디바이스토큰, UUID 등)를 등록하는 절차를 수행하며, 상기 정보 등록부(110)는 상기 사용자 무선단말(200)의 앱(230)으로부터 상기 매체식별정보를 등록받아 지정된 관리DB(도시생략)에 등록 저장할 수 있다. 한편 상기 사용자 무선단말(200)의 앱(230)은 상기 사용자 무선단말(200)을 고유 식별하는 무선단말정보(예컨대, 전화번호, IMSI, IMEI 등)를 등록하는 절차를 수행할 수 있으며, 이 경우 상기 정보 등록부(110)는 상기 사용자 무선단말(200)의 앱(230)으로부터 상기 사용자 무선단말(200)의 무선단말정보를 등록받아 지정된 관리DB에 등록 저장할 수 있다. 한편 상기 사용자 무선단말(200)의 앱(230)은 상기 앱(230)을 설치한 무선단말(200)의 사용자를 고유 식별하는 사용자 정보(예컨대, 고유ID, 성명, 생년월일 등)를 등록하는 절차를 수행할 수 있으며, 이 경우 상기 정보 등록부(110)는 상기 사용자 무선단말(200)의 앱(230)으로부터 상기 사용자 정보를 등록받아 지정된 관리DB에 등록 저장할 수 있다. The
도면1을 참조하면, 상기 운영서버(100)는, 특정한 사용자가 사용하는 사용자 무선단말(200)의 앱(230)에서 사용자 안면에 대한 사용자 안면 기하학 구조 정보와 사용자 안면 수치 정보를 생성/결정하여 전송하면, 상기 사용자 안면 기하학 구조 정보와 사용자 안면 수치 정보를 수신하는 정보 수신부(115)와, 상기 사용자 안면 기하학 구조 정보와 일대일 축적의 사용자 안면 둘레 길이범위를 포함하는 사용자 안면 수치 정보를 근거로 사용자의 실제 안면과 일대일 매칭되어 상기 사용자의 실제 안면의 기하학 구조에 적용 가능한 사용자 전용 화장의 3D 모델링 데이터를 포함하는 사용자 전용 모델링 데이터를 생성하는 모델링 생성부(135)를 구비한다. 한편 실시 방법에 따라 상기 정보 수신부(115)는 사용자 무선단말(200)의 카메라부(210)를 통해 입력되는 영상데이터나 상기 영상데이터에 포함된 하나 이상의 화상데이터를 수신 가능하며, 이 경우 상기 운영서버(100)는, 하나 이상의 화상데이터를 판독하여 화장을 적용할 사용자 안면 영역을 인식하는 인식 처리부(120)와, 상기 인식된 안면 영역에 형성된 사용자 안면의 기하학 구조를 해석한 사용자 안면 기하학 구조 정보를 생성하는 구조 생성부(125)와, 상기 안면 영역에 형성된 사용자 안면의 기하학 구조에 대한 현실세계와 일대일 축적의 사용자 안면 둘레 길이범위를 포함하는 사용자 안면 수치 정보를 결정하는 수치 결정부(130)를 더 구비할 수 있다.Referring to FIG. 1, the operation server 100 generates / determines user facial geometry information and user facial numeric information for a user's face in an
사용자 무선단말(200)의 앱(230)은 해당 사용자 무선단말(200)에 구비된 카메라부(210)를 통해 카메라 시선 방향의 지정된 화각 내에 존재하는 피사체를 촬영한 영상데이터를 입력받아 버퍼링한다. 한편 상기 영상데이터에 포함된 하나 이상의 화상데이터를 판독하여 화장을 적용할 사용자 안면 영역을 인식하는 과정을 운영서버(100)에서 수행하는 경우, 상기 사용자 무선단말(200)의 앱(230)은 상기 영상데이터를 상기 운영서버(100)로 전송할 수 있으며, 이 경우 상기 정보 수신부(115)는 상기 사용자 무선단말(200)의 앱(230)으로부터 상기 영상데이터를 수신하여 버퍼링할 수 있다. The
사용자 무선단말(200)의 앱(230)은 상기 카메라부(210)를 통해 입력되어 버퍼링되는 영상데이터에 포함된 하나 이상의 화상데이터를 선별하고 지정된 패턴인식알고리즘에 적용하여 상기 카메라부(210)를 통해 촬영한 피사체 중 화장을 적용할 사용자 안면에 대응하는 피사체를 식별하고, 상기 식별된 사용자 안면 영역을 인식한다. 한편 상기 영상데이터가 운영서버(100)로 수신된 경우, 상기 인식 처리부(120)는 영상데이터에 포함된 하나 이상의 화상데이터를 선별하고 지정된 패턴인식알고리즘에 적용하여 화장을 적용할 사용자 안면에 대응하는 피사체를 식별하고, 상기 식별된 사용자 안면 영역을 인식할 수 있다. The
본 발명의 다른 실시 방법에 따르면, 상기 사용자 무선단말(200)의 앱(230)에서 상기 안면 영역을 인식한 경우, 상기 사용자 무선단말(200)의 앱(230)은 상기 인식한 안면 영역에 대응하는 화상데이터를 포함하는 안면 영역 데이터를 상기 운영서버(100)로 전송할 수 있으며, 이 경우 상기 인식 처리부(120)는 상기 안면 영역 데이터를 수신할 수 있다. According to another embodiment of the present invention, when the
상기 사용자 무선단말(200)의 앱(230)(또는 구조 생성부(125))은 상기 인식된 안면 영역에 대응하는 화상데이터를 포함하는 안면 영역 데이터에 지정된 패턴인식알고리즘을 적용하여 이마 크기 정보, 관자놀이 크기 정보, 눈썹 크기 정보, 속눈썹 크기 정보, 코 크기 정보, 볼(또는 뺨) 크기 정보, 광대뼈 크기 정보, 입 크기 정보, 입술 크기 정보, 턱 크기 정보, 이마 곡률 정보, 관자놀이 곡률 정보, 눈썹 곡률 정보, 속눈썹 곡률 정보, 코 곡률 정보, 볼(또는 뺨) 곡률 정보, 광대뼈 곡률 정보, 입 곡률 정보, 입술 곡률 정보, 턱 곡률 정보 중 하나 이상(예컨대, 적어도 하나 또는 둘 이상의 조합)의 정보를 포함하는 사용자 안면 기하학 구조 정보를 생성할 수 있다.The application 230 (or the structure generating unit 125) of the user wireless terminal 200 applies the pattern recognition algorithm specified in the facial region data including the image data corresponding to the recognized facial region, Eye size information, eyebrow size information, eyelash size information, nose size information, ball (or cheek) size information, zygote size information, mouth size information, lip size information, jaw size information, forehead curvature information, (E. G., At least one or at least two or more combinations) of at least one of information, eyelash curvature information, nose curvature information, ball (or cheek) curvature information, zygomatic curvature information, mouth curvature information, The user facial geometry information can be generated.
본 발명의 실시 방법에 따르면, 상기 사용자 안면 기하학 구조 정보의 길이 정보는 사용자 안면 영역의 사용자 안면 기하학 구조를 판별하기 위해 설정된 좌표계(예컨대, 화상데이터를 판독하는 좌표계) 상의 좌표 거리 정보를 포함할 수 있다. According to an embodiment of the present invention, the length information of the user's facial geometry information may include coordinate distance information on a coordinate system (for example, a coordinate system for reading image data) set for discriminating a user's facial geometry of the user's facial region have.
본 발명의 실시 방법에 따르면, 상기 크기 정보는, 사용자 안면 영역의 사용자 안면 기하학 구조를 판별하기 위해 설정된 좌표계 상의 좌표 거리 정보를 포함할 수 있고, 상기 곡률 정보는, 사용자 안면 영역의 사용자 안면 기하학 구조를 판별하기 위해 설정된 좌표계 상의 좌표 곡률 정보를 포함할 수 있다.According to an embodiment of the present invention, the size information may include coordinate distance information on a coordinate system set for discriminating a user's facial geometry of a user's facial region, and the curvature information includes a user's facial geometry structure And the coordinate curvature information on the coordinate system set to identify the curvature information.
본 발명의 실시 방법에 따르면, 상기 곡률 정보는, 화상데이터에 포함된 사용자 안면의 그라데이션 정보와 사용자 안면에 대한 해부학적 통계 정보를 근거로 산출될 수 있다.According to the method of the present invention, the curvature information can be calculated based on gradation information of the user's face included in the image data and anatomical statistical information on the user's face.
한편 상기 사용자 무선단말(200)은 카메라 시선 방향에 존재하는 피사체와 카메라 렌즈 사이의 거리를 인식하는 거리인식 센서부(212)(예컨대, 지정된 파장의 광 신호를 송출하고 피사체에 의해 반사되는 광 신호를 센싱하여 거리를 인식하는 광 센서부(예: 적외선 센서부, 레이저 센서부, 메이저 센서부 등), 지정된 파장의 전자파 신호나 무선주파수 신호 형태의 무선 신호를 송출하고 피사체의 의해 반사되는 무선 신호를 센싱하여 거리를 인식하는 무선 센서부, 지정된 주파수 대역의 음파 신호를 송출하고 피사체의 의해 반사되는 음파 신호를 센싱하여 거리를 인식하는 음파 센서부(예: 초음파 센서부 등), 지정된 간격으로 이격된 두 개의 카메라 렌즈와 카메라모듈을 포함하는 듀얼 카메라 등)를 구비할 수 있다.Meanwhile, the user wireless terminal 200 includes a distance recognition sensor unit 212 for recognizing a distance between the subject and the camera lens in the direction of the camera line-of-sight (e.g., an optical signal of a specified wavelength, (For example, an infrared sensor unit, a laser sensor unit, a major sensor unit, and the like) for recognizing a distance by sensing a distance between a subject and a subject, a radio signal of a designated wavelength or a radio frequency signal, A sound sensor unit (for example, an ultrasonic sensor unit) that transmits a sound wave signal of a designated frequency band and senses a sound wave signal reflected by the subject to recognize a distance, A dual camera including two camera lenses and a camera module).
본 발명의 실시 방법에 따르면, 상기 사용자 무선단말(200)의 앱(230)(또는 구조 생성부(125))가 상기 사용자 안면의 기하학 구조를 해석하여 생성한 사용자 안면 기하학 구조 정보는 사용자의 실제 안면의 수치를 반영하지 못할 수 있다. 본 발명은 단순히 가상의 화장 데이터를 생성하는 것 뿐만아니라, 사용자의 실제 안면에 적용할 사용자 전용 화장을 제작하거나 판정하는 구성까지 포함하므로, 사용자의 실제 안면의 수치 정보를 획득할 수 있다.According to the embodiment of the present invention, the user's facial geometry structure information generated by analyzing the geometry of the user's face by the app 230 (or the structure generating unit 125) It may not reflect the face value. The present invention can include not only generating virtual cosmetic data but also constructing or determining user-specific cosmetic to be applied to the actual face of the user, so that numerical information of the actual face of the user can be obtained.
본 발명에 따르면, 각 사용자 별로 사용자 안면의 기하학 구조나 수치는 사용자 별로 모두 상이하며, 특정한 사용자의 사용자 전용 화장을 3D 모델링하거나 제작하기 위해 사용자 안면의 기하학 구조를 인식함과 동시에 사용자 안면의 기하학 구조에 대한 현실세계와 일대일 축적의 사용자 안면 수치 정보를 결정하는 과정을 거칠 수 있다.According to the present invention, the geometric structure and the numerical value of the user's face are different for each user, and the geometric structure of the user's face is recognized for 3D modeling or production of a user-specific makeup of a specific user, The user's facial numerical information of the one-to-one accumulation with the real world can be determined.
본 발명의 실시 방법에 따르면, 상기 사용자 안면 기하학 구조 정보는 지정된 좌표계 상에서 좌표 값으로 해석 가능한 벡터 정보를 적어도 일부 포함하고 있으므로, 사용자 안면의 기하학 구조 상에서 거리 산출을 위해 특정 가능한 둘 이상의 특징 점을 결정하여 상기 특징 점 간의 거리를 현실세계와 일대일 축적으로 결정하는 과정을 통해 상기 사용자 안면 기하학 구조 정보를 사용자의 실제 안면의 수치와 일대일 매칭되는 사용자 안면 전용의 기하학 구조 정보로 이용할 수 있다.According to the embodiment of the present invention, since the user's facial geometry information includes at least a part of vector information that can be interpreted as a coordinate value on a specified coordinate system, it is possible to determine two or more characteristic points that can be specified for distance calculation on the geometric structure of the user's face The user facial geometry structure information can be used as geometry structure information for user facial exclusively matching one-to-one with the actual facial face of the user through a process of determining the distance between the feature points as one-to-one accumulation with the real world.
본 발명의 실시 방법에 따르면, 상기 사용자 무선단말(200)의 앱(230)은 사용자 안면의 기하학 구조에 대한 현실세계와 일대일 축적의 사용자 안면 수치 정보를 결정하기 위해 카메라부(210)를 통해 사용자 안면을 촬영하는 시점부터 사용자 안면의 수치를 결정할 수 있는 방식으로 촬영하도록 처리하는 것이 바람직하다.According to an embodiment of the present invention, the
본 발명의 제1 수치 결정 실시예에 따르면, 사용자 무선단말(200)의 앱(230)은 상기 사용자 무선단말(200)에 구비된 카메라부(210)의 자동초점 촬영 상태에서 지정된 방향의 사용자 안면을 촬영하도록 제어(또는 설정)할 수 있으며, 이 경우 상기 사용자 무선단말(200)의 앱(230)(또는 인식 처리부(120))은 카메라부(210)의 자동초점 촬영 상태에서 입력된 화상데이터를 판독하여 화장을 적용할 사용자 안면 영역을 인식할 수 있다. According to the first embodiment of the present invention, the
한편 본 발명의 제1 수치 결정 실시예에서 상기 사용자 무선단말(200)의 앱(230)(또는 수치 결정부(130))은 상기 구조 생성부(125)를 통해 생성된 사용자 안면 기하학 구조 정보 상에서 거리 산출을 위해 특정 가능한 둘 이상의 특징 점을 결정하고, 상기 카메라부(210)의 자동초점 과정에서 자동 결정된 초점거리와 상기 화상데이터 상의 둘 이상 특정 점 간 픽셀 거리와 상기 무선단말(200)에 구비된 카메라 스펙 정보 중 하나 이상의 정보를 지정된 산출식의 입력값으로 대입하여 상기 결정된 둘 이상의 특정 점 간 거리를 현실세계와 일대일 축적의 수치 정보로 산출할 수 있다. 예를들어, '초점거리(f)=[카메라 렌즈와 피사체 사이의 식별거리(L)×이미지크기(V)] / [피사체높이(H)]'의 산출식으로 산출될 수 있는데, 위 산출식에서 초점거리(f)는 카메라부(210)의 자동초점 과정에서 자동 결정되고 안면 영역에 대한 이미지크기(V)는 상기 화상데이터 상의 둘 이상 특정 점 간 픽셀 거리와 상기 무선단말(200)에 구비된 카메라 스펙 정보 중 하나 이상의 정보를 이용하여 도출 가능하므로, 카메라 렌즈와 피사체 사이의 식별거리(L)만 도출하면 사용자 안면 기하학 구조 정보 상의 특정 점 간 거리(=피사체높이(H))를 현실세계와 일대일 축적의 수치 정보로 산출할 수 있다. Meanwhile, in the first numerical value determination embodiment of the present invention, the app 230 (or the numerical value determination unit 130) of the user wireless terminal 200 receives the user facial geometry information generated through the structure generating unit 125 Determining at least two characteristic points that can be specified for the distance calculation and determining a pixel distance between two or more specific points on the image data and a focal distance automatically determined in the auto focusing process of the camera unit 210, One or more pieces of camera specification information may be substituted into an input value of a specified calculation formula so that the determined distance between two or more specific points may be calculated as numerical information of one-to-one accumulation with the real world. For example, the focal length f can be calculated as an expression of [an identification distance L between the camera lens and the subject x image size V] / [subject height H] ', The focal length f is automatically determined in the auto focus process of the camera unit 210 and the image size V for the facial area is determined by the pixel distance between two or more specific points on the image data, Therefore, if only the identification distance L between the camera lens and the subject is deduced, the distance between the specific point on the user's facial geometry information (= the subject height H) And one-to-one accumulation.
본 발명의 실시 방법에 따르면, 사용자 무선단말(200)의 앱(230)은 카메라 촬영 인터페이스를 통해 상기 카메라 렌즈와 상기 사용자 안면의 각 부분 사이의 거리가 지정된 식별거리를 유지하여 촬영하도록 유도하며, 상기 촬영 유도된 식별거리를 상기 산출식의 입력값에 포함시켜 상기 결정된 둘 이상의 특징 점 간 거리를 현실세계와 일대일 축적의 수치 정보로 산출할 수 있다. 다만 본 발명의 실시 방법에 따르면, 사용자 무선단말(200)의 앱(230)이 상기 카메라 렌즈와 사용자 안면의 각 부분 사이의 거리를 지정된 식별거리로 유지하여 촬영하도록 유도하더라도, 상기 유도된 식별거리와 실제 식별거리 사이에는 오차가 발생하며, 이에 사용자 무선단말(200)의 앱(230)(또는 수치 결정부(130))는 상기 유도된 식별거리를 이용하여 상기 특징 점 간 거리를 현실세계와 일대일 축적의 수치 정보로 산출하되, 상기 유도된 식별거리의 전/후 일정 범위의 거리에 대한 하나 이상의 식별거리를 더 이용하여 복수의 특징 점 간 거리를 현실세계와 일대일 축적의 수치 정보로 산출한 후 이 중에서 사용자 안면의 실제 특징 점 간 거리와 매칭되는 거리를 확률적으로 결정하거나 또는 상기 산출된 복수의 특징 점 간 거리를 통계 처리하여 현실세계와 일대일 축적의 수치 정보를 산출할 수 있다. According to the method of the present invention, the
본 발명의 제2 수치 결정 실시예에 따르면, 사용자 무선단말(200)의 앱(230)은 지정된 촬영모드 상태(예컨대, 자동초점 촬영 상태 등)에서 사용자 안면을 촬영하도록 유도한다. 상기 사용자 무선단말(200)의 앱(230)(또는 수치 결정부(130))은 상기 구조 생성부(125)를 통해 생성된 사용자 안면 기하학 구조 정보 상에서 거리 산출을 위해 특정 가능한 둘 이상의 특징 점을 결정한다. 한편 사용자 무선단말(200)의 앱(230)은 상기 사용자 안면을 촬영하기 전 또는 후에 현실세계의 길이를 재는 도구(예컨대, 자)를 이용하여 상기 결정된 둘 이상의 특징 점 간의 거리를 잰 수치 정보를 입력하도록 처리할 수 있으며, 상기 사용자 무선단말(200)의 앱(230)(또는 수치 결정부(130))는 상기 입력된 수치 정보를 상기 사용자 안면의 기하학 구조에 대한 현실세계와 일대일 축적의 사용자 안면 수치 정보로 결정할 수 있다.According to the second numerical determination embodiment of the present invention, the
본 발명의 제3 수치 결정 실시예에 따르면, 사용자 무선단말(200)의 앱(230)은 지정된 촬영모드 상태(예컨대, 자동초점 촬영 상태 등)에서 사용자 안면을 촬영하도록 유도하되, 상기 사용자 안면 근처에 현실세계의 길이를 재는 도구를 구비한 후 상기 사용자 안면과 길이를 재는 도구(예컨대, 자)를 함께 촬영하도록 유도한다. 바람직하게, 상기 사용자 무선단말(200)의 앱(230)은 상기 길이를 재는 도구의 눈금과 수치가 카메라부(210)의 화각 내에 포함되어 화상데이터 상에 존재하도록 촬영 유도하는 것이 바람직하다.According to the third numerical determination embodiment of the present invention, the
한편 본 발명의 제3 수치 결정 실시예에서 상기 카메라부(210)를 통해 촬영된 화상데이터 상에 사용자 안면과 길이를 재는 도구(예컨대, 도구의 눈금과 수치 등)학 함께 포함된 경우, 상기 사용자 무선단말(200)의 앱(230)(또는 수치 결정부(130))은 상기 사용자 안면 기하학 구조 상에서 거리 산출을 위해 특정 가능한 둘 이상의 특징 점을 결정할 수 있다. 상기 사용자 무선단말(200)의 앱(230)(또는 수치 결정부(130))은 지정된 패턴인식알고리즘을 통해 상기 화상데이터 상에 존재하는 현실세계의 길이를 재는 도구를 인식함과 동시에 상기 길이를 재는 도구에 표시된 눈금과 수치값을 인식하고, 이를 기반으로 상기 화상데이터 상의 길이를 재는 도구의 눈금 간 현실세계의 수치 거리와 화상데이터 상의 픽셀 거리의 관계를 인식할 수 있다. 예를들어, 상기 사용자 무선단말(200)의 앱(230)(또는 수치 결정부(130))은 상기 화상데이터 상의 픽셀 거리 200 픽셀은 현실세계 10mm에 해당한다는 형태의 관계를 인식할 수 있다. 만약 상기 화상데이터 상의 길이를 재는 도구의 눈금 간 현실세계의 수치 거리와 화상데이터 상의 픽셀 거리의 관계가 인식되면, 상기 사용자 무선단말(200)의 앱(230)(또는 수치 결정부(130))은 상기 인식된 도구의 눈금 간 수치 거리와 픽셀 거리의 관계(예컨대, 비율)를 통해 상기 결정된 둘 이상의 특징 점 간의 픽셀 거리를 판독하여 상기 둘 이상의 특징 점 간 거리를 현실세계와 일대일 축적의 수치 정보로 산출할 수 있다.Meanwhile, in the third numerical determination example of the present invention, when a tool for measuring the user's face and length (for example, a scale and a numerical value of the tool) is included on the image data photographed through the camera unit 210, The app 230 (or the numerical determiner 130) of the wireless terminal 200 may determine two or more feature points that can be specified for distance calculation on the user's facial geometry. The application 230 (or the numerical value determination unit 130) of the user wireless terminal 200 recognizes a tool for determining the length of a real world present on the image data through a specified pattern recognition algorithm, It is possible to recognize the relationship between the numerical distance of the real world and the pixel distance on the image data between the scale of the tool that recognizes the scale and the numerical value displayed on the tool and determines the length on the image data based thereon. For example, the app 230 (or the numerical value determining unit 130) of the user wireless terminal 200 can recognize a relationship such that a pixel distance of 200 pixels on the image data corresponds to 10 mm of the real world. (Or the numerical value determination unit 130) of the user wireless terminal 200 recognizes the relationship between the numerical distance of the real world and the pixel distance on the image data, Reads the pixel distances between the determined two or more characteristic points through a relation (for example, a ratio) between the numerical distance between the graduations of the recognized tool and the pixel distance, and stores the distance between the two or more characteristic points as numerical information .
본 발명의 제4 수치 결정 실시예에 따르면, 사용자 무선단말(200)은 카메라 시선 방향에 존재하는 피사체와 카메라 렌즈 사이의 거리를 인식하는 거리인식 센서부(212)를 구비할 수 있다. 본 발명의 실시 방법에 따르면, 상기 거리인식 센서부(212)는 지정된 파장의 광 신호를 송출하고 피사체에 의해 반사되는 광 신호를 센싱하여 거리를 인식하는 광 센서부(예컨대, 적외선 센서부, 레이저 센서부, 메이저 센서부 등), 지정된 파장의 전자파 신호나 무선주파수 신호 형태의 무선 신호를 송출하고 피사체의 의해 반사되는 무선 신호를 센싱하여 거리를 인식하는 무선 센서부, 지정된 주파수 대역의 음파 신호를 송출하고 피사체의 의해 반사되는 음파 신호를 센싱하여 거리를 인식하는 음파 센서부(예컨대, 초음파 센서부 등), 지정된 간격으로 이격된 두 개의 카메라 렌즈와 카메라모듈을 포함하는 듀얼 카메라(예컨대, 듀얼 카메라는 카메라 기능을 제공함과 동시에 거리인식을 위한 센서의 기능을 제공) 중 적어도 하나의 센서부를 포함할 수 있다. 그러나 본 발명의 거리인식 센서부(212)가 상기 예시된 센서부로 한정되는 것은 아니며, 당업자의 의도에 따라 거리인식에 사용 가능한 센서라면 모두 본 발명의 권리범위에 포함될 수 있음을 명백하게 밝혀두는 바이다.According to the fourth numerical value determination embodiment of the present invention, the user wireless terminal 200 may include a distance recognition sensor unit 212 that recognizes the distance between the camera lens and the subject existing in the camera direction. According to an embodiment of the present invention, the distance recognition sensor unit 212 may include an optical sensor unit (for example, an infrared sensor unit, a laser, or the like) for transmitting an optical signal of a designated wavelength, sensing an optical signal reflected by a subject, A wireless sensor unit that emits an electromagnetic wave signal of a designated wavelength or a radio frequency signal in the form of a radio frequency signal and recognizes a distance by sensing a radio signal reflected by the object; (For example, an ultrasonic sensor unit) for sensing a sound wave signal emitted by the subject and recognizing the distance, a dual camera including a camera module and two camera lenses spaced apart from each other at a specified interval May provide at least one sensor portion of a camera function, while providing the function of a sensor for distance sensing The. However, the present invention is not limited to the above-described sensor unit, and it is obvious that any sensor that can be used for distance sensing according to the intention of a person skilled in the art can be included in the scope of the present invention.
본 발명의 실시 방법에 따르면, 상기 거리인식 센서부(212)는 지정된 센싱 방향과 센싱 범위를 지니며, 상기 거리인식 센서부(212)의 센싱 방향은 상기 카메라부(210)의 시선 방향과 동기화되고, 상기 거리인식 센서부(212)의 센싱 범위는 상기 카메라부(210)의 화각과 매칭되는 것이 바람직하다. 한편 실시 방법에 따라 상기 거리인식 센서부(212)는 센싱 방향을 카메라 시선 방향과 동기화한 상태에서 지정된 센싱 범위 내에서 센싱할 부분 영역(예컨대, 화상데이터 상의 특징 영역(예: 화상데이터 상의 영역 중 대비 값이 지정된 기준 값 이상인 영역), 화상데이터의 전체 영역이나 특정 영역을 복수의 영역으로 분할한 분할 영역 등)을 지정하여 거리를 센싱할 수 있으며, 이로써 카메라부(210)를 통해 촬영하는 피사체의 3차원 구조 중 카메라 시선 방향(또는 센싱 방향)의 3차원 구조를 센싱할 수 있다. According to the embodiment of the present invention, the distance sensing sensor unit 212 has a designated sensing direction and a sensing range, and the sensing direction of the distance sensing sensor unit 212 is synchronized with the sight line direction of the camera unit 210 And the sensing range of the distance recognition sensor unit 212 is matched with the angle of view of the camera unit 210. On the other hand, according to the embodiment, the distance sensing sensor unit 212 may detect the sensing area in a partial area (for example, a characteristic area on the image data The area where the contrast value is equal to or larger than the specified reference value), the entire area of the image data, or the divided area obtained by dividing the specific area into a plurality of areas) can be specified and the distance can be sensed. The three-dimensional structure of the camera's visual direction (or sensing direction) can be sensed.
한편 본 발명의 제4 수치 결정 실시예에서 상기 사용자 무선단말(200)에 카메라 시선 방향에 존재하는 피사체와 카메라 렌즈 사이의 거리를 인식하는 거리인식 센서부(212)가 구비된 경우, 상기 사용자 무선단말(200)의 앱(230)(또는 수치 결정부(130))은 상기 사용자 안면 기하학 구조 상에서 거리 산출을 위해 특정 가능한 둘 이상의 특징 점을 결정하고, 상기 거리인식 센서부(212)를 통해 상기 카메라 렌즈와 상기 사용자 안면의 각 부분 사이의 식별거리를 센싱하거나 상기 거리인식 센서부(212)를 센싱된 상기 카메라 렌즈와 상기 사용자 안면의 각 부분 사이의 식별거리를 확인하고, 상기 거리인식 센서부(212)를 통해 확인된 식별거리를 지정된 산출식의 입력값으로 대입하여 상기 결정된 둘 이상의 특징 점 간 거리를 현실세계와 일대일 축적의 수치 정보로 산출할 수 있다.Meanwhile, in the fourth numerical determination example of the present invention, when the user wireless terminal 200 is equipped with the distance recognition sensor unit 212 for recognizing the distance between the camera lens and the subject existing in the direction of the camera's eyes, The app 230 (or the numerical value determination unit 130) of the terminal 200 determines two or more feature points that can be specified for distance calculation on the user's facial geometry structure, The distinction sensor unit 212 senses an identification distance between the camera lens and each part of the user's face or the identification distance between each part of the camera lens and the user's face sensed by the distance recognition sensor unit 212, The distance between the two or more characteristic points determined is substituted into the input value of the specified calculation formula, and the distance between the two or more characteristic points is determined as the numerical information of the one-to-one accumulation with the real world Can be released.
본 발명의 실시 방법에 따르면, 상기 사용자 무선단말(200)의 앱(230)은 상기 카메라부(210)의 자동초점 촬영 상태에서 입력된 화상데이터를 판독하여 화장을 적용할 사용자 안면 영역을 인식할 수 있으며, 상기 사용자 무선단말(200)의 앱(230)(또는 수치 결정부(130))은 상기 카메라부(210)의 자동초점 과정에서 자동 결정된 초점거리와 상기 화상데이터 상의 둘 이상 특정 점 간 픽셀 거리와 상기 무선단말(200)에 구비된 카메라 스펙 정보 중 하나 이상의 정보를 상기 산출식의 입력값에 포함시켜 상기 결정된 둘 이상의 특정 점 간 거리를 현실세계와 일대일 축적의 수치 정보로 산출할 수 있다.According to the embodiment of the present invention, the
본 발명의 제5 수치 결정 실시예에 따르면, 상기 사용자 무선단말(200)의 앱(230)(또는 수치 결정부(130))은 상기 제1 내지 제4 수치 결정 실시예 중 적어도 둘 이상의 실시예를 적어도 부분적으로 조합한 형태로 사용자 안면 기하학 구조 상에서 결정된 둘 이상의 특정 점 간 거리를 현실세계와 일대일 축적의 수치 정보로 결정할 수 있으며, 이에 의해 본 발명이 한정되지 아니한다.According to the fifth numerical value determination embodiment of the present invention, the app 230 (or the numerical value determination unit 130) of the user wireless terminal 200 may be configured to perform the functions of at least two of the first through fourth numerical determination examples The distance between two or more specific points determined on the user's facial geometry structure in the form of at least partially combining them can be determined as the numerical information of the one-to-one accumulation with the real world, and thus the present invention is not limited thereto.
본 발명의 실시 방법에 따르면, 상기 사용자 무선단말(200)의 앱(230)(또는 수치 결정부(130))은 상기 제1 내지 제5 수치 결정 실시예 중 적어도 하나의 실시예에 따라 사용자 안면 기하학 구조 상의 지정된 특정 점 간 거리를 현실세계와 일대일 축적의 수치 정보로 산출함과 동시에, 현실세계와 일대일 축적의 사용자 안면 둘레 길이 범위정보를 산출할 수 있다. 바람직하게, 상기 사용자 무선단말(200)의 앱(230)(또는 수치 결정부(130))은 상기 사용자 안면 기하학 구조 정보에 대응하여 산출된 하나 이상의 수치 정보와 상기 사용자 안면 기하학 구조를 근거로 지정된 오차 범위 내에서 현실세계와 일대일 축적의 사용자 안면 둘레 길이 범위정보를 산출할 수 있다. 상기 사용자 안면 수치 정보는 상기 산출된 사용자 안면 둘레 길이 범위정보를 포함한다. 한편 본 발명의 다른 실시 방법에 따르면, 상기 사용자 무선단말(200)의 앱(230)(또는 수치 결정부(130))은 사용자가 줄자로 자신의 안면 둘레 길이를 잰 수치 형태로 상기 사용자 안면 둘레 길이 범위정보를 입력받을 수 있으며, 이에 의해 본 발명이 한정되지 아니한다.According to the method of the present invention, the app 230 (or the numerical value determination unit 130) of the user wireless terminal 200 may be configured to determine the user's face It is possible to calculate the distance between the specified specific points on the geometrical structure as the numerical information of the one-to-one accumulation with the real world and the range of the user's face circumference length information of the one-to-one accumulation with the real world. Preferably, the app 230 (or the numerical value determining unit 130) of the user wireless terminal 200 determines whether the user facial geometry information corresponding to the user facial geometry information It is possible to calculate the user's face circumference length range information of the one-to-one accumulation with the real world within the error range. The user facial numeral information includes the calculated user facial circumference length range information. Meanwhile, according to another embodiment of the present invention, the app 230 (or the numerical value determining unit 130) of the user wireless terminal 200 may calculate the circumference of the user's face Length range information can be received, and thus the present invention is not limited thereto.
한편 상기 사용자 무선단말(200)의 앱(230)에서 상기 제1 내지 제5 수치 결정 실시예 중 적어도 하나의 실시예에 따라 사용자 안면 기하학 구조 상의 지정된 특정 점 간 거리를 현실세계와 일대일 축적의 수치 정보로 포함하는 사용자 안면 수치 정보를 결정한 경우, 상기 사용자 무선단말(200)의 앱(230)은 상기 사용자 안면 수치 정보를 운영서버(100)로 전송할 수 있으며, 상기 정보 수신부(115)는 상기 사용자 안면의 기하학 구조에 대한 현실세계와 일대일 축적의 사용자 안면 수치 정보를 수신할 수 있다.Meanwhile, in the
본 발명의 실시 방법에 따르면, 상기 사용자 무선단말(200)의 앱(230)에서 사용자 안면 기하학 구조 정보를 생성한 경우, 상기 사용자 무선단말(200)의 앱(230)은 상기 사용자 안면 기하학 구조 정보를 사용자 무선단말(200)의 지정된 저장영역에 저장하여 관리할 수 있으며, 이 경우 상기 사용자 안면 기하학 구조 정보는 상기 사용자 무선단말(200)의 카메라부(210)를 통해 입력되는 영상데이터에 포함된 화상데이터를 판독하여 상기 영상데이터에 존재하는 사용자의 안면 영역을 실시간 인식하기 위한 사용자 전용 안면인식정보로 사용될 수 있다. 한편 상기 사용자 무선단말(200)의 앱(230)에서 사용자 안면 수치 정보를 결정한 경우, 상기 사용자 무선단말(200)의 앱(230)은 상기 사용자 안면 기하학 구조 정보와 상기 사용자 안면 수치 정보를 연계하여 지정된 저장영역에 저장하여 관리할 수 있으며, 이 경우 상기 사용자 안면 기하학 구조 정보와 사용자 안면 수치 정보는 상기 사용자 무선단말(200)의 카메라부(210)를 통해 입력되는 영상데이터에 포함된 화상데이터를 판독하여 상기 영상데이터에 존재하는 사용자의 안면 영역을 실시간 인식하기 위한 사용자 전용 안면인식정보로 사용될 수 있다. According to the embodiment of the present invention, when the
한편 상기 정보 수신부(115)를 통해 사용자 무선단말(200)의 앱(230)으로부터 사용자 안면 기하학 구조 정보와 일대일 축적의 사용자 안면 수치 정보 중 적어도 하나의 정보를 수신하거나 및/또는 상기 구조 생성부(125)를 통해 사용자 안면 기하학 구조 정보를 생성하거나 및/또는 상기 수치 결정부(130)를 통해 일대일 축적의 사용자 안면 수치 정보를 결정한 경우, 상기 모델링 생성부(135)는 상기 사용자 안면 기하학 구조 정보와 일대일 축적의 사용자 안면 수치 정보를 근거로 사용자의 실제 안면과 일대일 매칭되어 상기 사용자의 실제 안면의 기하학 구조에 밀착하여 적용 가능한 사용자 전용 화장의 3D 모델링 데이터를 생성할 수 있다.The information receiving unit 115 receives at least one of the user's facial geometry information and the one-to-one cumulative user facial numerical value information from the
본 발명의 실시 방법에 따르면, 상기 모델링 생성부(135)는 상기 사용자 안면 기하학 구조 정보와 일대일 축적의 사용자 안면 둘레 길이범위를 포함하는 사용자 안면 수치 정보를 이용하여 사용자의 실제 안면 영역에 적용 가능하며 사용자의 안면 둘레 길이에 매칭되는 사용자의 실제 안면 영역과 일대일 매칭된 사용자 전용 화장의 3D 모델링 데이터를 생성하는 것이 바람직하다.According to the embodiment of the present invention, the modeling generation unit 135 can be applied to the actual facial region of the user using the user facial numerical value information including the user facial geometric structure information and the one-to- It is desirable to generate 3D modeling data of user-specific makeup that is one-to-one matched with the actual facial area of the user matching the user's facial circumference length.
도면1을 참조하면, 상기 운영서버(100)는, 상기 사용자의 실제 안면에 일대일 매칭시켜 생성된 사용자 전용 모델링 데이터에 지정된 화장을 적용하여 생성된 사용자 전용 화장 데이터를 포함하는 사용자 전용 화장 데이터를 확인하는 데이터 확인부(140)와, 상기 사용자 무선단말(200)의 앱(230)으로 상기 사용자 전용 화장 데이터를 제공하는 데이터 제공부(145)를 구비하며, 상기 사용자 무선단말(200)의 앱(230)으로 상기 사용자 안면 기하학 구조 정보를 제공하거나, 및/또는 상기 사용자 무선단말(200)의 앱(230)으로 상기 사용자 안면 수치 정보를 제공하는 정보 제공부(150)를 더 구비한다.Referring to FIG. 1, the operation server 100 confirms user-specific makeup data including user-specific makeup data generated by applying a makeup specified in user-specific modeling data created by one-to-one matching with the actual face of the user And a data providing unit 145 for providing the user specific makeup data to the
상기 모델링 생성부(135)를 통해 상기 사용자의 실제 안면에 일대일 매칭된 사용자 전용 모델링 데이터(예컨대, 사용자 전용 화장의 3D 모델링 데이터)가 생성되면, 상기 데이터 확인부(140)는 상기 사용자의 실제 안면에 일대일 매칭시켜 생성된 사용자 전용 모델링 데이터에 지정된 화장을 적용하여 생성된 사용자 전용 화장 데이터를 포함하는 사용자 전용 화장 데이터를 확인하기 위해 지정된 하나 이상의 절차를 수행한다. When the user-specific modeling data (for example, 3D modeling data of the user-specific makeup) that is one-to-one matched to the actual face of the user is generated through the modeling generation unit 135, And performs one or more specified procedures to identify user-specific cosmetic data including user-specific cosmetic data generated by applying the cosmetic designations to the user-specific modeling data generated by one-to-one matching the user-
본 발명의 제1 사용자 전용 데이터 확인 실시예에 따르면, 상기 데이터 확인부(140)는 M(M≥1)명의 메이크업 디자이너가 디자인하여 등록한 N(N≥2)개의 화장 정보를 저장하는 디자인DB로부터 n(1≤n≤N)개의 화장 정보를 추출하여 사용자 무선단말(200)의 앱(230)으로 제공할 수 있으며, 상기 사용자 무선단말(200)의 앱(230)은 상기 n개의 화장 정보를 수신하여 출력하고, 사용자로 하여금 n개의 화장 정보 중 어느 적어도 하나의 적용 대상 화장 정보를 선택하도록 유도한다.According to the first user-specific data checking embodiment of the present invention, the data verifying unit 140 may include a design DB storing N (N? 2) pieces of makeup information designed and registered by M (M? 1) (1? n? N) pieces of makeup information to the
상기 사용자 무선단말(200)의 앱(230)에서 상기 n개의 화장 정보 중 적어도 하나의 적용 대상 화장 정보를 선택한 디자인선택정보를 전송하면, 상기 데이터 확인부(140)는 상기 디자인선택정보를 수신하고, 상기 디자인선택정보에 대응하는 적용 대상 화장 정보를 추출한다. 만약 상기 디자인선택정보에 적용 대상 화장 정보가 포함된 경우, 상기 데이터 확인부(140)는 상기 디자인선택정보로부터 적용 대상 화장 정보를 추출할 수 있다. 또는 상기 데이터 확인부(140)는 N개의 화장 정보를 저장하는 디자인DB로부터 상기 디자인선택정보에 대응하는 적용 대상 화장 정보를 추출할 수 있다. When the
한편 상기 적용 대상 화장 정보가 추출되면, 상기 데이터 확인부(140)는 상기 모델링 생성부(135)를 통해 생성된 사용자 전용 화장의 3D 모델링 데이터를 포함하는 사용자 전용 모델링 데이터 중 상기 디자인선택정보에 대응하는 화장 정보를 적용할 사용자 전용 모델링 데이터를 확인하고, 상기 확인된 사용자 전용 모델링 데이터에 상기 추출된 적용 대상 화장 정보를 적용(예컨대, 렌더링 등)하여 사용자 전용 화장 데이터를 포함하는 사용자 전용 화장 데이터를 생성한다. Meanwhile, when the application makeup information is extracted, the data verifying unit 140 corresponds to the design selection information among the user-specific modeling data including the 3D modeling data of the user-specific makeup created through the modeling generating unit 135 Specific makeup data including user-specific makeup data by applying (e.g., rendering) the extracted apply-make-object information to the user-specific modeling data to be applied, .
본 발명의 제2 사용자 전용 데이터 확인 실시예에 따르면, 상기 데이터 확인부(140)는 M(M≥1)명의 메이크업 디자이너가 디자인하여 등록한 N(N≥2)개의 화장 정보를 저장하는 디자인DB로부터 n(1≤n≤N)개의 화장 정보를 추출하여 사용자 무선단말(200)의 앱(230)으로 제공할 수 있으며, 상기 사용자 무선단말(200)의 앱(230)은 상기 n개의 화장 정보를 수신하여 출력하고, 사용자로 하여금 n개의 화장 정보 중 어느 적어도 하나의 적용 대상 화장 정보를 선택하도록 유도한다.According to the second user-specific data checking embodiment of the present invention, the data verifying unit 140 may be configured to store a plurality of pieces of makeup information from a design DB storing N (N? 2) pieces of makeup information designed and registered by M (M? 1) (1? n? N) pieces of makeup information to the
상기 사용자 무선단말(200)의 앱(230)에서 상기 n개의 화장 정보 중 적어도 하나의 적용 대상 화장 정보를 선택한 디자인선택정보를 전송하면, 상기 데이터 확인부(140)는 상기 디자인선택정보를 수신한다. 상기 데이터 확인부(140)는 상기 디자인선택정보에 대응하는 화장 정보를 등록한 디자이너단말(160)과 연동하기 위한 디자이너의 통신수단정보(예컨대, 디자이너용 앱식별정보, 메일주소, 웹스토리지정보, 휴대폰정보 등)를 확인하고, 상기 모델링 생성부(135)를 통해 생성된 사용자 전용 화장의 3D 모델링 데이터를 포함하는 사용자 전용 모델링 데이터 중 상기 디자인선택정보에 대응하는 화장 정보를 적용할 사용자 전용 모델링 데이터를 확인한 후, 상기 디자이너의 통신수단정보를 이용하여 상기 디자이너단말(160)로 상기 확인된 사용자 전용 모델링 데이터와 상기 디자인선택정보(또는 디자인선택정보를 이용하여 디자인DB로부터 추출한 화장 정보 등)를 제공한다. 이후 상기 디자이너는 상기 디자이너단말(160)의 앱을 통해 상기 사용자 전용 모델링 데이터에 상기 디자인선택정보에 대응하는 화장 정보를 적용(예컨대, 렌더링 등)하여 사용자 전용 화장 데이터를 포함하는 사용자 전용 화장 데이터를 생성한다. 상기 디자이너단말(160)의 앱에서 상기 생성된 사용자 전용 화장 데이터를 상기 운영서버(100)로 제공하면, 상기 데이터 확인부(140)는 상기 디자이너단말(160)로부터 상기 사용자 전용 모델링 데이터에 상기 디자인선택정보에 대응하는 화장을 적용하여 생성된 사용자 전용 화장 데이터를 포함하는 사용자 전용 화장 데이터를 수신한다.When the
본 발명의 제3 사용자 전용 데이터 확인 실시예에 따르면, 상기 데이터 확인부(140)는 M(M≥1)명의 메이크업 디자이너 중 m(1≤m≤M)명의 메이크업 디자이너가 이용하는 m개의 디자이너단말(160)과 연동하기 위한 각 디자이너의 통신수단정보(예컨대, 디자이너용 앱식별정보, 메일주소, 웹스토리지정보, 휴대폰정보 등)를 확인하고, 상기 모델링 생성부(135)를 통해 생성된 사용자 전용 화장의 3D 모델링 데이터를 포함하는 사용자 전용 모델링 데이터 중 상기 디자인선택정보에 대응하는 화장 정보를 적용할 사용자 전용 모델링 데이터를 확인한 후, 각 디자이너의 통신수단정보를 이용하여 m개의 디자이너단말(160)로 상기 확인된 사용자 전용 모델링 데이터를 제공한다. 이후 상기 m명의 디자이너 중 적어도 한 명의 디자이너는 자신이 이용하는 디자이너단말(160)의 앱을 통해 상기 사용자 전용 모델링 데이터에 자신이 디자인한 화장 정보를 적용(예컨대, 렌더링 등)하여 사용자 전용 화장 데이터를 포함하는 사용자 전용 화장 데이터를 생성한다. 상기 디자이너단말(160)의 앱에서 상기 생성된 사용자 전용 화장 데이터를 상기 운영서버(100)로 제공하면, 상기 데이터 확인부(140)는 상기 디자이너단말(160)로부터 상기 사용자 전용 모델링 데이터에 상기 디자이너의 화장을 적용하여 생성된 사용자 전용 화장 데이터를 포함하는 사용자 전용 화장 데이터를 수신한다.According to the third embodiment of the present invention, the data verifying unit 140 may include m designer terminals (m < = m < = M) (For example, designer application identification information, mail address, web storage information, mobile phone information, and the like) for interlocking with the user's specific makeup Only modeling data to be applied to the makeup information corresponding to the design selection information among the user-specific modeling data including 3D modeling data of the designer terminal 160, Provides verified user-specific modeling data. Then, at least one designer of the m designers applies (e.g., renders) the makeup information designed by himself / herself to the user-specific modeling data through the application of the designer terminal 160 he / she uses, User-specific cosmetic data. When the user of the designer terminal 160 provides the generated user-specific cosmetic data to the operating server 100, the data verifying unit 140 reads the user-specific cosmetic data from the designer terminal 160, Only make-up data including user-specific makeup data generated by applying the makeup of the user-specific makeup data.
본 발명의 제4 사용자 전용 데이터 확인 실시예에 따르면, 상기 데이터 확인부(140)는 상기 제1 내지 제3 사용자 전용 데이터 확인 실시예 중 적어도 둘 이상의 실시예를 적어도 부분적으로 조합한 형태로 사용자 전용 모델링 데이터에 특정 디자이너의 화장을 적용하여 생성된 사용자 전용 화장 데이터를 포함하는 사용자 전용 화장 데이터를 확인할 수 있으며, 이에 의해 본 발명이 한정되지 아니한다.According to the fourth user-specific data checking embodiment of the present invention, the data checking unit 140 may include at least one of the first to third user- Specific makeup data including user specific makeup data generated by applying makeup of a specific designer to the modeling data can be confirmed, and thus the present invention is not limited thereto.
상기 데이터 확인부(140)를 통해 사용자의 실제 안면과 일대일 매칭된 사용자 전용 화장 데이터가 확인되면, 상기 데이터 제공부(145)는 상기 사용자 무선단말(200)의 앱(230)으로 상기 사용자 전용 화장 데이터를 제공하며, 상기 사용자 무선단말(200)의 앱(230)은 상기 사용자 전용 화장 데이터를 수신하여 지정된 저장영역에 저장한다.If the user-specific makeup data matching one-to-one correspondence with the actual face of the user is confirmed through the data checking unit 140, the data providing unit 145 searches the user's specific makeup data with the
한편 상기 운영서버(100) 측에서 사용자 안면 기하학 구조 정보가 생성되거나 및/또는 사용자 무선단말(200)의 앱(230)에서 사용자 안면 기하학 구조 정보가 생성되더라도 사용자 무선단말(200)에 상기 사용자 안면 기하학 구조 정보가 저장되지 않은 경우, 상기 정보 제공부(150)는 상기 사용자 무선단말(200)의 앱(230)으로 사용자 전용 화장 데이터에 대응하는 사용자 안면 기하학 구조 정보를 제공하며, 상기 사용자 무선단말(200)의 앱(230)은 상기 사용자 안면 기하학 구조 정보를 수신하여 지정된 저장영역에 저장한다. 바람직하게, 상기 사용자 안면 기하학 구조 정보는 상기 사용자 무선단말(200)의 카메라부(210)를 통해 입력되는 영상데이터에 포함된 화상데이터를 판독하여 상기 영상데이터에 존재하는 사용자의 안면 영역을 실시간 인식하기 위한 사용자 전용 안면인식정보로 사용될 수 있다. In the meantime, even if the user's facial geometry information is generated on the operation server 100 and / or the user's facial geometry information is generated in the
또는 상기 운영서버(100) 측에서 사용자 안면 기하학 구조 정보가 생성되거나 및/또는 사용자 무선단말(200)에 상기 사용자 안면 기하학 구조 정보가 저장되지 않은 상태에서, 상기 운영서버(100) 측에서 상기 사용자 안면 기하학 구조 정보에 대응하는 사용자 안면 수치 정보가 결정된 경우, 상기 정보 제공부(150)는 상기 사용자 무선단말(200)의 앱(230)으로 상기 사용자 안면 기하학 구조 정보를 제공하는 과정과 연동하여 상기 사용자 안면 기하학 구조 정보에 대응하는 사용자 안면 수치 정보를 제공할 수 있으며, 상기 사용자 무선단말(200)의 앱(230)은 상기 사용자 안면 기하학 구조 정보와 상기 사용자 안면 수치 정보를 수신하여 지정된 저장영역에 연계 저장할 수 있다. 바람직하게, 상기 사용자 안면 기하학 구조 정보와 사용자 안면 수치 정보는 상기 사용자 무선단말(200)의 카메라부(210)를 통해 입력되는 영상데이터에 포함된 화상데이터를 판독하여 상기 영상데이터에 존재하는 사용자 안면 영역을 인식하기 위한 사용자 전용 안면인식정보로 사용될 수 있다. Or the user facial geometry information is not stored in the user wireless terminal 200 and / or the user facial geometry information is not stored in the user wireless terminal 200, If the user facial numerical value information corresponding to the facial geometry information is determined, the information providing unit 150 may provide the facial geometry information to the
한편 상기 사용자 전용 화장 데이터를 제공받아 지정된 저장영역에 저장한 사용자 무선단말(200)의 앱(230)에서 사용자 무선단말(200)의 카메라부(210)를 통해 영상데이터를 입력받는 경우, 상기 사용자 무선단말(200)의 앱(230)은 상기 사용자 무선단말(200)의 앱(230)에서 생성하여 저장한 사용자 안면 기하학 구조 정보와 상기 운영서버(100)로부터 수신하여 저장한 사용자 안면 기하학 구조 정보 중 적어도 하나의 사용자 안면 기하학 구조 정보를 이용하여 상기 카메라부(210)를 통해 입력되는 영상데이터에 포함된 화상데이터를 판독하여 상기 영상데이터에 존재하는 사용자의 안면 영역을 실시간 인식한다. 한편 실시 방법에 따라 상기 사용자 무선단말(200)의 앱(230)은 상기 사용자 안면 기하학 구조 정보와 함께 사용자 안면 수치 정보를 더 이용하여 상기 카메라부(210)를 통해 입력되는 영상데이터에 포함된 화상데이터를 판독하여 상기 영상데이터에 존재하는 사용자의 안면 영역을 보다 정확하게 인식할 수 있다.Meanwhile, when the image data is received through the camera unit 210 of the user wireless terminal 200 from the
만약 상기 사용자 무선단말(200)의 앱(230)에서 상기 카메라부(210)를 통해 입력되는 영상데이터에 존재하는 사용자의 안면 영역을 실시간 인식한 경우, 상기 사용자 무선단말(200)의 앱(230)은 상기 영상데이터 상에서 인식된 사용자의 안면 영역에 상기 사용자 전용 화장 데이터를 중첩 표시하여 사용자의 안면을 증강할 수 있다. 즉, 상기 카메라부(210)를 통해 입력되는 영상데이터에는 상기 사용자 전용 화장 데이터에 대응하는 화장이 존재하지 않지만, 상기 사용자 무선단말(200)의 앱(230)은 상기 카메라부(210)를 통해 입력되는 영상데이터에서 인식된 사용자의 안면 영역에 존재하는 지정된 특징 점과 둘 이상의 특징 점 사이의 수치를 인식하면서 사용자의 안면 방향과 카메라의 시선 방향을 해석하기 위해 설정된 3차원 좌표계를 기준으로 상기 사용자 전용 화장 데이터를 상기 사용자 안면 영역에 맞게 회전하거나 확대하거나 축소하여 상기 사용자 안면 영역에 상기 사용자 전용 화장 데이터를 중첩하여 표시함으로써, 상기 사용자 전용 화장 데이터를 통해 상기 사용자의 실제 안면 영역을 증강하여 표시할 수 있다. If the
본 발명의 실시 방법에 따르면, 상기 사용자 전용 화장 데이터는 사용자 안면 기하학 구조 정보와 사용자 안면 수치 정보를 근거로 생성된 3D 모델링 데이터를 기반으로 생성되었으므로, 사용자 무선단말(200)의 카메라부(210)를 통해 사용자 안면의 전면을 촬영하지 않고 좌측이나 우측의 측면을 비스듬히 촬영(예컨대, 사용자의 우측 귀나 좌측 귀가 노출되도록 촬영)하는 경우에도, 상기 사용자 무선단말(200)의 앱(230)은 상기 카메라부(210)를 통해 입력되는 영상데이터의 사용자 안면의 전면 영역이나 측면 영역에 존재하는 지정된 특징 점과 둘 이상의 특징 점 사이의 수치를 인식하면서 사용자의 안면 방향과 카메라의 시선 방향을 해석하기 위해 설정된 3차원 좌표계를 기준으로 상기 사용자 전용 화장 데이터를 상기 사용자 안면의 측면부에 맞게 회전하거나 확대하거나 축소하여 상기 사용자 안면의 측면부에 중첩 표시할 수 있다. According to the embodiment of the present invention, the user-specific cosmetic data is generated based on the 3D modeling data generated based on the user's facial geometry structure information and the user's facial numerical information. Thus, the camera unit 210 of the user wireless terminal 200, The
한편 본 발명의 실시 방법에 따르면, 사용자는 상기 사용자 무선단말(200)의 전면 측 카메라부(210)를 통해 자신의 안면을 촬영하는 것이 아니라 후면 측 카메라를 통해 거울에 비친 자신의 안면을 촬영할 수 있으며, 이 경우 상기 사용자 무선단말(200)의 앱(230)은 상기 무선단말(200)의 후면 측 카메라부(210)를 통해 영상데이터가 입력되는 경우 상기 후면 측 카메라를 통해 입력되는 영상데이터를 거울에 비친 사용자 안면을 촬영한 것으로 (1차)판단할 수 있다. 만약 상기 무선단말(200)의 후면 측 카메라부(210)를 통해 영상데이터가 입력되는 경우, 상기 사용자 무선단말(200)의 앱(230)은 상기 후면 측 카메라부(210)를 통해 입력되는 영상데이터가 사용자의 안면을 직접 촬영한 것인지 거울에 비친 사용자 안면을 촬영한 것인지 보다 정확하게 판단하는 절차를 수행할 수 있다. 예를들어, 상기 사용자 무선단말(200)의 앱(230)은 상기 카메라부(210)를 통해 사용자 안면의 특정한 부분이나 사용자 안면 이외의 다른 부분에 대한 초점 맞추기를 시도하여 초점 맞추기 위해 초점거리가 변화되는지 확인하거나, 또는 상기 카메라부(210)를 통해 사용자 안면과 상기 안면 이외의 다른 부분 사이에 심도 변화가 발생하는지 확인하거나, 또는 사용자 안면에 초점을 맞춘 상태에서 아웃포커싱을 시도하여 아웃포커싱이 유효하게 발생하는지 확인하는 과정 중 적어도 하나의 과정을 통해 상기 카메라부(210)를 통해 입력되는 영상데이터가 사용자의 안면을 직접 촬영한 것인지 거울에 비친 사용자 안면을 촬영한 것인지 판단할 수 있다. 거울에 비친 사용자 안면을 촬영한 경우 초첨거리가 변하지 않거나 기 설정된 값 미만으로 변할 수 있으며, 심도 변화가 발생하지 않거나 기 설정된 값 미만으로 발생할 수 있으며, 아웃포커싱이 처리되지 않거니 기 설정된 값 미만으로 처리될 수 있다. 만약 상기 사용자 무선단말(200)의 카메라를 통해 거울에 비친 사용자의 안면을 촬영하는 것으로 판단된 경우, 상기 사용자 무선단말(200)의 앱(230)은 상기 카메라부(210)를 통해 입력되는 영상데이터의 사용자 안면에 존재하는 지정된 특징 점과 둘 이상의 특징 점 사이의 수치를 인식하되 거울에 비친 피사체에 대응하는 3차원 좌표계를 기준으로 상기 사용자 전용 화장 데이터를 상기 사용자 안면 영역에 맞게 회전하거나 확대하거나 축소하여 중첩 표시할 수 있으며, 실시 방법에 따라 상기 사용자 전용 화장 데이터에 거울에 비쳐진 광 효과를 주어 중첩 표시할 수 있다. 만약 사용자가 거울에 비친 사용자의 안면의 비스듬히 촬영하는 경우, 상기 사용자 무선단말(200)의 앱(230)은 상기 카메라부(210)를 통해 입력되는 영상데이터의 사용자 안면의 전면 영역이나 측면 영역에 존재하는 지정된 특징 점과 둘 이상의 특징 점 사이의 수치를 인식하되 거울에 비친 피사체에 대응하는 3차원 좌표계를 기준으로 상기 사용자 전용 화장 데이터를 상기 사용자 안면의 측면부에 맞게 회전하거나 확대하거나 축소하여 상기 사용자 안면의 측면부에 중첩 표시할 수 있으며, 실시 방법에 따라 상기 사용자 전용 화장 데이터에 거울에 비쳐진 광 효과를 주어 중첩 표시할 수 있다. According to the embodiment of the present invention, the user can photograph his / her face reflected in the mirror through the rear side camera rather than photographing his or her face through the front side camera unit 210 of the user wireless terminal 200 In this case, when the image data is inputted through the rear side camera unit 210 of the wireless terminal 200, the
상기 사용자 무선단말(200)의 앱(230)은 상기 사용자 전용 화장 데이터에 대응하는 사용자 전용 화장의 주문을 위한 주문 인터페이스를 제공할 수 있다. 만약 사용자가 상기 주문 인터페이스를 통해 상기 사용자 전용 화장 데이터에 대응하는 사용자 전용 화장의 주문을 요청하면, 상기 사용자 무선단말(200)의 앱(230)은 상기 사용자 전용 화장 데이터에 대응하는 사용자 전용 화장의 주문을 요청하기 위한 주문요청정보를 구성하여 운영서버(100)로 전송할 수 있다.The
도면1을 참조하면, 상기 운영서버(100)는, 사용자 무선단말(200)의 앱(230)에서 상기 사용자 전용 화장 데이터에 대응하는 사용자 전용 화장의 주문을 요청하기 위한 주문요청정보를 구성하여 전송하면, 상기 주문요청정보를 수신하는 주문 수신부(155)를 구비한다.Referring to FIG. 1, the operation server 100 constructs order request information for requesting an order of a user-specific makeup corresponding to the user-specific makeup data from the
상기 사용자 전용 화장 데이터를 제공받은 사용자 무선단말(200)의 앱(230)에서 상기 사용자 전용 화장 데이터에 대응하는 사용자 전용 화장의 주문을 요청하기 위한 주문요청정보를 구성하여 전송하면, 상기 주문 수신부(155)는 상기 사용자 전용 화장 데이터에 대응하는 사용자 전용 화장의 주문을 위한 주문요청정보를 수신한다.If the
본 발명의 실시 방법에 따르면, 상기 주문요청정보는 사용자 전용 화장을 주문하기 위한 사용자 안면 기하학 구조 정보와 사용자 안면 수치 정보와 화장 정보 중 적어도 하나를 포함할 수 있다. 또는 상기 운영서버(100)에 사용자 안면 기하학 구조 정보와 사용자 안면 수치 정보와 화장 정보 중 적어도 하나가 저장된 경우, 상기 주문요청정보는 운영서버(100)에 저장된 사용자 안면 기하학 구조 정보와 사용자 안면 수치 정보와 화장 정보 중 적어도 하나를 식별하기 위한 식별정보를 포함할 수 있다. According to an embodiment of the present invention, the order request information may include at least one of user facial geometry information for ordering user-specific makeup, user facial numerical information, and makeup information. Or at least one of the user facial geometry information, the user facial numerical information, and the makeup information is stored in the operation server 100, the order request information may include user facial geometry structure information stored in the operation server 100, And identification information for identifying at least one of the makeup information.
한편 본 발명의 실시 방법에 따르면, 상기 주문요청정보는 사용자 전용 화장을 주문 제작하기 위한 사용자 전용 화장 데이터를 포함하며, 상기 사용자 전용 화장 데이터에 대응하는 사용자 안면 기하학 구조 정보와 사용자 안면 수치 정보와 화장 정보 중 적어도 하나를 더 포함하거나 및/또는 운영서버(100)에 저장된 사용자 안면 기하학 구조 정보와 사용자 안면 수치 정보와 화장 정보 중 적어도 하나를 식별하기 위한 식별정보를 더 포함할 수 있다. According to an embodiment of the present invention, the order request information includes user-specific cosmetic data for custom-making cosmetic custom-made data, and the user's facial geometry structure information corresponding to the user-specific cosmetic data, And / or identification information for identifying at least one of the user facial geometry information, the user facial numerical information, and the make-up information stored in the operation server 100. [
도면2는 본 발명의 실시 방법에 따른 사용자 무선단말(200)과 앱(230)의 기능 구성을 도시한 도면이다.FIG. 2 is a diagram illustrating a functional configuration of a user wireless terminal 200 and an
보다 상세하게 본 도면2는 카메라부(210)를 통해 입력되는 영상데이터에 포함된 하나 이상의 화상데이터를 판독하여 사용자 안면 영역을 인식하여 상기 안면 영역에 형성된 사용자 안면의 기하학 구조를 해석한 사용자 안면 기하학 구조 정보를 생성함과 동시에 상기 안면 영역에 형성된 사용자 안면의 기하학 구조에 대한 현실세계와 일대일 축적의 사용자 안면 수치 정보를 결정하고, 상기 사용자 안면 기하학 구조 정보와 일대일 축적의 사용자 안면 수치 정보를 이용하여 상기 사용자의 실제 안면과 일대일 매칭되게 생성된 사용자 전용 모델링 데이터에 지정된 화장을 적용한 사용자 전용 화장 데이터가 확인된 경우, 상기 카메라부(210)를 통해 입력되는 영상데이터에 존재하는 사용자의 안면 영역에 상기 사용자 전용 화장 데이터를 중첩 표시하여 사용자의 안면을 증강하며, 상기 사용자 전용 화장 데이터에 대응하는 사용자 전용 화장의 주문을 요청하는 앱(230)의 구성과 사용자 무선단말(200)의 구성을 도시한 것으로서, 본 발명이 속한 기술분야에서 통상의 지식을 가진 자라면, 본 도면2를 참조 및/또는 변형하여 상기 사용자 무선단말(200) 기능에 대한 다양한 실시 방법을 유추할 수 있을 것이나, 본 발명은 상기 유추되는 모든 실시 방법을 포함하여 이루어지며, 본 도면2에 도시된 실시 방법만으로 그 기술적 특징이 한정되지 아니한다. 바람직하게, 본 도면2의 사용자 무선단말(200)은 각종 이동통신단말, 각종 휴대폰, 각종 스마트폰, 각종 태블릿PC 중 적어도 하나를 포함할 수 있다.2 illustrates an example of a user facial geometry in which one or more image data included in image data inputted through the camera unit 210 is read to recognize a user's facial area and interprets a geometric structure of the user's facial area formed in the facial area The user facial numerical information of the one-to-one accumulation and the real world of the geometric structure of the user facial surface formed in the facial region are determined, and the user facial geometric structure information and the one-to- When the user-specific makeup data using the makeup specified in the user-specific modeling data generated so as to match one-on-one with the actual face of the user is confirmed, the face-area of the user existing in the image data input through the camera unit 210 User-specific makeup data is displayed superimposed The configuration of the
도면2를 참조하면, 상기 사용자 무선단말(200)은, 제어부(202)와 메모리부(225)와 화면 출력부(204)와 사용자 입력부(206)와 사운드 처리부(208)와 카메라부(210)와 무선망 통신부(214)와 근거리망 통신부(216)와 USIM 리더부(218) 및 USIM와 근거리 무선부(220)를 구비하며, 전원 공급을 위한 배터리를 구비한다. 한편 실시 방법에 따라 상기 사용자 무선단말(200)은 카메라부(210)의 카메라 렌즈와 피사체 사이의 거리를 인식하는 거리인식 센서부(212)를 더 구비할 수 있다.2, the user wireless terminal 200 includes a control unit 202, a memory unit 225, a screen output unit 204, a user input unit 206, a sound processing unit 208, a camera unit 210, A wireless network communication unit 214, a short distance network communication unit 216, a USIM reader unit 218, a USIM and a short range wireless unit 220, and has a battery for power supply. Meanwhile, the user wireless terminal 200 may further include a distance recognition sensor unit 212 for recognizing a distance between the camera lens of the camera unit 210 and the subject.
상기 제어부(202)는 상기 사용자 무선단말(200)의 동작을 제어하는 구성의 총칭으로서, 적어도 하나의 프로세서와 실행 메모리를 포함하여 구성되며, 상기 사용자 무선단말(200)에 구비된 각 구성부와 버스(BUS)를 통해 연결된다. 본 발명에 따르면, 상기 제어부(202)는 상기 프로세서를 통해 상기 사용자 무선단말(200)에 구비되는 적어도 하나의 프로그램코드를 상기 실행 메모리에 로딩하여 연산하고, 그 결과를 상기 버스를 통해 적어도 하나의 구성부로 전달하여 상기 사용자 무선단말(200)의 동작을 제어한다. 이하, 편의상 프로그램코드 형태로 구현되는 본 발명의 앱(230)에 대응하는 구성을 본 제어부(202) 내에 도시하여 설명하기로 한다.The controller 202 is a generic term for controlling the operation of the user wireless terminal 200. The controller 202 includes at least one processor and an execution memory, Bus (BUS). According to the present invention, the controller 202 loads at least one program code included in the user wireless terminal 200 into the execution memory and calculates the result through the processor, And controls the operation of the user wireless terminal 200. Hereinafter, a configuration corresponding to the
상기 메모리부(225)는 상기 사용자 무선단말(200)의 저장 자원에 대응되는 비휘발성 메모리의 총칭으로서, 상기 제어부(202)를 통해 실행되는 적어도 하나의 프로그램코드와, 상기 프로그램코드가 이용하는 적어도 하나의 데이터셋트를 저장하여 유지한다. 상기 메모리부(225)는 기본적으로 상기 사용자 무선단말(200)의 운영체제에 대응하는 시스템프로그램코드와 시스템데이터셋트, 상기 사용자 무선단말(200)의 무선 통신 연결을 처리하는 통신프로그램코드와 통신데이터셋트 및 적어도 하나의 응용프로그램코드와 응용데이터셋트를 저장하며, 본 발명의 앱(230)에 대응하는 프로그램코드와 데이터셋트도 상기 메모리부(225)에 저장된다.The memory unit 225 is a generic term of a nonvolatile memory corresponding to a storage resource of the user wireless terminal 200 and includes at least one program code executed through the control unit 202 and at least one And stores the data set. The memory unit 225 basically comprises a system program code and a system data set corresponding to the operating system of the user wireless terminal 200, a communication program code for processing a wireless communication connection of the user wireless terminal 200, And at least one application program code and application data set, and the program code and data set corresponding to the
상기 화면 출력부(204)는 화면출력기(예컨대, LCD(Liquid Crystal Display) 등)와 이를 구동하는 출력모듈을 포함하여 이루어지며, 상기 제어부(202)와 연동되어 상기 제어부(202)의 각종 연산 결과 중 화면 출력에 대응하는 연산 결과를 상기 화면출력기로 출력한다.The screen output unit 204 includes a screen output unit (e.g., an LCD (Liquid Crystal Display) or the like) and an output module for driving the screen output unit 204. The screen output unit 204 is connected to the control unit 202, And outputs the calculation result corresponding to the middle screen output to the screen output device.
상기 사용자 입력부(206)는 하나 이상의 사용자입력기(예컨대, 버튼, 키패드, 터치패드, 화면 출력부(204)와 연동하는 터치스크린 등)와 이를 구동하는 입력모듈을 포함하여 이루어지며, 상기 제어부(202)와 연동되어 상기 제어부(202)의 각종 연산을 명령하는 명령을 입력하거나, 또는 상기 제어부(202)의 연산에 필요한 데이터를 입력한다.The user input unit 206 includes one or more user input devices (e.g., a button, a keypad, a touch pad, a touch screen or the like linked to the screen output unit 204), and an input module for driving the touch screen. And inputs data necessary for the operation of the control unit 202. The control unit 202 receives a command for commanding various operations of the control unit 202,
상기 사운드 처리부(208)는 스피커와 마이크로폰과 및 이를 구동하는 사운드모듈을 포함하여 이루어지며, 상기 제어부(202)의 각종 연산 결과 중 사운드 출력에 대응하는 사운드 데이터를 디코딩(Decoding)하여 상기 스피커를 통해 출력하거나, 또는 상기 마이크로폰을 통해 입력되는 사운드 신호를 엔코딩(Encoding)하여 상기 제어부(202)로 전달한다.The sound processing unit 208 includes a speaker, a microphone, and a sound module for driving the sound processor. The sound processor 208 decodes sound data corresponding to a sound output from the various calculation results of the controller 202, Or encodes a sound signal input through the microphone and transmits the encoded sound signal to the controller 202. [
상기 카메라부(210)는 카메라 렌즈와 이미지센 및 이를 구동하는 카메라모듈을 포함하여 이루어지며, 자동초점 기능이나 손떨림보정 기능을 위한 액츄에이터(Actuator) 및/또는 각종 필터(예컨대, IR필터 등) 등을 더 포함하여 이루어진다. 바람직하게, 상기 카메라부(210)는 시선 방향의 피사체 중 지정된 화각 내의 피사체에 대한 광학 신호를 카메라 렌즈를 통해 입력받아 이미지센서를 통해 디지털화하여 영상데이터를 생성하여 제어부(202)로 제공하며, 상기 액츄에이터를 통해 자동초점 기능이나 손떨림보정 기능을 제공하며, 적어도 하나의 필터를 통해 상기 영상데이터의 품질을 보정한다. 한편 실시 방법에 따라 상기 카메라부(210)는 품질 향상을 위한 적어도 하나의 기능 구성부를 더 구비하거나 및/또는 품질 향상이나 피사체와 카메라 렌즈 사이의 거리인식을 위한 듀얼카메라 기능을 구비할 수 있으며, 이에 의해 본 발명이 한정되지 아니한다. The camera unit 210 includes a camera lens, an image sensor, and a camera module for driving the camera lens. The camera unit 210 includes an actuator for an autofocus function and an image stabilization function, and / or various filters (e.g., an IR filter) . Preferably, the camera unit 210 receives an optical signal for a subject within a specified angle of view from a subject in the visual line direction through a camera lens, digitizes the optical signal through an image sensor, and provides the generated image data to the control unit 202, An auto focus function or an image stabilization function is provided through an actuator, and the quality of the image data is corrected through at least one filter. Meanwhile, according to the embodiment, the camera unit 210 may further include at least one functional component for quality improvement and / or may have a dual camera function for enhancing the quality or recognizing the distance between the subject and the camera lens, The present invention is not limited thereto.
상기 거리인식 센서부(212)는 카메라 시선 방향에 존재하는 피사체와 카메라 렌즈 사이의 거리를 인식하는 기능 구성부의 총칭으로서, 바람직하게 지정된 파장의 광 신호를 송출하고 피사체에 의해 반사되는 광 신호를 센싱하여 거리를 인식하는 광 센서부(예컨대, 적외선 센서부, 레이저 센서부, 메이저 센서부 등), 지정된 파장의 전자파 신호나 무선주파수 신호 형태의 무선 신호를 송출하고 피사체의 의해 반사되는 무선 신호를 센싱하여 거리를 인식하는 무선 센서부, 지정된 주파수 대역의 음파 신호를 송출하고 피사체의 의해 반사되는 음파 신호를 센싱하여 거리를 인식하는 음파 센서부(예컨대, 초음파 센서부 등), 지정된 간격으로 이격된 두 개의 카메라 렌즈와 카메라모듈을 포함하는 듀얼 카메라(예컨대, 듀얼 카메라는 카메라 기능을 제공함과 동시에 거리인식을 위한 센서의 기능을 제공) 중 적어도 하나의 센서부를 포함할 수 있다. 그러나 본 발명의 거리인식 센서부(212)가 상기 예시된 센서부로 한정되는 것은 아니며, 당업자의 의도에 따라 거리인식에 사용 가능한 센서라면 모두 본 발명의 권리범위에 포함될 수 있음을 명백하게 밝혀두는 바이다.The distance recognition sensor unit 212 collectively refers to a function unit that recognizes a distance between a subject and a camera lens existing in the direction of the camera's sight line. Preferably, the distance recognition sensor unit 212 transmits an optical signal of a designated wavelength, senses an optical signal reflected by the subject, (For example, an infrared sensor unit, a laser sensor unit, a major sensor unit, etc.) for recognizing the distance, a radio signal in the form of an electromagnetic wave signal of a designated wavelength or a radio frequency signal is transmitted and a radio signal reflected by the subject is sensed A sound sensor unit (for example, an ultrasonic sensor unit or the like) for emitting a sound wave signal of a designated frequency band and sensing a sound wave signal reflected by the subject to recognize a distance, A dual camera (e.g., a dual camera that provides camera functionality and includes a camera module And at the same time providing a function of a sensor for distance recognition). However, the present invention is not limited to the above-described sensor unit, and it is obvious that any sensor that can be used for distance sensing according to the intention of a person skilled in the art can be included in the scope of the present invention.
본 발명의 실시 방법에 따르면, 상기 거리인식 센서부(212)는 지정된 센싱 방향과 센싱 범위를 지니며, 상기 거리인식 센서부(212)의 센싱 방향은 상기 카메라부(210)의 시선 방향과 동기화되고, 상기 거리인식 센서부(212)의 센싱 범위는 상기 카메라부(210)의 화각과 매칭되는 것이 바람직하다. 한편 실시 방법에 따라 상기 거리인식 센서부(212)는 센싱 방향을 카메라 시선 방향과 동기화한 상태에서 지정된 센싱 범위 내에서 센싱할 부분 영역(예컨대, 화상데이터 상의 특징 영역(예: 화상데이터 상의 영역 중 대비 값이 지정된 기준 값 이상인 영역), 화상데이터의 전체 영역이나 특정 영역을 복수의 영역으로 분할한 분할 영역 등)을 지정하여 거리를 센싱할 수 있으며, 이로써 카메라부(210)를 통해 촬영하는 피사체의 3차원 구조 중 카메라 시선 방향(또는 센싱 방향)의 3차원 구조를 센싱할 수 있다. According to the embodiment of the present invention, the distance sensing sensor unit 212 has a designated sensing direction and a sensing range, and the sensing direction of the distance sensing sensor unit 212 is synchronized with the sight line direction of the camera unit 210 And the sensing range of the distance recognition sensor unit 212 is matched with the angle of view of the camera unit 210. On the other hand, according to the embodiment, the distance sensing sensor unit 212 may detect the sensing area in a partial area (for example, a characteristic area on the image data The area where the contrast value is equal to or larger than the specified reference value), the entire area of the image data, or the divided area obtained by dividing the specific area into a plurality of areas) can be specified and the distance can be sensed. The three-dimensional structure of the camera's visual direction (or sensing direction) can be sensed.
상기 무선망 통신부(214)와 근거리망 통신부(216)는 상기 사용자 무선단말(200)을 지정된 통신망에 접속시키는 통신 자원의 총칭이다. 바람직하게, 상기 사용자 무선단말(200)은 무선망 통신부(214)를 기본 통신 자원으로 구비할 수 있으며, 하나 이상의 근거리망 통신부(216)를 구비할 수 있다.The wireless network communication unit 214 and the short-range network communication unit 216 are collectively referred to as communication resources for connecting the user wireless terminal 200 to a designated communication network. The user wireless terminal 200 may include a wireless network communication unit 214 as a basic communication resource and may include one or more short-range network communication unit 216.
상기 무선망 통신부(214)는 상기 사용자 무선단말(200)을 기지국을 경유하는 무선 통신망에 접속시키는 통신 자원의 총칭으로서, 특정 주파수 대역의 무선 주파수 신호를 송수신하는 안테나, RF모듈, 기저대역모듈, 신호처리모듈을 적어도 하나 포함하여 구성되며, 상기 제어부(202)와 연결되어 상기 제어부(202)의 각종 연산 결과 중 무선 통신에 대응하는 연산 결과를 무선 통신망을 통해 전송하거나 또는 무선 통신망을 통해 데이터를 수신하여 상기 제어부(202)로 전달함과 동시에, 상기 무선 통신의 접속, 등록, 통신, 핸드오프의 절차를 수행한다. 본 발명에 따르면, 상기 무선망 통신부(214)는 상기 사용자 무선단말(200)을 교환기를 경유하는 통화채널과 데이터채널을 포함하는 통화망에 연결할 수 있으며, 경우에 따라 상기 교환기를 경유하지 않고 패킷 통신 기반의 무선망 데이터 통신(예컨대, 인터넷)을 제공하는 데이터망에 연결할 수 있다.The wireless network communication unit 214 is a collective term for communication resources for connecting the user wireless terminal 200 to a wireless communication network via a base station. The wireless communication unit 214 includes an antenna, an RF module, a baseband module, And a signal processing module. The control unit 202 is connected to the control unit 202 and transmits the calculation result corresponding to the wireless communication among the various calculation results of the control unit 202 through the wireless communication network or transmits the data through the wireless communication network And transmits it to the control unit 202, and performs the connection, registration, communication, and handoff procedures of the wireless communication. According to the present invention, the wireless network communication unit 214 can connect the user wireless terminal 200 to a call network including a call channel and a data channel via the exchange, and in some cases, May be connected to a data network providing communication-based wireless network data communication (e.g., the Internet).
본 발명의 실시 방법에 따르면, 상기 무선망 통신부(214)는 CDMA/WCDMA/LTE 규격에 따라 이동 통신망에 접속, 위치등록, 호처리, 통화연결, 데이터통신, 핸드오프를 적어도 하나 수행하는 이동 통신 구성을 포함한다. 한편 당업자의 의도에 따라 상기 무선망 통신부(214)는 IEEE 802.16 관련 규격에 따라 휴대인터넷에 접속, 위치등록, 데이터통신, 핸드오프를 적어도 하나 수행하는 휴대 인터넷 통신 구성을 더 포함할 수 있으며, 상기 무선망 통신부(214)가 제공하는 무선 통신 구성에 의해 본 발명이 한정되지 아니함을 명백히 밝혀두는 바이다. 즉, 상기 무선망 통신부(214)는 무선 구간의 주파수 대역이나 통신망의 종류 또는 프로토콜에 무관하게 셀 기반의 기지국을 통해 무선 통신망에 접속하는 구성부의 총칭이다.According to an embodiment of the present invention, the wireless network communication unit 214 is a mobile communication unit that performs at least one of connection to a mobile communication network, location registration, call processing, call connection, data communication, and handoff according to the CDMA / WCDMA / ≪ / RTI > Meanwhile, according to the intention of a person skilled in the art, the wireless network communication unit 214 may further include a portable internet communication configuration for performing at least one of connection to the portable Internet, location registration, data communication and handoff according to the IEEE 802.16 standard, It is evident that the present invention is not limited by the wireless communication configuration provided by the wireless network communication unit 214. [ That is, the wireless network communication unit 214 is a general term for a configuration unit that accesses a wireless communication network through a cell-based base station irrespective of a frequency band of a wireless section, a type of a communication network, or a protocol.
상기 근거리망 통신부(216)는 일정 거리 이내(예컨대, 10m)에서 무선 주파수 신호를 통신매체로 이용하여 통신세션을 연결하고 이를 기반으로 상기 사용자 무선단말(200)을 통신망에 접속시키는 통신 자원의 총칭으로서, 바람직하게 와이파이 통신, 블루투스 통신, 공중무선 통신, UWB 중 적어도 하나를 통해 상기 사용자 무선단말(200)을 통신망에 접속시킬 수 있다. 본 발명에 따르면, 상기 근거리망 통신부(216)는 무선AP를 통해 상기 사용자 무선단말(200)을 패킷 통신 기반의 근거리 무선 데이터 통신을 제공하는 데이터망에 연결한다.The short-range network communication unit 216 connects a communication session using a radio frequency signal within a predetermined distance (for example, 10 m) as a communication medium, and collectively refers to a generic term of communication resources for connecting the user wireless terminal 200 to a communication network The user wireless terminal 200 can be connected to the communication network through at least one of Wi-Fi communication, Bluetooth communication, public wireless communication, and UWB. According to the present invention, the short-range network communication unit 216 connects the user wireless terminal 200 to a data network providing packet-based short-range wireless data communication through a wireless AP.
상기 USIM 리더부(218)는 ISO/IEC 7816 규격을 기반으로 상기 사용자 무선단말(200)에 탑재 또는 이탈착되는 범용가입자식별모듈(Universal Subscriber Identity Module)과 적어도 하나의 데이터셋트를 교환하는 구성의 총칭으로서, 상기 데이터셋트는 APDU(Application Protocol Data Unit)를 통해 반이중 통신 방식으로 교환된다.The USIM reader unit 218 includes a Universal Subscriber Identity Module (Universal Subscriber Identity Module) that is mounted or detached from the user wireless terminal 200 based on the ISO / IEC 7816 standard and a configuration in which at least one data set is exchanged As a generic term, the data set is exchanged in a half-duplex communication manner through an APDU (Application Protocol Data Unit).
상기 USIM은 상기 ISO/IEC 7816 규격에 따른 IC칩이 구비된 SIM 타입의 카드로서, 상기 USIM 리더부(218)와 연결되는 적어도 하나의 접점을 포함하는 입출력 인터페이스와, 적어도 하나의 IC칩용 프로그램코드와 데이터셋트를 저장하는 IC칩 메모리와, 상기 입출력 인터페이스와 연결되어 상기 사용자 무선단말(200)로부터 전달되는 적어도 하나의 명령에 따라 상기 IC칩용 프로그램코드를 연산하거나 상기 데이터셋트를 추출(또는 가공)하여 상기 입출력 인터페이스로 전달하는 프로세서를 포함하여 이루어진다.The USIM is an SIM type card provided with an IC chip according to the ISO / IEC 7816 standard, and includes an input / output interface including at least one contact connected to the USIM reader unit 218, (Or processing) a program code for the IC chip in accordance with at least one command transmitted from the user wireless terminal 200 and connected to the input / output interface, To the input / output interface.
상기 근거리 무선부(220)는 지정된 규격의 근거리 무선 통신을 처리하는 기능 구성부의 총칭으로서, 바람직하게 블루투스 통신, 와이파이 통신, 지그비 통신, UWB 통신, NFC, 근거리 RF 통신 중 적어도 하나의 근거리 무선 통신을 처리한다. 본 발명의 실시 방법에 따르면, 상기 근거리 무선부(220)는 상기 근거리망 통신부(216)와 통합된 형태로 실시되거나, 또는 상기 근거리망 통신부(216)와 다른 별개의 근거리 무선 통신을 위한 구성부로 실시(예컨대, 근거리망 통신부(216)가 와이파이 통신을 제공하는 경우 근거리 무선부(220)는 블루투스 통신을 제공함)될 수 있으며, 이에 의해 본 발명이 한정되지 아니한다.The short-range wireless unit 220 is a collective term for a functional unit for processing short-range wireless communication of a specified standard, and preferably performs at least one short-range wireless communication among Bluetooth communication, Wi-Fi communication, Zigbee communication, UWB communication, NFC, . According to an embodiment of the present invention, the short range wireless unit 220 may be integrated with the short range wireless communication unit 216, or may be a separate short range wireless communication unit other than the short range wireless communication unit 216 (For example, when the short-range network communication unit 216 provides Wi-Fi communication, the short-range wireless unit 220 provides Bluetooth communication), and thus the present invention is not limited thereto.
본 발명의 실시 방법에 따르면, 상기 근거리 무선부(220)는 사용자 무선단말(200)의 근거리에 존재하는 화장 제작장치(175) 중 적어도 하나의 화장 제작장치(175)와 근거리 무선 통신을 처리할 수 있다.According to the embodiment of the present invention, the short range wireless unit 220 processes short range wireless communication with at least one cosmetic production apparatus 175 among the cosmetic production apparatuses 175 existing near the user wireless terminal 200 .
상기 사용자 무선단말(200)의 제어부(202)는 상기 통신 자원이 접속 가능한 데이터망을 통해 지정된 앱제공서버(예컨대, 애플사의 앱스토어 등)로부터 본 발명의 앱(230)을 다운로드하여 설치하는 과정을 수행한다. 한편 상기 사용자 무선단말(200)에 다운로드 설치된 앱(230)은 설치 후 최초 실행(또는 정보 등록 전 실행) 시 상기 사용자 무선단말(200)과 앱(230)의 조합(또는 상기 앱(230)을 설치한 사용자 무선단말(200), 또는 상기 사용자 무선단말(200)에 설치된 앱(230))을 고유한 매체로 식별하는 매체식별정보(예컨대, 디바이스토큰, UUID 등)를 생성하거나 지정된 서버를 통해 할당받는 절차를 수행하며, 상기 사용자 무선단말(200)과 앱(230)의 조합을 고유한 매체로 고유 식별하는 매체식별정보를 지정된 운영서버(100)에 등록하는 절차를 수행할 수 있다. 한편 상기 사용자 무선단말(200)의 앱(230)은 상기 사용자 무선단말(200)을 고유 식별하는 무선단말정보(예컨대, 전화번호, IMSI, IMEI 등)를 지정된 운영서버(100)에 등록하는 절차를 수행할 수 있으며, 이 경우 상기 운영서버(100)는 상기 매체식별정보와 상기 무선단말정보를 연계 저장하여 관리할 수 있다. 한편 상기 사용자 무선단말(200)의 앱(230)은 상기 앱(230)을 설치한 사용자 무선단말(200)의 사용자를 고유 식별하는 사용자 정보(예컨대, 고유ID, 성명, 생년월일 등)를 등록하는 절차를 수행할 수 있으며, 이 경우 상기 운영서버(100)는 상기 매체식별정보와 상기 사용자 정보를 연계 저장하여 관리할 수 있다.The control unit 202 of the user wireless terminal 200 downloads and installs the
도면2를 참조하면, 상기 사용자 무선단말(200)의 앱(230)은, 상기 카메라부(210)를 통해 카메라 시선 방향의 지정된 화각 내에 존재하는 피사체를 촬영한 영상데이터를 입력받아 처리하는 절차를 수행하는 영상 처리부(235)와, 상기 입력되는 영상데이터에 포함된 하나 이상의 화상데이터를 판독하여 화장이 적용될 사용자 안면 영역을 인식하는 인식 처리부(240)와, 상기 인식된 안면 영역에 형성된 사용자 안면의 기하학 구조를 해석한 사용자 안면 기하학 구조 정보를 생성하는 구조 생성부(245)와, 상기 안면 영역에 형성된 사용자 안면의 기하학 구조에 대한 현실세계와 일대일 축적의 사용자 안면 둘레 길이범위를 포함하는 사용자 안면 수치 정보를 결정하는 수치 결정부(250)와, 상기 사용자 안면 기하학 구조 정보와 사용자 안면 수치 정보를 지정된 운영서버(100)로 전송하는 정보 전송부(255)를 구비하며, 상기 카메라부(210)를 통해 입력되는 영상데이터에 존재하는 사용자의 안면 영역을 실시간 인식하기 위한 사용자 안면 기하학 구조 정보를 저장하여 관리하는 정보 관리부(260)를 구비한다. Referring to FIG. 2, the
상기 영상 처리부(235)는 상기 카메라부(210)를 통해 카메라 시선 방향의 지정된 화각 내에 존재하는 피사체를 촬영한 영상데이터를 입력받아 지정된 버퍼링영역에 버퍼링한다. 한편 상기 운영서버(100)에서 상기 영상데이터에 포함된 하나 이상의 화상데이터를 판독하여 화장을 적용할 사용자 안면 영역을 인식하는 과정을 수행하는 경우, 상기 영상 처리부(235)는 상기 영상데이터를 상기 운영서버(100)로 전송할 수 있으며, 이 경우 상기 운영서버(100)는 상기 사용자 무선단말(200)의 앱(230)으로부터 상기 영상데이터를 수신하여 버퍼링할 수 있다. The image processing unit 235 receives image data of a subject existing within a specified angle of view in the direction of the camera line through the camera unit 210 and buffers the image data in a designated buffering area. Meanwhile, in the case where the operation server 100 reads one or more image data included in the image data and recognizes a user's facial region to which makeup is to be applied, the image processing unit 235 performs the operation The operation server 100 can receive the image data from the
상기 인식 처리부(240)는 상기 영상 처리부(235)를 통해 카메라부(210)로부터 입력되어 버퍼링되는 영상데이터에 포함된 하나 이상의 화상데이터를 선별하고 지정된 패턴인식알고리즘에 적용하여 상기 카메라부(210)를 통해 촬영한 피사체 중 화장을 적용할 사용자 안면에 대응하는 피사체를 식별하고, 상기 식별된 사용자 안면 영역을 인식한다. 한편 실시 방법에 따라 상기 운영서버(100)로 상기 영상데이터가 전송된 경우, 상기 사용자 안면 영역은 상기 운영서버(100)를 통해 인식될 수 있다.The recognition processing unit 240 selects one or more image data included in the image data buffered by the camera unit 210 through the image processing unit 235 and applies the selected image data to a designated pattern recognition algorithm to determine whether the camera unit 210 And recognizes the identified user's face area. The user recognizes the user's face area corresponding to the user's face to which the makeup is applied. Meanwhile, when the image data is transmitted to the operation server 100 according to an embodiment of the present invention, the user facial area can be recognized through the operation server 100.
본 발명의 다른 실시 방법에 따르면, 상기 인식 처리부(240)는 상기 인식한 안면 영역에 대응하는 화상데이터를 포함하는 안면 영역 데이터를 상기 운영서버(100)로 전송할 수 있으며, 이 경우 상기 운영서버(100)는 상기 안면 영역 데이터를 수신할 수 있다. According to another embodiment of the present invention, the recognition processor 240 may transmit facial region data including image data corresponding to the recognized facial region to the operation server 100. In this case, 100 may receive the facial region data.
상기 구조 생성부(245)는 상기 인식된 안면 영역에 대응하는 화상데이터를 포함하는 안면 영역 데이터에 지정된 패턴인식알고리즘을 적용하여 이마 크기 정보, 관자놀이 크기 정보, 눈썹 크기 정보, 속눈썹 크기 정보, 코 크기 정보, 볼(또는 뺨) 크기 정보, 광대뼈 크기 정보, 입 크기 정보, 입술 크기 정보, 턱 크기 정보, 이마 곡률 정보, 관자놀이 곡률 정보, 눈썹 곡률 정보, 속눈썹 곡률 정보, 코 곡률 정보, 볼(또는 뺨) 곡률 정보, 광대뼈 곡률 정보, 입 곡률 정보, 입술 곡률 정보, 턱 곡률 정보 중 하나 이상(예컨대, 적어도 하나 또는 둘 이상의 조합)의 정보를 포함하는 사용자 안면 기하학 구조 정보를 생성할 수 있다.The structure generation unit 245 applies the pattern recognition algorithm specified in the facial region data including the image data corresponding to the recognized facial region to extract forehead size information, temple size information, eyebrow size information, eyelash size information, (Or cheek) size information, cheekbone size information, mouth size information, lip size information, jaw size information, forehead curvature information, temple curvature information, eyebrow curvature information, eyelash curvature information, (E.g., at least one or two or more combinations) of the curvature information, the curvature information of the zygote bone, the curvature information of the mouth, the curvature information of the lip, and the curvature information of the jaw.
본 발명의 실시 방법에 따르면, 상기 크기 정보는, 사용자 안면 영역의 사용자 안면 기하학 구조를 판별하기 위해 설정된 좌표계 상의 좌표 거리 정보를 포함할 수 있고, 상기 곡률 정보는, 사용자 안면 영역의 사용자 안면 기하학 구조를 판별하기 위해 설정된 좌표계 상의 좌표 곡률 정보를 포함할 수 있다.According to an embodiment of the present invention, the size information may include coordinate distance information on a coordinate system set for discriminating a user's facial geometry of a user's facial region, and the curvature information includes a user's facial geometry structure And the coordinate curvature information on the coordinate system set to identify the curvature information.
본 발명의 실시 방법에 따르면, 곡률 정보는, 화상데이터에 포함된 사용자 안면의 그라데이션 정보와 사용자 안면에 대한 해부학적 통계 정보를 근거로 산출될 수 있다.According to the method of the present invention, the curvature information can be calculated based on the gradation information of the user's face included in the image data and the anatomical statistical information on the user's face.
한편 상기 사용자 안면 기하학 구조 정보에 포함되는 기하학 구조 정보를 해석하는 좌표계는 특정한 좌표계로 한정되는 것은 아니며, 다만 상기 사용자 안면의 기하학 구조 정보에 포함되는 기하학 구조 정보는 현실세계의 도량형에 따른 단위의 기하학 구조 정보를 포함하지 않더라도 무방함을 의미한다.Meanwhile, the coordinate system for interpreting the geometric structure information included in the user facial geometry information is not limited to a specific coordinate system. However, the geometric structure information included in the geometric structure information of the user's face may be a unit geometry It does not include structural information, which means that it is not feasible.
한편 상기 사용자 무선단말(200)은 카메라 시선 방향에 존재하는 피사체와 카메라 렌즈 사이의 거리를 인식하는 거리인식 센서부(212)(예컨대, 지정된 파장의 광 신호를 송출하고 피사체에 의해 반사되는 광 신호를 센싱하여 거리를 인식하는 광 센서부(예: 적외선 센서부, 레이저 센서부, 메이저 센서부 등), 지정된 파장의 전자파 신호나 무선주파수 신호 형태의 무선 신호를 송출하고 피사체의 의해 반사되는 무선 신호를 센싱하여 거리를 인식하는 무선 센서부, 지정된 주파수 대역의 음파 신호를 송출하고 피사체의 의해 반사되는 음파 신호를 센싱하여 거리를 인식하는 음파 센서부(예: 초음파 센서부 등), 지정된 간격으로 이격된 두 개의 카메라 렌즈와 카메라모듈을 포함하는 듀얼 카메라 등)를 구비할 수 있다.Meanwhile, the user wireless terminal 200 includes a distance recognition sensor unit 212 for recognizing a distance between the subject and the camera lens in the direction of the camera line-of-sight (e.g., an optical signal of a specified wavelength, (For example, an infrared sensor unit, a laser sensor unit, a major sensor unit, and the like) for recognizing a distance by sensing a distance between a subject and a subject, a radio signal of a designated wavelength or a radio frequency signal, A sound sensor unit (for example, an ultrasonic sensor unit) that transmits a sound wave signal of a designated frequency band and senses a sound wave signal reflected by the subject to recognize a distance, A dual camera including two camera lenses and a camera module).
본 발명의 실시 방법에 따르면, 상기 구조 생성부(245)가 상기 사용자 안면의 기하학 구조를 해석하여 생성한 사용자 안면 기하학 구조 정보는 사용자의 실제 안면의 수치를 반영하지 못할 수 있다. 본 발명은 단순히 가상의 화장 데이터를 생성하는 것 뿐만아니라, 사용자의 실제 안면에 적용할 사용자 전용 화장을 디자인하거나 판정하는 구성까지 포함하므로, 사용자의 실제 안면의 수치 정보를 획득해야 한다.According to the embodiment of the present invention, the user's facial geometry information generated by the structure generator 245 by analyzing the geometry of the user's face may not reflect the actual face of the user. The present invention includes not only the construction of virtual make-up data but also the construction for designing or determining a user-specific makeup to be applied to the actual face of the user, so that numerical information of the actual face of the user must be acquired.
본 발명에 따르면, 각 사용자 별로 사용자 안면의 기하학 구조나 수치는 각각의 사용자 별로 모두 상이할 수 있으며, 특정한 사용자의 사용자 전용 화장을 3D 모델링하기 위해 사용자 안면의 기하학 구조를 인식함과 동시에 사용자 안면의 기하학 구조에 대한 현실세계와 일대일 축적의 사용자 안면 수치 정보를 결정하는 과정을 거칠 수 있다.According to the present invention, the geometric structure or numerical value of the user's face for each user can be different for each user. In order to model the user-specific makeup of a specific user, the geometric structure of the user's face is recognized, The user can go through the process of determining the user facial numerical information of the real world and the one-to-one accumulation of the geometric structure.
본 발명의 실시 방법에 따르면, 상기 사용자 안면 기하학 구조 정보는 지정된 좌표계 상에서 좌표 값으로 해석 가능한 벡터 정보를 적어도 일부 포함하고 있으므로, 사용자 안면의 기하학 구조 상에서 거리 산출을 위해 특정 가능한 둘 이상의 특징 점을 결정하여 상기 특징 점 간의 거리를 현실세계와 일대일 축적으로 결정하는 과정을 통해 상기 사용자 안면 기하학 구조 정보를 사용자의 실제 안면의 수치와 일대일 매칭되는 사용자 안면 전용의 기하학 구조 정보로 이용할 수 있다.According to the embodiment of the present invention, since the user's facial geometry information includes at least a part of vector information that can be interpreted as a coordinate value on a specified coordinate system, it is possible to determine two or more characteristic points that can be specified for distance calculation on the geometric structure of the user's face The user facial geometry structure information can be used as geometry structure information for user facial exclusively matching one-to-one with the actual facial face of the user through a process of determining the distance between the feature points as one-to-one accumulation with the real world.
본 발명의 실시 방법에 따르면, 상기 사용자 무선단말(200)의 앱(230)은 사용자 안면의 기하학 구조에 대한 현실세계와 일대일 축적의 사용자 안면 수치 정보를 결정하기 위해 카메라부(210)를 통해 사용자 안면을 촬영하는 시점부터 사용자 안면의 수치를 결정할 수 있는 방식으로 촬영하도록 처리하는 것이 바람직하다.According to an embodiment of the present invention, the
본 발명의 제1 수치 결정 실시예에 따르면, 상기 영상 처리부(235)는 상기 사용자 무선단말(200)에 구비된 카메라부(210)의 자동초점 촬영 상태에서 지정된 방향의 사용자 안면을 촬영하도록 제어(또는 설정)할 수 있으며, 이 경우 상기 인식 처리부(240)는 카메라부(210)의 자동초점 촬영 상태에서 입력된 화상데이터를 판독하여 화장을 적용할 사용자 안면 영역을 인식할 수 있다. According to the first numerical value determination method of the present invention, the image processing unit 235 controls the camera 210 to photograph the user's face in the designated direction in the automatic focus photographing state of the camera unit 210 provided in the user wireless terminal 200 In this case, the recognition processing unit 240 can recognize the user's face area to which the makeup is applied by reading the image data inputted in the auto-focus photographing state of the camera unit 210. [
한편 본 발명의 제1 수치 결정 실시예에서 상기 수치 결정부(250)는 상기 구조 생성부(245)를 통해 생성된 사용자 안면 기하학 구조 정보 상에서 거리 산출을 위해 특정 가능한 둘 이상의 특징 점을 결정하고, 상기 카메라부(210)의 자동초점 과정에서 자동 결정된 초점거리와 상기 화상데이터 상의 둘 이상 특정 점 간 픽셀 거리와 상기 무선단말(200)에 구비된 카메라 스펙 정보 중 하나 이상의 정보를 지정된 산출식의 입력값으로 대입하여 상기 결정된 둘 이상의 특정 점 간 거리를 현실세계와 일대일 축적의 수치 정보로 산출할 수 있다. 예를들어, '초점거리(f)=[카메라 렌즈와 피사체 사이의 식별거리(L)×이미지크기(V)] / [피사체높이(H)]'의 산출식으로 산출될 수 있는데, 위 산출식에서 초점거리(f)는 카메라부(210)의 자동초점 과정에서 자동 결정되고 안면 영역에 대한 이미지크기(V)는 상기 화상데이터 상의 둘 이상 특정 점 간 픽셀 거리와 상기 무선단말(200)에 구비된 카메라 스펙 정보 중 하나 이상의 정보를 이용하여 도출 가능하므로, 카메라 렌즈와 피사체 사이의 식별거리(L)만 도출하면 사용자 안면 기하학 구조 정보 상의 특정 점 간 거리(=피사체높이(H))를 현실세계와 일대일 축적의 수치 정보로 산출할 수 있다. Meanwhile, in the first numerical determination example of the present invention, the numerical value determination unit 250 determines two or more feature points that can be specified for distance calculation on the user facial geometry structure information generated through the structure generation unit 245, The information on at least one of the focal distance automatically determined in the auto focusing process of the camera unit 210 and the pixel distance between two or more specific points on the image data and the camera specification information provided in the wireless terminal 200, And the calculated distance between two or more specific points can be calculated as numerical information of the one-to-one accumulation with the real world. For example, the focal length f can be calculated as an expression of [an identification distance L between the camera lens and the subject x image size V] / [subject height H] ', The focal length f is automatically determined in the auto focus process of the camera unit 210 and the image size V for the facial area is determined by the pixel distance between two or more specific points on the image data, Therefore, if only the identification distance L between the camera lens and the subject is deduced, the distance between the specific point on the user's facial geometry information (= the subject height H) And one-to-one accumulation.
본 발명의 실시 방법에 따르면, 상기 영상 처리부(235)는 카메라 촬영 인터페이스를 통해 상기 카메라 렌즈와 상기 사용자 안면의 각 부분 사이의 거리가 지정된 식별거리(예컨대, 10cm, 15cm, 20cm 등)를 유지하여 촬영하도록 유도하며, 상기 촬영 유도된 식별거리를 상기 산출식의 입력값에 포함시켜 상기 결정된 둘 이상의 특징 점 간 거리를 현실세계와 일대일 축적의 수치 정보로 산출할 수 있다. 다만 본 발명의 실시 방법에 따르면, 상기 영상 처리부(235)가 상기 카메라 렌즈와 사용자 안면의 각 부분 사이의 거리를 지정된 식별거리로 유지하여 촬영하도록 유도하더라도, 상기 유도된 식별거리와 실제 식별거리 사이에는 오차가 발생하며, 이에 상기 수치 결정부(250)는 상기 유도된 식별거리를 이용하여 상기 특징 점 간 거리를 현실세계와 일대일 축적의 수치 정보로 산출하되, 상기 유도된 식별거리의 전/후 일정 범위의 거리에 대한 하나 이상의 식별거리를 더 이용하여 복수의 특징 점 간 거리를 현실세계와 일대일 축적의 수치 정보로 산출한 후 이 중에서 사용자 안면의 실제 특징 점 간 거리와 매칭되는 거리를 확률적으로 결정하거나 또는 상기 산출된 복수의 특징 점 간 거리를 통계 처리하여 현실세계와 일대일 축적의 수치 정보를 산출할 수 있다. According to the embodiment of the present invention, the image processing unit 235 maintains a predetermined distance (for example, 10 cm, 15 cm, 20 cm, etc.) between the camera lens and each part of the user's face through a camera photographing interface The distance between the two or more determined feature points may be calculated as numerical information of the one-to-one accumulation with the real world by including the image-derived identification distance in the input value of the calculation formula. However, according to the embodiment of the present invention, even if the image processing section 235 induces the distance between the camera lens and each part of the user's face to be maintained at a specified distance, The numerical value determination unit 250 calculates the distance between the feature points as numerical information of the one-to-one accumulation with the real world using the derived identification distance, The distance between a plurality of characteristic points is calculated as numerical information of the real world and one-to-one accumulation by further using one or more identification distances for a certain range of distances, and then the distance matched with the actual characteristic point distances of the user's face is calculated as stochastic Or the calculated distance between the plurality of characteristic points is statistically processed to calculate the numerical information of the one-to-one accumulation with the real world There.
본 발명의 제2 수치 결정 실시예에 따르면, 상기 영상 처리부(235)는 지정된 촬영모드 상태(예컨대, 자동초점 촬영 상태 등)에서 사용자 안면을 촬영하도록 유도한다. 상기 수치 결정부(250)는 상기 구조 생성부(245)를 통해 생성된 사용자 안면 기하학 구조 정보 상에서 거리 산출을 위해 특정 가능한 둘 이상의 특징 점을 결정한다. 한편 상기 영상 처리부(235)는 상기 사용자 안면을 촬영하기 전 또는 후에 현실세계의 길이를 재는 도구(예컨대, 자)를 이용하여 상기 결정된 둘 이상의 특징 점 간의 거리를 잰 수치 정보를 입력하도록 처리할 수 있으며, 상기 수치 결정부(250)는 상기 입력된 수치 정보를 상기 사용자 안면의 기하학 구조에 대한 현실세계와 일대일 축적의 사용자 안면 수치 정보로 결정할 수 있다.According to the second numerical value determination embodiment of the present invention, the image processing section 235 guides the user to photograph the user's face in a specified photographing mode state (e.g., auto-focus photographing state, etc.). The numerical value determining unit 250 determines two or more feature points that can be specified for distance calculation on the user's facial geometry information generated through the structure generating unit 245. Meanwhile, the image processing unit 235 can process the user's face to input numerical information indicating the distance between two or more determined feature points using a tool (e.g., a ruler) for determining the length of the real world before or after photographing the user's face And the numerical value determining unit 250 may determine the input numerical information as the user facial numeral information of the one-to-one accumulation with the real world of the geometry of the user's face.
본 발명의 제3 수치 결정 실시예에 따르면, 상기 영상 처리부(235)는 지정된 촬영모드 상태(예컨대, 자동초점 촬영 상태 등)에서 사용자 안면을 촬영하도록 유도하되, 상기 사용자 안면 근처에 현실세계의 길이를 재는 도구를 구비한 후 상기 사용자 안면과 길이를 재는 도구(예컨대, 자)를 함께 촬영하도록 유도한다. 바람직하게, 상기 영상 처리부(235)는 상기 길이를 재는 도구의 눈금과 수치가 카메라부(210)의 화각 내에 포함되어 화상데이터 상에 존재하도록 촬영 유도하는 것이 바람직하다.According to the third numerical value determination embodiment of the present invention, the image processing unit 235 is configured to guide the user to photograph the user's face in a specified photographing mode state (e.g., auto-focus photographing state or the like) (E.g., a ruler) measuring the length of the user's face. Preferably, the image processing unit 235 captures images such that the scale and the numerical value of the tool for determining the length are included in the angle of view of the camera unit 210 and exist on the image data.
한편 본 발명의 제3 수치 결정 실시예에서 상기 카메라부(210)를 통해 촬영된 화상데이터 상에 사용자 안면과 길이를 재는 도구(예컨대, 도구의 눈금과 수치 등)학 함께 포함된 경우, 상기 수치 결정부(250)는 상기 사용자 안면 기하학 구조 상에서 거리 산출을 위해 특정 가능한 둘 이상의 특징 점을 결정한다. 상기 수치 결정부(250)는 지정된 패턴인식알고리즘을 통해 상기 화상데이터 상에 존재하는 현실세계의 길이를 재는 도구를 인식함과 동시에 상기 길이를 재는 도구에 표시된 눈금과 수치값을 인식하고, 이를 기반으로 상기 화상데이터 상의 길이를 재는 도구의 눈금 간 현실세계의 수치 거리와 화상데이터 상의 픽셀 거리의 관계를 인식한다. 예를들어, 상기 수치 결정부(250)는 상기 화상데이터 상의 픽셀 거리 200 픽셀은 현실세계 10mm에 해당한다는 것과 형태의 관계를 인식할 수 있다. 만약 상기 화상데이터 상의 길이를 재는 도구의 눈금 간 현실세계의 수치 거리와 화상데이터 상의 픽셀 거리의 관계가 인식되면, 상기 수치 결정부(250)는 상기 인식된 도구의 눈금 간 수치 거리와 픽셀 거리의 관계(예컨대, 비율)를 통해 상기 결정된 둘 이상의 특징 점 간의 픽셀 거리를 판독하여 상기 둘 이상의 특징 점 간 거리를 현실세계와 일대일 축적의 수치 정보로 산출할 수 있다.On the other hand, in the third numerical determination example of the present invention, when a tool for measuring the user's face and length (for example, a scale and a numerical value of a tool) is included on the image data photographed through the camera unit 210, The determining unit 250 determines two or more feature points that can be specified for distance calculation on the user's facial geometry. The numerical value determining unit 250 recognizes a tool for determining the length of the real world existing on the image data through a specified pattern recognition algorithm and recognizes the scale and numerical value displayed on the tool for determining the length, Recognizes the relationship between the numerical distance of the real world and the pixel distance on the image data between the scale of the tool that measures the length of the image data. For example, the numerical value determining unit 250 can recognize that the pixel distance of 200 pixels on the image data corresponds to the real world 10 mm and the relationship of the shape. If the relationship between the numerical distance of the real world and the pixel distance on the image data is recognized, the numerical value determining unit 250 determines the numerical distance between the graduated tool and the pixel distance The pixel distances between the two or more determined feature points may be read through a relation (for example, a ratio) to calculate the distance between the two or more feature points as numerical information of the one-to-one accumulation with the real world.
본 발명의 제4 수치 결정 실시예에 따르면, 사용자 무선단말(200)은 카메라 시선 방향에 존재하는 피사체와 카메라 렌즈 사이의 거리를 인식하는 거리인식 센서부(212)를 구비할 수 있으며, 이 경우 상기 수치 결정부(250)는 상기 사용자 안면 기하학 구조 상에서 거리 산출을 위해 특정 가능한 둘 이상의 특징 점을 결정하고, 상기 거리인식 센서부(212)를 통해 상기 카메라 렌즈와 상기 사용자 안면의 각 부분 사이의 식별거리를 센싱하거나 상기 거리인식 센서부(212)를 센싱된 상기 카메라 렌즈와 상기 사용자 안면의 각 부분 사이의 식별거리를 확인하고, 상기 거리인식 센서부(212)를 통해 확인된 식별거리를 지정된 산출식의 입력값으로 대입하여 상기 결정된 둘 이상의 특징 점 간 거리를 현실세계와 일대일 축적의 수치 정보로 산출할 수 있다.According to the fourth numerical value determination embodiment of the present invention, the user wireless terminal 200 may include a distance recognition sensor unit 212 for recognizing a distance between a subject and a camera lens existing in the direction of the camera's eyesight, The numerical value determination unit 250 determines two or more characteristic points that can be specified for distance calculation on the user's facial geometry structure and determines the distance between the camera lens and each part of the user's face through the distance recognition sensor unit 212 The identification distance is sensed or the distance recognition sensor unit 212 checks the identification distance between each part of the camera lens and the user's face sensed and the identification distance identified through the distance recognition sensor unit 212 is designated It is possible to calculate the distance between two or more characteristic points determined as the input values of the calculation formula as the numerical information of the one-to-one accumulation with the real world.
본 발명의 실시 방법에 따르면, 상기 인식 처리부(240)는 상기 카메라부(210)의 자동초점 촬영 상태에서 입력된 화상데이터를 판독하여 화장을 적용할 사용자 안면 영역을 인식할 수 있으며, 상기 수치 결정부(250)는 상기 카메라부(210)의 자동초점 과정에서 자동 결정된 초점거리와 상기 화상데이터 상의 둘 이상 특정 점 간 픽셀 거리와 상기 무선단말(200)에 구비된 카메라 스펙 정보 중 하나 이상의 정보를 상기 산출식의 입력값에 포함시켜 상기 결정된 둘 이상의 특정 점 간 거리를 현실세계와 일대일 축적의 수치 정보로 산출할 수 있다.According to the embodiment of the present invention, the recognition processing unit 240 can recognize the user's face area to which the makeup is applied by reading the image data input in the automatic focus photographing state of the camera unit 210, The controller 250 may determine at least one of a pixel distance between a focal distance automatically determined in the auto focus process of the camera unit 210 and two or more specific points on the image data and camera specification information included in the wireless terminal 200 It is possible to calculate the distance between two or more specified points included in the input value of the calculation formula as the numerical information of the one-to-one accumulation with the real world.
본 발명의 제5 수치 결정 실시예에 따르면, 상기 수치 결정부(250)는 상기 제1 내지 제4 수치 결정 실시예 중 적어도 둘 이상의 실시예를 적어도 부분적으로 조합한 형태로 사용자 안면 기하학 구조 상에서 결정된 둘 이상의 특정 점 간 거리를 현실세계와 일대일 축적의 수치 정보로 결정할 수 있으며, 이에 의해 본 발명이 한정되지 아니한다.According to the fifth numerical value determination embodiment of the present invention, the numerical value determination unit 250 determines the numerical value of the numerical value determined in the user facial geometry structure in a form of at least partially combining at least two of the first through fourth numerical value determination examples The distance between two or more specific points can be determined as the numerical information of the one-to-one accumulation with the real world, and thus the present invention is not limited thereto.
본 발명의 실시 방법에 따르면, 상기 수치 결정부(250)는 상기 제1 내지 제5 수치 결정 실시예 중 적어도 하나의 실시예에 따라 사용자 안면 기하학 구조 상의 지정된 특정 점 간 거리를 현실세계와 일대일 축적의 수치 정보로 산출함과 동시에, 현실세계와 일대일 축적의 사용자 안면 둘레 길이 범위정보를 산출할 수 있다. 바람직하게, 상기 수치 결정부(250)는 상기 사용자 안면 기하학 구조 정보에 대응하여 산출된 하나 이상의 수치 정보와 상기 사용자 안면 기하학 구조를 근거로 지정된 오차 범위 내에서 현실세계와 일대일 축적의 사용자 안면 둘레 길이 범위정보를 산출할 수 있다. 상기 사용자 안면 수치 정보는 상기 산출된 사용자 안면 둘레 길이 범위정보를 포함한다. 한편 본 발명의 다른 실시 방법에 따르면, 상기 수치 결정부(250)는 사용자가 줄자로 자신의 안면 둘레 길이를 잰 수치 형태로 상기 사용자 안면 둘레 길이 범위정보를 입력받을 수 있으며, 이에 의해 본 발명이 한정되지 아니한다.According to the method of the present invention, the numerical value determination unit 250 may calculate the specified specific point distance on the user's facial geometry structure according to at least one of the first through fifth numerical values, And the user's face circumference length range information of one-to-one accumulation with the real world can be calculated. Preferably, the numerical value determining unit 250 may determine one or more numerical values calculated corresponding to the user's facial geometry structure information and a user's facial circumference length of one-to-one accumulation within a specified error range based on the user's facial geometry structure The range information can be calculated. The user facial numeral information includes the calculated user facial circumference length range information. Meanwhile, according to another embodiment of the present invention, the numerical value determining unit 250 may receive the user's face circumference length range information in a numerical form in which the user measures the circumference length of the user's face, It is not limited.
한편 상기 수치 결정부(250)를 통해 상기 제1 내지 제5 수치 결정 실시예 중 적어도 하나의 실시예에 따라 사용자 안면 기하학 구조 상의 지정된 특정 점 간 거리를 현실세계와 일대일 축적의 수치 정보로 포함하는 사용자 안면 수치 정보를 결정한 경우, 상기 정보 전송부(255)는 상기 사용자 안면 수치 정보를 운영서버(100)로 전송할 수 있으며, 상기 운영서버(100)는 상기 사용자 안면의 기하학 구조에 대한 현실세계와 일대일 축적의 사용자 안면 수치 정보를 수신할 수 있다.Meanwhile, through the numerical value determining unit 250, the specified specific point distance on the user's facial geometry structure according to at least one of the first to fifth numerical values is included as numerical information of the real world and one-to-one accumulation When the user facial numerical value information is determined, the information transmitting unit 255 may transmit the facial numerical value information to the operation server 100, and the operation server 100 may transmit the facial numerical value information to the real world of the user facial geometry One-to-one accumulation of user facial numerical information.
본 발명의 실시 방법에 따르면, 상기 구조 생성부(245)를 통해 사용자 안면 기하학 구조 정보가 생성된 경우, 상기 정보 관리부(260)는 상기 사용자 안면 기하학 구조 정보를 사용자 무선단말(200)의 지정된 저장영역에 저장하여 관리할 수 있으며, 이 경우 상기 사용자 안면 기하학 구조 정보는 상기 사용자 무선단말(200)의 카메라부(210)를 통해 입력되는 영상데이터에 포함된 화상데이터를 판독하여 상기 영상데이터에 존재하는 사용자의 안면 영역을 실시간 인식하기 위한 사용자 전용 안면인식정보로 사용될 수 있다. 한편 상기 수치 결정부(250)를 통해 사용자 안면 수치 정보를 결정한 경우, 상기 정보 관리부(260)는 상기 사용자 안면 기하학 구조 정보와 상기 사용자 안면 수치 정보를 연계하여 지정된 저장영역에 저장하여 관리할 수 있으며, 이 경우 상기 사용자 안면 기하학 구조 정보와 사용자 안면 수치 정보는 상기 사용자 무선단말(200)의 카메라부(210)를 통해 입력되는 영상데이터에 포함된 화상데이터를 판독하여 상기 영상데이터에 존재하는 사용자의 안면 영역을 실시간 인식하기 위한 사용자 전용 안면인식정보로 사용될 수 있다. According to the embodiment of the present invention, when the user's facial geometry information is generated through the structure generator 245, the information manager 260 stores the user's facial geometry information in the designated storage area of the user wireless terminal 200 In this case, the user's facial geometry structure information may include image data included in the image data input through the camera unit 210 of the user wireless terminal 200, and may be stored in the image data. Can be used as user-specific facial recognition information for real-time recognition of the user's facial area. Meanwhile, when the user facial numerical value information is determined through the numerical value determining unit 250, the information managing unit 260 may associate the facial geometry information with the user facial numerical information and store the user facial geometric information in a designated storage area, In this case, the user's facial geometry structure information and the user's facial numerical value information are obtained by reading the image data included in the image data input through the camera unit 210 of the user wireless terminal 200, Can be used as user-specific facial recognition information for real-time recognition of the facial region.
도면2를 참조하면, 상기 사용자 무선단말(200)의 앱(230)은, 상기 운영서버(100)에서 상기 사용자 안면 기하학 구조 정보와 일대일 축적의 사용자 안면 수치 정보를 통해 사용자의 실제 안면과 일대일 매칭되는 사용자 전용 화장 데이터를 확인하여 전송하면 상기 사용자 전용 화장 데이터를 수신하여 저장하거나 출력하는 데이터 처리부(265)를 구비하며, 상기 운영서버(100)에서 상기 사용자 안면 기하학 구조 정보를 제공하면 상기 사용자 안면 기하학 구조 정보를 수신하여 지정된 저장영역에 저장 관리하거나, 및/또는 상기 운영서버(100)에서 상기 사용자 안면 기하학 구조 정보에 대응하는 사용자 안면 수치 정보를 제공하면 상기 사용자 안면 수치 정보를 수신하고 상기 사용자 안면 기하학 구조 정보와 연계하여 지정된 저장영역에 저장 관리하는 정보 관리부(260)를 구비한다.Referring to FIG. 2, the
상기 운영서버(100)는 사용자 무선단말(200)의 앱(230)으로부터 상기 사용자 안면 기하학 구조 정보와 사용자 안면 수치 정보를 수신하거나 및/또는 상기 사용자 무선단말(200)의 앱(230)으로부터 수신된 영상데이터를 근거로 사용자 안면 기하학 구조 정보와 사용자 안면 수치 정보를 생성/결정한 후, 상기 사용자 안면 기하학 구조 정보와 일대일 축적의 사용자 안면 둘레 길이범위를 포함하는 사용자 안면 수치 정보를 이용하여 사용자의 실제 안면 영역에 적용 가능하며 사용자의 안면 둘레 길이에 매칭되는 사용자 전용 화장의 3D 모델링 데이터를 생성하고, 상기 사용자의 실제 안면에 일대일 매칭시켜 생성된 사용자 전용 모델링 데이터에 지정된 화장을 적용하여 생성된 사용자 전용 화장 데이터를 확인하여 상기 사용자 무선단말(200)의 앱(230)으로 제공할 수 있으며, 상기 데이터 처리부(265)는 상기 운영서버(100)로부터 사용자의 실제 안면과 일대일 매칭되는 사용자 전용 화장 데이터를 수신하여 지정된 저장영역에 저장하거나 및/또는 상기 수신된 사용자 전용 화장 데이터를 화면 출력한다. 한편 실시 방법에 따라 상기 데이터 처리부(265)는 상기 운영서버(100)에서 사용자 전용 화장 데이터를 확인하는 과정에 개입하여 처리할 수 있다. The operating server 100 receives the user's facial geometry information and user facial numerical value information from the
한편 상기 운영서버(100) 측에서 사용자 안면 기하학 구조 정보가 생성되거나 및/또는 사용자 무선단말(200)의 앱(230)에서 사용자 안면 기하학 구조 정보가 생성되더라도 사용자 무선단말(200)에 상기 사용자 안면 기하학 구조 정보가 저장되지 않은 경우, 상기 운영서버(100)는 상기 사용자 무선단말(200)의 앱(230)으로 사용자 전용 화장 데이터에 대응하는 사용자 안면 기하학 구조 정보를 제공하며, 상기 정보 관리부(260)는 상기 운영서버(100)로부터 사용자 안면 기하학 구조 정보를 수신하여 지정된 저장영역에 저장한다. 바람직하게, 상기 사용자 안면 기하학 구조 정보는 상기 카메라부(210)를 통해 입력되는 영상데이터에 포함된 화상데이터를 판독하여 상기 영상데이터에 존재하는 사용자의 안면 영역을 실시간 인식하기 위한 사용자 전용 안면인식정보로 사용될 수 있다. In the meantime, even if the user's facial geometry information is generated on the operation server 100 and / or the user's facial geometry information is generated in the
또는 상기 운영서버(100) 측에서 사용자 안면 기하학 구조 정보가 생성되거나 및/또는 사용자 무선단말(200)에 상기 사용자 안면 기하학 구조 정보가 저장되지 않은 상태에서, 상기 운영서버(100) 측에서 상기 사용자 안면 기하학 구조 정보에 대응하는 사용자 안면 수치 정보가 결정된 경우, 상기 운영서버(100)는 상기 사용자 무선단말(200)의 앱(230)으로 상기 사용자 안면 기하학 구조 정보를 제공하는 과정과 연동하여 상기 사용자 안면 기하학 구조 정보에 대응하는 사용자 안면 수치 정보를 제공할 수 있으며, 상기 정보 관리부(260)는 상기 사용자 안면 기하학 구조 정보와 상기 사용자 안면 수치 정보를 수신하여 지정된 저장영역에 연계 저장할 수 있다. 바람직하게, 상기 사용자 안면 기하학 구조 정보와 사용자 안면 수치 정보는 상기 사용자 무선단말(200)의 카메라부(210)를 통해 입력되는 영상데이터에 포함된 화상데이터를 판독하여 상기 영상데이터에 존재하는 사용자 안면 영역을 인식하기 위한 사용자 전용 안면인식정보로 사용될 수 있다. Or the user facial geometry information is not stored in the user wireless terminal 200 and / or the user facial geometry information is not stored in the user wireless terminal 200, When the user facial numerical value information corresponding to the facial geometry information is determined, the operation server 100 interoperates with the process of providing the user facial geometry information to the
도면2를 참조하면, 상기 사용자 무선단말(200)의 앱(230)은, 상기 카메라부(210)를 통해 영상데이터가 입력되는 경우, 상기 정보 관리부(260)를 통해 저장 관리되는 사용자 안면에 대한 사용자 안면 기하학 구조 정보를 근거로 상기 카메라부(210)를 통해 입력되는 영상데이터에 포함된 화상데이터를 판독하여 상기 영상데이터에 존재하는 사용자의 안면 영역을 실시간 인식하는 영역 인식부(270)와, 상기 영상데이터에 존재하는 사용자의 안면 영역을 실시간 인식한 경우 상기 영상데이터 상에서 인식된 사용자의 안면 영역에 상기 사용자 전용 화장 데이터를 중첩 표시하여 사용자의 안면을 증강하는 증강 처리부(275)를 구비한다. Referring to FIG. 2, when image data is input through the camera unit 210, the
상기 정보 관리부(260)를 통해 사용자 안면에 대한 사용자 안면 기하학 구조 정보가 저장 관리되는 상태에서 상기 영상 처리부(235)를 통해 상기 카메라부(210)로부터 영상데이터가 입력되는 경우, 상기 영역 인식부(270)는 상기 정보 관리부(260)를 통해 지정된 저장영역에 저장된 사용자 안면 기하학 구조 정보를 이용하여 상기 카메라부(210)를 통해 입력되는 영상데이터에 포함된 화상데이터를 판독하여 상기 영상데이터에 존재하는 사용자의 안면 영역을 실시간 인식한다. When image data is input from the camera unit 210 through the image processing unit 235 while the user's facial geometry structure information on the user's face is stored and managed through the information management unit 260, 270 reads the image data included in the image data input through the camera unit 210 using the user's facial geometry structure information stored in the designated storage area through the information management unit 260, Real-time recognition of the user's facial area.
만약 상기 영역 인식부(270)를 통해 상기 카메라부(210)로부터 입력되는 영상데이터에 존재하는 사용자의 안면 영역을 실시간 인식한 경우, 상기 증강 처리부(275)는 상기 영상데이터 상에서 인식된 사용자의 안면 영역에 상기 사용자 전용 화장 데이터를 중첩 표시하여 증강할 수 있다. 즉, 상기 카메라부(210)를 통해 입력되는 영상데이터에는 상기 사용자 전용 화장 데이터에 대응하는 화장이 존재하지 않지만, 상기 증강 처리부(275)는 상기 카메라부(210)를 통해 입력되는 영상데이터에서 인식된 사용자의 안면 영역에 존재하는 지정된 특징 점과 둘 이상의 특징 점 사이의 수치를 인식하면서 사용자의 안면 방향과 카메라의 시선 방향을 해석하기 위해 설정된 3차원 좌표계를 기준으로 상기 사용자 전용 화장 데이터를 상기 사용자 안면 영역에 맞게 회전하거나 확대하거나 축소하여 상기 사용자 안면 영역에 상기 사용자 전용 화장 데이터를 중첩하여 표시함으로써, 상기 사용자 전용 화장 데이터를 통해 상기 사용자의 실제 안면 영역을 증강하여 표시할 수 있다. If the face recognition area of the user existing in the image data input from the camera unit 210 is recognized in real time through the area recognition unit 270, the enhancement processing unit 275 recognizes the face of the user recognized on the image data The make-up data for the user can be superimposed and displayed on the area. That is, although there is no makeup corresponding to the user-specific makeup data in the image data input through the camera unit 210, the enhancement processing unit 275 recognizes the image data input through the camera unit 210 Dimensional coordinate system set for interpreting the face direction of the user and the gaze direction of the camera while recognizing the numerical value between the designated feature point and two or more feature points existing in the face region of the user, The actual facial region of the user can be augmented and displayed through the user-specific cosmetic data by rotating, enlarging or reducing the user's facial area by superimposing and displaying the user-specific cosmetic data.
본 발명의 실시 방법에 따르면, 상기 사용자 전용 화장 데이터는 사용자 안면 기하학 구조 정보와 사용자 안면 수치 정보를 근거로 생성된 3D 모델링 데이터를 기반으로 생성되었으므로, 사용자 무선단말(200)의 카메라부(210)를 통해 사용자 안면의 전면을 촬영하지 않고 좌측이나 우측의 측면을 비스듬히 촬영(예컨대, 사용자의 우측 귀나 좌측 귀가 노출되도록 촬영)하는 경우에도, 상기 증강 처리부(275)는 상기 카메라부(210)를 통해 입력되는 영상데이터의 사용자 안면의 전면 영역이나 측면 영역에 존재하는 지정된 특징 점과 둘 이상의 특징 점 사이의 수치를 인식하면서 사용자의 안면 방향과 카메라의 시선 방향을 해석하기 위해 설정된 3차원 좌표계를 기준으로 상기 사용자 전용 화장 데이터를 상기 사용자 안면의 측면부에 맞게 회전하거나 확대하거나 축소하여 상기 사용자 안면의 측면부에 중첩 표시할 수 있다. According to the embodiment of the present invention, the user-specific cosmetic data is generated based on the 3D modeling data generated based on the user's facial geometry structure information and the user's facial numerical information. Thus, the camera unit 210 of the user wireless terminal 200, The enhancement processor 275 may be configured to enhance the image quality of the user through the camera unit 210 even when the left or right side of the user's face is photographed at an angle (e.g., the user's right ear or left ear is exposed) The three-dimensional coordinate system set to interpret the face direction of the user and the gaze direction of the camera while recognizing the numerical value between the designated feature point and two or more feature points existing in the front area or the side area of the user's face of the input image data The user-specific makeup data is rotated or enlarged to fit the side surface of the user's face Or it can be shrunk to be displayed superposed on the side portion of the user face.
한편 본 발명의 실시 방법에 따르면, 사용자는 상기 사용자 무선단말(200)의 전면 측 카메라부(210)를 통해 자신의 안면을 촬영하는 것이 아니라 후면 측 카메라를 통해 거울에 비친 자신의 안면을 촬영할 수 있으며, 이 경우 상기 증강 처리부(275)는 상기 무선단말(200)의 후면 측 카메라부(210)를 통해 영상데이터가 입력되는 경우 상기 후면 측 카메라를 통해 입력되는 영상데이터를 거울에 비친 사용자 안면을 촬영한 것으로 (1차)판단할 수 있다. 만약 상기 무선단말(200)의 후면 측 카메라부(210)를 통해 영상데이터가 입력되는 경우, 상기 증강 처리부(275)는 상기 후면 측 카메라부(210)를 통해 입력되는 영상데이터가 사용자의 안면을 직접 촬영한 것인지 거울에 비친 사용자 안면을 촬영한 것인지 보다 정확하게 판단하는 절차를 수행할 수 있다. 예를들어, 상기 증강 처리부(275)는 상기 카메라부(210)를 통해 사용자 안면의 특정한 부분이나 사용자 안면 이외의 다른 부분에 대한 초점 맞추기를 시도하여 초점 맞추기 위해 초점거리가 변화되는지 확인하거나, 또는 상기 카메라부(210)를 통해 사용자 안면과 상기 안면 이외의 다른 부분 사이에 심도 변화가 발생하는지 확인하거나, 또는 사용자 안면에 초점을 맞춘 상태에서 아웃포커싱을 시도하여 아웃포커싱이 유효하게 발생하는지 확인하는 과정 중 적어도 하나의 과정을 통해 상기 카메라부(210)를 통해 입력되는 영상데이터가 사용자의 안면을 직접 촬영한 것인지 거울에 비친 사용자 안면을 촬영한 것인지 판단할 수 있다. 거울에 비친 사용자 안면을 촬영한 경우 초첨거리가 변하지 않거나 기 설정된 값 미만으로 변할 수 있으며, 심도 변화가 발생하지 않거나 기 설정된 값 미만으로 발생할 수 있으며, 아웃포커싱이 처리되지 않거니 기 설정된 값 미만으로 처리될 수 있다. 만약 상기 사용자 무선단말(200)의 카메라를 통해 거울에 비친 사용자의 안면을 촬영하는 것으로 판단된 경우, 상기 증강 처리부(275)는 상기 카메라부(210)를 통해 입력되는 영상데이터의 사용자 안면에 존재하는 지정된 특징 점과 둘 이상의 특징 점 사이의 수치를 인식하되 거울에 비친 피사체에 대응하는 3차원 좌표계를 기준으로 상기 사용자 전용 화장 데이터를 상기 사용자 안면 영역에 맞게 회전하거나 확대하거나 축소하여 중첩 표시할 수 있으며, 실시 방법에 따라 상기 사용자 전용 화장 데이터에 거울에 비쳐진 광 효과를 주어 중첩 표시할 수 있다. 만약 사용자가 거울에 비친 사용자의 안면의 비스듬히 촬영하는 경우, 상기 증강 처리부(275)는 상기 카메라부(210)를 통해 입력되는 영상데이터의 사용자 안면의 전면 영역이나 측면 영역에 존재하는 지정된 특징 점과 둘 이상의 특징 점 사이의 수치를 인식하되 거울에 비친 피사체에 대응하는 3차원 좌표계를 기준으로 상기 사용자 전용 화장 데이터를 상기 사용자 안면의 측면부에 맞게 회전하거나 확대하거나 축소하여 상기 사용자 안면의 측면부에 중첩 표시할 수 있으며, 실시 방법에 따라 상기 사용자 전용 화장 데이터에 거울에 비쳐진 광 효과를 주어 중첩 표시할 수 있다. According to the embodiment of the present invention, the user can photograph his / her face reflected in the mirror through the rear side camera rather than photographing his or her face through the front side camera unit 210 of the user wireless terminal 200 In this case, when the image data is input through the rear side camera unit 210 of the wireless terminal 200, the enhancing processor 275 transmits the image data input through the rear side camera to the user face It can be judged (primary) by taking a picture. When the image data is input through the rear side camera unit 210 of the wireless terminal 200, the enhancement processing unit 275 transmits the image data input through the rear side camera unit 210 to the face of the user It is possible to carry out a procedure for judging more accurately whether the user has photographed directly or photographed the user's face reflected in the mirror. For example, the enhancement processor 275 may attempt to focus on a specific portion of the user's face or other portion of the user's face through the camera unit 210 to see if the focal length is changed to focus, or It is checked whether a depth change occurs between the user's face and other parts of the face through the camera unit 210 or an out-focusing is attempted with the user's face focused, It is possible to determine whether the image data inputted through the camera unit 210 has taken a face of the user directly or photographed the user's face reflected in the mirror through at least one of the processes. If you take a picture of a user's face reflected in a mirror, the focus distance may not change or change to less than a preset value, the depth of focus does not change, or it may occur below a preset value, the out focusing is not processed, Lt; / RTI > If it is determined that the face of the user reflected on the mirror is photographed through the camera of the user wireless terminal 200, the enhancement processor 275 determines whether the face of the user is present in the user face of the image data input through the camera unit 210 The user-specific makeup data may be rotated, enlarged or reduced in accordance with the user's face area on the basis of the three-dimensional coordinate system corresponding to the subject reflected by the mirror, And the user-specific make-up data can be superimposed on the mirror with the light effect reflected on the mirror according to the method of operation. If the user takes an oblique view of the face of the user reflected on the mirror, the enhancement processor 275 performs the enhancement processing on the image data input through the camera unit 210, Recognizing a numerical value between two or more feature points, rotating the user-specific makeup data based on a three-dimensional coordinate system corresponding to a subject reflected by the mirror, or enlarging or reducing the user specific makeup data to fit the side surface of the user's face, And it is possible to superimpose the user-specific cosmetic data with the light effect reflected on the mirror according to the method of operation.
도면2를 참조하면, 상기 사용자 무선단말(200)의 앱(230)은, 상기 사용자 전용 화장 데이터에 대응하는 사용자 전용 화장의 주문(또는 예약)을 요청하기 위한 주문요청정보를 구성하여 운영서버(100)로 전송하기 위한 절차를 수행하는 디자인 주문부(280)와, 상기 사용자 전용 화장 데이터에 대응하는 사용자 전용 화장의 주문 요청에 대한 결제를 처리하는 결제 처리부(285)를 구비한다. Referring to FIG. 2, the
상기 디자인 주문부(280)는 상기 데이터 처리부(265)를 통해 수신/출력하는 사용자 전용 화장 데이터에 대응하는 사용자 전용 화장을 주문하기 위한 주문 인터페이스를 표시할 수 있다. 또는 상기 디자인 주문부(280)는 상기 증강 처리부(275)와 연동하여 상기 카메라부(210)를 통해 입력되는 영상데이터에 존재하는 사용자의 안면 영역에 중첩하여 증강 표시된 사용자 전용 화장 데이터에 대응하는 사용자 전용 화장을 주문 요청하기 위한 주문 인터페이스를 표시할 수 있다. The design ordering unit 280 may display an order interface for ordering user-specific makeup corresponding to user-specific makeup data received / output through the data processing unit 265. [ Alternatively, the design ordering unit 280 may include a design ordering unit 280, which is interlocked with the enhancement processing unit 275, and superimposes on the face region of the user existing in the image data input through the camera unit 210, You can display the order interface for requesting custom makeup.
한편 상기 주문 인터페이스를 통해 상기 주문 관련 정보를 입력/선택된 경우, 상기 결제 처리부(285)는 상기 사용자 전용 화장 데이터에 대응하는 사용자 전용 화장의 주문을 위한 결제를 처리한다. 한편 상기 결제 처리부(285)가 상기 결제를 처리하는 순서는 운영서버(100)로 주문요청정보를 전송한 후에 처리되거나, 및/또는 사용자 무선단말(200)의 근처에서 사용자 전용 화장을 실제 서비스 하는 화장숍(또는 미용실)을 통해 결제 가능한 경우 생략될 수 있으며, 이에 의해 본 발명이 한정되지 아니한다. On the other hand, when the order related information is inputted / selected through the order interface, the settlement processing unit 285 processes the settlement for ordering the user specific makeup corresponding to the user specific makeup data. On the other hand, the order in which the settlement processing unit 285 processes the settlement is processed after the order request information is transmitted to the operation server 100, and / or the actual makeup service is performed in the vicinity of the user wireless terminal 200 The present invention is not limited thereto as long as it can be paid through a cosmetic shop (or beauty salon).
본 발명의 일 디자인 주문 실시예에 따라 상기 운영서버(100)로 상기 사용자 전용 화장 데이터에 대응하는 사용자 전용 화장의 주문을 요청하는 경우, 상기 디자인 주문부(280)는 상기 주문 인터페이스를 통해 입력/선택된 주문 관련 정보를 근거로 상기 사용자 전용 화장 데이터에 대응하는 사용자 전용 화장의 주문을 요청하기 위한 주문요청정보를 구성하여 운영서버(100)로 전송할 수 있으며, 상기 운영서버(100)는 상기 사용자 무선단말(200)의 앱(230)으로부터 상기 주문요청정보를 수신한다.In the case of requesting the operation server 100 to order the user-specific makeup corresponding to the user-specific make-up data, the design ordering unit 280 inputs / And transmits the order request information for requesting an order for user-specific makeup corresponding to the user-specific make-up data to the operation server 100 based on the selected order related information, and the operation server 100 transmits the order- And receives the order request information from the
본 발명의 실시 방법에 따르면, 상기 주문요청정보는 사용자 전용 화장을 주문 제작하기 위한 사용자 안면 기하학 구조 정보와 사용자 안면 수치 정보와 화장 정보 중 적어도 하나를 포함할 수 있다. 또는 상기 운영서버(100)에 사용자 안면 기하학 구조 정보와 사용자 안면 수치 정보와 화장 정보 중 적어도 하나가 저장된 경우, 상기 주문요청정보는 운영서버(100)에 저장된 사용자 안면 기하학 구조 정보와 사용자 안면 수치 정보와 화장 정보 중 적어도 하나를 식별하기 위한 식별정보를 포함할 수 있다. According to an embodiment of the present invention, the order request information may include at least one of user facial geometry structure information for customizing a user-specific makeup, user facial numerical information, and makeup information. Or at least one of the user facial geometry information, the user facial numerical information, and the makeup information is stored in the operation server 100, the order request information may include user facial geometry structure information stored in the operation server 100, And identification information for identifying at least one of the makeup information.
한편 본 발명의 실시 방법에 따르면, 상기 주문요청정보는 사용자 전용 화장을 주문 제작하기 위한 사용자 전용 화장 데이터를 포함하며, 상기 사용자 전용 화장 데이터에 대응하는 사용자 안면 기하학 구조 정보와 사용자 안면 수치 정보와 화장 정보 중 적어도 하나를 더 포함하거나 및/또는 운영서버(100)에 저장된 사용자 안면 기하학 구조 정보와 사용자 안면 수치 정보와 화장 정보 중 적어도 하나를 식별하기 위한 식별정보를 더 포함할 수 있다. According to an embodiment of the present invention, the order request information includes user-specific cosmetic data for custom-making cosmetic custom-made data, and the user's facial geometry structure information corresponding to the user-specific cosmetic data, And / or identification information for identifying at least one of the user facial geometry information, the user facial numerical information, and the make-up information stored in the operation server 100. [
도면3은 본 발명의 실시 방법에 따른 증강된 화장 서비스를 위한 사용자 전용 화장 데이터 제공 과정을 도시한 도면이다.FIG. 3 is a diagram illustrating a process of providing makeup data for users for augmented makeup service according to an embodiment of the present invention.
보다 상세하게 본 도면3은 사용자 무선단말(200)의 카메라부(210)를 통해 입력되는 영상데이터에 포함된 하나 이상의 화상데이터를 판독하여 사용자 안면 영역을 인식하여 상기 안면 영역에 형성된 사용자 안면의 기하학 구조를 해석한 사용자 안면 기하학 구조 정보를 생성함과 동시에 상기 안면 영역에 형성된 사용자 안면의 기하학 구조에 대한 현실세계와 일대일 축적의 사용자 안면 수치 정보를 결정하고, 상기 사용자 안면 기하학 구조 정보와 일대일 축적의 사용자 안면 수치 정보를 이용하여 상기 사용자의 실제 안면과 일대일 매칭되는 사용자 전용 화장의 3D 모델링 데이터를 포함하는 사용자 전용 모델링 데이터를 생성하고, 사용자 전용 모델링 데이터에 지정된 화장을 적용하여 생성된 사용자 전용 화장 데이터를 확인하는 과정을 도시한 것으로서, 본 발명이 속한 기술분야에서 통상의 지식을 가진 자라면, 본 도면3을 참조 및/또는 변형하여 상기 사용자 전용 화장 데이터 제공 과정에 대한 다양한 실시 방법(예컨대, 일부 단계가 생략되거나, 또는 순서가 변경된 실시 방법)을 유추할 수 있을 것이나, 본 발명은 상기 유추되는 모든 실시 방법을 포함하여 이루어지며, 본 도면3에 도시된 실시 방법만으로 그 기술적 특징이 한정되지 아니한다.More specifically, FIG. 3 illustrates one or more image data included in image data input through the camera unit 210 of the user wireless terminal 200, recognizes the user's face area, and displays the geometry of the user's face The user facial geometry structure information analyzing the facial geometry structure and the user facial numerical information of the one-to-one accumulation in the real world with respect to the geometric structure of the user facial surface formed in the facial region, Exclusive modeling data including 3D modeling data of the user-specific make-up matched one-to-one with the actual face of the user by using the user facial numerical value information, and generates user-specific makeup data The process of confirming Those skilled in the art will appreciate that various modifications and variations of the method for providing cosmetic data for the user (e.g., some steps may be omitted, However, the present invention includes all of the above-described embodiments, and the technical features of the present invention are not limited only by the method shown in FIG.
도면3을 참조하면, 사용자 무선단말(200)의 앱(230)은 본 발명의 제1 내지 제5 수치 결정 실시예 중 적어도 하나의 실시예에 따라 일대일 축적의 사용자 안면 수치 정보를 결정 가능한 방식으로 카메라부(210)를 통해 피사체를 촬영한 영상데이터를 입력받아 버퍼링하고(300), 상기 입력되어 버퍼링된 영상데이터에 포함된 하나 이상의 화상데이터를 판독하여 화장을 적용할 사용자 안면 영역을 인식한다(305).Referring to FIG. 3, the
만약 상기 영상데이터에 포함된 하나 이상의 화상데이터를 판독하여 화장을 적용할 사용자 안면 영역이 인식되면, 상기 사용자 무선단말(200)의 앱(230)은 상기 인식된 안면 영역에 형성된 사용자 안면의 기하학 구조를 해석한 사용자 안면 기하학 구조 정보를 생성하고(310), 본 발명의 제1 내지 제5 수치 결정 실시예 중 적어도 하나의 실시예에 따라 상기 안면 영역에 형성된 사용자 안면의 기하학 구조에 대한 현실세계와 일대일 축적의 사용자 안면 수치 정보를 결정한다(315). If one or more image data included in the image data is read and the user's face area to be applied is recognized, the
만약 상기 영상데이터를 통해 상기 사용자 안면 기하학 구조 정보가 생성되고 상기 사용자 안면 수치 정보가 결정되면, 상기 사용자 무선단말(200)의 앱(230)은 상기 사용자 안면 기하학 구조 정보와 사용자 안면 수치 정보를 운영서버(100)로 전송한다(320). 한편 상기 사용자 무선단말(200)의 앱(230)은 증강된 화장 서비스를 위해 상기 사용자 안면 기하학 구조 정보를 포함하는 사용자 전용 안면인식정보를 지정된 저장영역에 저장하여 관리한다(325).If the user's facial geometry information is generated based on the image data and the user's facial numeral information is determined, the
한편 상기 운영서버(100)는 상기 사용자 무선단말(200)의 앱(230)으로부터 상기 사용자 안면 기하학 구조 정보와 사용자 안면 수치 정보를 수신하고(330), 상기 사용자 안면 기하학 구조 정보와 일대일 축적의 사용자 안면 수치 정보를 이용하여 사용자의 실제 안면과 일대일 매칭되는 사용자 전용 화장의 3D 모델링 데이터를 포함하는 적어도 하나의 사용자 전용 모델링 데이터를 생성한다(330). Meanwhile, the operation server 100 receives (330) the user's facial geometry information and the user's facial numerical value information from the
만약 상기 사용자 전용 모델링 데이터가 생성되면, 상기 운영서버(100)는 본 발명의 제1 내지 제4 사용자 전용 데이터 확인 실시예 중 적어도 하나의 실시예를 통해 상기 사용자의 실제 안면에 일대일 매칭시켜 생성된 사용자 전용 모델링 데이터에 지정된 화장을 적용하여 생성된 사용자 전용 화장 데이터를 포함하는 사용자 전용 화장 데이터를 확인하며(340), 이를 위해 상기 사용자 무선단말(200)의 앱(230)은 상기 사용자 전용 모델링 데이터에 적용할 적용 대상 화장 정보를 선택하여 제공할 수 있으며(340a), 화장 정보를 제공한 디자이너단말(160)은 상기 사용자 전용 모델링 데이터에 자신이 디자인한 화장 정보를 적용하여 사용자 전용 화장 데이터를 생성하여 제공할 수 있다(340b).If the user-specific modeling data is generated, the operation server 100 may generate one-to-one correspondence with the actual face of the user through at least one of the first through fourth user- The user specific makeup data including the user specific makeup data generated by applying the makeup specified in the user-specific modeling data is checked (340). To this end, the
만약 상기 사용자 전용 화장 데이터가 확인되면, 상기 운영서버(100)는 상기 사용자 무선단말(200)의 앱(230)으로 상기 사용자 전용 화장 데이터를 제공하며(345), 상기 사용자 무선단말(200)의 앱(230)은 상기 운영서버(100)로부터 상기 사용자 전용 화장 데이터를 수신하여 지정된 저장영역에 저장하거나 화면에 출력한다(350).If the makeup data for the user is confirmed, the operation server 100 provides the user makeup data to the
도면4는 본 발명의 실시 방법에 따른 증강된 화장 서비스 제공 과정을 도시한 도면이다.FIG. 4 is a diagram illustrating a process of providing enhanced cosmetic services according to an embodiment of the present invention.
보다 상세하게 본 도면4는 사용자의 실제 안면에 일대일 매칭시켜 생성된 사용자 전용 모델링 데이터에 지정된 화장을 적용하여 생성된 사용자 전용 화장 데이터를 확인하고 사용자 안면 기하학 구조 정보를 사용자 무선단말(200)의 카메라부(210)를 통해 입력되는 영상데이터에 존재하는 사용자의 안면 영역을 실시간 인식한 후 상기 영상데이터의 사용자 안면 영역에 상기 사용자 전용 화장 데이터를 중첩 표시하여 상기 사용자의 안면을 증강하는 과정을 도시한 것으로서, 본 발명이 속한 기술분야에서 통상의 지식을 가진 자라면, 본 도면4를 참조 및/또는 변형하여 상기 증강된 화장 서비스 제공 과정에 대한 다양한 실시 방법(예컨대, 일부 단계가 생략되거나, 또는 순서가 변경된 실시 방법)을 유추할 수 있을 것이나, 본 발명은 상기 유추되는 모든 실시 방법을 포함하여 이루어지며, 본 도면4에 도시된 실시 방법만으로 그 기술적 특징이 한정되지 아니한다.FIG. 4 illustrates the user-specific makeup data generated by applying the makeup specified in the user-specific modeling data generated by one-to-one matching with the actual face of the user and stores the user's face geometry structure information in the user's wireless terminal 200 The facial region of the user existing in the image data input through the input unit 210 is recognized in real time and then the user dedicated makeup data is superimposed on the user facial region of the image data to enhance the face of the user Those skilled in the art will appreciate that various modifications and variations may be made to the illustrative embodiment of the present invention by reference to and / However, the present invention can be applied to all of the above- Is made, including a method, to which the technical feature that is not limited to the exemplary method shown in the figure 4.
도면4를 참조하면, 상기 도면3의 과정을 통해 사용자 무선단말(200)의 앱(230)으로 사용자 전용 화장 데이터가 제공되고 상기 사용자 무선단말(200)의 지정된 저장영역에 사용자 안면 기하학 구조 정보를 포함하는 사용자 전용 안면인식정보가 저장된 경우, 상기 사용자 무선단말(200)의 앱(230)은 카메라부(210)를 통해 피사체를 촬영한 영상데이터가 입력되는지 확인하고(400), 만약 상기 영상데이터가 입력되는 경우에 지정된 저장영역에 사용자 안면 기하학 구조 정보를 포함하는 사용자 전용 안면인식정보를 확인하고(405), 상기 확인된 사용자 전용 안면인식정보를 이용하여 상기 영상데이터에 존재하는 사용자의 안면 영역을 실시간 인식한다(410).Referring to FIG. 4, user specific cosmetic data is provided to the
만약 상기 영상데이터에 존재하는 사용자의 안면 영역이 실시간 인식되면, 상기 사용자 무선단말(200)의 앱(230)은 상기 영상데이터 상에서 인식된 사용자의 안면 영역에 상기 사용자 전용 화장 데이터를 중첩 표시하여 사용자의 안면을 증강한다(415).If the face area of the user existing in the image data is recognized in real time, the
도면5는 본 발명의 일 실시 방법에 따른 증강된 화장 서비스를 이용한 사용자 전용 화장의 주문 과정을 도시한 도면이다.FIG. 5 is a flowchart illustrating an ordering procedure for a user-specific makeup using an enhanced makeup service according to an embodiment of the present invention.
보다 상세하게 본 도면5는 사용자의 실제 안면에 일대일 매칭시켜 생성된 사용자 전용 모델링 데이터에 지정된 화장을 적용하여 생성된 사용자 전용 화장 데이터를 이용하여 운영서버(100)를 통해 사용자 전용 화장을 주문하는 과정을 도시한 것으로서, 본 발명이 속한 기술분야에서 통상의 지식을 가진 자라면, 본 도면5를 참조 및/또는 변형하여 상기 사용자 전용 화장의 주문 과정에 대한 다양한 실시 방법(예컨대, 일부 단계가 생략되거나, 또는 순서가 변경된 실시 방법)을 유추할 수 있을 것이나, 본 발명은 상기 유추되는 모든 실시 방법을 포함하여 이루어지며, 본 도면5에 도시된 실시 방법만으로 그 기술적 특징이 한정되지 아니한다.5 is a flowchart illustrating a process of ordering a user-specific makeup through the operation server 100 using user-specific make-up data generated by applying make-up to user-specific modeling data created by one-to- It will be understood by those skilled in the art that reference to and / or modification of FIG. 5 may be used to implement various embodiments of the customized makeup procedure (e.g., , Or an embodiment in which the order is changed). However, the present invention includes all of the above-described embodiments, and the technical features of the present invention are not limited only by the method shown in FIG.
도면5를 참조하면, 상기 도면3의 과정을 통해 사용자 무선단말(200)의 앱(230)으로 사용자 전용 화장 데이터가 제공되거나 및/또는 상기 도면4의 과정을 통해 사용자 전용 화장 데이터를 이용하여 사용자의 안면을 증강하는 중 또는 후에, 상기 사용자 무선단말(200)의 앱(230)은 사용자 전용 화장을 주문하기 위한 주문 인터페이스를 표시하고(500), 상기 주문 인터페이스를 통해 사용자 전용 화장의 주문을 위한 주문 관련 정보를 입력/선택받는다(505). Referring to FIG. 5, user specific makeup data is provided to the
만약 상기 사용자 전용 화장의 주문을 위한 주문 관련 정보가 입력/선택되면, 상기 사용자 무선단말(200)의 앱(230)은 상기 입력/선택된 주문 관련 정보를 근거로 상기 사용자 전용 화장의 주문을 위한 결제금액의 결제를 처리하는 절차를 수행한다(510). 만약 상기 결제 처리가 확인되면, 상기 사용자 무선단말(200)의 앱(230)은 상기 주문 관련 정보를 근거로 상기 사용자 전용 화장을 주문 요청하기 위한 주문요청정보를 구성하여(515), 상기 운영서버(100)로 전송하면(520), 상기 운영서버(100)는 상기 주문요청정보를 수신한다(525).If the order-related information for ordering the user-specific makeup is inputted / selected, the
100 : 운영서버
105 : 디자인 등록부
110 : 정보 등록부
115 : 정보 수신부
120, 240 : 인식 처리부
125, 245 : 구조 생성부
130, 250 : 수치 결정부
135 : 모델링 생성부
140 : 데이터 확인부
145 : 데이터 제공부
150 : 정보 제공부
155 : 주문 수신부
160 : 디자이너단말
200 : 사용자 무선단말
230 : 앱
235 : 영상 처리부
255 : 정보 전송부
260 : 정보 관리부
265 : 데이터 처리부
270 : 영역 인식부
275 : 증강 처리부
280 : 제품 주문부
285 : 결제 처리부100: Operation server 105: Design registration part
110: information registering unit 115: information receiving unit
120, 240: recognition processing unit 125, 245:
130, 250: Numerical value determination unit 135: Modeling generation unit
140: data checking unit 145: data providing unit
150: Information providing unit 155:
160: Designer terminal
200: user wireless terminal 230:
235: image processing unit 255: information transmission unit
260: Information management unit 265: Data processing unit
270: area recognition unit 275:
280: Product ordering unit 285: Payment processing unit
Claims (19)
사용자 무선단말의 앱이 사용자 무선단말의 카메라부를 통해 입력되는 영상데이터에 포함된 하나 이상의 화상데이터를 판독하여 사용자 안면에 대응하는 안면 영역을 인식하는 제1 단계;
사용자 무선단말의 앱이 상기 인식된 안면 영역에 형성된 사용자 안면의 기하학 구조를 해석한 사용자 안면 기하학 구조 정보를 생성하고 상기 안면 영역에 형성된 사용자 안면의 기하학 구조에 대한 현실세계와 일대일 축적의 사용자 안면 수치 정보를 결정하는 제2 단계;
사용자 무선단말의 앱이 상기 사용자 안면 기하학 구조 정보와 사용자 안면 수치 정보를 지정된 운영서버로 전송하면, 상기 운영서버에서 상기 사용자 안면 기하학 구조 정보와 사용자 안면 수치 정보를 수신하는 제3 단계;
상기 운영서버에서 상기 사용자 안면 기하학 구조 정보와 일대일 축적의 사용자 안면 수치 정보를 이용하여 사용자의 실제 안면과 일대일 매칭되는 사용자 전용 화장의 3D 모델링 데이터를 생성하는 제4 단계;
상기 운영서버에서 상기 사용자의 실제 안면에 일대일 매칭시켜 생성된 사용자 전용 모델링 데이터에 지정된 화장을 적용하여 생성된 사용자 전용 화장 데이터를 확인하는 제5 단계;
상기 운영서버에서 상기 사용자 무선단말의 앱으로 상기 사용자 전용 화장 데이터를 제공하면, 사용자 무선단말의 앱이 상기 사용자 전용 화장 데이터를 수신하여 지정된 저장영역에 저장하는 제6 단계;
사용자 무선단말의 앱이 사용자 안면에 대한 사용자 안면 기하학 구조 정보를 근거로 상기 카메라부를 통해 입력되는 영상데이터에 포함된 화상데이터를 판독하여 상기 영상데이터에 존재하는 사용자의 안면 영역을 실시간 인식하는 제7 단계; 및
사용자 무선단말의 앱이 상기 영상데이터에 존재하는 사용자의 안면 영역을 실시간 인식한 경우 상기 영상데이터 상에서 인식된 사용자의 안면 영역에 상기 사용자 전용 화장 데이터를 중첩 표시하여 사용자의 안면을 증강하는 제8 단계;를 포함하는 증강된 화장 서비스 제공 방법.
A method executed via an operating server communicating with an app of a user wireless terminal,
A first step of the app of the user wireless terminal reading at least one image data included in the image data input through the camera unit of the user wireless terminal and recognizing the face area corresponding to the user's face;
The user's facial geometry information in which the user's wireless terminal interprets the geometric structure of the user's face formed in the recognized facial region, and the user's face value of the one-to-one accumulation with the real world of the geometric structure of the user's face formed in the facial region A second step of determining information;
A third step of receiving the user facial geometry structure information and the user facial feature value information from the operation server when the app of the user wireless terminal transmits the user facial geometry structure information and the user facial feature value information to the designated operation server;
A fourth step of generating 3D modeling data of user-specific makeup matching one-to-one with the actual face of the user using the facial geometry information of the user and face-to-face cumulative information of face-to-
A fifth step of confirming user-made make-up data generated by applying make-up to user-specific modeling data generated by matching one-to-one with the actual face of the user at the operation server;
A sixth step in which the application server of the user wireless terminal receives the user makeup makeup data and stores the makeup makeup data in a designated storage area when the operation server provides the user makeup makeup data to the user wireless terminal application;
The application of the user wireless terminal reads the image data included in the image data input through the camera unit based on the user's facial geometry information on the face of the user and recognizes the face area of the user existing in the image data in real time step; And
When the app of the user wireless terminal recognizes the face region of the user existing in the image data in real time, enhances the face of the user by superimposing the user specific makeup data on the face region of the user recognized on the image data And providing an enhanced cosmetic service.
상기 제1 단계는, 사용자 무선단말의 앱이 상기 카메라부의 자동초점 촬영 상태에서 입력된 화상데이터를 판독하여 화장할 사용자 안면 영역을 인식하는 단계를 포함하고,
상기 제2 단계는, 사용자 무선단말의 앱이 상기 사용자 안면 기하학 구조 상에서 거리 산출을 위해 특정 가능한 둘 이상의 특징 점을 결정하고, 상기 카메라부의 자동초점 과정에서 자동 결정된 초점거리와 상기 화상데이터 상의 둘 이상 특정 점 간 픽셀 거리와 상기 무선단말에 구비된 카메라 스펙 정보 중 하나 이상의 정보를 지정된 산출식의 입력값으로 대입하여 상기 결정된 둘 이상의 특정 점 간 거리를 현실세계와 일대일 축적의 수치 정보로 산출하는 단계를 포함하여 이루어지는 것을 특징으로 하는 증강된 화장 서비스 제공 방법.
The method according to claim 1,
The first step includes the step of the user's wireless terminal recognizing the user's face area to be cremated by reading the image data inputted in the auto focus photographing state of the camera section,
Wherein the second step comprises determining at least two feature points that the user's wireless terminal app can specify for distance calculation on the user's facial geometry structure and determining at least two feature points that are automatically determined by the auto- Calculating a distance between the determined two or more specific points as numerical information of the one-to-one accumulation by substituting one or more pieces of information among a specific point-to-point pixel distance and camera specification information provided in the wireless terminal into an input value of a specified calculation expression Wherein the method comprises the steps of:
상기 제1 단계는, 사용자 무선단말의 앱이 상기 카메라 렌즈와 상기 사용자 안면의 각 부분 사이의 거리가 지정된 식별거리를 유지하여 촬영하도록 유도하고,
상기 제2 단계는, 사용자 무선단말의 앱이 상기 촬영 유도된 식별거리를 상기 산출식의 입력값에 포함시켜 상기 결정된 둘 이상의 특징 점 간 거리를 현실세계와 일대일 축적의 수치 정보로 산출하는 단계를 포함하여 이루어지는 것을 특징으로 하는 증강된 화장 서비스 제공 방법.
3. The method of claim 2,
Wherein the first step is for the app of the user wireless terminal to guide the distance between the camera lens and each part of the user's face,
The second step includes calculating the distance between the determined two or more feature points as the numerical information of one-to-one accumulation with the real world by including the identification distance obtained by the application of the user wireless terminal in the input value of the calculation formula Wherein the method comprises the steps of:
상기 제2 단계는, 사용자 무선단말의 앱이 상기 사용자 안면 기하학 구조 상에서 거리 산출을 위해 특정 가능한 둘 이상의 특징 점을 결정하고, 현실세계의 길이를 재는 도구를 이용하여 상기 결정된 둘 이상의 특징 점 간의 거리를 잰 수치 정보를 입력하도록 처리하는 단계를 포함하여 이루어지는 것을 특징으로 하는 증강된 화장 서비스 제공 방법.
The method according to claim 1,
Wherein the second step comprises determining at least two feature points that an app of a user wireless terminal can specify for distance computation on the user facial geometry and determining a distance between the determined two or more feature points using a tool for determining the length of the real world And inputting the numerical information obtained by the calculation unit.
상기 제1 단계는, 사용자 무선단말의 앱이 상기 사용자 안면 근처에 현실세계의 길이를 재는 도구를 구비한 후 상기 사용자 안면과 길이를 재는 도구를 함께 촬영하도록 유도하고,
상기 제2 단계는, 사용자 무선단말의 앱이 상기 사용자 안면 기하학 구조 상에서 거리 산출을 위해 특정 가능한 둘 이상의 특징 점을 결정하고, 화상데이터 상의 길이를 재는 도구의 눈금 간 현실세계의 수치 거리와 화상데이터 상의 픽셀 거리의 관계를 인식하고, 상기 인식된 도구의 눈금 간 수치 거리와 픽셀 거리의 관계를 통해 상기 결정된 둘 이상의 특징 점 간의 픽셀 거리를 판독하여 상기 둘 이상의 특징 점 간 거리를 현실세계와 일대일 축적의 수치 정보로 산출하는 단계를 포함하여 이루어지는 것을 특징으로 하는 증강된 화장 서비스 제공 방법.
The method according to claim 1,
The first step is to allow the app of the user's wireless terminal to have a tool for determining the length of the real world near the user's face,
Wherein the second step comprises determining at least two feature points that an app of the user wireless terminal can specify for distance calculation on the user's face geometry and determining the distance between the numerical distance of the real world and the image data Recognizes the relationship of the pixel distances on the recognized tool and reads the pixel distances between the determined two or more characteristic points through the relationship between the numerical distance between the graduations of the recognized tool and the pixel distance, And a step of calculating the value of the cosmetic service using the numerical information.
상기 무선단말은, 카메라 시선 방향에 존재하는 피사체와 카메라 렌즈 사이의 거리를 인식하는 거리인식 센서부를 구비하고,
상기 제2 단계는, 사용자 무선단말의 앱이 상기 사용자 안면 기하학 구조 상에서 거리 산출을 위해 특정 가능한 둘 이상의 특징 점을 결정하고, 상기 거리인식 센서부를 통해 센싱된 상기 카메라 렌즈와 상기 사용자 안면의 각 부분 사이의 식별거리를 확인하고, 상기 확인된 식별거리를 지정된 산출식의 입력값으로 대입하여 상기 결정된 둘 이상의 특징 점 간 거리를 현실세계와 일대일 축적의 수치 정보로 산출하는 단계를 포함하여 이루어지는 것을 특징으로 하는 증강된 화장 서비스 제공 방법.
The method according to claim 1,
The wireless terminal includes a distance recognition sensor unit for recognizing a distance between a subject and a camera lens existing in a direction of a camera sight line,
Wherein the second step comprises determining at least two feature points that an app of a user wireless terminal can specify for distance calculation on the user's facial geometry structure and determining the distance between the camera lens and each part of the user's face sensed by the distance- And calculating the distance between the two or more characteristic points determined as the numerical information of the one-to-one accumulation with the real world by substituting the identified distinction distance into the input value of the specified calculation expression Wherein said method comprises the steps of:
상기 제1 단계는, 사용자 무선단말의 앱이 상기 카메라부의 자동초점 촬영 상태에서 입력된 화상데이터를 판독하여 화장을 적용할 사용자 안면 영역을 인식하는 단계를 포함하고,
상기 제2 단계는, 사용자 무선단말의 앱이 상기 카메라부의 자동초점 과정에서 자동 결정된 초점거리와 상기 화상데이터 상의 둘 이상 특정 점 간 픽셀 거리와 상기 무선단말에 구비된 카메라 스펙 정보 중 하나 이상의 정보를 상기 산출식의 입력값에 포함시켜 상기 결정된 둘 이상의 특정 점 간 거리를 현실세계와 일대일 축적의 수치 정보로 산출하는 단계를 포함하여 이루어지는 것을 특징으로 하는 증강된 화장 서비스 제공 방법.
The method according to claim 6,
Wherein the first step includes the step of allowing the app of the user wireless terminal to read the image data input in the auto focus photographing state of the camera unit to recognize the user facial area to apply the makeup,
The second step may include receiving at least one of a pixel distance between a focal distance automatically determined in the auto focusing process of the camera unit and two or more specific points on the image data and camera specification information provided in the wireless terminal, And calculating the distance between the determined two or more specific points included in the input value of the calculation formula as numerical information of one-to-one accumulation with the real world.
상기 제2 단계는, 사용자 무선단말의 앱이 상기 사용자 안면 기하학 구조 정보를 지정된 저장영역에 저장하는 단계를 더 포함하고,
상기 제7 단계는, 사용자 무선단말의 앱이 상기 저장된 사용자 안면 기하학 구조 정보를 이용하여 상기 카메라부를 통해 입력되는 영상데이터에 존재하는 사용자의 안면 영역을 실시간 인식하는 단계를 포함하여 이루어지는 것을 특징으로 하는 증강된 화장 서비스 제공 방법.
The method according to claim 1,
The second step further comprises the step of the app of the user wireless terminal storing the user facial geometry information in a designated storage area,
The seventh step includes the step of real time recognizing the face area of the user existing in the image data inputted through the camera unit by the user's facial geometry structure information of the user's wireless terminal A method of providing enhanced cosmetic services.
상기 제6 단계는, 상기 운영서버에서 상기 사용자 무선단말의 앱으로 상기 사용자 전용 화장 데이터에 대응하는 사용자 안면 기하학 구조 정보를 제공하면, 사용자 무선단말의 앱이 상기 사용자 안면 기하학 구조 정보를 수신하여 지정된 저장영역에 저장하는 단계를 더 포함하고,
상기 제7 단계는, 사용자 무선단말의 앱이 상기 운영서버로부터 수신하여 저장한 사용자 안면 기하학 구조 정보를 이용하여 상기 카메라부를 통해 입력되는 영상데이터에 존재하는 사용자의 안면 영역을 실시간 인식하는 단계를 포함하여 이루어지는 것을 특징으로 하는 증강된 화장 서비스 제공 방법.
The method according to claim 1,
In the sixth step, when the operating server provides the user's facial geometry information corresponding to the user's make-up data to the user wireless terminal, the user's wireless facsimile apparatus receives the user's facial geometry information, Further comprising the steps of:
The seventh step includes a step of real-time recognizing the face area of the user existing in the image data input through the camera unit using the user's facial geometry information received from the operating server by the app of the user's wireless terminal Wherein the method comprises the steps of:
이마 크기 정보,
관자놀이 크기 정보,
눈썹 크기 정보,
속눈썹 크기 정보,
코 크기 정보,
볼(또는 뺨) 크기 정보,
광대뼈 크기 정보,
입 크기 정보,
입술 크기 정보,
턱 크기 정보,
이마 곡률 정보,
관자놀이 곡률 정보,
눈썹 곡률 정보,
속눈썹 곡률 정보,
코 곡률 정보,
볼(또는 뺨) 곡률 정보,
광대뼈 곡률 정보,
입 곡률 정보,
입술 곡률 정보,
턱 곡률 정보 중 하나 이상의 정보를 포함하여 이루어지는 것을 특징으로 하는 증강된 화장 서비스 제공 방법.
The method of claim 1, wherein the user facial geometry information comprises:
Forehead size information,
Template size information,
Eyebrow size information,
Eyelash size information,
Nose size information,
Ball (or cheek) size information,
Cheekbones size information,
Mouth size information,
Lip size information,
Jaw size information,
Forehead curvature information,
Information about the temple curvature,
Eyebrow curvature information,
Eyelash curvature information,
Nose curvature information,
Ball (or cheek) curvature information,
Cheekbones curvature information,
Mouth curvature information,
Lip curvature information,
And information on one or more of the jaw curvature information.
상기 크기 정보는, 사용자 안면 영역의 사용자 안면 기하학 구조를 판별하기 위해 설정된 좌표계 상의 좌표 거리 정보를 포함하고,
상기 곡률 정보는, 사용자 안면 영역의 사용자 안면 기하학 구조를 판별하기 위해 설정된 좌표계 상의 좌표 곡률 정보를 포함하여 이루어지는 것을 특징으로 하는 증강된 화장 서비스 제공 방법.
11. The method of claim 10,
Wherein the size information includes coordinate distance information on a coordinate system set to determine a user's facial geometry of the user's face area,
Wherein the curvature information includes coordinate curvature information on a coordinate system set for discriminating a user's facial geometry of a user's face area.
화상데이터에 포함된 사용자 안면의 그라데이션 정보와 사용자 안면에 대한 해부학적 통계 정보를 근거로 산출되는 것을 특징으로 하는 증강된 화장 서비스 제공 방법.
11. The method of claim 10,
Is calculated based on gradation information of the user's face included in the image data and anatomical statistical information on the user's face.
현실세계와 일대일 축적의 안면 둘레 길이 범위정보를 포함하여 이루어지는 것을 특징으로 하는 증강된 화장 서비스 제공 방법.
2. The method according to claim 1,
And information on a face circumference length range of one-to-one accumulation with the real world.
상기 사용자 안면 기하학 구조 정보에 대응하여 산출된 하나 이상의 수치 정보와 상기 사용자 안면의 해부학적 결합 관계의 통계 정보를 근거로 지정된 오차 범위 내에서 산출되는 것을 특징으로 하는 증강된 화장 서비스 제공 방법.
14. The method of claim 13, wherein the face-
Wherein the calculated facial geometry information is calculated within an error range based on at least one numerical information calculated corresponding to the user's facial geometry information and statistical information of the anatomical association of the user's face.
상기 운영서버에서 상기 사용자 안면 기하학 구조 정보와 일대일 축적의 사용자 안면 수치 정보를 이용하여 사용자의 실제 안면 영역에 적용 가능한 사용자 전용 화장의 3D 모델링 데이터를 생성하는 단계를 포함하여 이루어지는 것을 특징으로 하는 증강된 화장 서비스 제공 방법.
The method as claimed in claim 1,
And generating 3D modeling data of a user-specific makeup applicable to the actual facial region of the user by using the user facial geometry information and the one-to-one cumulative user facial numerical information in the operation server. How to provide cosmetic service.
상기 운영서버에서 M(M≥1)명의 메이크업 디자이너가 디자인하여 등록한 N(N≥2)개의 화장 정보를 저장하는 디자인DB로부터 n(1≤n≤N)개의 화장 정보를 추출하여 사용자 무선단말의 앱으로 제공하면, 사용자 무선단말의 앱이 상기 n개의 화장 정보를 수신하여 출력하는 단계;
사용자 무선단말의 앱이 상기 n개의 화장 정보 중 적어도 하나의 적용 대상 화장 정보를 선택한 디자인선택정보를 전송하면, 상기 운영서버에서 상기 디자인선택정보를 수신하는 단계; 및
상기 운영서버에서 상기 사용자 전용 모델링 데이터에 상기 디자인선택정보에 대응하는 화장을 적용한 사용자 전용 화장 데이터를 생성하는 단계;를 포함하여 이루어지는 것을 특징으로 하는 증강된 화장 서비스 제공 방법.
The method as claimed in claim 1,
(1? N? N) pieces of makeup information from a design DB storing N (N? 2) pieces of makeup information designed and registered by M (M? 1) makeup designers at the operation server, Receiving, by an application, an n-piece of makeup information from an app of a user wireless terminal and outputting the n makeup information;
Receiving the design selection information from the operating server when the app of the user wireless terminal transmits design selection information selected from at least one of the n pieces of makeup information to the application makeup information; And
And generating user-specific makeup data to which the makeup corresponding to the design selection information is applied to the user-only modeling data in the operation server.
상기 운영서버에서 M(M≥1)명의 메이크업 디자이너가 디자인하여 등록한 N(N≥2)개의 화장 정보를 저장하는 디자인DB로부터 n(1≤n≤N)개의 화장 정보를 추출하여 사용자 무선단말의 앱으로 제공하면, 사용자 무선단말의 앱이 상기 n개의 화장 정보를 수신하여 출력하는 단계;
사용자 무선단말의 앱이 상기 n개의 화장 정보 중 적어도 하나의 적용 대상 화장 정보를 선택한 디자인선택정보를 전송하면, 상기 운영서버에서 상기 디자인선택정보를 수신하는 단계;
상기 운영서버에서 상기 디자인선택정보에 대응하는 화장 정보를 등록한 디자이너단말로 상기 사용자 전용 모델링 데이터와 상기 디자인선택정보를 제공하는 단계; 및
상기 운영서버에서 상기 디자이너단말로부터 상기 사용자 전용 모델링 데이터에 상기 디자인선택정보에 대응하는 화장을 적용하여 생성된 사용자 전용 화장 데이터를 수신하는 단계;를 포함하여 이루어지는 것을 특징으로 하는 증강된 화장 서비스 제공 방법.
The method as claimed in claim 1,
(1? N? N) pieces of makeup information from a design DB storing N (N? 2) pieces of makeup information designed and registered by M (M? 1) makeup designers at the operation server, Receiving, by an application, an n-piece of makeup information from an app of a user wireless terminal and outputting the n makeup information;
Receiving the design selection information from the operating server when the app of the user wireless terminal transmits design selection information selected from at least one of the n pieces of makeup information to the application makeup information;
Providing the user-specific modeling data and the design selection information to a designer terminal registering makeup information corresponding to the design selection information at the operation server; And
And receiving the user-specific makeup data generated by applying makeup corresponding to the design selection information to the user-specific modeling data from the designer terminal at the operation server. .
상기 운영서버에서 M(M≥1)명의 메이크업 디자이너 중 m(1≤m≤M)명의 메이크업 디자이너가 이용하는 m개의 디자이너단말로 상기 사용자 전용 모델링 데이터를 제공하는 단계; 및
상기 운영서버에서 i(1≤i≤m)개의 디자이너단말로부터 상기 사용자 전용 모델링 데이터에 해당 메이크업 디자이너의 화장을 적용하여 생성된 j(j≥i)개의 사용자 전용 화장 데이터를 수신하는 단계;를 포함하여 이루어지는 것을 특징으로 하는 증강된 화장 서비스 제공 방법.
The method as claimed in claim 1,
Providing the user-specific modeling data to m designer terminals used by makeup designers of m (1? M? M) among M (M? 1) makeup designers at the operation server; And
And receiving j (j? I) user-specific makeup data generated by applying makeup of the corresponding makeup designer to the user-specific modeling data from i (1? I? M) designer terminals at the operation server Wherein the method comprises the steps of:
사용자 무선단말의 앱이 상기 사용자 전용 화장 데이터에 대응하는 사용자 전용 화장의 주문을 요청하기 위한 주문요청정보를 구성하여 운영서버로 전송하면, 상기 운영서버에서 상기 주문요청정보를 수신하는 단계;를 더 포함하여 이루어지는 것을 특징으로 하는 증강된 화장 서비스 제공 방법.
The method according to claim 1,
When the application of the user wireless terminal constructs order request information for requesting the order of user-specific makeup corresponding to the user-specific makeup data and transmits the order request information to the operation server, receiving the order request information from the operation server Wherein the method comprises the steps of:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020180004103A KR102158233B1 (en) | 2018-01-11 | 2018-01-11 | Method for Providing Augmented Make-up Service |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020180004103A KR102158233B1 (en) | 2018-01-11 | 2018-01-11 | Method for Providing Augmented Make-up Service |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20190085802A true KR20190085802A (en) | 2019-07-19 |
KR102158233B1 KR102158233B1 (en) | 2020-09-21 |
Family
ID=67511911
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020180004103A KR102158233B1 (en) | 2018-01-11 | 2018-01-11 | Method for Providing Augmented Make-up Service |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102158233B1 (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102377222B1 (en) * | 2021-08-13 | 2022-03-23 | 주식회사 에이아이네이션 | Artificial intelligence virtual makeup method and device using multi-angle image recognition processing technology |
US11404086B2 (en) | 2020-02-14 | 2022-08-02 | Perfect Mobile Corp. | Systems and methods for segment-based virtual application of makeup effects to facial regions displayed in video frames |
US11922540B2 (en) | 2020-02-14 | 2024-03-05 | Perfect Mobile Corp. | Systems and methods for segment-based virtual application of facial effects to facial regions displayed in video frames |
Families Citing this family (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20220019612A (en) | 2020-08-10 | 2022-02-17 | 주식회사 타키온비앤티 | system for applying selective makeup effect during communication through facial recognition of user |
KR20220019611A (en) | 2020-08-10 | 2022-02-17 | 주식회사 타키온비앤티 | system for posting of image through applying classifying term and selective makeup effect |
KR102372523B1 (en) | 2020-08-10 | 2022-03-10 | 주식회사 타키온비앤티 | Rewarding system for posting image with selectively applied makeup effects |
KR102372522B1 (en) | 2020-08-10 | 2022-03-10 | 주식회사 타키온비앤티 | System for applying selective makeup effect through sourcing of cosmetic object |
KR102435893B1 (en) | 2020-08-10 | 2022-08-24 | 주식회사 타키온비앤티 | system for applying selective makeup effect through facial recognition of user |
KR20220022432A (en) | 2020-08-18 | 2022-02-25 | 주식회사 타키온비앤티 | System for posting of image through inserting mark and applying selective makeup effect |
KR102372524B1 (en) | 2020-08-18 | 2022-03-10 | 주식회사 타키온비앤티 | System for buying service of cosmetic object and applying selective makeup effect |
KR102372521B1 (en) | 2020-08-18 | 2022-03-10 | 주식회사 타키온비앤티 | system for applying wearing effect during communication through facial recognition of user |
KR20220022431A (en) | 2020-08-18 | 2022-02-25 | 주식회사 타키온비앤티 | System for applying selective makeup effect through recommending of cosmetic object |
KR20220053466A (en) | 2020-10-22 | 2022-04-29 | 주식회사 타키온비앤티 | system for sharing of event during communication through facial recognition of use |
KR20220054177A (en) | 2020-10-23 | 2022-05-02 | 주식회사 타키온비앤티 | researching system for preference during communication through facial recognition of user |
KR20220080686A (en) | 2020-12-07 | 2022-06-14 | 주식회사 타키온비앤티 | System for offering location of object through analyzing of user's preference data |
KR20220080685A (en) | 2020-12-07 | 2022-06-14 | 주식회사 타키온비앤티 | System for suggesting of user's customized object through analyzing of user's preference data |
KR20230122708A (en) | 2022-02-15 | 2023-08-22 | 주식회사 타키온비앤티 | smart store system for moving objects through tracing of user's movement |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20120009710A (en) * | 2010-07-20 | 2012-02-02 | 에스케이플래닛 주식회사 | Virtual experience server and method based on face recognition |
KR20120037712A (en) * | 2010-10-12 | 2012-04-20 | 에스케이플래닛 주식회사 | Imaginary beauty experience service system and method |
KR20150093930A (en) * | 2014-02-09 | 2015-08-19 | 주홍찬 | Apparatus and method for makeup by using augmented reality |
KR20160046286A (en) * | 2014-10-20 | 2016-04-28 | 최영진 | Apparatus and method for measuring size of part of body using smart phone on the internet |
-
2018
- 2018-01-11 KR KR1020180004103A patent/KR102158233B1/en active IP Right Grant
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20120009710A (en) * | 2010-07-20 | 2012-02-02 | 에스케이플래닛 주식회사 | Virtual experience server and method based on face recognition |
KR20120037712A (en) * | 2010-10-12 | 2012-04-20 | 에스케이플래닛 주식회사 | Imaginary beauty experience service system and method |
KR20150093930A (en) * | 2014-02-09 | 2015-08-19 | 주홍찬 | Apparatus and method for makeup by using augmented reality |
KR20160046286A (en) * | 2014-10-20 | 2016-04-28 | 최영진 | Apparatus and method for measuring size of part of body using smart phone on the internet |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11404086B2 (en) | 2020-02-14 | 2022-08-02 | Perfect Mobile Corp. | Systems and methods for segment-based virtual application of makeup effects to facial regions displayed in video frames |
US11922540B2 (en) | 2020-02-14 | 2024-03-05 | Perfect Mobile Corp. | Systems and methods for segment-based virtual application of facial effects to facial regions displayed in video frames |
KR102377222B1 (en) * | 2021-08-13 | 2022-03-23 | 주식회사 에이아이네이션 | Artificial intelligence virtual makeup method and device using multi-angle image recognition processing technology |
WO2023018285A1 (en) * | 2021-08-13 | 2023-02-16 | 주식회사 에이아이네이션 | Artificial intelligence virtual makeup method and device using multi-angle image recognition |
KR20230025640A (en) * | 2021-08-13 | 2023-02-22 | 주식회사 에이아이네이션 | Artificial intelligence virtual makeup method and device using multi-angle image recognition processing technology |
Also Published As
Publication number | Publication date |
---|---|
KR102158233B1 (en) | 2020-09-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR20190085802A (en) | Method for Providing Augmented Make-up Service | |
KR101844347B1 (en) | Method for Providing Augmented Nail Art Service | |
KR101733512B1 (en) | Virtual experience system based on facial feature and method therefore | |
KR20190024585A (en) | Method for Providing Augmented Nail Art Service | |
KR20190127127A (en) | Method for Providing Augmented Nail Art Service Based on Mobile Web | |
KR20190127481A (en) | Method for Providing Augmented Clothing Service Based on Mobile Web | |
KR20190024862A (en) | Method for Providing Clothes Fitting Service by using Augmented Reality | |
KR20190024861A (en) | Method for Providing Glasses Fitting Service by using Augmented Reality | |
KR101937327B1 (en) | Method for Providing Augmented Glasses Service | |
KR101976086B1 (en) | Method for Providing Augmented Hat Service | |
KR20190127488A (en) | Method for Providing Augmented Make-up Service Based on Mobile Web | |
KR20200050095A (en) | Method for Providing Wearing Service by Using Augment Reality | |
KR102117517B1 (en) | Method for Providing Augmented Wig Service | |
KR20190085809A (en) | Method for Providing Augmented Bracelet Service | |
KR101915278B1 (en) | Method for Providing Augmented Clothing Service | |
KR20190127487A (en) | Method for Providing Augmented Helmet Service Based on Mobile Web | |
KR20190085811A (en) | Method for Providing Augmented Ring Service | |
KR20190127465A (en) | Method for Providing Augmented Hat Service Based on Mobile Web | |
KR20190085813A (en) | Method for Providing Augmented Hair Style Service | |
KR20190127470A (en) | Method for Providing Augmented Wrist Watch Service Based on Mobile Web | |
KR102401575B1 (en) | Method for Measuring Numerical Value by using Automatic Focussing Function of Camera | |
KR102401914B1 (en) | Method for Measuring Numerical Value by using Camera | |
KR20190085805A (en) | Method for Providing Augmented Helmet Service | |
KR20190085808A (en) | Method for Providing Augmented Necktie Service | |
KR20190127484A (en) | Method for Providing Augmented Hair Style Service Based on Mobile Web |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E902 | Notification of reason for refusal | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |