KR101839515B1 - Service systembased on face recognition inference, and face recognition inference method and storage medium thereof - Google Patents

Service systembased on face recognition inference, and face recognition inference method and storage medium thereof Download PDF

Info

Publication number
KR101839515B1
KR101839515B1 KR1020160140716A KR20160140716A KR101839515B1 KR 101839515 B1 KR101839515 B1 KR 101839515B1 KR 1020160140716 A KR1020160140716 A KR 1020160140716A KR 20160140716 A KR20160140716 A KR 20160140716A KR 101839515 B1 KR101839515 B1 KR 101839515B1
Authority
KR
South Korea
Prior art keywords
face
user
image
feature information
information
Prior art date
Application number
KR1020160140716A
Other languages
Korean (ko)
Other versions
KR20160128275A (en
Inventor
나승원
Original Assignee
에스케이플래닛 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 에스케이플래닛 주식회사 filed Critical 에스케이플래닛 주식회사
Priority to KR1020160140716A priority Critical patent/KR101839515B1/en
Publication of KR20160128275A publication Critical patent/KR20160128275A/en
Application granted granted Critical
Publication of KR101839515B1 publication Critical patent/KR101839515B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Systems or methods specially adapted for specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06K9/00
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/02Marketing; Price estimation or determination; Fundraising
    • G06Q30/0207Discounts or incentives, e.g. coupons or rebates
    • G06Q30/0224Discounts or incentives, e.g. coupons or rebates based on user history
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis

Abstract

본 발명은 평면적인 얼굴 영상으로부터 측면 및 후면의 영상을 추론하고, 이를 기반으로 사용자에게 보다 입체적이고 사실적인 가상의 스타일링 서비스를 제공할 수 있는 얼굴 인식 추론 기반 서비스 시스템 및 방법, 그리고 그의 얼굴 인식 추론 방법에 관한 것으로서, 사용자의 정면 얼굴 영상으로부터 얼굴의 특징 정보를 추출하고, 얼굴 특징 정보로부터 얼굴의 유형 정보를 추출하고, 얼굴의 특징 정보 및 얼굴의 유형 정보를 결합하여 사용자의 측면 및 후면 얼굴 영상 중에서 하나 이상을 추론함에 의해 사용자의 얼굴을 인식한 후, 특정 스타일의 미용 오브젝트와 사용자의 정면, 측면 및 후면 얼굴 영상 중에서 하나 이상과 결합하여 가상 미용 모델링 영상을 생성하여 사용자에게 제공함으로써, 얼굴 인식 추론 기반으로 이루어지는 서비스를 제공한다.The present invention relates to a face recognition inference based service system and method for inferring side and rear images from a flat face image and providing a more stereoscopic and realistic virtual styling service to the user based on the images, A method for extracting feature information of a face from a face image of a user, extracting type information of a face from facial feature information, combining facial feature information and type information of a face, The virtual face modeling image is combined with at least one of the front face, the side face, and the back face face image of the user to provide the virtual beauty modeling image to the user, Provide services based on reasoning do.

Description

얼굴 인식 추론 기반 서비스 시스템, 그의 얼굴 인식 추론 방법 및 기록 매체{Service systembased on face recognition inference, and face recognition inference method and storage medium thereof}[0001] The present invention relates to a face recognition inference service based system, a face recognition inference method, and a storage medium,

본 발명은 평면적인 얼굴 정면 영상으로부터 측면 및 후면의 영상을 추론하고, 이를 기반으로 사용자에게 입체적이고 사실적인 가상의 스타일링 서비스를 제공할 수 있는 얼굴 인식 추론 기반 서비스 시스템 및 방법, 그리고 그의 얼굴 인식 추론 방법에 관한 것이다.The present invention relates to a face recognition inference based service system and method for inferring side and rear images from a flat face front image and providing a stereoscopic and realistic virtual styling service to the user based on the images, ≪ / RTI >

최근 사용자가 자신이 원하는 모바일 어플리케이션을 자유롭게 선택하여 설치할 수 있는 스마트폰이 급성장하면서, 이러한 모바일 어플리케이션을 자유롭게 거래할 수 있는 OMP(Open Market Place)까지 활성화되고 있으며, 이에 따라서 다양한 응용 프로그램 및 서비스의 개발이 이루어지고 있다.In recent years, as a smartphone that users can freely select and install a desired mobile application is rapidly growing, OMP (Open Market Place) that can freely deal with such a mobile application is being activated. Accordingly, development of various application programs and services .

이 중의 하나로서, 머리 모양을 가상을 바꿔볼 수 있도록 하는 가상 헤어 스타일링 서비스가 제공되고 있다. As one of them, a virtual hair styling service is provided which allows a virtual hair to be changed.

그런데 기존의 가상 헤어 스타일링 서비스는, 사용자의 정면 영상만을 촬영하여, 정면 영상에 대한 가상 헤어 스타일링을 제공하고 있기 때문에, 사용자는 측면 및 후면의 모습까지 확인해 볼 수 없다.However, since the existing virtual hair styling service captures only the front image of the user and provides the virtual hair styling for the front image, the user can not check the side and rear views.

측면이나 후면의 모습까지 서비스하기 위해서는, 사용자의 영상의 다양한 방향에서 촬영한 후, 이를 결합하여 사용자의 삼차원 영상을 생성하여야 하는데, 이 경우, 고가의 장비를 구비하여야 하기 때문에, 이에 따른 과다한 비용이 발생하는 문제점이 있다.In order to service the side or rear view, it is necessary to shoot the image in various directions of the user's image and then combine them to generate a three-dimensional image of the user. In this case, since expensive equipment must be provided, There is a problem that occurs.

따라서, 고가의 장비를 이용하지 않고, 보다 저렴한 방법으로 사용자에게 다양한 가상 헤어 체험 서비스를 제공할 수 있도록 하기 위한 연구가 필요하다.Therefore, research is needed to provide various virtual hair experience services to users in a less expensive way without using expensive equipment.

한국공개특허 제10-2009-0073294호, 2009년 07월 03일 공개 (명칭: 얼굴인식을 통한 영상에서의 사람 상호관계 추론 방법)Korean Patent Laid-Open No. 10-2009-0073294, published on Jul. 03, 2009 (name: method of inferring human interrelationships in images through face recognition)

이에 본 발명은 평면적인 얼굴 정면 영상으로부터 측면 및 후면의 영상을 추론하고, 이를 기반으로 사용자에게 보다 입체적이고 사실적인 가상의 헤어 스타일링 서비스를 제공할 수 있는 얼굴 인식 추론 기반 서비스 시스템 및 방법, 그리고 그의 얼굴 인식 추론 방법을 제공하고자 한다.Accordingly, the present invention provides a face recognition reasoning based service system and method for inferring side and rear images from a flat face front image and providing a stereoscopic and realistic virtual hair styling service to a user based on the images, And a face recognition inference method.

본 발명은 상술한 과제를 해결하기 위한 수단으로서, 사용자의 정면 얼굴 영상으로부터 얼굴의 특징 정보를 추출하고, 얼굴 특징 정보로부터 얼굴의 유형 정보를 추출하고, 얼굴의 특징 정보 및 얼굴의 유형 정보를 결합하여 사용자의 측면 및 후면 얼굴 영상 중에서 하나 이상을 추론한 후, 특정 스타일의 미용 오브젝트와 사용자의 정면, 측면 및 후면 얼굴 영상 중에서 하나 이상과 결합하여 가상 미용 모델링 영상을 생성하는 서비스 장치; 및 사용자의 정면 얼굴 영상을 서비스 장치로 제공하고, 서비스 장치로부터 가상 미용 모델링 영상을 수신하여 사용자에게 출력하는 단말 장치를 포함하는 것을 특징으로 하는 얼굴 인식 추론 기반 서비스 시스템을 제공한다.As a means for solving the above-mentioned problems, the present invention is a method for extracting feature information of a face from a front face image of a user, extracting type information of a face from face feature information, combining feature information of a face, A service device for generating a virtual beauty modeling image by combining at least one of a facial image of a specific style and a front face, a side face, and a back face image of a user by inferring at least one of face and back face images of a user; And a terminal device for providing a front face image of a user to a service device, receiving the virtual beauty modeling image from the service device, and outputting the virtual beauty modeling image to a user.

더하여, 본 발명은 상술한 과제를 해결하기 위한 다른 수단으로서, 네트워크를 통해서 단말 장치와 데이터를 송수신하는 통신부; 및 통신부를 통해 단말 장치로부터 사용자의 정면 얼굴 영상을 수신하고, 수신한 정면 얼굴 영상으로부터 얼굴의 특징 정보를 추출하고, 얼굴 특징 정보를 비교 분석하여 얼굴의 유형 정보를 추출한 후, 얼굴의 특징 정보 및 얼굴의 유형 정보를 결합하여 사용자의 측면 및 후면 얼굴 영상 중에서 하나 이상을 추론하는 얼굴 인식부를 포함하는 것을 특징으로 하는 서비스 장치를 제공한다.In addition, the present invention provides, as another means for solving the above-mentioned problems, a communication device for transmitting / receiving data to / from a terminal device via a network; And a communication unit for receiving a front face image of the user from the terminal device, extracting face feature information from the received front face image, extracting face type information by comparing and analyzing facial feature information, And a face recognition unit for combining at least one face image of the user by combining the type information of the face.

본 발명에 의한 서비스 장치는, 사용자의 정면, 측면 및 후면 얼굴 영상 중에서 하나 이상을 특정 미용 오브젝트와 결합하여 사용자의 정면, 측면 및 후면 중에서 하나 이상의 방향으로 표현되는 가상 미용 모델링 영상을 생성하여 단말 장치로 제공하는 가상 미용 서비스부를 더 포함할 수 있다.The service apparatus according to the present invention may combine at least one of front, side, and rear face images of a user with specific beauty objects to generate a virtual beauty modeling image expressed in at least one direction from the front, To the virtual beauty service section.

본 발명에 의한 서비스 장치는, 얼굴 인식부에서 얼굴 특징 정보와 비교되고, 얼굴 형태, 인종, 성별, 연령 중에서 하나 이상으로 구분되는 다수의 얼굴 유형에 대한 정보를 저장하는 얼굴 유형 DB; 얼굴 인식부에서 얼굴 특징 정보 및 얼굴 유형 정보로부터 추론된 측면 및 후면 얼굴 영상을 저장하는 얼굴 영상 DB; 및 가상 미용 서비스부에서 이용될 다수의 미용 오브젝트를 저장하는 미용 오브젝트 DB 중에서 하나 이상을 구비하는 저장부를 더 포함할 수 있다.The service apparatus according to the present invention includes a face type DB for storing information on a plurality of face types compared with face feature information in a face recognition unit and divided into at least one of face type, race, gender, and age; A facial image DB storing side and back facial images deduced from facial feature information and facial type information in a facial recognition unit; And a beauty object DB for storing a plurality of beauty objects to be used in the virtual beauty service unit.

더하여, 본 발명은 상술한 과제를 해결하기 위한 또 다른 수단으로서, 사용자의 조작에 따라 사용자 입력 신호를 발생하는 입력부; 사용자의 정면 얼굴 영상을 촬영하는 카메라부; 정면 얼굴 영상으로부터 얼굴의 특징 정보를 추출하고, 얼굴 특징 정보를 비교 분석하여 얼굴의 유형 정보를 추출한 후, 얼굴의 특징 정보 및 얼굴의 유형 정보를 결합하여 측면 및 후면 얼굴 영상 중에서 하나 이상을 추론하는 얼굴 인식 모듈을 포함하고, 사용자의 입력 신호에 따라서 카메라부를 제어하여 사용자의 정면 얼굴 영상을 획득하고, 얼굴 인식 모듈을 통해 획득한 사용자의 정면 얼굴 영상으로부터 사용자의 측면 및 후면 얼굴 영상 중에서 하나 이상을 생성하는 제어부; 및 제어부의 제어에 따라서 사용자의 정면 얼굴 영상, 측면 및 후면 얼굴 영상 중에서 하나 이상을 출력하는 출력부를 포함하는 것을 특징으로 하는 단말 장치를 제공한다.According to another aspect of the present invention, there is provided an information processing apparatus including an input unit for generating a user input signal according to a user operation; A camera unit for photographing a front face image of a user; Extracts feature information of face from front face image, extracts type information of face by comparing and analyzing facial feature information, combines feature information of face and type information of face to infer one or more of side and back face images A front face image of the user is obtained by controlling the camera unit according to the input signal of the user, and one or more of the user's front and rear face images are acquired from the front face image of the user acquired through the face recognition module ; And an output unit for outputting at least one of a front face image, a side face and a rear face image of the user according to the control of the control unit.

본 발명에 의한 단말 장치에 있어서, 제어부는 사용자의 정면, 측면, 후면 얼굴 영상 중에서 하나 이상과 사용자가 선택한 미용 오브젝트를 결합하여 가상 미용 모델링 영상을 생성하는 가상 모델링 모듈을 더 포함할 수 있다.In the terminal device according to the present invention, the control unit may further include a virtual modeling module for generating a virtual beauty modeling image by combining at least one of front, side, and back face images of a user with a cosmetic object selected by the user.

본 발명에 의한 단말 장치는, 사용자의 정면 얼굴 영상, 얼굴 형태, 인종, 성별, 연령 중에서 하나 이상으로 구분되어 얼굴 특징 정보와 비교될 다수의 얼굴 유형 정보, 얼굴 특징 정보 및 얼굴 유형 정보를 결합하여 추론된 측면 및 후면 얼굴 영상, 다수의 미용 오브젝트 중에서 하나 이상을 구비하는 저장부를 더 포함할 수 있다.The terminal device according to the present invention may combine a plurality of face type information, facial feature information, and face type information to be compared with facial feature information, which is divided into at least one of a front face image, a face form, a race, An inferred side and back face image, and a plurality of beauty objects.

본 발명에 의한 단말 장치는, 네트워크를 통해서 데이터를 송수신하는 통신부를 더 포함하고, 측면 및 후면 얼굴 영상 중에서 하나 이상에 대한 추론 또는 가상 미용 모델링 생성을 위한 데이터를 서비스 장치로부터 전송 받을 수 있다.The terminal device according to the present invention may further include a communication unit for transmitting and receiving data through a network, and may receive data for inference or virtual beauty modeling creation from at least one of the side and back face images from the service device.

더하여, 본 발명은 상술한 과제를 해결하기 위한 또 다른 수단으로서, 사용자의 정면 얼굴 영상을 획득하는 단계; 정면 얼굴 영상으로부터 얼굴의 특징 정보를 추출하는 단계; 추출한 얼굴의 특징 정보를 기 분류된 유형과 비교하여, 얼굴의 유형 정보를 추출하는 단계; 및 추출한 얼굴의 특징 정보와 얼굴의 유형 정보를 결합하여, 정면 얼굴에 대한 폴리곤을 생성하고, 이로부터 사용자의 측면 및 후면 얼굴 영상을 생성하는 단계를 포함하는 것을 특징으로 하는 얼굴 인식 추론 방법을 제공한다.In addition, according to another aspect of the present invention, there is provided a method for processing a face image, comprising: obtaining a face image of a user; Extracting feature information of a face from a front face image; Comparing the feature information of the extracted face with the pre-classified type, and extracting type information of the face; And combining the feature information of the extracted face and the type information of the face to generate a polygon for the front face and generating a side face and a back face image of the user from the polygon, do.

본 발명에 의한 얼굴 인식 추론 방법에 있어서, 얼굴의 특징 정보를 추출하는 단계는, 정면 얼굴 영상으로부터 눈과 입을 추출하는 단계; 추출한 눈과 입을 역삼각형 형태로 연결하여 코 영역을 추출하는 단계; 코 영역 내에서 에지 및 색상 변화를 분석하여 코의 상세 정보를 추출하는 단계; 추출한 눈 위의 영역에서 색상 변화를 분석하여 눈썹을 추출하는 단계; 얼굴의 특징점 및 윤곽선을 추출하는 단계; 및 추출한 각 얼굴 부위에 대한 실측값 및 통계 정보를 결합하여, 폴리곤 생성을 위해 필요한 사용자의 얼굴 특징 정보를 추출하는 단계를 포함할 수 있다.In the facial recognition reasoning method according to the present invention, the step of extracting facial feature information includes extracting eyes and mouth from a front face image, Extracting the nose region by connecting the extracted eyes and mouths in an inverted triangle shape; Extracting detailed information of the nose by analyzing edge and color changes within the nose region; Extracting an eyebrow by analyzing a color change in an area on the extracted eye; Extracting feature points and contour lines of a face; And extracting facial feature information of the user necessary for polygon generation by combining measured values and statistical information for each extracted facial region.

본 발명에 의한 얼굴 인식 추론 방법에 있어서, 얼굴의 유형 정보는 얼굴의 형태, 인종, 성별, 연령 중에서 하나 이상으로 분류될 수 있다.In the face recognition reasoning method according to the present invention, the face type information may be classified into at least one of face type, race, sex, and age.

본 발명에 의한 얼굴 인식 추론 방법에 있어서, 얼굴의 특징 정보는, 얼굴의 전체 길이 및 폭, 턱 길이, 하안, 중안, 코의 높이, 코의 길이, 입의 높이, 입의 길이, 눈의 길이, 이마의 높이 중에서 하나 이상을 포함할 수 있다.In the face recognition inferring method according to the present invention, the face feature information includes at least one of an overall length and a width of a face, a length of a jaw, a height of a nose, , And the height of the forehead.

더하여, 본 발명은 상술한 과제를 해결하기 위한 또 다른 수단으로서, 사용자의 정면 얼굴 영상을 획득하는 단계; 정면 얼굴 영상으로부터 얼굴의 특징 정보를 추출하는 단계; 추출한 얼굴의 특징 정보를 기 분류된 유형과 비교하여, 얼굴의 유형 정보를 추출하는 단계; 추출한 얼굴의 특징 정보와 얼굴의 유형 정보를 결합하여, 정면 얼굴에 대한 폴리곤을 생성하고, 이로부터 상기 사용자의 측면 및 후면 얼굴 영상 중에서 하나 이상을 생성하는 단계; 사용자가 체험하기를 원하는 미용 오브젝트의 선택 정보를 입력 받는 단계; 사용자가 선택한 헤어 오브젝트를 사용자의 정면 얼굴 영상과, 측면 얼굴 영상 및 후면 얼굴 영상 중에서 하나 이상과 각각 결합하여 사용자의 정면, 측면 및 후면 방향 중 하나 이상의 방향으로 표현되는 가상 모델링 영상을 생성하는 단계를 실행하는 프로그램을 기록한 컴퓨터 판독 가능한 기록 매체를 제공한다.In addition, according to another aspect of the present invention, there is provided a method for processing a face image, comprising: obtaining a face image of a user; Extracting feature information of a face from a front face image; Comparing the feature information of the extracted face with the pre-classified type, and extracting type information of the face; Combining the feature information of the extracted face and the type information of the face to generate a polygon for the front face and generating at least one of the side and back face images of the user from the polygon; Receiving selection information of a beauty object that the user wishes to experience; A step of generating a virtual modeling image represented by at least one of front, side, and rear directions of a user by combining the user's selected hair object with at least one of a user's front face image, a side face image, and a rear face image, There is provided a computer readable recording medium recording a program to be executed.

본 발명에 따르면, 일반 카메라를 통해 촬영된 사용자의 2차원 얼굴 영상만으로 사용자의 측면 얼굴 영상 및 후면 얼굴 영상 중에서 하나 이상을 추론함으로써, 고가의 장비 없이도 보다 입체적이고 사실적인 사용자 영상을 구현할 수 있으며, 더불어, 사용자의 정면 얼굴 영상으로부터 추론된 측면 얼굴 영상 및/또는 후면 얼굴 영상을 기반으로 얼굴 인식 기반의 다양한 응용 서비스를 제공할 수 있다.According to the present invention, by inferring one or more of a user's side face image and a rear face image with only a two-dimensional face image of a user photographed through a general camera, a more stereoscopic and realistic user image can be realized without expensive equipment, In addition, various application services based on face recognition can be provided based on the side face image and / or the rear face image deduced from the user's front face image.

더하여, 본 발명은 사용자의 정면 얼굴 영상으로부터 추론된 측면 얼굴 영상 및 후면 얼굴 영상을 헤어, 메이크업을 포함하는 다양한 가상 미용 체험 서비스에 적용함으로써, 사용자에게 정면 얼굴 영상의 촬영만으로 측면 및 후면을 포함하는 향상된 가상 미용 체험 서비스를 제공받을 수 있으며, 서비스 제공자는 가상 미용 체험 서비스 구현을 위한 비용을 절감할 수 있는 우수한 효과가 있다.In addition, according to the present invention, the side face image and the rear face image inferred from the user's front face image are applied to various virtual beauty experience services including hair and makeup, It is possible to provide an enhanced virtual beauty experience service, and the service provider has an excellent effect of reducing the cost for implementing the virtual beauty experience service.

도 1은 본 발명의 일 실시 예에 따른 얼굴 인식 추론 기반 서비스 시스템을 나타낸 블럭도이다.
도 2는 본 발명의 일 실시 예에 따른 서비스 장치의 구성을 나타낸 블럭도이다.
도 3은 본 발명의 일 실시 예에 따른 서비스 장치에서의 얼굴 인식 추론 기반 서비스 방법을 나타낸 흐름도이다.
도 4는 본 발명의 다른 실시 예에 따른 단말 장치의 구성을 나타낸 블럭도이다.
도 5는 본 발명의 다른 실시 예에 따른 단말 장치에서의 얼굴 인식 추론 기반 서비스 방법을 나타낸 순서도이다.
도 6은 본 발명에 따른 서비스 방법에 적용된 얼굴 인식 추론 방법에 있어서, 특징 정보를 추출하는 상세 과정을 나타낸 순서도이다.
도 7은 본 발명에 따른 얼굴 인식 추론 방법에 있어서, 정면 얼굴 영상으로부터 얼굴 특징 정보를 추출하는 과정을 설명하기 위한 예시도이다.
도 8은 본 발명에 따른 얼굴 인식 추론 방법에 있어서, 정면 얼굴 영상으로부터 측면 및 후면 얼굴 영상을 추론하는 과정을 설명하기 위한 예시도이다.
도 9는 본 발명에 따른 얼굴 인식 추론 기반 서비스 방법의 일 예를 나타낸 예시도이다.
1 is a block diagram illustrating a face recognition reasoning based service system according to an embodiment of the present invention.
2 is a block diagram illustrating a configuration of a service apparatus according to an embodiment of the present invention.
3 is a flowchart illustrating a method of providing a face recognition inference service in a service apparatus according to an embodiment of the present invention.
4 is a block diagram illustrating a configuration of a terminal apparatus according to another embodiment of the present invention.
5 is a flowchart illustrating a method of providing a face recognition inference service in a terminal device according to another embodiment of the present invention.
FIG. 6 is a flowchart illustrating a detailed process of extracting feature information in the face recognition inference method applied to the service method according to the present invention.
FIG. 7 is an exemplary diagram illustrating a process of extracting facial feature information from a facial facial image in the facial recognition inference method according to the present invention.
FIG. 8 is an exemplary diagram for explaining a process of inferring side and back face images from a front face image in the face recognition inference method according to the present invention.
FIG. 9 is a diagram illustrating an example of a face recognition inference based service method according to the present invention.

이하 본 발명의 바람직한 실시 예를 첨부한 도면을 참조하여 상세히 설명한다. 다만, 하기의 설명 및 첨부된 도면에서 본 발명의 요지를 흐릴 수 있는 공지 기능 또는 구성에 대한 상세한 설명은 생략한다. 또한, 도면 전체에 걸쳐 동일한 구성 요소들은 가능한 한 동일한 도면 부호로 나타내고 있음에 유의하여야 한다.Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings. In the following description and the accompanying drawings, detailed description of well-known functions or constructions that may obscure the subject matter of the present invention will be omitted. It should be noted that the same constituent elements are denoted by the same reference numerals as possible throughout the drawings.

도 1은 본 발명의 일 실시 예에 따른 얼굴 인식 추론 기반 서비스 시스템을 나타낸 블럭도이다.1 is a block diagram illustrating a face recognition reasoning based service system according to an embodiment of the present invention.

도 1을 참조하면, 본 발명에 따른 얼굴 인식 추론 기반 서비스 시스템은, 네트워크(10)를 통해서 연결되는 서비스 장치(100) 및 단말 장치(200)를 포함하여 이루어진다.Referring to FIG. 1, a face recognition reasoning based service system according to the present invention includes a service device 100 and a terminal device 200 connected via a network 10.

여기서, 서비스 장치(100)는 본 발명에 따른 얼굴 인식 추론 방법을 적용하여, 사용자의 정면 얼굴 영상으로부터 얼굴의 특징 정보를 추출하고, 상기 얼굴 특징 정보로부터 얼굴의 유형 정보를 추출한 후, 상기 얼굴의 특징 정보 및 얼굴의 유형 정보를 결합하여 사용자의 측면 및 후면 얼굴 영상 중에서 하나 이상을 추론한다. 이를 위하여 서비스 장치(100)는 네트워크(10)를 통해서 단말 장치(200)로부터 사용자의 정면 얼굴 영상을 수신할 수 있으며, 상기 단말 장치(200)로부터 얼굴 인식 결과로서, 측면 및 후면 얼굴 영상 중에서 하나 이상을 제공할 수 있다. 여기서, 사용자의 정면 얼굴 영상으로부터 측면 및 후면 얼굴 영상의 추론하는 과정은 도 6에 도시된 바와 같이 이루어질 수 있으며, 이에 대한 설명은 나중에 더 구체적으로 설명하기로 한다. Here, the service apparatus 100 extracts feature information of a face from a front face image of a user by applying the face recognition inference method according to the present invention, extracts type information of the face from the face feature information, Feature information and type information of the face are combined to infer one or more of the user's side and back face images. For this, the service apparatus 100 can receive the front face image of the user from the terminal apparatus 200 through the network 10 and receive, as the face recognition result from the terminal apparatus 200, one Or more. Here, the process of inferring the side and back face images from the front face image of the user can be performed as shown in FIG. 6, and a description thereof will be described later in more detail.

더하여, 서비스 장치(100)는 상기 사용자의 정면 얼굴 영상과, 추론을 통해 생성된 사용자의 측면 및 후면 얼굴 영상을 얼굴 인식 기반으로 이루어지는 임의의 응용 서비스에 이용할 수 있다. 예를 들어, 서비스 장치(100)는 사용자의 영상과, 헤어 또는 메이크업과 관련된 미용 오브젝트를 결합하여 사용자에게 가상 미용 체험 서비스를 제공할 수 있다. 이때, 서비스 장치(100)는 상기 사용자의 정면 얼굴 영상으로부터 추론된 측면 및 후면 얼굴 영상을 이용함으로써, 사용자에게 정면뿐만 아니라, 측면 및 후면에 대한 가상 미용 모델링 영상을 제공할 수 있다. 즉, 고가의 장비를 이용하지 않고도, 평면적인 정면 얼굴 영상만으로, 보다 입체적이고 사실적인 가상 미용 서비스를 제공할 수 있게 된다.In addition, the service apparatus 100 can use the front face image of the user and the side and back face images of the user generated through inference, for any application service based on face recognition. For example, the service device 100 may combine a user's image with a hair or makeup related beauty object to provide a virtual beauty experience service to the user. At this time, the service apparatus 100 can provide the virtual beauty modeling image for the front side, the side and the rear side to the user by using the side face and the rear face image deduced from the front face image of the user. That is, it is possible to provide more stereoscopic and realistic virtual beauty services only by using a flat front face image without using expensive equipment.

이때, 단말 장치(200)는 상기 얼굴 인식 기반 서비스를 이용하려는 사용자가 이용하는 장치로서, 네트워크(10)를 통해서 상기 서비스 장치(100)에 접속하여, 상기 사용자의 정면 얼굴 영상을 서비스 장치(100)로 제공하고, 상기 서비스 장치(100)로부터 상기 가상 미용 모델링 영상을 수신하여 사용자에게 출력한다.At this time, the terminal device 200 is a device used by a user who wants to use the face recognition based service, and connects to the service device 100 through the network 10 to transmit the face image of the user to the service device 100. [ And receives the virtual beauty modeling image from the service device 100 and outputs the virtual beauty modeling image to a user.

상술한 얼굴 인식 추론 기반 서비스 시스템에 있어서, 서비스 장치(100)는 서버-클라이언트 컴퓨팅 방식으로 동작할 수도 있고, 클라우드 컴퓨팅 기반으로 동작할 수도 있다. 예를 들어, 상기 서비스 장치(100)는 클라우드 컴퓨팅 기반으로 동작하는 하나 이상의 서버로 구현될 수 있다.In the above-described facial recognition inference-based service system, the service apparatus 100 may operate in a server-client computing mode or a cloud computing-based mode. For example, the service device 100 may be implemented as one or more servers operating on a cloud computing basis.

또한, 상기 서비스 장치(100)와 단말 장치(200)를 연결하는 네트워크(10)의 종류에는 특별히 제한되지 않는다. 예를 들어, 네트워크(10)는 인터넷 프로토콜(IP)을 통하여 대용량 데이터의 송수신 서비스 및 끊기는 현상이 없는 데이터 서비스를 제공하는 아이피망으로, 아이피를 기반으로 서로 다른 망을 통합한 아이피망 구조인 올 아이피(All IP)망 일 수 있다. 또한, 네트워크(10)는 유선망, Wibro(Wireless Broadband)망, WCDMA를 포함하는 3 세대 이동통신망, HSDPA(High Speed Downlink Packet Access)망 및 LTE망을 포함하는 3.5세대 이동통신망, LTE advanced를 포함하는 4세대 이동통신망, 위성 통신망 및 와이파이(Wi-Fi)망 중에서 하나 이상을 결합하여 이루어질 수 있다.The type of the network 10 connecting the service device 100 and the terminal device 200 is not particularly limited. For example, the network 10 is an i-bimetry that provides a large capacity data transmission / reception service and a data service without a disconnection phenomenon through an internet protocol (IP) It may be an All IP network. Also, the network 10 may include a 3G mobile communication network including a wired network, a Wibro (Wireless Broadband) network, a WCDMA, a 3.5G mobile communication network including an HSDPA (High Speed Downlink Packet Access) A fourth generation mobile communication network, a satellite communication network, and a Wi-Fi network.

또한, 상기 단말 장치(200)는 사용자가 이용 가능한 통신 장치라면 어떠한 장치라도 이용될 수 있다. 예를 들면, 단말 장치(200)는 PC(Personal Computer), 노트북 컴퓨터, 휴대폰(mobile phone), 태블릿 PC, 내비게이션(navigation) 단말기, 스마트폰(smart phone), PDA(Personal Digital Assistants), PMP(Portable Multimedia Player) 및 디지털방송 수신기를 포함할 수 있다. 물론 이는 예시에 불과할 뿐이며, 상술한 예 이외에도 현재 개발되어 상용화되었거나 향후 개발될 모든 통신이 가능한 장치를 포함하는 개념으로 해석되어야 한다.Also, the terminal device 200 can be used as any communication device available to the user. For example, the terminal device 200 may be a personal computer (PC), a notebook computer, a mobile phone, a tablet PC, a navigation terminal, a smart phone, a PDA (personal digital assistant) Portable Multimedia Player) and a digital broadcast receiver. Of course, this is merely an example, and it should be construed as a concept including a device that is currently developed, commercialized, or capable of all communication to be developed in the future, in addition to the above-described examples.

다음으로, 도 2는 본 발명의 일 실시 예에 따른 서비스 장치(100)의 구성을 기능 단위로 구분하여 나타낸 블럭도이다.Next, FIG. 2 is a block diagram showing a configuration of the service apparatus 100 according to an embodiment of the present invention, which is divided into functional units.

도 2를 참조하면, 본 발명에 의한 서비스 장치(100)는, 통신부(110)와, 얼굴 인식부(120)와, 가상 미용 서비스부(130)와, 저장부(140)를 포함한다.2, the service apparatus 100 according to the present invention includes a communication unit 110, a face recognition unit 120, a virtual beauty service unit 130, and a storage unit 140.

통신부(110)는 네트워크(10)를 통해서 데이터를 송수신하는 수단으로서, 더 구체적으로는 얼굴 인식 서비스를 제공받는 사용자의 단말 장치(200)와 데이터를 송수신한다.The communication unit 110 is a means for transmitting and receiving data through the network 10, and more specifically, transmits and receives data to and from a terminal device 200 of a user who is provided with a face recognition service.

얼굴 인식부(120)는 상기 통신부(110)를 통해 단말 장치(200)로부터 사용자의 정면 얼굴 영상을 수신하고, 수신한 정면 얼굴 영상으로부터 얼굴의 특징 정보를 추출하고, 추출한 얼굴 특징 정보를 비교 분석하여 얼굴의 유형 정보를 추출한 후, 상기 얼굴의 특징 정보 및 얼굴의 유형 정보를 결합하여 사용자의 측면 및 후면 얼굴 영상 중에서 하나 이상을 추론한다. The face recognition unit 120 receives the user's front face image from the terminal device 200 through the communication unit 110, extracts the face feature information from the received front face image, Extracts the face type information, combines the feature information of the face and the type information of the face to infer one or more of the user's side and back face images.

이러한 얼굴 인식부(120)는 도 6에 나타낸 얼굴 인식 방법에 따라서, 상기 사용자의 정면 얼굴 영상으로부터 측면 및 후면 얼굴 영상을 추론할 수 있다. 얼굴 인식부(120)는 사용자의 정면 얼굴 영상으로부터 추론된 측면 및 후면 얼굴 영상을 사용자의 요청에 따라서 단말 장치(200)에 제공할 수 있다. The face recognition unit 120 may infer the side and back face images from the front face image of the user according to the face recognition method shown in FIG. The face recognition unit 120 may provide the side and back face images deduced from the front face image of the user to the terminal device 200 according to a user's request.

상기 얼굴 인식부(120)는 특징 추출 모듈(121), 유형 추출 모듈(122) 및 영상 추론 모듈(123)을 포함하여 이루어질 수 있다. The face recognition unit 120 may include a feature extraction module 121, a type extraction module 122, and an image reasoning module 123.

상기 특징 추출 모듈(121)은 사용자의 정면 얼굴 영상으로부터 얼굴의 각 부위(눈, 코, 입, 눈썹, 윤곽, 이마, 턱 등) 별 특징을 나타내는 얼굴의 특징 정보를 추출한다. 더 구체적으로 설명하면, 특징 추출 모듈(121)은 사용자의 정면 얼굴 영상으로부터 먼저 눈과 입을 추출한다. 여기서, 눈의 추출은 먼저 동공을 추출한 후, 상기 동공을 기준으로 눈의 형상을 추출하는 형태로 이루어질 수 있다. 또한, 이러한 눈 및 입의 추출은 일반적인 얼굴 인식 기술을 이용하여 이루어질 수 있다. 이후 특징 추출 모듈(121)은, 추출한 눈과 입을 역삼각형 형태로 연결하여 코 영역을 추출하고, 상기 코 영역 내에서 에지 및 색상 변화를 분석하여 코의 상세 정보를 추출하며, 더하여, 상기 추출한 눈 위의 영역에서 색상 변화를 분석하여 눈썹을 추출하고, 더불어, 얼굴의 특징점 및 윤곽선을 추출하는 등, 얼굴의 각 부위별 상세 정보를 추출하며, 이렇게 상기 추출한 각 얼굴 부위로부터 실측된 값 및 통계 정보를 결합하여, 사용자의 얼굴 부위별로 특징 정보를 추출한다. 여기서 얼굴의 특징 정보는, 얼굴의 전체 길이 및 폭, 턱 길이, 하안, 중안, 코의 높이, 코의 길이, 입의 높이, 입의 길이, 눈의 길이, 이마의 높이 등 사용자의 정면 얼굴에 대한 폴리곤 생성을 위해 필요한 여러 정보를 포함한다.The feature extraction module 121 extracts feature information of a face representing a feature of each part of the face (eye, nose, mouth, eyebrow, outline, forehead, chin, etc.) from the user's front face image. More specifically, the feature extraction module 121 first extracts eyes and mouth from the user's frontal face image. Here, the eye extraction may be performed by first extracting a pupil, and then extracting an eye shape based on the pupil. In addition, such eye and mouth extraction can be performed using general face recognition technology. Then, the feature extraction module 121 extracts the nose region by connecting the extracted eye and mouth in an inverted triangle shape, extracts detailed information of the nose by analyzing the edge and color change in the nose region, Extracts eyebrows by analyzing the color change in the above area, and extracts the feature points and contour lines of the face, and extracts detailed information of each part of the face. Then, the measured values and statistical information And extracts feature information for each face region of the user. Here, the feature information of the face includes information on the front face of the user such as the total length and width of the face, the length of the chin, the height of the lower part, the center of the nose, the height of the nose, the length of the nose, It contains various information needed for polygon generation.

다음으로, 상기 유형 추출 모듈(122)은 상기 특징 추출 모듈(121)에서 추출한 얼굴의 특징 정보를 기 분류된 유형과 비교하여, 사용자의 얼굴과 매칭되는 얼굴의 유형 정보를 추출한다. 여기서, 얼굴의 유형 정보는, 다양한 사용자의 얼굴을 일정 기준에 따라 구분한 것으로서, 예를 들어, 형태(계란형, 둥근형, 네모형, 세모형 등), 인종(황인, 백인, 흑인, 혼혈 등), 성별(남, 여), 연령(유아기, 아동기, 청년기, 장년기, 노년기 등)으로 구분되는 얼굴의 유형을 정보를 의미한다. Next, the type extraction module 122 compares the feature information extracted from the feature extraction module 121 with the pre-classified type, and extracts the type information of the face matched with the user's face. Here, the type information of the face is obtained by dividing the faces of various users according to certain criteria. For example, the type information (egg type, round type, four type, and three type), race (yellow, white, black, , Sex (male, female), age (infancy, childhood, adolescence, adulthood, old age, etc.).

마지막으로, 영상 추론 모듈(123)은 상기 특징 추출 모듈(121) 및 유형 추출 모듈(122)로부터 추출된 얼굴의 특징 정보와 얼굴의 유형 정보를 결합하여, 상기 사용자의 정면 얼굴에 대한 폴리곤을 생성하고, 이로부터 상기 사용자의 측면 및 후면 얼굴 영상을 추론한다. 이때, 기 학습된 얼굴 영상을 참조할 수 있다. 즉, 동일 얼굴의 유형에 대하여 이전에 추론되었거나 미리 설정되어 있는 측면 및 후면 얼굴 영상을 참조할 수 있다. 이때 상기 영상 추론 모듈(122)에서 생성하는 측면 및 후면 얼굴 영상은 3차원 혹은 2차원의 스틸 영상일 수 있으며, 특히 측면 얼굴 영상은 일정 각도 기준으로 더 세분화되어 구현될 수 있다. 예를 들면, 정면을 기준점으로 할 때, 0~60도의 제1 측면 얼굴 영상, 61~90도의 제2 측면 얼굴 영상, 90~140도의 제3 측면 영상이 생성될 수 있다.Finally, the image reasoning module 123 combines the feature information of the face extracted from the feature extraction module 121 and the type extraction module 122 with the face type information to generate a polygon for the front face of the user And infer the side and back face images of the user therefrom. At this time, the learned face image can be referred to. That is, it is possible to refer to side and back face images previously deduced or preset for the same face type. At this time, the side and back face images generated by the image reasoning module 122 may be three-dimensional or two-dimensional still images. In particular, the side face images may be further subdivided based on a certain angle. For example, when the front surface is a reference point, a first side face image of 0 to 60 degrees, a second side face image of 61 to 90 degrees, and a third side image of 90 to 140 degrees can be generated.

이어서, 가상 미용 서비스부(130)는 네트워크(10)를 통해서 헤어 및 메이크업을 포함하는 미용 분야와 관련된 가상 체험 서비스를 제공하는 부분으로서, 더 구체적으로 설명하면, 상기 수신한 사용자의 정면 얼굴 영상 및 상기 얼굴 인식부(120)로부터 추론을 통해 생성된 측면 및 후면 얼굴 영상 중에서 하나 이상을 특정 미용 오브젝트와 결합하여 사용자의 정면, 측면 및 후면 중에서 하나 이상의 방향으로 표현되는 가상 미용 모델링 영상을 생성하여 단말 장치(200)로 제공한다. 예를 들어 설명하면, 가상 미용 서비스부(130)는 특정 스타일의 형상으로 이루어진 헤어 오브젝트를 상기 사용자의 정면, 후면, 측면 얼굴 영상 중에서 하나 이상과 결합하여, 사용자가 해당 헤어 오브젝트의 헤어 스타일로 변경했을 때의 모습의 하나 이상의 방향(정면, 측면, 후면)으로 모델링하여 제공한다.Then, the virtual beauty service unit 130 provides a virtual experience service related to the cosmetic field including hair and makeup through the network 10. More specifically, the virtual beauty service unit 130 includes a front face image of the received user, One or more of the facial images generated through inference from the facial recognition unit 120 may be combined with a specific beauty object to generate a virtual beauty modeling image expressed in one or more directions from the front, To the device (200). For example, the virtual beauty service unit 130 may combine a hair object having a specific style shape with one or more of the front, back, and side face images of the user to change the hair style of the hair object (Front, side, and rear) of the appearance of the image when it is made.

그리고, 저장부(140)는 본 발명에 의한 얼굴 인식 추론 기반 서비스 장치(100)에서 얼굴 인식 추론 및 가상 미용 체험 서비스를 수행하는데 필요한 데이터를 저장한다. 더 구체적으로 설명하면, 저장부(140)는 상기 얼굴 인식부(120)에서 상기 얼굴 특징 정보와 비교되고, 얼굴 형태, 인종, 성별, 연령 중에서 하나 이상으로 구분되는 다수의 얼굴 유형에 대한 정보를 저장하는 얼굴 유형 DB와, 상기 얼굴 인식부(120)에서 얼굴 특징 정보 및 얼굴 유형 정보로부터 추론된 측면 및 후면 얼굴 영상을 저장하는 얼굴 영상 DB와, 상기 가상 미용 서비스부에서 이용될 다수의 미용 오브젝트를 저장하는 미용 오브젝트 DB 중에서 하나 이상을 저장하고, 상기 얼굴 인식부(120) 및 가상 미용 서비스부(130)의 요청에 따라서 요청된 정보를 제공한다. 이러한 저장부(140)는 램(RAM, Read Access Memory), 롬(ROM, Read Only Memory), 하드디스크(HDD, Hard Disk Drive), 플래시 메모리, CD-ROM, DVD 뿐만 아니라, 네트워크 접근 스토리지(NAS, Network Access Storage)와 같이 모든 종류의 저장 매체를 포함할 수 있다.The storage unit 140 stores data necessary for performing face recognition inference and virtual beauty experience service in the face recognition reasoning based service device 100 according to the present invention. More specifically, the storage unit 140 stores information on a plurality of face types that are compared with the face feature information in the face recognizing unit 120 and are divided into at least one of face type, race, gender, and age A facial image DB for storing facial type DB stored in the facial image recognition unit 120, facial image DB for storing side and back facial images deduced from facial characteristic information and facial type information in the facial recognition unit 120, And provides the requested information in response to a request from the face recognition unit 120 and the virtual beauty service unit 130. [ The storage unit 140 may be a RAM, a read only memory (ROM), a hard disk drive (HDD), a flash memory, a CD-ROM, NAS, and Network Access Storage).

도 3은 본 발명의 일 실시 예에 따라서 상기 서비스 장치(100)를 통해 이루어지는 얼굴 인식 추론 기반 서비스 방법을 나타낸 메시지 흐름도이다.3 is a message flow diagram illustrating a method of providing a face recognition inference service through the service device 100 according to an embodiment of the present invention.

도 3을 참조하면, 단말 장치(200)는 사용자 입력 신호에 따라서 서비스 장치(100)에 접속하여, 서비스를 요청한다(S105).Referring to FIG. 3, the terminal device 200 accesses the service device 100 according to a user input signal and requests a service (S105).

이에 서비스 장치(100)는 사용자 인증을 통해서 서비스 이용이 가능한 사용자 인지를 확인한 후, 상기 단말 장치(200)로 서비스를 허용한다는 응답을 전달한다(S110). Then, the service apparatus 100 confirms whether the user is allowed to use the service through the user authentication, and then transmits a response to the terminal apparatus 200 to permit the service (S110).

이후, 단말 장치(200)는 사용자의 정면 얼굴 영상을 획득하여, 서비스 장치(100)로 전송한다(S115, S120). 이는 단말 장치(200)가 서비스 장치(100)로부터의 요청에 따라서, 카메라부(230)를 동작시켜, 사용자의 정면 얼굴 영상을 촬영하거나, 저장부(260)에 기 저장된 사용자의 정면 얼굴 영상을 로딩하여, 서비스 장치(100)로 전송하는 형태로 이루어질 수 있다.After that, the terminal device 200 acquires the front face image of the user and transmits it to the service device 100 (S115, S120). This is because the terminal apparatus 200 operates the camera unit 230 in response to a request from the service apparatus 100 to photograph a front face image of a user or to display a front face image of a user stored in the storage unit 260 And transmits the data to the service apparatus 100. [

이어서, 서비스 장치(100)는, 수신한 사용자의 정면 얼굴 영상에 대한 얼굴 인식 과정을 실행하는데, 먼저, 얼굴 인식부(120)의 특징 추출 모듈(121)을 통해서 상기 수신한 정면 얼굴 영상으로부터 얼굴의 특징 정보를 추출한다(S125). 여기서 얼굴의 특징 정보는, 사용자의 정면 얼굴 영상으로부터 얼굴의 각 부위(눈, 코, 입, 눈썹, 윤곽, 이마, 턱 등) 별 특징을 나타내는 얼굴의 특징 정보를 의미하는 것으로서, 예를 들어, 얼굴의 전체 길이 및 폭, 턱 길이, 하안, 중안, 코의 높이, 코의 길이, 입의 높이, 입의 길이, 눈의 길이, 이마의 높이 등 사용자의 얼굴에 대한 폴리곤 생성을 위해 필요한 여러 정보를 포함한다. 이러한 얼굴의 특징 정보는 도 6에 도시된 바와 같은 과정을 통해서 추출될 수 있으며, 도 7은 도 6의 과정을 통해서 처리된 사용자의 정면 얼굴 영상을 예시한다. 도 7에서, 얼굴 영상 위에 나타난 각 점은 사용자의 정면 얼굴 영상으로부터 추출된 얼굴의 각 부위를 나타내는 특징점이며, 이러한 특징점을 연결하여, 얼굴의 각 부위를 표현할 수 있다.Then, the service apparatus 100 executes the face recognition process for the front face image of the user. First, the service apparatus 100 receives the face image from the received front face image through the feature extraction module 121 of the face recognition unit 120, (S125). Here, the feature information of the face means feature information of a face that shows the feature of each part of the face (eye, nose, mouth, eyebrow, outline, forehead, jaw, etc.) from the front face image of the user, The various information needed to create a polygon for a user's face, such as the total length and width of the face, the length of the chin, the height of the nose, the center of the nose, the height of the nose, the length of the nose, the height of the mouth, the length of the mouth, . The feature information of the face can be extracted through a process as shown in FIG. 6, and FIG. 7 illustrates a front face image of the user processed through the process of FIG. In FIG. 7, each point on the facial image is a feature point representing each part of the face extracted from the front face image of the user, and each of the facial parts can be expressed by connecting these feature points.

다음으로, 얼굴 인식 기반 서비스 장치(100)의 얼굴 인식부(120)는 유형 추출 모듈(122)을 통해서, 상기 추출한 얼굴의 특징 정보를 기 분류된 유형과 비교하여, 얼굴의 유형 정보를 추출한다(S130). 여기서, 얼굴의 유형 정보는, 다양한 사용자의 얼굴을 일정 기준에 따라 구분한 것으로서, 예를 들어, 형태(계란형, 둥근형, 네모형, 세모형 등), 인종(황인, 백인, 흑인, 혼혈 등), 성별(남, 여), 연령(유아기, 아동기, 청년기, 장년기, 노년기 등)으로 구분되는 얼굴의 유형을 정보를 의미한다. 상기 단계(S130)는 기 설정된 다양한 얼굴 유형별 표준 정보와 상기 추출한 사용자 얼굴의 특징 정보를 비교하여, 그 매칭 결과에 따라서, 사용자의 얼굴 유형 정보를 추출하게 된다.Next, the face recognition unit 120 of the face recognition-based service apparatus 100 compares the extracted feature information of the face with the pre-classified type through the type extraction module 122 to extract the type information of the face (S130). Here, the type information of the face is obtained by dividing the faces of various users according to certain criteria. For example, the type information (egg type, round type, four type, and three type), race (yellow, white, black, , Sex (male, female), age (infancy, childhood, adolescence, adulthood, old age, etc.). The step (S130) compares the predetermined standard information for each face type with the feature information of the extracted user face, and extracts the user's face type information according to the matching result.

그리고, 서비스 장치(100)의 얼굴 인식부(120)는 영상 추론 모듈(123)을 통해서 상기 추출한 얼굴의 특징 정보와 유형 정보를 결합하여, 사용자의 정면 얼굴 영상에 대한 폴리곤을 생성하고, 이로부터 상기 사용자의 측면 및 후면 얼굴 영상 중에서 하나 이상을 추론을 통해 생성한다(S135). 상기 사용자의 측면 및 후면 얼굴 영상의 추론은 기 학습된 얼굴 영상들을 참조하여 이루어질 수 있다. 예를 들어, 상기 사용자의 정면 얼굴 영상에 대한 폴리곤을 생성 후, 상기 폴리곤을 지정된 각도로 회전시키고 기 학습된 얼굴 영상으로부터 추출된 얼굴 유형의 표준 얼굴에 대한 측면 영상과 후면 영상을 결합함으로써 이루어질 수 있다. 도 8은 상기 도 7과 같은 사용자 정면 얼굴 영상으로부터 생성된 사용자의 정면 얼굴 영상에 대한 폴리곤 및 이로부터 추론된 측면 얼굴 영상의 폴리곤을 예시한다. 도 8에서 (a)는 정면 얼굴 영상으로부터 생성된 폴리곤을 나타내며, (b)는 상기 폴리곤을 일정 각도 회전시켜, 측면 얼굴 영상에 대한 폴리곤을 도출한 상태를 나타낸다. 여기서, 서비스 장치(100)는 상기 추론한 측면 및 후면의 얼굴 영상 중에서 하나 이상을 단말 장치(200)에 제공할 수 있다.The face recognition unit 120 of the service apparatus 100 combines the feature information of the extracted face with the type information through the image inference module 123 to generate a polygon for the front face image of the user, At least one of the side and back face images of the user is generated through inference (S135). The inference of the user's side and back face images can be done with reference to the learned face images. For example, after generating a polygon for the front face image of the user, the polygon is rotated at a specified angle, and the side image and the back image of the standard face of the face type extracted from the learned face image are combined have. FIG. 8 illustrates a polygon of a front face image of a user generated from a user front face image as shown in FIG. 7 and a polygon of a side face image deduced therefrom. 8 (a) shows a polygon generated from a front face image, and FIG. 8 (b) shows a polygon derived from a side face image by rotating the polygon by a predetermined angle. Here, the service apparatus 100 may provide at least one of the speculated side and rear face images to the terminal device 200. [

이어서, 서비스 장치(100)는 상술한 얼굴 인식 결과를 이용하여 얼굴 인식 기반 서비스를 실행하는데, 이를 위해 단말 장치(200)로 가상 체험하고자 하는 미용 오브젝트의 선택을 요청하고(S140), 사용자의 미용 오브젝트 선택 정보를 포함하는 응답을 수신한다(S145).Then, the service apparatus 100 executes the face recognition-based service using the above-described face recognition result. To this end, the service apparatus 100 requests the terminal device 200 to select a beauty object to be virtualized (S140) And receives a response including the object selection information (S145).

상기 응답을 통해서 사용자가 가상으로 체험하고자 하는 미용 오브젝트를 확인한 서비스 장치(100)는 선택된 미용 오브젝트를 상기 사용자의 정면 얼굴 영상과, 상기 생성한 측면 및 후면 얼굴 영상 중에서 하나 이상과 각각 결합하여 사용자의 정면, 측면 및 후면 방향 중 하나 이상의 방향으로 표현되는 가상 미용 모델링 영상을 생성하고(S150), 생성한 가상 미용 모델링 영상을 단말 장치(200)로 전송한다(S155). The service device 100, which has confirmed the beauty object to be experienced by the user through the response, combines the selected beauty object with at least one of the user's front face image and the generated side face and rear face image, The virtual beauty modeling image is represented by at least one of a front face, a side face, and a back face direction (S150), and the generated virtual beauty modeling image is transmitted to the terminal device 200 (S155).

이에 단말 장치(200)는 수신한 가상 미용 모델링 영상을 사용자에게 출력한다(S160).The terminal device 200 outputs the received virtual beauty modeling image to the user (S160).

도 9는 상술한 과정을 통해서 제공되는 얼굴 인식 기반 서비스의 일 예를 나타낸 것으로서, 도시된 바와 같이, 본 발명에 의한 얼굴 인식 기반 서비스 장치(100)는 사용자의 정면 얼굴 영상(91)으로부터 사용자의 측면 얼굴 영상 및 후면 얼굴 영상을 추론함으로써, 선택된 헤어 오브젝트(92)를 착용한 사용자의 정면 모델링 영상(93)뿐만 아니라 측면 모델링 영상(94) 및 후면 모델링 영상(95)을 함께 제공할 수 있게 된다.FIG. 9 illustrates an example of a face recognition based service provided through the above-described process. As shown in FIG. 9, the face recognition based service apparatus 100 according to the present invention extracts, from a user's front face image 91, It is possible to provide both the side modeling image 94 and the rear modeling image 95 as well as the front modeling image 93 of the user wearing the selected hair object 92 by inferring the side face image and the rear face image .

한편, 본 발명의 다른 실시 예에 있어서, 얼굴 인식 및 얼굴 인식 기반 서비스는 상술한 얼굴 인식 서비스 장치(100)의 개입 없이, 단말 장치(200) 위주로 실행될 수 있다.Meanwhile, in another embodiment of the present invention, the face recognition and face recognition based service can be performed mainly on the terminal device 200 without involvement of the face recognition service device 100 described above.

도 4는 본 발명의 다른 실시 예에 따른 단말 장치(200)의 구성을 나타낸 블럭도이다.4 is a block diagram illustrating a configuration of a terminal device 200 according to another embodiment of the present invention.

도 4를 참조하면, 단말 장치(200)는 통신부(210)와, 입력부(220)와, 카메라부(230)와, 제어부(240)와, 출력부(250)와, 저장부(260)를 포함하여 이루어질 수 있다.4, the terminal 200 includes a communication unit 210, an input unit 220, a camera unit 230, a control unit 240, an output unit 250, and a storage unit 260 .

통신부(210)는 네트워크(10)를 통해서 데이터를 송수신하는 수단으로서, 특히 단말 장치(200)의 통신부(210)는 네트워크(10)를 통해 얼굴 인식 기반 서비스 장치(100)와 통신하여 얼굴 인식 및 얼굴 인식 기반 서비스 실행과 관련된 데이터를 송수신할 수 있다.The communication unit 210 of the terminal device 200 communicates with the face recognition based service device 100 via the network 10 to perform face recognition and face recognition, And send and receive data related to face recognition based service execution.

상기 입력부(220)는 사용자의 조작에 따라 사용자 입력 신호를 발생한다. 이러한 입력부(220)는 다양한 방식의 입력 수단으로 구현될 수 있다. 예를 들면, 입력부(220)는 키 입력 수단, 터치 입력 수단, 제스처 입력 수단, 음성 입력 수단 중에서 하나 이상을 포함할 수 있다. 키 입력 수단은, 키 조작에 따라서 해당 키에 대응하는 신호를 발생시키는 것으로서, 키패드, 키보드가 해당된다. 터치 입력 수단은, 사용자가 특정 부분을 터치하는 동작을 감지하여 입력 동작을 인식하는 것으로서, 터치 패드, 터치 스크린, 터치 센서를 들 수 있다. 제스처 입력 수단은, 사용자의 동작, 예를 들어, 단말 장치를 흔들거나 움직이는 동작, 단말 장치에 접근하는 동작, 눈을 깜빡이는 동작 등 지정된 특정 동작을 특정 입력 신호로 인식하는 것으로서, 지자기 센서, 가속도 센서, 카메라, 고도계, 자이로 센서, 근접 센서 중에서 하나 이상을 포함하여 이루어질 수 있다. 사용자는 입력부(220)를 통해서 얼굴 인식 또는 얼굴 인식 기반 서비스를 요청하거나, 얼굴 인식 기반 서비스를 위해 모델링 하고자 하는 특정 미용 오브젝트를 선택할 수 있다.The input unit 220 generates a user input signal according to a user's operation. The input unit 220 may be realized by various input means. For example, the input unit 220 may include at least one of a key input unit, a touch input unit, a gesture input unit, and a voice input unit. The key input means generates a signal corresponding to the key according to the key operation, and corresponds to a keypad and a keyboard. The touch input means is a touch pad, a touch screen, and a touch sensor, which recognize an input operation by sensing a user's operation of touching a specific portion. The gesture input means recognizes a specific operation, such as a shaking or moving operation of the terminal device, an approach to the terminal device, a blinking operation, etc., as a specific input signal, such as a geomagnetic sensor, A sensor, a camera, an altimeter, a gyro sensor, and a proximity sensor. The user can request the face recognition or face recognition based service through the input unit 220 or select specific beauty objects to be modeled for the face recognition based service.

카메라부(230)는 영상을 촬영하는 수단으로서, 본 발명에 있어서, 얼굴 인식 및 얼굴 인식 기반 서비스에 사용할 사용자의 영상을 촬영하는데 이용될 수 있다. 특히, 상기 카메라부(230)는 사용자의 2차원 정면 얼굴 영상을 촬영한다.The camera unit 230 is a means for photographing an image. In the present invention, the camera unit 230 can be used to photograph an image of a user for use in a face recognition and face recognition based service. In particular, the camera unit 230 photographs a two-dimensional frontal face image of the user.

제어부(240)는 입력부(220)를 통해 발생한 사용자 입력 신호에 따라서 단말 장치(200)의 동작 전반을 제어하고, 특정 기능을 실행한다. 상기 제어부(240)는 CPU 혹은 MPU 등을 포함하는 개념으로서, 운영 프로그램 및 응용 프로그램에 따라서 동작하여 다양한 기능을 실행할 수 있다. 본 발명에 있어서, 상기 제어부(240)는 얼굴 인식 추론 및 얼굴 인식 추론 기반 서비스 실행을 위해 얼굴 인식 모듈(241) 및 가상 모델링 모듈(242) 중에서 하나 이상을 포함한다. The control unit 240 controls the entire operation of the terminal device 200 according to a user input signal generated through the input unit 220, and executes a specific function. The control unit 240 is a concept including a CPU or an MPU, and can perform various functions by operating according to an operating program and an application program. In the present invention, the controller 240 includes at least one of a face recognition module 241 and a virtual modeling module 242 for executing a face recognition reasoning and a face recognition reasoning based service.

상기 얼굴 인식 모듈(241)은, 정면 얼굴 영상으로부터 얼굴의 특징 정보를 추출하고, 얼굴 특징 정보를 비교 분석하여 얼굴의 유형 정보를 추출한 후, 얼굴의 특징 정보 및 얼굴의 유형 정보를 결합하여 측면 및 후면 얼굴 영상 중에서 하나 이상을 추론한다. 이에, 제어부(240)는 상기 사용자의 입력 신호에 따라서 상기 카메라부(230)를 제어하여 사용자의 정면 얼굴 영상을 획득하고, 상기 얼굴 인식 모듈(241)을 통해 상기 획득한 사용자의 정면 얼굴 영상으로부터 사용자의 측면 및 후면 얼굴 영상 중에서 하나 이상을 추론하여 사용자에게 제공할 수 있다. The face recognition module 241 extracts feature information of the face from the front face image, extracts the type information of the face by comparing and analyzing the face feature information, and then combines the feature information of the face and the type information of the face, Infer one or more of the back facial images. The control unit 240 controls the camera unit 230 in accordance with the input signal of the user to acquire the front face image of the user and acquires the front face image of the user through the face recognition module 241 One or more of the user's side and back face images can be inferred and provided to the user.

상기 가상 모델링 모듈(242)은 상기 사용자의 정면, 측면, 후면 얼굴 영상 중에서 하나 이상을 이용하여 얼굴 인식 기반 서비스를 실행하는 것으로서, 더 구체적으로는, 상기 사용자의 정면, 측면, 후면 얼굴 영상 중에서 하나 이상과 사용자가 선택한 미용 오브젝트를 결합하여 가상 미용 모델링 영상을 생성한다. The virtual modeling module 242 executes the face recognition based service using at least one of front, side, and back face images of the user. More specifically, the virtual modeling module 242 executes one of face, And combines the above-mentioned beauty objects selected by the user to generate a virtual beauty modeling image.

다음으로, 출력부(250)는 상기 제어부(240)의 제어에 따라서 단말 장치(200)의 동작 상태 및 동작 결과를 사용자에게 출력하는 부분으로서, 특히, 본 발명에 있어서, 사용자의 정면 얼굴 영상, 측면 및 후면 얼굴 영상 중에서 하나 이상, 그리고, 상기 사용자의 정면, 측면, 후면 얼굴 영상 중에서 하나 이상으로부터 생성된 가상 미용 모델링 영상을 사용자가 인식할 수 있도록 출력한다. 이러한 출력부(250)는 디스플레이 수단으로 구현될 수 있는데, 예를 들어, LCD((Liquid Crystal Display), TFT-LCD(Thin Film Transistor-Liquid Crystal Display), LED(Light Emitting Diodes), OLED(Organic Light Emitting Diodes), AMOLED(Active Matrix Organic Light Emitting Diodes), 플렉시블 디스플레이(flexible display), 3차원 디스플레이 중에서 어느 하나가 될 수 있다.The output unit 250 outputs the operation status and operation result of the terminal device 200 to the user under the control of the controller 240. In particular, in the present invention, The virtual beauty modeling image generated from at least one of the front and back face images of the user and the front face, the side face, and the back face image of the user so that the user can recognize the virtual beauty modeling image. The output unit 250 may be implemented as a display unit such as an LCD (Liquid Crystal Display), a TFT-LCD (Thin Film Transistor-Liquid Crystal Display), an LED (Light Emitting Diodes) Light Emitting Diodes), AMOLED (Active Matrix Organic Light Emitting Diodes), flexible displays, and three-dimensional displays.

마지막으로, 단말 장치(200)의 저장부(260)는 단말 장치(200)의 동작에 필요한 데이터 및 프로그램을 저장하는 수단으로서, 기본적으로 상기 제어부(240)에 의해 실행될 운영 프로그램 및 응용 프로그램을 저장한다. 더하여, 저장부(260)는 얼굴 인식 추론 및 얼굴 인식 추론 기반 서비스를 실행하는데 필요한 데이터를 저장한다. 예를 들면, 사용자의 정면 얼굴 영상, 얼굴 형태, 인종, 성별, 연령 중에서 하나 이상으로 구분되어 상기 얼굴 인식 모듈(241)에서 상기 얼굴 특징 정보와 비교될 다수의 얼굴 유형 정보, 상기 얼굴 특징 정보 및 얼굴 유형 정보를 결합하여 추론된 측면 및 후면 얼굴 영상, 다수의 미용 오브젝트 중에서 하나 이상을 저장한다.Finally, the storage unit 260 of the terminal device 200 stores data and programs necessary for the operation of the terminal device 200, and basically stores the operating programs and application programs to be executed by the control unit 240 do. In addition, the storage unit 260 stores data necessary for executing the face recognition reasoning and face recognition reasoning based services. For example, a plurality of face type information to be compared with the face feature information in the face recognition module 241 may be divided into at least one of a front face image, a face form, a race, a gender, and an age of the user, Face type information, and inferred side and back face images, and a plurality of beauty objects.

상술한 구성을 통해서 단말 장치(200)는 사용자의 2차원 정면 얼굴 영상을 촬영한 후, 이를 기반으로 사용자의 측면 및 후면 얼굴 영상 중에서 하나 이상을 추론하여 사용자에게 제공하거나, 상기 정면 얼굴 영상, 측면 및 후면 얼굴 영상 중에서 하나 이상을 기반으로 얼굴 인식 기반 서비스를 실행하여 사용자에게 제공할 수 있다. 이때, 단말 장치(200)는 상기 측면 및 후면 얼굴 영상 중에서 하나 이상을 추론하는데 필요하거나, 얼굴 인식 기반 서비스를 제공하는데 필요한 데이터를 상기 통신부(210)를 통해서 얼굴 인식 서비스 장치로부터 전송 받아 저장부(260)에 저장할 수 있다.The terminal device 200 may capture the user's two-dimensional frontal face image and then provide one or more of the user's side and rear face images to the user on the basis of the photographed face image, And a rear face image based on at least one of the face image and the face image. At this time, the terminal device 200 receives data necessary for inferring one or more of the above-described side and back face images, or necessary for providing a face recognition based service, from the face recognition service device through the communication unit 210, 260).

이어서, 도 5는 상술한 단말 장치(200)를 기반으로 이루어지는 얼굴 인식 서비스 방법을 나타낸 순서도이다.5 is a flowchart illustrating a face recognition service method based on the terminal device 200 described above.

도 5를 참조하면, 단말 장치(200)는 먼저 사용자의 정면 얼굴 영상을 획득한다(S205). 이는 단말 장치(200)가 입력부(220)를 통해 발생한 사용자 입력 신호에 따라서, 카메라부(230)를 동작시켜, 사용자의 정면 얼굴 영상을 촬영함에 의해 이루어질 수 있다. 또한, 이는 단말 장치(200)가 사용자 입력 신호에 따라서 저장부(260)에 기 저장된 사용자의 정면 얼굴 영상을 로딩함에 의해 이루어질 수 있다.Referring to FIG. 5, the terminal device 200 first acquires a front face image of a user (S205). This can be done by operating the camera unit 230 and photographing the front face image of the user according to a user input signal generated through the input unit 220 by the terminal device 200. [ Also, this can be done by loading the front face image of the user stored in the storage unit 260 according to the user input signal.

이와 같이, 사용자의 정면 얼굴 영상이 획득되면, 단말 장치(200)는, 제어부(240)의 얼굴 인식 모듈(241)을 통해서 상기 획득한 정면 얼굴 영상으로부터 얼굴의 특징 정보를 추출한다(S210). 여기서 얼굴의 특징 정보는, 사용자의 정면 얼굴 영상으로부터 얼굴의 각 부위(눈, 코, 입, 눈썹, 윤곽, 이마, 턱 등) 별 특징을 나타내는 얼굴의 특징 정보를 의미하는 것으로서, 예를 들어, 얼굴의 전체 길이 및 폭, 턱 길이, 하안, 중안, 코의 높이, 코의 길이, 입의 높이, 입의 길이, 눈의 길이, 이마의 높이 등 사용자의 얼굴에 대한 폴리곤 생성을 위해 필요한 여러 정보를 포함한다. 이러한 얼굴의 특징 정보는 도 6에 도시된 바와 같은 과정을 통해서 추출될 수 있으며, 도 7은 도 6의 과정을 통해서 처리된 사용자의 정면 얼굴 영상을 나타낸다. 도 7에서, 얼굴 영상 위에 표시된 점은 사용자의 정면 얼굴 영상으로부터 추출된 얼굴의 각 부위를 나타내는 특징점이며, 이러한 특징점을 연결하여, 얼굴의 각 부위를 표현할 수 있다.When the front face image of the user is thus obtained, the terminal device 200 extracts the face feature information from the obtained front face image through the face recognition module 241 of the control unit 240 (S210). Here, the feature information of the face means feature information of a face that shows the feature of each part of the face (eye, nose, mouth, eyebrow, outline, forehead, jaw, etc.) from the front face image of the user, The various information needed to create a polygon for a user's face, such as the total length and width of the face, the length of the chin, the height of the nose, the center of the nose, the height of the nose, the length of the nose, the height of the mouth, the length of the mouth, . The feature information of the face can be extracted through the process as shown in FIG. 6, and FIG. 7 shows the front face image of the user processed through the process of FIG. In FIG. 7, a point displayed on the face image is a feature point representing each part of the face extracted from the front face image of the user, and the respective points of the face can be expressed by connecting the feature points.

다음으로, 단말 장치(200)는 상기 추출한 얼굴의 특징 정보를 기 분류된 유형과 비교하여, 얼굴의 유형 정보를 추출한다(S215). 여기서, 얼굴의 유형 정보는, 다양한 사용자의 얼굴을 일정 기준에 따라 구분한 것으로서, 예를 들어, 형태(계란형, 둥근형, 네모형, 세모형 등), 인종(황인, 백인, 흑인, 혼혈 등), 성별(남, 여), 연령(유아기, 아동기, 청년기, 장년기, 노년기 등)으로 구분되는 얼굴의 유형을 정보를 의미한다. 상기 단계(S215)는 기 설정된 다양한 얼굴 유형별 표준 정보와 상기 추출한 사용자 얼굴의 특징 정보를 비교하여, 그 매칭 결과에 따라서, 사용자의 얼굴 유형 정보를 추출하게 된다.Next, the terminal device 200 compares the extracted feature information of the face with the pre-classified type to extract face type information (S215). Here, the type information of the face is obtained by dividing the faces of various users according to certain criteria. For example, the type information (egg type, round type, four type, and three type), race (yellow, white, black, , Sex (male, female), age (infancy, childhood, adolescence, adulthood, old age, etc.). The step (S215) compares the predetermined standard information for each face type with the feature information of the extracted user face, and extracts the user's face type information according to the matching result.

그리고, 단말 장치(200)는 상기 추출한 얼굴의 특징 정보와 유형 정보를 결합하여, 사용자의 정면 얼굴 영상에 대한 폴리곤을 생성하고, 이로부터 상기 사용자의 측면 및 후면 얼굴 영상 중에서 하나 이상을 추론한다(S220). 상기 사용자의 측면 및 후면 얼굴 영상의 추론은 기 학습된 얼굴 영상들을 참조하여 이루어질 수 있다. 예를 들어, 상기 사용자의 정면 얼굴 영상에 대한 폴리곤을 생성 후, 상기 폴리곤을 지정된 각도로 회전시키고 기 학습된 얼굴 영상으로부터 추출된 얼굴 유형의 표준 얼굴에 대한 측면 영상과 후면 영상을 결합함으로써 이루어질 수 있다. 도 8은 상기 도 7과 같은 사용자 정면 얼굴 영상으로부터 생성된 사용자의 정면 얼굴 영상에 대한 폴리곤 및 이로부터 추론된 측면 얼굴 영상의 폴리곤을 예시한다. 도 8에서 (a)는 정면 얼굴 영상으로부터 생성된 폴리곤을 나타내며, (b)는 상기 폴리곤을 일정 각도 회전시켜, 측면 얼굴 영상에 대한 폴리곤을 도출한 상태를 나타낸다.Then, the terminal device 200 combines the feature information of the extracted face with the type information to generate a polygon for the user's front face image, and infer one or more of the user's side and back face images from the polygon S220). The inference of the user's side and back face images can be done with reference to the learned face images. For example, after generating a polygon for the front face image of the user, the polygon is rotated at a specified angle, and the side image and the back image of the standard face of the face type extracted from the learned face image are combined have. FIG. 8 illustrates a polygon of a front face image of a user generated from a user front face image as shown in FIG. 7 and a polygon of a side face image deduced therefrom. 8 (a) shows a polygon generated from a front face image, and FIG. 8 (b) shows a polygon derived from a side face image by rotating the polygon by a predetermined angle.

이어서, 단말 장치(200)는 상술한 얼굴 인식 결과를 이용하여 얼굴 인식 기반 서비스를 실행하는데, 사용자 입력 신호에 따라서, 사용자가 가상으로 체험하고자 하는 미용 오브젝트를 선택한다(S225). 예를 들면, 특정 스타일의 헤어 오브젝트를 선택할 수 있다.Then, the terminal device 200 executes the face recognition-based service using the above-described face recognition result. In response to the user input signal, the user selects a beauty object that the user wants to experience (S225). For example, you can select hair objects of a particular style.

그리고, 단말 장치(200)는 선택한 미용 오브젝트를 상기 사용자의 정면 얼굴 영상과, 상기 생성한 측면 및 후면 얼굴 영상 중에서 하나 이상과 각각 결합하여 사용자의 정면, 측면 및 후면 방향 중 하나 이상의 방향으로 표현되는 가상 미용 모델링 영상을 생성하고(S230), 생성한 가상 미용 모델링 영상을 출력부(250)를 통해서 사용자에게 제공한다(S235). Then, the terminal device 200 combines the selected beauty object with at least one of the front face image of the user and the generated side face and rear face image, respectively, and is expressed in at least one direction of the user's front face, side face, and back face The virtual beauty modeling image is generated (S230), and the generated virtual beauty modeling image is provided to the user through the output unit 250 (S235).

도 9는 상기 단계(S225) 내지 단계(S30)를 통해서 제공되는 얼굴 인식 추론 기반 서비스의 일 예를 나타낸 것으로서, 본 발명의 사용자의 정면 얼굴 영상(91)으로부터 사용자의 측면 얼굴 영상 및 후면 얼굴 영상을 추론함으로써, 선택된 헤어 오브젝트(92)를 착용한 사용자의 정면 모델링 영상(93) 뿐만 아니라 측면 모델링 영상(94) 및 후면 모델링 영상(95)을 함께 제공할 수 있게 된다.FIG. 9 shows an example of the face recognition inference service provided through steps S225 to S30. From the front face image 91 of the user of the present invention, the face image of the user and the face image of the back face It is possible to provide both the side modeling image 94 and the rear modeling image 95 as well as the front modeling image 93 of the user wearing the selected hair object 92. [

*필요한 경우, 단말 장치(200)는 얼굴 인식 추론 및 얼굴 인식 추론 기반 서비스 실행을 위한 일부 동작, 예를 들어, 단계(210) 내지 단계(S220), 단계(S230) 중에서 하나 이상을 서비스 장치(100)를 통해 실행할 수도 있다.If necessary, the terminal device 200 may perform at least one of the operations for performing the face recognition reasoning and the face recognition reasoning based service execution, for example, steps 210 to S220, 100).

도 6은 본 발명에 의한 얼굴 인식 추론 방법에 있어서 특징 정보 추출 과정을 나타낸 순서도이다. 이하에서 설명하는 방법은, 도 3의 단계(S125) 및 도 5의 단계(S210)에 적용될 수 있다.FIG. 6 is a flowchart illustrating a feature information extraction process in the face recognition inference method according to the present invention. The method described below can be applied to step S125 of FIG. 3 and step S210 of FIG.

도 6을 참조하여, 사용자의 정면 얼굴 영상으로부터 얼굴의 특징 정보를 추출하는 과정을 설명하면 다음과 같다.A process of extracting feature information of a face from a user's front face image will be described with reference to FIG.

먼저, 상기 도 3의 단계(S125) 또는 도 5의 단계(210)에서, 서비스 장치(100) 또는 단말 장치(200)는 사용자의 정지 얼굴 영상으로부터 기준이 되는 눈과 입을 추출한다(S305). 여기서, 눈은 먼저 동공을 추출한 후, 상기 동공을 기준으로 눈의 형상을 추출하는 형태로 이루어질 수 있으며, 이러한 눈 및 입의 추출은 일반적인 얼굴 인식 기술을 이용하여 이루어질 수 있다. First, in step S125 of FIG. 3 or step 210 of FIG. 5, the service device 100 or the terminal device 200 extracts a reference eye and mouth from the user's static face image (S305). Here, the eye may be formed by first extracting the pupil, and then extracting the shape of the eye based on the pupil. The extraction of the eye and the mouth may be performed using general face recognition technology.

다음으로, 서비스 장치(100) 또는 단말 장치(200)는 추출한 눈과 입을 역삼각형 형태로 연결하여 코 영역을 추출하고(S310), 상기 코 영역 내에서 에지 및 색상 변화를 분석하여 코의 상세 정보를 추출한다(S315). Next, the service apparatus 100 or the terminal apparatus 200 extracts the nose region by connecting the extracted eyes and mouths in an inverted triangle shape (S310), analyzes the edge and color change in the nose region, (S315).

더하여, 서비스 장치(100) 또는 단말 장치(200)는 상기 추출한 눈 위의 영역에서 색상 변화를 분석하여 눈썹을 추출한다(S320).In addition, the service device 100 or the terminal device 200 extracts the eyebrows by analyzing the color change in the area on the extracted eye (S320).

더불어, 서비스 장치(100) 또는 단말 장치(200)는 사용자의 정면 얼굴 영상에서 얼굴의 특징점 및 윤곽선을 추출한다(S325).In addition, the service apparatus 100 or the terminal device 200 extracts feature points and contours of the face from the user's front face image (S325).

도 7은 상술한 단계(S305~S325)를 통해서 사용자의 정면 얼굴 영상으로부터 얼굴의 특징 부위를 추출한 상태를 나타낸 예시도이다. 도 7에서 흰 점은 얼굴의 각 부위별 특징점을 나타내며, 이러한 특징점을 연결하여 각 얼굴 부위(예를 들어, 눈썹, 눈, 코, 입, 윤곽선 등)가 추출된다.FIG. 7 is an exemplary view showing a state in which a feature portion of a face is extracted from a front face image of a user through the steps S305 to S325. In FIG. 7, white dots represent the feature points of each part of the face, and the respective face parts (for example, eyebrows, eyes, nose, mouth, contour, etc.) are extracted by connecting these feature points.

마지막으로, 상기 서비스 장치(100) 또는 단말 장치(200)는 상기 추출된 얼굴의 각 부위별 특징점을 기준으로, 얼굴의 각 부위별 실측 값 및 통계 정보를 결합하여, 사용자의 얼굴 부위별로 특징 정보를 추출한다(S330). 얼굴의 특징 정보는 상술한 바와 같이, 얼굴의 각 부위(눈, 코, 입, 눈썹, 윤곽, 이마, 턱 등) 별로, 폴리곤 생성을 위해 필요한 정보들, 예를 들어, 얼굴의 전체 길이 및 폭, 턱 길이, 하안, 중안, 코의 높이, 코의 길이, 입의 높이, 입의 길이, 눈의 길이, 이마의 높이를 포함한다. 상기 단계(S330)를 더 구체적으로 설명하면, 상기 추출된 얼굴의 유형 정보를 기반으로, 해당 유형에서 나타나는 통계치를 확인하고, 상기 통계치를 기반으로 추출된 얼굴의 부위별 특징점으로부터 실측 가능한 값으로서, 상기 얼굴의 특징 정보를 산출하게 된다. 예를 들면, 눈썹과 턱선을 가로지는 라인 간의 거리는 얼굴 전체 길이의 60% 이내라는 통계치에 따라서, 상기 분석된 사용자의 정면 얼굴 영상에서 눈썹을 가로지는 라인과 턱선을 가로지는 라인 간의 거리를 실측하고, 이를 상기 통계치에 적용하여 얼굴의 전체 길이를 도출한다. 마찬가지 방식으로, 코의 높이, 코의 길이, 입의 높이 등 얼굴의 특징 정보를 도출하게 된다.Finally, the service device 100 or the terminal device 200 combines the measured values and the statistical information of each part of the face on the basis of the minutiae of each part of the extracted face, (S330). As described above, the feature information of the face includes information necessary for polygon generation, such as the total length and width of the face, for each part of the face (eye, nose, mouth, eyebrow, outline, forehead, , The length of the chin, the length of the chin, the height of the nose, the length of the nose, the height of the mouth, the length of the mouth, the length of the eyes, and the height of the forehead. More specifically, the step (S330) may be performed by checking statistics appearing in the corresponding type based on the extracted face type information, and determining a possible value from the feature points of each part of the face extracted based on the statistic, The feature information of the face is calculated. For example, according to the statistic that the distance between the eyebrows and the line passing through the jaw line is within 60% of the total length of the face, the distance between the line traversing the eyebrow and the line passing the jaw line is measured in the front face image of the user , And this is applied to the statistic to derive the total length of the face. In the same way, feature information of the face such as nose height, nose length, mouth height, etc. is derived.

본 발명에 따른 얼굴 인식 추론 방법 및 이를 이용한 얼굴 인식 추론 기반 서비스 방법은 다양한 컴퓨터 수단을 통하여 판독 가능한 소프트웨어 형태로 구현되어 컴퓨터로 판독 가능한 기록매체에 기록될 수 있다. 여기서, 기록매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 기록매체에 기록되는 프로그램 명령은 본 발명을 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 예컨대 기록매체는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(Magnetic Media), CD-ROM(Compact Disk Read Only Memory), DVD(Digital Video Disk)와 같은 광 기록 매체(Optical Media), 플롭티컬 디스크(Floptical Disk)와 같은 자기-광 매체(Magneto-Optical Media), 및 롬(ROM), 램(RAM, Random Access Memory), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치를 포함한다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함할 수 있다. 이러한 하드웨어 장치는 본 발명의 동작을 수행하기 위해 하나 이상의 소프트웨어 모로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.The face recognition inference method and the face recognition inference based service method using the same according to the present invention can be implemented in software form readable by various computer means and recorded in a computer readable recording medium. Here, the recording medium may include program commands, data files, data structures, and the like, alone or in combination. Program instructions to be recorded on a recording medium may be those specially designed and constructed for the present invention or may be available to those skilled in the art of computer software. For example, the recording medium may be an optical recording medium such as a magnetic medium such as a hard disk, a floppy disk and a magnetic tape, a compact disk read only memory (CD-ROM), a digital video disk (DVD) Includes a hardware device that is specially configured to store and execute program instructions such as a magneto-optical medium such as a floppy disk and a ROM, a random access memory (RAM), a flash memory, do. Examples of program instructions may include machine language code such as those generated by a compiler, as well as high-level language code that may be executed by a computer using an interpreter or the like. Such hardware devices may be configured to operate as one or more software modules to perform the operations of the present invention, and vice versa.

이상과 같이, 본 명세서와 도면에는 본 발명의 바람직한 실시 예에 대하여 개시하였으나, 여기에 개시된 실시 예외에도 본 발명의 기술적 사상에 바탕을 둔 다른 변형 예들이 실시 가능하다는 것은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에게 자명한 것이다. 또한, 본 명세서와 도면에서 특정 용어들이 사용되었으나, 이는 단지 본 발명의 기술 내용을 쉽게 설명하고 발명의 이해를 돕기 위한 일반적인 의미에서 사용된 것이지, 본 발명의 범위를 한정하고자 하는 것은 아니다.While the present invention has been described in connection with what is presently considered to be practical exemplary embodiments, it is to be understood that the invention is not limited to the disclosed embodiments, but, on the contrary, It will be apparent to those skilled in the art. Furthermore, although specific terms are used in this specification and the drawings, they are used in a generic sense only to facilitate the description of the invention and to facilitate understanding of the invention, and are not intended to limit the scope of the invention.

본 발명에 따르면, 일반 카메라 등을 통해 촬영된 사용자의 얼굴 영상만으로 사용자의 측면 얼굴 영상 및 후면 얼굴 영상 중에서 하나 이상을 추론함으로써, 고가의 장비 없이도 보다 사실적이고 입체적인 사용자의 영상을 획득할 수 있으며, 더불어, 사용자의 정면 얼굴 영상으로부터 추론된 측면 얼굴 영상 및/또는 후면 얼굴 영상을 기반으로 얼굴 인식 기반의 다양한 응용 서비스를 제공할 수 있다.According to the present invention, one or more of a user's facial image and a facial image can be inferred only from a facial image of a user photographed through a general camera or the like, thereby realizing a more realistic and stereoscopic user's image without expensive equipment, In addition, various application services based on face recognition can be provided based on the side face image and / or the rear face image deduced from the user's front face image.

더하여, 본 발명은 사용자의 정면 얼굴 영상으로부터 추론된 측면 얼굴 영상 및 후면 얼굴 영상을 헤어, 메이크업을 포함하는 다양한 가상 미용 체험 서비스에 적용함으로써, 사용자에게 정면 얼굴 영상의 촬영만으로 측면 및 후면을 포함하는 향상된 가상 미용 체험 서비스를 제공받을 수 있으며, 서비스 제공자는 보다 사실적이고 입체적인 가상 미용 체험 서비스 구현을 위한 비용을 절감할 수 있는 우수한 효과가 있다.In addition, according to the present invention, the side face image and the rear face image inferred from the user's front face image are applied to various virtual beauty experience services including hair and makeup, It is possible to provide an enhanced virtual beauty experience service, and the service provider has an excellent effect of reducing costs for implementing a more realistic and stereoscopic virtual beauty experience service.

100: 얼굴 인식 기반 서비스 장치 200: 단말 장치
110: 통신부 120: 얼굴 인식부 130: 가상미용 서비스부
140: 저장부 210: 통신부 220: 입력부
230: 카메라부 240: 제어부 250: 출력부
260: 저장부
100: face recognition based service apparatus 200: terminal apparatus
110: communication unit 120: face recognition unit 130: virtual beauty service unit
140: storage unit 210: communication unit 220: input unit
230: camera part 240: control part 250: output part
260:

Claims (13)

네트워크를 통해서 단말 장치와 데이터를 송수신하는 통신부; 및
상기 통신부를 통해 단말 장치로부터 사용자의 정면 얼굴 영상을 수신하고, 수신한 정면 얼굴 영상으로부터 얼굴의 특징 정보를 추출하고, 상기 얼굴 특징 정보를 비교 분석하여 얼굴의 유형 정보를 추출한 후, 상기 얼굴의 특징 정보 및 얼굴의 유형 정보를 기초로 하여 상기 정면 얼굴에 대한 3차원 폴리곤을 생성하고 이로부터 사용자의 얼굴 중 일정 각도에 대한 영상을 추론하는 얼굴 인식부를 포함하는 것을 특징으로 하는 서비스 장치.
A communication unit for transmitting and receiving data to and from a terminal device via a network; And
A facial image of the user is extracted from the received frontal facial image, a facial feature information is compared and analyzed to extract facial type information, And a face recognition unit for generating a three-dimensional polygon for the front face based on the information and the type information of the face and inferring an image of a certain angle of the user's face from the generated three-dimensional polygon.
제1항에 있어서,
상기 사용자의 얼굴 중 일정 각도에 대한 영상을 특정 미용 오브젝트와 결합하여 상기 사용자의 얼굴 중 일정 각도의 방향으로 표현되는 가상 미용 모델링 영상을 생성하여 단말 장치로 제공하는 가상 미용 서비스부를 더 포함하는 것을 특징으로 하는 서비스 장치.
The method according to claim 1,
And a virtual beauty service unit for generating a virtual beauty modeling image, which is expressed in a direction of a certain angle among the faces of the user, by combining the image of the user's face with a specific beauty object to provide the virtual beauty modeling image to the terminal device .
[청구항 3은(는) 설정등록료 납부시 포기되었습니다.][Claim 3 is abandoned upon payment of the registration fee.] 제2항에 있어서,
상기 얼굴 인식부에서 상기 얼굴 특징 정보와 비교되고, 얼굴 형태, 인종, 성별, 연령 중에서 하나 이상으로 구분되는 다수의 얼굴 유형에 대한 정보를 저장하는 얼굴 유형 DB;
상기 얼굴 인식부에서 얼굴 특징 정보 및 얼굴 유형 정보로부터 추론된 사용자의 얼굴 중 일정 각도에 대한 영상을 저장하는 얼굴 영상 DB; 및
상기 가상 미용 서비스부에서 이용될 다수의 미용 오브젝트를 저장하는 미용 오브젝트 DB 중에서 하나 이상을 구비하는 저장부를 더 포함하는 것을 특징으로 하는 서비스 장치.
3. The method of claim 2,
A face type DB for storing information on a plurality of face types, which are compared with the face feature information in the face recognition unit and are divided into at least one of face type, race, gender, and age;
A facial image DB storing an image of a certain angle of a user's face deduced from facial feature information and face type information in the facial recognition unit; And
And a beauty object DB for storing a plurality of beauty objects to be used by the virtual beauty service unit.
사용자의 조작에 따라 사용자 입력 신호를 발생하는 입력부;
사용자의 정면 얼굴 영상을 촬영하는 카메라부;
정면 얼굴 영상으로부터 얼굴의 특징 정보를 추출하고, 얼굴 특징 정보를 비교 분석하여 얼굴의 유형 정보를 추출한 후, 얼굴의 특징 정보 및 얼굴의 유형 정보를 기초로 하여 상기 정면 얼굴에 대한 3차원 폴리곤을 생성하고 이로부터 사용자의 얼굴 중 일정 각도에 대한 영상을 추론하는 얼굴 인식 모듈을 포함하고, 상기 사용자의 입력 신호에 따라서 상기 카메라부를 제어하여 사용자의 정면 얼굴 영상을 획득하고, 상기 얼굴 인식 모듈을 통해 상기 획득한 사용자의 정면 얼굴 영상으로부터 사용자의 얼굴 중 일정 각도에 대한 영상을 생성하는 제어부; 및
상기 제어부의 제어에 따라서 사용자의 얼굴 중 일정 각도에 대한 영상을 출력하는 출력부를 포함하는 것을 특징으로 하는 단말 장치.
An input unit for generating a user input signal according to a user operation;
A camera unit for photographing a front face image of a user;
Extracts feature information of the face from the front face image, extracts the type information of the face by comparing and analyzing the face feature information, and then generates a three-dimensional polygon for the front face based on the feature information of the face and the type information of the face And a face recognition module for inferring an image of a certain angle of a face of the user from the face recognition module, wherein the control unit controls the camera unit according to an input signal of the user to acquire a front face image of a user, A controller for generating an image of a user's face at a predetermined angle from the front face image of the acquired user; And
And an output unit for outputting an image of a certain angle of the user's face under the control of the control unit.
[청구항 5은(는) 설정등록료 납부시 포기되었습니다.][Claim 5 is abandoned upon payment of registration fee.] 제4항에 있어서, 상기 제어부는
상기 사용자의 얼굴 중 일정 각도에 대한 영상과 사용자가 선택한 미용 오브젝트를 결합하여 가상 미용 모델링 영상을 생성하는 가상 모델링 모듈을 더 포함하는 것을 특징으로 하는 단말 장치.
5. The apparatus of claim 4, wherein the control unit
Further comprising a virtual modeling module for generating a virtual beauty modeling image by combining an image of a predetermined angle among the faces of the user and a beauty object selected by the user.
[청구항 6은(는) 설정등록료 납부시 포기되었습니다.][Claim 6 is abandoned due to the registration fee.] 제4항에 있어서,
사용자의 정면 얼굴 영상, 얼굴 형태, 인종, 성별, 연령 중에서 하나 이상으로 구분되어 상기 얼굴 인식 모듈에서 상기 얼굴 특징 정보와 비교될 다수의 얼굴 유형 정보, 상기 얼굴 특징 정보 및 얼굴 유형 정보를 결합하여 추론된 사용자의 얼굴 중 일정 각도에 대한 영상, 다수의 미용 오브젝트 중에서 하나 이상을 구비하는 저장부를 더 포함하는 것을 특징으로 하는 단말 장치.
5. The method of claim 4,
The facial feature information and the face type information to be compared with the facial feature information are divided into at least one of a front face image, a face form, a race, a gender, and an age of a user, Further comprising a storage unit having at least one of an image of a certain angle of a face of the user and a plurality of beauty objects.
[청구항 7은(는) 설정등록료 납부시 포기되었습니다.][7] has been abandoned due to the registration fee. 제5항에 있어서,
네트워크를 통해서 데이터를 송수신하는 통신부를 더 포함하고,
상기 사용자의 얼굴 중 일정 각도에 대한 영상에 대한 추론 또는 가상 미용 모델링 생성을 위한 데이터를 서비스 장치로부터 전송 받는 것을 특징으로 하는 단말 장치.
6. The method of claim 5,
And a communication unit for transmitting and receiving data through the network,
Wherein data for inference or virtual beauty modeling of an image of a certain angle among the faces of the user is received from the service device.
사용자의 정면 얼굴 영상을 획득하는 단계;
상기 정면 얼굴 영상으로부터 얼굴의 특징 정보를 추출하는 단계;
상기 추출한 얼굴의 특징 정보를 기 분류된 유형과 비교하여, 얼굴의 유형 정보를 추출하는 단계; 및
상기 추출한 얼굴의 특징 정보와 얼굴의 유형 정보를 결합하여, 정면 얼굴에 대한 3차원 폴리곤을 생성하고, 이로부터 상기 사용자의 얼굴 중 일정 각도에 대한 영상을 생성하는 단계를 포함하는 것을 특징으로 하는 얼굴 인식 추론 방법.
Obtaining a front face image of a user;
Extracting facial feature information from the frontal facial image;
Comparing the feature information of the extracted face with the pre-classified type to extract face type information; And
Generating a three-dimensional polygon for the front face by combining the extracted feature information of the face and the type information of the face, and generating an image of the user's face at a certain angle therefrom; Recognition inference method.
[청구항 9은(는) 설정등록료 납부시 포기되었습니다.][Claim 9 is abandoned upon payment of registration fee.] 제8항에 있어서, 상기 얼굴의 특징 정보를 추출하는 단계는
상기 정면 얼굴 영상으로부터 눈과 입을 추출하는 단계;
추출한 눈과 입을 역삼각형 형태로 연결하여 코 영역을 추출하는 단계;
상기 코 영역 내에서 에지 및 색상 변화를 분석하여 코의 상세 정보를 추출하는 단계;
상기 추출한 눈 위의 영역에서 색상 변화를 분석하여 눈썹을 추출하는 단계;
얼굴의 특징점 및 윤곽선을 추출하는 단계; 및
상기 추출한 각 얼굴 부위에 대한 실측값 및 통계 정보를 결합하여, 폴리곤 생성을 위해 필요한 사용자의 얼굴 특징 정보를 추출하는 단계를 포함하는 것을 특징으로 하는 얼굴 인식 추론 방법.
9. The method according to claim 8, wherein the step of extracting feature information of the face
Extracting eyes and mouth from the frontal face image;
Extracting the nose region by connecting the extracted eyes and mouths in an inverted triangle shape;
Extracting detailed information of the nose by analyzing edge and color changes in the nose region;
Extracting an eyebrow by analyzing a color change in an area on the extracted eye;
Extracting feature points and contour lines of a face; And
And extracting facial feature information of a user necessary for polygon generation by combining measured values and statistical information of each extracted facial region.
[청구항 10은(는) 설정등록료 납부시 포기되었습니다.][Claim 10 is abandoned upon payment of the registration fee.] 제8항에 있어서, 상기 얼굴의 유형 정보는
얼굴의 형태, 인종, 성별, 및 연령 중에서 하나 이상을 포함하는 것을 특징으로 하는 얼굴 인식 추론 방법.
9. The method according to claim 8, wherein the type information of the face
A face type, a race, a gender, and an age.
[청구항 11은(는) 설정등록료 납부시 포기되었습니다.][Claim 11 is abandoned upon payment of the registration fee.] 제8항에 있어서, 상기 얼굴의 특징 정보는
얼굴의 전체 길이 및 폭, 턱 길이, 하안, 중안, 코의 높이, 코의 길이, 입의 높이, 입의 길이, 눈의 길이, 및 이마의 높이 중에서 하나 이상을 포함하는 것을 특징으로 하는 얼굴 인식 추론 방법.
9. The method according to claim 8, wherein the feature information of the face
A face length, a length of a mouth, a length of an eye, a height of a forehead, a total length and a width of a face, a length of a chin, Inference method.
[청구항 12은(는) 설정등록료 납부시 포기되었습니다.][12] has been abandoned due to the registration fee. 사용자의 정면 얼굴 영상을 획득하는 단계;
상기 정면 얼굴 영상으로부터 얼굴의 특징 정보를 추출하는 단계;
상기 추출한 얼굴의 특징 정보를 기 분류된 유형과 비교하여, 얼굴의 유형 정보를 추출하는 단계;
상기 추출한 얼굴의 특징 정보와 얼굴의 유형 정보를 결합하여, 정면 얼굴에 대한 3차원 폴리곤을 생성하고, 이로부터 상기 사용자의 얼굴 중 일정 각도에 대한 영상을 생성하는 단계;
사용자가 체험하기를 원하는 미용 오브젝트의 선택 정보를 입력 받는 단계;
사용자가 선택한 헤어 오브젝트를 상기 사용자의 얼굴 중 일정 각도에 대한 영상과 결합하여 상기 사용자의 얼굴 중 일정 각도에 대한 영상의 방향으로 표현되는 가상 모델링 영상을 생성하는 단계를 실행하는 프로그램을 기록한 컴퓨터 판독 가능한 기록 매체.
Obtaining a front face image of a user;
Extracting facial feature information from the frontal facial image;
Comparing the feature information of the extracted face with the pre-classified type to extract face type information;
Generating a three-dimensional polygon for the front face by combining the extracted feature information of the face and the type information of the face, and generating an image for a certain angle of the user's face;
Receiving selection information of a beauty object that the user wishes to experience;
And generating a virtual modeling image represented by a direction of an image of a certain angle of the user's face by combining the user's selected hair object with an image of a certain angle of the user's face. Recording medium.
삭제delete
KR1020160140716A 2016-10-27 2016-10-27 Service systembased on face recognition inference, and face recognition inference method and storage medium thereof KR101839515B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020160140716A KR101839515B1 (en) 2016-10-27 2016-10-27 Service systembased on face recognition inference, and face recognition inference method and storage medium thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020160140716A KR101839515B1 (en) 2016-10-27 2016-10-27 Service systembased on face recognition inference, and face recognition inference method and storage medium thereof

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
KR1020110021521A Division KR101820503B1 (en) 2011-03-10 2011-03-10 Service systembased on face recognition inference, and face recognition inference method and storage medium thereof

Publications (2)

Publication Number Publication Date
KR20160128275A KR20160128275A (en) 2016-11-07
KR101839515B1 true KR101839515B1 (en) 2018-03-16

Family

ID=57529902

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020160140716A KR101839515B1 (en) 2016-10-27 2016-10-27 Service systembased on face recognition inference, and face recognition inference method and storage medium thereof

Country Status (1)

Country Link
KR (1) KR101839515B1 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102584900B1 (en) * 2020-07-20 2023-10-05 펄스나인 주식회사 Digital human generation system and method through face image search
KR102501719B1 (en) * 2021-03-03 2023-02-21 (주)자이언트스텝 Apparatus and methdo for generating facial animation using learning model based on non-frontal images

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100969298B1 (en) 2007-12-31 2010-07-09 인하대학교 산학협력단 Method For Social Network Analysis Based On Face Recognition In An Image or Image Sequences

Also Published As

Publication number Publication date
KR20160128275A (en) 2016-11-07

Similar Documents

Publication Publication Date Title
TWI751161B (en) Terminal equipment, smart phone, authentication method and system based on face recognition
WO2020233333A1 (en) Image processing method and device
US20190384967A1 (en) Facial expression detection method, device and system, facial expression driving method, device and system, and storage medium
KR20180126561A (en) Create an automated avatar
US9529428B1 (en) Using head movement to adjust focus on content of a display
KR102506738B1 (en) snow texture inpainting
US20220197485A1 (en) 3d painting on an eyewear device
CN110969060A (en) Neural network training method, neural network training device, neural network tracking method, neural network training device, visual line tracking device and electronic equipment
KR101820503B1 (en) Service systembased on face recognition inference, and face recognition inference method and storage medium thereof
KR101839515B1 (en) Service systembased on face recognition inference, and face recognition inference method and storage medium thereof
WO2022204674A1 (en) True size eyewear experience in real-time
CN111080747A (en) Face image processing method and electronic equipment
US20230120037A1 (en) True size eyewear in real time
US20220206581A1 (en) Communication interface with haptic feedback response
US11922587B2 (en) Dynamic augmented reality experience
US20220206582A1 (en) Media content items with haptic feedback augmentations
US20220317775A1 (en) Virtual reality communication interface with haptic feedback response
US20240070950A1 (en) Avatar call on an eyewear device
US20220210336A1 (en) Selector input device to transmit media content items
US20220373791A1 (en) Automatic media capture using biometric sensor data
US20220375103A1 (en) Automatic media capture based on motion sensor data
US20230154084A1 (en) Messaging system with augmented reality makeup
WO2022212177A1 (en) Virtual reality interface with haptic feedback response
WO2022245856A1 (en) Automatic media capture based on motion sensor data
WO2022245831A1 (en) Automatic media capture using biometric sensor data

Legal Events

Date Code Title Description
A107 Divisional application of patent
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant