KR20220054177A - 유저의 페이셜 인식을 통한 커뮤니케이션 중 프리퍼런스 조사를 위한 리서칭 시스템 - Google Patents

유저의 페이셜 인식을 통한 커뮤니케이션 중 프리퍼런스 조사를 위한 리서칭 시스템 Download PDF

Info

Publication number
KR20220054177A
KR20220054177A KR1020210114237A KR20210114237A KR20220054177A KR 20220054177 A KR20220054177 A KR 20220054177A KR 1020210114237 A KR1020210114237 A KR 1020210114237A KR 20210114237 A KR20210114237 A KR 20210114237A KR 20220054177 A KR20220054177 A KR 20220054177A
Authority
KR
South Korea
Prior art keywords
user
unit
communication
voting
preference
Prior art date
Application number
KR1020210114237A
Other languages
English (en)
Inventor
강덕호
Original Assignee
주식회사 타키온비앤티
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 타키온비앤티 filed Critical 주식회사 타키온비앤티
Publication of KR20220054177A publication Critical patent/KR20220054177A/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/14Systems for two-way working
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/475End-user interface for inputting end-user data, e.g. personal identification number [PIN], preference data
    • H04N21/4758End-user interface for inputting end-user data, e.g. personal identification number [PIN], preference data for providing answers, e.g. voting

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Signal Processing (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)

Abstract

본 발명은 유저의 페이셜 인식을 통한 커뮤니케이션 중 프리퍼런스 조사를 위한 리서칭 시스템에 관한 것으로서, 유저의 영상으로부터 유저의 페이스 영역을 선택적으로 검출하는 레코그니션 유닛; 유저의 페이스 영역으로부터 유저의 페이셜 파트를 개별적으로 추출하는 익스트랙팅 유닛; 유저의 페이셜 파트가 반영된 상태로 유저 간의 커뮤니케이션이 이루어지도록 하는 커뮤니케이션 유닛; 및 유저 간의 커뮤니케이션 중, 유저의 페이셜 파트 각각에 소정의 이펙트가 실시간 웨어링 되도록 하는 웨어링 이펙트 유닛; 및 유저 프리퍼런스를 조사하기 위해 보팅 이벤트를 제공하는 리서칭 유닛을 포함하는 기술적 사상을 개시한다.

Description

유저의 페이셜 인식을 통한 커뮤니케이션 중 프리퍼런스 조사를 위한 리서칭 시스템{researching system for preference during communication through facial recognition of user}
본 발명은 유저의 페이셜 인식을 통한 커뮤니케이션 중 프리퍼런스 조사를 위한 리서칭 시스템에 관한 것이다. 보다 자세하게는, 유저의 단말기로 촬영된 유저의 영상 또는 셀카 영상으로부터, 유저의 페이스를 인식하고 유저의 페이셜 파트 추출하여, 유저 간의 커뮤니케이션 중, 유저의 페이셜 파트 각각에 가상의 이펙트를 실시간으로 웨어링하고, 유저의 프리퍼런스를 조사하기 위한 보팅 이벤트를 제공하는 시스템에 관한 기술분야이다.
안면 인식 시스템(facial recognition system)은 디지털 이미지를 통해 각 사람을 자동으로 식별하는 컴퓨터 지원 응용 프로그램을 말한다. 이는 살아 있는 이미지에 나타나는 선택된 얼굴 특징과 안면 데이터베이스를 서로 비교함으로써 이루어진다.
안면 인식 기술은 AI기반의 생체인식 기술로서 사진이나 영상으로부터 얼굴의 특징적인 형상을 인식하여 데이터베이스에 저장하며, 이를 비교 분석하여 안면을 식별하는 기술이다.
최근에는 안면인식 기술을 활용한 분야가 뷰티 업계에서 활성화되고 있다. 특히, 뷰티 테크의 핵심이 되는 안면 인식 기술은 사람들의 안면 기능의 위치를 감지해, 헤어스타일이나 컨투어링 등 여러 가지 변화된 모습을 보여준다. 이러한 기술은 사람들이 더욱 더 정교하고 과학적으로 뷰티 트렌드에 접근할 수 있도록 한다.
이와 관련된 선행 특허문헌의 예로서 “증강된 화장 서비스 제공 방법 (등록번호 제10-2158233호, 이하 특허문헌1이라 한다.)”이 존재한다.
특허문헌1에 따른 발명의 경우, 사용자 무선단말의 앱이 사용자 무선단말의 카메라부의 자동초점 촬영 상태에서 입력되는 영상데이터에 포함된 하나 이상의 화상데이터를 판독하여 화장할 사용자 안면에 대응하는 안면 영역을 인식하고, 사용자 무선단말의 앱이 인식된 안면 영역에 형성된 사용자 안면의 기하학 구조를 해석한 사용자 안면 기하학구조 정보를 생성하여 지정된 저장영역에 저장하고, 사용자 안면 기하학 구조 상의 거리 산출을 위해 특정가능한 둘 이상의 특징 점을 결정하고, 카메라부의 자동초점 과정에서 자동 결정된 초점거리와 화상데이터 상의 둘 이상 특정 점 간 픽셀 거리와 무선단말에 구비된 카메라 스펙 정보 중 하나 이상의 정보를 지정된 산출식의 입력값으로 대입하여 둘 이상의 특정 점 간 거리를 포함하는 사용자 안면 기하학 구조에 대한 현실세계와 일대일 축적의 사용자 안면 수치 정보를 결정하고, 사용자 무선단말의 앱이 사용자 안면 기하학 구조 정보와 사용자 안면 수치 정보를 지정된 운영서버로 전송하면, 운영서버에서 사용자 안면 기하학 구조 정보와 사용자 안면 수치 정보를 수신하고, 운영서버에서 사용자 안면 기하학 구조 정보와 일대일 축적의 사용자 안면 수치 정보를 이용하여 사용자의 실제 안면과 일대일 매칭되는 사용자 전용 화장의 3D 모델링 데이터를 생성하고, 운영서버에서 사용자의 실제 안면에 일대일 매칭시켜 생성된 사용자 전용 모델링 데이터에 지정된 화장을 적용하여 생성된 사용자 전용 화장 데이터를 확인하고, 운영서버에서 사용자 무선단말의 앱으로 사용자 전용 화장 데이터를 제공하면, 사용자 무선단말의 앱이 사용자 전용 화장 데이터를 수신하여 지정된 저장영역에 저장하고, 사용자 무선단말의 앱이 지정된 저장영역에 저장된 사용자 안면 기하학 구조 정보를 근거로 카메라부를 통해 입력되는 영상데이터에 포함된 화상데이터를 판독하여 영상데이터에 존재하는 사용자의 안면 영역을 실시간 인식하며, 사용자 무선단말의 앱이 영상데이터에 존재하는 사용자의 안면 영역을 실시간 인식한 경우 영상데이터 상에서 인식된 사용자의 안면 영역에 사용자 전용 화장 데이터를 중첩 표시하여 사용자의 안면을 증강한다.
또 다른 특허문헌의 예로서 “3D 얼굴인식 시스템 및 방법 (공개번호 제10-2020-0098875호, 이하 특허문헌2이라 한다.)”이 존재한다.
특허문헌2에 따른 발명의 경우, 웹 서비스를 통해 의뢰 영상을 입력하여, 의뢰 영상에 대한 얼굴 검색을 요청하는 검색 요청 단말기, 웹 서비스를 통해 얼굴 검색 요청을 접수하고, 의뢰 영상에 대하여 매칭 조건을 설정하여, 의뢰 영상에 대한 검색을 요청하는 검색 처리 단말기, 및 의뢰 영상에서 추출된 얼굴 영역으로부터 특징점을 추출하고 얼굴의 포즈 예측을 수행하여 생성한 예측 얼굴 포즈 정보와, 데이터베이스에 저장된 3차원 얼굴 모델링 정보를 이용한 3차원 얼굴 인식 과정에 따라 검색된 얼굴 관련 정보를 검색 처리 단말기로 전송하는 검색 서버부를 포함하며, 검색 처리 단말기는 웹 서비스를 통해 얼굴 관련 정보와 얼굴 관련 정보에 대한 감정서를 검색 요청 단말기로 전송한다.
또 다른 특허문헌의 예로서 “증강현실을 이용한 축하 영상통화시스템 (등록번호 제10-2142262호, 이하 특허문헌3이라 한다.)”이 존재한다.
특허문헌3에 따른 발명의 경우, 증강현실을 이용한 영상통화를 수행하는 복수의 사용자 단말기와; 사용자 단말기로부터 영상 통화 상에서 축하케익 또는 축하선물의 AR선택정보가 있는 경우 축하케익 또는 축하선물에 대한 AR컨텐츠정보를 생성하여 사용자 단말기로 제공하는 증강현실 제공서버;를 포함하되, 영상통화를 수행하는 사용자 단말기는 증강현실 제공서버로부터 제공받은 AR컨텐츠정보를 디스플레이수단을 통해 영상촬영정보와 함께 AR컨텐츠정보를 출력한다.
또 다른 특허문헌의 예로서 “영상 통화 서비스를 제공하는 단말기 및 서버 (공개번호 제10-2020-0083008호, 이하 특허문헌4이라 한다.)”이 존재한다.
특허문헌4에 따른 발명의 경우, 제1 단말기에서 제2 단말기와 영상 통화 세션을 수립하는 단계, 제1 단말기로부터 제1 사용자를 촬영한 제1 영상을 제2 단말기로 전송하는 단계, 제2 단말기로부터 수신된, 제2 사용자를 촬영한 제2 영상을 제1 강도로 변조하여 표시하는 단계, 영상 통화 세션이 유지되는 중 소정의 이벤트를 검출하는 단계 및 소정의 이벤트에 기초하여 변조의 강도를 제어하는 단계를 포함한다.
그러나, 기존의 특허문헌 1과 2의 경우, 단말기로부터 촬영되는 사진이나 영상으로부터 사용자의 얼굴을 인식하며, 인식된 얼굴 부위에 뷰티 효과를 적용하는 기술을 포함하지만, 이때, 적용되는 뷰티 효과는 인식된 얼굴 부위에 이미지 보정 필터나 컬러 필터를 입히는 한정된 기술적 사상만을 개시하고 있다.
또한, 특허문헌 3과 4의 경우, 유저들간의 영상 통화가 이루어지는 시스템을 제공하고 있으나, 영상 통화 중에 유저의 얼굴에 뷰티 효과를 실시간으로 적용하는 기술적 사상은 존재하지 않는다.
등록번호 제10-2158233호 공개번호 제10-2020-0098875호 등록번호 제10-2142262호 공개번호 제10-2020-0083008호
본 발명에 따른 유저의 페이셜 인식을 통한 커뮤니케이션 중 프리퍼런스 조사를 위한 리서칭 시스템은 상기한 바와 같은 종래 문제점을 해결하기 위해 안출된 것으로서, 다음과 같은 해결하고자 하는 과제를 제시한다.
첫째, 유저의 단말기로부터 촬영되는 유저의 영상 정보를 수집하여, 유저의 얼굴을 인식하고자 한다.
둘째, 인식된 유저의 얼굴 부위를 반영하여 유저 간의 커뮤니케이션을 제공하고자 하며, 유저의 얼굴 부위에 소정의 이펙트를 선택적으로 웨어링하고자 한다.
셋째, 유저 간의 커뮤니케이션 중, 유저의 프리퍼런스를 조사하기 위한 보팅 이벤트를 제공하고자 한다.
본 발명의 해결 과제는 이상에서 언급된 것들에 한정되지 않으며, 언급되지 아니한 다른 해결과제들은 아래의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.
본 발명에 따른 유저의 페이셜 인식을 통한 커뮤니케이션 중 프리퍼런스 조사를 위한 리서칭 시스템은 상기의 해결하고자 하는 과제를 위하여 다음과 같은 과제 해결 수단을 가진다.
본 발명에 따른 유저의 페이셜 인식을 통한 커뮤니케이션 중 프리퍼런스 조사를 위한 리서칭 시스템은 모바일 유닛으로부터 취득된 유저의 영상으로부터 상기 유저의 페이스 영역을 선택적으로 검출하는 레코그니션 유닛(recognition unit); 상기 레코그니션 유닛으로부터 검출된 상기 유저의 페이스 영역으로부터 상기 유저의 페이셜 파트(facial part)를 개별적으로 추출하는 익스트랙팅 유닛(extracting unit); 상기 익스트랙팅 유닛으로부터 추출된 상기 유저의 상기 페이셜 파트가 반영된 상태로 상기 유저 간의 커뮤니케이션이 이루어지도록 하는 커뮤니케이션 유닛(communication unit); 상기 유저 간의 상기 커뮤니케이션 중, 상기 유저의 상기 페이셜 파트 각각에 소정의 이펙트가 실시간 웨어링 되도록 하는 웨어링 이펙트 유닛(wearing effect unit); 및 상기 유저 간의 커뮤니케이션 중, 유저 프리퍼런스(user preference)를 조사하기 위해 보팅 이벤트(voting event)를 제공하는 리서칭 유닛(researching unit)을 포함하는 것을 특징으로 할 수 있다.
본 발명에 따른 유저의 페이셜 인식을 통한 커뮤니케이션 중 프리퍼런스 조사를 위한 리서칭 시스템의 상기 레코그니션 유닛은, 상기 모바일 유닛으로부터 상기 유저의 영상을 가져와서 스캔하는 스캔(scan)부; 상기 유저의 영상으로부터 소정의 무브먼트가 포착되는 영역을 상기 유저의 페이스 영역으로 인식하는 퍼시빙(perceiving)부; 및 상기 퍼시빙부로부터 인식된 상기 유저의 페이스 영역과 백그라운드 영역을 분리하여, 상기 유저의 페이스 영역을 선택적으로 검출하는 디텍팅(detecting)부를 포함하는 것을 특징으로 할 수 있다.
본 발명에 따른 유저의 페이셜 인식을 통한 커뮤니케이션 중 프리퍼런스 조사를 위한 리서칭 시스템의 상기 익스트랙팅 유닛은, 상기 디텍팅부로부터 선택적으로 검출된 상기 유저의 페이스 영역으로부터 3차원의 페이스 쉐입을 형성하는 쉐이핑(shaping)부; 상기 쉐이핑부로부터 형성된 상기 3차원의 페이스 쉐입으로부터 상기 유저의 페이셜 파트를 선택적으로 추출하는 트레킹(tracking)부; 및 상기 유저의 상기 소정의 무브먼트에 따른 상기 페이셜 파트의 앵글 변화를 감지하여, 상기 3차원의 페이스 쉐입에 반영하여 얼라이닝(aligning)부를 포함하는 것을 특징으로 할 수 있다.
본 발명에 따른 유저의 페이셜 인식을 통한 커뮤니케이션 중 프리퍼런스 조사를 위한 리서칭 시스템의 상기 커뮤니케이션 유닛은, 상기 커뮤니케이션에 참여하고자 하는 적어도 한 명 이상의 유저를 서칭하여 상기 커뮤니케이션 참여 자격을 부여하는 엔트리부; 상기 엔트리부로부터 서칭된 상기 커뮤니케이션에 참여하고자 하는 유저의 각각의 상기 모바일 유닛을 상호 연결하는 유저 네트워킹부; 및 상기 유저 네트워킹부로부터 상호 연결된 상기 유저가 적어도 한 명 이상 접속할 수 있는 소정의 커뮤니케이션 공간을 형성하는 커뮤니케이션 스페이스부를 포함하는 것을 특징으로 할 수 있다.
본 발명에 따른 유저의 페이셜 인식을 통한 커뮤니케이션 중 프리퍼런스 조사를 위한 리서칭 시스템의 상기 커뮤니케이션 유닛은, 상기 커뮤니케이션에 참여하는 상기 유저로 하여금 이미지, 음성, 또는 텍스트 중 적어도 하나 이상의 커뮤니케이션 방식을 채택하여 선택적으로 스위칭할 수 있도록 하는 스위칭부를 포함하는 것을 특징으로 할 수 있다.
본 발명에 따른 유저의 페이셜 인식을 통한 커뮤니케이션 중 프리퍼런스 조사를 위한 리서칭 시스템의 상기 웨어링 이펙트 유닛은, 상기 커뮤니케이션 중 상기 유저의 미리 결정된 액션에 의해 상기 유저의 페이셜 파트 중 적어도 하나 이상이 선택되도록 하는 유저 액션부; 및 상기 커뮤니케이션 중 상기 유저의 상기 미리 결정된 액션에 의해 선택된 상기 페이셜 파트에 상기 소정의 이펙트를 선택적으로 웨어링하는 어플라잉부를 포함하는 것을 특징으로 할 수 있다.
본 발명에 따른 유저의 페이셜 인식을 통한 커뮤니케이션 중 프리퍼런스 조사를 위한 리서칭 시스템의 상기 어플라잉부는, 상기 유저 간의 상기 커뮤니케이션 중, 상기 미리 결정된 액션에 의해 선택된 상기 페이셜 파트 중 피부, 눈, 눈썹, 코, 입, 턱, 이마, 인중 또는 얼굴형 중 적어도 하나 이상의 외형에 메이크업 이펙트를 웨어링하는 메이크업(makeup)부; 및 상기 유저 간의 상기 커뮤니케이션 중, 상기 미리 결정된 액션에 의해 선택된 상기 페이셜 파트 중 피부, 눈, 눈썹, 코, 입, 턱, 이마, 인중 또는 얼굴형 중 적어도 하나 이상의 외형이 튜닝되도록 피규레이션 이펙트를 웨어링하는 피규레이션(figuration)부를 포함하는 것을 특징으로 할 수 있다.
본 발명에 따른 유저의 페이셜 인식을 통한 커뮤니케이션 중 프리퍼런스 조사를 위한 리서칭 시스템의 상기 리서칭 유닛은, 상기 유저의 상기 유저 프리퍼런스를 조사하기 위한 상기 보팅 이벤트가 세팅되는 보팅 세팅(voting setting)부; 상기 소정의 커뮤니케이션 공간에 상기 보팅 이벤트가 생성되면, 상기 유저의 상기 유저 프리퍼런스를 선택할 수 있도록 하는 보팅 액션(voting action)부; 및 상기 보팅 액션부로부터 상기 유저가 선택한 상기 유저 프리퍼런스를 카운팅하여 선택적으로 분석하는 보팅 카운팅(voting counting)부를 포함하는 것을 특징으로 할 수 있다.
본 발명에 따른 유저의 페이셜 인식을 통한 커뮤니케이션 중 프리퍼런스 조사를 위한 리서칭 시스템의 상기 보팅 세팅부는, 보팅 타이틀(voting title), 보팅 리스트(voting list), 보팅 듀데이트(voting due date), 또는 보팅 옵션(voting option) 중 적어도 하나 이상을 선택적으로 세팅하여 상기 보팅 이벤트의 폼(form)을 생성하는 것을 특징으로 할 수 있다.
본 발명에 따른 유저의 페이셜 인식을 통한 커뮤니케이션 중 프리퍼런스 조사를 위한 리서칭 시스템의 상기 보팅 옵션은, 상기 유저로 하여금 단수 선택 기능, 복수 선택 기능, 익명 기능, 오픈 기능, 보팅 리스트 추가 기능 또는 보팅 의견 기능, 중 적어도 하나 이상의 옵션을 선택적으로 생성하는 것을 특징으로 할 수 있다.
본 발명에 따른 유저의 페이셜 인식을 통한 커뮤니케이션 중 프리퍼런스 조사를 위한 리서칭 시스템의 상기 보팅 액션부는, 상기 소정의 커뮤니케이션 공간의 상기 유저에게 상기 보팅 듀데이트에 도달하기 소정의 시간 전에 상기 보팅 알림을 선택적으로 제공하는 것을 특징으로 할 수 있다.
본 발명에 따른 유저의 페이셜 인식을 통한 커뮤니케이션 중 프리퍼런스 조사를 위한 리서칭 시스템의 상기 보팅 카운팅부는, 상기 소정의 커뮤니케이션 공간에 있는 상기 유저 중 상기 보팅 이벤트의 카운팅의 분석 결과를 선택적으로 제공하는 것을 특징으로 할 수 있다.
이상과 같은 구성의 본 발명에 따른 유저의 페이셜 인식을 통한 커뮤니케이션 중 프리퍼런스 조사를 위한 리서칭 시스템은 다음과 같은 효과를 제공한다.
첫째, 유저의 단말기로부터 유저의 영상 정보를 수집하여 유저의 페이스 영역만을 검출할 수 있게 된다.
둘째, 추출된 유저의 페이셜 파트 각각에 소정의 이펙트를 선택적으로 웨어링하면서 커뮤니케이션을 할 수 있게 된다.
셋째, 유저 간의 커뮤니케이션 중 보팅 이벤트를 제공하여 유저 프리퍼런스를 조사 분석할 수 있게 된다.
본 발명의 효과는 이상에서 언급한 것들에 한정되지 않으며, 언급되지 아니한 다른 효과들은 아래의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.
도1은 본 발명의 일 실시예에 따른 유저의 페이셜 인식을 통한 커뮤니케이션 중 프리퍼런스 조사를 위한 리서칭 시스템의 개념도이다.
도2는 본 발명의 일 실시예에 따른 유저의 페이셜 인식을 통한 커뮤니케이션 중 프리퍼런스 조사를 위한 리서칭 시스템의 블록도이다.
도3은 본 발명의 일 실시예에 따른 유저의 페이셜 인식을 통한 커뮤니케이션 중 프리퍼런스 조사를 위한 리서칭 시스템의 레코그니션 유닛의 블록도이다.
도4는 본 발명의 일 실시예에 따른 유저의 페이셜 인식을 통한 커뮤니케이션 중 프리퍼런스 조사를 위한 리서칭 시스템의 익스트랙팅 유닛의 개념도이다.
도5는 본 발명의 일 실시예에 따른 유저의 페이셜 인식을 통한 커뮤니케이션 중 프리퍼런스 조사를 위한 리서칭 시스템의 익스트랙팅 유닛의 블록도이다.
도6은 본 발명의 일 실시예에 따른 유저의 페이셜 인식을 통한 커뮤니케이션 중 프리퍼런스 조사를 위한 리서칭 시스템의 커뮤니케이션 유닛의 개념도이다.
도7은 본 발명의 일 실시예에 따른 유저의 페이셜 인식을 통한 커뮤니케이션 중 프리퍼런스 조사를 위한 리서칭 시스템의 커뮤니케이션 스페이스부의 개념도이다.
도8은 본 발명의 일 실시예에 따른 유저의 페이셜 인식을 통한 커뮤니케이션 중 프리퍼런스 조사를 위한 리서칭 시스템의 커뮤니케이션 유닛의 블록도이다.
도9는 본 발명의 일 실시예에 따른 유저의 페이셜 인식을 통한 커뮤니케이션 중 프리퍼런스 조사를 위한 리서칭 시스템의 웨어링 이펙트 유닛의 개념도이다.
도10은 본 발명의 일 실시예에 따른 유저의 페이셜 인식을 통한 커뮤니케이션 중 프리퍼런스 조사를 위한 리서칭 시스템의 보팅 세팅부의 개념도이다.
도11은 본 발명의 일 실시예에 따른 유저의 페이셜 인식을 통한 커뮤니케이션 중 프리퍼런스 조사를 위한 리서칭 시스템의 보팅 액션부의 개념도이다.
도12는 본 발명의 일 실시예에 따른 유저의 페이셜 인식을 통한 커뮤니케이션 중 프리퍼런스 조사를 위한 리서칭 시스템의 보팅 카운팅부의 개념도이다.
도13은 본 발명의 일 실시예에 따른 유저의 페이셜 인식을 통한 커뮤니케이션 중 프리퍼런스 조사를 위한 리서칭 시스템의 리서칭 유닛의 블록도이다.
도14는 본 발명의 일 실시예에 따른 유저의 페이셜 인식을 통한 커뮤니케이션 중 프리퍼런스 조사를 위한 리서칭 시스템의 보팅 카운팅부의 개념도이다.
본 발명에 따른 유저의 페이셜 인식을 통한 커뮤니케이션 중 프리퍼런스 조사를 위한 리서칭 시스템은 다양한 변경을 가할 수 있고 여러 가지 실시예를 가질 수 있는바, 특정 실시예들을 도면에 예시하고 상세한 설명에 상세하게 설명하고자 한다. 그러나, 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 기술적 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.
도1은 본 발명의 일 실시예에 따른 유저의 페이셜 인식을 통한 커뮤니케이션 중 프리퍼런스 조사를 위한 리서칭 시스템의 개념도이다. 도2는 본 발명의 일 실시예에 따른 유저의 페이셜 인식을 통한 커뮤니케이션 중 프리퍼런스 조사를 위한 리서칭 시스템의 블록도이다. 도3은 본 발명의 일 실시예에 따른 유저의 페이셜 인식을 통한 커뮤니케이션 중 프리퍼런스 조사를 위한 리서칭 시스템의 레코그니션 유닛의 블록도이다. 도4는 본 발명의 일 실시예에 따른 유저의 페이셜 인식을 통한 커뮤니케이션 중 프리퍼런스 조사를 위한 리서칭 시스템의 익스트랙팅 유닛의 개념도이다. 도5는 본 발명의 일 실시예에 따른 유저의 페이셜 인식을 통한 커뮤니케이션 중 프리퍼런스 조사를 위한 리서칭 시스템의 익스트랙팅 유닛의 블록도이다. 도6은 본 발명의 일 실시예에 따른 유저의 페이셜 인식을 통한 커뮤니케이션 중 프리퍼런스 조사를 위한 리서칭 시스템의 커뮤니케이션 유닛의 개념도이다. 도7은 본 발명의 일 실시예에 따른 유저의 페이셜 인식을 통한 커뮤니케이션 중 프리퍼런스 조사를 위한 리서칭 시스템의 커뮤니케이션 스페이스부의 개념도이다. 도8은 본 발명의 일 실시예에 따른 유저의 페이셜 인식을 통한 커뮤니케이션 중 프리퍼런스 조사를 위한 리서칭 시스템의 커뮤니케이션 유닛의 블록도이다. 도9는 본 발명의 일 실시예에 따른 유저의 페이셜 인식을 통한 커뮤니케이션 중 프리퍼런스 조사를 위한 리서칭 시스템의 웨어링 이펙트 유닛의 개념도이다. 도10은 본 발명의 일 실시예에 따른 유저의 페이셜 인식을 통한 커뮤니케이션 중 프리퍼런스 조사를 위한 리서칭 시스템의 보팅 세팅부의 개념도이다. 도11은 본 발명의 일 실시예에 따른 유저의 페이셜 인식을 통한 커뮤니케이션 중 프리퍼런스 조사를 위한 리서칭 시스템의 보팅 액션부의 개념도이다. 도12는 본 발명의 일 실시예에 따른 유저의 페이셜 인식을 통한 커뮤니케이션 중 프리퍼런스 조사를 위한 리서칭 시스템의 보팅 카운팅부의 개념도이다. 도13은 본 발명의 일 실시예에 따른 유저의 페이셜 인식을 통한 커뮤니케이션 중 프리퍼런스 조사를 위한 리서칭 시스템의 리서칭 유닛의 블록도이다. 도14는 본 발명의 일 실시예에 따른 유저의 페이셜 인식을 통한 커뮤니케이션 중 프리퍼런스 조사를 위한 리서칭 시스템의 보팅 카운팅부의 개념도이다.
종래 기술들은 풀 프레임(full frame)으로서 유저의 안면을 일정한 틀에 맞추어진 상태로 셋팅, 변형, 색 변형 등에 해당하는바, 본인의 얼굴을 왜곡시키는 문제점이 있다.
종래 기술들은 유저의 얼굴을 그대로 살려 특정 부위만을 선택적으로 원하는 색조 혹은 원하는 화장 테크닉을 선택적으로 적용할 수 없는 문제점이 있었다.
본원 발명은 위 종래기술들에 비하여, 사용자 혹은 유저의 얼굴을 그대로 반영하되, 본인이 직접 화장하는 것과 같이 실제 화장을 시도해볼 수 있고, 화장을 덧바르는 등의 효과를 낼 수 있게 된다.
본 발명에 따른 유저의 페이셜 인식을 통한 커뮤니케이션 중 프리퍼런스 조사를 위한 리서칭 시스템의 경우, 도1에 도시된 바와 같이, 유저의 모바일 유닛(1000)으로부터 유저의 영상으로부터 유저의 페이스 영역과 유저의 페이셜 파트(facial part)를 추출하며, 추출된 유저의 페이셜 파트를 반영하여 유저 간의 커뮤니케이션을 제공하게 된다. 또한, 커뮤니케이션 도중 유저의 페이셜 파트 각각에 소정의 이펙트를 웨어링할 수 있으며, 유저 간의 소통 중에 유저의 프리퍼런스를 리서칭하기 위해 투표를 제공하는 기술을 개시하게 된다.
여기서 말하는 모바일 유닛(1000)은 유저의 단말기(휴대폰, PC, 태블릿pc) 등에 제공되어, 유저로 하여금 카메라를 실행하여 사진 또는 영상을 촬영하고 편집할 수 있는 어플리케이션, 앱 등으로 정의할 수 있다.
즉, 모바일 유닛(1000)에 포함되며 상호 연동된 레코그니션 유닛(100), 익스트랙팅 유닛(200)을 통해서 유저의 단말기로 촬영된 유저의 영상 또는 셀카 영상으로부터, 유저의 페이스를 인식하고 유저의 페이셜 파트 각각에 대한 정보를 추출할 수 있게 된다.
커뮤니케이션 유닛(300)은 익스트랙팅 유닛(200)으로부터 추출된 유저의 페이셜 파트를 반영하여 통해서 유저 간의 커뮤니케이션을 제공할 수 있도록 한다. 웨어링 이펙트 유닛(400)을 통해서 커뮤니케이션 중 유저의 페이셜 파트 각각에 소정의 이펙트를 선택적으로 웨어링할 수 있게 된다. 아울러, 리서칭 유닛(500)은 유저 간의 커뮤니케이션 중에, 유저 각각의 프리퍼런스를 리서칭하기 위해 소정의 투표를 제공할 수 있게 된다.
본 발명에 따른 유저의 페이셜 인식을 통한 커뮤니케이션 중 프리퍼런스 조사를 위한 리서칭 시스템의 경우, 도2에 도시된 바와 같이, 레코그니션 유닛(recognition unit, 100), 익스트랙팅 유닛(extracting unit, 200), 커뮤니케이션 유닛(communication unit, 300), 웨어링 이펙트 유닛(wearing effect unit, 400) 및 리서칭 유닛(researching unit, 500)을 포함하게 된다.
먼저, 레코그니션 유닛(100)의 경우, 도1에 도시된 바와 같이, 모바일 유닛(1000)으로부터 취득된 유저의 영상으로부터 유저의 페이스 영역을 선택적으로 검출하는 구성이다.
레코그니션 유닛(100)은 유저로부터 유저의 단말기를 통해서 카메라가 실행될 때, 실시간으로 촬영되는 유저의 영상으로부터 유저의 페이스 영역만을 인식하고 검출하는 구성이다.
레코그니션 유닛(100)은 이미 상용화된 비전 센서, 적외선 센서, 초음파 센서, 위치 감지 센서, 또는 카메라 센서 등으로 등의 것을 활용하면 되는 바, 자세한 기작은 생략하도록 한다.
본 발명에 따른 유저의 페이셜 인식을 통한 커뮤니케이션 중 프리퍼런스 조사를 위한 리서칭 시스템의 레코그니션 유닛(100)의 경우, 도3에 도시된 바와 같이, 스캔(scan)부(110), 퍼시빙(perceiving)부(120), 및 디텍팅(detecting)부(130)를 포함하게 된다.
먼저, 스캔부(110)의 경우, 모바일 유닛(1000)으로부터 유저의 영상을 가져와서 스캔하는 구성이다.
스캔부(110)는 유저의 단말기로부터 실시간으로 촬영되는 유저의 영상을 선별적으로 가져오며, 해당 영상으로부터 유저의 페이스 영역을 인식하기 위해 스캔하도록 한다.
퍼시빙부(120)의 경우, 유저의 영상으로부터 소정의 무브먼트가 포착되는 영역을 유저의 페이스 영역으로 인식하는 구성이다.
퍼시빙부(120)는 유저의 영상 중, 유저의 페이스 영역을 인식하기 위해 유저의 소정의 무브먼트를 포착하여 이를 유저의 페이스 영역으로 정의하도록 한다.
퍼시빙부(120)에서는 서버로부터 미리 축적된 페이셜 패턴 정보를 제공받아, 미리 축적된 페이셜 패턴 정보에 기초하여, 유저의 영상으로부터 소정의 시간 동안 유저의 소정의 무브먼트를 감지하여 유저의 페이스 영역만을 인식하게 된다.
예컨대, 퍼시빙부(120)로부터 포착되는 소정의 무브먼트는 유저가 유저의 페이스를 촬영하거나 셀카를 찍을 때, 카메라를 실행한 상태에서 유저의 페이스가 잘 나오도록 하는 각도를 찾기 위해 유저의 페이스를 이리 저리 움직일 때의 무브먼트로 정의하는 것이 바람직하다.
또한, 유저가 유저의 페이스가 잘 나오도록 하는 각도를 찾은 후에, 유저의 페이스가 고정되어 있다 하더라도 유저의 눈동자는 움직임이 발생하기 때문에, 유저의 눈동자의 깜빡임, 움직임을 통해서 소정의 무브먼트를 포착할 수 있게 된다.
디텍팅부(130)의 경우, 퍼시빙부(120)로부터 인식된 유저의 페이스 영역과 백그라운드 영역을 분리하여, 유저의 페이스 영역을 선택적으로 검출하는 구성이다.
디텍팅부(130)에서는 유저의 영상 중 유저의 페이스 영역이 인식되면, 유저의 영상 중 페이스 영역을 제외한 부분은 백그라운드 영역으로 인식하고 분리하게 된다.
디텍팅부(130)에서는 유저의 페이스 영역과 백그라운드 영역이 각각 분리되면, 유저의 페이스 영역만을 선택적으로 검출하도록 한다.
익스트랙팅 유닛(200)의 경우, 도4에 도시된 바와 같이, 레코그니션 유닛(100)으로부터 검출된 유저의 페이스 영역으로부터 유저의 페이셜 파트(facial part)를 개별적으로 추출하는 구성이다.
익스트랙팅 유닛(200)에서 개별적으로 추출하는 유저의 페이셜 파트는, 유저의 얼굴 부위 각각으로 정의한다.
예컨대, 익스트랙팅 유닛(200)에서 추출하는 유저의 페이셜 파트에는 유저의 눈, 눈썹, 속눈썹, 눈동자, 눈커풀, 애교살, 아이홀, 코, 콧망울, 콧대, 콧구멍, 인중, 입, 입술, 치아, 얼굴형, 피부, 볼, 턱, 광대뼈, 이마, 머리카락 또는 귀 등이 포함된다.
익스트랙팅 유닛(200)은 이미 상용화된 이미지에서 얼굴이 존재하는 위치를 확인하는 안면인식 기술, 얼굴 검출 알고리즘, 특징점 추출 알고리즘 기술 등을 활용하는 되는 바, 자세한 기작은 생략하도록 한다.
본 발명에 따른 유저의 페이셜 인식을 통한 커뮤니케이션 중 프리퍼런스 조사를 위한 리서칭 시스템의 익스트랙팅 유닛(200)의 경우, 도5에 도시된 바와 같이, 쉐이핑(shaping)부(210), 트레킹(tracking)부(220), 얼라이닝(aligning)부(230), 및 어드레스(address)부(240)를 포함하게 된다.
먼저, 쉐이핑부(210)의 경우, 디텍팅부(130)로부터 검출된 유저의 페이스 영역으로부터 3차원의 페이스 쉐입을 형성하는 구성이다.
쉐이핑부(210)에서는 유저의 페이스를 3차원의 페이스 쉐입으로 형성하는 것은 유저의 페이스의 윤곽에 따른 유저의 페이셜 파트를 추출하기 위해서이다.
트레킹부(220)의 경우, 쉐이핑부(210)로부터 형성된 3차원의 페이스 쉐입으로부터 유저의 페이셜 파트를 선택적으로 추출하는 구성이다.
트레킹부(220)에서 페이셜 파트를 선택적으로 추출하기 위해서 유저의 페이셜 파트를 추적하게 된다. 유저의 페이셜 파트를 추적하기 위해서 서버에 미리 축적된 페이셜 패턴 정보에 기초하여 추적하게 된다.
미리 축적된 페이셜 패턴 정보에는 통상적인 사람의 얼굴의 비율에 대한 정보와, 얼굴의 형상 정보와 같은 얼굴이 가지는 전형적인 패턴 정보로 정의한다.
예컨대, 미리 축적된 페이셜 패턴 정보에는 얼굴은 크게 두 개의 눈이 좌우에 대칭되어 상부에 배치되며, 중앙에 코가 배치하고 하부에 입이 배치된다는 얼굴의 부위별 배치의 상호 관계가 포함된다. 또한, 얼굴에서 눈, 코, 입의 크기에 대한 비율, 눈과 코 사이의 거리 비율, 눈과 입 사이의 거리 비율, 코와 입 사이의 거리 비율, 이마로부터 눈과의 거리 비율 등의 비율에 대한 정보가 포함된다.
얼라이닝부(230)의 경우, 유저의 소정의 무브먼트에 따른 페이셜 파트의 앵글 변화를 감지하여 3차원 페이스 쉐입에 반영하는 구성이다.
얼라이닝부(230)는 유저가 유저의 페이스가 잘 나오도록 하는 각도를 찾기 위해 소정의 무브먼트가 발생하기 때문에, 유저의 앵글 변화에 따른 유저의 페이셜 파트의 변화를 반영하기 위한 기능을 수행한다.
어드레스부(240)의 경우, 트레킹부(220)로부터 추출된 페이셜 파트의 각각에 임의의 주소를 할당하여 개별적으로 저장하는 구성이다.
어드레스부(240)는 추출된 페이셜 파트에 따라 임의로 분할하며, 분할된 페이셜 파트에 임의의 주소(A1, A2, A3, …)를 랜덤하게 부여하여 유저의 페이셜 파트 정보를 개별적으로 저장하도록 한다.
커뮤니케이션 유닛(300)의 경우, 도6에 도시된 바와 같이, 익스트랙팅 유닛(200)으로부터 추출된 유저의 페이셜 파트가 반영된 상태도 유저 간의 커뮤니케이션이 이루어지도록 하는 구성이다.
커뮤니케이션 유닛(300)에서 제공하는 커뮤니케이션이란 적어도 한 명이 이상의 유저 사이에 이루어지는 실시간 전화 통화, 영상 통화, 그룹 영상 통화, 화상 통화, 화상 채팅, 라이브 채팅, 비대면 영상 통화 등으로 정의하게 된다.
즉, 유저의 페이셜 파트가 추출된 영상을 기반으로 유저 간의 커뮤니케이션이 진행될 수 있도록 한다.
커뮤니케이션 유닛(300)에서는 유저의 페이셜 파트가 추출된 유저의 실시간 영상 또는 이미지를 통 틀어서 커뮤니케이션 이미지로 정의하도록 한다.
또한, 커뮤니케이션 유닛(300)에서 커뮤니케이션에 참여하는 유저는 적어도 한 명 이상이며, 커뮤니케이션에 참여하는 유저의 인원 수에는 제한이 없는 것이 바람직하다.
본 발명에 따른 유저의 페이셜 인식을 통한 커뮤니케이션 중 프리퍼런스 조사를 위한 리서칭 시스템의 커뮤니케이션 유닛(300)의 경우, 도8에 도시된 바와 같이, 유저 엔트리부(310), 유저 네트워킹부(320), 커뮤니케이션 스페이스부(330), 및 스위칭부(340)를 포함하게 된다.
먼저, 유저 엔트리부(310)의 경우, 커뮤니케이션에 참여하고자 하는 적어도 한 명 이상의 유저를 서칭하여 커뮤니케이션 참여 자격을 부여하는 구성이다.
유저 엔트리부(310)의 경우, 엔트리 서칭부(311), 엔트리 인포부(312), 랜덤 엔트리부(313), 및 픽싱 엔트리부(314)를 포함하게 된다.
먼저, 엔트리 서칭부(311)의 경우, 커뮤니케이션에 참여하고자 하는 유저를 선택적으로 서칭하는 구성이다.
엔트리 서칭부(311)에서 유저는, 유저가 함께 커뮤니케이션하고 싶은 유저를 서칭할 수 있도록 한다.
엔트리 서칭부(311)에서 커뮤니케이션하기 위한 유저를 서칭하기 위해서 유저의 단말기 또는 모바일 유닛(1000)에 저장된 연락처와 연동하여 서칭하거나, 유저의 SNS 계정에 연동되어 유저의 SNS 친구나 팔로워, 팔로잉 중에서 서칭할 수 있다.
또한, 커뮤니케이션에 참여하고자 가입된 모든 유저를 서칭할 수 있으며, 로그인된 모든 유저에 대한 서칭이 가능할 수 있도록 한다. 그러나, 어느 한 유저가 서칭에 대해 금지를 설정했다면 서칭이 불가능하다.
엔트리 인포부(312)의 경우, 엔트리 서칭부(311)로부터 서칭된 커뮤니케이션에 참여하고자 하는 유저에 대한 소정의 정보를 수집하는 구성이다.
엔트리 인포부(312)에서는 커뮤니케이션에 참여하고자 하는 또는 참여 가능한 유저에 대한 정보를 수집하는 구성이다. 이때, 소정의 유저 정보에는 유저의 이름, 성별, 나이, 연락처, 아이디, 접속 지역, 기기 정보, 접속 로그, 또는 ip 주소 등의 유저의 개인 정보 등이 될 수 있으며, 유저가 등록한 정보를 토대로 정보의 수집이 가능하다.
랜덤 엔트리부(313)의 경우, 엔트리 서칭부(311)로부터 서칭된 유저 중 커뮤니케이션에 참여할 유저를 적어도 한 명 이상 랜덤하게 선택하는 구성이다.
랜덤 엔트리부(313)에서는 엔트리 인포부(312)의 소정의 유저 정보를 활용하여 랜덤하게 유저를 선택할 수 있게 된다.
예컨대, 엔트리 서칭부(311)를 통해 커뮤니케이션 가능한 유저의 서칭이 이루어지면, 서칭된 유저 중, 유저가 남성 유저와의 커뮤니케이션을 원할 경우, 성별을 남성으로 설정하고 필터링하여 남성 유저를 랜덤하게 선택할 수 있도록 한다.
또 다른 예로서, 랜덤 엔트리부(313)에서는 유저가 서울 지역의 유저와의 커뮤니케이션을 원할 경우, 접속 지역을 서울로 설정하고 필터링하여, 서울 지역에서 접속 중인 유저를 랜덤하게 선택할 수 있도록 한다.
픽싱 엔트리부(314)의 경우, 엔트리 서칭부(311)로부터 서칭된 유저 중 미리 설정된 엔트리에 속한 유저만이 커뮤니케이션에 참여할 수 있도록 하는 구성이다.
픽싱 엔트리부(314)에서 미리 설정된 엔트리란 유저가 커뮤니케이션하고자 하는 유저를 미리 픽싱하여, 미리 설정된 엔트리에 설정된 유저하고만 커뮤니케이션이 가능하도록 한다.
유저 네트워킹부(320)의 경우, 유저 엔트리부(310)로부터 서칭된 커뮤니케이션에 참여하고자 하는 유저의 각각의 모바일 유닛을 상호 연결하는 구성이다.
유저 네트워킹부(320)는 커뮤니케이션에 참여하고자 하는 유저의 모바일 유닛과 적어도 한 명 이상의 유저의 모바일 유닛을 상호 연결하여, 커뮤니케이션이 가능하도록 한다.
또한, 유저 네트워킹부(320)는 외부의 통신 서버를 통하여 유저의 모바일 유닛(1000)으로부터 커뮤니케이션 이미지를 수신받으며, 수신된 커뮤니케이션 이미지를 다른 유저의 모바일 유닛(1000)으로 송신하여 커뮤니케이션이 가능하도록 한다.
이때, 유저 네트워킹부(320)에서 송수신하는 커뮤니케이션 이미지는 커뮤니케이션 이미지의 픽셀(pixel) 값으로 추출하여, 추출된 픽셀 값을 1과 0의 바이너리 시퀀스(binary sequence)로 컨버팅하여, 일렬로 나열할 수 있다.
유저 네트워킹부(320)에서 바이너리 시퀀스로 컨버팅된 컨버팅 픽셀은 i) 일렬로 나열하며, ii) 컨버팅 픽셀 중 소정의 픽셀을 설정하고 소정의 픽셀을 선택적으로 누락시켜 오미팅 픽셀을 생성하며, iii) 오미팅 픽셀의 소정의 픽셀 누락된 컨버팅 픽셀을 각각 병렬적으로 전송하게 된다.
커뮤니케이션 스페이스부(330)의 경우, 도7에 도시된 바와 같이, 유저 네트워킹부(320)로부터 상호 연결된 유저가 적어도 한 명 이상 접속할 수 있는 소정의 커뮤니케이션 공간을 형성하는 구성이다.
이때, 커뮤니케이션 스페이스부(330)의 소정의 커뮤니케이션의 공간의 가상의 영역으로서, 상호 연결된 유저가 자유롭게 출입할 수 있으며, 크기와 공간의 제약이 없는 가상의 공간으로 정의할 수 있다.
커뮤니케이션 스페이스부(330)의 소정의 커뮤니케이션 공간은 n개의 영역으로 분할할 수 있으며, 커뮤니케이션에 참여하는 유저에게 분할된 n개의 영역을 랜덤하게 할당할 수 있게 된다.
예컨대, 커뮤니케이션 스페이스부(330)는 커뮤니케이션에 참여하는 n명에 따라서 n개의 영역으로 분할할 수도 있다. 또한, n개의 영역은 동일한 크기로 구성되거나 서로 다른 크기로 선택적으로 구성될 수 있다.
커뮤니케이션에 참여하는 유저는 각각 상이한 영역을 할당받게 되며, 할당 받은 영역에 따라서 유저의 커뮤니케이션 이미지의 영역 크기가 결정될 수 있게 된다.
예컨대, 도7에 도시된 바와 같이, 소정의 커뮤니케이션 공간을 8개의 영역으로 나누더라도 일정한 크기의 영역으로 분할하거나, 각각 서로 다른 크기의 영역으로 분할할 수도 있게 된다.
이때, 영역을 분할하고, 커뮤니케이션 이미지를 배치하는 주체는 커뮤니케이션에 참여하는 모든 유저가 될 수 있다.
즉, 유저는 유저 본인의 소정의 커뮤니케이션 공간에서의 커뮤니케이션 이미지의 배치가 가능할 뿐만 아니라 커뮤니케이션 중인 상대방의 소정의 커뮤니케이션 공간에서의 커뮤니케이션 이미지의 배치가 가능할 수 있도록 한다.
예컨대, A, B, C, D의 유저가 커뮤니케이션에 참여 중이며, A 유저의 발언시 유저들의 집중이 필요할 경우, A유저는 커뮤니케이션에 참여하고 있는 B, C, D 유저의 소정의 커뮤니케이션 공간의 분할 및 배치를 직접 콘트롤 하여 a의 커뮤니케이션 이미지의 영역을 확장시켜 이목을 집중시킬 수 있게 된다.
스위칭부(340)의 경우, 커뮤니케이션에 참여하는 유저로 하여금 이미지, 음성, 또는 텍스트 중 적어도 하나 이상의 커뮤니케이션 방식을 채택하여 선택적으로 스위칭할 수 있도록 하는 구성이다.
예컨대, 스위칭부(340)에서는 유저 간의 커뮤니케이션 중 유저의 상황에 따라서 유저의 페이셜 파트의 추출이 어려울 경우, 텍스트 또는 음성으로 커뮤니케이션 방식을 스위치하여, 유저 간의 커뮤니케이션의 흐름이 끊기지 않도록 하는 것이 바람직하다.
웨어링 이펙트 유닛(400)의 경우, 도9에 도시된 바와 같이, 유저 간의 커뮤니케이션 중, 유저의 페이셜 파트 각각에 소정의 이펙트가 실시간 웨어링 되도록 하는 구성이다.
웨어링 이펙트 유닛(400)을 통해 유저의 페이셜 파트에 적용되는 소정의 이펙트에는 메이크업 이펙트 또는 피규레이션 이펙트가 존재한다.
즉, 유저 간의 커뮤니케이션 중에 유저의 페이셜 파트에 소정의 이펙트를 웨어링하여 유저의 페이스 영역에 가상의 페이크업 또는 가상의 튜닝이 가능하게 된다.
웨어링 이펙트 유닛(400)은 유저의 커뮤니케이션 이미지를 실시간으로 스트리밍하며, 유저의 페이셜 파트에 소정의 이펙트가 웨어링되는 것을 실시간으로 반영하여 유저들과 공유할 수 있게 된다.
본 발명에 따른 유저의 페이셜 인식을 통한 커뮤니케이션 중 프리퍼런스 조사를 위한 리서칭 시스템의 웨어링 이펙트 유닛(400)의 경우, 유저 액션(user action)부(410), 및 어플라잉(applying)부(420), 이펙팅 쇼잉(effecting showing)부(430), 및 이펙팅 인포(effecting info)부(440)를 포함하게 된다.
먼저, 유저 액션부(410)의 경우, 커뮤니케이션 중 유저로부터 미리 결정된 액션과 상호 연동되어, 미리 결정된 액션에 의해 페이셜 파트가 적어도 하나 이상이 선택되도록 하는 구성이다.
유저 액션부(410)는 유저의 미리 결정된 액션에 따라서 소정의 이펙트를 웨어링하기 위한 것이다. 유저의 미리 결정된 액션은 유저가 유저의 단말기의 액정을 터치하거나, 음성 명령을 하거나, 단축어 등을 사용하여 유저로 하여금, 페이셜 파트를 선택하도록 하는 것이다.
예컨대, 커뮤니케이션 중 유저가 유저의 단말기에 표시된 유저의 페이셜 파트 중 하나를 선택적으로 터치하면, 모바일 유닛(1000)은 유저의 터치를 인식하여 웨어링 이펙트 유닛(400)에 전달하여 유저의 액션에 따라 소정의 이펙트 효과를 실시간으로 웨어링할 수 있게 된다.
또한, 유저 액션부(410)에서는 하나의 페이셜 파트를 선택하여 소정의 이펙트가 단일 적용될 수 있으며, 다중의 페이셜 파트를 선택하여 소정의 이펙트가 다중 적용될 수도 있다.
어플라잉부(420)의 경우, 유저 간의 커뮤니케이션 중 미리 결정된 액션에 의해 선택된 페이셜 파트에 소정의 이펙트를 선택적으로 실시간 웨어링하는 구성이다.
본 발명에 따른 유저의 페이셜 인식을 통한 커뮤니케이션 중 프리퍼런스 조사를 위한 리서칭 시스템의 어플라잉부(420)의 경우, 메이크업부(421), 피규레이션부(422), 리모델링부(423), 및 스팟 커버링부(424)를 포함하게 된다.
먼저, 메이크업부(421)의 경우, 유저 간의 커뮤니케이션 중, 유저의 미리 결정된 액션에 의해 페이셜 파트 중 피부, 눈, 눈썹, 속눈썹, 눈동자, 눈커풀, 애교살, 아이홀, 코, 콧망울, 콧대, 콧구멍, 인중, 입, 치아, 턱, 볼, 광대뼈, 이마, 귀, 머리카락 또는 얼굴형 중 적어도 하나 이상의 외형에 메이크업 이펙트를 실시간으로 웨어링하는 구성이다.
메이크업부(421)는 미리 세팅된 가상의 가상의 코스메틱 오브젝트를 페이셜 파트에 선택적으로 웨어링하는 것을 메이크업 이펙트로 설정하게 된다.
메이크업부(421)에서 메이크업 이펙트를 설정하기 위한 미리 세팅된 가상의 코스메틱 오브젝트는 코스메틱 유형을 가상의 오브젝트로 생성한 것이다. 미리 세팅된 가상의 코스메틱 오브젝트에는 베이스 메이크업을 위한 프라이머, 베이스, 비비크림 씨씨크림, 파운데이션, 쿠션, 컨실러, 파우더, 립 메이크업을 위한 립스틱, 립틴트, 립글로스, 립라이너, 립밤, 아이 메이크업을 위한 아이라이너, 아이브로우, 아이섀도우, 마스카라, 윤곽 메이크업을 위한 블러셔, 치크, 하이라이터, 쉐딩, 컨투어링 등을 포함하는 것이 바람직하다.
이와 같은 미리 세팅된 가상의 코스메틱 오브젝트는 유저에 의해 임의 선택되어, 유저의 페이셜 파트에 개별적으로 웨어링된다.
또한, 미리 세팅된 가상의 코스메틱 오브젝트는 미리 결정된 액션에 의해 선택된 페이셜 파트에 따라서 각각 상이한 집군의 하위 코스메틱 오브젝트가 제시되며, 유저에 의해 하위 코스메틱 오브젝트의 일부가 선택되면, 선택된 하위 코스메틱 오브젝트가 선택된 페이셜 파트에 웨어링될 수 있다.
예컨대, 미리 결정된 액션에 의해 유저의 페이셜 파트 중 입술이 선택되면, 립 메이크업과 관련된 립스틱, 립 틴트, 립글로스, 립라이너, 립밤 등이 제시되고, 유저가 이중에서 립 틴트를 선택하면 유저의 페이셜 파트 중 입술에 유저가 선택한 립 틴트가 웨어링될 수 있다.
또한, 메이크업부(421)에서는 하위 코스메틱 오브젝트의 컬러, 제형, 질감, 또는 피부톤 중 적어도 하나 이상을 제시하여 유저로 하여금 하위 코스메틱 오브젝트를 선택되도록 한다.
예컨대, 유저가 립 틴트를 선택하면, 메이크업부(421)에는 립 틴트의 컬러, 제형, 질감, 또는 피부톤 따라 정렬된 데이터를 유저에게 제시하며, 유저가 코랄 컬러를 원할 경우, 컬러를 선택하여 코랄의 립 틴트를 선택하여 웨어링할 수 있도록 한다.
피규레이션부(422)의 경우, 유저 간의 커뮤니케이션 중, 유저의 미리 결정된 액션에 의해 페이셜 파트 중 피부, 눈, 눈썹, 속눈썹, 눈동자, 눈커풀, 애교살, 아이홀, 코, 콧망울, 콧대, 콧구멍, 인중, 입, 치아, 턱, 볼, 광대뼈, 이마, 귀, 머리카락 또는 얼굴형 중 적어도 하나 이상의 외형이 튜닝되도록 피규레이션 이펙트를 실시간으로 웨어링하는 구성이다.
피규레이션부(422)는 미리 세팅된 가상의 파트 쉐입을 페이셜 파트에 선택적으로 웨어링하는 것을 피규레이션 이펙트로 설정하는 구성이다.
피규레이션부(422)에서 피규레이션 이펙트를 설정하기 위한 미리 세팅된 가상의 파트 쉐입은 페이셜 파트 중 피부를 매끈함, 톤업, 팔자 주름 삭제, 모공 삭제하거나, 페이셜 파트의 크기 조절, 선명도, 간격, 각도, 모양, 길이 등을 조절하는 것으로 정의할 수 있다.
미리 세팅된 가상의 파트 쉐입은 유저에 의해 임의 선택되어, 페이셜 파트에 개별적으로 웨어링되는 것을 특징으로 한다.
또한, 미리 세팅된 가상의 파트 쉐입은 유저의 미리 결정된 액션에 의해 선택된 페이셜 파트와 관련된 미리 세팅된 가상의 파트 쉐입 집군이 제시되고, 유저는 미리 세팅된 가상의 파트 쉐입 집군 중 어느 하나를 선택하면, 유저의 페이셜 파트는 유저가 선택한 미리 세팅된 가상의 파트 쉐입 집군 중 하나의 스타일로 튜닝되는 것을 특징으로 한다.
예컨대, 유저가 페이셜 파트 중 입을 선택하면, 입과 관련된 미리 세팅된 가상의 파트 쉐입의 집군 되는 입술 모양, 입꼬리, 치아 미백, 입크기 등이 제시된다. 유저가 입술 모양, 입꼬리, 치아 미백, 입 크기 중 입꼬리를 선택하게 되면 입꼬리의 모양이 튜닝될 수 있도록 한다.
리모델링부(423)의 경우, 유저 간의 커뮤니케이션 중, 유저 액션부(410)로부터 선택된 페이셜 파트를 선택적으로 삭제하며, 삭제된 페이셜 파트에는 미리 세팅된 가상의 파트 쉐입을 인풋하는 구성이다.
스팟 커버링부(424)의 경우, 유저 간의 커뮤니케이션 중, 유저의 페이셜 파트의 특정 부분으로부터 스팟 포인트를 찾아내며, 유저로 하여금 스팟 포인트를 선택적으로 커버링할 수 있도록 한다.
이때, 스팟 포인트는 익스트랙팅 유닛(200)으로부터 추출된 유저의 페이셜 파트 중 그레이 레벨(gray level) 전형적인 패턴으로부터 벗어나 그레이 레벨의 변화가 있는 부분을 스팟 포인트라고 정의하게 된다.
예컨대, 유저의 페이스에 존재하는 점, 기미, 주근깨, 여드름, 잡티, 검버섯, 모공 또는 흉터 등이 스팟 포인트로 검출될 수 있다.
스팟 커버링부(424)에서는 어플라잉부(420)로부터 유저의 페이셜 파트 중 스팟 포인트가 검출되면, 유저로 하여금 해당 스팟 포인트는 다른 페이셜 파트와는 상이하게 웨어링 할 수 있도록 한다.
즉, 스팟 커버링부(424)는 해당 스팟 포인트에는 다른 페이셜 파트와는 다르게 메이크업 이펙트 또는 피규레이션 이펙트를 강화시켜 독립적으로 웨어링할 수 있도록 한다.
아울러, 스팟 커버링부(424)는 스팟 포인트에 상이하게 웨어링 하는 것은 유저에 의해 선택 가능하도록 한다.
예컨대, 유저의 페이스 영역에 존재하는 하나의 점이 콤플렉스가 된다면 메이크업 이펙트 또는 피규레이션 이펙트를 강화시켜 커버할 수 있지만, 만약 이 점이 유저의 페이스의 트레이드 마크일 경우, 유저는 이 스팟 포인트를 커버할 이유가 없기 때문이다. 따라서, 유저의 선택에 의해서 스팟 포인트에 상이하게 웨어링 할 수 있도록 하는 것이 바람직하다.
이펙팅 쇼잉부(430)의 경우, 커뮤니케이션 중 유저로 하여금 미리 선택된 유저를 지정하여 미리 선택된 유저에게만 소정의 이펙트가 선택적으로 반영되는 구성이다.
이펙팅 쇼잉부(430)는 유저가 어플라잉부(420)를 통해서 소정의 이펙트를 웨어링할 때, 웨어링된 소정의 이펙트를 특정 유저에게만 보여줄 수 있도록 하는 기능을 수행한다.
이펙팅 쇼잉부(430)에서 미리 선택된 유저는, 소정의 이펙트를 웨어링한 유저에게 선택된 유저로서, 선택받은 유저만이 웨어링된 소정의 이펙트를 제공받을 수 있게 된다.
즉, 커뮤니케이션 스페이스에 존재하는 적어도 한 명 이상의 유저는 소정의 이펙트를 볼 수 있게 된다.
이펙팅 인포부(440)의 경우, 커뮤니케이션 중 유저는 커뮤니케이션 스페이스에 존재하는 적어도 한 명 이상의 유저에게 웨어링한 소정의 이펙트에 대한 정보를 선택적으로 제공하는 구성이다.
예컨대, 이펙팅 인포부(440)는 유저가 어플라잉부(420)를 통해서 립 틴트를 선택하여 유저의 페이셜 파트 중 입술에 A브랜드의 립 틴트를 웨어링할 경우, 웨어링한 립 틴트에 대한 컬러 정보, 발색 컬러 정보, 그레이 레벨 정보, 명도 정보, 채도 정보, 레이어링 컬러 정보, 그라데이션 정보, 톤 정보, 제형 정보, 성분 정보, 중량 정보, 브랜드 정보, 가격 정보, 지속력 정보, 향 정보, 디자인 정보, 제품명 정보 또는 제품 코드 정보 중 적어도 하나 이상의 정보를 선택적으로 제공할 수 있게 된다.
또한, 이펙팅 인포부(440)에서 커뮤니케이션 스페이스에 존재하는 유저가 웨어링된 립 틴트에 대한 정보를 요청하거나 관심을 보이거나, 이펙팅 쇼잉부(430)에서 미리 선택된 유저에게만 소정의 이펙트에 대한 정보가 선택적으로 제공될 수도 있다.
아울러, 웨어링 이펙트 유닛(400)에서는 커뮤니케이션 이미지의 실시간 스트리밍 중, 유저의 페이셜 파트에 웨어링 되는 소정의 이펙트를 실시간으로 변경할 수 있다.
이때, 웨어링 이펙트 유닛(400) 웨어링 되는 소정의 이펙트의 변화는 즉각적 반영될 수도 있으며, 웨어링 되는 소정의 이펙트가 변화되는 과정을 커뮤니케이션에 참여하는 유저들과 공유할 수 있다.
예컨대, 유저의 페이셜 파트 중, 입술에 웨어링 되는 이펙트 컬러를 레드 컬러에서 블루 컬러로 변경할 때, 레드 컬러와 블루 컬러가 오버랩된 퍼플 컬러를 보여줌으로써 레드 컬러가 블루 컬러로 점진적으로 웨어링 되는 과정을 공유할 수 있다.
또 다른 예로서, 소정의 이펙트가 웨어링 되는 일련의 과정을 커뮤니케이션에 참여하는 유저들에게 실시간으로 스트리밍하여, 유저들에게 이펙트의 변화를 직관적이며 시각적으로 보여줄 수 있게 된다.
리서칭 유닛(500)의 경우, 도1에 도시된 바와 같이, 유저 간의 커뮤니케이션 중, 유저 프리퍼런스(user preference)를 조사하기 위해 보팅 이벤트(voting event)를 제공하는 구성이다.
여기서 말하는 유저 프리퍼런스는 어떤 주제나 대상에 대하여 유저가 가지는 생각, 감상, 의견, 선호도 등으로 정의할 수 있다.
리서칭 유닛(500)은 유저 간의 커뮤니케이션 중, 커뮤니케이션의 주제나 소재에 대한 유저들의 프리퍼런스를 조사하기 위해서 보팅 이벤트를 생성하고 제공하게 된다.
리서칭 유닛(500)에서 생성되는 보팅 이벤트는 커뮤니케이션의 주제와 소재에 대한 투표 또는 서베이(survey)를 위한 투표 또는 설문지를 생성하는 것으로 정의할 수 있다.
보팅 이벤트는 소정의 커뮤니케이션 공간에서 자동으로 생성되거나, 소정의 커뮤니케이션 공간에 존재하는 유저들에 의해서 생성될 수도 있다.
이때, 보팅 이벤트를 위한 커뮤니케이션의 주제나 소재에는 제한이 없다. 예컨대, 웨어링 이펙트 유닛(400)에서 유저의 페이셜 파트에 웨어링 된 소정의 이펙트 중 유저에게 어울리는 이펙트를 선택하기 위해 보팅 이벤트를 생성하여 제공할 수도 있다.
본 발명에 따른 유저의 페이셜 인식을 통한 커뮤니케이션 중 프리퍼런스 조사를 위한 리서칭 시스템의 리서칭 유닛(500)의 경우, 도13에 도시된 바와 같이, 보팅 세팅(voting setting)부(510), 보팅 액션(voting action)부(520), 및 보팅 카운팅(voting counting)부(530)를 포함하게 된다.
먼저, 보팅 세팅부(510)의 경우, 도10에 도시된 바와 같이, 유저의 유저 프리퍼런스를 조사하기 위한 보팅 이벤트가 세팅되는 구성이다.
보팅 세팅부(510)는 보팅 이벤트를 생성하기 위해 보팅 타이틀(voting title), 보팅 리스트(voting list), 보팅 듀데이트(voting due date), 또는 보팅 옵션(voting option) 중 적어도 하나 이상을 선택적으로 세팅하여 보팅 이벤트의 폼(form)을 생성하도록 한다.
이때, 보팅 세팅부(510)의 보팅 타이틀은 보팅 이벤트에 대한 주제, 보팅 리스트는 보팅 이벤트 주제에 대한 항목, 보팅 듀데이트는 보팅 이벤트가 실시되는 기간을 뜻한다.
이때, 보팅 옵션은 유저로 하여금 단수 선택 기능, 복수 선택 기능, 익명 기능, 오픈 기능, 보팅 리스트 추가 기능 또는 보팅 의견 기능, 중 적어도 하나 이상의 옵션을 선택적으로 생성하도록 한다.
보팅 옵션에서의 단수 선택 또는 복수 선택 기능은 보팅 리스팅에 대해 단일 선택을 하거나 중복 선택을 할 수 있도록 옵션을 설정하는 기능이다.
또한, 보팅 옵션에서 익명 기능 또는 오픈 기능은 보팅 이벤트에 대해 익명 투표를 할 것인가 공개 투표를 할 것인가를 설정하는 기능이다.
아울러, 보팅 리스트 추가 기능은 이미 생성된 보팅 리스트 이외에 추가적인 보팅 리스트를 유저로 하여금 추가할 수 있도록 설정하는 기능이다. 보팅 의견 기능은 보팅 이벤트에 대해서 보팅 리스트 이외에 기타 의견에 대하여 유저들끼리 자유롭게 의견을 공유할 수 있도록 설정하는 기능이다.
또한, 보팅 세팅부(510)의 보팅 리스트에는 텍스트, 이미지, 날짜, 이펙트, 비디오, 중 오디오, 적어도 하나 이상의 보팅 타입이 선택적으로 생성될 수 있다.
보팅 액션부(520)의 경우, 도11에 도시된 바와 같이, 소정의 커뮤니케이션 공간에 보팅 이벤트가 생성되면, 유저의 유저 프리퍼런스를 선택할 수 있도록 하는 구성이다.
보팅 액션부(520)는 보팅 세팅부(510)에서 보팅 이벤트가 생성되면, 유저의 소정의 커뮤니케이션 공간에 보팅 이벤트가 팝업(pop-up)되어 유저가 보팅 이벤트에 참여할 수 있게 된다.
보팅 액션부(520)에서 소정의 커뮤니케이션 공간에 존재하는 적어도 한 명 이상의 유저는 생성된 보팅 이벤트에 따라 적어도 하나 이상의 보팅 리스트를 선택하여 보팅 이벤트에 참여하게 된다.
또한, 보팅 액션부(520)는 소정의 커뮤니케이션 공간의 유저에게 보팅 듀데이트에 도달하기 소정의 시간 전에 보팅 알림을 선택적으로 제공하게 된다.
보팅 카운팅부(530)의 경우, 도12에 도시된 바와 같이, 보팅 액션부(520)로부터 유저가 선택한 유저 프리퍼런스를 카운팅하여 선택적으로 분석하는 구성이다.
보팅 카운팅부(530)는 카운팅된 보팅 이벤트 결과를 표, 그래프와 같은 형식으로 보팅 이벤트 테이블을 생성하여 유저들에게 제공할 수 있으며, 유저에게 제공되는 보팅 이벤트 테이블의 형식에는 제한이 없는 것이 바람직하다.
또한, 보팅 카운팅부(530)는 소정의 커뮤니케이션 공간에서 생성된 보팅 이벤트에 대해 유저가 선택한 유저 프리퍼런스 각각을 카운팅하여 분석하여 보팅 결과를 제공하게 된다.
보팅 카운팅부(530)는 소정의 커뮤니케이션 공간에 있는 유저 중 적어도 한 명 이상에게 선택적으로 보팅 이벤트의 카운팅 분석 결과를 제공할 수 있다.
이때, 보팅 카운팅부(530)으로부터 소정의 커뮤니케이션 공간에 존재하는 다수의 유저 중 특정 유저에게 보팅 이벤트의 카운팅 결과를 제공하기 위해서, 카운팅 정렬부(531), 카운팅 필터 생성부(532), 카운팅 인입부(533), 카운팅 전송부(534)를 포함하게 된다.
먼저, 카운팅 정렬부(531)의 경우, 각각의 보팅 리스트에 대한 유저 프리퍼런스 데이터를 추출하여 1과 0의 바이너리 시퀀스(binary sequence)로 컨버팅하여, 일렬로 나열하는 구성이다.
카운팅 정렬부(531)에서 바이너리 시퀀스로 컨버팅된 프리퍼런스 데이터는 도14에 도시된 바와 같이, #1 과 #2로서 복제하게 된다.
카운팅 필터 생성부(532)의 경우, #1 과 #2으로 복제된 프리퍼런스 데이터가 입력되면 소정의 규칙으로 필터링하여 변환하는 구성이다.
또한, 카운팅 필터 생성부(532)에서의 소정의 규칙에는 and 조건, or 조건 등의 규칙이 존재하며, 소정의 규칙을 통해서 컨버팅된 프리퍼런스 데이터를 필터링하여 변환할 수 있게 된다.
카운팅 인입부(533)의 경우, 카운팅 정렬부(531)에서 정렬된 컨버팅된 프리퍼런스 데이터는(#1)은 머리(head)부터 binary by binary 로 카운팅 필터 생성부(532)에 인입시키고, 카운팅 정렬부(531)에서 정렬된 컨버팅된 프리퍼런스 데이터는(#2)는 꼬리(tail)부터 binary by binary 로 카운팅 필터 생성부(532)에 인입시키는 기능을 수행한다.
카운팅 전송부(534)의 경우, 카운팅 필터 생성부(532)으로부터 필터링되어 변환된 프리퍼런스 데이터 정보를 전송하는 구성이다.
이때, 카운팅 전송부(534)가 송신단이 되고, SNS가 수신단이 되며 수신단에서는 변환된 프리퍼런스 데이터의 정보만을 받게 된다. 만약, 수신단이 카운팅 필터 생성부(532)의 규칙 정보를 모르면 변환된 프리퍼런스 데이터는 원상태로 복원할 수 없게 된다.
따라서, 수신단은 카운팅 필터 생성부(532)의 규칙에 대한 정보를 미리 가지고 있도록 하며, 해당 규칙은 송신단과 수신단만이 공유하여 선택된 유저만이 보팅 이벤트에 대한 결과를 제공받을 수 있게 되는 동시에, 외부로부터의 정보 유출이나 해킹을 사전에 방지할 수 있게 된다.
본 발명의 권리 범위는 특허청구범위에 기재된 사항에 의해 결정되며, 특허 청구범위에 사용된 괄호는 선택적 한정을 위해 기재된 것이 아니라, 명확한 구성요소를 위해 사용되었으며, 괄호 내의 기재도 필수적 구성요소로 해석되어야 한다.
1000: 모바일 유닛 100: 레코그니션 유닛
110: 스캔부 120: 퍼시빙부
130: 디텍팅부 200: 익스트랙팅 유닛
210: 쉐이핑부 220: 트레킹부
230: 얼라이닝부 240: 어드레스부
300: 커뮤니케이션 유닛 310: 유저 엔트리부
311: 엔트리 서칭부 312: 엔트리 인포부
313: 랜덤 엔트리부 314: 픽싱 엔트리부
320: 유저 네트워킹부 330: 커뮤니케이션 스페이스부
340: 스위칭부 400: 웨어링 이펙트 유닛
410: 유저 액션부 420: 어플라잉부
421: 메이크업부 422: 피규레이션부
423: 리모델링부 424: 스팟 커버링부
430: 이펙팅 쇼잉부 440: 이펙팅 인포부
500: 리서칭 유닛 510: 보팅 세팅부
520: 보팅 액션부 530: 보팅 카운팅부
531: 카운팅 정렬부 532: 카운팅 필터 생성부
533: 카운팅 인입부 534: 카운팅 전송부

Claims (10)

  1. 모바일 유닛으로부터 취득된 유저의 영상으로부터 상기 유저의 페이스 영역을 선택적으로 검출하는 레코그니션 유닛(recognition unit);
    상기 레코그니션 유닛으로부터 검출된 상기 유저의 페이스 영역으로부터 상기 유저의 페이셜 파트(facial part)를 개별적으로 추출하는 익스트랙팅 유닛(extracting unit);
    상기 익스트랙팅 유닛으로부터 추출된 상기 유저의 상기 페이셜 파트가 반영된 상태로 상기 유저 간의 커뮤니케이션이 이루어지도록 하는 커뮤니케이션 유닛(communication unit);
    상기 유저 간의 상기 커뮤니케이션 중, 상기 유저의 상기 페이셜 파트 각각에 소정의 이펙트가 실시간 웨어링 되도록 하는 웨어링 이펙트 유닛(wearing effect unit); 및
    상기 유저 간의 커뮤니케이션 중, 유저 프리퍼런스(user preference)를 조사하기 위해 보팅 이벤트(voting event)를 제공하는 리서칭 유닛(researching unit)을 포함하는 것을 특징으로 하는, 유저의 페이셜 인식을 통한 커뮤니케이션 중 프리퍼런스 조사를 위한 리서칭 시스템.
  2. 제1항에 있어서, 상기 레코그니션 유닛은,
    상기 모바일 유닛으로부터 상기 유저의 영상을 가져와서 스캔하는 스캔(scan)부;
    상기 유저의 영상으로부터 소정의 무브먼트가 포착되는 영역을 상기 유저의 페이스 영역으로 인식하는 퍼시빙(perceiving)부; 및
    상기 퍼시빙부로부터 인식된 상기 유저의 페이스 영역과 백그라운드 영역을 분리하여, 상기 유저의 페이스 영역을 선택적으로 검출하는 디텍팅(detecting)부를 포함하는 것을 특징으로 하는, 유저의 페이셜 인식을 통한 커뮤니케이션 중 프리퍼런스 조사를 위한 리서칭 시스템.
  3. 제2항에 있어서, 상기 익스트랙팅 유닛은,
    상기 디텍팅부로부터 선택적으로 검출된 상기 유저의 페이스 영역으로부터 3차원의 페이스 쉐입을 형성하는 쉐이핑(shaping)부;
    상기 쉐이핑부로부터 형성된 상기 3차원의 페이스 쉐입으로부터 상기 유저의 페이셜 파트를 선택적으로 추출하는 트레킹(tracking)부; 및
    상기 유저의 상기 소정의 무브먼트에 따른 상기 페이셜 파트의 앵글 변화를 감지하여, 상기 3차원의 페이스 쉐입에 반영하여 얼라이닝(aligning)부를 포함하는 것을 특징으로 하는, 유저의 페이셜 인식을 통한 커뮤니케이션 중 프리퍼런스 조사를 위한 리서칭 시스템.
  4. 제3항에 있어서, 상기 커뮤니케이션 유닛은,
    상기 커뮤니케이션에 참여하고자 하는 적어도 한 명 이상의 유저를 서칭하여 상기 커뮤니케이션 참여 자격을 부여하는 엔트리부;
    상기 엔트리부로부터 서칭된 상기 커뮤니케이션에 참여하고자 하는 유저의 각각의 상기 모바일 유닛을 상호 연결하는 유저 네트워킹부; 및
    상기 유저 네트워킹부로부터 상호 연결된 상기 유저가 적어도 한 명 이상 접속할 수 있는 소정의 커뮤니케이션 공간을 형성하는 커뮤니케이션 스페이스부를 포함하는 것을 특징으로 하는, 유저의 페이셜 인식을 통한 커뮤니케이션 중 프리퍼런스 조사를 위한 리서칭 시스템.
  5. 제4항에 있어서, 상기 커뮤니케이션 유닛은,
    상기 커뮤니케이션에 참여하는 상기 유저로 하여금 이미지, 음성, 또는 텍스트 중 적어도 하나 이상의 커뮤니케이션 방식을 채택하여 선택적으로 스위칭할 수 있도록 하는 스위칭부를 더 포함하는 것을 특징으로 하는, 유저의 페이셜 인식을 통한 커뮤니케이션 중 프리퍼런스 조사를 위한 리서칭 시스템.
  6. 제4항에 있어서, 상기 리서칭 유닛은,
    상기 유저의 상기 유저 프리퍼런스를 조사하기 위한 상기 보팅 이벤트가 세팅되는 보팅 세팅(voting setting)부;
    상기 소정의 커뮤니케이션 공간에 상기 보팅 이벤트가 생성되면, 상기 유저의 상기 유저 프리퍼런스를 선택할 수 있도록 하는 보팅 액션(voting action)부; 및
    상기 보팅 액션부로부터 상기 유저가 선택한 상기 유저 프리퍼런스를 카운팅하여 선택적으로 분석하는 보팅 카운팅(voting counting)부를 포함하는 것을 특징으로 하는, 유저의 페이셜 인식을 통한 커뮤니케이션 중 프리퍼런스 조사를 위한 리서칭 시스템.
  7. 제6항에 있어서, 상기 보팅 세팅부는,
    보팅 타이틀(voting title), 보팅 리스트(voting list), 보팅 듀데이트(voting due date), 또는 보팅 옵션(voting option) 중 적어도 하나 이상을 선택적으로 세팅하여 상기 보팅 이벤트의 폼(form)을 생성하는 것을 특징으로 하는, 유저의 페이셜 인식을 통한 커뮤니케이션 중 프리퍼런스 조사를 위한 리서칭 시스템.
  8. 제7항에 있어서, 상기 보팅 옵션은,
    상기 유저로 하여금 단수 선택 기능, 복수 선택 기능, 익명 기능, 오픈 기능, 보팅 리스트 추가 기능 또는 보팅 의견 기능, 중 적어도 하나 이상의 옵션을 선택적으로 생성하는 것을 특징으로 하는, 유저의 페이셜 인식을 통한 커뮤니케이션 중 프리퍼런스 조사를 위한 리서칭 시스템.
  9. 제6항에 있어서, 상기 보팅 액션부는,
    상기 소정의 커뮤니케이션 공간의 상기 유저에게 상기 보팅 듀데이트에 도달하기 소정의 시간 전에 상기 보팅 알림을 선택적으로 제공하는 것을 특징으로 하는, 유저의 페이셜 인식을 통한 커뮤니케이션 중 프리퍼런스 조사를 위한 리서칭 시스템.
  10. 제6항에 있어서, 상기 보팅 카운팅부는,
    상기 소정의 커뮤니케이션 공간에 있는 상기 유저 중 상기 보팅 이벤트의 카운팅의 분석 결과를 선택적으로 제공하는 것을 특징으로 하는, 유저의 페이셜 인식을 통한 커뮤니케이션 중 프리퍼런스 조사를 위한 리서칭 시스템.
KR1020210114237A 2020-10-23 2021-08-27 유저의 페이셜 인식을 통한 커뮤니케이션 중 프리퍼런스 조사를 위한 리서칭 시스템 KR20220054177A (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR20200138025 2020-10-23
KR1020200138025 2020-10-23

Publications (1)

Publication Number Publication Date
KR20220054177A true KR20220054177A (ko) 2022-05-02

Family

ID=81593194

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210114237A KR20220054177A (ko) 2020-10-23 2021-08-27 유저의 페이셜 인식을 통한 커뮤니케이션 중 프리퍼런스 조사를 위한 리서칭 시스템

Country Status (1)

Country Link
KR (1) KR20220054177A (ko)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20200083008A (ko) 2018-12-31 2020-07-08 주식회사 하이퍼커넥트 영상 통화 서비스를 제공하는 단말기 및 서버
KR102142262B1 (ko) 2019-12-13 2020-08-07 진승영 증강현실을 이용한 축하 영상통화시스템
KR20200098875A (ko) 2019-02-13 2020-08-21 주식회사 휴먼아이씨티 3d 얼굴인식 시스템 및 방법
KR102158233B1 (ko) 2018-01-11 2020-09-21 김지환 증강된 화장 서비스 제공 방법

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102158233B1 (ko) 2018-01-11 2020-09-21 김지환 증강된 화장 서비스 제공 방법
KR20200083008A (ko) 2018-12-31 2020-07-08 주식회사 하이퍼커넥트 영상 통화 서비스를 제공하는 단말기 및 서버
KR20200098875A (ko) 2019-02-13 2020-08-21 주식회사 휴먼아이씨티 3d 얼굴인식 시스템 및 방법
KR102142262B1 (ko) 2019-12-13 2020-08-07 진승영 증강현실을 이용한 축하 영상통화시스템

Similar Documents

Publication Publication Date Title
US11748980B2 (en) Makeup evaluation system and operating method thereof
CN110235169B (zh) 化妆评价系统及其动作方法
CN107862653B (zh) 图像显示方法、装置、存储介质和电子设备
KR20170086024A (ko) 정보 처리 장치, 정보 처리 방법, 및 프로그램
WO2007140609A1 (en) Method and system for image and video analysis, enhancement and display for communication
CN110210449B (zh) 一种用于虚拟现实交友的人脸识别系统及方法
CN105069180A (zh) 一种发型设计方法及系统
CN111553220A (zh) 一种智能设备及数据处理方法
CN110121103A (zh) 视频自动剪辑合成的方法及装置
CN111968248A (zh) 基于虚拟形象的智能化妆方法、装置、电子设备及存储介质
CN114830193A (zh) 生成包括修改的面部图像的视频
KR20220026252A (ko) 이동 단말기, 서버 및 뷰티 스타일의 합성 방법
KR102372521B1 (ko) 유저의 페이셜 인식을 통한 커뮤니케이션 중 웨어링 이펙트 실시간 반영 시스템
KR102372524B1 (ko) 메이크업 이펙트의 선택적 적용과 코스메틱 오브젝트의 바잉 서비스 제공 시스템
KR20220054177A (ko) 유저의 페이셜 인식을 통한 커뮤니케이션 중 프리퍼런스 조사를 위한 리서칭 시스템
KR102066892B1 (ko) 메이크업 평가 시스템 및 그의 동작 방법
CN110933354A (zh) 一种可定制的多风格多媒体处理方法及其终端
KR20220019612A (ko) 유저의 페이셜 인식을 통한 커뮤니케이션 중 메이크업 이펙트 제공 시스템
KR102435893B1 (ko) 유저의 페이셜 인식을 통한 선택적 메이크업 이펙팅 적용 시스템
KR20220053466A (ko) 유저의 페이셜 인식을 통한 커뮤니케이션 중 이벤트 쉐어링 시스템
KR102372522B1 (ko) 코스메틱 오브젝트의 소싱을 통한 선택적 메이크업 이펙팅 적용 시스템
KR102372523B1 (ko) 메이크업 이펙트가 선택적으로 적용된 이미지의 포스팅에 대한 리워드 제공 시스템
CN111353931B (zh) 整形模拟方法、系统、可读存储介质和设备
KR20220022431A (ko) 코스메틱 오브젝트의 레코멘딩을 통한 선택적 메이크업 이펙팅 적용 시스템
KR20220019611A (ko) 메이크업 이펙트의 선택적 적용과 클래시파잉텀을 활용한 이미지 포스팅 시스템

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right