KR20220040051A - Apparel wearing system based on face application, and methoe thereof - Google Patents

Apparel wearing system based on face application, and methoe thereof Download PDF

Info

Publication number
KR20220040051A
KR20220040051A KR1020200122776A KR20200122776A KR20220040051A KR 20220040051 A KR20220040051 A KR 20220040051A KR 1020200122776 A KR1020200122776 A KR 1020200122776A KR 20200122776 A KR20200122776 A KR 20200122776A KR 20220040051 A KR20220040051 A KR 20220040051A
Authority
KR
South Korea
Prior art keywords
face
user
shobata
smart terminal
server
Prior art date
Application number
KR1020200122776A
Other languages
Korean (ko)
Other versions
KR102467295B1 (en
Inventor
김준규
Original Assignee
주식회사 넥스트키
김준규
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 넥스트키, 김준규 filed Critical 주식회사 넥스트키
Priority to KR1020200122776A priority Critical patent/KR102467295B1/en
Publication of KR20220040051A publication Critical patent/KR20220040051A/en
Application granted granted Critical
Publication of KR102467295B1 publication Critical patent/KR102467295B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/06Buying, selling or leasing transactions
    • G06Q30/0601Electronic shopping [e-shopping]
    • G06Q30/0641Shopping interfaces
    • G06Q30/0643Graphical representation of items or shoppers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions

Landscapes

  • Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Business, Economics & Management (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Accounting & Taxation (AREA)
  • Finance (AREA)
  • Multimedia (AREA)
  • Economics (AREA)
  • General Business, Economics & Management (AREA)
  • Strategic Management (AREA)
  • Marketing (AREA)
  • Development Economics (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Human Computer Interaction (AREA)
  • Processing Or Creating Images (AREA)

Abstract

The present invention relates to a clothing wearing system based on face application and a method thereof, and more specifically, to a clothing wearing system based on face application and a method thereof. Although a user is provided with the experience of wearing clothes through a service provided in an existing augmented reality field, the actual offline wear and experience of clothes are provided at a level of about 60%. Therefore, the system improves an active appearance model algorithm used within existing augmented reality, and through a direct volumetric (DVM) process, the system provides customer showvata composite images based on augmented reality, which is a 3D avatar based on ultra-high-definition images.

Description

얼굴 적용 기반의 의류착용 시스템 및 그 방법{Apparel wearing system based on face application, and methoe thereof}Apparel wearing system based on face application, and methoe thereof

본 발명은 얼굴 적용 기반의 의류착용 시스템 및 그 방법에 관한 것으로, 보다 구체적으로는, 기존 증강현실 분야에서 제공되는 서비스를 통해 사용자는 의류 착용경험을 제공 받고 있으나, 실제 오프라인에서의 의류 착용감과 경험을 60% 정도 수준에서 제공하고 있으므로 기존 증강현실 내에서 사용되는 "AAM(Active Appearance Model) 알고리즘"을 개선하고, "DVM(Direct Volumetric) 과정"을 통하여, 초고화질 이미지 기반의 3D 아바타인 증강현실 기반의 고객 쇼바타 합성 영상을 제공하기 위한 얼굴 적용 기반의 의류착용 시스템 및 그 방법에 관한 것이다. The present invention relates to a face application-based clothing wearing system and method. More specifically, a user is provided with a clothing wearing experience through a service provided in the existing augmented reality field, but the actual offline clothing fit and experience is provided at the level of 60%, so the "AAM (Active Appearance Model) algorithm" used in the existing augmented reality is improved, and through the "DVM (Direct Volumetric) process", augmented reality that is a 3D avatar based on ultra-high-resolution images It relates to a face application-based clothing wearing system and method for providing a composite image of customer Shobata.

온라인 e-커머스 시장 상황은 온-오프라인 융합을 통한 소매유통 기업들의 온라인 전환이 수행되고 있다.In the online e-commerce market, the online conversion of retailers through on-offline convergence is being carried out.

즉, 오프라인 매장 운영이 어려워지는 소매유통 기업들이 온라인 판매에 나서면서, 온-오프라인 판매채널 간의 결합이 더욱 가속화 되고 있다.In other words, as retail distribution companies, which have difficulty in operating offline stores, start selling online, the combination between on-line and offline sales channels is accelerating.

특히, 신종 코로나바이러스 감염증으로, 세계 경제가 침체되고 있으며, 이중 비대면 소비는 각황을 받고 있다. 이러한 소비자의 움직임으로 국내 e-커머스 시장은 2019년 840억 6,700만 달러 규모로 성장하였다. 국내 유통시장에서 e-커머스 시장의 점유율도 28.2% 수준으로 매년 증가하고 있는 추세이다.In particular, due to the novel coronavirus infection, the global economy is stagnating, and non-face-to-face consumption is receiving a lot of attention. Due to these consumer movements, the domestic e-commerce market has grown to a size of $84,677 million in 2019. The share of the e-commerce market in the domestic distribution market is also increasing at 28.2% every year.

비대면 소비가 “새로운 표준(New Normal)”이 되면서, 최적의 소비자 경험을 제공하기 위한 혁신 기술 도입 가속화되고 있으며, 매장을 방문하여 직접 제품을 구매하는 전통적인 쇼핑 방식이 비대면 방식의 선호로 사라지면서, 이를 보완하기 위한 혁신 정보기술(IT)이 온라인 커머스 시장에 적극적으로 도입되고 있다.As non-face-to-face consumption becomes the “new normal”, the introduction of innovative technologies to provide an optimal consumer experience is accelerating. In order to compensate for this, innovative information technology (IT) is being actively introduced into the online commerce market.

이러한 유통분야에서 언택트(Untact) 소비 추세가 장기화되면서, 새로운 표준으로 인식되고 있다. 이러한 흐름에 글로벌 IT기업들은 증강/가상현실(AR,VR) 기술을 확보하고자, 해당 기술들을 보유한 스타트업에 적극적으로 투자하고 있다.As the trend of untact consumption in the distribution field is prolonged, it is recognized as a new standard. In this trend, global IT companies are actively investing in startups that have these technologies to secure augmented/virtual reality (AR, VR) technologies.

일반적인 업무용 PC의 성능으로, 3D 가상현실 영상을 재대로 표현하는데 어려움이 있으며, 특히, 머리에 직접 착용하는 HMD(Head-mounted display) 기기를 활용할 경우에는 착용자가 어지러움증을 유발할 수 있다.Due to the performance of a general office PC, it is difficult to properly express 3D virtual reality images, and in particular, when using a head-mounted display (HMD) device that is worn directly on the head, the wearer may cause dizziness.

특수안경을 착용하는 방식으로 3D로 사물을 바라보는 Non-HMD 방식도 HMD와 동일하게 착용을 해야 사용이 가능하다. 물론, HMD 대비 착용장치에 대한 무게감이 현저하게 작아 편의성은 향상되는 방법이나, 장비를 착용해야 한다는 부분에서는 한계가 있다.The non-HMD method, which looks at objects in 3D by wearing special glasses, must be worn in the same way as the HMD to be used. Of course, compared to the HMD, the weight of the wearing device is remarkably small, so the convenience is improved, but there is a limit in the part that the equipment needs to be worn.

한편, 가상현실 환경을 만드는 비용이 상당히 높은 상황으로, 산업 내에서 적용 효율성이 낮다. CAD로 만든 3D모델이 기업 내 없을 경우, 대부분의 제작과정을 노동집약적인 수작업으로 가상현실을 구현해야 한다. 이는 뚜렷한 수익모델이나 투자 대비 효과 없이는 시작이 어렵다는 점도 포함되어 있다.On the other hand, the cost of creating a virtual reality environment is quite high, and the application efficiency within the industry is low. If a 3D model made with CAD is not available in the company, most of the production process must be implemented by manual labor-intensive virtual reality. This includes the fact that it is difficult to start without a clear profit model or investment return.

2020년 기준, 현재의 AR 기술들은 웨어러블 기기를 착용해서 구현되고 있으므로, 기기착용에 대한 불편함과 장비 가격이 고가격이라는 문제들이 아직 해결되지 않은 상황이다.As of 2020, current AR technologies are implemented by wearing wearable devices, so the problems of inconvenience and high equipment prices have not been resolved yet.

이러한 문제들은 산업 현장의 실무자들에게 앞에서의 어색함과 불편함을 감수할 만한 가치를 제공해주지 못하고 있다는 점이다. 이는 보수적인 성향의 실무자들에게 신기술을 통한 확실한 체감과 장점, 나아가 혜택이 있어야 가능할 것으로 예상된다. These problems are that they do not provide the practical value of the awkwardness and inconvenience in front of the workers in the industrial field. This is expected to be possible only when conservative practitioners have a clear sense of experience, advantages, and further benefits through new technologies.

대한민국 특허출원 출원번호 제10-2009-0047947(2009.06.01)호 "모의 의류 착용장치를 기반으로 하는 모의 의류 착용시스템 및 이를 이용한 모의 의류 착용서비스의 제공방법(VIRTUAL CLOTHES WEARING SYSTEM BASE ON VIRTUAL CLOTHES WEARING APPARATUS AND METHOD FOR PROVIDING VIRTUAL CLOTHES WEARING SERVICE USING THEREOF)Republic of Korea Patent Application No. 10-2009-0047947 (June 1, 2009) "A simulated clothing wearing system based on a simulated clothing wearing device and a method of providing a simulated clothing wearing service using the same (VIRTUAL CLOTHES WEARING SYSTEM BASE ON VIRTUAL CLOTHES WEARING) APPARATUS AND METHOD FOR PROVIDING VIRTUAL CLOTHES WEARING SERVICE USING THEREOF)

본 발명은 상기의 문제점을 해결하기 위한 것으로, 기존 증강현실 분야에서 제공되는 서비스를 통해 사용자는 의류 착용경험을 제공 받고 있으나, 실제 오프라인에서의 의류 착용감과 경험을 60% 정도 수준에서 제공하고 있으므로 기존 증강현실 내에서 사용되는 "AAM(Active Appearance Model) 알고리즘"을 개선하고, "DVM(Direct Volumetric) 과정"을 통하여, 초고화질 이미지 기반의 3D 아바타인 증강현실 기반의 고객 쇼바타 합성 영상을 제공하기 위한 얼굴 적용 기반의 의류착용 시스템 및 그 방법을 제공하기 위한 것이다.The present invention is to solve the above problems, and although the user is provided with a clothing wearing experience through the service provided in the existing augmented reality field, the actual offline clothing fit and experience is provided at a level of about 60%. To improve the "AAM (Active Appearance Model) algorithm" used in augmented reality, and to provide an augmented reality based 3D avatar based on augmented reality through the "DVM (Direct Volumetric) process" An object of the present invention is to provide a face application-based clothing wearing system and a method therefor.

그러나 본 발명의 목적들은 상기에 언급된 목적으로 제한되지 않으며, 언급되지 않은 또 다른 목적들은 아래의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.However, the objects of the present invention are not limited to the above-mentioned objects, and other objects not mentioned will be clearly understood by those skilled in the art from the following description.

상기의 목적을 달성하기 위해 본 발명의 실시예에 따른 얼굴 적용 기반의 의류착용 시스템은, 복수의 사용자 스마트단말(100)로 이루어진 사용자 스마트단말 그룹(100g), 네트워크(200), 얼굴 적용 기반 의류착용 서버(300)를 포함하는 얼굴 적용 기반의 의류착용 시스템(1)에 있어서, 얼굴 적용 기반 의류착용 서버(300)는, 네트워크(200)를 통해 각 사용자 스마트단말(100)의 액세스에 따라 회원 가입 절차를 수행하고 쇼핑 앱 데이터를 네트워크(200)를 통해 스마트 단말(100)로 제공하도록 송수신부(310)를 제어하는 정보수집모듈(321); 및 사용자의 얼굴 촬영 정보 및 신체 사이즈 정보에 대해서 개선된 AAM(Active Appearance Model) 알고리즘과 머신러닝 기법을 적용한, 얼굴 특징 포인트 추출 기법에 따라 사용자의 사용자 스마트단말(100)에서 획득한 사용자의 얼굴 촬영 정보를 활용하여 2D 얼굴 이미지를 재구축하고, 시각화(Reconstruction & Visualization) 작업을 위해서, 얼굴 특징 요소를 매뉴얼로 처리하여 기준 값을 형성하는 3D 얼굴이미지 생성모듈(322); 을 포함하는 것을 특징으로 할 수 있다.In order to achieve the above object, a face application-based clothing wearing system according to an embodiment of the present invention is a user smart terminal group 100g consisting of a plurality of user smart terminals 100, a network 200, and a face application-based clothing In the face application-based clothing wearing system (1) including the wearing server (300), the face application-based clothing wearing server (300) is a member according to the access of each user's smart terminal (100) through the network (200). an information collection module 321 for controlling the transceiver 310 to perform a subscription procedure and provide shopping app data to the smart terminal 100 through the network 200; And the user's face taken from the user's user smart terminal 100 according to the facial feature point extraction technique, which applies the improved Active Appearance Model (AAM) algorithm and machine learning technique to the user's face shooting information and body size information a 3D face image generation module 322 that reconstructs a 2D face image by using the information and forms a reference value by manually processing facial feature elements for a reconstruction & visualization operation; It may be characterized in that it includes.

상기의 목적을 달성하기 위해 본 발명의 실시예에 따른 얼굴 적용 기반의 의류착용 방법은, 사용자 스마트단말(100)이 미리 설정된 쇼핑 앱을 실행하여 로그인 과정을 수행하는 제 1 단계; 및 사용자 스마트단말(100)이 로그인이 완료되면, 쇼바타 API를 실행한 쇼바타 쇼핑몰 서버(500)가 등록한 의류에 대해서 얼굴 적용 기반 의류착용 서버(300)의 중계에 따라 정보를 제공받은 뒤, 쇼바타 실행 선택 화면을 출력하는 제 2 단계; 를 포함하는 것을 특징으로 할 수 있다.In order to achieve the above object, a method for wearing clothes based on face application according to an embodiment of the present invention includes: a first step of performing a login process by executing a pre-set shopping app by the user smart terminal 100; And when the user smart terminal 100 is logged in is completed, after receiving information according to the relay of the face application-based clothing wearing server 300 for clothes registered by the Shobata shopping mall server 500 executing the Shobata API, a second step of outputting a Shobata execution selection screen; It may be characterized in that it includes.

본 발명의 실시예에 따른 얼굴 적용 기반의 의류착용 시스템 및 그 방법은, 기존 증강현실 분야에서 제공되는 서비스를 통해 사용자는 의류 착용경험을 제공 받고 있으나, 실제 오프라인에서의 의류 착용감과 경험을 60% 정도 수준에서 제공하고 있으므로 기존 증강현실 내에서 사용되는 "AAM(Active Appearance Model) 알고리즘"을 개선하고, "DVM(Direct Volumetric) 과정"을 통하여, 초고화질 이미지 기반의 3D 아바타인 증강현실 기반의 고객 쇼바타 합성 영상을 제공할 수 있는 효가 있다. In the face application-based clothing wearing system and method according to an embodiment of the present invention, a user is provided with a clothing wearing experience through a service provided in the existing augmented reality field, but the actual offline clothing fit and experience is reduced by 60% As it is provided at the level of precision, we improve the "AAM (Active Appearance Model) algorithm" used in the existing augmented reality, and through the "DVM (Direct Volumetric) process", a 3D avatar based on ultra-high-resolution images, augmented reality-based customers It has the effect of being able to provide a Shobata composite image.

도 1은 본 발명의 실시예에 따른 얼굴 적용 기반의 의류착용 시스템(1)을 나타내는 도면이다.
도 2는 본 발명의 실시예에 따른 얼굴 적용 기반의 의류착용 시스템(1) 중 얼굴 적용 기반 의류착용 서버(300)의 구성요소를 나타내는 블록도이다.
도 3 및 도 4는 본 발명의 실시예에 따른 얼굴 적용 기반의 의류착용 시스템(1) 중 얼굴 적용 기반 의류착용 서버(300)의 얼굴 적용 기반의 의류착용 서비스를 제공하기 위한 과정을 설명하기 위한 도면이다.
도 5는 본 발명의 실시예에 따른 얼굴 적용 기반의 의류착용 서비스 제공 과정을 나타내는 흐름도이다.
도 6은 본 발명의 실시예에 따른 얼굴 적용 기반의 의류착용 서비스 제공 과정을 구성요소를 중심으로 도시한 참조 도면이다.
1 is a diagram illustrating a face application-based clothing wearing system 1 according to an embodiment of the present invention.
2 is a block diagram illustrating components of a face application-based clothing wearing server 300 of the face application-based clothing wearing system 1 according to an embodiment of the present invention.
3 and 4 are for explaining a process for providing a face application-based clothing wearing service of the face application-based clothing wearing server 300 among the face application-based clothing wearing system 1 according to an embodiment of the present invention It is a drawing.
5 is a flowchart illustrating a process of providing a face application-based clothing wearing service according to an embodiment of the present invention.
6 is a reference diagram illustrating a process of providing a face application-based clothing wearing service according to an embodiment of the present invention, focusing on components.

이하, 본 발명의 바람직한 실시예의 상세한 설명은 첨부된 도면들을 참조하여 설명할 것이다. 하기에서 본 발명을 설명함에 있어서, 관련된 공지 기능 또는 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명을 생략할 것이다.Hereinafter, a detailed description of a preferred embodiment of the present invention will be described with reference to the accompanying drawings. In the following description of the present invention, if it is determined that a detailed description of a related well-known function or configuration may unnecessarily obscure the gist of the present invention, the detailed description thereof will be omitted.

본 명세서에 있어서는 어느 하나의 구성요소가 다른 구성요소로 데이터 또는 신호를 '전송'하는 경우에는 구성요소는 다른 구성요소로 직접 상기 데이터 또는 신호를 전송할 수 있고, 적어도 하나의 또 다른 구성요소를 통하여 데이터 또는 신호를 다른 구성요소로 전송할 수 있음을 의미한다.In the present specification, when any one component 'transmits' data or signal to another component, the component may directly transmit the data or signal to another component, and through at least one other component This means that data or signals can be transmitted to other components.

도 1은 본 발명의 실시예에 따른 얼굴 적용 기반의 의류착용 시스템(1)을 나타내는 도면이다. 도 1을 참조하면, 얼굴 적용 기반의 의류착용 시스템(1)은 복수의 사용자 스마트단말(100)로 이루어진 사용자 스마트단말 그룹(100g), 네트워크(200), 얼굴 적용 기반 의류착용 서버(300), 빅데이터 서버(400), 쇼바타 쇼핑몰 서버(500) 및 SNS 서버(600)를 포함할 수 있다. 1 is a diagram illustrating a face application-based clothing wearing system 1 according to an embodiment of the present invention. Referring to FIG. 1 , the face application-based clothing wearing system 1 includes a user smart terminal group 100g consisting of a plurality of user smart terminals 100 , a network 200 , a face application-based clothing wearing server 300 , It may include a big data server 400 , a Shobata shopping mall server 500 , and an SNS server 600 .

본 발명과 관련된 사전적 정의로 "쇼바타[SHOVATAR]"는 쇼핑(Shopping) + 아바타(Avatar)의 합성어로, 증강현실 기술분야에서 활용되는 기존의 소스(Source)들과 5G 네트워크 환경을 배경으로, 의류 산업에 특화되어 증강현실로 제작된 인물 형태를 의미한다. As a dictionary definition related to the present invention, "SHOVATAR" is a compound word of Shopping + Avatar, based on the existing sources used in the augmented reality technology field and the 5G network environment , refers to the shape of a person specialized in the clothing industry and produced by augmented reality.

한편, 기존 증강현실 분야에서 제공되는 서비스를 통해 사용자는 의류 착용경험을 제공 받고 있으나, 실제 오프라인에서의 의류 착용감과 경험을 60% 정도 수준에서 제공하고 있다. 이에, 본 발명에 따른 얼굴 적용 기반 의류착용 서버(300)는 기존 증강현실 내에서 사용되는 "AAM(Active Appearance Model) 알고리즘"을 개선하고, "DVM(Direct Volumetric) 과정"을 통하여, 초고화질 이미지 기반의 3D 아바타인 증강현실 기반의 고객 쇼바타 합성 영상을 제공할 수 있다. On the other hand, although the user is provided with a clothing experience through the service provided in the existing augmented reality field, the actual offline clothing fit and experience is provided at a level of about 60%. Accordingly, the face application-based clothing wearing server 300 according to the present invention improves the "AAM (Active Appearance Model) algorithm" used in the existing augmented reality, and through the "DVM (Direct Volumetric) process", an ultra-high-resolution image It is possible to provide a composite image of customer Shobata based on augmented reality, which is a 3D avatar based.

도 2는 본 발명의 실시예에 따른 얼굴 적용 기반의 의류착용 시스템(1) 중 얼굴 적용 기반 의류착용 서버(300)의 구성요소를 나타내는 블록도이다. 도 3 및 도 4는 본 발명의 실시예에 따른 얼굴 적용 기반의 의류착용 시스템(1) 중 얼굴 적용 기반 의류착용 서버(300)의 얼굴 적용 기반의 의류착용 서비스를 제공하기 위한 과정을 설명하기 위한 도면이다.2 is a block diagram illustrating components of a face application-based clothing wearing server 300 of the face application-based clothing wearing system 1 according to an embodiment of the present invention. 3 and 4 are for explaining a process for providing a face application-based clothing wearing service of the face application-based clothing wearing server 300 among the face application-based clothing wearing system 1 according to an embodiment of the present invention It is a drawing.

도 2를 참조하면, 얼굴 적용 기반 의류착용 서버(300)는 송수신부(310), 제어부(320) 및 데이터 베이스(330)를 포함하며, 제어부(320)는 정보수집모듈(321), 3D 얼굴이미지 생성모듈(322), 영상 합성 모듈(323), 쇼바타 제공 모듈(324) 및 추가정보 제공 모듈(325)을 포함함으로써, 기존의 앱 보다 실제와 같은 느낌을 주기 위해서 3D 기반으로 증강현실 기반으로 딥러닝에 의해 옷의 착용 상태를 가상으로 구현하는데 초점을 두기보다, 기존의 피팅 모델의 영상에 사용자의 얼굴을 변화하면서 제공함으로써, 사용자가 입고 있는 듯한 느낌을 줘서, 사용자가 옷을 입은 채 360도 회전하거나, 팔 다리 동작을 하면서도, 옷의 질감, 옷의 착용 상태 등을 구체적으로 알 수 있도록 할 수 있다. Referring to FIG. 2 , the face application-based clothing wearing server 300 includes a transceiver 310 , a controller 320 and a database 330 , and the controller 320 includes an information collection module 321 , a 3D face By including the image generating module 322, the image synthesis module 323, the Shobata providing module 324 and the additional information providing module 325, 3D based augmented reality based to give a more realistic feel than the existing app Rather than focusing on virtual implementation of the wearing state of clothes by deep learning as While rotating 360 degrees or moving arms and legs, it is possible to know the texture of clothes, the state of wearing clothes, etc. in detail.

정보수집모듈(321)은 네트워크(200)를 통해 각 사용자 스마트단말(100)의 액세스에 따라 회원 가입 절차를 수행하고 쇼핑 앱 데이터를 네트워크(200)를 통해 스마트 단말(100)로 제공하도록 송수신부(310)를 제어할 수 있다 The information collection module 321 performs a membership registration procedure according to the access of each user's smart terminal 100 through the network 200 and transmits/receives the shopping app data to the smart terminal 100 through the network 200 310 can be controlled

3D 얼굴이미지 생성모듈(322)은 사용자의 얼굴 촬영 정보 및 신체 사이즈 정보에 대해서 개선된 AAM(Active Appearance Model) 알고리즘과 머신러닝 기법을 적용한, 얼굴 특징 포인트 추출 기법에 따라 사용자의 사용자 스마트단말(100)에서 획득한 사용자의 얼굴 촬영 정보를 활용하여 2D 얼굴 이미지를 재구축하고, 이를 시각화(Reconstruction & Visualization) 작업을 위해서, 얼굴 특징 요소를 매뉴얼로 처리하여 기준 값을 형성할 수 있다. 여기서, 3D 얼굴이미지 생성모듈(322)은 APF 기반으로 추출 속도를 향상할 수 있다. The 3D face image generation module 322 is the user's user smart terminal 100 according to the facial feature point extraction technique, which applies the improved AAM (Active Appearance Model) algorithm and machine learning technique to the user's face photographing information and body size information. ) to reconstruct a 2D face image by using the user's face photographing information obtained in ), and for visualization (Reconstruction & Visualization) work, facial feature elements can be manually processed to form a reference value. Here, the 3D face image generating module 322 may improve the extraction speed based on the APF.

여기서, "AAM(Active Appearance Model)"은 ASM(Active Shape Model) 접근 방식을 일반화한 것이으로, 신체의 일부분이 모델링 된 부분에서 신체 가장자리뿐만 아니라, 모든 이미지 영역의 정보를 사용하는 기법으로, 도 3과 같이 사용자 스마트단말(100)과 별도로 형성된 360°카메라(미도시), 그 밖의 얼굴 적용 기반 의류착용 서버(300) 운영자가 별도로 구비한 360°카메라(미도시)를 통해 수집한 4K 화질의 2D 실사 이미지를 사용자 스마트단말(100)로부터 3D 얼굴이미지 생성모듈(322)이 수신하도록 송수신부(310)를 제어한 뒤, 360°카메라에 의해 촬영된 4K 실사 이미지 그룹을 데이터베이스(330)에 저장할 수 있다. Here, "AAM (Active Appearance Model)" is a generalization of the ASM (Active Shape Model) approach. It is a technique that uses information from all image areas, not just the body edges, in the modeled part of the body. As shown in 3, a 360° camera (not shown) formed separately from the user smart terminal 100, and other face application-based clothing wearing servers 300 operators of 4K image quality collected through a separately provided 360° camera (not shown) After controlling the transceiver 310 so that the 3D face image generating module 322 receives the 2D live image from the user smart terminal 100, the 4K live image group photographed by the 360 ° camera is stored in the database 330 can

3D 얼굴이미지 생성모듈(322)은 4K 실사 이미지 그룹에 대한 디지털 인터미디에이트(Digital Intermediate) 작업에 따라 촬영 단계에서 360° 회전에 따라 획득한 영상의 밝기, 색상, 채도 등의 차이를 일치시키는 과정으로, 색 보정(color correction) 등을 포함한 전반적인 교정 작업과, 색수치 및 노출에 대한 보정을 진행함으로써, 보정된 실사 영상 이미지를 완성할 수 있다.The 3D face image generation module 322 is a process of matching the differences in brightness, color, saturation, etc. of the image acquired according to 360° rotation in the shooting stage according to the digital intermediate operation for the 4K real image group As a result, the corrected live-action video image can be completed by performing the overall correction including color correction and correction of color values and exposure.

여기서, 3D 얼굴이미지 생성모듈(322)이 사용하는 "AAM(Active Appearance Model)"은 각 실사 영상 이미지에서 신체 가장자리뿐만 아니라, 360°카메라에 의해 촬영된 4K 실사 이미지 그룹을 형성하는 각 4K 실사 이미지의 모든 이미지 영역의 정보(색상, 채도, 명도)를 각 4K 실사 이미지에서 겹치는 영역에 대해서는 동일한 좌표값으로 하여 360°의 회전에 따라 각 x,y,z 축 좌표를 메타데이터로 신체 가장자리(윤곽선 정보) 및 영역 정보를 매칭시켜서 추출할 수 있다. Here, "AAM (Active Appearance Model)" used by the 3D face image generation module 322 is not only the body edge in each live-action video image, but also each 4K live-action image that forms a 4K live-action image group shot by a 360° camera. The information (color, saturation, brightness) of all image areas in each 4K photorealistic image is set to the same coordinate value for the overlapping area, and each x, y, z axis coordinate is converted to metadata according to 360° rotation of the body edge (contour line). information) and area information can be matched and extracted.

즉, 3D 얼굴이미지 생성모듈(322)은 하나의 각도와 이웃하는 다른 각도의 각 4K 실사 이미지에서 머신러닝 기법에 해당하는 변화 예측성을 기반으로 중첩되는 좌표 영역을 추출할 수 있는 것이다.That is, the 3D face image generation module 322 can extract an overlapping coordinate region based on change predictability corresponding to the machine learning technique from each 4K live-action image of one angle and another neighboring angle.

보다 구체적으로, 3D 얼굴이미지 생성모듈(322)은 네트워크(200)를 통해 빅데이터 서버(400)에 액세스하여 빅데이터 서버(400)에 저장된 인체의 각도 변화에 따른 신체 부위의 변화 파라미터인 윤곽의 하나의 중심점을 기준으로 좌우, 상하 이동시의 직선 및 곡선의 변화, 그리고 색상, 채도, 명도의 변화 정보를 추출한 뒤, 하나의 각도와 이웃하는 다른 각도의 각 4K 실사 이미지에서의 중첩되는 좌표 영역에 대해서 1차적으로 추출을 수행하고, 추출된 좌표 영역에 대한 3D 이미지를 통한 2차 확인 과정을 통해 중첩되는 좌표 영역의 신체 가장자리(윤곽선 정보) 및 영역 정보를 배제하고 중첩되지 않는 좌표 영역의 신체 가장자리(윤곽선 정보) 및 영역 정보만에 대한 획득을 수행할 수 있다.More specifically, the 3D face image generation module 322 accesses the big data server 400 through the network 200 and stores the contour of the body part according to the change in the angle of the human body stored in the big data server 400 . After extracting information on changes in straight lines and curves when moving left and right and up and down based on one central point, as well as changes in color, saturation, and brightness, it is applied to the overlapping coordinate area in each 4K actual image of one angle and another neighboring angle. The body edge of the non-overlapping coordinate area by excluding the body edge (outline information) and area information of the overlapping coordinate area through the secondary confirmation process through the 3D image of the extracted coordinate area (Contour line information) and only area information can be acquired.

한편, 신체 부위에 대해서 3D 얼굴이미지 생성모듈(322)은 2D 이미지와 빅데이터 서버(400)에 저장된 신체부위 패턴 정보를 비교하여 신체 부위를 추출할 수 있다. 이를 위해 빅데이터 서버(400)에는 다양한 신체부위 패턴 정보가 저장되어 있는데, 3D 얼굴이미지 생성모듈(322) 이러한 다양한 신체부위 패턴 자체 정보 또는 상기 다양한 신체부위 패턴 정보의 미리 설정된 각도 기울어진 것, 역으로 된 것 등과 2D 이미지를 비교하여 신체 부위를 판별할 수 있다. Meanwhile, for the body part, the 3D face image generating module 322 may extract the body part by comparing the 2D image with the body part pattern information stored in the big data server 400 . To this end, various body part pattern information is stored in the big data server 400, and the 3D face image generating module 322 includes information on the various body part patterns itself or a preset angle of the various body part pattern information. Body parts can be identified by comparing 2D images with those made of

2차 확인 과정에서 3D 얼굴이미지 생성모듈(322)은 2D 이미지에 해당하는 각 4K 실사 이미지에 대한 디코딩을 수행하여 디코딩된 이미지(Decoded-image)를 생성하고 3D 형상으로 표현하기 위한 기본단위인 폴리곤의 집합을 생성하고, 디코딩된 이미지 각각을 상기 폴리곤의 집합 위에 붙이는 텍스쳐맵핑을 수행하여 3D 이미지로 형상화한 뒤, 변화되는 상수에 해당하는 중첩선을 기준으로 좌우 상하가 매칭되는 중첩선을 추출하고, 중첩선을 기준으로 중복되는 좌표 영역과 1차로 추출된 인체의 각도 변화에 따른 신체 부위의 변화 파라미터인 윤곽의 하나의 중심점을 기준으로 좌우, 상하 이동시의 직선 및 곡선의 변화, 그리고 색상, 채도, 명도의 변화 정보를 추출한 뒤, 하나의 각도와 이웃하는 다른 각도의 각 4K 실사 이미지에서의 중첩되는 좌표 영역이 매칭되는 경우 중첩선을 기준으로 중첩되는 좌표 영역을 추출하고 매칭되지 않는 경우 변화되는 상수에 해당하는 중첩선에 대한 이동 변화를 머신 러닝 기반으로 재추출하는 과정을 수행할 수 있다.In the secondary confirmation process, the 3D face image generation module 322 performs decoding on each 4K actual image corresponding to the 2D image to generate a decoded-image and a polygon, which is a basic unit for expressing in 3D shape. After creating a set of , texture mapping is performed to attach each decoded image to the set of polygons to form a 3D image, and then, based on the overlapping line corresponding to the changing constant, the overlapping line that matches the upper and lower left and right is extracted, , changes in straight lines and curves when moving left and right and up and down based on one central point of the contour, which is the parameter of change of body parts according to the coordinate area overlapping based on the overlapping line and the angle change of the human body extracted first, and the color and saturation , after extracting the change information of the brightness, if the overlapping coordinate area in each 4K actual image of one angle and another neighboring angle is matched, the overlapping coordinate area is extracted based on the overlapping line, and if not, the coordinate area is changed The process of re-extracting the movement change for the overlapping line corresponding to the constant based on machine learning can be performed.

여기서 3D 얼굴이미지 생성모듈(322)에서 수행되는 머신 러닝은 분석/제어 프로그램을 기반으로 수행되며, 빅데이터 서버(400) 상의 분산 파일 프로그램에 의해 DCS DB에 분산 저장된 각 신체 부위별 수집 데이터를 머신러닝 알고리즘을 통해 분석하고 중첩선을 설정하여 중첩 영역을 추출할 수 있다. 보다 구체적으로, 분석/제어 프로그램에서 사용되는 머신러닝 알고리즘은 결정 트리(DT, Decision Tree) 분류 알고리즘, 랜덤 포레스트 분류 알고리즘, SVM(Support Vector Machine) 분류 알고리즘 중 하나일 수 있다. Here, the machine learning performed by the 3D face image generation module 322 is performed based on the analysis/control program, and the collected data for each body part distributed and stored in the DCS DB by the distributed file program on the big data server 400 is machined. The overlapping area can be extracted by analyzing it through a learning algorithm and setting an overlapping line. More specifically, the machine learning algorithm used in the analysis/control program may be one of a decision tree (DT) classification algorithm, a random forest classification algorithm, and a support vector machine (SVM) classification algorithm.

분석/제어 프로그램은 분산 파일 프로그램에 의해 빅데이터 서버(400) 상에 각 신체 부위 별로 DCS DB에 분산 저장된 수집 데이터를 분석하여 그 분석한 결과로 각 신체 부위 별 3D 이미지의 하나의 중첩선을 기준으로 각기 다른 각도 변화에 따른 복수의 특징 정보를 추출하고 추출된 특징 정보를 복수의 머신러닝 알고리즘 중 적어도 하나 이상을 이용하여 학습하여 학습한 결과로 매칭 상태 여부를 판단할 수 있다.The analysis/control program analyzes the collected data distributed and stored in the DCS DB for each body part on the big data server 400 by the distributed file program, and the analysis result is based on one overlapping line of the 3D image for each body part As a result, it is possible to extract a plurality of feature information according to different angle changes, learn the extracted feature information using at least one of a plurality of machine learning algorithms, and determine whether the matching state is a result of the learning.

즉, 분석/제어 프로그램은 상태 여부 판단 결과의 정확도 향상을 위해 다수의 상호 보완적인 머신러닝 알고리즘들로 구성된 앙상블 구조를 적용할 수 있다. That is, the analysis/control program can apply an ensemble structure composed of a number of complementary machine learning algorithms to improve the accuracy of the status determination result.

결정 트리 분류 알고리즘은 트리 구조로 학습하여 결과를 도출하는 방식으로 결과 해석 및 이해가 용이하고, 데이터 처리 속도가 빠르며 탐색 트리 기반으로 룰 도출이 가능할 수 있다. DT의 낮은 분류 정확도를 개선하기 위한 방안으로 RF를 적용할 수 있다. 랜덤 포레스트 분류 알고리즘은 다수의 DT를 앙상블로 학습한 결과를 도축하는 방식으로, DT보다 결과 이해가 어려우나 DT보다 결과 정확도가 높을 수 있다. DT 또는 RF 학습을 통해 발생 가능한 과적합의 개선 방안으로 SVM을 적용할 수 있다. SVM 분류 알고리즘은 서로 다른 분류에 속한 데이터를 평면 기반으로 분류하는 방식으로, 일반적으로 높은 정확도를 갖고, 구조적으로 과적합(overfitting)에 낮은 민감도를 가질 수 있다.The decision tree classification algorithm learns in a tree structure and derives results, so it is easy to interpret and understand the results, the data processing speed is fast, and rules can be derived based on the search tree. RF can be applied as a method to improve the low classification accuracy of DT. The random forest classification algorithm slaughters the results of learning multiple DTs as an ensemble, and it is difficult to understand the results than DT, but the accuracy of the results may be higher than that of DT. SVM can be applied as a way to improve overfitting that can occur through DT or RF learning. The SVM classification algorithm classifies data belonging to different classifications in a plane-based manner, and generally has high accuracy and may have low sensitivity to structural overfitting.

3D 얼굴이미지 생성모듈(322)은 추출된 특징 포인트를 기반으로, 도 4와 같은 "Direct Volumetric 기술" 을 통한 3D 이미지 재구축을 수행할 수 있다.The 3D face image generation module 322 may reconstruct a 3D image through "Direct Volumetric technology" as shown in FIG. 4 based on the extracted feature points.

보다 구체적으로, 3D 얼굴이미지 생성모듈(322)은 360°에서 각 좌표에 대한 정보를 구비한 재구축된 2D 얼굴 이미지 정보 중 좌표 영역의 신체 가장자리(윤곽선 정보)의 각 좌표 간의 CNN(convolutional Neural Network)을 사용하여, 2D 픽셀(pixel)로부터 3D 좌표로 생성하고 추출하고, 3D 좌표를 활용하여 영역 정보를 매칭시켜서 적용하는 방식으로 2D 얼굴 이미지를 3D 얼굴 이미지로 생성하는 "DVM(Direct Volumetric)" 기법을 활용할 수 있다. More specifically, the 3D face image generation module 322 is a convolutional neural network (CNN) between each coordinate of the body edge (contour line information) of the coordinate region among the reconstructed 2D face image information having information on each coordinate at 360°. ), "DVM (Direct Volumetric)" that creates and extracts 3D coordinates from 2D pixels, and uses 3D coordinates to match and apply area information to create a 2D face image as a 3D face image technique can be used.

즉, 얼굴이미지 생성모듈(322)은 2D 형태의 얼굴과 체형 이미지를 기계학습을 통해 3D 형태로 변환하여 e-커머스(e-Commerce) 산업에 최적화된 쇼핑형 아바타(Avata)로 표현하기 위해 "Volumetric capture video" 기반의 "DVM(Direct Volumetric)" 과정을 통하여, 의류의 질감과 실제 사용자의 피트(Fit, 이하 치수) 등을 표현하며, 실제 오프라인에서의 의류 착용감을 온라인 채널에서 90% 이상 동일한 경험을 제공하는 "초고화질 AR 쇼핑 아바타"를 제공할 수 있다.That is, the face image generation module 322 converts 2D face and body image into 3D form through machine learning to express as a shopping avatar optimized for the e-commerce industry. Through the "DVM (Direct Volumetric)" process based on "Volumetric Capture Video", the texture of the clothing and the actual user's fit (fit, below) are expressed, and the actual offline clothing fit is more than 90% the same in the online channel. An “ultra-high-definition AR shopping avatar” that provides an experience can be provided.

영상 합성 모듈(323)은 "DVM(Direct Volumetric)" 기법을 통해 생성된 3D 얼굴 이미지에 대해서 동적 개체에 해당하는 데이터베이스(330)에 저장된 쇼핑몰 피팅 모델의 2D 영상과의 얼굴 변화 합성을 수행할 수 있다.The image synthesis module 323 may perform face change synthesis with the 2D image of the shopping mall fitting model stored in the database 330 corresponding to the dynamic object on the 3D face image generated through the “Direct Volumetric (DVM)” technique. there is.

보다 구체적으로, 영상 합성 모듈(323)은 사용자가 선택한 의류에 대해서 사전에 쇼바타 쇼핑몰 서버(500)로부터 수신하여 데이터베이스(330)에 저장된 쇼핑몰 피팅 모델의 2D 영상에 대해서 상술한 사용자에 대한 3D 얼굴이미지 생성모듈(322)에 의한 "AAM(Active Appearance Model)" 기법을 통해 각 실사 영상 이미지에서 신체 가장자리뿐만 아니라, 360°카메라에 의해 촬영된 4K 실사 이미지 그룹을 형성하는 각 4K 실사 이미지의 모든 이미지 영역의 정보(색상, 채도, 명도)를 각 4K 실사 이미지에서 겹치는 영역에 대해서는 동일한 좌표값으로 하여 360°의 회전에 따라 각 x,y,z 축 좌표를 메타데이터로 신체 가장자리(윤곽선 정보) 및 영역 정보를 매칭시켜서 추출한 뒤, 3D 이미지 형상을 생성하는 방식으로 쇼핑몰 피팅 모델의 2D 영상을 활용하여 3D 이미지 형상을 생성하 수 있다.More specifically, the image synthesizing module 323 receives the clothes selected by the user from the Shobata shopping mall server 500 in advance and stores the 3D face of the user with respect to the 2D image of the shopping mall fitting model stored in the database 330 . Through the "AAM (Active Appearance Model)" technique by the image generating module 322, not only the body edges in each live-action video image, but also all images of each 4K live-action image forming a 4K live-action image group shot by a 360° camera With the area information (color, saturation, lightness) as the same coordinate value for the overlapping area in each 4K real-world image, each x, y, and z axis coordinate as metadata as metadata for 360° rotation of the body edge (outline information) and After matching and extracting area information, a 3D image shape can be generated by using a 2D image of a shopping mall fitting model in a manner that generates a 3D image shape.

이후, 영상 합성 모듈(323)은 추출된 동적 개체의 얼굴 특징별 값과, 외부 환경에 따라 각각 다른 조명, 화질, 카메라 성능 등의 값을 표준화한 사용자 이미지의 3D 얼굴 특징점 값을 합성하여 3D 합성 윤곽면을 생성한다. 이후에는 영상 합성 모듈(323)은 페이셜 트레킹 데이터에 맞춰 각 3D 좌표에 대한 영역 정보를 합성하여 처리함으로써, 고객 쇼바타 합성 영상을 생성할 수 있다. Thereafter, the image synthesis module 323 synthesizes the values of the extracted facial features of the dynamic object and the 3D facial feature values of the user image in which the values of lighting, image quality, camera performance, etc., which are different according to the external environment, are standardized to synthesize 3D synthesis. Create a contour surface. Thereafter, the image synthesis module 323 may generate a customer Shobata composite image by synthesizing and processing area information for each 3D coordinate according to the facial tracking data.

즉, 기존에 이러한 이미지 합성 동적 3D 객체에서는 얼굴 특징점을 추출하거나 합성을 하는 경우 어려움(정확도)이 있었는데 영상 합성 모듈(323)은 머신러닝 기법의 오브젝트 디텍션 알고리즘 및 이미지생성, 변환 알고리즘을 이용하여 이를 개선하고 발전된 형태의 쇼바타를 제작하는 것이다.That is, there was difficulty (accuracy) in extracting or synthesizing facial feature points in the conventional image synthesis dynamic 3D object. It is to produce an improved and developed form of Shobata.

이후, 쇼바타 제공 모듈(324)은 고객 쇼바타 합성 영상을 사용자 단말(100)로부터 제공된 배경 화면을 네트워크(200)와 연결된 쇼바타 쇼핑몰 서버(500)로부터 제공되는 경우 배경 화면에 고객 쇼바타 합성 영상을 매칭시킨 증강현실 기반의 고객 쇼바타 합성 영상을 생성하여 네트워크(200)와 연결된 쇼바타 쇼핑몰 서버(500)를 통해 사용자 스마트단말(100)로 제공하거나 네트워크(200)를 통해 사용자 스마트단말(100)에 직접적으로 증강현실 기반의 고객 쇼바타 합성 영상을 제공하도록 송수신부(310)를 제어할 수 있다. After that, the Shobata providing module 324 synthesizes the customer Shobata synthesis image on the background screen when the background screen provided from the user terminal 100 is provided from the Shobata shopping mall server 500 connected to the network 200 . By creating a composite image of customer Shobata based on matching images and providing it to the user smart terminal 100 through the Shobata shopping mall server 500 connected to the network 200, or through the network 200, the user smart terminal ( 100) may control the transceiver 310 to directly provide the augmented reality-based customer Shobata composite image.

즉, 얼굴 적용 기반 의류착용 서버(300)은 온라인 커머스 플랫폼 구현을 위한, 서비스 모듈 형태의 “쇼바타” 에 최적화된 기업용 오픈 API를 통해 처리부-합성부를 거친 피팅모델 데이터를 모바일 기기에 해당하는 사용자 스마트단말(100)로 증강현실로 구현되도록 하는 것이다. That is, the face application-based clothing wearing server 300 receives the fitting model data that has passed through the processing unit-synthesis unit through the enterprise open API optimized for “Shobata” in the form of a service module for the implementation of an online commerce platform to a user corresponding to a mobile device. The smart terminal 100 is to be implemented in augmented reality.

기존에는 고품질(대용량) 이미지를 활용하여 증강현실 콘텐츠를 제작할 시, 콘텐츠 대용량에 따른 스마트폰 구동에서 증강현실 화질 감소 및 실감 저하 등의 한계가 존재한다. 대부분의 증강현실 콘텐츠는 고품질 이미지 대비 용량이 적은 일반 2D 이미지 또는 3D 오브젝트 파일을 사용하여 AR 콘텐츠를 제작하고 있으며, 이는 증강현실 콘텐츠 이용자에게 실감을 떨어뜨리고, 실제 산업에서 사용되는데 핵심적인 문제로 이어질 수 있다. 이에 따라 본 발명에서 제공되는 “초실감 증강현실” 은 고품질(대용량) 이미지를 이용하여, 스마트폰에서 이용가능하게 하는데, 초점을 맞추고 있다. 특히, 자체 개발하는 “영상과 음성의 압축 기술”과 “콘텐츠 규격화 기술” 등을 통해서, 스마트폰으로 초실감 증강현실을 체험할 수 있다.In the past, when creating augmented reality content using high-quality (large-capacity) images, there are limitations such as reduced augmented reality image quality and reduced realism when driving a smartphone according to the large capacity of the content. Most augmented reality contents produce AR contents using regular 2D images or 3D object files, which have a small capacity compared to high-quality images. can Accordingly, the "super-realistic augmented reality" provided in the present invention is focused on using high-quality (large-capacity) images to make it available on smartphones. In particular, through the self-developed “video and audio compression technology” and “content standardization technology”, you can experience hyper-realistic augmented reality with your smartphone.

이에 따라 쇼바타 쇼핑몰 서버(500)를 운영하는 온라인 의류 커머스 기업들은 사용자의 UX / UI를 기반으로, 자유롭게 증갈현실로 구현된 “쇼바타”를 사용자가 사용자 스마트단말(100)에 해당하는 스마트폰 상에서 움직이고 체험할 수 있도록 할 수 있다. Accordingly, online clothing commerce companies that operate the Shobata shopping mall server 500, based on the user's UX / UI, freely implement "Shobata" as augmented reality on the smartphone corresponding to the user's smart terminal 100. You can move and experience it.

도 5는 본 발명의 실시예에 따른 얼굴 적용 기반의 의류착용 방법인 서비스 제공 과정을 나타내는 흐름도이다. 도 6은 본 발명의 실시예에 따른 얼굴 적용 기반의 의류착용 서비스 제공 과정을 구성요소를 중심으로 도시한 참조 도면이다. 5 is a flowchart illustrating a service providing process, which is a method for wearing clothes based on face application according to an embodiment of the present invention. 6 is a reference diagram illustrating a process of providing a face application-based clothing wearing service according to an embodiment of the present invention, focusing on components.

도 5를 참조하면, 사용자 스마트단말(100)은 미리 설정된 쇼핑 앱을 실행하여 로그인 과정을 수행한다(S11).Referring to FIG. 5 , the user smart terminal 100 executes a preset shopping app to perform a login process ( S11 ).

단계(S11) 이후, 사용자 스마트단말(100)은 단계(S11)에 따른 로그인이 완료되면, 쇼바타 API를 실행한 쇼바타 쇼핑몰 서버(500)가 등록한 의류에 대해서 얼굴 적용 기반 의류착용 서버(300)의 중계에 따라 정보를 제공받은 뒤, 쇼바타 실행 선택 화면을 출력할 수 있다(S12).After the step (S11), when the login according to the step (S11) is completed, the user smart terminal 100 applies a face application-based clothing server 300 for the clothes registered by the Shobata shopping mall server 500 executing the Shobata API. ), after receiving the information according to the relay, it is possible to output the Shobata execution selection screen (S12).

여기서 쇼바타 API는 온라인 커머스몰에서 활용 가능한, 기업용 오픈 API 최적화 통합 운영 플랫폼으로, B2B 서비스를 위해 데이터 프로세스 서버인 얼굴 적용 기반 의류착용 서버(300)와 고객사인 쇼바타 쇼핑몰 서버(500)의 B2B 채널과 연결하는 API으로 회원관리, 상품정보 및 관리, 과금 등을 진행할 수 있다.Here, Shobata API is an open API optimization integrated operating platform for businesses that can be used in online commerce malls. For B2B services, the face application-based clothing wearing server 300 and the customer Shobata shopping mall server 500 are B2B With the API that connects to the channel, you can manage member management, product information and management, and billing.

단계(S12) 이후, 사용자 스마트단말(100)은 쇼바타 실행 선택 화면에 대한 선택 여부에 따라(S13), 선택하는 경우, “쇼바타 설정페이지”에서 사용자의 얼굴을 촬영하고, 신체사이즈를 설정하여 저장할 수 있다(S14).After the step (S12), the user's smart terminal 100 takes a picture of the user's face in the "Shobatta setting page" and sets the body size if selected, depending on whether the Shobata execution selection screen is selected (S13) and can be stored (S14).

한편, 사용자 스마트단말(100)은 쇼바타 실행 선택 화면에 대한 선택 여부에 따라(S13), 선택하지 않는 경우, 일반적인 쇼핑몰에서와 같은 상품 검색 서비스를 쇼바타 쇼핑몰 서버(500)로부터 네트워크(200)를 통해 제공받을 수 있다(S15).On the other hand, the user smart terminal 100 provides the same product search service as in a general shopping mall from the Shobata shopping mall server 500 to the network 200 depending on whether the Shobata execution selection screen is selected (S13), if not selected. It can be provided through (S15).

다음으로, 쇼바타 쇼핑몰 서버(500)는 네크워크(200)를 통해 얼굴 적용 기반 의류착용 서버(300)로 액세스 하여 얼굴 적용 기반 의류착용 서버(300)에 대한 요청을 통해 쇼바타 API 설정을 수행할 수 있으며(S21), 쇼바타 API 설정 여부에 따라(S22), 설정하지 않은 경우 단계(S21)로 회귀하여 쇼바타 API 설정에 대한 재시도를 수행할 수 있으며, 반대로 설정한 경우 단계(S31)로 진행함으로써, 얼굴적용 기반 의류착용 서버(300)로부터 쇼바타 API 모듈을 제공받아서 쇼바타 API 모듈을 기반으로 사용자 스마트단말(100)에 대한 쇼바타 서비스를 제공할 수 있으며, 쇼바타 API 모듈 제공 및 사용에 대해서 얼굴 적용 기반 의류착용 서버(300)에 대한 결제를 수행할 수 있다(S31). Next, the Shobata shopping mall server 500 accesses the face application-based clothing wearing server 300 through the network 200 to perform the Shobata API setting through a request to the face application-based clothing wearing server 300. (S21), depending on whether Shobata API is set (S22), if not set, it can return to step (S21) and retry for Shobata API setting can be performed, and if set conversely, step (S31) By proceeding to , it is possible to receive the Shobata API module from the face application-based clothing wearing server 300 and provide the Shobata service for the user smart terminal 100 based on the Shobata API module, and provide the Shobata API module and payment for the face application-based clothing wearing server 300 for use (S31).

이후, 쇼바타 쇼핑몰 서버(500)는 네트워크(200)를 통한 사용자 스마트단말(100)의 쇼핑 앱 상에서의 쇼바타 실행 선택 화면에서 쇼바타를 실행한 경우, 쇼바타 API 모듈을 활용한 사용자 스마트단말(100)의 쇼핑 앱과의 네트워크(200)를 통한 쇼핑 앱의 요청 데이터 처리를 수행하며(S23).Thereafter, when Shobata shopping mall server 500 executes Shobata in the Shobata execution selection screen on the shopping app of the user smart terminal 100 through the network 200, the user smart terminal using the Shobata API module and processing the request data of the shopping app through the network 200 with the shopping app of (100) (S23).

단계(S14)에서 사용자 스마트단말(100)에 의한 촬영에 따라 사용자 스마트단말(100)로부터 쇼바타 쇼핑몰 서버(500)는 사용자의 얼굴 촬영 정보, 그리고 신체사이즈 정보를 수신한 뒤, 자체 데이터베이스 상에 저장을 수행한 뒤(S24), 사용자의 얼굴 촬영 정보를 기반으로 사용자 승인을 수행하며(S25), 승인 결과 승인 부적합인 경우 단계(S12)로 회귀하며, 승인 결과 승인 적합인 경우 후술하는 단계(S32)로 진행하기 위해 사용자의 얼굴 촬영 정보 및 신체 사이즈 정보를 네트워크(200)를 통해 얼굴 적용 기반 의류착용 서버(300)로 제공할 수 있다.According to the shooting by the user smart terminal 100 in step S14, the Shobata shopping mall server 500 receives the user's face shooting information and body size information from the user smart terminal 100, and then After performing the storage (S24), the user approval is performed based on the user's face photographing information (S25), and if the approval result is inappropriate for approval, the process returns to step (S12), and if the approval result is approved, the steps described below ( In order to proceed to S32), the user's face photographing information and body size information may be provided to the face application-based clothing wearing server 300 through the network 200 .

한편, 쇼바타 쇼핑몰 서버(500)는 사용자의 얼굴 촬영 정보 및 신체 사이즈 정보에 대한 얼굴 적용 기반 의류착용 서버(300)에 의한 증강현실 기반의 고객 쇼바타 합성 영상이 생성되어 제공되는 경우, 제공된 증강현실 기반의 고객 쇼바타 합성 영상을 활용하여 사용자 스마트단말(100)에게 쇼바타 쇼룸을 제공할 수 있다(S27). On the other hand, the Shobata shopping mall server 500 provides augmentation provided when an augmented reality-based customer Shobata composite image is generated and provided by the face application-based clothing wearing server 300 for the user's face photographing information and body size information. A Shobata showroom may be provided to the user smart terminal 100 by using the reality-based customer Shobata composite image (S27).

다음으로, 얼굴 적용 기반 의류착용 서버(300)는 쇼바타 쇼핑몰 서버(500)에 대한 쇼바타 API 모듈 제공 및 사용에 대해서 얼굴 적용 기반 의류착용 서버(300)에 대한 결제를 수행할 뿐만 아니라(S31), 쇼바타 쇼핑몰 서버(500)에 의한 사용자 스마트단말(100)에 대한 사용자의 얼굴 촬영 정보를 기반으로 한 승인 결과 승인 적합인 경우 쇼바타 쇼핑몰 서버(500)로부터 사용자의 얼굴 촬영 정보 및 신체 사이즈 정보를 네트워크(200)를 통해 수신하여 데이터베이스(330)에 저장할 수 있다(S32).Next, the face application-based clothing wearing server 300 not only performs payment for the face application-based clothing wearing server 300 for providing and using the Shobata API module for the Shobata shopping mall server 500 (S31) ), when the approval result based on the user's face photographing information for the user's smart terminal 100 by the Shobata shopping mall server 500 is suitable for approval, the user's face photographing information and body size from the Shobata shopping mall server 500 Information may be received through the network 200 and stored in the database 330 (S32).

이후, 얼굴 적용 기반 의류착용 서버(300)는 사용자의 얼굴 촬영 정보 및 신체 사이즈 정보를 활용하여 고객 쇼바타를 생성하고(S33), 쇼바타 쇼핑몰 서버(500)로부터 제공받아 데이터베이스(330) 상에 저장된 쇼핑몰 피팅 모델 영상과 고객 쇼바타에 대한 합성을 수행하고(S34), 생성된 합성 영상을 증강현실 영상으로 생성한 뒤(S35), 네트워크(200)를 통해 쇼바타 쇼핑몰 서버(500)로 제공하여 쇼바타 쇼핑몰 서버(500)에 의해 증강현실 기반의 고객 쇼바타 합성 영상을 활용하여 사용자 스마트단말(100)에게 쇼바타 쇼룸을 제공할 수 있도록 할 수 있다(S27). Thereafter, the face application-based clothing wearing server 300 generates a customer Shobata by using the user's face photographing information and body size information (S33), and receives it from the Shobata shopping mall server 500 and is placed on the database 330. After synthesizing the stored shopping mall fitting model image and customer Shobata (S34), and generating the synthesized image as an augmented reality image (S35), it is provided to the Shobata shopping mall server 500 through the network 200 Thus, it is possible to provide a Shobata showroom to the user smart terminal 100 by utilizing the augmented reality-based customer Shobata composite image by the Shobata shopping mall server 500 (S27).

한편, 추가정보 제공 모듈(325)은 각 사용자 스마트단말(100)을 운영하는 사용자에 대해 생성된 증강현실 기반의 고객 쇼바타 합성 영상에 대해서 사용자 스마트단말(100)의 요청에 따라 SNS 서버(600) 상에 지인으로 등록된 다른 사용자 스마트단말(100)에 대한 전송과 추천 기능을 통해 가장 많이 추천받은 의류에 대해서 추천을 의뢰한 사용자 스마트단말(100)로 정보를 전달할 수 있다. On the other hand, the additional information providing module 325 is the SNS server 600 according to the request of the user smart terminal 100 for the augmented reality-based customer Shobata composite image generated for the user who operates each user smart terminal 100 . ), information can be transmitted to the smart terminal 100 of the user who has requested a recommendation for the most recommended clothing through the transmission and recommendation functions to the smart terminal 100 of another user registered as an acquaintance.

본 발명은 또한 컴퓨터로 읽을 수 있는 기록매체에 컴퓨터가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 컴퓨터가 읽을 수 있는 기록매체는 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록 장치를 포함한다.The present invention can also be implemented as computer-readable codes on a computer-readable recording medium. The computer-readable recording medium includes all types of recording devices in which data readable by a computer system is stored.

컴퓨터가 읽을 수 있는 기록매체의 예로는 ROM, RAM, CD-ROM, 자기테이프, 플로피 디스크, 광 데이터 저장장치 등이 있으며, 또한 캐리어 웨이브(예를 들어, 인터넷을 통한 전송)의 형태로 구현되는 것도 포함한다. Examples of computer-readable recording media include ROM, RAM, CD-ROM, magnetic tape, floppy disk, optical data storage device, etc. also includes

또한 컴퓨터가 읽을 수 있는 기록매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어, 분산방식으로 컴퓨터가 읽을 수 있는 코드가 저장되고 실행될 수 있다. 그리고 본 발명을 구현하기 위한 기능적인(functional) 프로그램, 코드 및 코드 세그먼트들은 본 발명이 속하는 기술 분야의 프로그래머들에 의해 용이하게 추론될 수 있다.In addition, the computer-readable recording medium is distributed in network-connected computer systems, and computer-readable codes can be stored and executed in a distributed manner. In addition, functional programs, codes, and code segments for implementing the present invention can be easily inferred by programmers in the technical field to which the present invention pertains.

이상과 같이, 본 명세서와 도면에는 본 발명의 바람직한 실시예에 대하여 개시하였으며, 비록 특정 용어들이 사용되었으나, 이는 단지 본 발명의 기술 내용을 쉽게 설명하고 발명의 이해를 돕기 위한 일반적인 의미에서 사용된 것이지, 본 발명의 범위를 한정하고자 하는 것은 아니다. 여기에 개시된 실시예 외에도 본 발명의 기술적 사상에 바탕을 둔 다른 변형 예들이 실시 가능하다는 것은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에게 자명한 것이다.As described above, preferred embodiments of the present invention have been disclosed in the present specification and drawings, and although specific terms are used, these are only used in a general sense to easily explain the technical content of the present invention and to help the understanding of the present invention. , it is not intended to limit the scope of the present invention. It will be apparent to those of ordinary skill in the art to which the present invention pertains that other modifications based on the technical spirit of the present invention can be implemented in addition to the embodiments disclosed herein.

1 : 얼굴 적용 기반의 의류착용 시스템
100 : 사용자 스마트단말
100g : 사용자 스마트단말 그룹
200 : 네트워크
300 : 얼굴 적용 기반 의류착용 서버
400 : 빅데이터 서버
500 : 쇼바타 쇼핑몰 서버
600 : SNS 서버
1: Clothing wearing system based on face application
100: user smart terminal
100g: User smart terminal group
200: network
300: face application-based clothing wearing server
400: big data server
500: Shobata shopping mall server
600: SNS server

Claims (2)

복수의 사용자 스마트단말(100)로 이루어진 사용자 스마트단말 그룹(100g), 네트워크(200), 얼굴 적용 기반 의류착용 서버(300)를 포함하는 얼굴 적용 기반의 의류착용 시스템(1)에 있어서, 얼굴 적용 기반 의류착용 서버(300)는,
네트워크(200)를 통해 각 사용자 스마트단말(100)의 액세스에 따라 회원 가입 절차를 수행하고 쇼핑 앱 데이터를 네트워크(200)를 통해 스마트 단말(100)로 제공하도록 송수신부(310)를 제어하는 정보수집모듈(321); 및
사용자의 얼굴 촬영 정보 및 신체 사이즈 정보에 대해서 개선된 AAM(Active Appearance Model) 알고리즘과 머신러닝 기법을 적용한, 얼굴 특징 포인트 추출 기법에 따라 사용자의 사용자 스마트단말(100)에서 획득한 사용자의 얼굴 촬영 정보를 활용하여 2D 얼굴 이미지를 재구축하고, 시각화(Reconstruction & Visualization) 작업을 위해서, 얼굴 특징 요소를 매뉴얼로 처리하여 기준 값을 형성하는 3D 얼굴이미지 생성모듈(322); 을 포함하는 것을 특징으로 하는 얼굴 적용 기반의 의류착용 시스템
In the face application-based clothing wearing system (1) comprising a user smart terminal group (100g) consisting of a plurality of user smart terminals (100), a network (200), and a face application-based clothing wearing server (300), face application Base clothing wearing server 300,
Information for controlling the transceiver 310 to perform a membership registration procedure according to the access of each user's smart terminal 100 through the network 200 and provide shopping app data to the smart terminal 100 through the network 200 collection module 321; and
User's face photographing information obtained from the user's user smart terminal 100 according to the facial feature point extraction technique, which applies the improved AAM (Active Appearance Model) algorithm and machine learning technique to the user's face photographing information and body size information a 3D face image generating module 322 that reconstructs a 2D face image using Face application-based clothing wearing system comprising a
사용자 스마트단말(100)이 미리 설정된 쇼핑 앱을 실행하여 로그인 과정을 수행하는 제 1 단계; 및
사용자 스마트단말(100)이 로그인이 완료되면, 쇼바타 API를 실행한 쇼바타 쇼핑몰 서버(500)가 등록한 의류에 대해서 얼굴 적용 기반 의류착용 서버(300)의 중계에 따라 정보를 제공받은 뒤, 쇼바타 실행 선택 화면을 출력하는 제 2 단계; 를 포함하는 것을 특징으로 하는 얼굴 적용 기반의 의류착용 방법.
A first step of the user smart terminal 100 executing a preset shopping app to perform a login process; and
When the user smart terminal 100 is logged in, after receiving information according to the relay of the face application-based clothing wearing server 300 for the clothes registered by the Shobata shopping mall server 500 executing the Shobata API, the shock absorber a second step of outputting another execution selection screen; Face application-based clothing wearing method comprising a.
KR1020200122776A 2020-09-23 2020-09-23 Apparel wearing system based on face application, and method thereof KR102467295B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020200122776A KR102467295B1 (en) 2020-09-23 2020-09-23 Apparel wearing system based on face application, and method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200122776A KR102467295B1 (en) 2020-09-23 2020-09-23 Apparel wearing system based on face application, and method thereof

Publications (2)

Publication Number Publication Date
KR20220040051A true KR20220040051A (en) 2022-03-30
KR102467295B1 KR102467295B1 (en) 2022-11-16

Family

ID=80948096

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200122776A KR102467295B1 (en) 2020-09-23 2020-09-23 Apparel wearing system based on face application, and method thereof

Country Status (1)

Country Link
KR (1) KR102467295B1 (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20130032620A (en) * 2011-09-23 2013-04-02 김용국 Method and apparatus for providing moving picture using 3d user avatar
KR20170025406A (en) * 2015-08-28 2017-03-08 이형철 Mobile terminal using virtual fitting solution for shopping and method for controlling thereof
KR20180108709A (en) * 2016-01-27 2018-10-04 니틴 바츠 How to virtually dress a user's realistic body model
JP2020119156A (en) * 2019-01-22 2020-08-06 日本電気株式会社 Avatar creating system, avatar creating device, server device, avatar creating method and program

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20130032620A (en) * 2011-09-23 2013-04-02 김용국 Method and apparatus for providing moving picture using 3d user avatar
KR20170025406A (en) * 2015-08-28 2017-03-08 이형철 Mobile terminal using virtual fitting solution for shopping and method for controlling thereof
KR20180108709A (en) * 2016-01-27 2018-10-04 니틴 바츠 How to virtually dress a user's realistic body model
JP2020119156A (en) * 2019-01-22 2020-08-06 日本電気株式会社 Avatar creating system, avatar creating device, server device, avatar creating method and program

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
대한민국 특허출원 출원번호 제10-2009-0047947(2009.06.01)호 "모의 의류 착용장치를 기반으로 하는 모의 의류 착용시스템 및 이를 이용한 모의 의류 착용서비스의 제공방법(VIRTUAL CLOTHES WEARING SYSTEM BASE ON VIRTUAL CLOTHES WEARING APPARATUS AND METHOD FOR PROVIDING VIRTUAL CLOTHES WEARING SERVICE USING THEREOF)

Also Published As

Publication number Publication date
KR102467295B1 (en) 2022-11-16

Similar Documents

Publication Publication Date Title
TWI708152B (en) Image processing method, device, and storage medium
Sekhavat Privacy preserving cloth try-on using mobile augmented reality
US9959453B2 (en) Methods and systems for three-dimensional rendering of a virtual augmented replica of a product image merged with a model image of a human-body feature
JP2021534516A (en) Virtual fitting system and method for eyeglasses
US20180268458A1 (en) Automated recommendation and virtualization systems and methods for e-commerce
CN111832745B (en) Data augmentation method and device and electronic equipment
Li et al. M2FPA: A multi-yaw multi-pitch high-quality dataset and benchmark for facial pose analysis
US12056743B2 (en) Image and data processing methods and apparatuses
WO2023184817A1 (en) Image processing method and apparatus, computer device, computer-readable storage medium, and computer program product
KR20170002097A (en) Method for providing ultra light-weight data animation type based on sensitivity avatar emoticon
CN116485973A (en) Material generation method of virtual object, electronic equipment and storage medium
CN113724302B (en) Personalized glasses customizing method and customizing system
Wang et al. Digital twin: Acquiring high-fidelity 3D avatar from a single image
CN114170250A (en) Image processing method and device and electronic equipment
Danieau et al. Automatic generation and stylization of 3d facial rigs
WO2015172229A1 (en) Virtual mirror systems and methods
CN113282177A (en) Intelligent fitting method, system, terminal and medium based on augmented reality
KR102467295B1 (en) Apparel wearing system based on face application, and method thereof
CN116703507A (en) Image processing method, display method and computing device
CN112686733B (en) E-commerce product simulation system based on big data
CN114648601A (en) Virtual image generation method, electronic device, program product and user terminal
CN114782240A (en) Picture processing method and device
Kang et al. Eyeglass Remover Network based on a Synthetic Image Dataset.
CN111429193A (en) Commodity color parameter determination method, commodity color parameter determination device, commodity color parameter determination equipment and readable storage medium
Raswanth et al. The Future of Fashion: Innovations in Virtual Try-on Systems

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right