KR20220040051A - Apparel wearing system based on face application, and methoe thereof - Google Patents
Apparel wearing system based on face application, and methoe thereof Download PDFInfo
- Publication number
- KR20220040051A KR20220040051A KR1020200122776A KR20200122776A KR20220040051A KR 20220040051 A KR20220040051 A KR 20220040051A KR 1020200122776 A KR1020200122776 A KR 1020200122776A KR 20200122776 A KR20200122776 A KR 20200122776A KR 20220040051 A KR20220040051 A KR 20220040051A
- Authority
- KR
- South Korea
- Prior art keywords
- face
- user
- shobata
- smart terminal
- server
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q30/00—Commerce
- G06Q30/06—Buying, selling or leasing transactions
- G06Q30/0601—Electronic shopping [e-shopping]
- G06Q30/0641—Shopping interfaces
- G06Q30/0643—Graphical representation of items or shoppers
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/60—Type of objects
- G06V20/64—Three-dimensional objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
Landscapes
- Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Business, Economics & Management (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Accounting & Taxation (AREA)
- Finance (AREA)
- Multimedia (AREA)
- Economics (AREA)
- General Business, Economics & Management (AREA)
- Strategic Management (AREA)
- Marketing (AREA)
- Development Economics (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Human Computer Interaction (AREA)
- Processing Or Creating Images (AREA)
Abstract
Description
본 발명은 얼굴 적용 기반의 의류착용 시스템 및 그 방법에 관한 것으로, 보다 구체적으로는, 기존 증강현실 분야에서 제공되는 서비스를 통해 사용자는 의류 착용경험을 제공 받고 있으나, 실제 오프라인에서의 의류 착용감과 경험을 60% 정도 수준에서 제공하고 있으므로 기존 증강현실 내에서 사용되는 "AAM(Active Appearance Model) 알고리즘"을 개선하고, "DVM(Direct Volumetric) 과정"을 통하여, 초고화질 이미지 기반의 3D 아바타인 증강현실 기반의 고객 쇼바타 합성 영상을 제공하기 위한 얼굴 적용 기반의 의류착용 시스템 및 그 방법에 관한 것이다. The present invention relates to a face application-based clothing wearing system and method. More specifically, a user is provided with a clothing wearing experience through a service provided in the existing augmented reality field, but the actual offline clothing fit and experience is provided at the level of 60%, so the "AAM (Active Appearance Model) algorithm" used in the existing augmented reality is improved, and through the "DVM (Direct Volumetric) process", augmented reality that is a 3D avatar based on ultra-high-resolution images It relates to a face application-based clothing wearing system and method for providing a composite image of customer Shobata.
온라인 e-커머스 시장 상황은 온-오프라인 융합을 통한 소매유통 기업들의 온라인 전환이 수행되고 있다.In the online e-commerce market, the online conversion of retailers through on-offline convergence is being carried out.
즉, 오프라인 매장 운영이 어려워지는 소매유통 기업들이 온라인 판매에 나서면서, 온-오프라인 판매채널 간의 결합이 더욱 가속화 되고 있다.In other words, as retail distribution companies, which have difficulty in operating offline stores, start selling online, the combination between on-line and offline sales channels is accelerating.
특히, 신종 코로나바이러스 감염증으로, 세계 경제가 침체되고 있으며, 이중 비대면 소비는 각황을 받고 있다. 이러한 소비자의 움직임으로 국내 e-커머스 시장은 2019년 840억 6,700만 달러 규모로 성장하였다. 국내 유통시장에서 e-커머스 시장의 점유율도 28.2% 수준으로 매년 증가하고 있는 추세이다.In particular, due to the novel coronavirus infection, the global economy is stagnating, and non-face-to-face consumption is receiving a lot of attention. Due to these consumer movements, the domestic e-commerce market has grown to a size of $84,677 million in 2019. The share of the e-commerce market in the domestic distribution market is also increasing at 28.2% every year.
비대면 소비가 “새로운 표준(New Normal)”이 되면서, 최적의 소비자 경험을 제공하기 위한 혁신 기술 도입 가속화되고 있으며, 매장을 방문하여 직접 제품을 구매하는 전통적인 쇼핑 방식이 비대면 방식의 선호로 사라지면서, 이를 보완하기 위한 혁신 정보기술(IT)이 온라인 커머스 시장에 적극적으로 도입되고 있다.As non-face-to-face consumption becomes the “new normal”, the introduction of innovative technologies to provide an optimal consumer experience is accelerating. In order to compensate for this, innovative information technology (IT) is being actively introduced into the online commerce market.
이러한 유통분야에서 언택트(Untact) 소비 추세가 장기화되면서, 새로운 표준으로 인식되고 있다. 이러한 흐름에 글로벌 IT기업들은 증강/가상현실(AR,VR) 기술을 확보하고자, 해당 기술들을 보유한 스타트업에 적극적으로 투자하고 있다.As the trend of untact consumption in the distribution field is prolonged, it is recognized as a new standard. In this trend, global IT companies are actively investing in startups that have these technologies to secure augmented/virtual reality (AR, VR) technologies.
일반적인 업무용 PC의 성능으로, 3D 가상현실 영상을 재대로 표현하는데 어려움이 있으며, 특히, 머리에 직접 착용하는 HMD(Head-mounted display) 기기를 활용할 경우에는 착용자가 어지러움증을 유발할 수 있다.Due to the performance of a general office PC, it is difficult to properly express 3D virtual reality images, and in particular, when using a head-mounted display (HMD) device that is worn directly on the head, the wearer may cause dizziness.
특수안경을 착용하는 방식으로 3D로 사물을 바라보는 Non-HMD 방식도 HMD와 동일하게 착용을 해야 사용이 가능하다. 물론, HMD 대비 착용장치에 대한 무게감이 현저하게 작아 편의성은 향상되는 방법이나, 장비를 착용해야 한다는 부분에서는 한계가 있다.The non-HMD method, which looks at objects in 3D by wearing special glasses, must be worn in the same way as the HMD to be used. Of course, compared to the HMD, the weight of the wearing device is remarkably small, so the convenience is improved, but there is a limit in the part that the equipment needs to be worn.
한편, 가상현실 환경을 만드는 비용이 상당히 높은 상황으로, 산업 내에서 적용 효율성이 낮다. CAD로 만든 3D모델이 기업 내 없을 경우, 대부분의 제작과정을 노동집약적인 수작업으로 가상현실을 구현해야 한다. 이는 뚜렷한 수익모델이나 투자 대비 효과 없이는 시작이 어렵다는 점도 포함되어 있다.On the other hand, the cost of creating a virtual reality environment is quite high, and the application efficiency within the industry is low. If a 3D model made with CAD is not available in the company, most of the production process must be implemented by manual labor-intensive virtual reality. This includes the fact that it is difficult to start without a clear profit model or investment return.
2020년 기준, 현재의 AR 기술들은 웨어러블 기기를 착용해서 구현되고 있으므로, 기기착용에 대한 불편함과 장비 가격이 고가격이라는 문제들이 아직 해결되지 않은 상황이다.As of 2020, current AR technologies are implemented by wearing wearable devices, so the problems of inconvenience and high equipment prices have not been resolved yet.
이러한 문제들은 산업 현장의 실무자들에게 앞에서의 어색함과 불편함을 감수할 만한 가치를 제공해주지 못하고 있다는 점이다. 이는 보수적인 성향의 실무자들에게 신기술을 통한 확실한 체감과 장점, 나아가 혜택이 있어야 가능할 것으로 예상된다. These problems are that they do not provide the practical value of the awkwardness and inconvenience in front of the workers in the industrial field. This is expected to be possible only when conservative practitioners have a clear sense of experience, advantages, and further benefits through new technologies.
본 발명은 상기의 문제점을 해결하기 위한 것으로, 기존 증강현실 분야에서 제공되는 서비스를 통해 사용자는 의류 착용경험을 제공 받고 있으나, 실제 오프라인에서의 의류 착용감과 경험을 60% 정도 수준에서 제공하고 있으므로 기존 증강현실 내에서 사용되는 "AAM(Active Appearance Model) 알고리즘"을 개선하고, "DVM(Direct Volumetric) 과정"을 통하여, 초고화질 이미지 기반의 3D 아바타인 증강현실 기반의 고객 쇼바타 합성 영상을 제공하기 위한 얼굴 적용 기반의 의류착용 시스템 및 그 방법을 제공하기 위한 것이다.The present invention is to solve the above problems, and although the user is provided with a clothing wearing experience through the service provided in the existing augmented reality field, the actual offline clothing fit and experience is provided at a level of about 60%. To improve the "AAM (Active Appearance Model) algorithm" used in augmented reality, and to provide an augmented reality based 3D avatar based on augmented reality through the "DVM (Direct Volumetric) process" An object of the present invention is to provide a face application-based clothing wearing system and a method therefor.
그러나 본 발명의 목적들은 상기에 언급된 목적으로 제한되지 않으며, 언급되지 않은 또 다른 목적들은 아래의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.However, the objects of the present invention are not limited to the above-mentioned objects, and other objects not mentioned will be clearly understood by those skilled in the art from the following description.
상기의 목적을 달성하기 위해 본 발명의 실시예에 따른 얼굴 적용 기반의 의류착용 시스템은, 복수의 사용자 스마트단말(100)로 이루어진 사용자 스마트단말 그룹(100g), 네트워크(200), 얼굴 적용 기반 의류착용 서버(300)를 포함하는 얼굴 적용 기반의 의류착용 시스템(1)에 있어서, 얼굴 적용 기반 의류착용 서버(300)는, 네트워크(200)를 통해 각 사용자 스마트단말(100)의 액세스에 따라 회원 가입 절차를 수행하고 쇼핑 앱 데이터를 네트워크(200)를 통해 스마트 단말(100)로 제공하도록 송수신부(310)를 제어하는 정보수집모듈(321); 및 사용자의 얼굴 촬영 정보 및 신체 사이즈 정보에 대해서 개선된 AAM(Active Appearance Model) 알고리즘과 머신러닝 기법을 적용한, 얼굴 특징 포인트 추출 기법에 따라 사용자의 사용자 스마트단말(100)에서 획득한 사용자의 얼굴 촬영 정보를 활용하여 2D 얼굴 이미지를 재구축하고, 시각화(Reconstruction & Visualization) 작업을 위해서, 얼굴 특징 요소를 매뉴얼로 처리하여 기준 값을 형성하는 3D 얼굴이미지 생성모듈(322); 을 포함하는 것을 특징으로 할 수 있다.In order to achieve the above object, a face application-based clothing wearing system according to an embodiment of the present invention is a user
상기의 목적을 달성하기 위해 본 발명의 실시예에 따른 얼굴 적용 기반의 의류착용 방법은, 사용자 스마트단말(100)이 미리 설정된 쇼핑 앱을 실행하여 로그인 과정을 수행하는 제 1 단계; 및 사용자 스마트단말(100)이 로그인이 완료되면, 쇼바타 API를 실행한 쇼바타 쇼핑몰 서버(500)가 등록한 의류에 대해서 얼굴 적용 기반 의류착용 서버(300)의 중계에 따라 정보를 제공받은 뒤, 쇼바타 실행 선택 화면을 출력하는 제 2 단계; 를 포함하는 것을 특징으로 할 수 있다.In order to achieve the above object, a method for wearing clothes based on face application according to an embodiment of the present invention includes: a first step of performing a login process by executing a pre-set shopping app by the user
본 발명의 실시예에 따른 얼굴 적용 기반의 의류착용 시스템 및 그 방법은, 기존 증강현실 분야에서 제공되는 서비스를 통해 사용자는 의류 착용경험을 제공 받고 있으나, 실제 오프라인에서의 의류 착용감과 경험을 60% 정도 수준에서 제공하고 있으므로 기존 증강현실 내에서 사용되는 "AAM(Active Appearance Model) 알고리즘"을 개선하고, "DVM(Direct Volumetric) 과정"을 통하여, 초고화질 이미지 기반의 3D 아바타인 증강현실 기반의 고객 쇼바타 합성 영상을 제공할 수 있는 효가 있다. In the face application-based clothing wearing system and method according to an embodiment of the present invention, a user is provided with a clothing wearing experience through a service provided in the existing augmented reality field, but the actual offline clothing fit and experience is reduced by 60% As it is provided at the level of precision, we improve the "AAM (Active Appearance Model) algorithm" used in the existing augmented reality, and through the "DVM (Direct Volumetric) process", a 3D avatar based on ultra-high-resolution images, augmented reality-based customers It has the effect of being able to provide a Shobata composite image.
도 1은 본 발명의 실시예에 따른 얼굴 적용 기반의 의류착용 시스템(1)을 나타내는 도면이다.
도 2는 본 발명의 실시예에 따른 얼굴 적용 기반의 의류착용 시스템(1) 중 얼굴 적용 기반 의류착용 서버(300)의 구성요소를 나타내는 블록도이다.
도 3 및 도 4는 본 발명의 실시예에 따른 얼굴 적용 기반의 의류착용 시스템(1) 중 얼굴 적용 기반 의류착용 서버(300)의 얼굴 적용 기반의 의류착용 서비스를 제공하기 위한 과정을 설명하기 위한 도면이다.
도 5는 본 발명의 실시예에 따른 얼굴 적용 기반의 의류착용 서비스 제공 과정을 나타내는 흐름도이다.
도 6은 본 발명의 실시예에 따른 얼굴 적용 기반의 의류착용 서비스 제공 과정을 구성요소를 중심으로 도시한 참조 도면이다. 1 is a diagram illustrating a face application-based
2 is a block diagram illustrating components of a face application-based
3 and 4 are for explaining a process for providing a face application-based clothing wearing service of the face application-based
5 is a flowchart illustrating a process of providing a face application-based clothing wearing service according to an embodiment of the present invention.
6 is a reference diagram illustrating a process of providing a face application-based clothing wearing service according to an embodiment of the present invention, focusing on components.
이하, 본 발명의 바람직한 실시예의 상세한 설명은 첨부된 도면들을 참조하여 설명할 것이다. 하기에서 본 발명을 설명함에 있어서, 관련된 공지 기능 또는 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명을 생략할 것이다.Hereinafter, a detailed description of a preferred embodiment of the present invention will be described with reference to the accompanying drawings. In the following description of the present invention, if it is determined that a detailed description of a related well-known function or configuration may unnecessarily obscure the gist of the present invention, the detailed description thereof will be omitted.
본 명세서에 있어서는 어느 하나의 구성요소가 다른 구성요소로 데이터 또는 신호를 '전송'하는 경우에는 구성요소는 다른 구성요소로 직접 상기 데이터 또는 신호를 전송할 수 있고, 적어도 하나의 또 다른 구성요소를 통하여 데이터 또는 신호를 다른 구성요소로 전송할 수 있음을 의미한다.In the present specification, when any one component 'transmits' data or signal to another component, the component may directly transmit the data or signal to another component, and through at least one other component This means that data or signals can be transmitted to other components.
도 1은 본 발명의 실시예에 따른 얼굴 적용 기반의 의류착용 시스템(1)을 나타내는 도면이다. 도 1을 참조하면, 얼굴 적용 기반의 의류착용 시스템(1)은 복수의 사용자 스마트단말(100)로 이루어진 사용자 스마트단말 그룹(100g), 네트워크(200), 얼굴 적용 기반 의류착용 서버(300), 빅데이터 서버(400), 쇼바타 쇼핑몰 서버(500) 및 SNS 서버(600)를 포함할 수 있다. 1 is a diagram illustrating a face application-based
본 발명과 관련된 사전적 정의로 "쇼바타[SHOVATAR]"는 쇼핑(Shopping) + 아바타(Avatar)의 합성어로, 증강현실 기술분야에서 활용되는 기존의 소스(Source)들과 5G 네트워크 환경을 배경으로, 의류 산업에 특화되어 증강현실로 제작된 인물 형태를 의미한다. As a dictionary definition related to the present invention, "SHOVATAR" is a compound word of Shopping + Avatar, based on the existing sources used in the augmented reality technology field and the 5G network environment , refers to the shape of a person specialized in the clothing industry and produced by augmented reality.
한편, 기존 증강현실 분야에서 제공되는 서비스를 통해 사용자는 의류 착용경험을 제공 받고 있으나, 실제 오프라인에서의 의류 착용감과 경험을 60% 정도 수준에서 제공하고 있다. 이에, 본 발명에 따른 얼굴 적용 기반 의류착용 서버(300)는 기존 증강현실 내에서 사용되는 "AAM(Active Appearance Model) 알고리즘"을 개선하고, "DVM(Direct Volumetric) 과정"을 통하여, 초고화질 이미지 기반의 3D 아바타인 증강현실 기반의 고객 쇼바타 합성 영상을 제공할 수 있다. On the other hand, although the user is provided with a clothing experience through the service provided in the existing augmented reality field, the actual offline clothing fit and experience is provided at a level of about 60%. Accordingly, the face application-based
도 2는 본 발명의 실시예에 따른 얼굴 적용 기반의 의류착용 시스템(1) 중 얼굴 적용 기반 의류착용 서버(300)의 구성요소를 나타내는 블록도이다. 도 3 및 도 4는 본 발명의 실시예에 따른 얼굴 적용 기반의 의류착용 시스템(1) 중 얼굴 적용 기반 의류착용 서버(300)의 얼굴 적용 기반의 의류착용 서비스를 제공하기 위한 과정을 설명하기 위한 도면이다.2 is a block diagram illustrating components of a face application-based
도 2를 참조하면, 얼굴 적용 기반 의류착용 서버(300)는 송수신부(310), 제어부(320) 및 데이터 베이스(330)를 포함하며, 제어부(320)는 정보수집모듈(321), 3D 얼굴이미지 생성모듈(322), 영상 합성 모듈(323), 쇼바타 제공 모듈(324) 및 추가정보 제공 모듈(325)을 포함함으로써, 기존의 앱 보다 실제와 같은 느낌을 주기 위해서 3D 기반으로 증강현실 기반으로 딥러닝에 의해 옷의 착용 상태를 가상으로 구현하는데 초점을 두기보다, 기존의 피팅 모델의 영상에 사용자의 얼굴을 변화하면서 제공함으로써, 사용자가 입고 있는 듯한 느낌을 줘서, 사용자가 옷을 입은 채 360도 회전하거나, 팔 다리 동작을 하면서도, 옷의 질감, 옷의 착용 상태 등을 구체적으로 알 수 있도록 할 수 있다. Referring to FIG. 2 , the face application-based
정보수집모듈(321)은 네트워크(200)를 통해 각 사용자 스마트단말(100)의 액세스에 따라 회원 가입 절차를 수행하고 쇼핑 앱 데이터를 네트워크(200)를 통해 스마트 단말(100)로 제공하도록 송수신부(310)를 제어할 수 있다 The
3D 얼굴이미지 생성모듈(322)은 사용자의 얼굴 촬영 정보 및 신체 사이즈 정보에 대해서 개선된 AAM(Active Appearance Model) 알고리즘과 머신러닝 기법을 적용한, 얼굴 특징 포인트 추출 기법에 따라 사용자의 사용자 스마트단말(100)에서 획득한 사용자의 얼굴 촬영 정보를 활용하여 2D 얼굴 이미지를 재구축하고, 이를 시각화(Reconstruction & Visualization) 작업을 위해서, 얼굴 특징 요소를 매뉴얼로 처리하여 기준 값을 형성할 수 있다. 여기서, 3D 얼굴이미지 생성모듈(322)은 APF 기반으로 추출 속도를 향상할 수 있다. The 3D face
여기서, "AAM(Active Appearance Model)"은 ASM(Active Shape Model) 접근 방식을 일반화한 것이으로, 신체의 일부분이 모델링 된 부분에서 신체 가장자리뿐만 아니라, 모든 이미지 영역의 정보를 사용하는 기법으로, 도 3과 같이 사용자 스마트단말(100)과 별도로 형성된 360°카메라(미도시), 그 밖의 얼굴 적용 기반 의류착용 서버(300) 운영자가 별도로 구비한 360°카메라(미도시)를 통해 수집한 4K 화질의 2D 실사 이미지를 사용자 스마트단말(100)로부터 3D 얼굴이미지 생성모듈(322)이 수신하도록 송수신부(310)를 제어한 뒤, 360°카메라에 의해 촬영된 4K 실사 이미지 그룹을 데이터베이스(330)에 저장할 수 있다. Here, "AAM (Active Appearance Model)" is a generalization of the ASM (Active Shape Model) approach. It is a technique that uses information from all image areas, not just the body edges, in the modeled part of the body. As shown in 3, a 360° camera (not shown) formed separately from the user
3D 얼굴이미지 생성모듈(322)은 4K 실사 이미지 그룹에 대한 디지털 인터미디에이트(Digital Intermediate) 작업에 따라 촬영 단계에서 360° 회전에 따라 획득한 영상의 밝기, 색상, 채도 등의 차이를 일치시키는 과정으로, 색 보정(color correction) 등을 포함한 전반적인 교정 작업과, 색수치 및 노출에 대한 보정을 진행함으로써, 보정된 실사 영상 이미지를 완성할 수 있다.The 3D face
여기서, 3D 얼굴이미지 생성모듈(322)이 사용하는 "AAM(Active Appearance Model)"은 각 실사 영상 이미지에서 신체 가장자리뿐만 아니라, 360°카메라에 의해 촬영된 4K 실사 이미지 그룹을 형성하는 각 4K 실사 이미지의 모든 이미지 영역의 정보(색상, 채도, 명도)를 각 4K 실사 이미지에서 겹치는 영역에 대해서는 동일한 좌표값으로 하여 360°의 회전에 따라 각 x,y,z 축 좌표를 메타데이터로 신체 가장자리(윤곽선 정보) 및 영역 정보를 매칭시켜서 추출할 수 있다. Here, "AAM (Active Appearance Model)" used by the 3D face
즉, 3D 얼굴이미지 생성모듈(322)은 하나의 각도와 이웃하는 다른 각도의 각 4K 실사 이미지에서 머신러닝 기법에 해당하는 변화 예측성을 기반으로 중첩되는 좌표 영역을 추출할 수 있는 것이다.That is, the 3D face
보다 구체적으로, 3D 얼굴이미지 생성모듈(322)은 네트워크(200)를 통해 빅데이터 서버(400)에 액세스하여 빅데이터 서버(400)에 저장된 인체의 각도 변화에 따른 신체 부위의 변화 파라미터인 윤곽의 하나의 중심점을 기준으로 좌우, 상하 이동시의 직선 및 곡선의 변화, 그리고 색상, 채도, 명도의 변화 정보를 추출한 뒤, 하나의 각도와 이웃하는 다른 각도의 각 4K 실사 이미지에서의 중첩되는 좌표 영역에 대해서 1차적으로 추출을 수행하고, 추출된 좌표 영역에 대한 3D 이미지를 통한 2차 확인 과정을 통해 중첩되는 좌표 영역의 신체 가장자리(윤곽선 정보) 및 영역 정보를 배제하고 중첩되지 않는 좌표 영역의 신체 가장자리(윤곽선 정보) 및 영역 정보만에 대한 획득을 수행할 수 있다.More specifically, the 3D face
한편, 신체 부위에 대해서 3D 얼굴이미지 생성모듈(322)은 2D 이미지와 빅데이터 서버(400)에 저장된 신체부위 패턴 정보를 비교하여 신체 부위를 추출할 수 있다. 이를 위해 빅데이터 서버(400)에는 다양한 신체부위 패턴 정보가 저장되어 있는데, 3D 얼굴이미지 생성모듈(322) 이러한 다양한 신체부위 패턴 자체 정보 또는 상기 다양한 신체부위 패턴 정보의 미리 설정된 각도 기울어진 것, 역으로 된 것 등과 2D 이미지를 비교하여 신체 부위를 판별할 수 있다. Meanwhile, for the body part, the 3D face
2차 확인 과정에서 3D 얼굴이미지 생성모듈(322)은 2D 이미지에 해당하는 각 4K 실사 이미지에 대한 디코딩을 수행하여 디코딩된 이미지(Decoded-image)를 생성하고 3D 형상으로 표현하기 위한 기본단위인 폴리곤의 집합을 생성하고, 디코딩된 이미지 각각을 상기 폴리곤의 집합 위에 붙이는 텍스쳐맵핑을 수행하여 3D 이미지로 형상화한 뒤, 변화되는 상수에 해당하는 중첩선을 기준으로 좌우 상하가 매칭되는 중첩선을 추출하고, 중첩선을 기준으로 중복되는 좌표 영역과 1차로 추출된 인체의 각도 변화에 따른 신체 부위의 변화 파라미터인 윤곽의 하나의 중심점을 기준으로 좌우, 상하 이동시의 직선 및 곡선의 변화, 그리고 색상, 채도, 명도의 변화 정보를 추출한 뒤, 하나의 각도와 이웃하는 다른 각도의 각 4K 실사 이미지에서의 중첩되는 좌표 영역이 매칭되는 경우 중첩선을 기준으로 중첩되는 좌표 영역을 추출하고 매칭되지 않는 경우 변화되는 상수에 해당하는 중첩선에 대한 이동 변화를 머신 러닝 기반으로 재추출하는 과정을 수행할 수 있다.In the secondary confirmation process, the 3D face
여기서 3D 얼굴이미지 생성모듈(322)에서 수행되는 머신 러닝은 분석/제어 프로그램을 기반으로 수행되며, 빅데이터 서버(400) 상의 분산 파일 프로그램에 의해 DCS DB에 분산 저장된 각 신체 부위별 수집 데이터를 머신러닝 알고리즘을 통해 분석하고 중첩선을 설정하여 중첩 영역을 추출할 수 있다. 보다 구체적으로, 분석/제어 프로그램에서 사용되는 머신러닝 알고리즘은 결정 트리(DT, Decision Tree) 분류 알고리즘, 랜덤 포레스트 분류 알고리즘, SVM(Support Vector Machine) 분류 알고리즘 중 하나일 수 있다. Here, the machine learning performed by the 3D face
분석/제어 프로그램은 분산 파일 프로그램에 의해 빅데이터 서버(400) 상에 각 신체 부위 별로 DCS DB에 분산 저장된 수집 데이터를 분석하여 그 분석한 결과로 각 신체 부위 별 3D 이미지의 하나의 중첩선을 기준으로 각기 다른 각도 변화에 따른 복수의 특징 정보를 추출하고 추출된 특징 정보를 복수의 머신러닝 알고리즘 중 적어도 하나 이상을 이용하여 학습하여 학습한 결과로 매칭 상태 여부를 판단할 수 있다.The analysis/control program analyzes the collected data distributed and stored in the DCS DB for each body part on the
즉, 분석/제어 프로그램은 상태 여부 판단 결과의 정확도 향상을 위해 다수의 상호 보완적인 머신러닝 알고리즘들로 구성된 앙상블 구조를 적용할 수 있다. That is, the analysis/control program can apply an ensemble structure composed of a number of complementary machine learning algorithms to improve the accuracy of the status determination result.
결정 트리 분류 알고리즘은 트리 구조로 학습하여 결과를 도출하는 방식으로 결과 해석 및 이해가 용이하고, 데이터 처리 속도가 빠르며 탐색 트리 기반으로 룰 도출이 가능할 수 있다. DT의 낮은 분류 정확도를 개선하기 위한 방안으로 RF를 적용할 수 있다. 랜덤 포레스트 분류 알고리즘은 다수의 DT를 앙상블로 학습한 결과를 도축하는 방식으로, DT보다 결과 이해가 어려우나 DT보다 결과 정확도가 높을 수 있다. DT 또는 RF 학습을 통해 발생 가능한 과적합의 개선 방안으로 SVM을 적용할 수 있다. SVM 분류 알고리즘은 서로 다른 분류에 속한 데이터를 평면 기반으로 분류하는 방식으로, 일반적으로 높은 정확도를 갖고, 구조적으로 과적합(overfitting)에 낮은 민감도를 가질 수 있다.The decision tree classification algorithm learns in a tree structure and derives results, so it is easy to interpret and understand the results, the data processing speed is fast, and rules can be derived based on the search tree. RF can be applied as a method to improve the low classification accuracy of DT. The random forest classification algorithm slaughters the results of learning multiple DTs as an ensemble, and it is difficult to understand the results than DT, but the accuracy of the results may be higher than that of DT. SVM can be applied as a way to improve overfitting that can occur through DT or RF learning. The SVM classification algorithm classifies data belonging to different classifications in a plane-based manner, and generally has high accuracy and may have low sensitivity to structural overfitting.
3D 얼굴이미지 생성모듈(322)은 추출된 특징 포인트를 기반으로, 도 4와 같은 "Direct Volumetric 기술" 을 통한 3D 이미지 재구축을 수행할 수 있다.The 3D face
보다 구체적으로, 3D 얼굴이미지 생성모듈(322)은 360°에서 각 좌표에 대한 정보를 구비한 재구축된 2D 얼굴 이미지 정보 중 좌표 영역의 신체 가장자리(윤곽선 정보)의 각 좌표 간의 CNN(convolutional Neural Network)을 사용하여, 2D 픽셀(pixel)로부터 3D 좌표로 생성하고 추출하고, 3D 좌표를 활용하여 영역 정보를 매칭시켜서 적용하는 방식으로 2D 얼굴 이미지를 3D 얼굴 이미지로 생성하는 "DVM(Direct Volumetric)" 기법을 활용할 수 있다. More specifically, the 3D face
즉, 얼굴이미지 생성모듈(322)은 2D 형태의 얼굴과 체형 이미지를 기계학습을 통해 3D 형태로 변환하여 e-커머스(e-Commerce) 산업에 최적화된 쇼핑형 아바타(Avata)로 표현하기 위해 "Volumetric capture video" 기반의 "DVM(Direct Volumetric)" 과정을 통하여, 의류의 질감과 실제 사용자의 피트(Fit, 이하 치수) 등을 표현하며, 실제 오프라인에서의 의류 착용감을 온라인 채널에서 90% 이상 동일한 경험을 제공하는 "초고화질 AR 쇼핑 아바타"를 제공할 수 있다.That is, the face
영상 합성 모듈(323)은 "DVM(Direct Volumetric)" 기법을 통해 생성된 3D 얼굴 이미지에 대해서 동적 개체에 해당하는 데이터베이스(330)에 저장된 쇼핑몰 피팅 모델의 2D 영상과의 얼굴 변화 합성을 수행할 수 있다.The
보다 구체적으로, 영상 합성 모듈(323)은 사용자가 선택한 의류에 대해서 사전에 쇼바타 쇼핑몰 서버(500)로부터 수신하여 데이터베이스(330)에 저장된 쇼핑몰 피팅 모델의 2D 영상에 대해서 상술한 사용자에 대한 3D 얼굴이미지 생성모듈(322)에 의한 "AAM(Active Appearance Model)" 기법을 통해 각 실사 영상 이미지에서 신체 가장자리뿐만 아니라, 360°카메라에 의해 촬영된 4K 실사 이미지 그룹을 형성하는 각 4K 실사 이미지의 모든 이미지 영역의 정보(색상, 채도, 명도)를 각 4K 실사 이미지에서 겹치는 영역에 대해서는 동일한 좌표값으로 하여 360°의 회전에 따라 각 x,y,z 축 좌표를 메타데이터로 신체 가장자리(윤곽선 정보) 및 영역 정보를 매칭시켜서 추출한 뒤, 3D 이미지 형상을 생성하는 방식으로 쇼핑몰 피팅 모델의 2D 영상을 활용하여 3D 이미지 형상을 생성하 수 있다.More specifically, the
이후, 영상 합성 모듈(323)은 추출된 동적 개체의 얼굴 특징별 값과, 외부 환경에 따라 각각 다른 조명, 화질, 카메라 성능 등의 값을 표준화한 사용자 이미지의 3D 얼굴 특징점 값을 합성하여 3D 합성 윤곽면을 생성한다. 이후에는 영상 합성 모듈(323)은 페이셜 트레킹 데이터에 맞춰 각 3D 좌표에 대한 영역 정보를 합성하여 처리함으로써, 고객 쇼바타 합성 영상을 생성할 수 있다. Thereafter, the
즉, 기존에 이러한 이미지 합성 동적 3D 객체에서는 얼굴 특징점을 추출하거나 합성을 하는 경우 어려움(정확도)이 있었는데 영상 합성 모듈(323)은 머신러닝 기법의 오브젝트 디텍션 알고리즘 및 이미지생성, 변환 알고리즘을 이용하여 이를 개선하고 발전된 형태의 쇼바타를 제작하는 것이다.That is, there was difficulty (accuracy) in extracting or synthesizing facial feature points in the conventional image synthesis dynamic 3D object. It is to produce an improved and developed form of Shobata.
이후, 쇼바타 제공 모듈(324)은 고객 쇼바타 합성 영상을 사용자 단말(100)로부터 제공된 배경 화면을 네트워크(200)와 연결된 쇼바타 쇼핑몰 서버(500)로부터 제공되는 경우 배경 화면에 고객 쇼바타 합성 영상을 매칭시킨 증강현실 기반의 고객 쇼바타 합성 영상을 생성하여 네트워크(200)와 연결된 쇼바타 쇼핑몰 서버(500)를 통해 사용자 스마트단말(100)로 제공하거나 네트워크(200)를 통해 사용자 스마트단말(100)에 직접적으로 증강현실 기반의 고객 쇼바타 합성 영상을 제공하도록 송수신부(310)를 제어할 수 있다. After that, the
즉, 얼굴 적용 기반 의류착용 서버(300)은 온라인 커머스 플랫폼 구현을 위한, 서비스 모듈 형태의 “쇼바타” 에 최적화된 기업용 오픈 API를 통해 처리부-합성부를 거친 피팅모델 데이터를 모바일 기기에 해당하는 사용자 스마트단말(100)로 증강현실로 구현되도록 하는 것이다. That is, the face application-based
기존에는 고품질(대용량) 이미지를 활용하여 증강현실 콘텐츠를 제작할 시, 콘텐츠 대용량에 따른 스마트폰 구동에서 증강현실 화질 감소 및 실감 저하 등의 한계가 존재한다. 대부분의 증강현실 콘텐츠는 고품질 이미지 대비 용량이 적은 일반 2D 이미지 또는 3D 오브젝트 파일을 사용하여 AR 콘텐츠를 제작하고 있으며, 이는 증강현실 콘텐츠 이용자에게 실감을 떨어뜨리고, 실제 산업에서 사용되는데 핵심적인 문제로 이어질 수 있다. 이에 따라 본 발명에서 제공되는 “초실감 증강현실” 은 고품질(대용량) 이미지를 이용하여, 스마트폰에서 이용가능하게 하는데, 초점을 맞추고 있다. 특히, 자체 개발하는 “영상과 음성의 압축 기술”과 “콘텐츠 규격화 기술” 등을 통해서, 스마트폰으로 초실감 증강현실을 체험할 수 있다.In the past, when creating augmented reality content using high-quality (large-capacity) images, there are limitations such as reduced augmented reality image quality and reduced realism when driving a smartphone according to the large capacity of the content. Most augmented reality contents produce AR contents using regular 2D images or 3D object files, which have a small capacity compared to high-quality images. can Accordingly, the "super-realistic augmented reality" provided in the present invention is focused on using high-quality (large-capacity) images to make it available on smartphones. In particular, through the self-developed “video and audio compression technology” and “content standardization technology”, you can experience hyper-realistic augmented reality with your smartphone.
이에 따라 쇼바타 쇼핑몰 서버(500)를 운영하는 온라인 의류 커머스 기업들은 사용자의 UX / UI를 기반으로, 자유롭게 증갈현실로 구현된 “쇼바타”를 사용자가 사용자 스마트단말(100)에 해당하는 스마트폰 상에서 움직이고 체험할 수 있도록 할 수 있다. Accordingly, online clothing commerce companies that operate the Shobata
도 5는 본 발명의 실시예에 따른 얼굴 적용 기반의 의류착용 방법인 서비스 제공 과정을 나타내는 흐름도이다. 도 6은 본 발명의 실시예에 따른 얼굴 적용 기반의 의류착용 서비스 제공 과정을 구성요소를 중심으로 도시한 참조 도면이다. 5 is a flowchart illustrating a service providing process, which is a method for wearing clothes based on face application according to an embodiment of the present invention. 6 is a reference diagram illustrating a process of providing a face application-based clothing wearing service according to an embodiment of the present invention, focusing on components.
도 5를 참조하면, 사용자 스마트단말(100)은 미리 설정된 쇼핑 앱을 실행하여 로그인 과정을 수행한다(S11).Referring to FIG. 5 , the user
단계(S11) 이후, 사용자 스마트단말(100)은 단계(S11)에 따른 로그인이 완료되면, 쇼바타 API를 실행한 쇼바타 쇼핑몰 서버(500)가 등록한 의류에 대해서 얼굴 적용 기반 의류착용 서버(300)의 중계에 따라 정보를 제공받은 뒤, 쇼바타 실행 선택 화면을 출력할 수 있다(S12).After the step (S11), when the login according to the step (S11) is completed, the user
여기서 쇼바타 API는 온라인 커머스몰에서 활용 가능한, 기업용 오픈 API 최적화 통합 운영 플랫폼으로, B2B 서비스를 위해 데이터 프로세스 서버인 얼굴 적용 기반 의류착용 서버(300)와 고객사인 쇼바타 쇼핑몰 서버(500)의 B2B 채널과 연결하는 API으로 회원관리, 상품정보 및 관리, 과금 등을 진행할 수 있다.Here, Shobata API is an open API optimization integrated operating platform for businesses that can be used in online commerce malls. For B2B services, the face application-based
단계(S12) 이후, 사용자 스마트단말(100)은 쇼바타 실행 선택 화면에 대한 선택 여부에 따라(S13), 선택하는 경우, “쇼바타 설정페이지”에서 사용자의 얼굴을 촬영하고, 신체사이즈를 설정하여 저장할 수 있다(S14).After the step (S12), the user's
한편, 사용자 스마트단말(100)은 쇼바타 실행 선택 화면에 대한 선택 여부에 따라(S13), 선택하지 않는 경우, 일반적인 쇼핑몰에서와 같은 상품 검색 서비스를 쇼바타 쇼핑몰 서버(500)로부터 네트워크(200)를 통해 제공받을 수 있다(S15).On the other hand, the user
다음으로, 쇼바타 쇼핑몰 서버(500)는 네크워크(200)를 통해 얼굴 적용 기반 의류착용 서버(300)로 액세스 하여 얼굴 적용 기반 의류착용 서버(300)에 대한 요청을 통해 쇼바타 API 설정을 수행할 수 있으며(S21), 쇼바타 API 설정 여부에 따라(S22), 설정하지 않은 경우 단계(S21)로 회귀하여 쇼바타 API 설정에 대한 재시도를 수행할 수 있으며, 반대로 설정한 경우 단계(S31)로 진행함으로써, 얼굴적용 기반 의류착용 서버(300)로부터 쇼바타 API 모듈을 제공받아서 쇼바타 API 모듈을 기반으로 사용자 스마트단말(100)에 대한 쇼바타 서비스를 제공할 수 있으며, 쇼바타 API 모듈 제공 및 사용에 대해서 얼굴 적용 기반 의류착용 서버(300)에 대한 결제를 수행할 수 있다(S31). Next, the Shobata
이후, 쇼바타 쇼핑몰 서버(500)는 네트워크(200)를 통한 사용자 스마트단말(100)의 쇼핑 앱 상에서의 쇼바타 실행 선택 화면에서 쇼바타를 실행한 경우, 쇼바타 API 모듈을 활용한 사용자 스마트단말(100)의 쇼핑 앱과의 네트워크(200)를 통한 쇼핑 앱의 요청 데이터 처리를 수행하며(S23).Thereafter, when Shobata
단계(S14)에서 사용자 스마트단말(100)에 의한 촬영에 따라 사용자 스마트단말(100)로부터 쇼바타 쇼핑몰 서버(500)는 사용자의 얼굴 촬영 정보, 그리고 신체사이즈 정보를 수신한 뒤, 자체 데이터베이스 상에 저장을 수행한 뒤(S24), 사용자의 얼굴 촬영 정보를 기반으로 사용자 승인을 수행하며(S25), 승인 결과 승인 부적합인 경우 단계(S12)로 회귀하며, 승인 결과 승인 적합인 경우 후술하는 단계(S32)로 진행하기 위해 사용자의 얼굴 촬영 정보 및 신체 사이즈 정보를 네트워크(200)를 통해 얼굴 적용 기반 의류착용 서버(300)로 제공할 수 있다.According to the shooting by the user
한편, 쇼바타 쇼핑몰 서버(500)는 사용자의 얼굴 촬영 정보 및 신체 사이즈 정보에 대한 얼굴 적용 기반 의류착용 서버(300)에 의한 증강현실 기반의 고객 쇼바타 합성 영상이 생성되어 제공되는 경우, 제공된 증강현실 기반의 고객 쇼바타 합성 영상을 활용하여 사용자 스마트단말(100)에게 쇼바타 쇼룸을 제공할 수 있다(S27). On the other hand, the Shobata
다음으로, 얼굴 적용 기반 의류착용 서버(300)는 쇼바타 쇼핑몰 서버(500)에 대한 쇼바타 API 모듈 제공 및 사용에 대해서 얼굴 적용 기반 의류착용 서버(300)에 대한 결제를 수행할 뿐만 아니라(S31), 쇼바타 쇼핑몰 서버(500)에 의한 사용자 스마트단말(100)에 대한 사용자의 얼굴 촬영 정보를 기반으로 한 승인 결과 승인 적합인 경우 쇼바타 쇼핑몰 서버(500)로부터 사용자의 얼굴 촬영 정보 및 신체 사이즈 정보를 네트워크(200)를 통해 수신하여 데이터베이스(330)에 저장할 수 있다(S32).Next, the face application-based
이후, 얼굴 적용 기반 의류착용 서버(300)는 사용자의 얼굴 촬영 정보 및 신체 사이즈 정보를 활용하여 고객 쇼바타를 생성하고(S33), 쇼바타 쇼핑몰 서버(500)로부터 제공받아 데이터베이스(330) 상에 저장된 쇼핑몰 피팅 모델 영상과 고객 쇼바타에 대한 합성을 수행하고(S34), 생성된 합성 영상을 증강현실 영상으로 생성한 뒤(S35), 네트워크(200)를 통해 쇼바타 쇼핑몰 서버(500)로 제공하여 쇼바타 쇼핑몰 서버(500)에 의해 증강현실 기반의 고객 쇼바타 합성 영상을 활용하여 사용자 스마트단말(100)에게 쇼바타 쇼룸을 제공할 수 있도록 할 수 있다(S27). Thereafter, the face application-based
한편, 추가정보 제공 모듈(325)은 각 사용자 스마트단말(100)을 운영하는 사용자에 대해 생성된 증강현실 기반의 고객 쇼바타 합성 영상에 대해서 사용자 스마트단말(100)의 요청에 따라 SNS 서버(600) 상에 지인으로 등록된 다른 사용자 스마트단말(100)에 대한 전송과 추천 기능을 통해 가장 많이 추천받은 의류에 대해서 추천을 의뢰한 사용자 스마트단말(100)로 정보를 전달할 수 있다. On the other hand, the additional
본 발명은 또한 컴퓨터로 읽을 수 있는 기록매체에 컴퓨터가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 컴퓨터가 읽을 수 있는 기록매체는 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록 장치를 포함한다.The present invention can also be implemented as computer-readable codes on a computer-readable recording medium. The computer-readable recording medium includes all types of recording devices in which data readable by a computer system is stored.
컴퓨터가 읽을 수 있는 기록매체의 예로는 ROM, RAM, CD-ROM, 자기테이프, 플로피 디스크, 광 데이터 저장장치 등이 있으며, 또한 캐리어 웨이브(예를 들어, 인터넷을 통한 전송)의 형태로 구현되는 것도 포함한다. Examples of computer-readable recording media include ROM, RAM, CD-ROM, magnetic tape, floppy disk, optical data storage device, etc. also includes
또한 컴퓨터가 읽을 수 있는 기록매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어, 분산방식으로 컴퓨터가 읽을 수 있는 코드가 저장되고 실행될 수 있다. 그리고 본 발명을 구현하기 위한 기능적인(functional) 프로그램, 코드 및 코드 세그먼트들은 본 발명이 속하는 기술 분야의 프로그래머들에 의해 용이하게 추론될 수 있다.In addition, the computer-readable recording medium is distributed in network-connected computer systems, and computer-readable codes can be stored and executed in a distributed manner. In addition, functional programs, codes, and code segments for implementing the present invention can be easily inferred by programmers in the technical field to which the present invention pertains.
이상과 같이, 본 명세서와 도면에는 본 발명의 바람직한 실시예에 대하여 개시하였으며, 비록 특정 용어들이 사용되었으나, 이는 단지 본 발명의 기술 내용을 쉽게 설명하고 발명의 이해를 돕기 위한 일반적인 의미에서 사용된 것이지, 본 발명의 범위를 한정하고자 하는 것은 아니다. 여기에 개시된 실시예 외에도 본 발명의 기술적 사상에 바탕을 둔 다른 변형 예들이 실시 가능하다는 것은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에게 자명한 것이다.As described above, preferred embodiments of the present invention have been disclosed in the present specification and drawings, and although specific terms are used, these are only used in a general sense to easily explain the technical content of the present invention and to help the understanding of the present invention. , it is not intended to limit the scope of the present invention. It will be apparent to those of ordinary skill in the art to which the present invention pertains that other modifications based on the technical spirit of the present invention can be implemented in addition to the embodiments disclosed herein.
1 : 얼굴 적용 기반의 의류착용 시스템
100 : 사용자 스마트단말
100g : 사용자 스마트단말 그룹
200 : 네트워크
300 : 얼굴 적용 기반 의류착용 서버
400 : 빅데이터 서버
500 : 쇼바타 쇼핑몰 서버
600 : SNS 서버1: Clothing wearing system based on face application
100: user smart terminal
100g: User smart terminal group
200: network
300: face application-based clothing wearing server
400: big data server
500: Shobata shopping mall server
600: SNS server
Claims (2)
네트워크(200)를 통해 각 사용자 스마트단말(100)의 액세스에 따라 회원 가입 절차를 수행하고 쇼핑 앱 데이터를 네트워크(200)를 통해 스마트 단말(100)로 제공하도록 송수신부(310)를 제어하는 정보수집모듈(321); 및
사용자의 얼굴 촬영 정보 및 신체 사이즈 정보에 대해서 개선된 AAM(Active Appearance Model) 알고리즘과 머신러닝 기법을 적용한, 얼굴 특징 포인트 추출 기법에 따라 사용자의 사용자 스마트단말(100)에서 획득한 사용자의 얼굴 촬영 정보를 활용하여 2D 얼굴 이미지를 재구축하고, 시각화(Reconstruction & Visualization) 작업을 위해서, 얼굴 특징 요소를 매뉴얼로 처리하여 기준 값을 형성하는 3D 얼굴이미지 생성모듈(322); 을 포함하는 것을 특징으로 하는 얼굴 적용 기반의 의류착용 시스템
In the face application-based clothing wearing system (1) comprising a user smart terminal group (100g) consisting of a plurality of user smart terminals (100), a network (200), and a face application-based clothing wearing server (300), face application Base clothing wearing server 300,
Information for controlling the transceiver 310 to perform a membership registration procedure according to the access of each user's smart terminal 100 through the network 200 and provide shopping app data to the smart terminal 100 through the network 200 collection module 321; and
User's face photographing information obtained from the user's user smart terminal 100 according to the facial feature point extraction technique, which applies the improved AAM (Active Appearance Model) algorithm and machine learning technique to the user's face photographing information and body size information a 3D face image generating module 322 that reconstructs a 2D face image using Face application-based clothing wearing system comprising a
사용자 스마트단말(100)이 로그인이 완료되면, 쇼바타 API를 실행한 쇼바타 쇼핑몰 서버(500)가 등록한 의류에 대해서 얼굴 적용 기반 의류착용 서버(300)의 중계에 따라 정보를 제공받은 뒤, 쇼바타 실행 선택 화면을 출력하는 제 2 단계; 를 포함하는 것을 특징으로 하는 얼굴 적용 기반의 의류착용 방법.
A first step of the user smart terminal 100 executing a preset shopping app to perform a login process; and
When the user smart terminal 100 is logged in, after receiving information according to the relay of the face application-based clothing wearing server 300 for the clothes registered by the Shobata shopping mall server 500 executing the Shobata API, the shock absorber a second step of outputting another execution selection screen; Face application-based clothing wearing method comprising a.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020200122776A KR102467295B1 (en) | 2020-09-23 | 2020-09-23 | Apparel wearing system based on face application, and method thereof |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020200122776A KR102467295B1 (en) | 2020-09-23 | 2020-09-23 | Apparel wearing system based on face application, and method thereof |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20220040051A true KR20220040051A (en) | 2022-03-30 |
KR102467295B1 KR102467295B1 (en) | 2022-11-16 |
Family
ID=80948096
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020200122776A KR102467295B1 (en) | 2020-09-23 | 2020-09-23 | Apparel wearing system based on face application, and method thereof |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102467295B1 (en) |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20130032620A (en) * | 2011-09-23 | 2013-04-02 | 김용국 | Method and apparatus for providing moving picture using 3d user avatar |
KR20170025406A (en) * | 2015-08-28 | 2017-03-08 | 이형철 | Mobile terminal using virtual fitting solution for shopping and method for controlling thereof |
KR20180108709A (en) * | 2016-01-27 | 2018-10-04 | 니틴 바츠 | How to virtually dress a user's realistic body model |
JP2020119156A (en) * | 2019-01-22 | 2020-08-06 | 日本電気株式会社 | Avatar creating system, avatar creating device, server device, avatar creating method and program |
-
2020
- 2020-09-23 KR KR1020200122776A patent/KR102467295B1/en active IP Right Grant
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20130032620A (en) * | 2011-09-23 | 2013-04-02 | 김용국 | Method and apparatus for providing moving picture using 3d user avatar |
KR20170025406A (en) * | 2015-08-28 | 2017-03-08 | 이형철 | Mobile terminal using virtual fitting solution for shopping and method for controlling thereof |
KR20180108709A (en) * | 2016-01-27 | 2018-10-04 | 니틴 바츠 | How to virtually dress a user's realistic body model |
JP2020119156A (en) * | 2019-01-22 | 2020-08-06 | 日本電気株式会社 | Avatar creating system, avatar creating device, server device, avatar creating method and program |
Non-Patent Citations (1)
Title |
---|
대한민국 특허출원 출원번호 제10-2009-0047947(2009.06.01)호 "모의 의류 착용장치를 기반으로 하는 모의 의류 착용시스템 및 이를 이용한 모의 의류 착용서비스의 제공방법(VIRTUAL CLOTHES WEARING SYSTEM BASE ON VIRTUAL CLOTHES WEARING APPARATUS AND METHOD FOR PROVIDING VIRTUAL CLOTHES WEARING SERVICE USING THEREOF) |
Also Published As
Publication number | Publication date |
---|---|
KR102467295B1 (en) | 2022-11-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
TWI708152B (en) | Image processing method, device, and storage medium | |
Sekhavat | Privacy preserving cloth try-on using mobile augmented reality | |
US9959453B2 (en) | Methods and systems for three-dimensional rendering of a virtual augmented replica of a product image merged with a model image of a human-body feature | |
JP2021534516A (en) | Virtual fitting system and method for eyeglasses | |
US20180268458A1 (en) | Automated recommendation and virtualization systems and methods for e-commerce | |
CN111832745B (en) | Data augmentation method and device and electronic equipment | |
Li et al. | M2FPA: A multi-yaw multi-pitch high-quality dataset and benchmark for facial pose analysis | |
US12056743B2 (en) | Image and data processing methods and apparatuses | |
WO2023184817A1 (en) | Image processing method and apparatus, computer device, computer-readable storage medium, and computer program product | |
KR20170002097A (en) | Method for providing ultra light-weight data animation type based on sensitivity avatar emoticon | |
CN116485973A (en) | Material generation method of virtual object, electronic equipment and storage medium | |
CN113724302B (en) | Personalized glasses customizing method and customizing system | |
Wang et al. | Digital twin: Acquiring high-fidelity 3D avatar from a single image | |
CN114170250A (en) | Image processing method and device and electronic equipment | |
Danieau et al. | Automatic generation and stylization of 3d facial rigs | |
WO2015172229A1 (en) | Virtual mirror systems and methods | |
CN113282177A (en) | Intelligent fitting method, system, terminal and medium based on augmented reality | |
KR102467295B1 (en) | Apparel wearing system based on face application, and method thereof | |
CN116703507A (en) | Image processing method, display method and computing device | |
CN112686733B (en) | E-commerce product simulation system based on big data | |
CN114648601A (en) | Virtual image generation method, electronic device, program product and user terminal | |
CN114782240A (en) | Picture processing method and device | |
Kang et al. | Eyeglass Remover Network based on a Synthetic Image Dataset. | |
CN111429193A (en) | Commodity color parameter determination method, commodity color parameter determination device, commodity color parameter determination equipment and readable storage medium | |
Raswanth et al. | The Future of Fashion: Innovations in Virtual Try-on Systems |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right |