KR102467295B1 - 얼굴 적용 기반의 의류착용 시스템 및 그 방법 - Google Patents
얼굴 적용 기반의 의류착용 시스템 및 그 방법 Download PDFInfo
- Publication number
- KR102467295B1 KR102467295B1 KR1020200122776A KR20200122776A KR102467295B1 KR 102467295 B1 KR102467295 B1 KR 102467295B1 KR 1020200122776 A KR1020200122776 A KR 1020200122776A KR 20200122776 A KR20200122776 A KR 20200122776A KR 102467295 B1 KR102467295 B1 KR 102467295B1
- Authority
- KR
- South Korea
- Prior art keywords
- face
- image
- user
- information
- clothing
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q30/00—Commerce
- G06Q30/06—Buying, selling or leasing transactions
- G06Q30/0601—Electronic shopping [e-shopping]
- G06Q30/0641—Shopping interfaces
- G06Q30/0643—Graphical representation of items or shoppers
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/60—Type of objects
- G06V20/64—Three-dimensional objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Business, Economics & Management (AREA)
- Multimedia (AREA)
- Accounting & Taxation (AREA)
- Finance (AREA)
- Development Economics (AREA)
- Economics (AREA)
- Marketing (AREA)
- Strategic Management (AREA)
- General Business, Economics & Management (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Human Computer Interaction (AREA)
- Processing Or Creating Images (AREA)
Abstract
본 발명은 얼굴 적용 기반의 의류착용 시스템 및 그 방법에 관한 것으로, 보다 구체적으로는, 기존 증강현실 분야에서 제공되는 서비스를 통해 사용자는 의류 착용경험을 제공 받고 있으나, 실제 오프라인에서의 의류 착용감과 경험을 60% 정도 수준에서 제공하고 있으므로 기존 증강현실 내에서 사용되는 "AAM(Active Appearance Model) 알고리즘"을 개선하고, "DVM(Direct Volumetric) 과정"을 통하여, 초고화질 이미지 기반의 3D 아바타인 증강현실 기반의 고객 쇼바타 합성 영상을 제공하기 위한 얼굴 적용 기반의 의류착용 시스템 및 그 방법에 관한 것이다.
Description
본 발명은 얼굴 적용 기반의 의류착용 시스템 및 그 방법에 관한 것으로, 보다 구체적으로는, 기존 증강현실 분야에서 제공되는 서비스를 통해 사용자는 의류 착용경험을 제공 받고 있으나, 실제 오프라인에서의 의류 착용감과 경험을 60% 정도 수준에서 제공하고 있으므로 기존 증강현실 내에서 사용되는 "AAM(Active Appearance Model) 알고리즘"을 개선하고, "DVM(Direct Volumetric) 과정"을 통하여, 초고화질 이미지 기반의 3D 아바타인 증강현실 기반의 고객 쇼바타 합성 영상을 제공하기 위한 얼굴 적용 기반의 의류착용 시스템 및 그 방법에 관한 것이다.
온라인 e-커머스 시장 상황은 온-오프라인 융합을 통한 소매유통 기업들의 온라인 전환이 수행되고 있다.
즉, 오프라인 매장 운영이 어려워지는 소매유통 기업들이 온라인 판매에 나서면서, 온-오프라인 판매채널 간의 결합이 더욱 가속화 되고 있다.
특히, 신종 코로나바이러스 감염증으로, 세계 경제가 침체되고 있으며, 이중 비대면 소비는 각황을 받고 있다. 이러한 소비자의 움직임으로 국내 e-커머스 시장은 2019년 840억 6,700만 달러 규모로 성장하였다. 국내 유통시장에서 e-커머스 시장의 점유율도 28.2% 수준으로 매년 증가하고 있는 추세이다.
비대면 소비가 “새로운 표준(New Normal)”이 되면서, 최적의 소비자 경험을 제공하기 위한 혁신 기술 도입 가속화되고 있으며, 매장을 방문하여 직접 제품을 구매하는 전통적인 쇼핑 방식이 비대면 방식의 선호로 사라지면서, 이를 보완하기 위한 혁신 정보기술(IT)이 온라인 커머스 시장에 적극적으로 도입되고 있다.
이러한 유통분야에서 언택트(Untact) 소비 추세가 장기화되면서, 새로운 표준으로 인식되고 있다. 이러한 흐름에 글로벌 IT기업들은 증강/가상현실(AR,VR) 기술을 확보하고자, 해당 기술들을 보유한 스타트업에 적극적으로 투자하고 있다.
일반적인 업무용 PC의 성능으로, 3D 가상현실 영상을 재대로 표현하는데 어려움이 있으며, 특히, 머리에 직접 착용하는 HMD(Head-mounted display) 기기를 활용할 경우에는 착용자가 어지러움증을 유발할 수 있다.
특수안경을 착용하는 방식으로 3D로 사물을 바라보는 Non-HMD 방식도 HMD와 동일하게 착용을 해야 사용이 가능하다. 물론, HMD 대비 착용장치에 대한 무게감이 현저하게 작아 편의성은 향상되는 방법이나, 장비를 착용해야 한다는 부분에서는 한계가 있다.
한편, 가상현실 환경을 만드는 비용이 상당히 높은 상황으로, 산업 내에서 적용 효율성이 낮다. CAD로 만든 3D모델이 기업 내 없을 경우, 대부분의 제작과정을 노동집약적인 수작업으로 가상현실을 구현해야 한다. 이는 뚜렷한 수익모델이나 투자 대비 효과 없이는 시작이 어렵다는 점도 포함되어 있다.
2020년 기준, 현재의 AR 기술들은 웨어러블 기기를 착용해서 구현되고 있으므로, 기기착용에 대한 불편함과 장비 가격이 고가격이라는 문제들이 아직 해결되지 않은 상황이다.
이러한 문제들은 산업 현장의 실무자들에게 앞에서의 어색함과 불편함을 감수할 만한 가치를 제공해주지 못하고 있다는 점이다. 이는 보수적인 성향의 실무자들에게 신기술을 통한 확실한 체감과 장점, 나아가 혜택이 있어야 가능할 것으로 예상된다.
본 발명은 상기의 문제점을 해결하기 위한 것으로, 기존 증강현실 분야에서 제공되는 서비스를 통해 사용자는 의류 착용경험을 제공 받고 있으나, 실제 오프라인에서의 의류 착용감과 경험을 60% 정도 수준에서 제공하고 있으므로 기존 증강현실 내에서 사용되는 "AAM(Active Appearance Model) 알고리즘"을 개선하고, "DVM(Direct Volumetric) 과정"을 통하여, 초고화질 이미지 기반의 3D 아바타인 증강현실 기반의 고객 쇼바타 합성 영상을 제공하기 위한 얼굴 적용 기반의 의류착용 시스템 및 그 방법을 제공하기 위한 것이다.
그러나 본 발명의 목적들은 상기에 언급된 목적으로 제한되지 않으며, 언급되지 않은 또 다른 목적들은 아래의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.
상기의 목적을 달성하기 위해 본 발명의 실시예에 따른 얼굴 적용 기반의 의류착용 시스템은, 복수의 사용자 스마트단말(100)로 이루어진 사용자 스마트단말 그룹(100g), 네트워크(200), 얼굴 적용 기반 의류착용 서버(300)를 포함하는 얼굴 적용 기반의 의류착용 시스템(1)에 있어서, 얼굴 적용 기반 의류착용 서버(300)는, 네트워크(200)를 통해 각 사용자 스마트단말(100)의 액세스에 따라 회원 가입 절차를 수행하고 쇼핑 앱 데이터를 네트워크(200)를 통해 스마트 단말(100)로 제공하도록 송수신부(310)를 제어하는 정보수집모듈(321); 및 사용자의 얼굴 촬영 정보 및 신체 사이즈 정보에 대해서 개선된 AAM(Active Appearance Model) 알고리즘과 머신러닝 기법을 적용한, 얼굴 특징 포인트 추출 기법에 따라 사용자의 사용자 스마트단말(100)에서 획득한 사용자의 얼굴 촬영 정보를 활용하여 2D 얼굴 이미지를 재구축하고, 시각화(Reconstruction & Visualization) 작업을 위해서, 얼굴 특징 요소를 매뉴얼로 처리하여 기준 값을 형성하는 3D 얼굴이미지 생성모듈(322); 을 포함하는 것을 특징으로 할 수 있다.
상기의 목적을 달성하기 위해 본 발명의 실시예에 따른 얼굴 적용 기반의 의류착용 방법은, 사용자 스마트단말(100)이 미리 설정된 쇼핑 앱을 실행하여 로그인 과정을 수행하는 제 1 단계; 및 사용자 스마트단말(100)이 로그인이 완료되면, 쇼바타 API를 실행한 쇼바타 쇼핑몰 서버(500)가 등록한 의류에 대해서 얼굴 적용 기반 의류착용 서버(300)의 중계에 따라 정보를 제공받은 뒤, 쇼바타 실행 선택 화면을 출력하는 제 2 단계; 를 포함하는 것을 특징으로 할 수 있다.
본 발명의 실시예에 따른 얼굴 적용 기반의 의류착용 시스템 및 그 방법은, 기존 증강현실 분야에서 제공되는 서비스를 통해 사용자는 의류 착용경험을 제공 받고 있으나, 실제 오프라인에서의 의류 착용감과 경험을 60% 정도 수준에서 제공하고 있으므로 기존 증강현실 내에서 사용되는 "AAM(Active Appearance Model) 알고리즘"을 개선하고, "DVM(Direct Volumetric) 과정"을 통하여, 초고화질 이미지 기반의 3D 아바타인 증강현실 기반의 고객 쇼바타 합성 영상을 제공할 수 있는 효가 있다.
도 1은 본 발명의 실시예에 따른 얼굴 적용 기반의 의류착용 시스템(1)을 나타내는 도면이다.
도 2는 본 발명의 실시예에 따른 얼굴 적용 기반의 의류착용 시스템(1) 중 얼굴 적용 기반 의류착용 서버(300)의 구성요소를 나타내는 블록도이다.
도 3 및 도 4는 본 발명의 실시예에 따른 얼굴 적용 기반의 의류착용 시스템(1) 중 얼굴 적용 기반 의류착용 서버(300)의 얼굴 적용 기반의 의류착용 서비스를 제공하기 위한 과정을 설명하기 위한 도면이다.
도 5는 본 발명의 실시예에 따른 얼굴 적용 기반의 의류착용 서비스 제공 과정을 나타내는 흐름도이다.
도 6은 본 발명의 실시예에 따른 얼굴 적용 기반의 의류착용 서비스 제공 과정을 구성요소를 중심으로 도시한 참조 도면이다.
도 2는 본 발명의 실시예에 따른 얼굴 적용 기반의 의류착용 시스템(1) 중 얼굴 적용 기반 의류착용 서버(300)의 구성요소를 나타내는 블록도이다.
도 3 및 도 4는 본 발명의 실시예에 따른 얼굴 적용 기반의 의류착용 시스템(1) 중 얼굴 적용 기반 의류착용 서버(300)의 얼굴 적용 기반의 의류착용 서비스를 제공하기 위한 과정을 설명하기 위한 도면이다.
도 5는 본 발명의 실시예에 따른 얼굴 적용 기반의 의류착용 서비스 제공 과정을 나타내는 흐름도이다.
도 6은 본 발명의 실시예에 따른 얼굴 적용 기반의 의류착용 서비스 제공 과정을 구성요소를 중심으로 도시한 참조 도면이다.
이하, 본 발명의 바람직한 실시예의 상세한 설명은 첨부된 도면들을 참조하여 설명할 것이다. 하기에서 본 발명을 설명함에 있어서, 관련된 공지 기능 또는 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명을 생략할 것이다.
본 명세서에 있어서는 어느 하나의 구성요소가 다른 구성요소로 데이터 또는 신호를 '전송'하는 경우에는 구성요소는 다른 구성요소로 직접 상기 데이터 또는 신호를 전송할 수 있고, 적어도 하나의 또 다른 구성요소를 통하여 데이터 또는 신호를 다른 구성요소로 전송할 수 있음을 의미한다.
도 1은 본 발명의 실시예에 따른 얼굴 적용 기반의 의류착용 시스템(1)을 나타내는 도면이다. 도 1을 참조하면, 얼굴 적용 기반의 의류착용 시스템(1)은 복수의 사용자 스마트단말(100)로 이루어진 사용자 스마트단말 그룹(100g), 네트워크(200), 얼굴 적용 기반 의류착용 서버(300), 빅데이터 서버(400), 쇼바타 쇼핑몰 서버(500) 및 SNS 서버(600)를 포함할 수 있다.
본 발명과 관련된 사전적 정의로 "쇼바타[SHOVATAR]"는 쇼핑(Shopping) + 아바타(Avatar)의 합성어로, 증강현실 기술분야에서 활용되는 기존의 소스(Source)들과 5G 네트워크 환경을 배경으로, 의류 산업에 특화되어 증강현실로 제작된 인물 형태를 의미한다.
한편, 기존 증강현실 분야에서 제공되는 서비스를 통해 사용자는 의류 착용경험을 제공 받고 있으나, 실제 오프라인에서의 의류 착용감과 경험을 60% 정도 수준에서 제공하고 있다. 이에, 본 발명에 따른 얼굴 적용 기반 의류착용 서버(300)는 기존 증강현실 내에서 사용되는 "AAM(Active Appearance Model) 알고리즘"을 개선하고, "DVM(Direct Volumetric) 과정"을 통하여, 초고화질 이미지 기반의 3D 아바타인 증강현실 기반의 고객 쇼바타 합성 영상을 제공할 수 있다.
도 2는 본 발명의 실시예에 따른 얼굴 적용 기반의 의류착용 시스템(1) 중 얼굴 적용 기반 의류착용 서버(300)의 구성요소를 나타내는 블록도이다. 도 3 및 도 4는 본 발명의 실시예에 따른 얼굴 적용 기반의 의류착용 시스템(1) 중 얼굴 적용 기반 의류착용 서버(300)의 얼굴 적용 기반의 의류착용 서비스를 제공하기 위한 과정을 설명하기 위한 도면이다.
도 2를 참조하면, 얼굴 적용 기반 의류착용 서버(300)는 송수신부(310), 제어부(320) 및 데이터 베이스(330)를 포함하며, 제어부(320)는 정보수집모듈(321), 3D 얼굴이미지 생성모듈(322), 영상 합성 모듈(323), 쇼바타 제공 모듈(324) 및 추가정보 제공 모듈(325)을 포함함으로써, 기존의 앱 보다 실제와 같은 느낌을 주기 위해서 3D 기반으로 증강현실 기반으로 딥러닝에 의해 옷의 착용 상태를 가상으로 구현하는데 초점을 두기보다, 기존의 피팅 모델의 영상에 사용자의 얼굴을 변화하면서 제공함으로써, 사용자가 입고 있는 듯한 느낌을 줘서, 사용자가 옷을 입은 채 360도 회전하거나, 팔 다리 동작을 하면서도, 옷의 질감, 옷의 착용 상태 등을 구체적으로 알 수 있도록 할 수 있다.
정보수집모듈(321)은 네트워크(200)를 통해 각 사용자 스마트단말(100)의 액세스에 따라 회원 가입 절차를 수행하고 쇼핑 앱 데이터를 네트워크(200)를 통해 스마트 단말(100)로 제공하도록 송수신부(310)를 제어할 수 있다
3D 얼굴이미지 생성모듈(322)은 사용자의 얼굴 촬영 정보 및 신체 사이즈 정보에 대해서 개선된 AAM(Active Appearance Model) 알고리즘과 머신러닝 기법을 적용한, 얼굴 특징 포인트 추출 기법에 따라 사용자의 사용자 스마트단말(100)에서 획득한 사용자의 얼굴 촬영 정보를 활용하여 2D 얼굴 이미지를 재구축하고, 이를 시각화(Reconstruction & Visualization) 작업을 위해서, 얼굴 특징 요소를 매뉴얼로 처리하여 기준 값을 형성할 수 있다. 여기서, 3D 얼굴이미지 생성모듈(322)은 APF 기반으로 추출 속도를 향상할 수 있다.
여기서, "AAM(Active Appearance Model)"은 ASM(Active Shape Model) 접근 방식을 일반화한 것이으로, 신체의 일부분이 모델링 된 부분에서 신체 가장자리뿐만 아니라, 모든 이미지 영역의 정보를 사용하는 기법으로, 도 3과 같이 사용자 스마트단말(100)과 별도로 형성된 360°카메라(미도시), 그 밖의 얼굴 적용 기반 의류착용 서버(300) 운영자가 별도로 구비한 360°카메라(미도시)를 통해 수집한 4K 화질의 2D 실사 이미지를 사용자 스마트단말(100)로부터 3D 얼굴이미지 생성모듈(322)이 수신하도록 송수신부(310)를 제어한 뒤, 360°카메라에 의해 촬영된 4K 실사 이미지 그룹을 데이터베이스(330)에 저장할 수 있다.
3D 얼굴이미지 생성모듈(322)은 4K 실사 이미지 그룹에 대한 디지털 인터미디에이트(Digital Intermediate) 작업에 따라 촬영 단계에서 360° 회전에 따라 획득한 영상의 밝기, 색상, 채도 등의 차이를 일치시키는 과정으로, 색 보정(color correction) 등을 포함한 전반적인 교정 작업과, 색수치 및 노출에 대한 보정을 진행함으로써, 보정된 실사 영상 이미지를 완성할 수 있다.
여기서, 3D 얼굴이미지 생성모듈(322)이 사용하는 "AAM(Active Appearance Model)"은 각 실사 영상 이미지에서 신체 가장자리뿐만 아니라, 360°카메라에 의해 촬영된 4K 실사 이미지 그룹을 형성하는 각 4K 실사 이미지의 모든 이미지 영역의 정보(색상, 채도, 명도)를 각 4K 실사 이미지에서 겹치는 영역에 대해서는 동일한 좌표값으로 하여 360°의 회전에 따라 각 x,y,z 축 좌표를 메타데이터로 신체 가장자리(윤곽선 정보) 및 영역 정보를 매칭시켜서 추출할 수 있다.
즉, 3D 얼굴이미지 생성모듈(322)은 하나의 각도와 이웃하는 다른 각도의 각 4K 실사 이미지에서 머신러닝 기법에 해당하는 변화 예측성을 기반으로 중첩되는 좌표 영역을 추출할 수 있는 것이다.
보다 구체적으로, 3D 얼굴이미지 생성모듈(322)은 네트워크(200)를 통해 빅데이터 서버(400)에 액세스하여 빅데이터 서버(400)에 저장된 인체의 각도 변화에 따른 신체 부위의 변화 파라미터인 윤곽의 하나의 중심점을 기준으로 좌우, 상하 이동시의 직선 및 곡선의 변화, 그리고 색상, 채도, 명도의 변화 정보를 추출한 뒤, 하나의 각도와 이웃하는 다른 각도의 각 4K 실사 이미지에서의 중첩되는 좌표 영역에 대해서 1차적으로 추출을 수행하고, 추출된 좌표 영역에 대한 3D 이미지를 통한 2차 확인 과정을 통해 중첩되는 좌표 영역의 신체 가장자리(윤곽선 정보) 및 영역 정보를 배제하고 중첩되지 않는 좌표 영역의 신체 가장자리(윤곽선 정보) 및 영역 정보만에 대한 획득을 수행할 수 있다.
한편, 신체 부위에 대해서 3D 얼굴이미지 생성모듈(322)은 2D 이미지와 빅데이터 서버(400)에 저장된 신체부위 패턴 정보를 비교하여 신체 부위를 추출할 수 있다. 이를 위해 빅데이터 서버(400)에는 다양한 신체부위 패턴 정보가 저장되어 있는데, 3D 얼굴이미지 생성모듈(322)은 이러한 다양한 신체부위 패턴 자체 정보 또는 상기 다양한 신체부위 패턴 정보의 미리 설정된 각도 기울어진 것, 역으로 된 것 등과 2D 이미지를 비교하여 신체 부위를 판별할 수 있다.
2차 확인 과정에서 3D 얼굴이미지 생성모듈(322)은 2D 이미지에 해당하는 각 4K 실사 이미지에 대한 디코딩을 수행하여 디코딩된 이미지(Decoded-image)를 생성하고 3D 형상으로 표현하기 위한 기본단위인 폴리곤의 집합을 생성하고, 디코딩된 이미지 각각을 상기 폴리곤의 집합 위에 붙이는 텍스쳐맵핑을 수행하여 3D 이미지로 형상화한 뒤, 변화되는 상수에 해당하는 중첩선을 기준으로 좌우 상하가 매칭되는 중첩선을 추출하고, 중첩선을 기준으로 중복되는 좌표 영역과 1차로 추출된 인체의 각도 변화에 따른 신체 부위의 변화 파라미터인 윤곽의 하나의 중심점을 기준으로 좌우, 상하 이동시의 직선 및 곡선의 변화, 그리고 색상, 채도, 명도의 변화 정보를 추출한 뒤, 하나의 각도와 이웃하는 다른 각도의 각 4K 실사 이미지에서의 중첩되는 좌표 영역이 매칭되는 경우 중첩선을 기준으로 중첩되는 좌표 영역을 추출하고 매칭되지 않는 경우 변화되는 상수에 해당하는 중첩선에 대한 이동 변화를 머신 러닝 기반으로 재추출하는 과정을 수행할 수 있다.
여기서 3D 얼굴이미지 생성모듈(322)에서 수행되는 머신 러닝은 분석/제어 프로그램을 기반으로 수행되며, 빅데이터 서버(400) 상의 분산 파일 프로그램에 의해 DCS DB에 분산 저장된 각 신체 부위별 수집 데이터를 머신러닝 알고리즘을 통해 분석하고 중첩선을 설정하여 중첩 영역을 추출할 수 있다. 보다 구체적으로, 분석/제어 프로그램에서 사용되는 머신러닝 알고리즘은 결정 트리(DT, Decision Tree) 분류 알고리즘, 랜덤 포레스트 분류 알고리즘, SVM(Support Vector Machine) 분류 알고리즘 중 하나일 수 있다.
분석/제어 프로그램은 분산 파일 프로그램에 의해 빅데이터 서버(400) 상에 각 신체 부위 별로 DCS DB에 분산 저장된 수집 데이터를 분석하여 그 분석한 결과로 각 신체 부위 별 3D 이미지의 하나의 중첩선을 기준으로 각기 다른 각도 변화에 따른 복수의 특징 정보를 추출하고 추출된 특징 정보를 복수의 머신러닝 알고리즘 중 적어도 하나 이상을 이용하여 학습하여 학습한 결과로 매칭 상태 여부를 판단할 수 있다.
즉, 분석/제어 프로그램은 상태 여부 판단 결과의 정확도 향상을 위해 다수의 상호 보완적인 머신러닝 알고리즘들로 구성된 앙상블 구조를 적용할 수 있다.
결정 트리 분류 알고리즘은 트리 구조로 학습하여 결과를 도출하는 방식으로 결과 해석 및 이해가 용이하고, 데이터 처리 속도가 빠르며 탐색 트리 기반으로 룰 도출이 가능할 수 있다. DT의 낮은 분류 정확도를 개선하기 위한 방안으로 RF를 적용할 수 있다. 랜덤 포레스트 분류 알고리즘은 다수의 DT를 앙상블로 학습한 결과를 도축하는 방식으로, DT보다 결과 이해가 어려우나 DT보다 결과 정확도가 높을 수 있다. DT 또는 RF 학습을 통해 발생 가능한 과적합의 개선 방안으로 SVM을 적용할 수 있다. SVM 분류 알고리즘은 서로 다른 분류에 속한 데이터를 평면 기반으로 분류하는 방식으로, 일반적으로 높은 정확도를 갖고, 구조적으로 과적합(overfitting)에 낮은 민감도를 가질 수 있다.
3D 얼굴이미지 생성모듈(322)은 추출된 특징 포인트를 기반으로, 도 4와 같은 "Direct Volumetric 기술" 을 통한 3D 이미지 재구축을 수행할 수 있다.
보다 구체적으로, 3D 얼굴이미지 생성모듈(322)은 360°에서 각 좌표에 대한 정보를 구비한 재구축된 2D 얼굴 이미지 정보 중 좌표 영역의 신체 가장자리(윤곽선 정보)의 각 좌표 간의 CNN(convolutional Neural Network)을 사용하여, 2D 픽셀(pixel)로부터 3D 좌표로 생성하고 추출하고, 3D 좌표를 활용하여 영역 정보를 매칭시켜서 적용하는 방식으로 2D 얼굴 이미지를 3D 얼굴 이미지로 생성하는 "DVM(Direct Volumetric)" 기법을 활용할 수 있다.
즉, 얼굴이미지 생성모듈(322)은 2D 형태의 얼굴과 체형 이미지를 기계학습을 통해 3D 형태로 변환하여 e-커머스(e-Commerce) 산업에 최적화된 쇼핑형 아바타(Avata)로 표현하기 위해 "Volumetric capture video" 기반의 "DVM(Direct Volumetric)" 과정을 통하여, 의류의 질감과 실제 사용자의 피트(Fit, 이하 치수) 등을 표현하며, 실제 오프라인에서의 의류 착용감을 온라인 채널에서 90% 이상 동일한 경험을 제공하는 "초고화질 AR 쇼핑 아바타"를 제공할 수 있다.
영상 합성 모듈(323)은 "DVM(Direct Volumetric)" 기법을 통해 생성된 3D 얼굴 이미지에 대해서 동적 개체에 해당하는 데이터베이스(330)에 저장된 쇼핑몰 피팅 모델의 2D 영상과의 얼굴 변화 합성을 수행할 수 있다.
보다 구체적으로, 영상 합성 모듈(323)은 사용자가 선택한 의류에 대해서 사전에 쇼바타 쇼핑몰 서버(500)로부터 수신하여 데이터베이스(330)에 저장된 쇼핑몰 피팅 모델의 2D 영상에 대해서 상술한 사용자에 대한 3D 얼굴이미지 생성모듈(322)에 의한 "AAM(Active Appearance Model)" 기법을 통해 각 실사 영상 이미지에서 신체 가장자리뿐만 아니라, 360°카메라에 의해 촬영된 4K 실사 이미지 그룹을 형성하는 각 4K 실사 이미지의 모든 이미지 영역의 정보(색상, 채도, 명도)를 각 4K 실사 이미지에서 겹치는 영역에 대해서는 동일한 좌표값으로 하여 360°의 회전에 따라 각 x,y,z 축 좌표를 메타데이터로 신체 가장자리(윤곽선 정보) 및 영역 정보를 매칭시켜서 추출한 뒤, 3D 이미지 형상을 생성하는 방식으로 쇼핑몰 피팅 모델의 2D 영상을 활용하여 3D 이미지 형상을 생성할 수 있다.
이후, 영상 합성 모듈(323)은 추출된 동적 개체의 얼굴 특징별 값과, 외부 환경에 따라 각각 다른 조명, 화질, 카메라 성능 등의 값을 표준화한 사용자 이미지의 3D 얼굴 특징점 값을 합성하여 3D 합성 윤곽면을 생성한다. 이후에는 영상 합성 모듈(323)은 페이셜 트레킹 데이터에 맞춰 각 3D 좌표에 대한 영역 정보를 합성하여 처리함으로써, 고객 쇼바타 합성 영상을 생성할 수 있다.
즉, 기존에 이러한 이미지 합성 동적 3D 객체에서는 얼굴 특징점을 추출하거나 합성을 하는 경우 어려움(정확도)이 있었는데 영상 합성 모듈(323)은 머신러닝 기법의 오브젝트 디텍션 알고리즘 및 이미지생성, 변환 알고리즘을 이용하여 이를 개선하고 발전된 형태의 쇼바타를 제작하는 것이다.
이후, 쇼바타 제공 모듈(324)은 고객 쇼바타 합성 영상을 사용자 단말(100)로부터 제공된 배경 화면을 네트워크(200)와 연결된 쇼바타 쇼핑몰 서버(500)로부터 제공되는 경우 배경 화면에 고객 쇼바타 합성 영상을 매칭시킨 증강현실 기반의 고객 쇼바타 합성 영상을 생성하여 네트워크(200)와 연결된 쇼바타 쇼핑몰 서버(500)를 통해 사용자 스마트단말(100)로 제공하거나 네트워크(200)를 통해 사용자 스마트단말(100)에 직접적으로 증강현실 기반의 고객 쇼바타 합성 영상을 제공하도록 송수신부(310)를 제어할 수 있다.
즉, 얼굴 적용 기반 의류착용 서버(300)은 온라인 커머스 플랫폼 구현을 위한, 서비스 모듈 형태의 “쇼바타” 에 최적화된 기업용 오픈 API를 통해 처리부-합성부를 거친 피팅모델 데이터를 모바일 기기에 해당하는 사용자 스마트단말(100)로 증강현실로 구현되도록 하는 것이다.
기존에는 고품질(대용량) 이미지를 활용하여 증강현실 콘텐츠를 제작할 시, 콘텐츠 대용량에 따른 스마트폰 구동에서 증강현실 화질 감소 및 실감 저하 등의 한계가 존재한다. 대부분의 증강현실 콘텐츠는 고품질 이미지 대비 용량이 적은 일반 2D 이미지 또는 3D 오브젝트 파일을 사용하여 AR 콘텐츠를 제작하고 있으며, 이는 증강현실 콘텐츠 이용자에게 실감을 떨어뜨리고, 실제 산업에서 사용되는데 핵심적인 문제로 이어질 수 있다. 이에 따라 본 발명에서 제공되는 “초실감 증강현실” 은 고품질(대용량) 이미지를 이용하여, 스마트폰에서 이용가능하게 하는데, 초점을 맞추고 있다. 특히, 자체 개발하는 “영상과 음성의 압축 기술”과 “콘텐츠 규격화 기술” 등을 통해서, 스마트폰으로 초실감 증강현실을 체험할 수 있다.
이에 따라 쇼바타 쇼핑몰 서버(500)를 운영하는 온라인 의류 커머스 기업들은 사용자의 UX / UI를 기반으로, 자유롭게 증갈현실로 구현된 “쇼바타”를 사용자가 사용자 스마트단말(100)에 해당하는 스마트폰 상에서 움직이고 체험할 수 있도록 할 수 있다.
도 5는 본 발명의 실시예에 따른 얼굴 적용 기반의 의류착용 방법인 서비스 제공 과정을 나타내는 흐름도이다. 도 6은 본 발명의 실시예에 따른 얼굴 적용 기반의 의류착용 서비스 제공 과정을 구성요소를 중심으로 도시한 참조 도면이다.
도 5를 참조하면, 사용자 스마트단말(100)은 미리 설정된 쇼핑 앱을 실행하여 로그인 과정을 수행한다(S11).
단계(S11) 이후, 사용자 스마트단말(100)은 단계(S11)에 따른 로그인이 완료되면, 쇼바타 API를 실행한 쇼바타 쇼핑몰 서버(500)가 등록한 의류에 대해서 얼굴 적용 기반 의류착용 서버(300)의 중계에 따라 정보를 제공받은 뒤, 쇼바타 실행 선택 화면을 출력할 수 있다(S12).
여기서 쇼바타 API는 온라인 커머스몰에서 활용 가능한, 기업용 오픈 API 최적화 통합 운영 플랫폼으로, B2B 서비스를 위해 데이터 프로세스 서버인 얼굴 적용 기반 의류착용 서버(300)와 고객사인 쇼바타 쇼핑몰 서버(500)의 B2B 채널과 연결하는 API으로 회원관리, 상품정보 및 관리, 과금 등을 진행할 수 있다.
단계(S12) 이후, 사용자 스마트단말(100)은 쇼바타 실행 선택 화면에 대한 선택 여부에 따라(S13), 선택하는 경우, “쇼바타 설정페이지”에서 사용자의 얼굴을 촬영하고, 신체사이즈를 설정하여 저장할 수 있다(S14).
한편, 사용자 스마트단말(100)은 쇼바타 실행 선택 화면에 대한 선택 여부에 따라(S13), 선택하지 않는 경우, 일반적인 쇼핑몰에서와 같은 상품 검색 서비스를 쇼바타 쇼핑몰 서버(500)로부터 네트워크(200)를 통해 제공받을 수 있다(S15).
다음으로, 쇼바타 쇼핑몰 서버(500)는 네크워크(200)를 통해 얼굴 적용 기반 의류착용 서버(300)로 액세스 하여 얼굴 적용 기반 의류착용 서버(300)에 대한 요청을 통해 쇼바타 API 설정을 수행할 수 있으며(S21), 쇼바타 API 설정 여부에 따라(S22), 설정하지 않은 경우 단계(S21)로 회귀하여 쇼바타 API 설정에 대한 재시도를 수행할 수 있으며, 반대로 설정한 경우 단계(S31)로 진행함으로써, 얼굴적용 기반 의류착용 서버(300)로부터 쇼바타 API 모듈을 제공받아서 쇼바타 API 모듈을 기반으로 사용자 스마트단말(100)에 대한 쇼바타 서비스를 제공할 수 있으며, 쇼바타 API 모듈 제공 및 사용에 대해서 얼굴 적용 기반 의류착용 서버(300)에 대한 결제를 수행할 수 있다(S31).
이후, 쇼바타 쇼핑몰 서버(500)는 네트워크(200)를 통한 사용자 스마트단말(100)의 쇼핑 앱 상에서의 쇼바타 실행 선택 화면에서 쇼바타를 실행한 경우, 쇼바타 API 모듈을 활용한 사용자 스마트단말(100)의 쇼핑 앱과의 네트워크(200)를 통한 쇼핑 앱의 요청 데이터 처리를 수행하며(S23).
단계(S14)에서 사용자 스마트단말(100)에 의한 촬영에 따라 사용자 스마트단말(100)로부터 쇼바타 쇼핑몰 서버(500)는 사용자의 얼굴 촬영 정보, 그리고 신체사이즈 정보를 수신한 뒤, 자체 데이터베이스 상에 저장을 수행한 뒤(S24), 사용자의 얼굴 촬영 정보를 기반으로 사용자 승인을 수행하며(S25), 승인 결과 승인 부적합인 경우 단계(S12)로 회귀하며, 승인 결과 승인 적합인 경우 후술하는 단계(S32)로 진행하기 위해 사용자의 얼굴 촬영 정보 및 신체 사이즈 정보를 네트워크(200)를 통해 얼굴 적용 기반 의류착용 서버(300)로 제공할 수 있다.
한편, 쇼바타 쇼핑몰 서버(500)는 사용자의 얼굴 촬영 정보 및 신체 사이즈 정보에 대한 얼굴 적용 기반 의류착용 서버(300)에 의한 증강현실 기반의 고객 쇼바타 합성 영상이 생성되어 제공되는 경우, 제공된 증강현실 기반의 고객 쇼바타 합성 영상을 활용하여 사용자 스마트단말(100)에게 쇼바타 쇼룸을 제공할 수 있다(S27).
다음으로, 얼굴 적용 기반 의류착용 서버(300)는 쇼바타 쇼핑몰 서버(500)에 대한 쇼바타 API 모듈 제공 및 사용에 대해서 얼굴 적용 기반 의류착용 서버(300)에 대한 결제를 수행할 뿐만 아니라(S31), 쇼바타 쇼핑몰 서버(500)에 의한 사용자 스마트단말(100)에 대한 사용자의 얼굴 촬영 정보를 기반으로 한 승인 결과 승인 적합인 경우 쇼바타 쇼핑몰 서버(500)로부터 사용자의 얼굴 촬영 정보 및 신체 사이즈 정보를 네트워크(200)를 통해 수신하여 데이터베이스(330)에 저장할 수 있다(S32).
이후, 얼굴 적용 기반 의류착용 서버(300)는 사용자의 얼굴 촬영 정보 및 신체 사이즈 정보를 활용하여 고객 쇼바타를 생성하고(S33), 쇼바타 쇼핑몰 서버(500)로부터 제공받아 데이터베이스(330) 상에 저장된 쇼핑몰 피팅 모델 영상과 고객 쇼바타에 대한 합성을 수행하고(S34), 생성된 합성 영상을 증강현실 영상으로 생성한 뒤(S35), 네트워크(200)를 통해 쇼바타 쇼핑몰 서버(500)로 제공하여 쇼바타 쇼핑몰 서버(500)에 의해 증강현실 기반의 고객 쇼바타 합성 영상을 활용하여 사용자 스마트단말(100)에게 쇼바타 쇼룸을 제공할 수 있도록 할 수 있다(S27).
한편, 추가정보 제공 모듈(325)은 각 사용자 스마트단말(100)을 운영하는 사용자에 대해 생성된 증강현실 기반의 고객 쇼바타 합성 영상에 대해서 사용자 스마트단말(100)의 요청에 따라 SNS 서버(600) 상에 지인으로 등록된 다른 사용자 스마트단말(100)에 대한 전송과 추천 기능을 통해 가장 많이 추천받은 의류에 대해서 추천을 의뢰한 사용자 스마트단말(100)로 정보를 전달할 수 있다.
본 발명은 또한 컴퓨터로 읽을 수 있는 기록매체에 컴퓨터가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 컴퓨터가 읽을 수 있는 기록매체는 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록 장치를 포함한다.
컴퓨터가 읽을 수 있는 기록매체의 예로는 ROM, RAM, CD-ROM, 자기테이프, 플로피 디스크, 광 데이터 저장장치 등이 있으며, 또한 캐리어 웨이브(예를 들어, 인터넷을 통한 전송)의 형태로 구현되는 것도 포함한다.
또한 컴퓨터가 읽을 수 있는 기록매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어, 분산방식으로 컴퓨터가 읽을 수 있는 코드가 저장되고 실행될 수 있다. 그리고 본 발명을 구현하기 위한 기능적인(functional) 프로그램, 코드 및 코드 세그먼트들은 본 발명이 속하는 기술 분야의 프로그래머들에 의해 용이하게 추론될 수 있다.
이상과 같이, 본 명세서와 도면에는 본 발명의 바람직한 실시예에 대하여 개시하였으며, 비록 특정 용어들이 사용되었으나, 이는 단지 본 발명의 기술 내용을 쉽게 설명하고 발명의 이해를 돕기 위한 일반적인 의미에서 사용된 것이지, 본 발명의 범위를 한정하고자 하는 것은 아니다. 여기에 개시된 실시예 외에도 본 발명의 기술적 사상에 바탕을 둔 다른 변형 예들이 실시 가능하다는 것은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에게 자명한 것이다.
1 : 얼굴 적용 기반의 의류착용 시스템
100 : 사용자 스마트단말
100g : 사용자 스마트단말 그룹
200 : 네트워크
300 : 얼굴 적용 기반 의류착용 서버
400 : 빅데이터 서버
500 : 쇼바타 쇼핑몰 서버
600 : SNS 서버
100 : 사용자 스마트단말
100g : 사용자 스마트단말 그룹
200 : 네트워크
300 : 얼굴 적용 기반 의류착용 서버
400 : 빅데이터 서버
500 : 쇼바타 쇼핑몰 서버
600 : SNS 서버
Claims (2)
- 복수의 사용자 스마트단말(100)로 이루어진 사용자 스마트단말 그룹(100g), 네트워크(200), 얼굴 적용 기반 의류착용 서버(300)를 포함하는 얼굴 적용 기반의 의류착용 시스템(1)에 있어서, 얼굴 적용 기반 의류착용 서버(300)는,
네트워크(200)를 통해 각 사용자 스마트단말(100)의 액세스에 따라 회원 가입 절차를 수행하고 쇼핑 앱 데이터를 네트워크(200)를 통해 사용자 스마트단말(100)로 제공하도록 송수신부(310)를 제어하는 정보수집모듈(321);
사용자의 얼굴 촬영 정보 및 신체 사이즈 정보에 대해서 개선된 AAM(Active Appearance Model) 알고리즘과 머신러닝 기법을 적용한, 얼굴 특징 포인트 추출 기법에 따라 사용자의 사용자 스마트단말(100)에서 획득한 사용자의 얼굴 촬영 정보를 활용하여 2D 얼굴 이미지를 재구축하고, 시각화(Reconstruction & Visualization) 작업을 위해서, 얼굴 특징 요소를 매뉴얼로 처리하여 기준 값을 형성하는 3D 얼굴이미지 생성모듈(322); 및
상기 3D 얼굴이미지 생성모듈(322)을 통해 생성된 3D 얼굴 이미지에 대해서 동적 개체에 해당하는 데이터베이스(330)에 저장된 쇼핑몰 피팅 모델의 2D 영상과의 얼굴 변화 합성을 수행하는 영상 합성모듈(323)을 포함하되,
상기 3D 얼굴이미지 생성모듈(322)은 복수의 신체부위 패턴 자체 정보 또는 복수의 신체부위 패턴 정보의 미리 설정된 각도 기울어진 것, 역으로 된 것과 2D 이미지를 비교하여 신체 부위를 판별하고, 3D 이미지로 형상화한 뒤, 변화되는 상수에 해당하는 중첩선을 기준으로 인체의 각도 변화에 따른 신체 부위의 변화 정보를 추출한 뒤, 360도 카메라에 의해 촬영된 실사 이미지 그룹에서 하나의 각도와 이웃하는 다른 각도의 각 실사 이미지에서의 중첩되는 좌표 영역이 매칭되는 경우 중첩선을 기준으로 중첩되는 좌표 영역을 추출하고 매칭되지 않는 경우 변화되는 상수에 해당하는 중첩선에 대한 이동 변화를 머신 러닝 기반으로 재추출하는 것을 특징으로 하는 얼굴 적용 기반의 의류착용 시스템.
- 사용자 스마트단말(100)이 미리 설정된 쇼핑 앱을 실행하여 로그인 과정을 수행하는 제 1 단계; 및
사용자 스마트단말(100)이 로그인이 완료되면, 쇼바타 API를 실행한 쇼바타 쇼핑몰 서버(500)가 등록한 의류에 대해서 얼굴 적용 기반 의류착용 서버(300)의 중계에 따라 정보를 제공받은 뒤, 쇼바타 실행 선택 화면을 출력하는 제 2 단계; 를 포함하며,
상기 제2 단계는 얼굴 적용 기반 의류착용 서버(300)에서 사용자의 얼굴 촬영 정보 및 신체 사이즈 정보에 대해서 개선된 AAM(Active Appearance Model) 알고리즘과 머신러닝 기법을 적용한, 얼굴 특징 포인트 추출 기법에 따라 사용자의 사용자 스마트단말(100)에서 획득한 사용자의 얼굴 촬영 정보를 활용하여 2D 얼굴 이미지를 재구축하고, 시각화(Reconstruction & Visualization) 작업을 위해서, 얼굴 특징 요소를 매뉴얼로 처리하여 기준 값을 형성하는 3D 얼굴이미지 생성하고, 생성된 3D 얼굴 이미지에 대해서 동적 개체에 해당하는 데이터베이스(330)에 저장된 쇼핑몰 피팅 모델의 2D 영상과의 얼굴 변화 합성을 수행하되,
상기 3D 얼굴이미지 생성과정에서 복수의 신체부위 패턴 자체 정보 또는 복수의 신체부위 패턴 정보의 미리 설정된 각도 기울어진 것, 역으로 된 것과 2D 이미지를 비교하여 신체 부위를 판별하며, 3D 이미지로 형상화한 뒤, 변화되는 상수에 해당하는 중첩선을 기준으로 인체의 각도 변화에 따른 신체 부위의 변화 정보를 추출한 뒤, 360도 카메라에 의해 촬영된 실사 이미지 그룹에서 하나의 각도와 이웃하는 다른 각도의 각 실사 이미지에서의 중첩되는 좌표 영역이 매칭되는 경우 중첩선을 기준으로 중첩되는 좌표 영역을 추출하고 매칭되지 않는 경우 변화되는 상수에 해당하는 중첩선에 대한 이동 변화를 머신 러닝 기반으로 재추출하는 것을 특징으로 하는 얼굴 적용 기반의 의류착용 방법.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020200122776A KR102467295B1 (ko) | 2020-09-23 | 2020-09-23 | 얼굴 적용 기반의 의류착용 시스템 및 그 방법 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020200122776A KR102467295B1 (ko) | 2020-09-23 | 2020-09-23 | 얼굴 적용 기반의 의류착용 시스템 및 그 방법 |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20220040051A KR20220040051A (ko) | 2022-03-30 |
KR102467295B1 true KR102467295B1 (ko) | 2022-11-16 |
Family
ID=80948096
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020200122776A KR102467295B1 (ko) | 2020-09-23 | 2020-09-23 | 얼굴 적용 기반의 의류착용 시스템 및 그 방법 |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102467295B1 (ko) |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2020119156A (ja) | 2019-01-22 | 2020-08-06 | 日本電気株式会社 | アバター生成システム、アバター生成装置、サーバ装置、アバター生成方法、およびプログラム |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101306221B1 (ko) * | 2011-09-23 | 2013-09-10 | (주) 어펙트로닉스 | 3차원 사용자 아바타를 이용한 동영상 제작장치 및 방법 |
KR101731718B1 (ko) * | 2015-08-28 | 2017-04-28 | 이형철 | 쇼핑을 위해 가상 피팅 솔루션을 이용하는 모바일 단말기 및 그 제어방법 |
JP2019510297A (ja) * | 2016-01-27 | 2019-04-11 | バット ナイティンVATS, Nitin | ユーザの真実の人体モデルへの仮想的な試着 |
-
2020
- 2020-09-23 KR KR1020200122776A patent/KR102467295B1/ko active IP Right Grant
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2020119156A (ja) | 2019-01-22 | 2020-08-06 | 日本電気株式会社 | アバター生成システム、アバター生成装置、サーバ装置、アバター生成方法、およびプログラム |
Also Published As
Publication number | Publication date |
---|---|
KR20220040051A (ko) | 2022-03-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111066060B (zh) | 虚拟面部化妆去除和模拟、快速面部检测和地标跟踪 | |
KR102658960B1 (ko) | 얼굴 재연을 위한 시스템 및 방법 | |
KR102241153B1 (ko) | 2차원 이미지로부터 3차원 아바타를 생성하는 방법, 장치 및 시스템 | |
Sekhavat | Privacy preserving cloth try-on using mobile augmented reality | |
US20200066052A1 (en) | System and method of superimposing a three-dimensional (3d) virtual garment on to a real-time video of a user | |
US9959453B2 (en) | Methods and systems for three-dimensional rendering of a virtual augmented replica of a product image merged with a model image of a human-body feature | |
CN106682632B (zh) | 用于处理人脸图像的方法和装置 | |
TW201911082A (zh) | 圖像處理方法、裝置及儲存介質 | |
KR102353556B1 (ko) | 사용자 얼굴기반 표정 및 포즈 재현 아바타 생성장치 | |
WO2023184817A1 (zh) | 图像处理方法、装置、计算机设备、计算机可读存储介质及计算机程序产品 | |
CN116485973A (zh) | 虚拟对象的材质生成方法、电子设备和存储介质 | |
CN110458121B (zh) | 一种人脸图像生成的方法及装置 | |
AU2021101766A4 (en) | Cartoonify Image Detection Using Machine Learning | |
CN114170250A (zh) | 图像处理方法、装置和电子设备 | |
CN113282177A (zh) | 基于增强现实的智能试穿方法、系统、终端及介质 | |
WO2015172229A1 (en) | Virtual mirror systems and methods | |
Ding et al. | Personalizing human avatars based on realistic 3D facial reconstruction | |
KR102467295B1 (ko) | 얼굴 적용 기반의 의류착용 시스템 및 그 방법 | |
Tian et al. | Robust facial marker tracking based on a synthetic analysis of optical flows and the YOLO network | |
CN116703507A (zh) | 图像处理方法、显示方法及计算设备 | |
CN114782240A (zh) | 图片处理方法以及装置 | |
CN112991003A (zh) | 一种私人定制方法及系统 | |
Lin et al. | FAEC‐GAN: An unsupervised face‐to‐anime translation based on edge enhancement and coordinate attention | |
Liu et al. | High Fidelity Makeup via 2D and 3D Identity Preservation Net | |
CN116958353B (zh) | 一种基于动态捕捉的全息投影方法及相关装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right |