KR102466978B1 - 딥러닝 기반 가상 이미지 생성방법 및 시스템 - Google Patents
딥러닝 기반 가상 이미지 생성방법 및 시스템 Download PDFInfo
- Publication number
- KR102466978B1 KR102466978B1 KR1020200049121A KR20200049121A KR102466978B1 KR 102466978 B1 KR102466978 B1 KR 102466978B1 KR 1020200049121 A KR1020200049121 A KR 1020200049121A KR 20200049121 A KR20200049121 A KR 20200049121A KR 102466978 B1 KR102466978 B1 KR 102466978B1
- Authority
- KR
- South Korea
- Prior art keywords
- image
- product
- pose
- category
- virtual image
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T11/00—2D [Two Dimensional] image generation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/50—Information retrieval; Database structures therefor; File system structures therefor of still image data
- G06F16/55—Clustering; Classification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/217—Validation; Performance evaluation; Active pattern learning techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/243—Classification techniques relating to the number of classes
- G06F18/2431—Multiple classes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q30/00—Commerce
- G06Q30/06—Buying, selling or leasing transactions
- G06Q30/0601—Electronic shopping [e-shopping]
- G06Q30/0641—Shopping interfaces
- G06Q30/0643—Graphical representation of items or shoppers
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/103—Static body considered as a whole, e.g. static pedestrian or occupant recognition
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Engineering & Computer Science (AREA)
- Business, Economics & Management (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Accounting & Taxation (AREA)
- Finance (AREA)
- Evolutionary Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Software Systems (AREA)
- Marketing (AREA)
- Computing Systems (AREA)
- Strategic Management (AREA)
- General Business, Economics & Management (AREA)
- Databases & Information Systems (AREA)
- Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Economics (AREA)
- Mathematical Physics (AREA)
- Development Economics (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- Computer Graphics (AREA)
- Geometry (AREA)
- Image Analysis (AREA)
- Processing Or Creating Images (AREA)
- Image Processing (AREA)
Abstract
본 발명의 실시예에 따른 딥러닝 기반 가상 이미지 생성방법 및 시스템은, 컴퓨팅 디바이스의 프로세서에 의하여 실행되는 이미지 어플리케이션이 딥러닝을 기반으로 가상 이미지를 생성하는 방법으로서, 일 제품에 대한 복수의 제품 이미지를 획득하는 단계; 상기 획득된 제품 이미지를 서로 다른 포즈(pose) 형태를 기준으로 구분된 복수의 카테고리로 분류하는 단계; 상기 복수의 카테고리 중 상기 가상 이미지를 생성할 타겟 카테고리를 결정하는 단계; 상기 복수의 제품 이미지 중 적어도 하나의 제품 이미지를 기초로 상기 결정된 타겟 카테고리에 매칭된 제 1 포즈 형태의 가상 이미지를 생성하는 단계; 및 상기 생성된 가상 이미지를 출력하는 단계;를 포함한다.
Description
본 발명은 딥러닝 기반 가상 이미지 생성방법에 관한 것이다. 보다 상세하게는, 일 제품에 대한 복수의 제품 이미지를 분류할 시 요구되는 필요 제품 이미지를 딥러닝을 기반으로 생성하고 제공하는 방법에 관한 것이다.
주지된 바와 같이, 인터넷 회선 속도의 증가와 멀티미디어 기술의 발전에 따라 인터넷망을 통한 멀티미디어 웹정보의 유통이 활발하게 이루어지고 있고, 인터넷을 통한 재화의 유통을 위한 보안 기술이 발전함에 따라, 오프라인 상에서 주로 판매되던 상품이나 각종 서비스 거래가 온라인의 인터넷 쇼핑몰을 통해 이루어지고 있는 추세이다.
즉, 위와 같은 통신 기술의 발전에 따라서, 사용자는 개인의 단말을 통해 쇼핑몰 서버에서 제공하는 상품 정보를 확인하고 쇼핑하는 것이 가능해졌다.
이때, 사용자는 합리적인 쇼핑을 위하여 쇼핑몰 서버에서 제공하는 제품에 대한 다수의 제품 이미지를 검색하고 확인하게 된다.
그러나, 온라인 쇼핑몰 상에 존재하는 다양한 이미지(예를 들면, 제품 착용 이미지, 제품 재질 및/또는 색상 이미지 등)는, 별도의 구분 없이 일 제품을 나타내는 페이지 상에 무작위로 나열되어 있는 경우가 대부분이며, 이로 인해 제품을 효과적으로 인지하기에 불편함이 있는 등의 문제가 있다.
또한, 쇼핑몰에서 제공되는 제품을 보다 효과적으로 디스플레이하기 위하여 다양한 형태(예컨대, 의류 제품을 착용한 상태에서의 다양한 포즈 등)로 해당 제품을 나타내는 이미지를 제공할 필요성이 있으나, 기존의 제품 이미지 외에 추가적으로 필요한 이미지가 발생하는 경우 필요한 제품 이미지를 만들기 위하여 별도의 촬영이나 작업을 수행해야 하는 등의 어려움이 있어, 이를 위한 기술 개발이 요구되고 있다.
한편, 인간의 뇌를 모방하는 뉴럴 네트워크(neural network)가 고안되어 컴퓨터 스스로 외부 데이터를 조합, 분석하여 학습하는 딥러닝(deep learning) 기술이 발전함에 따라, AI(Artificial Intelligence, 인공지능)가 획기적으로 도약하였다.
그리하여 컴퓨터가 인간을 대체해 방대한 양의 데이터를 분석하고, 사물이나 데이터를 군집화하거나 분류할 수 있다.
또한, 위와 같은 뉴럴 네트워크가 이미지에 접목된 이미지 딥러닝(Image Deep-learning) 기술이 함께 발전함에 따라서, 이미지 세그멘테이션(Segmentation), 이미지 인페인팅(Inpainting) 및 이미지 합성(composite) 등을 활용한 각종 기술 개발에 대한 관심이 높아지고 있다.
여기서, 이미지 세그멘테이션이란, 전체 이미지에서 객체영역을 분리하는 기술로서, 전체 이미지에서 사물의 영역을 픽셀단위로 분류해 주는 기술을 말한다.
또한, 이미지 인페인팅은, 전체 이미지에서 객체를 제외한 부분(즉, 이미지 내에서 지워진 영역)에 대한 이미지 복원을 수행하는 기술이다.
더하여, 이미지 합성 기술은, 복수의 이미지들을 합성하여 새로운 이미지를 구현해내는 기술을 의미한다.
본 발명은, 상술된 문제점을 해결하기 위해 안출된 것으로서, 온라인 쇼핑몰에서 제공하는 일 제품에 대한 복수의 제품 이미지를 사용자 편의를 고려하여 분류하고, 여기서 요구되는 필요 제품 이미지를 딥러닝에 기반하여 생성하는 딥러닝 기반 가상 이미지 생성방법을 제공하는데 그 목적이 있다.
다만, 본 발명 및 본 발명의 실시예가 이루고자 하는 기술적 과제는 상기된 바와 같은 기술적 과제들로 한정되지 않으며, 또 다른 기술적 과제들이 존재할 수 있다.
본 발명의 실시예에 따른 딥러닝 기반 가상 이미지 생성방법 및 시스템은, 컴퓨팅 디바이스의 프로세서에 의하여 실행되는 이미지 어플리케이션이 딥러닝을 기반으로 가상 이미지를 생성하는 방법으로서, 일 제품에 대한 복수의 제품 이미지를 획득하는 단계; 상기 획득된 제품 이미지를 서로 다른 포즈(pose) 형태를 기준으로 구분된 복수의 카테고리로 분류하는 단계; 상기 복수의 카테고리 중 상기 가상 이미지를 생성할 타겟 카테고리를 결정하는 단계; 상기 복수의 제품 이미지 중 적어도 하나의 제품 이미지를 기초로 상기 결정된 타겟 카테고리에 매칭된 제 1 포즈 형태의 가상 이미지를 생성하는 단계; 및 상기 생성된 가상 이미지를 출력하는 단계;를 포함한다.
이때, 상기 타겟 카테고리를 결정하는 단계는, 상기 제품 이미지가 분류되지 않은 빈 카테고리를 검출하는 단계와, 상기 검출된 빈 카테고리를 상기 타겟 카테고리로 결정하는 단계를 포함한다.
또한, 상기 가상 이미지는, 상기 적어도 하나의 제품 이미지와 상기 제 1 포즈 형태에 대한 정보를 기 학습된 딥러닝 뉴럴 네트워크에 입력하여 상기 제 1 포즈 형태를 가지도록 생성된 상기 제품에 대한 이미지이다.
또한, 상기 제 1 포즈 형태의 가상 이미지를 생성하는 단계는, 상기 복수의 제품 이미지 중 적어도 하나를 베이스 이미지로 결정하는 단계를 포함한다.
또한, 상기 베이스 이미지를 결정하는 단계는, 기설정된 카테고리별 우선순위에 따라서 최 우선순위의 카테고리의 제품 이미지를 상기 베이스 이미지로 결정하는 단계를 포함한다.
또한, 상기 제 1 포즈 형태의 가상 이미지를 생성하는 단계는, 상기 베이스 이미지와 상기 제 1 포즈 형태 정보를 기 학습된 딥러닝 뉴럴 네트워크에 입력하여, 상기 제 1 포즈 형태의 포즈 시맨틱 레벨 맵(Semantic Label Map)을 생성하는 단계를 더 포함한다.
또한, 상기 제 1 포즈 형태의 가상 이미지를 생성하는 단계는, 상기 베이스 이미지의 시맨틱 레벨 맵인 베이스 시맨틱 레벨 맵(Base Semantic Label Map)을 생성하는 단계를 더 포함한다.
또한, 상기 제 1 포즈 형태의 가상 이미지를 생성하는 단계는, 상기 포즈 시맨틱 레벨 맵 및 상기 베이스 이미지를 기 학습된 딥러닝 뉴럴 네트워크에 입력하여 출력으로 상기 가상 이미지를 생성하는 단계를 더 포함한다.
또한, 상기 제 1 포즈 형태의 가상 이미지를 생성하는 단계는, 상기 베이스 이미지 및 베이스 시맨틱 레벨 맵과 대응되도록 상기 제 1 포즈 형태 정보 및 포즈 시맨틱 레벨 맵을 딥러닝 뉴럴 네트워크에 입력하여 출력으로 상기 제 1 포즈 형태를 가지는 상기 가상 이미지를 생성하는 단계를 포함한다.
또한, 본 발명의 실시예에 따른 딥러닝 기반 가상 이미지 생성방법 및 시스템은, 적어도 하나의 프로세서; 및 상기 적어도 하나의 프로세서에 의해 실행되는 메모리 저장 명령을 저장하는 메모리를 포함하고, 상기 메모리 저장 명령은, 일 제품에 대한 복수의 제품 이미지를 획득하고, 상기 획득된 제품 이미지를 서로 다른 포즈(pose) 형태를 기준으로 구분된 복수의 카테고리로 분류하며, 상기 복수의 카테고리 중 가상 이미지를 생성할 타겟 카테고리를 결정하고, 상기 복수의 제품 이미지 중 적어도 하나의 제품 이미지를 기초로 상기 결정된 타겟 카테고리에 매칭된 제 1 포즈 형태의 가상 이미지를 생성하고, 상기 생성된 가상 이미지를 출력하는 명령어를 포함한다.
본 발명의 실시예에 따른 딥러닝 기반의 이미지 생성방법은, 일 제품에 대하여 존재하는 제품 이미지 외에 새롭게 요구되는 필요 제품 이미지가 있으면, 해당 필요 제품 이미지를 딥러닝에 기초하여 생성함으로써, 제품을 효과적으로 디스플레이하기 위해 보충되어야 하는 필요 제품 이미지를 별도의 촬영이나 작업 없이도 신속하고 편리하게 제공할 수 있는 효과가 있다.
또한, 본 발명의 실시예에 따른 딥러닝 기반의 이미지 생성방법은, 필요 제품 이미지를 딥러닝에 기반하여 제공함으로써, 쇼핑몰 상의 제품을 보다 정확하게 파악할 수 있도록 다양한 관점에서 구현되는 제품 이미지들을 손 쉽게 제공할 수 있고, 이를 통해 쇼핑몰 서비스의 전반적인 퀄리티를 향상시킴과 동시에 사용자 편의를 증진시킬 수 있는 효과가 있다.
또한, 본 발명의 실시예에 따른 딥러닝 기반의 이미지 생성방법은, 온라인 쇼핑몰에서 제공하는 일 제품에 대한 복수의 제품 이미지를 사용자 편의를 고려하여 자동으로 분류함으로써, 쇼핑몰에서 제품 이미지를 무작위로 나열하는 경우에 발생할 수 있는 불편함을 최소화할 수 있고, 제품 페이지 구축에 소모되는 비용을 절감할 수 있으며, 쇼핑몰 사용성의 향상 및 이에 따른 매출 증대의 효과를 구현할 수 있다.
다만, 본 발명에서 얻을 수 있는 효과는 이상에서 언급한 효과들로 제한되지 않으며, 언급하지 않은 또 다른 효과들은 아래의 기재로부터 명확하게 이해될 수 있다.
도 1은 본 발명의 실시예에 따른 딥러닝 기반 이미지 생성 시스템의 개념도이다.
도 2는 본 발명의 실시예에 따른 모바일 타입 컴퓨팅 디바이스의 내부 블록도이다.
도 3은 본 발명의 실시예에 따른 데스크탑 타입 컴퓨팅 디바이스의 내부 블록도이다.
도 4는 본 발명의 실시예에 따른 딥러닝 기반 가상 이미지 생성방법을 설명하기 위한 흐름도이다.
도 5는 본 발명의 실시예에 따른 이미지 딥러닝의 세그멘테이션(Segmentation) 기술을 설명하기 위한 도면이다.
도 6은 본 발명의 실시예에 따른 이미지 딥러닝의 인페인팅(Inpainting) 기술을 설명하기 위한 도면이다.
도 7은 본 발명의 실시예에 따른 가상 이미지를 생성하는 방법을 설명하기 위한 흐름도이다.
도 8 및 9는 본 발명의 실시예에 따른 가상 이미지를 생성하는 방법을 설명하기 위한 개념도이다.
도 10은 본 발명의 실시예에 따른 카테고리별 제품 이미지 정보를 나타내는 모습의 일례이다.
도 11은 본 발명의 실시예에 따른 시맨틱 레벨 맵 생성기를 기반으로 생성되는 시맨틱 레벨 맵을 설명하기 위한 도면이다.
도 2는 본 발명의 실시예에 따른 모바일 타입 컴퓨팅 디바이스의 내부 블록도이다.
도 3은 본 발명의 실시예에 따른 데스크탑 타입 컴퓨팅 디바이스의 내부 블록도이다.
도 4는 본 발명의 실시예에 따른 딥러닝 기반 가상 이미지 생성방법을 설명하기 위한 흐름도이다.
도 5는 본 발명의 실시예에 따른 이미지 딥러닝의 세그멘테이션(Segmentation) 기술을 설명하기 위한 도면이다.
도 6은 본 발명의 실시예에 따른 이미지 딥러닝의 인페인팅(Inpainting) 기술을 설명하기 위한 도면이다.
도 7은 본 발명의 실시예에 따른 가상 이미지를 생성하는 방법을 설명하기 위한 흐름도이다.
도 8 및 9는 본 발명의 실시예에 따른 가상 이미지를 생성하는 방법을 설명하기 위한 개념도이다.
도 10은 본 발명의 실시예에 따른 카테고리별 제품 이미지 정보를 나타내는 모습의 일례이다.
도 11은 본 발명의 실시예에 따른 시맨틱 레벨 맵 생성기를 기반으로 생성되는 시맨틱 레벨 맵을 설명하기 위한 도면이다.
본 발명은 다양한 변환을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시예들을 도면에 예시하고 상세한 설명에 상세하게 설명하고자 한다. 본 발명의 효과 및 특징, 그리고 그것들을 달성하는 방법은 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라 다양한 형태로 구현될 수 있다. 이하의 실시예에서, 제1, 제2 등의 용어는 한정적인 의미가 아니라 하나의 구성 요소를 다른 구성 요소와 구별하는 목적으로 사용되었다. 또한, 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 또한, 포함하다 또는 가지다 등의 용어는 명세서상에 기재된 특징, 또는 구성요소가 존재함을 의미하는 것이고, 하나 이상의 다른 특징들 또는 구성요소가 부가될 가능성을 미리 배제하는 것은 아니다. 또한, 도면에서는 설명의 편의를 위하여 구성 요소들이 그 크기가 과장 또는 축소될 수 있다. 예컨대, 도면에서 나타난 각 구성의 크기 및 두께는 설명의 편의를 위해 임의로 나타내었으므로, 본 발명이 반드시 도시된 바에 한정되지 않는다.
이하, 첨부된 도면을 참조하여 본 발명의 실시예들을 상세히 설명하기로 하며, 도면을 참조하여 설명할 때 동일하거나 대응하는 구성 요소는 동일한 도면부호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다.
도 1은 본 발명의 실시예에 따른 딥러닝 기반 이미지 생성 시스템의 개념도이다.
도 1을 참조하면, 본 발명의 실시예에 따른 딥러닝 기반의 이미지 생성 시스템은, 컴퓨팅 디바이스(100), 이미지 관리서버(400), 쇼핑몰 서버(500) 및 네트워크(600)를 포함할 수 있다.
실시예에서, 컴퓨팅 디바이스(100), 이미지 관리서버(400), 쇼핑몰 서버(500) 및 네트워크(600)는, 상호 연동하여 온라인 쇼핑몰에서 제공하는 일 제품에 대한 복수의 제품 이미지를 사용자 편의를 고려하여 분류할 수 있고, 여기서 요구되는 필요 제품 이미지를 딥러닝에 기반하여 생성할 수 있는 이미지 어플리케이션을 구현할 수 있다.
또한, 실시예에서 컴퓨팅 디바이스(100), 이미지 관리서버(400), 쇼핑몰 서버(500) 및 네트워크(600)는, 상기 이미지 어플리케이션을 통해 생성된 결과물을 온/오프라인으로 사용자에게 제공할 수 있다.
자세히, 본 발명의 실시예에서 이미지 어플리케이션은, 온라인 쇼핑몰에 접속하여 복수의 제품 이미지를 획득할 수 있다.
여기서, 실시예에 따른 제품 이미지란, 온라인 쇼핑몰 서비스에서 제공되는 제품을 디스플레이하기 위하여 해당하는 제품을 포함하여 촬영한 이미지일 수 있다.
또한, 이미지 어플리케이션은, 획득된 제품 이미지를 복수의 카테고리(category) 별로 분류할 수 있다.
이때, 실시예에서 카테고리란, 제품 이미지 내 제품과 관련된 포즈 형태 및/또는 제품 정보를 기반으로 상기 제품 이미지가 분류되는 카테고리일 수 있다. 자세한 설명은 후술하기로 한다.
또한, 실시예에서 이미지 어플리케이션은, 복수의 카테고리 중 추가적인 제품 이미지가 필요하다고 판단되는 카테고리인 타겟 카테고리(target category)를 검출할 수 있다.
또한, 타겟 카테고리가 검출되는 경우 이미지 어플리케이션은, 온라인 쇼핑몰에 접속하여 획득한 제품 이미지에 기반하여, 타겟 카테고리에 매칭되는 포즈 형태를 가지는 가상 이미지를 생성할 수 있다.
여기서, 실시예에 따른 가상 이미지란, 기존에 존재하는 제품 이미지를 기반으로 딥러닝 이미지 처리를 수행하여 새로운 포즈 형태를 가지도록 생성된 제품 이미지일 수 있다.
본 발명의 실시예에 따른 가상 이미지를 생성하는 방법에 대한 자세한 설명은 이하에서 기술되는 딥러닝 기반 가상 이미지 생성방법에서 후술하기로 한다.
또한, 가상 이미지를 생성한 이미지 어플리케이션은, 생성된 가상 이미지를 매칭되는 카테고리로 분류할 수 있다.
또한, 실시예에서 이미지 어플리케이션은, 생성된 가상 이미지를 포함하여 분류된 제품 이미지들을 재구성하여 카테고리별 제품 이미지 정보를 제공할 수 있다.
여기서, 카테고리별 제품 이미지 정보란, 온라인 쇼핑몰 상에서 무작위로 나열된 다양한 제품 이미지를 사용자의 편의에 맞게 분류하고 재구성하여 나타내는 정보일 수 있다.
이때, 실시예에 따른 이미지 어플리케이션은, 상기 카테고리별 제품 이미지 정보를 온라인 또는 오프라인을 통해 사용자에게 제공할 수 있다.
한편, 도 1의 컴퓨팅 디바이스(100), 이미지 관리서버(400) 및 쇼핑몰 서버(500)는, 네트워크(600)를 통하여 연결될 수 있다.
여기서, 네트워크(600)는, 컴퓨팅 디바이스(100), 이미지 관리서버(400) 및 쇼핑몰 서버(500) 등과 같은 각각의 노드 상호 간에 정보 교환이 가능한 연결 구조를 의미하는 것으로, 이러한 네트워크(600)의 일 예에는 3GPP(3rd Generation Partnership Project) 네트워크, LTE(Long Term Evolution) 네트워크, WIMAX(World Interoperability for Microwave Access) 네트워크, 인터넷(Internet), LAN(Local Area Network), Wireless LAN(Wireless Local Area Network), WAN(Wide Area Network), PAN(Personal Area Network), 블루투스(Bluetooth) 네트워크, 위성 방송 네트워크, 아날로그 방송 네트워크, DMB(Digital Multimedia Broadcasting) 네트워크 등이 포함되나 이에 한정되지는 않는다.
- 컴퓨팅 디바이스
본 발명의 실시예에서 컴퓨팅 디바이스(100)는, 온라인 쇼핑몰 서비스를 이용하기 위한 환경을 제공하며, 이러한 온라인 쇼핑몰 서비스 환경 내에서 일 제품에 대한 복수의 제품 이미지를 분류하고, 여기서 요구되는 필요 제품 이미지를 딥러닝을 기반으로 생성할 수 있는 이미지 어플리케이션을 실행할 수 있다.
또한, 실시예에 따른 컴퓨팅 디바이스(100)는, 생성된 카테고리별 제품 이미지 정보를 디스플레이할 수 있고, 상기 디스플레이된 카테고리별 제품 이미지 정보를 활용할 수 있는 인터페이스를 제공할 수도 있다.
실시예에서, 이와 같은 컴퓨팅 디바이스(100)는, 이미지 어플리케이션이 설치된 다양한 타입(예컨대, 모바일 타입 또는 데스크탑 타입)의 컴퓨팅 디바이스(100)를 포함할 수 있다.
1. 모바일 타입 컴퓨팅 디바이스
본 발명의 실시예에서 모바일 타입 컴퓨팅 디바이스(200)는, 이미지 어플리케이션이 설치된 스마트 폰이나 테블릿 PC와 같은 모바일 장치일 수 있다.
예를 들어, 모바일 타입 컴퓨팅 디바이스(200)는, 스마트 폰(smart phone), 휴대폰, 디지털방송용 단말기, PDA(personal digital assistants), PMP(portable multimedia player), 태블릿 PC(tablet PC) 등이 포함될 수 있다.
도 2는 본 발명의 실시예에 따른 모바일 타입 컴퓨팅 디바이스(200)의 내부 블록도이다.
도 2를 참조하면, 예시적인 구현에 따른 모바일 타입 컴퓨팅 디바이스(200)는, 메모리(210), 프로세서 어셈블리(220), 통신 모듈(230), 인터페이스 모듈(240), 입력 시스템(250), 센서 시스템(260) 및 디스플레이 시스템(270)을 포함할 수 있다. 이러한 구성요소들은 모바일 타입 컴퓨팅 디바이스(200)의 하우징 내에 포함되도록 구성될 수 있다.
자세히, 메모리(210)에는, 이미지 어플리케이션(211)이 저장되며, 이미지 어플리케이션(211)에는 딥러닝 기반의 이미지 생성 서비스를 구현할 수 있는 환경을 제공하기 위한 각종 응용 프로그램, 데이터 및 명령어 중 어느 하나 이상을 저장할 수 있다.
예를 들면, 메모리(210)는, 제품 이미지 정보, 제품 정보, 카테고리 정보, 가상 이미지 정보, 포즈 형태 정보 및/또는 카테고리별 제품 이미지 정보 등이 포함될 수 있다.
즉, 메모리(210)는 딥러닝 기반의 이미지 생성 서비스 환경을 생성하기 위해 사용될 수 있는 명령 및 데이터를 저장할 수 있다.
또한, 메모리(210)는, 적어도 하나 이상의 비일시적 컴퓨터 판독 가능 저장매체와, 일시적 컴퓨터 판독 가능 저장매체를 포함할 수 있다. 예를 들어, 메모리(210)는, ROM, EPROM, 플래시 드라이브, 하드 드라이브 등과 같은 다양한 저장기기일 수 있고, 인터넷(internet)상에서 상기 메모리(210)의 저장 기능을 수행하는 웹 스토리지(web storage)를 포함할 수 있다.
프로세서 어셈블리(220)는, 딥러닝 기반의 이미지 생성 서비스 환경을 구현하기 위한 다양한 작업을 수행하기 위해, 메모리(210)에 저장된 이미지 어플리케이션(211)의 명령들을 실행할 수 있는 적어도 하나 이상의 프로세서를 포함할 수 있다.
실시예에서 프로세서 어셈블리(220)는, 딥러닝 기반의 이미지 생성 서비스를 제공하기 위하여 메모리(210)의 이미지 어플리케이션(211)을 통해 구성요소의 전반적인 동작을 컨트롤할 수 있다.
이러한 프로세서 어셈블리(220)는, 중앙처리장치(CPU) 및/또는 그래픽 프로세서 장치(GPU)를 포함할 수 있다. 또한, 프로세서 어셈블리(220)는, ASICs (application specific integrated circuits), DSPs(digital signal processors), DSPDs(digital signal processing devices), PLDs(programmable logic devices), FPGAs(field programmable gate arrays), 제어기(controllers), 마이크로 컨트롤러(micro-controllers), 마이크로 프로세스(microprocessors), 기타 기능 수행을 위한 전기적 유닛 중 적어도 하나를 포함하여 구현될 수 있다.
통신 모듈(230)은, 다른 컴퓨팅 장치(예컨대, 이미지 관리서버(400))와 통신하기 위한 하나 이상의 장치를 포함할 수 있다. 이러한 통신 모듈(230)은, 무선 네트워크를 통해 통신할 수 있다.
자세히, 통신 모듈(230)은, 딥러닝 기반의 이미지 생성 서비스 환경을 구현하기 위한 컨텐츠 소스를 저장한 컴퓨팅 장치와 통신할 수 있으며, 사용자 입력을 받은 컨트롤러와 같은 다양한 사용자 입력 컴포넌트와 통신할 수 있다.
실시예에서 통신 모듈(230)은, 딥러닝 기반의 이미지 생성 서비스와 관련된 각종 데이터를 이미지 관리서버(400), 쇼핑몰 서버(500) 및/또는 다른 컴퓨팅 디바이스(100)와 송수신할 수 있다.
이러한 통신 모듈(230)은, 이동통신을 위한 기술표준들 또는 통신방식(예를 들어, LTE(Long Term Evolution), LTE-A(Long Term Evolution-Advanced),5G NR(New Radio), WIFI) 또는 근거리 통신방식 등을 수행할 수 있는 통신장치를 통해 구축된 이동 통신망 상에서 기지국, 외부의 단말, 임의의 서버 중 적어도 하나와 무선으로 데이터를 송수신할 수 있다.
센서 시스템(260)은, 이미지 센서(261), 위치 센서(IMU, 263), 오디오 센서, 거리 센서, 근접 센서, 접촉 센서 등 다양한 센서를 포함할 수 있다.
이미지 센서(261)는, 모바일 타입 컴퓨팅 디바이스(200) 주위의 물리적 공간에 대한 이미지 및/또는 영상을 캡처할 수 있다.
실시예에서 이미지 센서(261)는, 딥러닝 기반의 이미지 생성 서비스에 관련된 영상(예컨대, QR 코드 등)을 촬영하여 획득할 수 있다.
또한, 이미지 센서(261)는, 모바일 타입 컴퓨팅 디바이스(200)의 전면 또는/및 후면에 배치되어 배치된 방향측을 촬영하여 영상을 획득할 수 있으며, 모바일 타입 컴퓨팅 디바이스(200)의 외부를 향해 배치된 카메라를 통해 물리적 공간을 촬영할 수 있다.
이러한 이미지 센서(261)는, 이미지 센서장치와 영상 처리 모듈을 포함할 수 있다. 자세히, 이미지 센서(261)는, 이미지 센서장치(예를 들면, CMOS 또는 CCD)에 의해 얻어지는 정지영상 또는 동영상을 처리할 수 있다.
또한, 이미지 센서(261)는, 영상 처리 모듈을 이용하여 이미지 센서장치를 통해 획득된 정지영상 또는 동영상을 가공해 필요한 정보를 추출하고, 추출된 정보를 프로세서에 전달할 수 있다.
이러한 이미지 센서(261)는, 적어도 하나 이상의 카메라를 포함하는 카메라 어셈블리일 수 있다. 카메라 어셈블리는, 가시광선 대역을 촬영하는 일반 카메라를 포함할 수 있으며, 적외선 카메라, 스테레오 카메라 등의 특수 카메라를 더 포함할 수 있다.
IMU(263)는 모바일 타입 컴퓨팅 디바이스(200)의 움직임 및 가속도 중 적어도 하나 이상을 감지할 수 있다. 예를 들어, 가속도계, 자이로스코프, 자력계와 같은 다양한 위치 센서의 조합으로 이루어 질 수 있다. 또한, 통신 모듈(230)의 GPS와 같은 위치 통신 모듈(230)과 연동하여, 모바일 타입 컴퓨팅 디바이스(200) 주변의 물리적 공간에 대한 공간 정보를 인식할 수 있다.
또한, IMU(263)는, 검출된 위치 및 방향을 기초로 사용자의 시선 방향 및 머리 움직임을 검출 및 추적하는 정보를 검출할 수 있다.
또한, 일부 구현들에서, 이미지 어플리케이션(211)은 이러한 IMU(263) 및 이미지 센서(261)를 사용하여 물리적 공간 내의 사용자의 위치 및 방향을 결정하거나 물리적 공간 내의 특징 또는 객체를 인식할 수 있다.
오디오 센서(265)는, 모바일 타입 컴퓨팅 디바이스(200) 주변의 소리를 인식할 수 있다.
자세히, 오디오 센서(265)는, 모바일 타입 컴퓨팅 디바이스(200) 사용자의 음성 입력을 감지할 수 있는 마이크로폰을 포함할 수 있다.
실시예에서 오디오 센서(265)는, 딥러닝 기반의 이미지 생성 서비스를 위해 필요한 음성 데이터를 사용자로부터 입력 받을 수 있다.
인터페이스 모듈(240)은, 모바일 타입 컴퓨팅 디바이스(200)를 하나 이상의 다른 장치와 통신 가능하게 연결할 수 있다. 자세히, 인터페이스 모듈(240)은, 하나 이상의 상이한 통신 프로토콜과 호환되는 유선 및/또는 무선 통신 장치를 포함할 수 있다.
이러한 인터페이스 모듈(240)을 통해 모바일 타입 컴퓨팅 디바이스(200)는, 여러 입출력 장치들과 연결될 수 있다.
예를 들어, 인터페이스 모듈(240)은, 헤드셋 포트나 스피커와 같은 오디오 출력장치와 연결되어, 오디오를 출력할 수 있다.
예시적으로 오디오 출력장치가 인터페이스 모듈(240)을 통해 연결되는 것으로 설명하였으나, 모바일 타입 컴퓨팅 디바이스(200) 내부에 설치되는 실시예도 포함될 수 있다.
이러한 인터페이스 모듈(240)은, 유/무선 헤드셋 포트(port), 외부 충전기 포트(port), 유/무선 데이터 포트(port), 메모리 카드(memory card) 포트, 식별 모듈이 구비된 장치를 연결하는 포트(port), 오디오 I/O(Input/Output) 포트(port), 비디오 I/O(Input/Output) 포트(port), 이어폰 포트(port), 전력 증폭기, RF 회로, 송수신기 및 기타 통신 회로 중 적어도 하나를 포함하여 구성될 수 있다.
입력 시스템(250)은 딥러닝 기반의 이미지 생성 서비스와 관련된 사용자의 입력(예를 들어, 제스처, 음성 명령, 버튼의 작동 또는 다른 유형의 입력)을 감지할 수 있다.
자세히, 입력 시스템(250)은 버튼, 터치 센서 및 사용자 모션 입력을 수신하는 이미지 센서(261)를 포함할 수 있다.
또한, 입력 시스템(250)은, 인터페이스 모듈(240)을 통해 외부 컨트롤러와 연결되어, 사용자의 입력을 수신할 수 있다.
디스플레이 시스템(270)은, 딥러닝 기반의 이미지 생성 서비스와 관련된 다양한 정보를 그래픽 이미지로 출력할 수 있다.
이러한 디스플레이는, 액정 디스플레이(liquid crystal display, LCD), 박막 트랜지스터 액정 디스플레이(thin film transistor-liquid crystal display, TFT LCD), 유기 발광 다이오드(organic light-emitting diode, OLED), 플렉서블 디스플레이(flexible display), 3차원 디스플레이(3D display), 전자잉크 디스플레이(e-ink display) 중에서 적어도 하나를 포함할 수 있다.
이러한 모바일 타입 컴퓨팅 디바이스(200)의 하우징 내에는 상기 구성요소들이 배치될 수 있으며, 사용자 인터페이스는 사용자 터치 입력을 수신하도록 구성된 디스플레이(271) 상에 터치 센서(273)를 포함할 수 있다.
자세히, 디스플레이 시스템(270)은, 이미지를 출력하는 디스플레이(271)와, 사용자의 터치 입력을 감지하는 터치 센서(273)를 포함할 수 있다.
예시적으로 디스플레이(271)는 터치 센서(273)와 상호 레이어 구조를 이루거나 일체형으로 형성됨으로써, 터치 스크린으로 구현될 수 있다. 이러한 터치 스크린은, 모바일 타입 컴퓨팅 디바이스(200)와 사용자 사이의 입력 인터페이스를 제공하는 사용자 입력부로써 기능함과 동시에, 모바일 타입 컴퓨팅 디바이스(200)와 사용자 사이의 출력 인터페이스를 제공할 수 있다.
2. 데스크탑 타입 컴퓨팅 디바이스
도 3은 본 발명의 실시예에 따른 데스크탑 타입 컴퓨팅 디바이스(300)의 내부 블록도이다.
데스크탑 타입 컴퓨팅 디바이스(300)의 상기 구성요소에 대한 설명 중 중복되는 내용은 모바일 타입 컴퓨팅 디바이스(200)의 구성요소에 대한 설명으로 대체하기로 하며, 이하에서는 모바일 타입 컴퓨팅 디바이스(200)와의 차이점을 중심으로 설명한다.
도 3을 참조하면, 다른 예시에서 데스크탑 타입 컴퓨팅 디바이스(300)는, 이미지 어플리케이션(311)이 설치된 고정형 데스크탑 PC, 노트북 컴퓨터(laptop computer), 울트라북(ultrabook)과 같은 퍼스널 컴퓨터 등과 같이 유/무선 통신을 기반으로 딥러닝 기반의 이미지 생성 서비스를 실행하기 위한 프로그램이 설치된 장치를 더 포함할 수 있다.
또한, 데스크탑 타입 컴퓨팅 디바이스(300)는, 유저 인터페이스 시스템(350)을 포함하여, 사용자 입력(예컨대, 터치 입력, 마우스 입력, 키보드 입력, 제스처 입력, 가이드 도구를 이용한 모션 입력 등)을 수신할 수 있다.
예시적으로, 데스크탑 타입 컴퓨팅 디바이스(300)는, 유저 인터페이스 시스템(350)을 다양한 통신 프로토콜로 마우스(351), 키보드(352), 제스처 입력 컨트롤러, 이미지 센서(361)(예컨대, 카메라) 및 오디오 센서(365) 등 적어도 하나의 장치와 연결되어, 사용자 입력을 획득할 수 있다.
또한, 데스크탑 타입 컴퓨팅 디바이스(300)는, 유저 인터페이스 시스템(350)을 통해 외부 출력 장치와 연결될 수 있으며, 예컨대, 디스플레이 장치(370), 오디오 출력 장치 등에 연결될 수 있다.
또한, 예시적인 구현에 따른 데스크탑 타입 컴퓨팅 디바이스(300)는, 메모리(310), 프로세서 어셈블리(320), 통신 모듈(330), 유저 인터페이스 시스템(350) 및 입력 시스템(340)을 포함할 수 있다. 이러한 구성요소들은 컴퓨팅 디바이스(300)의 하우징 내에 포함되도록 구성될 수 있다.
데스크탑 타입 컴퓨팅 디바이스(300)의 상기 구성요소에 대한 설명은 모바일 타입 컴퓨팅 디바이스(200)의 구성요소에 대한 설명으로 대체하기로 한다.
다만, 본 발명의 실시예에서 도 2 및 3에 도시된 구성요소들은, 컴퓨팅 디바이스(100)를 구현하는데 있어 필수적인 것은 아니어서, 본 명세서 상에서 설명되는 컴퓨팅 디바이스(100)는 위에서 열거된 구성요소들 보다 많거나, 또는 적은 구성요소들을 가질 수 있다.
- 이미지 관리서버
한편, 본 발명의 실시예에서 이미지 관리서버(400)는, 딥러닝 기반의 이미지 생성 서비스를 제공하기 위한 일련의 프로세스를 수행할 수 있다.
자세히, 이미지 관리서버(400)는, 온라인 쇼핑몰에서 제공되는 제품에 대한 제품 이미지를 기반으로 이미지 딥러닝(Image Deep-learning)을 수행할 수 있다.
또한, 이미지 관리서버(400)는, 이미지 딥러닝에 기반하여 일 제품에 대한 복수의 제품 이미지를 카테고리별로 자동 분류할 수 있다.
또한, 실시예에서 이미지 관리서버(400)는, 이미지 딥러닝을 기초로 일 제품에 대한 복수의 제품 이미지를 분류할 시 요구되는 필요 제품 이미지를 생성할 수 있다.
또한, 이미지 관리서버(400)는, 딥러닝 기반의 이미지 생성 서비스를 구현하기 위한 각종 응용 프로그램, 데이터 및 명령어 중 어느 하나 이상을 저장할 수 있다.
보다 상세히, 도 1을 더 참조하면, 위와 같은 이미지 관리서버(400)는, 딥러닝 서버(410), 이미지 자동분류 서버(420), 이미지 생성서버(430) 및 데이터베이스 서버(440)를 포함할 수 있다. 이때, 이때, 실시예에 따라서 상기 각 구성요소는, 이미지 관리서버(400)와는 별도의 장치로서 구현될 수도 있고, 이미지 관리서버(400)에 포함되어 구현될 수도 있다. 이하, 각 구성요소가 이미지 관리서버(400)에 포함되어 구현되는 것으로 설명하나 이에 한정되는 것은 아니다.
자세히, 딥러닝 서버(410)는, 이미지 딥러닝 뉴럴 네트워크(Image Deep-learning Neural Network)와 연동할 수 있다.
여기서, 이미지 딥러닝 뉴럴 네트워크는, 컨볼루션 뉴럴 네트워크(CNN, Convolution Neural Network, 예컨대, 유-넷 컨볼루션 뉴럴 네트워크(U-net Convolution Neural Network)), 및 Mask R-CNN 중 적어도 하나의 딥러닝 뉴럴 네트워크를 포함할 수 있다.
그리고 이미지 딥러닝 뉴럴 네트워크와 연동한 딥러닝 서버(410)는, 이미지 세그멘테이션(segmentation), 인페인팅(inpainting) 및/또는 합성(composite) 등 이미지 처리 기술을 구현할 수 있다. 이에 대한 자세한 설명은 후술하기로 한다.
실시예에서, 딥러닝 서버(410)는, 위와 같은 이미지 딥러닝을 통하여 제품 이미지에 기반한 제품 정보, 포즈 형태 및/또는 가상 이미지 등을 출력할 수 있고, 출력된 정보를 컴퓨팅 디바이스 및/또는 타 서버(실시예로, 이미지 자동분류 서버(420) 및/또는 이미지 생성서버(430) 등)로 제공할 수 있다.
또한, 이미지 자동분류 서버(420)는, 딥러닝 서버(410)와 연동하여 온라인 쇼핑몰의 다양한 제품 이미지를 사용자의 편의에 맞게 자동분류할 수 있다.
더하여, 이미지 자동분류 서버(420)는, 상기 자동분류한 제품 이미지를 쇼핑몰 상에서 용이하게 구분하여 확인할 수 있도록 재구성한 정보인 카테고리별 제품 이미지 정보를 생성할 수도 있다.
또한, 이미지 생성서버(430)는, 딥러닝 서버(410)와 연동하여 기존에 존재하는 제품 이미지에 기반한 이미지 딥러닝 처리를 수행할 수 있고, 이를 통해 상기 제품 이미지와는 다른 형태의 새로운 포즈를 가지는 제품 이미지인 가상 이미지를 생성할 수 있다.
실시예에서, 이와 같은 이미지 생성서버(430)는, 시맨틱 레벨 맵(Semantic Label Map) 생성기를 포함할 수 있다.
여기서, 시맨틱 레벨 맵 생성기는, 입력된 이미지 내의 영역을 피사체(모델 및/또는 마네킹)의 신체 부위 및 제품을 포함하는 영역과, 그 외 영역으로 구분하는 맵 이미지 생성 모듈일 수 있다.
도 11을 참조하면, 실시예에서 시맨틱 레벨 맵 생성기는, 입력된 이미지 내의 영역을 신체 영역(예컨대, 얼굴 영역(눈 영역, 코 영역, 귀 영역 및/또는 목 영역 포함), 어깨 영역, 팔꿈치 영역, 손목 영역, 힙(hip) 영역, 무릎 영역 및/또는 발목 영역 등) 및 제품 영역을 포함하는 영역과, 그 외 영역을 포함하는 복수의 영역으로 구분하는 맵 이미지를 생성하는 모듈일 수 있다.
또한, 이미지 생성서버(430)는, 생성된 가상 이미지를 컴퓨팅 디바이스 및/또는 타 서버(실시예로, 이미지 자동분류 서버(420))로 제공하여, 상기 가상 이미지에 매칭되는 카테고리로 분류되게 할 수 있다.
또한, 데이터베이스 서버(440)는, 딥러닝 기반의 이미지 생성 서비스를 구현하기 위한 각종 응용 프로그램, 어플리케이션, 명령어 및/또는 데이터 등을 저장하고 관리할 수 있다.
실시예에서, 데이터베이스 서버(440)는, 제품 이미지 정보, 제품 정보, 카테고리 정보, 가상 이미지 정보, 포즈 형태 정보 및/또는 카테고리별 제품 이미지 정보 등을 저장 및 관리할 수 있다.
한편, 위와 같은 구성요소들을 포함하는 이미지 관리서버(400)는, 적어도 하나 이상의 딥러닝 서버(410), 이미지 자동분류 서버(420), 이미지 생성서버(430) 및/또는 데이터베이스 서버(440)로 구성될 수 있으며, 데이터 처리를 위한 프로세서들과, 딥러닝 기반의 이미지 생성 서비스 제공을 위한 명령어들을 저장하는 메모리들을 포함할 수 있다.
또한, 본 발명의 실시예에서는, 이미지 관리서버(400)에서 온라인 쇼핑몰에서 제공되는 제품에 대한 제품 이미지를 기반으로 이미지 딥러닝(Image Deep-learning)을 수행하고, 이미지 딥러닝에 기반하여 일 제품에 대한 복수의 제품 이미지를 카테고리별로 자동 분류하며, 이미지 딥러닝을 기초로 일 제품에 대한 복수의 제품 이미지를 분류할 시 요구되는 필요 제품 이미지를 생성하고, 딥러닝 기반의 이미지 생성 서비스를 구현하기 위한 각종 응용 프로그램, 데이터 및 명령어 중 어느 하나 이상을 저장할 수 있다고 설명하였으나, 실시예에 따라서 이미지 관리서버(400)가 수행하는 기능 동작의 일부를 컴퓨팅 디바이스에서 수행할 수도 있는 등 다양한 실시예 또한 가능함이 자명할 것이다.
- 쇼핑몰 서버
또한, 본 발명의 실시예에서 쇼핑몰 서버(500)는, 온라인 쇼핑몰 서비스(Online shopping-mall service)를 제공하기 위한 일련의 프로세스를 수행할 수 있다.
자세히, 실시예에서 쇼핑몰 서버(500)는, 네트워크(600)를 통하여 제품을 주문하고 판매할 수 있는 전자상거래 온라인 쇼핑몰 서비스를 실행하기 위한 환경을 컴퓨팅 디바이스(100)로 제공할 수 있다.
또한, 쇼핑몰 서버(500)는, 딥러닝 기반의 이미지 생성 서비스에 필요한 각종 데이터를 송수신할 수 있다.
실시예로, 쇼핑몰 서버(500)는, 온라인 쇼핑몰 상의 복수의 제품 이미지를 컴퓨팅 디바이스(100) 및/또는 이미지 관리서버(400)로 송신할 수 있고, 컴퓨팅 디바이스(100) 및/또는 이미지 관리서버(400)로부터 생성되는 카테고리별 제품 이미지 정보를 수신할 수 있다.
또한, 쇼핑몰 서버(500)는, 온라인 쇼핑몰 서비스와 관련된 기능 동작에 필요한 응용 프로그램, 데이터 및 명령어 중 어느 하나 이상을 저장할 수 있다.
실시예로, 쇼핑몰 서버(500)는, 온라인 쇼핑몰 상의 제품 이미지 및/또는 제품 정보 등을 저장하여 관리할 수 있다.
보다 상세히, 위와 같은 쇼핑몰 서버(500)는, 쇼핑몰 서비스 제공서버, 제품관리 서버 및 데이터저장 서버를 포함할 수 있다.
여기서, 쇼핑몰 서비스 제공서버는, 컴퓨팅 디바이스에서 온라인 쇼핑몰 서비스가 동작할 수 있는 환경을 제공할 수 있다.
즉, 쇼핑몰 서비스 제공서버는, 컴퓨팅 디바이스에서 인터넷(Internet) 등을 이용하여 상품을 매매할 수 있는 가상의 상점인 온라인 쇼핑몰을 제공하는 온라인 쇼핑몰 서비스를 구현할 수 있는 환경을 제공할 수 있다.
실시예에서, 이러한 쇼핑몰 서비스 제공서버는, 온라인 쇼핑몰 서비스와 관련하여 제공되는 서비스를 구현할 수 있는 각종 응용 프로그램, 데이터 및/또는 명령어 등을 포함할 수 있다.
또한, 제품관리 서버는, 온라인 쇼핑몰 서비스에 기반하여 제공되는 적어도 하나 이상의 제품에 대한 관리 기능을 수행할 수 있다.
실시예에서, 제품관리 서버는, 제품별 제품명, 제품 이미지, 제품 가격 및/또는 잔여 수량 등을 관리할 수 있다.
또한, 데이터저장 서버는, 온라인 쇼핑몰 서비스를 구현하기 위한 각종 응용 프로그램, 어플리케이션, 명령어 및/또는 데이터 등을 저장하고 관리할 수 있다.
예를 들면, 데이터저장 서버는, 온라인 쇼핑몰 서비스를 이용하는 사용자별 개인 정보, 쇼핑 정보 및/또는 주문 정보 등을 각 사용자별 계정에 매칭하여 저장 및 관리할 수 있다.
위와 같은 구성요소들을 포함하는 쇼핑몰 서버(500)는, 적어도 하나 이상의 쇼핑몰 서비스 제공서버, 제품관리 서버 및/또는 데이터저장 서버로 구성될 수 있으며, 데이터 처리를 위한 프로세서들과, 온라인 쇼핑몰 서비스 제공을 위한 명령어들을 저장하는 메모리들을 포함할 수 있다.
- 딥러닝 기반 가상 이미지 생성방법
이하, 첨부된 도면을 참조하여 본 발명의 실시예에 따른 딥러닝 기반의 이미지 생성방법에 대해 상세히 설명하고자 한다.
도 4는 본 발명의 실시예에 따른 딥러닝 기반 가상 이미지 생성방법을 설명하기 위한 흐름도이다.
도 4를 참조하면, 본 발명의 실시예에 따른 컴퓨팅 디바이스(100)는, 복수의 제품 이미지를 사용자 편의를 고려하여 분류할 수 있고, 여기서 요구되는 필요 제품 이미지를 딥러닝에 기반하여 생성할 수 있는 이미지 어플리케이션을 실행할 수 있다.
그리고 실행된 이미지 어플리케이션은, 온라인 쇼핑몰에 접속하여 복수의 제품 이미지를 획득할 수 있다. (S101)
자세히, 이미지 어플리케이션은, 쇼핑몰 서버(500)에서 제공하는 온라인 쇼핑몰 서비스에 기반하여 온라인 쇼핑몰에 접속할 수 있다.
또한, 이미지 어플리케이션은, 접속한 온라인 쇼핑몰로부터 복수의 제품 이미지를 수신하여 획득할 수 있다.
예를 들어, 이미지 어플리케이션은, 접속한 온라인 쇼핑몰의 일 제품에 대한 판매 페이지에서 상기 페이지에 포함된 복수의 제품 이미지들을 크롤링하여, 일 제품에 대한 복수의 제품 이미지들을 자동으로 획득할 수 있다.
여기서, 실시예에 따른 제품 이미지란, 온라인 쇼핑몰 서비스에서 제공되는 제품을 디스플레이하기 위하여 해당하는 제품을 포함하여 촬영한 이미지일 수 있다.
실시예에서, 이미지 어플리케이션은, 추후 이미지 자동분류 서버(420)와의 연동을 통하여 위와 같은 제품 이미지를 카테고리 별로 분류할 수 있다.
자세히, 이미지 어플리케이션은, 카테고리 구분 기준에 따라서 순차적으로 제품 이미지가 어떤 카테고리에 속하는지 판단할 수 있다.
예를 들어, 이미지 어플리케이션은, 우선하여 제품 이미지를 제품샷과 포즈(pose)샷 중 어느 하나의 카테고리로 분류할 수 있다.
또한, 이미지 어플리케이션은, 다음으로 상기 분류된 포즈샷을 후면샷과 시점샷으로 분류할 수 있고, 상기 분류된 시점샷을 클로즈업(close-up)샷과 전신샷으로 분류할 수 있다.
또한, 이미지 어플리케이션은, 상기 분류된 전신샷을 스탠드(stand)샷과 기타포즈샷으로 분류할 수 있고, 상기 분류된 기타포즈샷을 측면샷, 시팅(sitting)샷 또는 라이(lie)샷 등으로 분류할 수 있다. 이에 대한 자세한 설명은 이하에서 후술하기로 한다.
이하, 실시예에서 이미지 어플리케이션이 일 제품에 대한 복수의 제품 이미지를 획득하여 후술되는 일련의 프로세스를 진행하는 것으로 한정하여 설명하나, 이에 제한되는 것은 아니다.
또한, 이하의 실시예에서는 이미지 어플리케이션이 복수의 제품 이미지 중 모델 또는 마네킹 등이 착용한 상태의 제품을 나타내는 포즈(pose)샷을 기반으로 후술되는 동작을 수행하는 것으로 설명하나, 이에 한정되는 것은 아니다.
다시 돌아와서, 또한 실시예에 따른 이미지 어플리케이션은, 획득된 제품 이미지를 기반으로 제품 이미지별 제품 정보를 획득할 수 있다.
여기서, 제품 정보란, 상의, 하의 및/또는 원피스 등과 같이 각 제품이 속한 속성 카테고리에 대한 정보일 수 있다.
자세히, 실시예에서 이미지 어플리케이션은, 이미지 관리서버(400)의 딥러닝 서버(410)와 연동하여 이미지 기반 제품군(예컨대, 상의, 하의 및/또는 원피스 등) 학습이 수행된 딥러닝 뉴럴 네트워크를 통해 각 제품 이미지별 딥러닝을 수행할 수 있고, 이를 통해 제품 이미지별 제품 정보를 출력으로 획득할 수 있다.
또한, 이미지 어플리케이션은, 획득된 제품 이미지를 복수의 카테고리(category) 별로 분류할 수 있다. (S103)
자세히, 이미지 어플리케이션은, 이미지 관리서버(400)의 이미지 자동분류 서버(420)와의 연동을 통하여, 복수의 제품 이미지 각각을 복수의 샷 카테고리 중 대응되는 카테고리로 분류할 수 있다.
여기서, 본 발명의 실시예에 따른 카테고리란, 제품 이미지 내 제품과 관련된 포즈 형태 및/또는 제품 정보를 기반으로 상기 제품 이미지가 분류되는 카테고리를 의미할 수 있다.
여기서, 실시예에 따른 포즈 형태란, 전신샷 또는 후면샷 등과 같은 특정 포즈의 형태를 의미하는 것으로, 제품 이미지 내 피사체(모델 또는 마네킹)의 신체 주요 키포인트(key-point)에 대한 좌표 정보일 수 있다.
실시예에서, 포즈 형태는, 제품 이미지 내 피사체의 얼굴 영역(눈 영역, 코 영역, 귀 영역 및/또는 목 영역 포함), 어깨 영역, 팔꿈치 영역, 손목 영역, 힙(hip) 영역, 무릎 영역 및/또는 발목 영역 등을 포함하는 신체 주요 키포인트에 대한 좌표 정보를 포함할 수 있다.
예를 들어, 이미지 어플리케이션은, 제품 이미지에 모델의 포즈 형태가 검출되었는지 여부를 토대로 제품샷 카테고리와 포즈샷 카테고리로 제품 이미지를 일차적으로 분류할 수 있다.
그리고 이미지 어플리케이션은, 포즈샷 카테고리로 분류된 제품 이미지를 포즈 형태에 따른 카테고리 별로 분류할 수 있다.
보다 상세히, 실시예에서 이미지 어플리케이션은, 이미지 자동분류 서버(420)와 연동해 제품 이미지에 기반한 딥러닝을 수행할 수 있고, 이를 통해 제품 이미지를 후면샷, 클로즈업(close-up)샷, 스탠드(stand)샷 및/또는 기타포즈샷 카테고리 중 어느 하나로 분류할 수 있다.
실시예로, 이미지 어플리케이션은, 획득된 복수의 제품 이미지(실시예에서, 복수의 포즈샷)을 분류하기 위하여 상기 제품 이미지 내 포즈 형태를 기준으로 이용할 수 있다.
이때, 이미지 어플리케이션은, 포즈 형태에 따라 제품의 후면을 나타내는 포즈 이미지(이하, 후면샷), 제품의 정면을 나타내는 포즈 이미지(이하, 시점샷), 제품이 클로즈업(Couse-up)된 포즈 이미지(이하, 클로즈업샷), 제품 착용 피사체(사람 또는 마네킹)의 전신을 나타내는 포즈 이미지(이하, 전신샷), 상기 피사체가 서있는 포즈 이미지(이하, 스탠드(Stand)샷) 및/또는 기타 포즈 이미지(이하, 기타포즈샷) 중 중 적어도 하나의 카테고리로 제품 이미지를 분류할 수 있다.
여기서, 이미지 어플리케이션은, 상기 포즈샷에서의 포즈 형태를 판단하기 위하여 이미지 딥러닝 기술 중 포즈샷인식기 알고리즘을 이용할 수 있다.
이때, 포즈샷인식기란, 룰 방식 및/또는 딥러닝 방식으로 제품 이미지에 속하는 피사체(사람 또는 마네킹)의 포즈의 형태를 판단하는 알고리즘으로서, 기설정된 규칙 및/또는 기준에 따라 포즈형태를 판단할 수 있다.
자세히, 포즈샷인식기는, 상기 제품 이미지를 1)후면샷 여부, 2)전신샷 여부 및 3)스탠드샷 여부 중 적어도 어느 하나 이상을 기준으로 하여 분류할 수 있다.
좀더 자세히, 포즈샷인식기는, 후면샷 여부, 전신샷 여부 및 스탠드샷 여부를 순차적으로 제품 이미지 분류에 적용하여, 먼저 후면샷 여부를 분류기준으로 후면샷을 분류할 수 있다.
그리고 포즈샷인식기는, 후면샷이 아닌 나머지 제품 이미지들에 전신샷 여부를 분류기준으로 적용하여 전신샷을 분류할 수 있다.
다음으로, 포즈샷인식기는, 전신샷에 대해 스탠스샷을 분류기준으로 적용하여 스탠드샷 및 기타포즈샷을 분류할 수 있다.
예를 들어, 이미지 어플리케이션은, 제 1 제품 이미지가 시점샷, 전신샷 및 스탠드샷이라고 판단된 경우, 상기 제 1 제품 이미지를 스탠드샷으로 분류할 수 있다.
또한, 이미지 어플리케이션은, 제 2 제품 이미지가 시점샷과 전신샷으로 판단되고 스탠드샷이 아니라고 판단된 경우, 상기 제 2 제품 이미지를 기타포즈샷으로 분류할 수 있다.
이와 같이, 이미지 어플리케이션은, 위와 같은 순서로 제품 이미지 내 포즈 형태에 기반한 이미지 분류를 수행함으로써, 제품 이미지에 대한 이미지 딥러닝 속도를 향상시키고 정확도 또한 높일 수 있는 효과가 있다.
이상에서는, 이미지 어플리케이션이 이미지 관리서버(400)와 연동하여 각 제품 이미지를 복수의 카테고리(category) 별로 분류한다고 설명하였으나, 다른 실시예에서는, 이미지 어플리케이션이 자체적으로 각 제품 이미지별 포즈 형태를 획득하고 복수의 카테고리 별로 분류할 수 있는 등 다양한 실시예가 가능할 수 있다.
이처럼, 본 발명의 실시예에서 이미지 어플리케이션은, 온라인 쇼핑몰에 무작위로 나열된 다양한 제품 이미지를 쇼핑몰 사용자의 편의에 최적화된 형태(예컨대, PC 버전 온라인 쇼핑몰의 이미지들이 모바일 컴퓨팅 디바이스(200)에 표시될 시, 모바일 버전 온라인 쇼핑몰에 적합한 형식으로 디스플레이될 수 있도록 제품 이미지들을 분류 등)로 자동 분류함으로써, 제품 페이지 구축에 소모되는 비용을 절감할 수 있고, 쇼핑몰 사용성의 향상 및 이에 따른 매출 증대의 효과를 구현할 수 있다.
또한, 본 발명의 실시예에서 이미지 어플리케이션은, 제품 이미지가 분류되는 복수의 카테고리 중 일부를 필요 카테고리로 설정할 수 있다.
여기서, 실시예에 따른 필요 카테고리란, 일 제품에 대한 효과적인 디스플레이를 위하여 필요하다고 기설정된 포즈 형태를 가지는 제품 이미지가 분류되는 카테고리일 수 있다.
즉, 이미지 어플리케이션은, 제품 이미지를 해당 제품 이미지 내 포즈 형태에 따라 구분한 복수의 카테고리 중 적어도 하나를 필요 카테고리로 결정할 수 있다.
이때, 이미지 어플리케이션은, 필요 카테고리를 사용자 입력에 기반하여 수동으로 기설정하거나, 또는 소정의 기준에 따라서 자동으로 기설정할 수 있다.
예를 들면, 이미지 어플리케이션은, 사용자 입력에 의해 소정의 빈도 수 이상으로 필요 카테고리로 선정된 카테고리를 제품 정보별로 취합할 수 있고, 취합된 정보를 기반으로 제품 정보별 중요도가 높은 중요 카테고리를 도출할 수 있다. 그리고 이미지 어플리케이션은, 도출된 제품 정보별 중요 카테고리를 기반으로 제 1 제품 이미지의 제품 정보에 따른 필요 카테고리를 자동으로 설정할 수 있다.
예컨대, 이미지 어플리케이션은, 제 1 제품의 제품 정보가 '원피스'를 나타내고, 원피스 제품 정보에 매칭되는 중요 카테고리가 후면샷, 클로즈업샷 및 스탠드샷 카테고리인 경우, 상기 제 1 제품에 대한 필요 카테고리를 후면샷, 클로즈업샷 및 스탠드샷 카테고리로 결정할 수 있다.
이와 같이, 본 발명의 실시예에서 이미지 어플리케이션은, 제품별 필요 카테고리를 설정 가능함으로써, 쇼핑몰에서 제공하는 제품 각각을 보다 명확하고 확실하게 디스플레이하기 위해 최적화된 제품 이미지를 선정하여 제공할 수 있다.
또한, 실시예에서 이미지 어플리케이션은, 추가 제품 이미지가 필요한 카테고리인 타겟 카테고리(target category)를 검출할 수 있다. (S105)
자세히, 이미지 어플리케이션은, 일 제품에 대한 적어도 하나 이상의 필요 카테고리 중, 추가적으로 제품 이미지가 필요하다고 판단되는 타겟 카테고리를 검출할 수 있다.
실시예로, 이미지 어플리케이션은, 복수의 필요 카테고리 중 제품 이미지가 분류되지 않은 빈 필요 카테고리를 검출할 수 있고, 검출된 빈 필요 카테고리를 타겟 카테고리로 결정할 수 있다.
즉, 이미지 어플리케이션은, 일 제품에 대하여 필요한 포즈 형태를 가지는 제품 이미지를 분류하는 필요 카테고리가 기설정되어 있으나, 해당 포즈 형태를 가지는 제품 이미지가 미존재하여 비어있는 빈 필요 카테고리를 자동으로 검출하여 타겟 카테고리로 결정할 수 있다.
예를 들면, 이미지 어플리케이션은, 제 1 제품에 대하여 기설정된 필요 카테고리가 후면샷, 클로즈업샷 및 스탠드샷 카테고리이고, 제 1 제품으로부터 획득된 복수의 제품 이미지가 후면샷, 및 클로즈업샷 카테고리로 각각 분류된 경우, 제 1 제품의 제품 이미지가 분류되지 않은 빈 필요 카테고리인 스탠드샷 카테고리를 자동으로 검출하여 타겟 카테고리로 결정할 수 있다.
다른 실시예로, 이미지 어플리케이션은, 필요 카테고리에 분류된 제품 이미지의 품질에 기반하여 타겟 카테고리를 결정할 수 있다.
즉, 이미지 어플리케이션은, 필요 카테고리에 제품 이미지가 분류되어 있으나, 분류된 제품 이미지가 소정의 품질 기준(예컨대, 카테고리 포즈 형태에 대한 제품 이미지 내 포즈 형태의 적합성 여부 등)을 충족하는지 여부에 따라서 타겟 카테고리를 결정할 수 있다.
또 다른 실시예로, 이미지 어플리케이션은, 사용자 입력에 따른 선택에 기반하여 타겟 카테고리를 결정할 수 있다.
자세히, 이미지 어플리케이션은, 추가 제품 이미지가 필요한 카테고리를 선택할 수 있는 사용자 인터페이스를 제공할 수 있다.
그리고 이미지 어플리케이션은, 제공된 인터페이스에 기반한 사용자 입력에 따라서 타겟 카테고리를 결정할 수 있다.
이처럼, 실시예에서 이미지 어플리케이션은, 쇼핑몰 상에 제품을 보다 효과적으로 디스플레이하기 위하여 필요하다고 판단되는 제품 이미지가 미존재하는 경우를 다양한 방식을 통해 판단함으로써, 추후 보다 퀄리티 높은 제품 디스플레이를 위해 필요한 이미지를 추가적으로 보충할 수 있다.
계속해서, 본 발명의 실시예에서 이미지 어플리케이션은, 타겟 카테고리가 검출되는 경우, 제품 이미지를 기반으로 타겟 카테고리에 매칭되는 포즈 형태를 가지는 가상 이미지를 생성할 수 있다. (S107)
여기서, 실시예에 따른 가상 이미지란, 기존에 존재하는 제품 이미지를 기반으로 딥러닝 이미지 처리를 수행하여 새로운 포즈 형태를 가지도록 생성된 제품 이미지일 수 있다.
자세히, 실시예에서 이미지 어플리케이션은, 이미지 관리서버(400)와 연동하여 제품 이미지에 기반한 이미지 딥러닝을 수행해 가상 이미지를 생성할 수 있다.
이때, 이미지 어플리케이션은, 이미지 세그멘테이션(segmentation), 이미지 인페인팅(inpainting) 및/또는 이미지 합성(composite) 등을 포함하는 이미지 처리 기술을 기반으로 가상 이미지를 생성할 수 있다.
참고적으로, 도 5를 참조하면, 이미지 세그멘테이션이란, 전체 이미지에서 객체영역을 분리하는 기술로서 전체 이미지에서 사물의 영역을 픽셀단위로 분류해 주는 기술을 의미할 수 있다.
또한, 도 6을 참조하면, 이미지 인페인팅이란, 전체 이미지에서 객체를 제외한 부분(즉, 이미지 내에서 지워진 영역)에 대한 이미지 복원을 수행하는 기술일 수 있다.
또한, 실시예에서 이미지 합성이란, 이미지 세그멘테이션 및/또는 인페인팅 등을 통해 생성된 이미지들을 합성하여 새로운 이미지를 구현해내는 기술을 의미할 수 있다.
다시 돌아와서, 예를 들면 이미지 어플리케이션은, 제 1 제품에 대한 타겟 카테고리로 스탠드샷 카테고리가 검출된 경우, 검출된 타겟 카테고리인 스탠드샷 카테고리에 매칭되는 포즈 형태를 가지는 제 1 제품에 대한 스탠드샷 이미지를, 제 1 제품의 제품 이미지에 기반한 이미지 딥러닝을 통해 가상 이미지로 생성할 수 있다.
본 발명의 실시예에서는, 이미지 어플리케이션이 이미지 관리서버(400)와 연동하여 제품 이미지를 기반으로 타겟 카테고리에 매칭되는 포즈 형태를 가지는 가상 이미지를 생성한다고 설명하나, 실시예에 따라서 이미지 어플리케이션이 자체적으로 제품 이미지에 기반한 가상 이미지를 생성할 수도 있는 등 다양한 실시예가 가능하다.
이와 같이, 이미지 어플리케이션은, 쇼핑몰에서 제공하는 제품을 효과적으로 디스플레이하기 위해 보충되어야 하는 이미지를 해당 제품의 제품 이미지를 이용한 딥러닝을 기초로 생성해 제공함으로써, 추가적으로 필요한 제품 이미지를 만들기 위한 별도의 촬영이나 작업 없이도 신속하고 편리하게 새로운 제품 이미지를 구현하여 제품 디스플레이를 보완할 수 있다.
이하, 첨부된 도면을 참조하여 이미지 어플리케이션이 제품 이미지를 기반으로 타겟 카테고리에 매칭되는 포즈 형태를 가지는 가상 이미지를 생성하는 방법에 대해 보다 상세히 설명하고자 한다.
도 7은 본 발명의 실시예에 따른 가상 이미지를 생성하는 방법을 설명하기 위한 흐름도이고, 도 8 및 9는 본 발명의 실시예에 따른 가상 이미지를 생성하는 방법을 설명하기 위한 개념도이다.
도 7 및 8을 참조하면, 실시예에서 이미지 어플리케이션은, 복수의 제품 이미지 중 가상 이미지 생성을 위해 이미지 처리를 수행할 베이스 이미지(10)를 결정할 수 있다. (S201)
자세히, 이미지 어플리케이션은, 복수의 제품 이미지 중에서, 해당하는 제품 및 모델에 대한 정보량이 상대적으로 최대인 제품 이미지를 베이스 이미지(10)로 선택할 수 있다.
보다 상세히, 실시예로 이미지 어플리케이션은, 기설정된 우선순위에 따라서 해당하는 제품 및 모델에 대한 정보량이 상대적으로 최대인 제품 이미지를 판단할 수 있고, 이를 통해 베이스 이미지(10)를 선정할 수 있다.
여기서, 이미지 어플리케이션은, 딥러닝 기반의 가상 이미지 생성 프로세스의 반복 수행을 통하여 학습된 데이터를 기반으로 베이스 이미지(10)를 자동 설정할 수 있다.
자세히, 이미지 어플리케이션은, 모델의 복수 신체 주요 키포인트(key-point)가 가장 많이 표시된 제품 이미지를 베이스 이미지(10)로 선정할 수 있다.
또한, 이미지 어플리케이션은, 베이스 이미지(10) 선정 우선순위를 사용자 입력을 기반으로 설정할 수 있다. 예를 들면, 이미지 어플리케이션은, 우선순위를 '스탠드샷>기타포즈샷>클로즈업샷>후면샷' 순으로 베이스 이미지(10)를 결정할 수 있다.
자세히, 이미지 어플리케이션은, 제 1 제품에 대한 복수의 제품 이미지가 스탠드샷, 클로즈업샷 및 후면샷을 포함하는 경우, 상기 우선순위에 따라서 제 1 제품의 가상 이미지 생성을 위해 사용될 베이스 이미지(10)를 스탠드샷 이미지로 결정할 수 있다.
그리고 이미지 어플리케이션은, 제 1 제품의 복수의 제품 이미지 중 기타포즈샷이 미존재하여 기타포즈샷 카테고리가 타겟 카테고리로 검출되는 경우, 상기 베이스 이미지(10)로 결정된 스탠드샷 이미지에 기반한 이미지 딥러닝을 통해 제 1 제품에 대한 기타포즈샷을 가상 이미지로 생성할 수 있다.
또한, 실시예에서 이미지 어플리케이션은, 우선순위 카테고리에 복수의 제품 이미지가 포함되어 있는 경우, 상기 우선순위 카테고리의 복수의 제품 이미지 중 해당 모델 또는/및 제품에 대한 정보를 가장 많이 가지고 있는 이미지를 검출하여 베이스 이미지(10)로 결정할 수 있다.
실시예로, 이미지 어플리케이션은, 사용자 입력 및/또는 딥러닝 기반의 가상 이미지 생성 프로세스의 반복 수행을 통하여 학습된 데이터를 기반으로 소정의 기준을 설정할 수 있고, 이를 기초로 우선순위 카테고리의 복수의 제품 이미지 중 해당 제품에 대한 정보를 가장 많이 가지고 있는 이미지를 검출하여 베이스 이미지(10)로 결정할 수 있다.
예를 들면, 이미지 어플리케이션은, 제 1 제품에 대한 우선순위 카테고리가 시점샷 카테고리이고 복수의 시점샷 이미지를 포함하는 경우, 각 시점샷 이미지 내 피사체(사람 또는 마네킹)의 풀바디(full body) 포함여부를 소정의 기준으로 설정할 수 있다.
그리고 이미지 어플리케이션은, 피사체의 풀바디 포함여부에 따라서 상기 복수의 시점샷 이미지 중 이미지 내 바디가 차지하는 면적이 큰 이미지일수록 제 1 제품에 대한 정보를 많이 가지고 있다고 판단할 수 있고, 이를 통해 베이스 이미지(10)를 결정할 수 있다.
다른 예에서, 이미지 어플리케이션은, 제 1 제품에 대한 우선순위 카테고리가 시점샷 카테고리이고 복수의 시점샷 이미지를 포함하는 경우, 각 시점샷 이미지 내 피사체 및/또는 제품에 대한 뷰 포인트의 정면 각도 레벨(정면 뷰 포인트에 가까운 정도를 나타내는 값)을 소정의 기준으로 설정할 수 있다.
그리고 이미지 어플리케이션은, 정면 각도 레벨을 기준으로 상기 복수의 시점샷 이미지 중 정면 뷰 포인트에 가까운 이미지일수록 제 1 제품에 대한 정보를 많이 가지고 있다고 판단할 수 있고, 이를 통해 베이스 이미지(10)를 결정할 수 있다.
이와 같이, 본 발명의 실시예에서 이미지 어플리케이션은, 일 제품에 대한 가상 이미지 생성 시 상기 제품에 대한 정보를 가장 많이 가지고 있는 제품 이미지를 기반으로 가상 이미지를 생성함으로써, 생성되는 가상 이미지의 정확성과 품질을 향상시킬 수 있다.
또한, 실시예에서 이미지 어플리케이션은, 가상 이미지에 적용될 타겟 포즈 형태(20)를 결정할 수 있다. (S203)
여기서, 실시예에 따른 타겟 포즈 형태(20)란, 가상 이미지에 적용할 포즈 형태 즉, 가상 이미지 내 피사체(모델 또는 마네킹)의 신체 주요 키포인트(key-point)에 대한 좌표 정보일 수 있다.
실시예로, 타겟 포즈 형태(20)는, 가상 이미지 내 피사체의 얼굴 영역(눈 영역, 코 영역, 귀 영역 및/또는 목 영역 포함), 어깨 영역, 팔꿈치 영역, 손목 영역, 힙(hip) 영역, 무릎 영역 및/또는 발목 영역 등을 포함하는 신체 주요 키포인트에 대한 좌표 정보를 포함할 수 있다.
이러한 타겟 포즈 형태(20)는, 포함하는 정보들에 기반하여 이미지화될 수 있다.
자세히, 실시예에서 타겟 포즈 형태(20)는, 컴퓨팅 디바이스(100) 및/또는 이미지 관리서버(400)에 의하여, 타겟 포즈 형태(20)에 포함된 각 신체 주요 키포인트별 좌표 정보가 그래픽 이미지화될 수 있다.
예를 들면, 타겟 포즈 형태(20)는, 얼굴 영역, 어깨 영역, 팔꿈치 영역, 손목 영역, 힙(hip) 영역, 무릎 영역 및/또는 발목 영역의 좌표 정보를 소정의 방식(예컨대, 좌표별 실선 표시 등)으로 표시되어 그래픽 이미지화될 수 있다.
이때, 이미지화된 타겟 포즈 형태(20)는, 각 정보를 구분하기 용이하도록 서로 다른 형상으로 표시될 수 있다.
예를 들어, 이미지화된 타겟 포즈 형태(20)는, 얼굴 영역의 좌표 정보가 분홍색 실선으로 표시되고, 오른쪽 어깨 영역의 좌표 정보가 빨강색 실선으로 표시되며, 왼쪽 어깨 영역의 좌표 정보가 주황색 실선으로 표시되는 등, 좌표 정보별로 서로 다른 형상으로 구현되어 표시될 수 있다.
이와 같이, 타겟 포즈 형태(20)는, 포함하고 있는 신체 주요 키포인트별 좌표 정보가 이미지화됨으로써, 각 좌표 정보들을 보다 용이하게 파악 가능함과 동시에, 이미지 딥러닝에 입력하기 보다 유리한 형태로 변환될 수 있다.
자세히, 실시예로 이미지 어플리케이션은, 타겟 카테고리에 매칭되는 포즈 형태를 타겟 포즈 형태(20)로 결정할 수 있다.
보다 상세히, 이미지 어플리케이션은, 복수의 카테고리 각각에 매칭되는 포즈 형태 샘플을 저장하고 있을 수 있다.
이때, 이미지 어플리케이션은, 사용자 입력 및/또는 소정의 방식(예컨대, 이미지 딥러닝 및/또는 빅 데이터 기술 등)에 기반하여 카테고리별 포즈 형태 샘플을 획득 및 저장할 수 있다.
또한, 이미지 어플리케이션은, 저장되어 있는 카테고리별 포즈 형태 샘플을 기반으로 타겟 카테고리에 매칭되는 포즈 형태를 도출하여 타겟 포즈 형태(20)를 결정할 수 있다.
예를 들면, 이미지 어플리케이션은, 타겟 카테고리가 전신샷 카테고리이면, 후면샷 포즈, 시점샷 포즈, 전신샷 포즈, 스탠드샷 포즈 및/또는 기타포즈샷 포즈 등을 포함하여 기저장되어 있는 적어도 하나 이상의 카테고리별 포즈 형태 샘플 중, 전신샷 포즈 형태를 타겟 포즈 형태(20)로 결정할 수 있다.
다른 실시예로, 이미지 어플리케이션은, 타겟 카테고리에 매칭되는 복수의 포즈 형태 샘플 중 어느 하나를 타겟 포즈 형태(20)로 결정할 수 있다.
즉, 이미지 어플리케이션은, 카테고리 별로 매칭되는 복수의 포즈 형태 샘플을 저장하고 있을 수 있다.
이때, 이미지 어플리케이션은, 카테고리별 포즈 형태 샘플에 메인 포즈 형태 샘플과 서브 포즈 형태 샘플을 포함할 수 있다.
여기서, 메인 포즈 형태 샘플은, 해당하는 카테고리의 복수의 포즈 형태 샘플 중, 상기 카테고리가 타겟 카테고리에 매칭될 시 우선적으로 타겟 포즈 형태(20)로 결정되는 포즈 형태 샘플일 수 있다.
또한, 서브 포즈 형태 샘플은, 해당하는 카테고리의 복수의 포즈 형태 샘플 중, 상기 카테고리가 타겟 카테고리에 매칭될 시 소정의 방식(예컨대, 사용자 입력에 의한 선택 등)에 따라서 타겟 포즈 형태(20)로 결정되는 포즈 형태 샘플일 수 있다.
즉, 다른 실시예에서 이미지 어플리케이션은, 카테고리별 메인 포즈 형태 샘플과 서브 포즈 형태 샘플에 기반하여 타겟 카테고리에 매칭되는 포즈 형태 샘플을 도출해 타겟 포즈 형태(20)를 결정할 수 있다.
예를 들어, 이미지 어플리케이션은, 타겟 카테고리가 전신샷 카테고리이면, 전신샷 카테고리에 매칭되어 있는 메인 포즈 형태 샘플을 우선적으로 타겟 포즈 형태(20)로 결정할 수 있고, 소정의 방식(예컨대, 사용자 선택 등)에 따라서 상기 전신샷 카테고리에 매칭되어 있는 복수의 서브 포즈 형태 샘플(예컨대, 서로 다른 포즈로 구현된 제 1 서브 전신샷 포즈, 제 2 서브 전신샷 포즈 등) 중 어느 하나를 타겟 포즈 형태(20)로 결정할 수 있다.
또 다른 실시예에서, 이미지 어플리케이션은, 딥러닝 방식으로 학습된 네트워크를 이용하여 타겟 카테고리에 매칭되는 포즈 형태를 생성할 수 있고, 생성된 포즈 형태를 타겟 포즈 형태(20)로 사용할 수도 있다.
이와 같이, 이미지 어플리케이션은, 다양한 방식을 통해 가상 이미지에 적용될 타겟 포즈 형태(20)를 결정 가능함으로써, 가상 이미지에 적용될 보다 정확한 포즈 형태를 선택할 수 있고, 포즈 형태 선택에 대한 용이성을 향상시킬 수 있으며, 이를 통해 생성되는 가상 이미지의 완성도를 증대시킬 수 있다.
또한, 실시예에서 이미지 어플리케이션은, 위와 같이 결정된 베이스 이미지(10) 및 타겟 포즈 형태(20)에 기반하여, 시맨틱 레벨 맵(Semantic Label Map)을 생성할 수 있다. (S205)
자세히, 이미지 어플리케이션은, 이미지 관리서버(400)와 연동하여, 위와 같이 결정된 베이스 이미지(10)와 타겟 포즈 형태(20)정보를 딥러닝 뉴럴 네트워크(1)에 입력할 수 있다.
이때, 딥러닝 뉴럴 네트워크(1)에 입력되는 타겟 포즈 형태(20)정보는, 타겟 포즈 형태(20)에 포함된 신체 주요 키포인트별 좌표 정보가 이미지화된 정보일 수 있다. 즉, 이미지 어플리케이션은, 타겟 포즈 형태(20)의 신체 영역(예컨대, 얼굴 영역, 어깨 영역, 팔꿈치 영역, 손목 영역, 힙(hip) 영역, 무릎 영역 및/또는 발목 영역)의 좌표 정보가 소정의 방식(예컨대, 좌표별 실선 표시 등)으로 변환되어 그래픽 이미지화된 타겟 포즈 형태(20)정보를 딥러닝 뉴럴 네트워크(1)에 입력할 수 있다.
그리고 이미지 어플리케이션은, 베이스 이미지(10)와 타겟 포즈 형태(20)정보를 입력받은 딥러닝 뉴럴 네트워크(1)로부터 출력되는 타겟 포즈 형태(20)에 대한 시맨틱 레벨 맵을 획득할 수 있다.
여기서, 실시예에 따른 시맨틱 레벨 맵이란, 입력된 이미지 내의 영역을 신체 주요 키포인트 별로 구분한 맵 이미지일 수 있다.
예를 들어, 시맨틱 레벨 맵은 입력된 이미지에서 모델의 신체 주요 키 포인트인 얼굴 영역(눈 영역, 코 영역, 귀 영역 및/또는 목 영역 포함), 어깨 영역, 팔꿈치 영역, 손목 영역, 힙(hip) 영역, 무릎 영역 및/또는 발목 영역과 제품 영역(이때, 모든 신체 주요 키포인트는 좌/우 구분이 가능) 등을 포함하는 복수의 영역으로 구분한 맵 이미지일 수 있다.
보다 상세히, 이미지 어플리케이션은, 베이스 이미지(10)와 타겟 포즈 형태(20)정보에 기반하여 포즈 시맨틱 레벨 맵(21: Pose Semantic Label Map)을 획득할 수 있다.
또한, 이미지 어플리케이션은, 베이스 이미지(10)에 대한 베이스 시맨틱 레벨 맵(Base Semantic Label Map)을 추가로 획득할 수 있다. 실시예에서 이미지 어플리케이션은, 제품 이미지의 카테고리를 분류하기 위한 딥러닝 처리 중 베이스 시맨틱 레벨 맵을 미리 획득할 수 있다.
다른 실시예에서, 이미지 어플리케이션은, 베이스 이미지(10)의 베이스 시맨틱 레벨 맵과, 타겟 포즈 형태(20)정보에 기반하여 포즈 시맨틱 레벨 맵(21)을 획득할 수도 있다.
실시예에서, 포즈 시맨틱 레벨 맵(21)이란, 학습된 이미지 딥러닝 뉴럴 네트워크(1)를 통하여, 상기 베이스 이미지(10) 내 적어도 일부가 상기 타겟 포즈 형태(20)에 적용되어 생성되는 시맨틱 레벨 맵 이미지일 수 있다.
또한, 실시예에 따른 베이스 시맨틱 레벨 맵이란, 학습된 이미지 딥러닝 뉴럴 네트워크(1)를 통하여, 상기 베이스 이미지(10) 내 영역이 신체 영역(예컨대, 얼굴 영역(눈 영역, 코 영역, 귀 영역 및/또는 목 영역 포함), 어깨 영역, 팔꿈치 영역, 손목 영역, 힙(hip) 영역, 무릎 영역 및/또는 발목 영역)과 제품 영역 등을 포함하는 복수의 영역으로 구분된 맵 이미지일 수 있다.
실시예에서 이미지 어플리케이션은, 공지된 알고리즘 모델(예컨대, U-net convolutional neural network 등)을 기반으로 시맨틱 레벨 맵을 생성할 수 있으며, 본 발명에서는 시맨틱 레벨 맵을 생성하는 알고리즘 자체를 한정하거나 제한하지는 않는다.
또한, 본 발명의 실시예에서는, 이미지 어플리케이션이 이미지 관리서버(400)와 연동하여 베이스 이미지(10)와 타겟 포즈 형태(20)정보에 기반한 시맨틱 레벨 맵을 생성한다고 설명하였으나, 실시예에 따라서 이미지 어플리케이션이 자체적으로 시맨틱 레벨 맵을 생성할 수도 있는 등 다양한 실시예가 가능하다.
또한, 도 9를 참조하면, 실시예에서 이미지 어플리케이션은, 생성된 시맨틱 레벨 맵에 기반한 딥러닝을 수행하여 가상 이미지(30)를 획득할 수 있다. (S207)
자세히, 이미지 어플리케이션은, 베이스 이미지(10) 및 베이스 시맨틱 레벨 맵(11)과 대응되도록 타겟 포즈 형태(20)정보 및 포즈 시맨틱 레벨 맵(21)을 딥러닝 뉴럴 네트워크(1)(예컨대, u-net 등)에 입력할 수 있다.
그리고 이미지 어플리케이션은, 상기 입력을 받은 딥러닝 뉴럴 네트워크(1)의 출력 데이터로 상기 타겟 포즈 형태(20)를 가지는 가상 이미지(30)를 획득할 수 있다.
즉, 실시예에서 이미지 어플리케이션은, 베이스 이미지(10) 및 타겟 포즈 형태(20)와, 이들을 기반으로 생성된 베이스 시맨틱 레벨 맵(11) 및 포즈 시맨틱 레벨 맵(21)에 기반한 이미지 처리를 수행하여, 최대의 정보량을 기반으로 상기 베이스 이미지(10)의 포즈 형태가 상기 타겟 포즈 형태(20)로 변형된 가상 이미지(30)를 획득할 수 있다.
다른 실시예에서, 이미지 어플리케이션은, 베이스 이미지(10) 및 타겟 포즈 형태(20)와, 이들을 기반으로 생성된 베이스 시맨틱 레벨 맵(11) 및 포즈 시맨틱 레벨 맵(21) 중 적어도 일부를 이용하여 가상 이미지(30)를 획득할 수도 있다.
실시예로, 이미지 어플리케이션은, 베이스 이미지(10), 베이스 시맨틱 레벨 맵(11) 및 포즈 시맨틱 레벨 맵(21)만을 이용하여 가상 이미지(30)를 획득할 수 있다.
자세히, 다른 실시예에서 이미지 어플리케이션은, 가상 이미지(30)를 생성하는 데 필수적인 데이터(예컨대, 베이스 이미지(10), 베이스 시맨틱 레벨 맵(11) 및 포즈 시맨틱 레벨 맵(21))를 선출하고, 선출된 데이터를 딥러닝 뉴럴 네트워크(1)에 입력하여 가상 이미지(30)를 획득할 수 있다.
즉, 다른 실시예에 따른 이미지 어플리케이션은, 가상 이미지(30)의 생성을 위해 필요한 최소한의 데이터를 기반으로 이미지 딥러닝을 수행하여, 보다 효율적으로 동작하는 딥러닝 기반의 가상 이미지 생성 프로세스를 구현할 수 있다.
이와 같이, 본 발명의 실시예에서 이미지 어플리케이션은, 타겟 포즈 형태(20)에 기반하여 제품을 나타내는 가상 이미지(30)를 생성 제공함으로써, 쇼핑몰 상의 제품을 보다 정확하게 파악하기 위해 필요한 다양한 관점의 제품 이미지들을 손 쉽게 생성하여 제공할 수 있고, 이를 통해 쇼핑몰 서비스의 전반적인 퀄리티를 향상시킴과 동시에 사용자 편의를 증진시킬 수 있다.
다시 도 4로 돌아와서, 위와 같이 제품 이미지를 기반으로 타겟 카테고리에 매칭되는 포즈 형태를 가지는 가상 이미지(30)를 생성한 이미지 어플리케이션은, 생성된 가상 이미지(30)를 매칭되는 카테고리에 입력할 수 있다. (S109)
자세히, 실시예에서 이미지 어플리케이션은, 생성된 가상 이미지(30)를 이미지 자동분류 서버(420)로 송신하여 상기 가상 이미지(30)에 대응하는 카테고리로 분류되게 할 수 있다.
또는, 이미지 어플리케이션은, 생성된 가상 이미지(30)를 자체적으로 상기 가상 이미지(30)에 매칭되는 카테고리로 분류할 수도 있다.
또한, 본 발명의 실시예에서 이미지 어플리케이션은, 생성된 가상 이미지(30)를 포함하여 분류된 제품 이미지들을 재구성된 카테고리별 제품 이미지 정보를 제공할 수 있다. (S111)
도 10은 본 발명의 실시예에 따른 카테고리별 제품 이미지 정보의 일례이다.
도 10을 참조하면, 실시예에 따른 카테고리별 제품 이미지 정보(이하, 콜렉팅 정보)란, 온라인 쇼핑몰 상에서 무작위로 나열된 다양한 제품 이미지를 사용자의 편의에 맞게 카테고리별로 분류하고 재구성하여 나타내는 정보일 수 있다.
자세히, 실시예에서 이미지 어플리케이션은, 자체적으로 또는 이미지 관리서버(400)와 연동하여, 카테고리별로 분류된 제품 이미지들을 카테고리에 따라서 구분 용이하도록 재구성해 카테고리별 제품 이미지 정보를 생성할 수 있다.
또한, 이미지 어플리케이션은, 위와 같은 카테고리별 제품 이미지 정보를 활용하여 각종 기능 동작을 수행할 수 있는 인터페이스를 상기 카테고리별 제품 이미지 정보에 더 포함하여 제공할 수 있다.
보다 상세히, 실시예에서 이미지 어플리케이션은, 카테고리별 제품 이미지 정보를 기반으로 각 제품별 제품 정보, 각 카테고리별 이름(예컨대, 포즈 형태명) 및/또는 각 제품과 카테고리 별 제품 이미지 등을 제공할 수 있다.
또한, 이미지 어플리케이션은, 카테고리별 제품 이미지 정보에 기반한 사용자 입력에 따라서 각종 기능 동작을 수행하는 사용자 인터페이스를 제공할 수 있다.
예를 들면, 이미지 어플리케이션은, 카테고리별 제품 이미지 정보의 복수의 제품 이미지 중 일 이미지를 선택하면, 해당 일 이미지에 매칭되는 상세 정보(예컨대, 해당 일 이미지 내 제품에 대한 제품명 및/또는 제품 가격 정보 등)를 확인할 수 있는 사용자 인터페이스를 제공할 수 있다.
다른 예에서, 이미지 어플리케이션은, 사용자 입력에 기초하여 카테고리별 제품 이미지 정보의 카테고리 표시 순서를 변경할 수 있는 사용자 인터페이스를 상기 카테고리별 제품 이미지 정보를 통해 제공할 수 있다.
또 다른 예로, 이미지 어플리케이션은, 사용자 입력에 기초하여 쇼핑몰 서버(500)로부터 획득된 제품 이미지와, 딥러닝을 기반으로 생성된 가상 이미지(30)를 구분하여 표시하는 여부를 설정할 수 있는 사용자 인터페이스를 상기 카테고리별 제품 이미지 정보를 통해 제공할 수 있다.
이와 같이, 본 발명의 실시예에서 이미지 어플리케이션은, 쇼핑몰의 복수의 제품 이미지들을 포즈 형태에 따라서 자동으로 분류하고 정리하여 노출함으로써, 쇼핑몰에서 제품 이미지를 무작위로 나열하는 경우에 발생할 수 있는 불편함을 최소화할 수 있고, 제품 페이지 구축에 소모되는 비용을 절감할 수 있으며, 쇼핑몰 사용성의 향상 및 이에 따른 매출 증대의 효과를 구현할 수 있다.
또한, 이미지 어플리케이션은, 복수의 제품 이미지가 자동 분류되어 생성된 카테고리별 제품 이미지 정보를 보다 효과적으로 활용할 수 있는 사용자 인터페이스를 제공함으로써, 사용자 요구에 최적화된 형태의 카테고리별 제품 이미지 정보를 제공할 수 있고, 이를 통해 복수의 제품 이미지를 제공하는 쇼핑몰에 대한 만족도와 사용성을 증진시킬 수 있다.
이상, 본 발명의 실시예에 따른 딥러닝 기반의 이미지 생성방법은, 일 제품에 대하여 존재하는 제품 이미지 외에 새롭게 요구되는 필요 제품 이미지가 있으면, 해당 필요 제품 이미지를 딥러닝에 기초하여 생성함으로써, 제품을 효과적으로 디스플레이하기 위해 보충되어야 하는 필요 제품 이미지를 별도의 촬영이나 작업 없이도 신속하고 편리하게 제공할 수 있는 효과가 있다.
또한, 본 발명의 실시예에 따른 딥러닝 기반의 이미지 생성방법은, 필요 제품 이미지를 딥러닝에 기반하여 제공함으로써, 쇼핑몰 상의 제품을 보다 정확하게 파악할 수 있도록 다양한 관점에서 구현되는 제품 이미지들을 손 쉽게 제공할 수 있고, 이를 통해 쇼핑몰 서비스의 전반적인 퀄리티를 향상시킴과 동시에 사용자 편의를 증진시킬 수 있는 효과가 있다.
또한, 본 발명의 실시예에 따른 딥러닝 기반의 이미지 생성방법은, 온라인 쇼핑몰에서 제공하는 일 제품에 대한 복수의 제품 이미지를 사용자 편의를 고려하여 자동으로 분류함으로써, 쇼핑몰에서 제품 이미지를 무작위로 나열하는 경우에 발생할 수 있는 불편함을 최소화할 수 있고, 제품 페이지 구축에 소모되는 비용을 절감할 수 있으며, 쇼핑몰 사용성의 향상 및 이에 따른 매출 증대의 효과를 구현할 수 있다.
또한, 이상에서 설명된 본 발명에 따른 실시예는 다양한 컴퓨터 구성요소를 통하여 실행될 수 있는 프로그램 명령어의 형태로 구현되어 컴퓨터 판독 가능한 기록 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능한 기록 매체는 프로그램 명령어, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 컴퓨터 판독 가능한 기록 매체에 기록되는 프로그램 명령어는 본 발명을 위하여 특별히 설계되고 구성된 것이거나 컴퓨터 소프트웨어 분야의 당업자에게 공지되어 사용 가능한 것일 수 있다. 컴퓨터 판독 가능한 기록 매체의 예에는, 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체, CD-ROM 및 DVD와 같은 광기록 매체, 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical medium), 및 ROM, RAM, 플래시 메모리 등과 같은, 프로그램 명령어를 저장하고 실행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령어의 예에는, 컴파일러에 의하여 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용하여 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드도 포함된다. 하드웨어 장치는 본 발명에 따른 처리를 수행하기 위하여 하나 이상의 소프트웨어 모듈로 변경될 수 있으며, 그 역도 마찬가지이다.
본 발명에서 설명하는 특정 실행들은 일 실시 예들로서, 어떠한 방법으로도 본 발명의 범위를 한정하는 것은 아니다. 명세서의 간결함을 위하여, 종래 전자적인 구성들, 제어 시스템들, 소프트웨어, 상기 시스템들의 다른 기능적인 측면들의 기재는 생략될 수 있다. 또한, 도면에 도시된 구성 요소들 간의 선들의 연결 또는 연결 부재들은 기능적인 연결 및/또는 물리적 또는 회로적 연결들을 예시적으로 나타낸 것으로서, 실제 장치에서는 대체 가능하거나 추가의 다양한 기능적인 연결, 물리적인 연결, 또는 회로 연결들로서 나타내어질 수 있다. 또한, “필수적인”, “중요하게” 등과 같이 구체적인 언급이 없다면 본 발명의 적용을 위하여 반드시 필요한 구성 요소가 아닐 수 있다.
또한 설명한 본 발명의 상세한 설명에서는 본 발명의 바람직한 실시 예를 참조하여 설명하였지만, 해당 기술 분야의 숙련된 당업자 또는 해당 기술분야에 통상의 지식을 갖는 자라면 후술할 특허청구범위에 기재된 본 발명의 사상 및 기술 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다. 따라서, 본 발명의 기술적 범위는 명세서의 상세한 설명에 기재된 내용으로 한정되는 것이 아니라 특허청구범위에 의해 정하여져야만 할 것이다.
Claims (10)
- 컴퓨팅 디바이스의 프로세서에 의하여 실행되는 이미지 어플리케이션이 딥러닝을 기반으로 가상 이미지를 생성하는 방법으로서,
일 제품에 대한 복수의 제품 이미지를 획득하는 단계;
상기 획득된 제품 이미지를 서로 다른 포즈(pose) 형태를 기준으로 구분된 복수의 카테고리로 분류하는 단계;
상기 복수의 카테고리 중 상기 가상 이미지를 생성할 타겟 카테고리를 결정하는 단계;
상기 복수의 제품 이미지 중 적어도 하나의 제품 이미지를 기초로 상기 결정된 타겟 카테고리에 매칭된 제 1 포즈 형태의 가상 이미지를 생성하는 단계; 및
상기 생성된 가상 이미지를 출력하는 단계;를 포함하고,
상기 제 1 포즈 형태의 가상 이미지를 생성하는 단계는,
상기 복수의 카테고리에 대한 우선순위를 기 설정하는 단계와,
상기 기 설정된 카테고리 우선순위를 기초로 상기 복수의 제품 이미지 중 적어도 하나를 상기 가상 이미지 생성을 위해 이미지 처리를 수행할 베이스 이미지로 결정하는 단계를 포함하고,
상기 복수의 카테고리에 대한 우선순위를 기 설정하는 단계는,
상기 제품 이미지 내 피사체의 신체 주요 키포인트(key-point) 개수를 기초로 상기 카테고리 우선순위를 결정하는 단계를 포함하고,
상기 베이스 이미지로 결정하는 단계는,
상기 기 설정된 카테고리 우선순위에 따라서 우선순위의 카테고리를 검출하는 단계와,
상기 검출된 카테고리로 분류된 제품 이미지 중 적어도 하나를 상기 베이스 이미지로 결정하는 단계를 포함하는
딥러닝 기반 가상 이미지 생성방법. - 제 1 항에 있어서,
상기 타겟 카테고리를 결정하는 단계는,
상기 제품 이미지가 분류되지 않은 빈 카테고리를 검출하는 단계와, 상기 검출된 빈 카테고리를 상기 타겟 카테고리로 결정하는 단계를 포함하는
딥러닝 기반 가상 이미지 생성방법. - 제 1 항에 있어서,
상기 가상 이미지는,
상기 적어도 하나의 제품 이미지와 상기 제 1 포즈 형태에 대한 정보를 기 학습된 딥러닝 뉴럴 네트워크에 입력하여 상기 제 1 포즈 형태를 가지도록 생성된 상기 제품에 대한 이미지인
딥러닝 기반 가상 이미지 생성방법. - 삭제
- 삭제
- 제 1 항에 있어서,
상기 제 1 포즈 형태의 가상 이미지를 생성하는 단계는,
상기 베이스 이미지와 상기 제 1 포즈 형태 정보를 기 학습된 딥러닝 뉴럴 네트워크에 입력하여, 상기 제 1 포즈 형태의 포즈 시맨틱 레벨 맵(Semantic Label Map)을 생성하는 단계를 더 포함하는
딥러닝 기반 가상 이미지 생성방법. - 제 6 항에 있어서,
상기 제 1 포즈 형태의 가상 이미지를 생성하는 단계는,
상기 베이스 이미지의 시맨틱 레벨 맵인 베이스 시맨틱 레벨 맵(Base Semantic Label Map)을 생성하는 단계를 더 포함하는
딥러닝 기반 가상 이미지 생성방법. - 제 6 항에 있어서,
상기 제 1 포즈 형태의 가상 이미지를 생성하는 단계는,
상기 포즈 시맨틱 레벨 맵 및 상기 베이스 이미지를 기 학습된 딥러닝 뉴럴 네트워크에 입력하여 출력으로 상기 가상 이미지를 생성하는 단계를 더 포함하는
딥러닝 기반 가상 이미지 생성방법. - 제 6 항에 있어서,
상기 제 1 포즈 형태의 가상 이미지를 생성하는 단계는,
상기 베이스 이미지 및 베이스 시맨틱 레벨 맵과 대응되도록 상기 제 1 포즈 형태 정보 및 포즈 시맨틱 레벨 맵을 딥러닝 뉴럴 네트워크에 입력하여 출력으로 상기 제 1 포즈 형태를 가지는 상기 가상 이미지를 생성하는 단계를 더 포함하는
딥러닝 기반 가상 이미지 생성방법. - 적어도 하나의 프로세서; 및
상기 적어도 하나의 프로세서에 의해 실행되는 메모리 저장 명령을 저장하는 메모리를 포함하고,
상기 메모리 저장 명령은,
일 제품에 대한 복수의 제품 이미지를 획득하고,
상기 획득된 제품 이미지를 서로 다른 포즈(pose) 형태를 기준으로 구분된 복수의 카테고리로 분류하며,
상기 복수의 카테고리 중 가상 이미지를 생성할 타겟 카테고리를 결정하고,
상기 복수의 제품 이미지 중 적어도 하나의 제품 이미지를 기초로 상기 결정된 타겟 카테고리에 매칭된 제 1 포즈 형태의 가상 이미지를 생성하고,
상기 생성된 가상 이미지를 출력하는 명령어를 포함하고,
상기 메모리 저장 명령은,
상기 복수의 카테고리에 대한 우선순위를 기 설정하고,
상기 기 설정된 카테고리 우선순위를 기초로 상기 복수의 제품 이미지 중 적어도 하나를 상기 가상 이미지 생성을 위해 이미지 처리를 수행할 베이스 이미지로 결정하는 명령어를 더 포함하고,
상기 메모리 저장 명령은,
상기 제품 이미지 내 피사체의 신체 주요 키포인트(key-point) 개수를 기초로 상기 카테고리 우선순위를 결정하고,
상기 기 설정된 카테고리 우선순위에 따라서 우선순위 카테고리를 검출하고,
상기 검출된 카테고리로 분류된 제품 이미지 중 적어도 하나를 상기 베이스 이미지로 결정하는 명령어를 더 포함하는
딥러닝 기반 가상 이미지 생성시스템.
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020200049121A KR102466978B1 (ko) | 2020-04-23 | 2020-04-23 | 딥러닝 기반 가상 이미지 생성방법 및 시스템 |
JP2021073577A JP7161572B2 (ja) | 2020-04-23 | 2021-04-23 | ディープラーニング基盤の仮想イメージ生成方法及びシステム |
US17/238,203 US11727605B2 (en) | 2020-04-23 | 2021-04-23 | Method and system for creating virtual image based deep-learning |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020200049121A KR102466978B1 (ko) | 2020-04-23 | 2020-04-23 | 딥러닝 기반 가상 이미지 생성방법 및 시스템 |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20210130953A KR20210130953A (ko) | 2021-11-02 |
KR102466978B1 true KR102466978B1 (ko) | 2022-11-14 |
Family
ID=78222636
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020200049121A KR102466978B1 (ko) | 2020-04-23 | 2020-04-23 | 딥러닝 기반 가상 이미지 생성방법 및 시스템 |
Country Status (3)
Country | Link |
---|---|
US (1) | US11727605B2 (ko) |
JP (1) | JP7161572B2 (ko) |
KR (1) | KR102466978B1 (ko) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023068632A1 (ko) | 2021-10-18 | 2023-04-27 | 라이트비전 주식회사 | 딥러닝을 이용하여 가상 tem sadp 영상과 실제 tem sadp 영상을 상호 변환시키는 회절 패턴 영상 변환 시스템 및 방법 |
KR102582498B1 (ko) | 2021-10-18 | 2023-09-26 | 라이트비전 주식회사 | 높은 분별력을 가지는 tem sadp 영상 생성 시스템 및 방법 |
WO2023068631A1 (ko) | 2021-10-18 | 2023-04-27 | 라이트비전 주식회사 | 높은 분별력을 가지는 tem sadp 영상 생성 시스템 및 방법 |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20190371080A1 (en) * | 2018-06-05 | 2019-12-05 | Cristian SMINCHISESCU | Image processing method, system and device |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102240302B1 (ko) | 2014-10-21 | 2021-04-14 | 삼성전자주식회사 | 가상 피팅 장치 및 이의 가상 피팅 방법 |
CN107330439B (zh) | 2017-07-14 | 2022-11-04 | 腾讯科技(深圳)有限公司 | 一种图像中物体姿态的确定方法、客户端及服务器 |
JP2019204476A (ja) | 2018-05-17 | 2019-11-28 | 株式会社Preferred Networks | 画像生成装置、画像生成方法及びプログラム |
KR102135477B1 (ko) * | 2018-08-31 | 2020-07-17 | 엔에이치엔 주식회사 | 이미지 자동분류 방법 및 시스템 |
CN109670444B (zh) * | 2018-12-18 | 2019-12-24 | 北京字节跳动网络技术有限公司 | 姿态检测模型的生成、姿态检测方法、装置、设备及介质 |
US11030772B2 (en) | 2019-06-03 | 2021-06-08 | Microsoft Technology Licensing, Llc | Pose synthesis |
US10949960B2 (en) | 2019-06-20 | 2021-03-16 | Intel Corporation | Pose synthesis in unseen human poses |
US20210232858A1 (en) * | 2020-01-23 | 2021-07-29 | Seiko Epson Corporation | Methods and systems for training an object detection algorithm using synthetic images |
-
2020
- 2020-04-23 KR KR1020200049121A patent/KR102466978B1/ko active IP Right Grant
-
2021
- 2021-04-23 JP JP2021073577A patent/JP7161572B2/ja active Active
- 2021-04-23 US US17/238,203 patent/US11727605B2/en active Active
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20190371080A1 (en) * | 2018-06-05 | 2019-12-05 | Cristian SMINCHISESCU | Image processing method, system and device |
Non-Patent Citations (1)
Title |
---|
Albert Pumarola et al., "Unsupervised Person Image Synthesis in Arbitrary Poses," arXiv:1809.10280v1 [cs.CV] 27 Sep 2018 (2018.09.27.)* |
Also Published As
Publication number | Publication date |
---|---|
JP7161572B2 (ja) | 2022-10-26 |
JP2021174553A (ja) | 2021-11-01 |
US11727605B2 (en) | 2023-08-15 |
US20210335021A1 (en) | 2021-10-28 |
KR20210130953A (ko) | 2021-11-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9424461B1 (en) | Object recognition for three-dimensional bodies | |
US10902262B2 (en) | Vision intelligence management for electronic devices | |
KR102466978B1 (ko) | 딥러닝 기반 가상 이미지 생성방법 및 시스템 | |
US9460518B2 (en) | Visual clothing retrieval | |
US10157324B2 (en) | Systems and methods of updating user identifiers in an image-sharing environment | |
CN108885482A (zh) | 包括映像的视场中的增强现实 | |
WO2013023706A1 (en) | Computer-vision based augmented reality system | |
CN111368116B (zh) | 图像分类方法、装置、计算机设备及存储介质 | |
CN109614925A (zh) | 服饰属性识别方法和装置、电子设备、存储介质 | |
CN106030610A (zh) | 移动设备的实时3d姿势识别和跟踪系统 | |
US12062077B2 (en) | Method and system for providing search results for similar products based on deep-learning | |
US11972466B2 (en) | Computer storage media, method, and system for exploring and recommending matching products across categories | |
US20240331245A1 (en) | Video processing method, video processing apparatus, and storage medium | |
US12118765B2 (en) | Method and system for product search based on deep-learning | |
US20220083806A1 (en) | Method and system for product search based on image restoration | |
Liu et al. | Toward fashion intelligence in the big data era: State-of-the-art and future prospects | |
Milanova et al. | Markerless 3D virtual glasses try-on system | |
CN112667839B (zh) | 数据的处理方法、检索方法、装置及设备 | |
KR102401626B1 (ko) | 이미지 기반 상품검색 방법 및 그 시스템 | |
JP7294402B2 (ja) | 画像処理装置、画像処理方法及びプログラム | |
US20240202935A1 (en) | Method and system for providing augmented reality object tracking service based on deep learning | |
KR102562713B1 (ko) | 사용자가 보유한 의류들에 대한 가상 피팅을 제공하는 전자 장치 | |
Betancourt et al. | An overview of first person vision and egocentric video analysis for personal mobile wearable devices | |
US20240071019A1 (en) | Three-dimensional models of users wearing clothing items | |
CN114627313A (zh) | 配送任务控制方法、机器人和存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |