KR102522625B1 - 텍스트의 디자인 매칭 시스템 - Google Patents
텍스트의 디자인 매칭 시스템 Download PDFInfo
- Publication number
- KR102522625B1 KR102522625B1 KR1020220163431A KR20220163431A KR102522625B1 KR 102522625 B1 KR102522625 B1 KR 102522625B1 KR 1020220163431 A KR1020220163431 A KR 1020220163431A KR 20220163431 A KR20220163431 A KR 20220163431A KR 102522625 B1 KR102522625 B1 KR 102522625B1
- Authority
- KR
- South Korea
- Prior art keywords
- design
- text
- image
- generating device
- extracted
- Prior art date
Links
- 238000013461 design Methods 0.000 title claims abstract description 332
- 238000004519 manufacturing process Methods 0.000 claims abstract description 18
- 238000000034 method Methods 0.000 claims description 37
- 238000000605 extraction Methods 0.000 claims description 16
- 239000000284 extract Substances 0.000 claims description 11
- 238000006243 chemical reaction Methods 0.000 description 14
- 230000008569 process Effects 0.000 description 11
- 238000012552 review Methods 0.000 description 11
- 230000008859 change Effects 0.000 description 9
- 208000009119 Giant Axonal Neuropathy Diseases 0.000 description 6
- 238000013528 artificial neural network Methods 0.000 description 6
- 230000008901 benefit Effects 0.000 description 6
- 230000006870 function Effects 0.000 description 6
- 201000003382 giant axonal neuropathy 1 Diseases 0.000 description 6
- 230000004044 response Effects 0.000 description 6
- 238000004891 communication Methods 0.000 description 5
- 238000005516 engineering process Methods 0.000 description 5
- 238000010801 machine learning Methods 0.000 description 5
- 238000004590 computer program Methods 0.000 description 4
- 238000010586 diagram Methods 0.000 description 4
- 238000003860 storage Methods 0.000 description 4
- 238000003870 depth resolved spectroscopy Methods 0.000 description 3
- 208000009743 drug hypersensitivity syndrome Diseases 0.000 description 3
- 230000002457 bidirectional effect Effects 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 2
- 230000004888 barrier function Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 238000013527 convolutional neural network Methods 0.000 description 1
- 230000009193 crawling Effects 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000013136 deep learning model Methods 0.000 description 1
- 238000009826 distribution Methods 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 238000009499 grossing Methods 0.000 description 1
- 230000007786 learning performance Effects 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 230000001151 other effect Effects 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 230000000306 recurrent effect Effects 0.000 description 1
- 230000004043 responsiveness Effects 0.000 description 1
- 238000007790 scraping Methods 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/60—Type of objects
- G06V20/62—Text, e.g. of license plates, overlay texts or captions on TV images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q30/00—Commerce
- G06Q30/06—Buying, selling or leasing transactions
- G06Q30/0601—Electronic shopping [e-shopping]
- G06Q30/0641—Shopping interfaces
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0475—Generative networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/50—Information retrieval; Database structures therefor; File system structures therefor of still image data
- G06F16/58—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/90—Details of database functions independent of the retrieved data types
- G06F16/95—Retrieval from the web
- G06F16/951—Indexing; Web crawling techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/268—Morphological analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/279—Recognition of textual entities
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
- G06N3/0455—Auto-encoder networks; Encoder-decoder networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/088—Non-supervised learning, e.g. competitive learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q30/00—Commerce
- G06Q30/06—Buying, selling or leasing transactions
- G06Q30/0601—Electronic shopping [e-shopping]
- G06Q30/0621—Item configuration or customization
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q30/00—Commerce
- G06Q30/06—Buying, selling or leasing transactions
- G06Q30/0601—Electronic shopping [e-shopping]
- G06Q30/0641—Shopping interfaces
- G06Q30/0643—Graphical representation of items or shoppers
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/94—Hardware or software architectures specially adapted for image or video understanding
- G06V10/945—User interactive design; Environments; Toolboxes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2113/00—Details relating to the application field
- G06F2113/12—Cloth
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F30/00—Computer-aided design [CAD]
- G06F30/10—Geometric CAD
- G06F30/12—Geometric CAD characterised by design entry means specially adapted for CAD, e.g. graphical user interfaces [GUI] specially adapted for CAD
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F30/00—Computer-aided design [CAD]
- G06F30/20—Design optimisation, verification or simulation
- G06F30/27—Design optimisation, verification or simulation using machine learning, e.g. artificial intelligence, neural networks, support vector machines [SVM] or training a model
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0464—Convolutional networks [CNN, ConvNet]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V30/00—Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
- G06V30/10—Character recognition
- G06V30/14—Image acquisition
- G06V30/148—Segmentation of character regions
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Computation (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Software Systems (AREA)
- Data Mining & Analysis (AREA)
- Business, Economics & Management (AREA)
- Computing Systems (AREA)
- Databases & Information Systems (AREA)
- Computational Linguistics (AREA)
- Multimedia (AREA)
- Accounting & Taxation (AREA)
- Finance (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Life Sciences & Earth Sciences (AREA)
- Mathematical Physics (AREA)
- Medical Informatics (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Molecular Biology (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Development Economics (AREA)
- General Business, Economics & Management (AREA)
- Strategic Management (AREA)
- Marketing (AREA)
- Economics (AREA)
- Library & Information Science (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Image Analysis (AREA)
- Geometry (AREA)
- Computer Hardware Design (AREA)
- Machine Translation (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
본 발명의 실시예에 따르면, 텍스트의 디자인 매칭 시스템은, 네트워크를 통해 디자인 생성 장치에 이미지와 텍스트를 포함하는 정보를 제공하는 외부 단말과 상기 네트워크를 통해 수신된 정보로부터 이미지를 획득하고, 상기 획득된 이미지의 특징을 학습하고, 상기 정보 상의 텍스트를 추출하고, 상기 추출된 텍스트와 상기 획득된 이미지의 쌍(Pair)에 대한 학습을 수행하고, 상기 추출된 텍스트 중, 미리 설정된 기준 횟수 이상 추출된 트렌드 단어를 추출하고, 상기 트렌드 단어와 상기 획득된 이미지의 쌍에 대한 학습을 수행하고, 상기 학습된 이미지의 특징 중, 상기 트렌드 단어에 매칭되는 디자인 특징 정보를 식별하고, 상기 디자인 특징 정보를 의미하는 텍스트 단어를 디자인 생성의 조건으로 학습하고, 사용자에 의해 입력된 텍스트를 상기 디자인 생성의 조건으로 인식함에 따라 디자인을 생성하는 디자인 생성 장치와 상기 생성된 디자인을 수신받고, 디자인 제품을 제조하기 위한 제조 단말을 포함할 수 있다.
Description
본 발명은 텍스트의 디자인 매칭 시스템에 관한 것이다. 보다 자세하게는, 텍스트-이미지 쌍에 대한 학습 결과를 기반으로, 텍스트 입력에 대응되는 디자인을 생성하는 시스템에 관한 것이다.
패션 시장에서, 이른바 패스트 패션(Fast Fashion) 또는 스파(SPA, Speciality retailer of Private label Apparel) 브랜드 비중이 높아짐에 따라, 최신 유행 디자인이 빠른 주기로 생산 및 소비되고 있다. 이 같은 패스트 패션 브랜드는 제품의 대량 생산 시스템 및 글로벌 유통망을 확보하고, 수많은 디자이너를 보유하여 최신 유행을 디자인에 반영함으로써 소비자에게 저렴한 비용으로 유행 아이템 구매 기회를 제공하는 장점이 있다.
반면, 패스트 패션 브랜드의 생산 및 판매 시스템은, 패션 디자인 업계의 경쟁을 과열시키고, 신규 시장 진입자에게 진입 장벽을 만들어 낸다.
이 같은 문제점을 해소하기 위하여, 텍스트 기반의 디자인 이미지 생성 기술이 개시되고 있으며, 이로써 텍스트 입력만으로 대량의 이미지가 자동으로 생성될 수 있다. 특히, 개시된 기술을 이용하여 디자이너뿐만 아니라, 일반 사용자 역시, 텍스트 입력만으로 디자인 이미지를 생성할 수 있게 된다.
개시된 기술로 생성되는 이미지 제품화되기 위해서는, 고해상도 디자인의 생성 기술이 추가로 요구된다. 급변하는 패션 트렌드를 반영한 디자인의 생성 기술 또한 필요하다.
본 발명이 해결하고자 하는 기술적 과제는, 획득된 이미지 및 이에 매칭되는 텍스트를 학습함으로써, 디자인의 자동 생성을 위한 조건을 생성하는 방법 및 그 장치를 제공하는 것이다. 구체적으로 본 발명이 해결하고자 하는 기술적 과제는, 이미지에 매칭된 텍스트의 특성을 학습함에 따라, 텍스트에 반영된 트렌드 정보를 기초로 디자인을 자동 생성하는 방법 및 그 장치를 제공하는 것이다.
본 발명이 해결하고자 하는 다른 기술적 과제는, 상기 생성된 조건에 대응하는 텍스트의 입력에 응답하여 디자인을 자동 생성하는 방법 및 그 장치를 제공하는 것이다. 구체적으로 본 발명이 해결하고자 하는 다른 기술적 과제는, 제품의 카테고리 선정 및 사용자에 의해 입력된 테스트를 디자인 생성의 조건으로 인식하고, 인식된 조건 하에 디자인을 생성하는 방법 및 그 장치를 제공하는 것이다. 보다 자세히, 본 발명이 해결하고자 하는 기술적 과제는, 상기 입력된 텍스트를 상기 선정된 카테고리 디테일한 특징으로 해석하고, 상기 카테고리의 제품에 대한 상기 특징이 반영된 디자인을 생성하는 방법 및 그 장치를 제공하는 것이다.
본 발명이 해결하고자 하는 또 다른 기술적 과제는, 입력되는 텍스트에 의해 생성되는 디자인 이미지의 해상도를 높이는 방법 및 그 장치를 제공하는 것이다. 구체적으로, 본 발명이 해결하고자 하는 또 다른 기술적 과제는, 원본 이미지 및 생성 디자인 이미지 상의 픽셀 기반 손실이 아닌, 특징량 기반의 손실을 고려하여 디자인 이미지의 해상도를 극대화할 수 있는 방법 및 그 장치를 제공하는 것이다.
본 발명의 기술적 과제들은 이상에서 언급한 기술적 과제들로 제한되지 않으며, 언급되지 않은 또 다른 기술적 과제들은 아래의 기재로부터 본 발명의 기술분야에서의 통상의 기술자에게 명확하게 이해될 수 있을 것이다.
상기 기술적 과제를 해결하기 위한, 텍스트의 디자인 매칭 시스템은, 네트워크를 통해 디자인 생성 장치에 이미지와 텍스트를 포함하는 정보를 제공하는 외부 단말과 상기 네트워크를 통해 수신된 정보로부터 이미지를 획득하고, 상기 획득된 이미지의 특징을 학습하고, 상기 정보 상의 텍스트를 추출하고, 상기 추출된 텍스트와 상기 획득된 이미지의 쌍(Pair)에 대한 학습을 수행하고, 상기 추출된 텍스트 중, 미리 설정된 기준 횟수 이상 추출된 트렌드 단어를 추출하고, 상기 트렌드 단어와 상기 획득된 이미지의 쌍에 대한 학습을 수행하고, 상기 학습된 이미지의 특징 중, 상기 트렌드 단어에 매칭되는 디자인 특징 정보를 식별하고, 상기 디자인 특징 정보를 의미하는 텍스트 단어를 디자인 생성의 조건으로 학습하고, 사용자에 의해 입력된 텍스트를 상기 디자인 생성의 조건으로 인식함에 따라 디자인을 생성하는 디자인 생성 장치와 상기 생성된 디자인을 수신받고, 디자인 제품을 제조하기 위한 제조 단말을 포함할 수 있다.
일 실시예에서, 상기 디자인 생성 장치는, 상기 미리 설정된 기준 횟수 이상 추출되는 트렌드 단어가 존재하지 않는 경우, 상기 이미지의 특징에 대한 학습 결과 및 상기 추출된 텍스트와 상기 획득된 이미지의 쌍에 대한 학습 결과를 바탕으로, 상기 추출된 텍스트 중, 제1 텍스트에 대응되는 제1 디자인 특징을 식별하고, 상기 미리 설정된 기준 횟수 이상 추출되는 트렌드 단어가 존재하지 않는 경우, 상기 이미지의 특징에 대한 학습 결과 및 상기 추출된 텍스트와 상기 획득된 이미지의 쌍에 대한 학습 결과를 바탕으로, 상기 추출된 텍스트 중, 제2 텍스트에 대응되는 제2 디자인 특징을 식별할 수 있다.
일 실시예에서, 상기 디자인 생성 장치는, 상기 제1 디자인 특징 및 상기 제2 디자인 특징이 미리 설정된 유사도 이상의 유사도를 갖는 경우, 상기 제1 텍스트 및 상기 제2 텍스트 각각을 상기 트렌드 단어로 결정할 수 있다.
일 실시예에서, 상기 디자인 생성 장치는, 상기 제1 텍스트의 추출 횟수 및 상기 제2 텍스트의 추출 횟수의 합산 값이 상기 미리 설정된 기준 횟수 이상인 경우, 상기 제1 텍스트 및 상기 제2 텍스트를 상기 트렌드 단어로 결정할 수 있다.
일 실시예에서, 상기 디자인 생성 장치는, 상기 텍스트 중, 제1 그룹의 텍스트와 제2 그룹의 텍스트를 분류하고, 상기 제1 그룹의 텍스트와 상기 제2 그룹의 텍스트 상에서 동시에 포함된 텍스트를 추출하고, 상기 동시에 포함된 텍스트를 기초로, 상기 획득된 이미지의 쌍에 대한 학습을 수행하고, 상기 학습 결과를 바탕으로, 상기 획득된 이미지에 대한 카테고리 텍스트를 생성할 수 있다.
본 발명의 일 실시예에 따르면, 제품 디자인에 대하여 사용자마다 사용하는 단어가 다르더라도, 사용자가 입력한 단어를 기초로 사용자의 의도에 부합하는 디자인 이미지를 생성할 수 있는 장점이 있다.
또한, 본 발명의 다른 실시예에 따르면, 사용자에게 최신 디자인 트렌드 정보가 반영된 디자인 이미지가 제공되는 장점이 있다. 즉, 상기 실시예에 따르면, 사용자가 파악하기 어려운 최신 트렌드가 디자인 이미지 생성 모델에 반영되어, 사용자의 입력 텍스트를 최신 트렌드로 해석하고, 최신 트렌드가 반영된 디자인 이미지를 생성할 수 있는 장점이 있다.
또한, 본 발명에 또 다른 실시예에 따르면, 카테고리 및 입력 텍스트로 디자인의 생성 대상을 제한함으로써 디자인 이미지 생성의 연산량을 줄일 수 있는 장점이 있다.
또한, 본 발명의 또 다른 실시예에 따르면, 생성되는 디자인 이미지의 해상도를 향상시킴으로써, 디자인의 제품화의 효율성이 높아지는 장점이 있다.
본 발명의 효과들은 이상에서 언급한 효과들로 제한되지 않으며, 언급되지 않은 또 다른 효과들은 아래의 기재로부터 본 발명의 기술분야에서의 통상의 기술자에게 명확하게 이해될 수 있을 것이다.
도 1은 본 발명의 일 실시예에 따른 학습된 조건 기반의 디자인 생성 시스템의 예시이다.
도 2는 본 발명의 몇몇 실시예에서 참조되는, 학습된 조건 기반의 디자인 생성 프로세스를 설명하기 위한 개념도이다.
도 3은 본 발명의 다른 실시예에 따른 학습된 조건 기반의 디자인 생성 장치의 블록도(Block)이다.
도 4는 본 발명의 몇몇 실시예에서 참조되는, 디자인 생성 소프트웨어의 구조의 예시이다.
도 5는 본 발명의 또 다른 실시예에 따른 학습된 조건 기반의 디자인 생성 방법의 순서도이다.
도 6은 본 발명의 또 다른 실시예에 따른 획득된 이미지 및 추출된 텍스트 간 매칭 방법의 순서도이다.
도 7은 본 발명의 몇몇 실시예에서 참조되는, 이미지 및 이에 매칭되는 텍스트 쌍(Pair)의 학습 방법을 설명하기 위한 예시이다.
도 8은 본 발명의 몇몇 실시예에서 참조되는, 트렌드 단어의 선정 프로세스를 설명하기 위한 예시이다.
도 9는 본 발명의 몇몇 실시예에서 참조되는, 입력 텍스트에 응답하여 디자인을 생성하는 인터페이스의 예시이다.
도 10은 본 발명의 몇몇 실시예에서 참조되는, 포스트 생성기를 통한 고해상도 디자인 이미지 생성 결과의 예시이다.
도 2는 본 발명의 몇몇 실시예에서 참조되는, 학습된 조건 기반의 디자인 생성 프로세스를 설명하기 위한 개념도이다.
도 3은 본 발명의 다른 실시예에 따른 학습된 조건 기반의 디자인 생성 장치의 블록도(Block)이다.
도 4는 본 발명의 몇몇 실시예에서 참조되는, 디자인 생성 소프트웨어의 구조의 예시이다.
도 5는 본 발명의 또 다른 실시예에 따른 학습된 조건 기반의 디자인 생성 방법의 순서도이다.
도 6은 본 발명의 또 다른 실시예에 따른 획득된 이미지 및 추출된 텍스트 간 매칭 방법의 순서도이다.
도 7은 본 발명의 몇몇 실시예에서 참조되는, 이미지 및 이에 매칭되는 텍스트 쌍(Pair)의 학습 방법을 설명하기 위한 예시이다.
도 8은 본 발명의 몇몇 실시예에서 참조되는, 트렌드 단어의 선정 프로세스를 설명하기 위한 예시이다.
도 9는 본 발명의 몇몇 실시예에서 참조되는, 입력 텍스트에 응답하여 디자인을 생성하는 인터페이스의 예시이다.
도 10은 본 발명의 몇몇 실시예에서 참조되는, 포스트 생성기를 통한 고해상도 디자인 이미지 생성 결과의 예시이다.
이하, 첨부된 도면을 참조하여 본 발명의 바람직한 실시예를 상세히 설명한다. 본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시 예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 게시되는 실시 예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시예들은 본 발명의 게시가 완전하도록 하고, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. 명세서 전체에 걸쳐 동일 참조 부호는 동일 구성 요소를 지칭한다.
다른 정의가 없다면, 본 명세서에서 사용되는 모든 용어(기술 및 과학적 용어를 포함)는 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 공통적으로 이해될 수 있는 의미로 사용될 수 있을 것이다. 또 일반적으로 사용되는 사전에 정의되어 있는 용어들은 명백하게 특별히 정의되어 있지 않는 한 이상적으로 또는 과도하게 해석되지 않는다. 본 명세서에서 사용된 용어는 실시예들을 설명하기 위한 것이며 본 발명을 제한하고자 하는 것은 아니다. 본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함한다.
본 명세서에서 학습된 조건 기반의 디자인 생성 시스템, 학습된 조건 기반의 디자인 생성 장치 및 학습된 조건 기반의 디자인 생성 방법은, 각각 디자인 생성 시스템, 디자인 생성 장치 및 디자인 생성 방법으로 약칭할 수 있다.
본 명세서에서, 이미지는, 사진, 그림, 동영상 콘텐츠를 포함할 수 있으며, 텍스트는, 캐릭터, 형태소, 단어, 문장과 같은 문자적 요소 뿐만 아니라, 숫자, 기호 등 의미적 전달이 가능한 요소를 포함할 수도 있다.
도 1은 본 발명의 일 실시예에 따른 학습된 조건 기반의 디자인 생성 시스템의 예시이다. 또한, 도 2는 본 발명의 몇몇 실시예에서 참조되는, 학습된 조건 기반의 디자인 생성 프로세스를 설명하기 위한 개념도이다.
도 1을 참조하면, 디자인 생성 시스템(10)은 디자인 생성 장치(100), 제조 단말(300) 및 네트워크를 통해 정보(30)를 제공하는 다수의 외부 단말을 포함할 수 있다.
디자인 생성 장치(100), 제조 단말(300) 및 상기 다수의 외부 단말은, 네트워크를 통해 상호간 데이터를 교환할 수 있는 컴퓨팅 장치이다. 디자인 생성 장치(100)는 네트워크를 통해 이미지(50) 및 텍스트(70)를 포함하는 정보(30)에 접근할 수 있다.
일 실시예에서, 디자인 생성 장치(100)는, 네트워크를 통해 웹 상의 무수히 많은 페이지를 크롤링, 스캐래핑 및/또는 파싱할 수 있으며, 상기 페이지에 포함된 정보(30)를 분류, 식별, 추출 및 가공할 수 있다.
특히, 본 발명의 실시예에 따르면, 디자인 생성 장치(100)는 정보(30)에 속한 이미지(50)를 획득하고, 텍스트(70)를 추출할 수 있다. 상기 페이지는, 블로그, SNS, 인터넷 쇼핑몰의 페이지 중 적어도 하나를 포함할 수 있다.
일 실시예에서, 디자인 생성 장치(100)는, 획득된 이미지(50)의 특징을 인공 신경망을 통해 학습할 수 있다. 예를 들어, 이미지(50)가 패션 디자인 이미지인 경우, 디자인 생성 장치(100)는 무수히 많은 페이지로부터 획득된 이미지의 특징을 학습함으로써, 각 패션 디자인 의류의 카테고리, 의류의 적어도 일부에 대한 형상 기반의 분류, 의류의 패턴 무늬 별 분류, 의류의 질감 별 분류를 수행할 수 있다.
일 실시예에서, 디자인 생성 장치(100) 추출된 텍스트(70)를 학습할 수도 있다. 특히, 디자인 생성 장치(100)는 추출된 텍스트(70)의 형태소, 단어, 문장 단위의 분석 및 각 단위 별 관계를 학습할 수 있다. 예를 들어, 디자인 생성 장치(100)는 텍스트(70), 원피스, 도트, 패턴, 벨트, 랩 드레스(wrap dress), 세미 정장, BLACK/ WHITE, SS 시즌의 텍스트를 추출할 수 있다. 디자인 생성 장치(100)는 추출된 텍스트를 단위 별로, 예를 들어 단어 또는 형태소 별로 분류한 후, 임베딩할 수 있다.
일 실시예에서, 디자인 생성 장치(100)는, 획득된 이미지(50)와 텍스트(70)의 쌍(pair)을 매칭할 수 있으며, 특히, 이미지(50)의 특징에 대한 학습 결과와, 텍스트(70)의 임베딩에 의해 추출된 벡터 값을 기초로 이미지(50)와 텍스트(70)의 매칭 관계를 학습할 수도 있다. 예를 들어, 디자인 생성 장치(100)는 의류의 이미지(50)에서 추출된 특징점 및 특징점간 상호 관계에 대한 학습을 바탕으로 의류 중, 원피스의 형상 디자인 요소를 식별하고, 이를 페이지 상에서 추출된 텍스트(70) 중, 학습된 "원피스"를 매칭할 수 있다.
일 실시예에서, 디자인 생성 장치(100)는 디자인 생성의 조건을 학습할 수 있다. 디자인 생성의 조건이란, 디자인 생성 장치(100)에서 텍스트가 입력됨에 따라 디자인이 생성될 때, 생성 대상 디자인의 범위를 제약하는 조건이다. 상기 입력된 텍스트는 생성하고자 하는 디자인에 대한 키워드일 수 있으며, 예를 들어, 코트, 원피스, 자켓과 같은 의류 디자인의 종류일 수 있다. 즉, 텍스트 "원피스"가 입력되면, 생성 대상이 되는 디자인이 원피스 종류로 제한되며, 구체적으로, "원피스"텍스트에 매칭되어 학습된 특징점을 갖는 이미지를 생성할 수 있다.
본 발명의 실시예에 따르면, 실시간 디자인 생성의 반응성 및 컴퓨팅 자원의 절약을 위해, 조건의 학습에 의해 의류의 종류, 색상, 패턴 등의 카테고리 정보가 조건으로 생성될 수 있다.
일 실시예에서, 디자인 생성 장치(100)에 디자인 생성을 위한 텍스트가 입력되고 카테고리 정보가 선택됨에 따라, 카테고리에 해당함과 동시에 텍스트에 매칭되는 디자인이 생성될 수 있다.
*도 2에서 카테고리(201)가 의류의 종류인 경우가 예로써 도시되었으며, 입력되는 텍스트(202)는 소매 길이, 색상, 구체적인 디자인 요소, 지퍼, 주머니, 무늬 등인 경우가 예시되었다.
카테고리(201) 및 텍스트(202)가 디자인 생성 장치(100)에 입력되면, 디자인 생성 장치(100)의 스타일 생성기(Style Generator)(210)가 조건부 디자인을 생성할 수 있다. 일 예로 스타일 생성기(210)는 GAN, 특히 cGAN(conditional GAN) 기반의 디자인 생성 모델이 이용될 수 있다.
여기서, GAN은 비지도 학습에 속하며, 이미지를 생성하는 Generator(G)와, Generator에 의하여 생성된 이미지를 평가하는 Discriminator(D)가 서로 대립하여 서로의 성능을 개선시켜 나가는 모델로서 새로운 이미지를 생성한다.
구체적으로, D는 원래의 데이터 만을 참으로 판단하기 위하여 노력하고, G는 D가 거짓으로 판별하지 못하도록 가짜 데이터를 생성하여 두 모델의 성능이 함께 향상되어 최종적으로는 D가 실 데이터와 가짜 데이터를 구분하지 못하게 된다. 또한, cGAN은 랜덤하게 생성하는 것이 아닌 원하는 것을 생성할 수 있는 것이 기존의 GAN과 다른 점이다.
한편, 다시 도 1을 참조하면, 제조 단말(300)은, 디자인 생성 장치(100)에서 생성된 디자인을 수신 받고, 디자인 제품을 제조 현장의 컴퓨팅 장치이다. 다른 예에서, 제조 단말(300)은 생성된 디자인을 수신 받고, 이를 홍보하는 인플루언서의 단말일 수도 있다. 이 경우, 인플루언서는 SNS 페이지 등을 통해 수신받은 디자인을 다양하게 변형 및 가공하여 제작 중인 콘텐츠에 활용할 수 있다.
제조 단말(300)이 생성된 디자인을 수신하고 직접 디자인 제품을 제조하고자 하는 경우, 디자인의 형상과 무늬, 각 영역과 그들의 연결관계 등 디자인 요소가 명확해야 한다. 즉, 고해상도의 디자인이 생성되고 제조 단말(300)에 제공될 필요가 있다. 이를 위해, 디자인 생성 장치(100)는 일차적으로 생성된 디자인에 대한 최종 생성 과정을 통해 디자인 이미지의 해상도를 관리할 수 있다.
다시 도 2를 참조하면, 스타일 생성기(210)를 통해 생성된 디자인 이미지의 해상도가 낮은 문제가 발생하는 경우, 포스트 생성기(Post Generator)(230)을 이용하여 고해상도의 디자인 이미지가 생성될 수 있다. 일 예로 포스트 생성기(230) 역시 cGAN이 이용될 수 있다. 즉, 본 발명의 실시예에 따르면, 스타일 생성기(210)와 또 다른 신경 네트워크를 활용하여 최종 디자인 이미지(250)를 생성할 수 있다. 특히, 최종 디자인 이미지(250)는 텍스트(202)를 입력하는 사용자의 의도에 따른 우선순위를 갖는 이미지 셋(set)을 포함할 수 있다. 포스트 생성기(230)는 고해상도 변환기로 호칭할 수도 있다.
본 발명의 실시예에 따른 디자인 생성 시스템(10)은 도 1 및 상술한 기재로 한정되지 않는다.
다음으로, 도 3을 참조하여 디자인 생성 장치(100)의 기능 및 동작에 대하여 보다 구체적으로 설명하도록 한다. 도 3은 본 발명의 다른 실시예에 따른 학습된 조건 기반의 디자인 생성 장치의 블록도(Block)이다.
도 3을 참조하면, 디자인 생성 장치(100)는 하나 이상의 프로세서(101), 외부 디바이스와 유무선 통신하는 네트워크 인터페이스(102), 프로세서(101)에 의하여 수행되는 컴퓨터 프로그램을 로드(load)하는 메모리(103)와, 컴퓨터 프로그램을 저장하는 스토리지(104) 및 디스플레이(107)를 포함할 수 있다.
프로세서(101)는 디자인 생성 장치(100)의 각 구성의 전반적인 동작을 제어한다. 프로세서(101)는 CPU(Central Processing Unit), MPU(Micro Processor Unit), MCU(Micro Controller Unit), AP(Application Processor), AP(Application Processor) 또는 본 발명의 기술 분야에 잘 알려진 임의의 형태의 프로세서를 포함하여 구성될 수 있다. 또한, 프로세서(101)는 본 발명의 실시예들에 따른 방법을 실행하기 위한 적어도 하나의 애플리케이션 또는 프로그램에 대한 연산을 수행할 수 있다. 디자인 생성 장치(100)는 하나 이상의 프로세서를 구비할 수 있다.
네트워크 인터페이스(102)는 디자인 생성 장치(100)의 유무선 네트워크 통신을 지원한다. 네트워크 인터페이스(102)는 공중 통신망인 인터넷 외에 다양한 통신 방식을 지원할 수도 있다. 이를 위해, 네트워크 인터페이스(102)는 본 발명의 기술 분야에 잘 알려진 통신 모듈을 포함하여 구성될 수 있다. 네트워크 인터페이스(102)는 프린터 장치와 같은 물리적 출력수단과 연결을 제공하여, 본 발명의 실시예에 따른 사용자 인터페이스가 반영된 컨텐츠를 출력하도록 지원할 수도 있다.
본 발명의 실시예에 따르면, 디자인 생성 장치(100)는 네트워크 인터페이스(102)를 이용하여 이미지와 텍스트를 포함하는 정보를 수신할 수 있다.
메모리(103)는 각종 데이터, 명령 및/또는 정보를 저장한다. 메모리(103)는 본 발명의 실시예들에 따른 방법들을 실행하기 위하여 스토리지(104)로부터 하나 이상의 프로그램(105)을 로드(load)할 수 있다. 메모리(103)는 기록해독이 가능하며 읽기 또는 쓰기 속도가 빠른 휘발성 메모리(volatile memory)로 구성될 수 있다. 일례로서, 메모리(103)에 RAM, DRAM 또는 SRAM 중 적어도 하나가 구비될 수 있다.
스토리지(104)는 상기 하나 이상의 프로그램(105) 및 생성된 디자인 이미지 데이터베이스(106)를 비임시적으로 저장할 수 있다. 도 2에서 상기 하나 이상의 프로그램(105)의 예시로 디자인 생성 S/W(이하, 디자인 생성 소프트웨어)(105)가 도시되었다.
스토리지(104)는 ROM(Read Only Memory), EPROM(Erasable Programmable ROM), EEPROM(Electrically Erasable Programmable ROM), 플래시 메모리 등과 같은 비휘발성 메모리, 하드 디스크, 착탈형 디스크, 또는 본 발명이 속하는 기술 분야에서 잘 알려진 임의의 형태의 컴퓨터로 읽을 수 있는 기록 매체를 포함하여 구성될 수 있다.
본 발명의 실시예에 따르면, 디자인 이미지 데이터베이스(106)는 텍스트, 이미지 각각에 대한 정보뿐만 아니라, 텍스트와 이미지의 매칭 관계를 저장할 수도 있다. 본 발명의 실시예에 따른 디자인 이미지 데이터베이스(106)는 제조 단말(300) 등에 제공하기 위해 생성된 디자인을 저장한 것일 수 있다. 따라서, 제조 단말(300)에 제공되는 디자인은, 사전에 무작위로 생성되어 저장된 이미지가 아닌, 디자인 생성 장치(100)에서 입력된 텍스트에 응답하여 실시간으로 생성된 디자인 이미지를 포함한다.
한편, 본 발명의 실시예에 따른 디자인 생성 소프트웨어(105)는 디자인 생성 장치(100)에 의한 다양한 기능을 실시하기 위하여 다양한 모듈을 포함할 수 있다. 이하, 본 명세서에서 모듈은, 소프트웨어의 기능별 단위를 의미할 수 있다.
도 4는 본 발명의 몇몇 실시예에서 참조되는, 디자인 생성 소프트웨어의 구조의 예시이다. 이하, 도 4에서, 디자인 생성 소프트웨어(105)의 각 모듈에 대하여 설명한다.
도 4를 참조하면, 디자인 생성 소프트웨어(105)는, 이미지 획득 모듈(115), 텍스트 인식 모듈(125), 획득된 이미지와 추출된 텍스를 매칭하기 위한 이미지 텍스트 매칭 모듈(135), 상술한 cGAN 기반의 디자인 생성 모듈(145) 및 생성된 이미지에 대한 고해상도 이미지 생성을 수행하는 해상도 변환 모듈(155)를 포함할 수 있다.
예를 들어, 이미지 획득모듈(115)은, 도 1의 이미지(50)를 크롤링, 스크래핑 및 파싱 중 적어도 하나의 방법으로 획득하고, 이에 대한 특징을 학습함으로써 디자인 생성 장치(100)가 획득한 이미지에 대한 종류, 색상, 형상 등 디자인 요소를 식별하게 할 수 있다. 이를 위해, 이미지 획득 모듈(115)은 기계 학습 모델을 포함할 수 있다.
일 예로, 특징의 학습은, 도 3의 프로세서(101)에 의해 기계 학습 모델이 구동됨에 따라, 획득된 다수의 이미지 상의 특징점을 추출할 수 있다. 여기에서, 기계 학습 모델은, 인공 신경망을 포함할 수 있으며, 컨볼루션 신경망(convolution neural network: CNN), 오토 인코더(auto encoder), 피드포워드 신경망(feedforward neural network), 방사 신경망(radial basis function network), 코헨 자기조직 신경망(kohonen self-organizing network), 순환 신경망(RNN:recurrent neural network) 중 적어도 하나를 포함하여 구성될 수 있다.
예를 들어, 기계 학습 모델이 컨볼루션 신경망에 의한 것일 경우, 프로세서(101)에 의해 기계 학습 모델이 구동됨에 따라, 도 1의 원피스 이미지(50)의 특징 값이 필터링되고, 컨볼루션 계산을 통해 여러 이미지 픽셀 중 특정한 값만 새롭게 취해진다. 이를 반복 학습함으로써, 원하는 특징점이 추출될 수 있다.
상기 특징점은 프로세서(101)가 디자인 생성 프로그램(105)을 실행함으로써 파악할 수 있는 의류의 일부로서, 예를 들어, 원피스 형상의 윤곽선, 원피스 외면의 패턴 무늬, 벨트 부분 등에 대응되는 점일 수 있다. 구체적으로, 상기 특징점은, 원피스 의류의 형상 및/또는 무늬 패턴을 구성하는 선 또는 면적 상에 위치하는 점일 수 있다.
본 발명의 실시예에 따르면, 디자인 생성 장치(100)는 추출된 특징점을 기준으로 방향성 및 유사성을 분석함으로써, 각각의 특징점을 연관 지을 수 있다. 즉, 디자인 생성 장치(100)는 각 특징점을 연관 짓고 연결함으로써 라인을 생성할 수 있으며, 생성된 라인을 바탕으로, 디자인의 대상, 예를 들어, 의류의 종류를 식별할 수 있다.
텍스트 인식 모듈(125)은 디자인 생성 장치(100)가 도 1의 정보(30) 상의 텍스트(70)를 추출하도록 한다. 예를 들어, 텍스트(70)는 쇼핑몰 웹의 페이지 상의 텍스트로, 페이지 제공자에 의한 상품 설명 텍스트 및 제품 구매자의 후기 텍스트를 포함할 수 있다.
텍스트 인식 모듈(125)은 예를 들어, 상기 상품 설명 텍스트 및 후기 텍스트 상에서, 디자인 생성 장치(100)가 원피스, 도트, 패턴, 벨트, A 스타일, 세미 정장, BLACK/ WHITE, SS 시즌과 같은 텍스트를 추출하도록 할 수 있다. 상기 추출된 텍스트는, 상기 상품 설명 텍스트 및 후기 텍스트 상에 공통으로 등장하는 텍스트일 수 있다. 다른 예로써, 상기 추출된 텍스트는, 상기 상품 설명 텍스트 및 후기 텍스트 상에 각각 속하되, 상호 간의 의미적 관계를 갖는 텍스트일 수도 있다. 또한, 추출된 텍스트는 디자인과 관련하여 자주 노출되는 단어, 텍스트 입력한 사람에 의해 태깅된 단어, 디자인에 대한 평가, 긍정적 또는 부정적 반응의 텍스트를 포함할 수도 있다.
일 실시예에서, 텍스트 인식 모듈(125)은 추출된 텍스트를 인코딩하는 네트워크를 포함할 수 있다. 상기 인코딩 네트워크는 4개의 레이어로 구성되어, 하위 2개 레이어는 문장 단위의 표현을 위해 문장의 경계 내에서 네트워크가 한정되어 있고 상위 2개 레이어는 문서 단위의 표현으로 문장의 경계에 한정되지 않고 문서 전체를 연결하여 학습하도록, 상기 인코딩 네트워크가 구현될 수 있다. 예를 들어, 상기 인코딩 네트워크는, BERT(Bidirectional Encoder Representations from Transformers) 기반의 언어모델일 수 있다. 상기 BERT는 양방향 트랜스포머 구조를 사용하여 33억개의 단어를 포함한 말뭉치로 학습한 언어모델이다.
일 실시예에 따르면, 텍스트 인식 모듈(125)은, 텍스트와 이미지가 함께 반영된 도 1의 정보(30)와 같은 이미지와 텍스트를 포함하는 문서가 상기 말뭉치와 같은 학습대상으로서 학습될 수 있다. 이 같이, 정보(30) 상의 이미지(50)의 특징과 매칭되는 텍스트(70)을 학습함으로써, 본 발명의 실시예에 따른 생성 대상 디자인에 대한 조건이 학습될 수 있다. 예를 들어, 학습되는 조건은, 디자인의 대상이 되는 이미지에 매칭되는 카테고리에 대한 텍스트, 디자인의 대상에 반영이 될 확률이 높은 형상, 무늬에 대응하는 텍스트일 수 있다. 즉, 도 1의 이미지(50)에 매칭되는 텍스트"원피스"가 이미지(50)의 카테고리로 학습될 수 있다. 또한, "도트" 무늬가 카테고리인 "원피스"에 적용되는 무늬임이 학습될 수 있다.
일 실시예에 따르면, 텍스트 인식 모듈(125)은, 디자인 대상이 속한 도메인의 특징을 고려하여, 대상이 어떤 카테고리에 속하는지 판별하는 기능이 학습되도록 구성될 수 있다. 예를 들어, 디자인 대상이 의류이고, 도메인이 패션 산업이고, 카테고리가 의류의 종류로 결정된 경우, 도 1의 텍스트(70) 중, 디자인 생성 장치(100)는 텍스트"랩 드레스"가 카테고리 "원피스"에 속하는 것으로 판별할 수 있다.
디자인 생성 장치(100)는 텍스트를 벡터화한 벡터 값이 카테고리에 매칭되는지 판단하여, 매칭되는 경우, 이를 반영하여 디자인 생성할 수 있다. 반면, 디자인 생성 장치(100)는 텍스트를 벡터화한 벡터 값이 카테고리에 매칭되지 않는 경우, 예를 들어, "바지의 뒷주머니"의 벡터 값이 원피스 카테고리에 매칭되지 않는 경우, 이에 변환 값을 적용하여 변환 벡터 값을 생성할 수 있다. 이 경우, 디자인 생성 장치(100)는 원피스 치마 부분의 주머니 디자인을 원피스에 적용할 수 있다. 상기 벡터 변환 값은, 카테고리에 속하는 원피스의 벡터 값을 기초로 생성될 수 있다.
이미지 텍스트 매칭 모듈(135)은 획득된 이미지의 학습 결과 식별된 특징과 상기 추출된 텍스트의 언어모델에 의한 벡터화 결과를 매칭시킨다.
예를 들어, 이미지 텍스트 매칭 모듈(135)에 의해, 디자인 생성 장치(100)는 이미지 획득 모듈(115)에 의한 이미지의 특징에 대한 학습 결과와 텍스트 인식 모듈(125)에서 학습된 텍스트에 대한 해석을 하나로 합치는 딥러닝 모델을 포함할 수 있다. 이에 따라, 디자인 생성 장치(100)는 생성 대상 디자인의 조건을 생성할 수 있다. 생성되는 조건은, 조건 셋, 조건부로 호칭될 수 있다.
이때, 생성된 조건은 카테고리를 형성할 수 있다. 생성된 조건이 "원피스"인 경우, 이미지 텍스트 매칭 모듈(135) 텍스트 원피스를 카테고리에 반영하고, 원피스 카테고리는, 셔츠 드레스, 티드레스, 스웨터드레스, 랩드레스, 맥시드레스, 스목드레스, 스케이터드레스, 엠파이어드레스 등 다양한 원피스 관련 이미지 특징 및/또는 텍스트 임베딩 정보를 디자인 생성 과정에 조건으로 반영할 수 있다.
한편, 카테고리가 디자인 생성의 조건인 경우를 주로 설명하였으나, 본 발명의 실시예는 이에 한정되지 않고, 텍스트 역시 조건으로 생성 디자인에 반영될 수 있다.
디자인 생성 모듈(145)은, 생성된 조건 하에, 입력된 텍스트를 반영한 디자인을 생성하도록 디자인 생성 장치(100)를 제어한다.
GAN은 무작위로 주어지는 벡터에서 시작하여 이미지를 생성하는 기법으로서, 무작위 이미지를 생성하는 방식이지만, 결과 이미지를 제어하기 어렵다는 한계를 가지고 있다. 이를 개선하여 무작위 이미지가 아니라 스타일 벡터를 지정하고 이를 통해 이미지 생성을 제어하는 styleGAN이 제안되고 있다.
이 같은 견지에서, 본 발명의 실시예에 따르면, 디자인 생성 장치(100)는, 조건부 입력에 반응하여 제약 조건을 만족하는 디자인을 생성할 수 있다. 즉, 본 발명의 실시예에 따른 디자인 생성 장치(100)는, 생성 대상 디자인에 스타일이 입혀지도록 제어하여, 사용자가 의도한 바가 충분히 반영된 디자인이 생성될 수 있도록 한다.
이를 위해 텍스트 인식 모듈(125)는, 상술한 인코딩 네트워크의 인코딩 결과를 스타일 벡터로 사용하여 디자인 이미지를 생성할 수 있도록 네트워크를 연결할 수 있다. 스타일 벡터는 상술한 언어모델에 의한 텍스트의 벡터화 결과로서, 생성 대상 이미지에 스타일을 입히는 요소이다.
본 발명의 일 실시예에 따르면, 이미지 텍스트 매칭 모듈(135)에서, 상기 스타일 벡터로 512-dimension vector가 사용되고, 8개의 FC 레이어(fully-connected layer)를 맵핑 네트워크로 활용하고, 마지막 디자인 이미지 생성 네트워크로 18개의 CNN layer를 사용할 수 있다.
이에 따라, 카테고리가 의류의 종류인 "원피스"로 결정된 경우, 디자인 생성 장치(100)는 입력되는 텍스트를, 원피스와 관련된 키워드로 인식하고, 원피스 디자인 이미지에 상기 입력된 텍스트에 기반한 스타일 벡터 값이 반영되어 디자인이 생성될 수 있다. 예를 들어, 디자인 생성 장치(100)에서 "원피스" 카테고리가 선정되고, 색상 관련 키워드인 "검정"과, 무늬 관련 키워드인 "도트"가 텍스트 입력되면, 입력된 텍스트의 스타일 벡터 값이 반영되어 검정 도트 무늬로 프린트된 원피스 디자인 이미지가 생성될 수 있다.
한편, 본 발명의 실시예에 따르면, 텍스트 인식 모듈(125)은 텍스트 이미지는, 디자인 생성 장치(100)가 하나의 색상이 아닌 복수의 색상이 혼합된 디자인을 생성하도록 할 수도 있다. 상기 예에서, 텍스트 입력이 "검정", "도트", "흰색"이 입력된 경우, 텍스트 인식 모듈(125)은, "검정"과 "도트"의 관계, "흰색" 텍스트의 입력 순서를 고려하여, 스타일 벡터를 생성하고, 이미지 텍스트 매칭 모듈(135)은, 디자인 카테고리에 생성된 스타일 벡터를 조건으로 반영시키고, 디자인 생성 모듈(145)은 검정 도트 무늬의 흰색 원피스의 디자인 이미지가 생성되도록 한다.
다음으로, 해상도 변환 모듈(155)은, 생성된 이미지에 대한 고해상도 이미지 생성을 수행할 수 있다. 해상도 변환 모듈(155)은, 도 2의 포스트 생성기(230)의 기능을 지원할 수 있다.
본 발명의 실시예에 따르면, 해상도 변환 모듈(155)은, cGAN의 결과물을 고해상도 이미지로 생성하는, 이미지 해상도 고도화 네트워크를 포함할 수 있다. 상기 이미지 해상도 고도화 네트워크는, 예를 들어, SRGAN(Super-Resolution Generative Adversarial Network) 일 수 있다.
일반적으로, 이미지 일반적으로 이미지 생성에 막대한 컴퓨팅 파워가 필요하기 때문에, 딥러닝 네크워크 사용 시, 연산량을 줄이기 위해 이미지 해상도를 256x256 pixel 이나 512x512 pixel로 제한된다. 그러나 낮은 해상도로 결과물을 생성하는 경우, 디테일을 확인하고 싶어하는 패션 영역에서 GAN을 사용하기에는 어려움이 따르며, 이를 해결하기 위해 본 발명의 실시예에 따르면, 디자인 생성 장치(100)는, 해상도 변환 모듈(144)의 SRGAN을 활용하여, cGAN 생성 네트워크의 결과물을 높은 해상도 이미지로 변환할 수 있다.
구체적으로, 디자인 생성 장치(100)는 해상도 변환 모듈(155)에 포함된 상기 SRGAN와 같은 이미지 해상도 고도화 네트워크를 활용함으로써, 원본 이미지 및 생성 디자인 이미지 상의 픽셀 기반 비교가 아닌, 추출된 특징량 기반의 유사성을 반영하여 디자인 이미지를 생성할 수 있다. 예를 들어, 해상도 변환 모듈(155)은, 픽셀 단위의 유사성에 기반하지 않고, VGGNET을 사용한 인코딩 결과물의 유사성을 학습 성능으로 사용하여 실제 사람의 육안으로 보기에도 매우 유사한 고해상도의 디자인 이미지가 생성되도록 할 수 있다.
다시 도 3을 참조하면, 디자인 생성 장치(100)는 디스플레이(107)를 포함할 수 있으며, 디스플레이(107)는 본 발명이 속한 기술 분야에서 널리 알려진 디스플레이(107)를 포함할 수 있다. 디스플레이(107)는 디자인 생성 장치(100)의 의해 생성된 디자인 이미지 및/또는 고해상도로 변환된 이미지를 출력할 수 있다. 디스플레이(107)가 터치스크린으로 구성된 경우, 출력부 뿐만 아니라 입력부로 기능할 수도 있으며, 이 경우, 디자인 생성 장치(100)는 상술한 카테고리의 선정과 텍스트 입력을 위한 인터페이스를 디스플레이(107)를 통해 제공할 수 있다.
도 5는 본 발명의 또 다른 실시예에 따른 학습된 조건 기반의 디자인 생성 방법의 순서도이다. 또한, 도 6은 본 발명의 또 다른 실시예에 따른 획득된 이미지 및 추출된 텍스트 간 매칭 방법의 순서도이다.
이하, 도 5 및 도 6에서 참조되는 각 단계들은, 디자인 생성 장치(100)에 의해 수행되며, 구체적으로 프로세서(101)가 디자인 생성 프로그램(105)을 연산함에 따라 수행될 수 있다.
도 5를 참조하면, 디자인 생성 장치(100)는 이미지를 획득할 수 있다(S10). 획득된 이미지는 도 1에서 참조된 바와 같이 정보(30)에 포함된 이미지일 수 있으며, 예를 들어, 패션 디자인 제품, 특히 원피스의 이미지일 수 있다.
디자인 생성 장치(100)는 도 1의 정보(30) 상에서 텍스트 인식 모듈(125)을 통해 텍스트를 추출하고, 이미지 텍스트 매칭 모듈(135)을 이용하여 추출된 텍스트와 획득된 이미지를 매칭할 수 있다(S20).
도 6을 참조하면, 상기 매칭 단계(S20)에서, 디자인 생성 장치(100)는 텍스트와 이미지의 쌍(pair)에 대한 학습을 수행할 수 있다(S610). 텍스트와 이미지의 쌍은, 예를 들어, 도 1의 정보(30) 상의 텍스트(70) 및 이미지(50)가 이루는 쌍일 수 있다.
단계(S610)의 학습 과정에서, 도 1의 이미지(50)를 학습함에 따라 분석된, 원피스의 적어도 일부를 구성하는 디자인 특징에 대하여, 높은 빈도로 추출되는 텍스트를 추출할 수 있다. 예를 들어, 디자인 생성 장치(100)는 학습된 다양한 문서에서 원피스 이미지와 이에 매칭되는 텍스트 "도트"가 높은 빈도로 추출되는 경우, 원피스 이미지 상의 디자인 요소가 "도트"인 것으로 해석할 수 있다. 이에 따라, 이미지(50)의 원피스와 관련하여 "도트"라는 텍스트가 매칭될 수 있다.
본 발명의 실시예는, 크롤링, 스크래핑 및/또는 파싱의 대상이 되는 문서에서 획득된 이미지와 추출된 텍스트 쌍에 대한 학습 결과, 미리 설정된 기준 횟수 이상의 추출 빈도를 보이는 단어를 식별하고, 이를 트렌드 단어로 결정할 수 있다.
디자인 생성 장치(100)는 단계(S610)의 학습 과정에서 트렌드 단어의 추출이 이뤄지는지 판단할 수 있다(S620). 트렌드 단어가 존재하고, 추출된 경우, 디자인 생성 장치(100)는 트렌드 단어와 이미지 쌍에 대한 학습을 수행할 수 있다(S630).
예를 들어, 도 1의 정보(30)와 유사한 페이지에 대한 크롤링이 다수 이뤄지거나, 파싱 결과 상기 페이지 상의 이미지(50)가 다수 획득된 다면, 웹 페이지 상에 도트 무늬의 원피스 정보량이 많기 때문일 수 있다. 이는, 원피스 디자인 중, 도트 무늬의 디자인에 대한 제작 및 판매 증가, 소비자 관심 증가 등 트렌드 반영에 의한 결과일 수 있다. 이 경우, 텍스트 "도트"는 페이지 상의 제품 설명 또는 사용자 후기 등의 기재 상에서 빈번히 등장할 것이며, 텍스트 추출 시, 높은 순위의 추출 횟수로 나타날 수 있다.
디자인 생성 장치(100)는 단계(S630)에서, 획득된 원피스 이미지와 트렌드 단어인 "도트" 쌍을 학습할 수 있으며, 이 과정에서 원피스 이미지 상의 도트 디자인 특징을 식별할 수 있다(S640). 즉, 텍스트 "도트"에 대한 원피스 이미지는 도트 무늬가 디자인되어 있으므로, 학습 결과, 디자인 생성 장치(100)는 원피스의 디자인 요소인 도트 무늬를 특징 정보로 식별하게 된다.
나아가, 디자인 생성 장치(100)는, 단계(S630)의 학습을 통해, 도트 무늬 중, 도트의 배치, 도트의 개수, 도트의 면적(크기), 도트의 색상에 대한 특징을 식별할 수도 있다. 이를 통해, 도트 무늬의 원피스 중에서도 최신의 트렌드에 따른 디자인 특징 정보를 식별할 수 있다.
또 다른 실시예로, 디자인 생성 장치(100)는, 높은 순위의 추출 횟수뿐만 아니라, 추출 증가율이 높은 텍스트를 트렌드 단어로 결정할 수도 있다.
한편, 단계(S620)에서 트렌드 단어가 추출되지 않는 경우가 발생할 수 있다. 이는, 시장을 주도하는 디자인 트렌드가 형성되지 않았거나, 특정 제품의 디자인을 표현하는 용어가 정립되지 않은 경우일 수 있다. 이와 같은 경우, 디자인 생성 장치(100)는, 트렌드 단어를 추출하는 기준을 조정할 수 있다(S650).
일 예로, 디자인 생성 장치(100)는 텍스트의 추출에 대한 미리 설정된 기준 횟수를 변경할 수 있다.
다른 예로 디자인 생성 장치(100)는 추출 텍스트 간의 관계에 따라 트렌드 단어를 추출하도록 기준을 조정할 수도 있다. 예를 들어, 단독으로 추출되는 횟수는 낮으나, 추출되는 횟수가 상대적으로 높은 복수의 텍스트가 존재하는 경우, 디자인 생성 장치(100)는 복수의 텍스트를 각각 트렌드 단어로 결정하고 추출할 수도 있다. 상기 예에서, 원피스의 무늬로 "도트"가 추출되는 횟수가 낮으나, "도트"와 "물방울"이 비교적 빈번하게 추출되는 경우, 디자인 생성 장치(100)는 도트와 물방울이 동일한 디자인 특징을 표현하는 것으로 판단하고, 단계(S630)의 학습을 수행할 수도 있다.
또 다른 예로, 디자인 생성 장치(100)는 단계(S610)의 텍스트 이미지 쌍에 대한 학습량이 증가되도록 트렌드 단어의 추출 스케줄을 조절함으로써, 트렌드 단어 추출 기준을 조정할 수도 있다.
단계(S640)의 디자인 특징 정보 식별을 통해, 디자인 생성 장치(100)는 디자인의 특징 정보를 의미하는 텍스트를 디자인 생성의 조건으로 학습할 수 있다.
다시 도 3을 참조하면, 디자인 생성 장치(100)는 생성의 대상이 되는 디자인에 대한 조건을 학습할 수 있다(S30). 단계(S30)의 학습을 통해, 디자인 생성 장치(100)는, 디자인의 카테고리를 생성할 수 있다. 예를 들어, 디자인 생성 장치(100)는, 원피스, 자켓, 바지 등과 같은 의류의 종류를 의미하는 텍스트를 식별하고, 상기 텍스트를 카테고리로 생성할 수 있다.
또한, 디자인 생성 장치(100)는 상기 의류의 종류에 속하는 세부 디자인 분류가 카테고리에 종속되는 것을 학습할 수 있다. 예를 들어, 디자인 생성 장치(100)는 도 1의 이미지(50) 상의 도트 무늬 원피스는, 카테고리 "원피스"에 속하는 것으로 학습할 수 있다. 이로써, 원피스 카테고리를 선택하고, 텍스트"도트"를 입력하면, 디자인 생성 장치(100)는 이미지(50) 상의 도트 무늬 원피스와 같은 디자인을 생성할 수 있다.
디자인 생성 장치(100)는 입력 텍스트에 대응하는 조건을 식별할 수 있다(S40). 상기 예에서, 텍스트 "도트"가 입력되면, 디자인 생성 장치(100)가 도트에 대응하는 디자인 조건을 식별할 수 있다. 즉, 디자인 생성 장치(100)는 텍스트 "도트"가 속한 카테고리 및 텍스트에 대한 벡터 정보를 식별할 수 있다.
디자인 생성 장치(100)는 식별된 조건에 기반하여 디자인 셋을 생성할 수 있다(S50). 이때, 생성된 디자인 셋이 디자인 생성 장치(100)의 디스플레이(107)를 통해 출력될 수 있으며, 도 6의 단계(S630)에서 학습된 트렌드를 반영하여 표시되는 생성된 디자인이 위치하는 순서가 결정될 수 있다. 디자인 셋은 생성된 디자인을 포함하는 디자인 이미지의 그룹으로, 디스플레이(107) 표시 영역, 또는 미리 설정된 사용자 인터페이스에 따라 화면에 표시되는 디자인 이미지의 개수가 결정될 수 있다.
디자인 생성 장치(100)는 생성된 디자인을 고해상도의 이미지로 변환할 수 있다(S60). 이를 위해, 도 5의 해상도 변환 모듈(155)은 디자인 생성 장치(100)가 픽셀 기반의 유사도 아닌, 디자인 특징 정보의 유사도를 바탕으로 생성 디자인의 해상도를 변환하도록 한다.
도 7은 본 발명의 몇몇 실시예에서 참조되는, 이미지 및 이에 매칭되는 텍스트 쌍(Pair)의 학습 방법을 설명하기 위한 예시이다. 도 8은 본 발명의 몇몇 실시예에서 참조되는, 트렌드 단어의 선정 프로세스를 설명하기 위한 예시이다.
이하, 도 7을 참조하면, 디자인 생성 장치(100)는 다수의 이미지 셋(700)를 획득할 수 있다. 디자인 생성 장치(100)는 도 1의 정보(30)와 같은 페이지 상의 이미지를 다수 획득하여, 이로부터 이미지 셋(700)을 구축하고, 이를 디자인의 특징 추출을 위한 이미지 학습 대상으로 결정할 수 있다.
디자인 생성 장치(100)는 이미지 셋(700) 상의 이미지(701, 702, 703, 704)를 학습함에 따라, 원피스의 디자인 특징을 식별할 수 있다.
디자인 생성 장치(100)는 상기 정보(30)와 같은 페이지 상의 텍스트를 다수 추출할 수 있다. 상기 페이지가 블로그, 쇼핑몰과 같은 페이지로, 디자인 대상 제품에 대한 설명 정보가 존재하는 경우, 디자인 생성 장치(100)는 설명 정보에서 텍스트를 추출하여 텍스트 셋(710)을 생성할 수 있으며, 쇼핑몰의 후기 정보(720)가 존재하는 경우, 후기 정보(720) 상에서도 텍스트를 추출할 수도 있다.
디자인 생성 장치(100)는 텍스트 셋(710)과 후기 정보(720)에서 추출된 텍스트 상에서 미리 설정된 기준 횟수 이상의 추출 텍스트를 식별할 수 있다(730)
도 7에서, 원피스(ONE PIECE), 드레스(DRESS, 원피스 드레스(ONE PIECE DRESS), 슬리브(Sleeve), 슬리브리스(Sleeveless), 검정(Black), 검회색(Dark Gray), 면(Cotton), 린넨(Linen), AA 스타일(AA Style), AA 라인(AA Line)과 같은 단어가 추출된 경우가 예시되었다.
디자인 생성 장치(100)는, 설명 정보를 통해 추출된 텍스트 셋(710)을 후기 정보(720)와 함께 학습할 수 있다. 학습 결과 제품의 설명을 위한 정보에 있는 텍스트가 후기에도 사용되고 있는지, 제품 설명에 기재된 텍스트가 후기에 반영된 텍스트와 유사도가 높은지 여부를 확인하여, 디자인 생성 장치(100)는 해당 텍스트를 제품 카테고리로 학습할 수 있다.
도 7을 참조하면, 원피스 카테고리에 대하여, AA, Double A, A1과 같은 텍스트가 빈번하게 추출되거나, 추출량이 증가하는 것으로 판정되어, 트렌드 단어(730)로 결정될 수 있다. 예를 들어, 상기 AA, Double A, A1 등은, "도트"와 같이 원피스 디자인 특징에 관련된 디자인 용어일 수 있다,
도 8을 참조하면, 이미지(701)에 대하여 시간(T1)에 원피스 카테고리에 대해 Black, DRESS, Sleeveless, AA, A1, Double A이 미리 설정된 기준 횟수(x) 이상 추출된 경우가 그래프(801)에서 예시되었다. 특히, 시간(T1)에서 AA, A1, Double A가 트렌드 단어로 결정되었다.
이후, 시간(T2)에서, 디자인 생성 장치(100)가 이미지(701)에 대하여, Green, DRESS Sleeveless, AA, DA, G.Pattern이 미리 설정된 기준 횟수(x) 이상 추출한 경우가 그래프(802)에서 예시되었다. 디자인 생성 장치(100) 특히, 시간(T2)에서 Green, DA, G.Pattern이 트렌드 단어로 결정되었다.
시간(T1)에서 시간(T2)의 변화로 Black의 텍스트는 추출 횟수 상위 텍스트에서 제외되고, Green이 추가 되었다. AA는 추출량이 줄었으며, A1은 제외되었다. 이는, AA, A1의 용어가 지속적으로 사용되지 않고 있음을 의미할 수 있다. 또한, Double A는 DA로 변경되었는데, 이는 사용자에 의한 사용 디자인 용어가 변경되고 있음을 의미할 수 있다. 디자인 생성 장치(100)는 이 같은 추출 텍스트 변화를 학습하여, 이미지(701)의 카테고리 원피스에 대한 트렌드 변화를 식별할 수 있다.
또한, 디자인 생성 장치(100)는 신규 추가된 Green 및 G.Pattern의 신규 추출을 통해, 이미지(701)의 원피스 카테고리에 대한 트렌드 변화를 감지할낼 수도 있다. 예를 들어, 시간(T1)에서 시간(T2)의 변화에 계절의 변화로 인한 유행 색상이 반영될 수 있으며, 이 같은 트렌드 변화를 디자인 생성 장치(100)가 추출 텍스트의 변화를 바탕으로 학습할 수 있다.
도 9는 본 발명의 몇몇 실시예에서 참조되는, 입력 텍스트에 응답하여 디자인을 생성하는 인터페이스의 예시이다.
도 9를 참조하면, 디자인 생성 장치(100)는 인터페이스(900)을 생성하고 도 3의 디스플레이(107)를 통해 출력할 수 있다. 도 9에서 인터페이스(900)는 텍스트 입력창(903)과 디자인 이미지 출력부(905)를 포함할 수 있다.
디자인 생성 장치(100)는 텍스트 입력창(903)의 텍스트를 조건으로 반영한 디자인 이미지(905)를 생성할 수 있다.
도 10은 본 발명의 몇몇 실시예에서 참조되는, 포스트 생성기를 통한 고해상도 디자인 이미지 생성 결과의 예시이다.
도 10에서, 원본 이미지(1000), 생성된 디자인 이미지(1100) 및 해상도 변환 디자인 이미지(1110)가 예시되었다.
도 10을 참조하면, 원본 이미지(1000)는 구성요소로 배경1(1003), 배경2(1005), 디자인요소1(1001) 및 디자인요소2(1007)를 포함할 수 있다. 생성된 디자인 이미지(1100)은 배경1(1103), 배경(1105), 디자인요소1(1101) 및 디자인요소2(1107)를 포함할 수 있다.
해상도 변환 디자인 이미지(1110)는 배경1(1113), 배경(1115), 디자인요소1(1111) 및 디자인요소2(1117)를 포함할 수 있다.
디자인 생성 장치(100)는 원본 이미지(1000)를 학습하여, 디자인 이미지(1100)를 생성할 수 있다. 이때, 이미지(1100)에서 보듯이, 배경1(1103) 및 배경2(1105)이 해상도 문제로 왜곡(smoothing)되었고, 디자인요소1(1101) 및 디자인요소2(1107) 역시 원본과 차이가 발생한 것을 확인할 수 있다.
생성 디자인 이미지(1100)은 원본 이미지(1000) 대비 생성된 것으로 디자인 적인 면의 차이는 발생할 수 있으나, 해상도 문제는 디자인 이미지(1100)이 실제 존재하는 원본 이미지로 보이지 않고, 사용자로 하여금 이미지 처리를 통해 생성된 것으로 식별하게 한다.
해상도 변환 이미지(1110)를 참조하면, 배경2(1115)과 같은 해상도 문제가 있으나, 원본 이미지(1000)를 바탕으로 생성된 이미지 임에도, 실제 원본 이미지와 유사한 해상도를 나타낸다. 디자인 생성 장치(100)는 이미지 변환 모듈(155)을 이용하여, 원본 이미지(1000)의 픽셀 단위 비교가 아닌 디자인 특징의 비교를 통한 학습을 수행함으로써 해상도 변환 이미지(1110)를 생성할 수 있다.
지금까지 첨부된 도면을 참조하여 설명된 본 발명의 실시예에 따른 방법들은 컴퓨터가 읽을 수 있는 코드로 구현된 컴퓨터프로그램의 실행에 의하여 수행될 수 있다. 상기 컴퓨터프로그램은 인터넷 등의 네트워크를 통하여 제1 컴퓨팅 장치로부터 제2 컴퓨팅 장치에 송신되어 상기 제2 컴퓨팅 장치에 설치될 수 있고, 이로써 상기 제2 컴퓨팅 장치에서 사용될 수 있다. 상기 제1 컴퓨팅 장치 및 상기 제2 컴퓨팅 장치는, 서버 장치, 데스크탑 PC와 같은 고정식 컴퓨팅 장치, 노트북, 스마트폰, 태블릿 피씨와 같은 모바일 컴퓨팅 장치를 모두 포함한다.
이상 첨부된 도면을 참조하여 본 발명의 실시예들을 설명하였지만, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자는 본 발명이 그 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적인 것이 아닌 것으로 이해해야만 한다.
Claims (5)
- 네트워크를 통해 디자인 생성 장치에 이미지와 텍스트를 포함하는 정보를 제공하는 외부 단말;
상기 네트워크를 통해 수신된 정보로부터 이미지를 획득하고, 상기 획득된 이미지의 특징을 학습하고, 상기 정보 상의 텍스트를 추출하고, 상기 추출된 텍스트와 상기 획득된 이미지의 쌍(Pair)에 대한 학습을 수행하고, 상기 추출된 텍스트 중, 미리 설정된 기준 횟수 이상 추출된 트렌드 단어를 추출하고, 상기 트렌드 단어와 상기 획득된 이미지의 쌍에 대한 학습을 수행하고, 상기 학습된 이미지의 특징 중, 상기 트렌드 단어에 매칭되는 디자인 특징 정보를 식별하고, 상기 디자인 특징 정보를 의미하는 텍스트 단어를 디자인 생성의 조건으로 학습하고, 사용자에 의해 입력된 텍스트를 상기 디자인 생성의 조건으로 인식함에 따라 디자인을 생성하는 디자인 생성 장치; 및
상기 생성된 디자인을 수신받고, 디자인 제품을 제조하기 위한 제조 단말을 포함하는,
텍스트의 디자인 매칭 시스템. - 제 1 항에 있어서, 상기 디자인 생성 장치는,
상기 미리 설정된 기준 횟수 이상 추출되는 트렌드 단어가 존재하지 않는 경우, 상기 이미지의 특징에 대한 학습 결과 및 상기 추출된 텍스트와 상기 획득된 이미지의 쌍에 대한 학습 결과를 바탕으로, 상기 추출된 텍스트 중, 제1 텍스트에 대응되는 제1 디자인 특징을 식별하고, 상기 미리 설정된 기준 횟수 이상 추출되는 트렌드 단어가 존재하지 않는 경우, 상기 이미지의 특징에 대한 학습 결과 및 상기 추출된 텍스트와 상기 획득된 이미지의 쌍에 대한 학습 결과를 바탕으로, 상기 추출된 텍스트 중, 제2 텍스트에 대응되는 제2 디자인 특징을 식별하는,
텍스트의 디자인 매칭 시스템. - 제 2 항에 있어서, 상기 디자인 생성 장치는,
상기 제1 디자인 특징 및 상기 제2 디자인 특징이 미리 설정된 유사도 이상의 유사도를 갖는 경우, 상기 제1 텍스트 및 상기 제2 텍스트 각각을 상기 트렌드 단어로 결정하는,
텍스트의 디자인 매칭 시스템. - 제 2 항에 있어서, 상기 디자인 생성 장치는,
상기 제1 텍스트의 추출 횟수 및 상기 제2 텍스트의 추출 횟수의 합산 값이 상기 미리 설정된 기준 횟수 이상인 경우, 상기 제1 텍스트 및 상기 제2 텍스트를 상기 트렌드 단어로 결정하는,
텍스트의 디자인 매칭 시스템. - 제 1 항에 있어서, 상기 디자인 생성 장치는,
상기 텍스트 중, 제1 그룹의 텍스트와 제2 그룹의 텍스트를 분류하고, 상기 제1 그룹의 텍스트와 상기 제2 그룹의 텍스트 상에서 동시에 포함된 텍스트를 추출하고, 상기 동시에 포함된 텍스트를 기초로, 상기 획득된 이미지의 쌍에 대한 학습을 수행하고, 상기 학습 결과를 바탕으로, 상기 획득된 이미지에 대한 카테고리 텍스트를 생성하는
텍스트의 디자인 매칭 시스템.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020220163431A KR102522625B1 (ko) | 2020-12-29 | 2022-11-29 | 텍스트의 디자인 매칭 시스템 |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020200186870A KR102481018B1 (ko) | 2020-12-29 | 2020-12-29 | 텍스트의 디자인 매칭 방법 및 그 장치 |
KR1020220163431A KR102522625B1 (ko) | 2020-12-29 | 2022-11-29 | 텍스트의 디자인 매칭 시스템 |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020200186870A Division KR102481018B1 (ko) | 2020-12-29 | 2020-12-29 | 텍스트의 디자인 매칭 방법 및 그 장치 |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20220164462A KR20220164462A (ko) | 2022-12-13 |
KR102522625B1 true KR102522625B1 (ko) | 2023-04-19 |
Family
ID=82260864
Family Applications (6)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020200186870A KR102481018B1 (ko) | 2020-12-29 | 2020-12-29 | 텍스트의 디자인 매칭 방법 및 그 장치 |
KR1020220141359A KR102524000B1 (ko) | 2020-12-29 | 2022-10-28 | 디자인 트렌드 정보가 반영된 디자인 매칭 방법 및 그 장치 |
KR1020220163431A KR102522625B1 (ko) | 2020-12-29 | 2022-11-29 | 텍스트의 디자인 매칭 시스템 |
KR1020220163202A KR102516972B1 (ko) | 2020-12-29 | 2022-11-29 | 텍스트 및 이미지 쌍에 대한 학습을 이용한 디자인 생성 장치 |
KR1020220179852A KR102524001B1 (ko) | 2020-12-29 | 2022-12-20 | 트렌드 단어를 이용한 텍스트의 디자인 매칭 방법 및 그 장치 |
KR1020220179853A KR102524002B1 (ko) | 2020-12-29 | 2022-12-20 | 트렌드 단어 기반 텍스트 및 이미지 쌍에 대한 학습을 이용한 디자인 생성 장치 |
Family Applications Before (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020200186870A KR102481018B1 (ko) | 2020-12-29 | 2020-12-29 | 텍스트의 디자인 매칭 방법 및 그 장치 |
KR1020220141359A KR102524000B1 (ko) | 2020-12-29 | 2022-10-28 | 디자인 트렌드 정보가 반영된 디자인 매칭 방법 및 그 장치 |
Family Applications After (3)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020220163202A KR102516972B1 (ko) | 2020-12-29 | 2022-11-29 | 텍스트 및 이미지 쌍에 대한 학습을 이용한 디자인 생성 장치 |
KR1020220179852A KR102524001B1 (ko) | 2020-12-29 | 2022-12-20 | 트렌드 단어를 이용한 텍스트의 디자인 매칭 방법 및 그 장치 |
KR1020220179853A KR102524002B1 (ko) | 2020-12-29 | 2022-12-20 | 트렌드 단어 기반 텍스트 및 이미지 쌍에 대한 학습을 이용한 디자인 생성 장치 |
Country Status (6)
Country | Link |
---|---|
US (2) | US20240037965A1 (ko) |
EP (1) | EP4273779A4 (ko) |
JP (1) | JP2024503228A (ko) |
KR (6) | KR102481018B1 (ko) |
CN (1) | CN116710913A (ko) |
WO (1) | WO2022145526A1 (ko) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102609682B1 (ko) * | 2023-01-10 | 2023-12-05 | 트리톤 주식회사 | 트렌드 예측 기반 제품계획 생성 방법 및 그 장치 |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20120163707A1 (en) | 2010-12-28 | 2012-06-28 | Microsoft Corporation | Matching text to images |
Family Cites Families (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9373029B2 (en) * | 2007-07-11 | 2016-06-21 | Ricoh Co., Ltd. | Invisible junction feature recognition for document security or annotation |
US8542950B2 (en) * | 2009-06-02 | 2013-09-24 | Yahoo! Inc. | Finding iconic images |
US20140040297A1 (en) * | 2012-07-31 | 2014-02-06 | Mehmet Kivanc Ozonat | Keyword extraction |
US9367763B1 (en) * | 2015-01-12 | 2016-06-14 | Xerox Corporation | Privacy-preserving text to image matching |
CN108960499B (zh) * | 2018-06-27 | 2021-11-23 | 东华大学 | 一种融合视觉和非视觉特征的服装流行趋势预测系统 |
CN110909754B (zh) * | 2018-09-14 | 2023-04-07 | 哈尔滨工业大学(深圳) | 一种属性生成对抗网络及基于该网络的搭配服饰生成方法 |
CN110096641A (zh) * | 2019-03-19 | 2019-08-06 | 深圳壹账通智能科技有限公司 | 基于图像分析的图文匹配方法、装置、设备及存储介质 |
CN110706302B (zh) * | 2019-10-11 | 2023-05-19 | 中山市易嘀科技有限公司 | 一种文本合成图像的系统及方法 |
KR102211400B1 (ko) | 2019-11-08 | 2021-02-03 | 송우상 | 이미지/텍스트 기반 디자인 생성 장치 및 방법 |
-
2020
- 2020-12-29 US US18/259,791 patent/US20240037965A1/en active Pending
- 2020-12-29 CN CN202080108264.2A patent/CN116710913A/zh active Pending
- 2020-12-29 KR KR1020200186870A patent/KR102481018B1/ko active IP Right Grant
- 2020-12-29 JP JP2023537294A patent/JP2024503228A/ja active Pending
- 2020-12-29 EP EP20968075.0A patent/EP4273779A4/en active Pending
- 2020-12-29 WO PCT/KR2020/019351 patent/WO2022145526A1/ko active Application Filing
-
2022
- 2022-10-28 KR KR1020220141359A patent/KR102524000B1/ko active IP Right Grant
- 2022-11-29 KR KR1020220163431A patent/KR102522625B1/ko active IP Right Grant
- 2022-11-29 KR KR1020220163202A patent/KR102516972B1/ko active IP Right Grant
- 2022-12-20 KR KR1020220179852A patent/KR102524001B1/ko active IP Right Grant
- 2022-12-20 KR KR1020220179853A patent/KR102524002B1/ko active IP Right Grant
-
2024
- 2024-06-27 US US18/755,769 patent/US20240346835A1/en active Pending
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20120163707A1 (en) | 2010-12-28 | 2012-06-28 | Microsoft Corporation | Matching text to images |
Non-Patent Citations (1)
Title |
---|
NIKOLAOS SARAFIANOS 등. Adversarial Representation Learning for Text-to-Image Matching. In: the IEEE/CVF International Conference on Computer Vision (ICCV). 2019.10. pp. 5814-5824 |
Also Published As
Publication number | Publication date |
---|---|
KR102524002B1 (ko) | 2023-04-20 |
KR20230005077A (ko) | 2023-01-09 |
KR20230005078A (ko) | 2023-01-09 |
WO2022145526A1 (ko) | 2022-07-07 |
EP4273779A4 (en) | 2024-04-17 |
KR102524001B1 (ko) | 2023-04-20 |
CN116710913A (zh) | 2023-09-05 |
KR102481018B1 (ko) | 2022-12-23 |
EP4273779A1 (en) | 2023-11-08 |
KR102516972B1 (ko) | 2023-04-03 |
KR20220164462A (ko) | 2022-12-13 |
KR20220165230A (ko) | 2022-12-14 |
US20240346835A1 (en) | 2024-10-17 |
US20240037965A1 (en) | 2024-02-01 |
KR102524000B1 (ko) | 2023-04-20 |
KR20220095043A (ko) | 2022-07-06 |
KR20220151143A (ko) | 2022-11-14 |
JP2024503228A (ja) | 2024-01-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102473736B1 (ko) | 학습된 조건 기반의 디자인 생성 방법 및 그 장치 | |
Wang et al. | Expression of Concern: Facial feature discovery for ethnicity recognition | |
US20240346835A1 (en) | Method for matching text to design and device therefor | |
CN111079374B (zh) | 字体生成方法、装置和存储介质 | |
CN110162639A (zh) | 识图知意的方法、装置、设备及存储介质 | |
CN113298616A (zh) | 一种基于特征融合的成对服装兼容性预测方法 | |
CN113762257A (zh) | 一种美妆品牌图像中标志的识别方法及装置 | |
Jing et al. | [Retracted] Art Image Processing and Color Objective Evaluation Based on Multicolor Space Convolutional Neural Network | |
KR102702460B1 (ko) | 학습된 조건 기반의 신발 디자인 생성 방법 및 그 장치 | |
Juan | [Retracted] Research on Embroidery Feature Recognition Algorithm of Traditional National Costumes Based on Double‐Layer Model | |
Wang et al. | Deep learning for font recognition and retrieval | |
Zhuang et al. | FALIP: Visual Prompt as Foveal Attention Boosts CLIP Zero-Shot Performance | |
Sha et al. | Imaged-Based Similarity for Demand Forecasting: a Novel Multimodal Method to Exploit Images’ Latent Information |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A107 | Divisional application of patent | ||
E701 | Decision to grant or registration of patent right |