KR101801846B1 - 상품 영상 검색 및 시스템 - Google Patents

상품 영상 검색 및 시스템 Download PDF

Info

Publication number
KR101801846B1
KR101801846B1 KR1020160109420A KR20160109420A KR101801846B1 KR 101801846 B1 KR101801846 B1 KR 101801846B1 KR 1020160109420 A KR1020160109420 A KR 1020160109420A KR 20160109420 A KR20160109420 A KR 20160109420A KR 101801846 B1 KR101801846 B1 KR 101801846B1
Authority
KR
South Korea
Prior art keywords
image
product
resolution
feature
feature extraction
Prior art date
Application number
KR1020160109420A
Other languages
English (en)
Other versions
KR20170026264A (ko
Inventor
전재영
박준철
장윤훈
최형원
Original Assignee
옴니어스 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 옴니어스 주식회사 filed Critical 옴니어스 주식회사
Publication of KR20170026264A publication Critical patent/KR20170026264A/ko
Application granted granted Critical
Publication of KR101801846B1 publication Critical patent/KR101801846B1/ko

Links

Images

Classifications

    • G06F17/30277
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/53Querying
    • G06F16/532Query formulation, e.g. graphical querying
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/06Buying, selling or leasing transactions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/06Buying, selling or leasing transactions
    • G06Q30/0601Electronic shopping [e-shopping]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/06Buying, selling or leasing transactions
    • G06Q30/0601Electronic shopping [e-shopping]
    • G06Q30/0623Item investigation

Landscapes

  • Business, Economics & Management (AREA)
  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Accounting & Taxation (AREA)
  • Finance (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Development Economics (AREA)
  • General Business, Economics & Management (AREA)
  • Strategic Management (AREA)
  • Marketing (AREA)
  • Economics (AREA)
  • Mathematical Physics (AREA)
  • General Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Artificial Intelligence (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Biomedical Technology (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Software Systems (AREA)
  • Databases & Information Systems (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Image Analysis (AREA)

Abstract

사용자가 등록한 질의 영상으로부터 상품을 인식하고, 인식된 상품과 유사한 상품을 포함하는 상품 영상들을 검색하여 사용자에게 제공하는 상품 검색 방법 및 시스템이 개시된다.
일 실시예에 따른 상품 검색 방법은, 통신부가, 사용자 장치로부터 질의 영상을 수신하는 질의 영상 수신 단계; 후보 영역 검출부가 상기 질의 영상을 기학습된 물체 검출 모델에 적용하여, 상기 질의 영상에서 상품이 존재할 것으로 추정되는 하나 이상의 후보 영역을 추출하는 후보 영역 추출 단계; 특징 추출부가 상기 하나 이상의 후보 영역 내의 영상인 후보 영상을 기 학습된 특징 추출 모델에 적용하여, 상기 후보 영상에 대하여 속성별로 특징을 추출하는 특징 추출 단계; 검색부가 추출된 상기 특징에 기초하여, 상기 후보 영역 영상과 유사한 상품 영상들을 상품 영상 데이터베이스에서 검색하는 검색 단계; 를 포함하고, 상기 특징 추출 모델은, 하위 계층이 단일망(unified network)으로 구성되고, 상위 계층이 상기 속성별로 분리된 복수의 분류망으로 구성된 구조를 가지는 것을 특징으로 한다.

Description

상품 영상 검색 및 시스템{Product search method and system}
본 발명은 사용자가 등록한 질의 영상(Query image)으로부터 상품을 인식하고, 인식된 상품과 유사한 상품을 포함하는 상품 영상들을 검색하여 사용자에게 제공하는 상품 검색 방법 및 시스템에 관한 것이다.
통신 기술이 발전함에 따라 다양한 종류의 인터넷 쇼핑몰이 생겨났다. 인터넷 쇼핑몰은 인터넷을 통해 상품이 거래되는 영업장을 말한다. 이러한 인터넷 쇼핑몰에서 상품을 구매하려는 경우, 사용자는 상품의 이름이나 제조회사 등과 같이 상품과 관련된 텍스트를 입력하여 유사 상품들을 검색하거나, 인터넷 쇼핑몰에서 제공되는 카테고리들 중에서 소정 카테고리를 선택하여, 유사 상품들을 검색한다.
이처럼 종래에는 사용자가 입력한 텍스트나 사용자가 선택한 카테고리에 기초하여 상품을 검색하기 때문에 키워드나 카테고리로 분류하기 어려운 상품들을 검색하기에는 한계가 있었다. 왜냐하면 텍스트를 이용하여 특정 대상을 검색하기 위해서는 상기 특정 대상이 분류되는 속성 정보를 명확하게 알고 있어야 하기 때문이다.
위와 같은 문제 때문에, 사용자가 속성 정보를 알지 못하는 대상을 검색할 때에는 예를 들어, 구글(Google.com)의 영상 검색 방식을 이용하는 것이 사용자에게 훨씬 편리하다. 구글의 영상 검색 서비스는 영상 자체를 검색 쿼리로 이용하고, 해당 영상과 유사한 영상이나 관련이 있는 영상을 출력해주는 서비스 모델이다.
이러한 서비스 모델에서 사용하는 영상 검색 방법으로는, 영상의 태그값을 이용하는 방법, 영상의 해쉬값을 이용하는 방법을 예로 들 수 있다. 최근에는 유사도 분석을 위해 영상의 픽셀값을 매트릭스로 만든 다음, 주성분 분석, 클러스터링, 머신 러닝 등을 이용하여 유사한 값을 검색하는 방법도 사용되고 있다.
그런데, 패션 상품 영상과 관련해서는 이러한 기존의 영상 검색 방법이 효과적이지 않다. 왜냐하면 패션 상품을 구매하려고 유입된 사용자들은 패션 상품 영상과 유사한 영상을 찾고 싶어 하는 것이 아니라, 패션 상품 영상에 포함되어 있는 패션 상품과 유사하거나 관련이 있는 패션 상품을 찾고 싶어 하기 때문이다. 따라서, 패션 상품 영상에 기존의 영상 검색 방법을 적용하면, 배경 등의 불필요한 영역의 픽셀 정보도 포함하여 영상 검색이 진행되므로, 사용자가 원하는 패션 상품 영상을 찾아주는 것이 어려운 실정이었다.
또한, 사용자는 패션 상품을 인지할 때 굉장히 많은 속성을 고려하게 된다. 기본적으로 사용자는 패션 상품을 인지할 때 패션 상품의 색상, 브랜드, 종류 등을 고려하고, 구체적으로는 패션 상품의 핏(fit), 패턴, 디자인 디테일, 소재 등을 고려하게 된다. 결국, 패션 상품 자체가 굉장히 많은 속성을 갖게 되므로, 패션 상품 영상의 픽셀 값을 매트릭스로 만들어서 신경망 학습을 이용해 분류하려는 경우, 다양한 속성을 갖는 하나의 패션 상품 영상이 다르게 분류되어야 되는 문제가 발생되고 있다. 그렇기 때문에 영상 검색을 신경망 학습으로 구현하는데에는 실무적인 문제가 발생하고 있다.
뿐만 아니라, 패션 상품의 속성별로 별도의 분류망(classification network)을 학습한 후, 학습된 분류망을 영상 검색에 적용하는 경우, 상당한 처리 시간이 필요하다.
대한민국등록특허 10-1191172 (발명의 명칭: 이미지 데이터베이스의 이미지들을 관리하는 방법, 장치 및 컴퓨터 판독 가능한 기록 매체, 등록일: 2012년 10월 9일)
본 발명이 해결하고자 하는 과제는 하위 계층이 단일망(unified network)으로 구성되고, 상위 계층이 속성별로 분리된 복수의 분류망(classification network)으로 구성된 신경망을 학습하고, 학습된 신경망을 이용하여 상품 영상을 검색하는 상품 검색 방법 및 시스템을 제공하는 것이다.
본 발명이 해결하고자 하는 과제는 사용자가 등록한 질의 영상으로부터 상품을 인식하고, 인식된 상품과 유사한 상품을 포함하는 상품 영상들을 검색하여 사용자에게 제공하는 상품 검색 방법 및 시스템을 제공하는 것이다. 더욱 구체적으로는, 패션 상품 영상의 바운딩 박스를 추정하여 패션에 관련된 속성 정보만 학습하고 검색되도록 하는 상품 검색 방법 및 시스템을 제공하는 것이다.
본 발명이 해결하고자 하는 과제는 패션 상품의 다양한 속성 정보를 분류할 수 있고, 영상 검색의 정확도를 잃지 않으면서 영상 검색의 속도를 향상시킬 수 있는 상품 검색 방법 및 시스템을 제공하는 것이다.
본 발명이 해결하고자 하는 과제들은 이상에서 언급된 과제로 제한되지 않으며, 언급되지 않은 또 다른 과제들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해될 수 있을 것이다.
상술한 과제를 해결하기 위하여, 일 실시예에 따른 상품 검색 방법은, 통신부가, 사용자 장치로부터 질의 영상을 수신하는 질의 영상 수신 단계; 후보 영역 검출부가 상기 질의 영상을 기학습된 물체 검출 모델에 적용하여, 상기 질의 영상에서 상품이 존재할 것으로 추정되는 하나 이상의 후보 영역을 추출하는 후보 영역 추출 단계; 특징 추출부가 상기 하나 이상의 후보 영역 내의 영상인 후보 영상을 기 학습된 특징 추출 모델에 적용하여, 상기 후보 영상에 대하여 속성별로 특징을 추출하는 특징 추출 단계; 검색부가 추출된 상기 특징에 기초하여, 상기 후보 영역 영상과 유사한 상품 영상들을 상품 영상 데이터베이스에서 검색하는 검색 단계; 를 포함하고, 상기 특징 추출 모델은, 하위 계층이 단일망(unified network)으로 구성되고, 상위 계층이 상기 속성별로 분리된 복수의 분류망으로 구성된 구조를 가지는 것을 특징으로 한다.
상기 복수의 분류망은, 상기 속성별로 특정 해상도보다 낮은 해상도를 가지는 저해상도 특징(coarse feature) 및 상기 특정 해상도 이상의 해상도를 가지는 고해상도 특징(fine feature)으로 기학습되는 것을 특징으로 한다.
상기 특징 추출 단계는, 상기 특징 추출부가, 상기 후보 영상을 상기 저해상도 특징으로 기학습된 특징 추출 모델에 적용하여 상기 속성별로 저해상도 특징을 추출하는 저해상도 특징 추출 단계; 및 상기 특징 추출부가, 상기 후보 영상을 상기 고해상도 특징으로 기학습된 특징 추출 모델에 적용하여 상기 속성별로 고해상도 특징을 추출하는 고해상도 특징 추출 단계;를 포함한다.
상기 검색 단계는, 상기 검색부가, 상기 저해상도 특징 추출 단계에서 추출된 상기 저해상도 특징에 기초하여, 상기 후보 영상과 유사한 상품 영상들을 상기 상품 영상 데이터베이스에서 검색하는 저해상도 검색 단계; 및 상기 검색부가, 상기 고해상도 특징 추출 단계에서 추출된 상기 고해상도 특징에 기초하여, 상기 저해상도 검색 단계에서 검색된 상기 유사한 상품 영상들 내에서 상기 후보 영상과 유사한 상품 영상들을 검색하는 고새항도 검색 단계;를 포함한다.
본 발명의 기타 구체적인 사항들은 상세한 설명 및 도면들에 포함되어 있다.
사용자가 등록한 질의 영상으로부터 상품을 인식하고, 인식된 상품과 유사한 상품이 포함된 상품 영상들을 검색하여 사용자에게 제공하므로, 텍스트나 카테고리만으로 상품 영상을 검색하는 경우에 비하여 더욱 다양한 상품 영상들을 사용자에게 제공할 수 있다.
질의 영상을 등록하는 행위만으로도 검색이 실행되므로, 사용자의 편의성을 향상시킬 수 있다.
본 발명의 효과들은 이상에서 언급된 효과로 제한되지 않으며, 언급되지 않은 또 다른 효과들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해될 수 있을 것이다.
도 1은 본 발명의 일 실시 예에 따른 상품 영상 검색 시스템의 구성을 도시한 도면이다.
도 2는 본 발명의 일 실시 예에 따른 사용자 장치의 구성을 도시한 도면이다.
도 3은 본 발명의 일 실시 예에 따른 영상 검색 장치의 구성을 도시한 도면이다.
도 4는 심층 신경망(Deep Neural Networks, DNN)의 구조를 예시한 도면이다.
도 5는 합성곱 신경망(Convolutional deep Neural Networks, CNN)의 구조를 예시한 도면이다.
도 6은 합성곱 계산 과정을 예시한 도면이다.
도 7은 서브샘플링 과정을 예시한 도면이다.
도 8은 질의 영상과 질의 영상에 기초하여 검색된 상품 영상들을 예시한 도면이다.
도 9는 본 발명의 일 실시 예에 따른 상품 영상 검색 방법을 도시한 순서도이다.
도 10은 본 발명의 다른 실시 예에 따른 영상 검색 장치의 구성을 도시한 도면이다.
도 11은 도 10의 후보 영역 추출부가 사용하는 물체 검출 모델의 학습 과정을 설명하기 위한 도면이다.
도 12는 도 10의 특징 추출부가 사용하는 특징 추출 모델의 구조를 도시한 도면이다.
도 13은 도 10의 검색부의 동작을 설명하기 위한 도면이다.
도 14는 질의 영상의 각 후보 영역의 특징에 기초하여 검색된 상품 영상들을 예시한 도면이다.
도 15는 질의 영상의 후보 영역들 중에서 선택된 후보 영역의 특징에 기초하여 검색된 상품 영상들을 예시한 도면이다.
도 16은 본 발명의 다른 실시 예에 따른 상품 영상 검색 방법을 도시한 순서도이다.
도 17은 서로 다른 구조를 가지는 특징 추출 모델들을 대상으로 특징 추출 전달에 소요되는 시간을 실험한 결과를 도시한 그래프이다.
본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 게시되는 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시예들은 본 발명의 게시가 완전하도록 하고, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다.
본 명세서에서 사용된 용어는 실시예들을 설명하기 위한 것이며 본 발명을 제한하고자 하는 것은 아니다. 본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함한다. 명세서에서 사용되는 "포함한다(comprises)" 및/또는 "포함하는(comprising)"은 언급된 구성요소 외에 하나 이상의 다른 구성요소의 존재 또는 추가를 배제하지 않는다. 명세서 전체에 걸쳐 동일한 도면 부호는 동일한 구성 요소를 지칭하며, "및/또는"은 언급된 구성요소들의 각각 및 하나 이상의 모든 조합을 포함한다. 비록 "제1", "제2" 등이 다양한 구성요소들을 서술하기 위해서 사용되나, 이들 구성요소들은 이들 용어에 의해 제한되지 않음은 물론이다. 이들 용어들은 단지 하나의 구성요소를 다른 구성요소와 구별하기 위하여 사용하는 것이다. 따라서, 이하에서 언급되는 제1 구성요소는 본 발명의 기술적 사상 내에서 제2 구성요소일 수도 있음은 물론이다.
다른 정의가 없다면, 본 명세서에서 사용되는 모든 용어(기술 및 과학적 용어를 포함)는 본 발명이 속하는 기술분야의 통상의 기술자에게 공통적으로 이해될 수 있는 의미로 사용될 수 있을 것이다. 또한, 일반적으로 사용되는 사전에 정의되어 있는 용어들은 명백하게 특별히 정의되어 있지 않는 한 이상적으로 또는 과도하게 해석되지 않는다.
이하, 첨부된 도면들을 참조하여 본 발명의 실시예들을 상세하게 설명한다.
도 1은 본 발명의 일 실시 예에 따른 상품 영상 검색 시스템(1)의 구성을 도시한 도면이다.
도 1을 참조하면, 본 발명의 일 실시 예에 따른 상품 영상 검색 시스템(1)은 사용자 장치(100) 및 영상 검색 장치(200)를 포함한다.
사용자 장치(100)는 사용자로부터 질의 영상(query image)을 입력받는다. 질의 영상은 의류, 신발, 가방 및 액세서리 등의 패션 상품(이하, '상품'이라 칭하기로 한다)을 포함하는 2차원 컬러 영상일 수 있다. 이러한 질의 영상은 다른 장치(도시되지 않음)에서 사용자 장치(100)로 배포된 것이거나, 사용자 장치(100)에 구비된 카메라(도시되지 않음)를 통해 획득된 것이거나, 사용자 장치(100)의 화면 캡처 기능을 통해 획득된 것일 수 있다.
사용자 장치(100)는 사용자가 입력한 질의 영상을 유무선 네트워크(300)를 통해 영상 검색 장치(200)로 전송하고, 영상 검색 장치(200)로부터 질의 영상에 포함된 상품과 유사한 상품을 포함하는 상품 영상들을 제공받는다. 영상 검색 장치(200)에서 제공된 상품 영상들은 사전 지정된 기준에 따라 정렬되어 사용자 장치(100)를 통해 출력될 수 있다. 예를 들면, 상품 영상들은 질의 영상에 포함된 상품과의 유사도를 기준으로 정렬될 수 있다. 이러한 사용자 장치(100)는 유무선 통신 장치를 포함할 수 있다. 유무선 통신 장치로는 개인 컴퓨터(Personal Computer, PC), 스마트폰 및 태블릿 PC를 예로 들 수 있다. 사용자 장치(100)의 구성에 대한 보다 구체적인 설명은 도 2를 참조하여 후술하기로 한다.
영상 검색 장치(200)는 사용자 장치(100)로 상품 영상 검색 서비스를 제공한다. 구체적으로, 영상 검색 장치(200)는 사용자 장치(100)로부터 질의 영상을 수신하고, 수신된 질의 영상으로부터 상품을 인식하고(label prediction), 인식된 상품의 특징(feature)을 추출한다. 실시 예에 따르면, 영상 검색 장치(200)는 딥 러닝(Deep learning)에 기반하여 질의 영상으로부터 상품을 인식하고(label prediction), 인식된 상품의 특징(feature)을 추출한다. 이후, 영상 검색 장치(200)는 인식된 상품과 추출된 특징을 이용하여, 질의 영상에서 인식된 상품과 유사한 상품을 포함하는 상품 영상을 상품 영상 데이터베이스(도 3의 '280' 참조)에서 검색한다. 그리고 검색된 상품 영상들을 사용자 장치(100)로 전송한다. 영상 검색 장치(200)의 구성에 대한 보다 구체적인 설명은 도 3을 참조하여 후술하기로 한다.
도 2는 본 발명의 일 실시 예에 따른 사용자 장치(100)의 구성을 도시한 도면이다.
도 2를 참조하면, 사용자 장치(100)는 입력부(110), 출력부(1120), 통신부(130), 저장부(140), 전원부(150) 및 제어부(160)를 포함한다.
입력부(110)는 사용자로부터 명령이나 정보를 입력받는다. 예를 들어, 입력부(110)는 질의 영상을 선택하는 선택 명령을 입력받는다. 이를 위하여 입력부(110)는 터치 패드, 키 패드, 버튼, 스위치, 조그 휠, 또는 이들의 조합으로 이루어진 입력 수단을 포함할 수 있다. 터치 패드는 후술될 출력부(120)의 디스플레이(도시되지 않음)에 적층되어 터치 스크린(touch screen)을 구성할 수 있다.
출력부(120)는 명령 처리 결과나 각종 정보를 사용자에게 출력한다. 예를 들어, 출력부(120)는 서버(200)로부터 수신한 상품 영상들을 출력한다. 이를 위하여, 출력부(120)는 도면에 도시되지는 않았으나, 디스플레이 및 스피커를 포함할 수 있다. 디스플레이는 평판 디스플레이(Flat panel display), 연성 디스플레이(Flexible display), 불투명 디스플레이, 투명 디스플레이, 전자종이(Electronic paper, E-paper), 또는 본 발명이 속하는 기술분야에서 잘 알려진 임의의 형태로 제공될 수 있다. 출력부(120)는 디스플레이 및 스피커 외에도 본 발명이 속하는 기술분야에서 잘 알려진 임의의 형태의 출력 수단을 더 포함하여 구성될 수도 있다.
통신부(130)는 유무선 네트워크(300)를 통해 영상 검색 장치(200)와 통신한다. 이를 위해 통신부(130)는 TCP/IP 프로토콜 또는 UDP 프로토콜을 지원하는 유선 통신 방식 및/또는 무선 통신 방식을 지원한다. 무선 통신 방식으로는 와이브로(Wireless Broadband Internet), 와이파이(WiFi), 지그비(ZigBee), 블루투스(Bluetooth, 예를 들면, 블루투스 4.0), 울트라와이드밴드(Ultra Wide Band, UWB), 근거리무선통신(Near Field Communication, NFC), 3세대 이동 통신(3G), 4세대 이동 통신(4G) 및 5세대 이동 통신(5G)을 예로 들 수 있으나, 예시된 것들로 반드시 한정되는 것은 아니다.
저장부(140)는 사용자 장치(100)가 동작하는데 필요한 데이터, 프로그램 및 어플리케이션 등을 저장한다. 이러한 저장부(140)는 비휘발성 메모리, 휘발성 메모리, 내장형 메모리, 착탈 가능한 외장형 메모리, 하드 디스크, 광 디스크, 광자기 디스크, 또는 본 발명이 속하는 기술분야에서 잘 알려진 임의의 형태의 컴퓨터로 읽을 수 있는 기록 매체를 포함할 수 있다. 외장형 메모리로는 외장형 메모리로는 SD 카드(Secure Digital card), 미니 SD 카드, 및 마이크로 SD 카드를 예로 들 수 있다.
전원부(150)는 사용자 장치(100)의 각 구성요소들로 전원을 공급한다. 일 실시 예에 따르면, 전원부(150)는 사용자 장치(100)로부터 기계적 및 전기적으로 분리 가능하도록 구현될 수 있다. 분리된 전원부(150)는 여분의 다른 전원부(도시되지 않음)으로 교체될 수 있다. 다른 실시 예에 따르면, 전원부(150)는 사용자 장치(100)와 일체형으로 구현될 수도 있다. 이 경우, 전원부(150)는 별도로 마련된 충전 장치(도시되지 않음)로부터 전력을 공급받아 충전될 수 있다. 이 때, 전원부(150)는 유선전력전송 기술 또는 무선전력전송 기술에 따라 충전 장치로부터 전력을 공급받을 수 있다.
제어부(160)는 사용자 장치(100) 내의 다른 구성요소들을 연결하고 제어한다. 예를 들어, 제어부(160)는 질의 영상 및/또는 상품 영상을 표시하기 위한 사용자 인터페이스를 구성하여, 디스플레이를 통해 표시한다.
도 3은 본 발명의 일 실시 예에 따른 영상 검색 장치(200)의 구성을 도시한 도면이다.
도 3을 참조하면, 본 발명의 일 실시 예에 따른 영상 검색 장치(200)는 통신부(210), 특징 추출부(230), 검색부(240), 유사도 계산부(250), 영상 정렬부(260), 질의 영상 데이터베이스(270) 및 상품 영상 데이터베이스(280)를 포함한다.
통신부(210)는 사용자 장치(100)와의 통신을 담당한다. 예를 들어, 통신부(210)는 사용자 장치(100)로부터 질의 영상(도 8의 '310' 참조)을 수신한다. 다른 예로, 통신부(210)는 질의 영상에 기초하여 검색된 상품 영상들(도 8의 '320' 참조)을 사용자 장치(100)로 전송한다. 이를 위해 통신부(210)는 유선 통신 방식 및/또는 무선 통신 방식을 지원할 수 있다.
특징 추출부(230)는 질의 영상의 특징을 추출한다. 실시 예에 따르면, 특징 추출부(230)는 딥 러닝(Deep learning)을 기반으로 학습된 모델을 통해 질의 영상의 특징을 추출한다.
딥 러닝은 여러 비선형 변환기법의 조합을 통해 높은 수준의 추상화(abstractions, 다량의 데이터나 복잡한 자료들 속에서 핵심적인 내용 또는 기능을 요약하는 작업)를 시도하는 기계학습(machine learning) 알고리즘의 집합으로 정의된다. 딥 러닝은 큰 틀에서 사람의 사고방식을 컴퓨터에게 가르치는 기계학습의 한 분야로 볼 수 있다.
어떠한 데이터가 있을 때 이를 컴퓨터가 알아 들을 수 있는 형태(예를 들어 영상의 경우는 픽셀정보를 열벡터로 표현하는 등)로 표현(representation)하고 이를 학습에 적용하기 위해 많은 연구(어떻게 하면 더 좋은 표현기법을 만들고 또 어떻게 이것들을 학습할 모델을 만들지에 대한)가 진행되고 있다. 이러한 노력의 결과로 다양한 딥 러닝 기법들이 개발되었다. 딥 러닝 기법들로는 심층 신경망(Deep Neural Networks, DNN), 합성곱 신경망(Convolutional deep Neural Networks, CNN), 순환 신경망(Reccurent Neural Network, RNN) 및 심층 신뢰 신경망(Deep Belief Networks, DBN)을 예로 들 수 있다.
심층 신경망(Deep Neural Networks, DNN)은 입력 계층(input layer)과 출력 계층(output layer) 사이에 복수개의 은닉 계층(hidden layer)들로 이뤄진 인공신경망(Artificial Neural Network, ANN)이다.
도 4는 심층 신경망의 구조를 예시한 도면이다. 도 4에서 각 원은 하나의 퍼셉트론(perceptron)을 나타낸다. 퍼셉트론은 여러 개의 입력 값(input), 하나의 프로세서(prosessor), 하나의 출력 값으로 구성된다. 프로세서는 여러 개의 입력 값에 각각 가중치를 곱한 후, 가중치가 곱해진 입력 값들을 모두 합한다. 그 다음 프로세서는 합해진 값을 활성화함수에 대입하여 하나의 출력 값을 출력한다. 만약 활성화함수의 출력 값으로 특정한 값이 나오기를 원하는 경우, 각 입력 값에 곱해지는 가중치를 수정하고, 수정된 가중치를 이용하여 출력 값을 다시 계산할 수 있다. 도 4에서 각각의 퍼셉트론은 서로 다른 활성화함수를 사용할 수 있다. 또한 각각의 퍼셉트론은 이전 계층에서 전달된 출력들을 입력으로 받아들인 다음, 활성화 함수를 이용해서 출력을 구한다. 구해진 출력은 다음 계층의 입력으로 전달된다. 상술한 바와 같은 과정을 거치면 최종적으로 몇 개의 출력 값을 얻을 수 있다.
딥 러닝 기법에 대한 설명으로 다시 돌아가면, 합성곱 신경망(Convolutional deep Neural Networks, CNN)은 최소한의 전처리(preprocess)를 사용하도록 설계된 다계층 퍼셉트론(multilayer perceptrons)의 한 종류이다. 합성곱 신경망은 하나 또는 여러개의 합성곱 계층(convolutional layer)과 그 위에 올려진 일반적인 인공신경망 계층들로 이루어져 있으며, 가중치와 통합 계층(pooling layer)들을 추가로 활용한다. 이러한 구조 덕분에 합성곱 신경망은 2차원 구조의 입력 데이터를 충분히 활용할 수 있다. 또한, 합성곱 신경망은 표준 역전달을 통해 훈련될 수 있다. 합성곱 신경망은 다른 피드포워드 인공신경망 기법들보다 쉽게 훈련되는 편이고 적은 수의 매개변수를 사용한다는 이점이 있다.
합성곱 신경망은 입력 영상에 대하여 합성곱과 서브샘플링을 번갈아 수행함으로써 입력 영상으로부터 특징을 추출한다. 도 5는 합성곱 신경망의 구조를 예시한 도면이다 도 5를 참조하면, 합성곱 신경망은 여러 개의 합성곱 계층(Convolution layer), 여러 개의 서브샘플링 계층(Subsampling layer, Lacal pooling layer, Max-Pooling layer), 완전 연결 계층(Fully-Connected layer)을 포함한다. 합성곱 계층은 입력 영상(Input Image)에 대해 합성곱을 수행하는 계층이다. 그리고 서브샘플링 계층은 입력 영상에 대해 지역적으로 최대값을 추출하여 2차원 영상으로 매핑하는 계층으로, 국소적인 영역을 더 크게 하고, 서브샘플링을 수행한다.
합성곱 계층에서는 커널의 크기(kernel size), 사용할 커널의 개수(즉, 생성할 맵의 개수), 및 합성곱 연산 시에 적용할 가중치 테이블 등의 정보가 필요하다. 예를 들어, 입력 영상의 크기가 32×32이고, 커널의 크기가 5×5이고, 사용할 커널의 개수가 20개인 경우를 예로 들자. 이 경우, 32×32 크기의 입력 영상에 5×5 크기의 커널을 적용하면, 입력 영상의 위, 아래, 왼쪽, 오른쪽에서 각각 2개의 픽셀(pixel)에는 커널을 적용하는 것이 불가능하다. 왜냐하면, 도 6에 도시되어 있는 합성곱 계산 과정에서 알 수 있듯이, 입력 영상의 위에 커널을 배치한 후 합성곱을 수행하면, 그 결과 값인 '-8'은 커널에 포함된 입력 영상의 픽셀들 중에서 커널의 중심요소(center element)에 대응하는 픽셀의 값으로 결정되기 때문이다. 따라서, 32×32 크기의 입력 영상에 5×5 크기의 커널을 적용하여 합성곱을 수행하면 28×28 크기의 맵(map)이 생성된다. 앞서, 사용할 커널의 개수가 총 20개인 경우를 가정하였으므로, 첫 번째 합성곱 계층(도 5의 'C1-layer' 참조)에서는 총 20개의 28×28 크기의 맵이 생성된다.
서브샘플링 계층에서는 서브샘플링할 커널의 크기에 대한 정보, 커널 영역 내의 값들 중 최대값을 선택할 것인지 최소값을 선택할 것인지에 대한 정보가 필요하다. 도 7은 서브샘플링 과정을 도시한 도면이다. 도 7을 참조하면, 서브샘플링할 커널의 크기가 2×2이고, 커널 영역에 포함된 값들 중 최대값을 선택하도록 설정된 것을 알 수 있다. 8×8 크기의 입력 영상에 2×2 크기의 커널을 적용하면, 4×4 크기의 출력 영상을 얻을 수 있다. 즉, 입력 영상에 비하여 크기가 1/2로 축소된 출력 영상을 얻을 수 있다.
딥 러닝 기법에 대한 설명으로 다시 돌아가면, 순환 신경망(Reccurent Neural Network, RNN)은 인공신경망을 구성하는 유닛 사이의 연결이 Directed cycle을 구성하는 신경망을 말한다. 순환 신경망은 앞먹임 신경망과 달리, 임의의 입력을 처리하기 위해 신경망 내부의 메모리를 활용할 수 있다.
심층 신뢰 신경망(Deep Belief Networks, DBN)이란 기계학습에서 사용되는 그래프 생성 모형(generative graphical model)으로, 딥 러닝에서는 잠재변수(latent variable)의 다중계층으로 이루어진 심층 신경망을 의미한다. 계층 간에는 연결이 있지만 계층 내의 유닛 간에는 연결이 없다는 특징이 있다.
심층 신뢰 신경망은 생성 모형이라는 특성상 선행학습에 사용될 수 있고, 선행학습을 통해 초기 가중치를 학습한 후 역전파 혹은 다른 판별 알고리즘을 통해 가중치의 미조정을 할 수 있다. 이러한 특성은 훈련용 데이터가 적을 때 굉장히 유용한데, 이는 훈련용 데이터가 적을수록 가중치의 초기값이 결과적인 모델에 끼치는 영향이 세지기 때문이다. 선행학습된 가중치 초기값은 임의로 설정된 가중치 초기값에 비해 최적의 가중치에 가깝게 되고 이는 미조정 단계의 성능과 속도향상을 가능케 한다.
다시 도 3을 참조하면, 특징 추출부(230)는 상술한 바와 같은 딥 러닝 기법들 중에서 합성곱 신경망 기법으로 학습된 모델을 이용하여, 질의 영상의 특징을 추출할 수 있다. 이후, 특징 추출부(230)는 추출된 특징에 기초하여 질의 영상 내의 상품을 인식한다. 예를 들면, 질의 영상 내의 상품의 카테고리(가방, 신발, 셔츠, 바지)를 인식한다. 상품의 카테고리에 대한 인식 결과는 후술될 검색부(240)로 제공되며, 질의 영상으로부터 추출된 특징은 후술될 유사도 계산부(240)로 제공된다.
이외에도, 특징 추출부(230)는 상품 영상 데이터베이스(270)에 저장되어 있는 상품 영상들에 대해서도 특징을 추출할 수 있다.
일 실시 예에 따르면, 상품 영상들에 대한 특징 추출 작업은 일괄적으로 한 번만 수행될 수 있다. 이 경우, 각 상품 영상으로부터 추출된 특징들은 각 상품 영상에 매핑되어 저장될 수 있다.
다른 실시 예에 따르면, 상품 영상들에 대한 특징 추출 작업은 질의 영상에 대한 특징 추출 작업이 완료될 때마다 수행될 수도 있다. 또한, 상품 영상 데이터베이스 내에 저장되어 있는 상품 영상들은 주기적으로 갱신될 수 있는데, 상품 영상 데이터베이스에 새로운 상품 영상이 저장될 때마다 해당 상품 영상에 대한 특징 추출 작업이 수행될 수 있다.
검색부(240)는 질의 영상에서 인식된 상품과 유사한 상품을 포함하는 상품 영상들을 상품 영상 데이터베이스(280)에서 검색한다. 구체적으로, 검색부(240)는 질의 영상에서 인식된 상품의 카테고리와 유사하거나 동일한 카테고리에 해당하는 상품을 포함하는 상품 영상들을 상품 영상 데이터베이스(280)에서 검색한다. 검색부(240)에 의해 검색된 상품 영상들은 후술될 유사도 계산부(240)로 제공된다.
유사도 계산부(250)는 검색부(240)에 의해 검색된 상품 영상들을 대상으로 질의 영상과의 유사도를 계산한다. 구체적으로, 유사도 계산부(250)는 질의 영상으로부터 추출된 특징과 검색된 각 상품 영상의 특징 간의 유사도를 계산한다. 이 때, 유사도 계산 방법으로는 해밍 거리(Hamming Distance) 및 코사인 유사도(Cosine Similarity)를 예로 들 수 있다. 각 상품 영상 별로 계산된 유사도 값은 후술될 영상 정렬부(260)로 제공된다.
영상 정렬부(260)는 검색부(240)에 의해 검색된 상품 영상들을 유사도 계산부(250)로부터 제공받은 유사도 값에 기초하여 정렬한다. 예를 들면, 영상 정렬부(260)는 유사도 값이 높은 순서대로 상품 영상들을 정렬한다. 정렬된 상품 영상들은 통신부(210)를 통해 사용자 장치(100)로 전송된다.
일 실시 예에 따르면, 정렬된 상품 영상들 모두가 사용자 장치(100)로 제공된다.
다른 실시 예에 따르면, 정렬된 상품 영상들 중에서 유사도 값이 기준치 이상인 상품 영상들이 선택되고, 선택된 상품 영상들만이 사용자 장치(100)로 전송된다.
또 다른 실시예에 따르면, 정렬된 상품 영상들 중에서 상위 N개의 상품 영상들이 선택되고, 선택된 상품 영상들만이 사용자 장치(100)로 전송된다. 일 예로, N은 서버(200)의 관리자(도시되지 않음)에 의해 사전에 설정될 수 있으며, 설정된 값은 사용자 장치(100)를 통해 사용자에 의해 변경될 수 있다. 다른 예로, N은 사용자의 구매 빈도나 구매 이력에 따라 자동으로 결정될 수 있다. 예를 들어, 구매 빈도가 낮은 사용자에 대해서는 N이 작은 값으로 설정되고, 구매 빈도가 높은 사용자에 대해서는 N이 큰 값으로 설정될 수 있다.
질의 영상 데이터베이스(270)는 사용자 장치(100)로부터 수신한 질의 영상을 저장한다. 질의 영상은 사용자별로 분류되어 저장될 수 있다. 사용자별로 분류된 질의 영상은 사용자별로 선호하는 상품의 종류를 분석하는데 사용될 수 있다.
상품 영상 데이터베이스(280)는 상품 영상들을 저장한다. 일 예로, 상품 영상은 서버(200)의 관리자에 의해 업로드될 수 있다. 다른 예로, 상품 영상은 서버(200)와 연동된 다른 장치(도시되지 않음)나 다른 서버(도시되지 않음)로부터 자동으로 수집될 수 있다.
업로드되거나 수집된 상품 영상에 대해서는 특징이 추출되며, 추출된 특징에 기초하여 상품 영상 내의 상품의 카테고리가 인식된다. 상품 영상에서 추출된 특징은 상품 영상에 매핑될 수 있으며, 특징이 매핑된 상품 영상은 인식된 카테고리를 기준으로 분류되어 상품 영상 데이터베이스(280)에 저장될 수 있다. 여기서, 상품 영상의 카테고리로는 의류, 신발, 가방 및 액세서리 등을 예로 들 수 있다. 예시된 바와 같은 카테고리들은 하위 카테고리들로 더욱 세분화될 수 있다. 예를 들어, '의류'라는 카테고리는 셔츠, 치마, 바지, 드레스 등의 하위 카테고리로 더욱 세분화될 수도 있다. 그리고 '신발'이라는 카테고리는 운동화, 구두, 부츠, 슬리퍼 등의 하위 카테고리로 더욱 세분화될 수 있다.
이상, 도 3 내지 도 8을 참조하여 본 발명의 일 실시 예에 따른 서버(20)에 대해서 설명하였다. 전술한 예에서는 서버(200)가 특징 추출부(230), 유사도 계산부(250) 및 영상 정렬부(260)를 모두 포함하는 경우를 예로 들어 설명하였지만, 이들 구성요소들 중에서 하나 이상의 구성요소들은 사용자 장치(100)에 구비될 수도 있다.
또한, 서버(200)는 도 3에 도시된 구성요소들 외에도 하나 이상의 다른 구성요소들을 더 포함할 수 있다. 예를 들면, 서버(200)는 서버(200)와 연동된 외부의 다른 서버들로부터 상품 영상을 수집하기 위한 영상 수집부, 사용자의 개인 정보나 구매 이력을 저장하는 사용자 정보 데이터베이스부, 사용자의 구매 이력을 분석하는 분석부, 분석부의 분석 결과에 기초하여 상품 영상 검색 서비스와 관련된 각종 조건을 자동으로 설정하는 조건 설정부 중 적어도 하나를 더 포함할 수 있다.
도 9는 본 발명의 일 실시 예에 따른 패션 상품 영상 검색 방법을 도시한 도면이다.
우선, 서버(200)는 사용자 장치(100)로부터 질의 영상을 수신한다(S410).
이후, 서버(200)는 딥 러닝으로 학습된 모델을 이용하여 질의 영상으로부터 특징을 추출한다(S420). 여기서, 상기 모델은 합성곱 신경망 기법으로 학습된 모델일 수 있다. 그러나 상기 모델이 합성곱 신경망 기법으로 학습된 모델로 반드시 한정되는 것은 아니며, 다른 종류의 딥 러닝 기법에 의해 학습된 모델이 사용될 수도 있음은 물론이다.
이후, 서버(200)는 질의 영상에서 추출된 특징에 기초하여 질의 영상 내의 상품을 인식한다(S430). 구체적으로, 서버(200)는 질의 영상에서 추출된 특징에 기초하여 질의 영상 내의 상품의 카테고리를 인식한다.
그 다음, 서버(200)는 질의 영상에서 인식된 상품과 유사한 상품을 포함하는 상품 영상들을 상품 영상 데이터베이스(270)에서 검색한다(S440). 구체적으로, 서버(200)는 질의 영상에서 인식된 상품의 카테고리와 유사하거나 동일한 카테고리에 해당되는 상품 영상들을 상품 영상 데이터베이스(270)에서 검색한다.
이후, 서버(200)는 상품 영상 데이터베이스(270)에서 검색된 상품 영상들을 대상으로 질의 영상과의 유사도를 계산한다(S450). 상기 S450 단계는 질의 영상으로부터 추출된 특징과 각 상품 영상으로부터 추출된 특징 간의 유사도를 계산하는 단계를 포함할 수 있다. 여기서, 유사도를 계산하는 방법으로는 해밍 거리 및 코사인 유사도를 예로 들 수 있다.
이후, 서버(200)는 각 상품 영상별로 계산된 유사도 값에 기초하여 각 상품 영상들을 정렬한다(S460). 상기 S460 단계는 유사도 값이 높은 순으로 각 상품 영상들을 정렬하는 단계를 포함할 수 있다.
이후, 서버(200)는 정렬된 상품 영상들 중에서 소정 개수의 상품 영상을 선택한다(S470). 일 실시 예에 따르면, 상기 S470 단계는 유사도 값이 기준치 이상인 상품 영상들을 선택하는 단계를 포함한다. 다른 실시예에 따르면, 상기 S470 단계는 유사도 값을 기준으로 상위 N개의 상품 영상을 선택하는 단계를 포함한다. 이 때, 상기 N은 서버(200)의 관리자 또는 사용자에 의해 설정될 수 되거나, 사용자의 구매 빈도에 비례하여 자동으로 결정될 수도 있다.
이처럼 선택된 상품 영상들은 유무선 네트워크(300)를 통해 사용자 장치(100)로 전송된다(S470). 전송된 상품 영상들은 질의 영상과 함께 사용자 장치(100)의 디스플레이를 통해 표시된다. 예를 들면, 도 8에 도시된 바와 같은 질의 영상(310) 및 검색된 상품 영상들(320)이 디스플레이를 통해 표시된다.
이상, 도 9를 참조하여 본 발명의 일 실시 예에 따른 패션 상품 영상 검색 방법을 설명하였다. 도 9에 도시된 단계들 중에서 일부 단계는 생략될 수도 있다. 예를 들어, S470 단계는 생략될 수도 있다.
도 10은 본 발명의 다른 실시 예에 따른 영상 검색 장치(500)의 구성을 도시한 도면이다.
도 10을 참조하면, 본 발명의 다른 실시 예에 따른 영상 검색 장치(500)는 통신부(510), 후보 영역 추출부(520), 특징 추출부(530), 검색부(540), 유사도 계산부(550), 영상 정렬부(560), 질의 영상 데이터베이스(570) 및 상품 영상 데이터베이스(580)를 포함한다. 도 10에 도시된 영상 검색 장치(500)의 구성요소들은 도 3에 도시된 서버(200)의 구성요소들과 동일하거나 거의 유사하므로, 중복되는 설명은 생략하고 차이점 위주로 설명하기로 한다.
후보 영역 추출부(520)는 질의 영상에서 하나 이상의 후보 영역을 추출한다.
일 실시예에 따르면, 후보 영역 추출부(520)는 사용자가 터치 조작 등을 수행하여 질의 영상 내에 소정 영역을 지정하는 경우, 지정된 영역을 후보 영역으로 추출한다.
다른 실시예에 따르면, 후보 영역 추출부(520)는 질의 영상에서 상품이 존재할 것으로 추정되는 후보 영역들을 자동으로 추출한다. 이를 위하여 후보 영역 추출부(520)는 물체 검출 모델(object detection model)을 이용하여, 질의 영상에서 후보 영역들을 추출한다. 물체 검출 모델로는 R-CNN(Regions with Convolutional Neural Networks, Region based Convolutional Neural Networks) 모델, fast R-CNN 모델, YOLO(You Only Look Once) 모델을 예로 들 수 있다.
후보 영역 추출부(520)가 사용하는 물체 검출 모델(521)은 입력 영상 및 입력 영상의 그라운드 트루스 영상을 이용하여 사전에 학습될 수 있다. 여기서 도 11을 참조하여 후보 영역 추출부(520)가 사용하는 물체 검출 모델(521)의 학습 과정에 대해서 좀 더 구체적으로 설명하기로 한다.
도 11을 참조하면, 물체 검출 모델(521)은 입력 영상(810)에서 상품이 존재할 것으로 추정되는 영역에 복수의 바운딩 박스(Bounding Box)를 생성한다. 도 11에는 입력 영상(820)에 총 4개의 바운딩 박스가 생성되어 있는 경우를 도시하고 있다.
이후, 물체 검출 모델(521)은 바운딩 박스가 생성된 입력 영상(820)과 입력 영상(810)의 그라운드 트루스 영상(Ground-truth image; 830)을 비교한다. 그라운드 트루스 영상(830)이란 각 상품마다 바운딩 박스가 생성되어 있는 영상을 말하는 것으로, 각 바운딩 박스의 위치 정보 및 각 바운딩 박스 내에 있는 상품의 상품 정보를 포함한다. 상품 정보는 상품의 속성 정보를 포함한다. 상품의 속성 정보로는 아이템의 종류, 디자인 디테일, 패턴 및 소재를 예로 들 수 있다.
물체 검출 모델(521)은 그라운드 트루스 영상(830)에 생성되어 있는 복수의 바운딩 박스에 대한 정보(예를 들어, 위치 및 상품)를 참조하여, 입력 영상(840)에 복수의 바운딩 박스를 재생성한다. 도 11은 입력 영상(840)에 총 3개의 바운딩 박스가 재생성되어 있는 경우를 도시하고 있다. 입력 영상(820)과 입력 영상(840)을 비교하면, 입력 영상(820)에 비하여 입력 영상(840)에 생성되어 있는 복수의 바운딩 박스의 위치가 그라운드 트루스 영상(830)에 생성되어 있는 복수의 바운딩 박스의 위치와 유사한 것을 알 수 있다.
다시 도 10을 참조하면, 후보 영역 추출부(520)는 전술한 방식으로 충분히 학습된 물체 검출 모델(521)을 이용하여, 질의 영상에서 후보 영역을 추출한다. 질의 영상에서 후보 영역을 추출하는 과정을 구체적으로 설명하면 다음과 같다.
우선, 후보 영역 추출부(520)는 학습된 물체 검출 모델(521)의 중간 단계인 특징 맵(feature map)을 추출한다. 그 다음, 분류에 큰 영향을 미치는 특징 맵의 가중치 합(weighted sum)을 계산하여 중점적으로 사용하는 영상의 위치를 히트 맵(heat map)으로 생성한다. 그 다음, 생성된 히트 맵에 임계화(thresholding) 또는 연결 성분 추출(connected component extraction) 등의 후처리(post processing) 과정을 적용하여 바운딩 박스를 생성한다.
질의 영상에 여러 종류의 아이템이 존재하는 경우, 각 아이템별로 바운딩 박스가 생성된다. 또한, 물체 검출 모델(521)은 아이템의 종류를 분류하기 위한 분류 모델뿐만 아니라, 디자인 디테일의 종류를 분류하기 위한 분류 모델, 패턴의 종류를 분류하기 위한 분류 모델, 소재의 종류를 분류하기 위한 분류 모델을 이용하여, 디자인 디테일, 패턴, 또는 소재에 대한 특징이 질의 영상 상의 어느 위치에 존재하는지 대략적인 위치를 추정할 수 있다.
특징 추출부(530)는 질의 영상에서 추출된 복수의 후보 영역 각각에 대하여 특징을 추출한다. 좀 더 구체적으로, 특징 추출부(530)는 질의 영상에서 추출된 복수의 후보 영역 각각에 대하여 속성별로 저해상도 특징(coarse feature)과 고해상도 특징(fine feature)을 추출한다. 이를 위하여, 특징 추출부(530)는 특징 추출 모델을 이용한다. 여기서, 도 12를 참조하여, 특징 추출 모델의 구조에 대해서 구체적으로 설명하기로 한다.
도 12를 참조하면, 특징 추출 모델은 단일망(531)과 속성별로 분리된 복수의 분류망(532)으로 구성된다.
단일망(531)은 도 5에 도시된 합성곱 신경망에서 여러 개의 합성곱 계층(C1-layer 내지 C3-layer) 및 여러 개의 서브샘플링 계층(MP1-layer 내지 MP2-layer)를 나타낸다. 이처럼 하위 계층을 단일망(unified network)로 구성하면, 하위 계층에서는 서로 다른 속성의 특징을 공유할 수 있다.
복수의 분류망(532)은 도 5에 도시된 합성곱 신경망에서 완전 연결 계층(Fully-Connected layer)를 나타낸다. 실시예에 따르면, 복수의 분류망(532)는 아이템 분류망, 디자인 디테일 분류망, 패턴 분류망, 및 소재 분류망을 포함한다. 아이템 분류망은 아이템에 대한 저해상도 특징(coarse feature)을 추출한 다음, 고해상도 특징(fine feature)을 추출한다. 디자인 디테일 분류망은 디자인 디테일에 대한 저해상도 특징을 추출한 다음, 고해상도 특징을 추출한다. 패턴 분류망은 패턴에 대한 저해상도 특징을 추출한 다음, 고해상도 특징을 추출한다. 그리고 소재 분류망은 소재에 대한 저해상도 특징을 추출한 다음, 고해상도 특징을 추출한다.
다시 도 10을 참조하면, 특징 추출부(530)는 복수의 후보 영역 각각에서 속성별로 추출된 특징에 기초하여 각 후보 영역 내의 상품의 아이템, 디자인 디테일, 패션 및 소재 중 적어도 하나를 인식한다.
한편, 상술한 후보 영역 추출부(520) 및 특징 추출부(530)는 상품 영상 데이터베이스(580)에 저장되어 있는 상품 영상에 대해서도 동일하게 동작할 수 있다. 즉, 후보 영역 추출부(520)는 상품 영상으로부터 복수의 후보 영역을 추출한다. 그리고 특징 추출부(530)는 상품 영상에서 추출된 복수의 후보 영역 각각에 대하여 속성별로 저해상도 특징(coarse feature)과 고해상도 특징(fine feature)을 추출한다. 이처럼 상품 영상에서 추출된 복수의 후보 영역, 각 후보 영역에서 속성별로 추출된 저해상도 특징과 고해상도 특징 등은 해당 상품 영상에 매핑되어 상품 영상 데이터베이스(580)에 저장될 수 있다.
검색부(540)는 질의 영상의 각 후보 영역에서 인식된 상품의 아이템(디자인 디테일, 패턴, 또는 소재)과 유사한 상품을 포함하는 상품 영상들을 상품 영상 데이터베이스(280)에서 검색한다. 여기서, 도 13을 참조하여, 검색부(540)의 동작에 대해서 좀 더 구체적으로 설명하기로 한다.
도 13에 도시된 질의 영상에서 티셔츠를 포함하는 후보 영역이 추출되었고, 추출된 후보 영역 내의 영상(이하 '후보 영상'이라 한다)을 특징 추출 모델에 적용하여, 후보 영상의 아이템에 대한 저해상도 특징(coarse feature) 및 고해상도 특징(fine feature)이 추출되었다고 하자.
이후, 검색부(540)는 아이템의 저해상도 특징에 대한 이진값(binary value)을 이용하여, 후보 영상과 유사한 상품 영상들을 검색한다. 예를 들어, 아이템의 저해상도 특징에 대한 이진값이 '10100'인 경우, 검색부(540)는 상품 영상 데이터베이스(580)에 저장되어 있는 상품 영상들 중에서 아이템 해시 테이블(Item hash table)에 '10100'과 동일한 값, 또는 '10100'과 유사한 값(예를 들어, 해밍 거리가 N 이하인 값; N은 상품 영상 데이터베이스에 저장되어 있는 상품 영상의 종류나 양에 따라 변할 수 있음)이 포함되어 있는 상품 영상들을 검색한다. 여기서, 아이템 해시 테이블이란 소정 상품 영상과 관련하여 아이템에 대한 특징들이 저장되어 있는 테이블을 말한다.
이후, 검색부(540)는 아이템의 고해상도 특징에 대한 이진값을 이용하여, 아이템의 저해상도 특징을 이용하여 검색된 상품 영상들 내에서 후보 영상과 유사한 상품 영상들을 다시 검색한다. 이처럼 검색부는 아이템의 저해상도 특징을 이용하여 후보 영상과 유사한 상품 영상들을 1차로 검색한 다음, 아이템의 고해상도 특징을 이용하여, 1차 검색된 상품 영상들 내에서 후보 영상과 유사한 상품 영상들을 2차로 검색한다.
한편, 도 13에 도시되어 있지는 않지만, 다른 실시예에 따르면, 검색부(540)는 2차 검색 시, 디자인 디테일의 고해상도 특징에 대한 이진값, 패턴의 고해상도 특징에 대한 이진값, 또는 소재의 고해상도 특징에 대한 이진값을 이용할 수도 있다. 이 경우, 검색부(540)는 기 저장되어 있는 상품 영상들의 아이템 해시 테이블 대신, 디자인 디테일 해시 테이블, 패턴 해시 테이블, 또는 소재 해시 테이블을 참조할 수 있다.
상술한 바와 같이, 아이템의 저해상도에 기초하여, 후보 영상과 유사한 상품 영상들을 1차로 검색하면, 검색 범위를 한정할 수 있으므로, 검색 속도를 증가시킬 수 있다. 또한, 1차로 검색된 상품 영상들 내에서, 후보 영상과 유사한 상품 영상들을 2차로 검색할 때, 아이템, 디자인 디테일, 패턴, 또는 소재의 고해상도 특징에 기초하여 상품 영상을 검색할 수 있으므로, 아이템의 고해상도 특징만을 이용하여 2차 검색을 수행하는 경우에 비하여, 사용자가 원하는 검색 결과를 제공할 가능성이 높아진다.
한편, 상술한 바와 같은 상품 영상 검색 과정에는 사용자가 개입하지 않을 수도 있고, 사용자가 개입할 수도 있다. 이에 대한 구체적인 설명을 위해 도 14 및 도 15를 참조하기로 한다.
도 14는 상품 영상 검색 과정에 사용자가 개입하지 않는 경우를 설명하기 위한 도면이다. 그리고 도 15는 상품 영상 검색 과정에 사용자가 개입하는 경우를 설명하기 위한 도면이다.
도 14에 도시된 질의 영상(630)에서 제1 후보 영역(631), 제2 후보 영역(632), 제3 후보 영역(633) 및 제4 후보 영역(634)이 추출되었다면, 검색부(540)는 각 후보 영역(631, 632, 633, 634)에서 인식된 상품의 아이템, 디자인 디테일, 소재, 또는 패턴과 유사한 상품을 포함하는 상품 영상들(640)을 검색한다.
구체적으로, 검색부(540)는 질의 영상(630)의 제1 후보 영역(631)에서 인식된 상품의 아이템(예를 들어, 선글라스), 디자인 디테일, 패턴 또는 소재와 유사하거나 동일한 상품을 포함하는 상품 영상들(641)을 검색한다. 또한, 검색부(540)는 질의 영상(630)의 제2 후보 영역(632)에서 인식된 상품의 아이템(예를 들어, 줄무늬 티셔츠), 디자인 디테일, 패턴 또는 소재와 유사하거나 동일한 상품을 포함하는 상품 영상들(642)을 검색한다. 또한, 검색부(540)는 질의 영상(630)의 제3 후보 영역(633)에서 인식된 상품의 아이템(예를 들어, 스키니 진), 디자인 디테일, 패턴 또는 소재와 유사하거나 동일한 상품을 포함하는 상품 영상들(643)을 검색한다. 또한, 검색부(540)는 질의 영상(630)의 제4 후보 영역(634)에서 인식된 상품의 아이템(예를 들어, 부츠), 디자인 디테일, 패턴 또는 소재와 유사하거나 동일한 상품을 포함하는 상품 영상들(644)을 검색한다.
한편, 검색부(540)가 질의 영상(630)의 각 후보 영역에서 인식된 상품의 속성을 기준으로 상품 영상들을 검색하기에 앞서, 질의 영상(630)에 대한 후보 영역 추출 결과가 사용자 장치(100)로 제공되어, 사용자 장치(100)를 통해 표시될 수 있다. 이후, 사용자가 소정 후보 영역을 선택하면, 선택된 후보 영역에 대한 정보가 영상 검색 장치(500)로 전송되고, 영상 검색 장치(500)의 검색부(540)는 선택된 후보 영역에서 인식된 상품의 속성과 유사하거나 동일한 상품을 포함하는 상품 영상들을 검색한다. 예를 들어, 도 15에 도시된 질의 영상(630) 및 후보 영역들(631, 632, 633, 634) 중에서 제2 후보 영역(632)이 사용자에 의해 선택된 경우, 검색부(540)는 제2 후보 영역(632)에서 인식된 상품의 아이템(예를 들어, 줄무늬 티셔츠), 디자인 디테일, 패턴 또는 소재와 유사하거나 동일한 상품 영상들(642)만을 검색한다.
이 때, 검색된 상품 영상들(642)로는 줄무늬 티셔츠만을 포함하는 상품 영상(642a, 642b, 642c) 및/또는 줄무늬 티셔츠를 착용한 사람을 포함하는 상품 영상(642d)이 포함될 수 있다. 이처럼 줄무늬 티셔츠만을 포함하는 상품 영상뿐만 아니라 줄무니 티셔츠를 착용한 사람을 포함하는 상품 영상을 검색 결과로 제공하면, 사용자가 줄무늬 티셔츠와 관련된 전체 스타일을 확인할 수 있다. 따라서 사용자가 줄무늬 티셔츠와 관련된 스타일링법을 별도로 검색할 필요가 없으므로, 사용자의 편의성이 향상된다.
다시 도 10을 참조하면, 검색부(540)에서 검색된 상품 영상들은 후술될 유사도 계산부(550)로 제공된다.
유사도 계산부(550)는 검색부(540)에 의해 검색된 상품 영상들을 대상으로 질의 영상과의 유사도를 계산한다. 일 예로, 유사도 계산부(550)는 질의 영상의 각 후보 영역에서 추출된 특징과 상품 영상의 각 후보 영역에서 추출된 특징 간의 유사도를 계산한다. 이 때, 유사도 계산 방법으로는 해밍 거리(Hamming Distance) 및 코사인 유사도(Cosine Similarity)를 예로 들 수 있다.
영상 정렬부(560)는 검색부(540)에 의해 검색된 상품 영상들을 유사도 계산부(550)로부터 제공받은 유사도 값에 기초하여 정렬한다. 예를 들면, 영상 정렬부(560)는 유사도 값이 높은 순서대로 상품 영상들을 정렬한다. 정렬된 상품 영상들은 통신부(510)를 통해 사용자 장치(100)로 제공된다.
이 때, 정렬된 상품 영상들 모두가 사용자 장치(100)로 전송되거나, 정렬된 상품 영상들 중에서 선택된 상품 영상들만이 사용자 장치(100)로 전송된다. 예를 들어, 정렬된 상품 영상들 중에서 유사도 값이 기준치 이상인 상품 영상들만이 선택되거나, 정렬된 상품 영상들 중에서 상위 M개의 상품 영상들이 선택될 수 있다. 이 때, M은 영상 검색 장치(500)의 관리자나 사용자에 의해 수동으로 설정되거나, 사용자의 구매 빈도나 구매 이력에 따라 자동으로 설정될 수도 있다.
도 16은 본 발명의 다른 실시 예에 따른 패션 상품 영상 검색 방법을 도시한 순서도이다.
우선 영상 검색 장치(500)는 사용자 장치(100)로부터 질의 영상을 수신한다(S710).
이후, 영상 검색 장치(500)는 질의 영상을 딥 러닝으로 학습된 물체 검출 모델(521)에 적용하여, 질의 영상에서 상품이 존재할 것으로 추정되는 하나 이상의 후보 영역을 추출한다(S720). 여기서, 상기 물체 검출 모델은 R-CNN 모델, fast R-CNN 모델, YOLO 모델을 예로 들 수 있다. 예시된 모델들은, 입력 영상 및 입력 영상의 그라운드 트루스 영상을 포함하는 학습데이터를 이용하여 학습될 수 있다. 또는 입력 영상을 포함하는 학습데이터를 이용하여 학습될 수도 있다.
이후, 영상 검색 장치(500)는 후보 영역 내의 영상인 후보 영상을 딥 러닝으로 학습된 특징 추출 모델에 적용하여, 후보 영역의 속성별로 특징을 추출한다(S730)
실시예에 따르면, 상기 S730 단계는, 후보 영상을 기학습된 특징 추출 모델에 적용하여 후보 영상의 속성별로 저해상도 특징(coarse feature)을 추출하는 단계와, 후보 영상을 기학습된 특징 추출 모델에 적용하여 후보 영상의 속성별로 고해상도 특징(fine feature)를 추출하는 단계를 포함한다.
앞서 도 12를 참조하여 설명한 바와 같이, 상기 특징 추출 모델은 하위 계층이 단일망(unified network)으로 구성되고, 상위 계층이 복수의 분류망으로 구성된 구조를 갖는다. 특징 추출 모델의 구조를 이와 같이 구성하면, 하위 계층은 단일망으로 구성되므로, 하위 계층에서는 파라미터를 공유할 수 있다. 또한 상위 계층만이 복수개의 분류망으로 나뉘게 되므로, 아이템, 디자인 디테일, 패턴, 소재 각각에 대해서 저해상도 특징과 고해상도 특징을 출력할 수 있다. 뿐만 아니라, 특징 추출 전달(forward)에 소요되는 평균 시간을 단축시킬 수 있어, 상품 영상 검색의 속도를 향상시킬 수 있다. 영상 검색 속도 향상에 대해서는 도 17을 참조하여 후술하기로 한다.
이후, 영상 검색 장치(500)는 후보 영상에서 추출된 특징에 기초하여, 후보 영상과 유사한 상품 영상들을 상품 영상 데이터베이스(580)에서 검색한다(S740).
실시예에 따르면, 상기 S740 단계는, 후보 영상에서 추출된 저해상도 특징에 기초하여, 후보 영상과 유사한 상품 영상들을 상품 영상 데이터베이스(580)에서 1차로 검색하는 단계와, 후보 영상에서 추출된 고해상도 특징에 기초하여, 후보 영상과 유사한 상품 영상들을 1차로 검색된 상품 영상들 내에서 2차로 검색하는 단계를 포함한다.
후보 영상의 저해상도 특징을 이용한 1차 검색 단계에서는 후보 영상과 대략적으로 유사한 상품 영상들이 검색된다. 그리고 후보 영상의 고해상도 특징을 이용한 2차 검색 단계에서는 후보 영상과 더욱 유사한 상품 영상들이 검색된다.
한편, 1차 검색 단계에서는 후보 영상의 아이템에 대한 저해상도 특징이 이용될 수 있다. 그리고 2차 검색 단계에서는 후보 영상의 아이템에 대한 고해상도 특징뿐만이 아니라, 후보 영상의 디자인 디테일에 대한 고해상도 특징, 소재에 대한 고해상도 특징, 패턴에 대한 고해상도 특징, 또는 소재에 대한 고해상도 특징이 사용될 수도 있다. 2차 검색 단계에서 어떠한 속성의 고해상도 특징을 사용할 것인지는, 사용자에 의해 선택될 수도 있다.
이후, 영상 검색 장치(500)는 검색된 상품 영상들을 대상으로 질의 영상과의 유사도를 계산한다(S750). 상기 S750 단계는 질의 영상의 각 후보 영역에서 추출된 특징과 상품 영상의 각 후보 영역에서 추출된 특징 간의 유사도를 계산하는 단계를 포함한다.
이후, 영상 검색 장치(500)는 계산된 유사도 값에 기초하여 상품 영상들을 정렬한다(S760). 상기 S760 단계는 유사도 값이 높은 순으로 각 상품 영상들을 정렬하는 단계를 포함할 수 있다.
이후, 영상 검색 장치(500)는 정렬된 상품 영상들 중에서 소정 개수의 상품 영상을 선택하고, 선택된 상품 영상들을 사용자 장치로 전송한다(S770).
일 실시 예에 따르면, 상기 S770 단계에서는 유사도 값이 기준치 이상인 상품 영상들이 선택될 수 있다.
다른 실시 예에 따르면, 상기 S770 단계에서는 유사도 값을 기준으로 상위 M개의 상품 영상들이 선택될 수 있다. 이 때, M은 영상 검색 장치(500)의 관리자 또는 사용자에 의해 설정되거나, 사용자의 구매 빈도에 비례하여 자동으로 결정될 수 있다.
도 17은 서로 다른 구조를 가지는 특징 추출 모델들을 대상으로 특징 추출 전달에 소요되는 시간을 실험한 결과를 도시한 그래프이다.
실험 대상은 제1 특징 추출 모델, 제2 특징 추출 모델, 및 제3 특징 추출 모델이다. 제1 특징 추출 모델은 하나의 단일 분류망으로 구성된다. 제2 특징 추출 모델은 단일망과 복수의 분류망(아이템, 소재, 패턴)으로 구성된다. 제3 특징 추출 모델은 복수의 단일 분류망(아이템, 소재, 패턴)으로 구성된다. 여기서, 제2 특징 추출 모델은 도 12에 도시된 특징 추출 모델을 의미한다.
실험에는 10,000개의 테스트 영상이 사용되었다. 실험 결과, 제1 특징 추출 모델에서 특징 추출 전달(forward)에 소요되는 평균 시간은 18ms 인 것으로 측정되었다. 제2 특징 추출 모델에서 특징 추출 전달에 소요되는 평균 시간은 27ms 인 것으로 측정되었다. 제3 특징 추출 모델에서 특징 추출 전달에 소요되는 평균 시간은 54ms 인 것으로 측정되었다.
즉, 제2 특징 추출 모델은 제3 특징 추출 모델에 비하여 속도가 2배 정도 향상된 것을 알 수 있다. 따라서, 하위 계층은 단일망으로 구성되고 상위 계층은 속성별로(아이템, 소재, 패턴) 복수의 분류망으로 구성되어 있는 제2 특징 추출 모델을 사용하는 경우, 영상 검색 속도 향상에 도움이 된다는 것을 확인할 수 있다.
본 발명의 실시예와 관련하여 설명된 방법 또는 알고리즘의 단계들은 하드웨어로 직접 구현되거나, 하드웨어에 의해 실행되는 소프트웨어 모듈로 구현되거나, 또는 이들의 결합에 의해 구현될 수 있다. 소프트웨어 모듈은 RAM(Random Access Memory), ROM(Read Only Memory), EPROM(Erasable Programmable ROM), EEPROM(Electrically Erasable Programmable ROM), 플래시 메모리(Flash Memory), 하드 디스크, 착탈형 디스크, CD-ROM, 또는 본 발명이 속하는 기술 분야에서 잘 알려진 임의의 형태의 컴퓨터 판독가능 기록매체에 상주할 수도 있다.
이상, 첨부된 도면을 참조로 하여 본 발명의 실시예를 설명하였지만, 본 발명이 속하는 기술분야의 통상의 기술자는 본 발명이 그 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 그러므로, 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며, 제한적이 아닌 것으로 이해해야만 한다.
100: 사용자 장치
200: 영상 검색 장치
210: 통신부
230: 특징 추출부
240: 검색부
250: 유사도 계산부
260: 영상 정렬부
270: 질의 영상 데이터베이스
280: 상품 영상 데이터베이스

Claims (4)

  1. 통신부가, 사용자 장치로부터 질의 영상을 수신하는 질의 영상 수신 단계;
    후보 영역 검출부가 상기 질의 영상을 기학습된 물체 검출 모델에 적용하여, 상기 질의 영상에서 상품이 존재할 것으로 추정되는 하나 이상의 후보 영역을 추출하는 후보 영역 추출 단계;
    특징 추출부가 상기 하나 이상의 후보 영역 내의 영상인 후보 영상을 기 학습된 특징 추출 모델에 적용하여, 상기 후보 영상에 대하여 속성별로 특징을 추출하는 특징 추출 단계;
    검색부가 추출된 상기 특징에 기초하여, 상기 후보 영상과 유사한 상품 영상들을 상품 영상 데이터베이스에서 검색하는 검색 단계;
    를 포함하고,
    상기 특징 추출 모델은, 하위 계층이 단일망(unified network)으로 구성되고, 상위 계층이 상기 속성별로 분리된 복수의 분류망으로 구성된 구조를 가지며,
    상기 복수의 분류망은, 상기 속성별로 특정 해상도보다 낮은 해상도를 가지는 저해상도 특징(coarse feature) 및 상기 특정 해상도 이상의 해상도를 가지는 고해상도 특징(fine feature)으로 기학습되는, 상품 영상 검색 방법.
  2. 삭제
  3. 제1항에 있어서,
    상기 특징 추출 단계는,
    상기 특징 추출부가, 상기 후보 영상을 상기 저해상도 특징으로 기학습된 특징 추출 모델에 적용하여 상기 속성별로 저해상도 특징을 추출하는 저해상도 특징 추출 단계; 및
    상기 특징 추출부가, 상기 후보 영상을 상기 고해상도 특징으로 기학습된 특징 추출 모델에 적용하여 상기 속성별로 고해상도 특징을 추출하는 고해상도 특징 추출 단계;
    를 포함하는, 상품 영상 검색 방법.
  4. 제3항에 있어서,
    상기 검색 단계는,
    상기 검색부가, 상기 저해상도 특징 추출 단계에서 추출된 상기 저해상도 특징에 기초하여, 상기 후보 영상과 유사한 상품 영상들을 상기 상품 영상 데이터베이스에서 검색하는 저해상도 검색 단계; 및
    상기 검색부가, 상기 고해상도 특징 추출 단계에서 추출된 상기 고해상도 특징에 기초하여, 상기 저해상도 검색 단계에서 검색된 상기 유사한 상품 영상들 내에서 상기 후보 영상과 유사한 상품 영상들을 검색하는 고새항도 검색 단계;
    를 포함하는, 상품 영상 검색 방법.
KR1020160109420A 2015-08-26 2016-08-26 상품 영상 검색 및 시스템 KR101801846B1 (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR20150119986 2015-08-26
KR1020150119986 2015-08-26

Publications (2)

Publication Number Publication Date
KR20170026264A KR20170026264A (ko) 2017-03-08
KR101801846B1 true KR101801846B1 (ko) 2017-11-27

Family

ID=58404132

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020160109420A KR101801846B1 (ko) 2015-08-26 2016-08-26 상품 영상 검색 및 시스템

Country Status (1)

Country Link
KR (1) KR101801846B1 (ko)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20190064288A (ko) 2017-11-30 2019-06-10 국민대학교산학협력단 스케치 기반의 영상표절 검사 방법 및 장치
KR102180884B1 (ko) * 2020-04-21 2020-11-19 피앤더블유시티 주식회사 영상 콘텐츠에서 객체 인식 기반의 상품 정보를 제공하기 위한 장치 및 이를 위한 방법
TWI728787B (zh) * 2020-04-22 2021-05-21 國立勤益科技大學 商品樣式辨識與推薦系統
EP3908943A4 (en) * 2019-01-29 2022-03-09 Samsung Electronics Co., Ltd. METHOD, DEVICE, ELECTRONIC DEVICE AND COMPUTER READABLE STORAGE MEDIUM FOR IMAGE SEARCH
KR20220086403A (ko) * 2020-12-16 2022-06-23 주식회사 콕스랩 LPWAN(Low Power Wide Area Network) 환경에서 영상에 기초하여 객체에 관한 정보를 추정하기 위한 방법, 시스템 및 비일시성의 컴퓨터 판독 가능한 기록 매체
RU2792589C1 (ru) * 2022-09-02 2023-03-22 Публичное Акционерное Общество "Сбербанк России" (Пао Сбербанк) Способ и устройство подбора продукта на основании индекса релевантности
WO2024049320A1 (ru) * 2022-09-02 2024-03-07 Публичное Акционерное Общество "Сбербанк России" Способ и устройство подбора продукта на основании индекса релевантности

Families Citing this family (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102110766B1 (ko) * 2017-03-30 2020-05-14 한국전자통신연구원 음식 적합도에 기초한 요리 정보 제공 방법 및 장치
KR101977174B1 (ko) 2017-09-13 2019-05-10 이재준 영상 분석 방법, 장치 및 컴퓨터 프로그램
CN109598517B (zh) * 2017-09-29 2023-09-12 阿里巴巴集团控股有限公司 商品通关处理、对象的处理及其类别预测方法和装置
KR102007792B1 (ko) * 2017-12-28 2019-08-06 한민 쓰레기 처리에 따른 보상 방법 및 장치
KR101895479B1 (ko) * 2018-01-19 2018-09-05 주식회사 리싸이클파크 오브젝트 인식 서버, 오브젝트 인식 시스템 및 오브젝트 인식 방법
KR102255404B1 (ko) * 2018-03-15 2021-05-24 주식회사 비주얼 주얼리 상품 추천 방법 및 주얼리 상품 추천 장치
KR102102161B1 (ko) * 2018-05-18 2020-04-20 오드컨셉 주식회사 이미지 내 객체의 대표 특성을 추출하는 방법, 장치 및 컴퓨터 프로그램
KR102052344B1 (ko) 2018-06-11 2019-12-04 옴니어스 주식회사 소셜 네트워크를 이용한 영향력 측정 방법 및 장치
KR20200017306A (ko) * 2018-08-08 2020-02-18 삼성전자주식회사 카테고리에 기반하여 아이템에 관한 정보를 제공하는 전자 장치
KR102186077B1 (ko) * 2018-10-18 2020-12-04 카페24 주식회사 온라인 쇼핑몰 기반의 상품을 검색하는 방법, 상기 방법을 사용하는 장치 및 시스템
WO2020090054A1 (ja) * 2018-10-31 2020-05-07 ニューラルポケット株式会社 情報処理システム、情報処理装置、サーバ装置、プログラム、又は方法
KR102246408B1 (ko) * 2019-02-14 2021-05-18 엔에이치엔 주식회사 딥러닝 기반 유사상품 제공방법
KR102222564B1 (ko) * 2019-03-22 2021-03-05 이득기 인공지능 기반의 유사 디자인 검색 장치
KR102045223B1 (ko) * 2019-05-03 2019-11-19 주식회사 크레스콤 골 연령 분석 방법, 장치 및 컴퓨터 프로그램
KR102274588B1 (ko) * 2019-05-15 2021-07-07 주식회사 스토어카메라 상품 정보 등록 방법 및 서버
KR102110893B1 (ko) * 2019-11-27 2020-05-14 주식회사 종달랩 의류 원단 사진에서 원단의 특징을 추출한 후 유사한 원단을 검색하고 추천하는 원단 검색 딥러닝 시스템
KR102110894B1 (ko) * 2019-11-27 2020-05-14 주식회사 종달랩 의류 원단을 촬영한 동영상을 이용하여 유사한 원단을 검색하고 추천하는 인공지능 원단 검색 시스템
KR102330724B1 (ko) * 2019-11-29 2021-11-24 옴니어스 주식회사 소셜 네트워크 기반의 영향력 측정 방법 및 장치
KR102230255B1 (ko) * 2019-11-29 2021-03-19 옴니어스 주식회사 소셜 네트워크를 이용한 영향력 측정 방법 및 장치
CN111178301B (zh) * 2019-12-30 2023-10-17 北京迈格威科技有限公司 对象再识别的方法、装置和电子系统
KR102387978B1 (ko) * 2020-05-18 2022-04-18 이미진 Ec 통합형 메타미디어의 제작 방법, 전송 시스템 및 전송 방법
KR102622779B1 (ko) * 2020-07-27 2024-01-10 옴니어스 주식회사 상품 이미지에 속성 관련 키워드를 부여하는 방법, 시스템 및 비일시성의 컴퓨터 판독 가능 기록 매체
WO2022025568A1 (ko) * 2020-07-27 2022-02-03 옴니어스 주식회사 멀티 태스크 러닝을 이용하여 상품의 속성을 인식하는 방법, 시스템 및 비일시성의 컴퓨터 판독 가능 기록 매체
CN111882332A (zh) * 2020-07-31 2020-11-03 浙江水晶光电科技股份有限公司 一种信息验证方法和装置
US20230334525A1 (en) * 2022-04-19 2023-10-19 Truist Bank Mobile device pop-up location-based real-time offer generation
KR102525235B1 (ko) * 2022-09-07 2023-04-26 농업협동조합중앙회 매장 시스템의 서버 및 매장 시스템의 제어 방법

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101191172B1 (ko) * 2012-02-15 2012-10-15 (주)올라웍스 이미지 데이터베이스의 이미지들을 관리하는 방법, 장치 및 컴퓨터 판독 가능한 기록 매체

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101191172B1 (ko) * 2012-02-15 2012-10-15 (주)올라웍스 이미지 데이터베이스의 이미지들을 관리하는 방법, 장치 및 컴퓨터 판독 가능한 기록 매체

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20190064288A (ko) 2017-11-30 2019-06-10 국민대학교산학협력단 스케치 기반의 영상표절 검사 방법 및 장치
EP3908943A4 (en) * 2019-01-29 2022-03-09 Samsung Electronics Co., Ltd. METHOD, DEVICE, ELECTRONIC DEVICE AND COMPUTER READABLE STORAGE MEDIUM FOR IMAGE SEARCH
US11507615B2 (en) 2019-01-29 2022-11-22 Samsung Electronics Co., Ltd. Method, apparatus, electronic device and computer readable storage medium for image searching
KR102180884B1 (ko) * 2020-04-21 2020-11-19 피앤더블유시티 주식회사 영상 콘텐츠에서 객체 인식 기반의 상품 정보를 제공하기 위한 장치 및 이를 위한 방법
TWI728787B (zh) * 2020-04-22 2021-05-21 國立勤益科技大學 商品樣式辨識與推薦系統
KR20220086403A (ko) * 2020-12-16 2022-06-23 주식회사 콕스랩 LPWAN(Low Power Wide Area Network) 환경에서 영상에 기초하여 객체에 관한 정보를 추정하기 위한 방법, 시스템 및 비일시성의 컴퓨터 판독 가능한 기록 매체
WO2022131733A1 (ko) * 2020-12-16 2022-06-23 주식회사 콕스랩 Lpwan(low power wide area network) 환경에서 영상에 기초하여 객체에 관한 정보를 추정하기 위한 방법, 시스템 및 비일시성의 컴퓨터 판독 가능한 기록 매체
KR102597045B1 (ko) * 2020-12-16 2023-11-02 주식회사 콕스랩 LPWAN(Low Power Wide Area Network) 환경에서 영상에 기초하여 객체에 관한 정보를 추정하기 위한 방법, 시스템 및 비일시성의 컴퓨터 판독 가능한 기록 매체
RU2792589C1 (ru) * 2022-09-02 2023-03-22 Публичное Акционерное Общество "Сбербанк России" (Пао Сбербанк) Способ и устройство подбора продукта на основании индекса релевантности
WO2024049320A1 (ru) * 2022-09-02 2024-03-07 Публичное Акционерное Общество "Сбербанк России" Способ и устройство подбора продукта на основании индекса релевантности

Also Published As

Publication number Publication date
KR20170026264A (ko) 2017-03-08

Similar Documents

Publication Publication Date Title
KR101801846B1 (ko) 상품 영상 검색 및 시스템
EP3267362B1 (en) Machine learning image processing
US20200320769A1 (en) Method and system for predicting garment attributes using deep learning
US9922271B2 (en) Object detection and classification
US20160225053A1 (en) Mobile visual commerce system
US9727620B2 (en) System and method for item and item set matching
Pasupa et al. A hybrid approach to building face shape classifier for hairstyle recommender system
US10346893B1 (en) Virtual dressing room
US20140314313A1 (en) Visual clothing retrieval
Al-Lohibi et al. Awjedni: a reverse-image-search application
Alonso‐Fernandez et al. Facial masks and soft‐biometrics: Leveraging face recognition CNNs for age and gender prediction on mobile ocular images
KR101835333B1 (ko) 얼굴 인식 서비스 제공 방법
Nanda et al. Illumination and scale invariant relevant visual features with hypergraph-based learning for multi-shot person re-identification
Wang et al. CLARE: A joint approach to label classification and tag recommendation
WO2021216439A1 (en) Automated generation of training data for contextually generated perceptions
Yu et al. Semantic embedding for indoor scene recognition by weighted hypergraph learning
Gothai et al. Design features of grocery product recognition using deep learning
US11354351B2 (en) Contextually generated perceptions
Choudhary et al. Person re-identification using deep siamese network with multi-layer similarity constraints
Rehman et al. Person re-identification post-rank optimization via hypergraph-based learning
Srinivasa Rao et al. Content and context based image retrieval classification based on firefly-neural network
Bao et al. Mmfl-net: multi-scale and multi-granularity feature learning for cross-domain fashion retrieval
Bhoir et al. Transfer learning with deep neural networks for image classification in the e-commerce industry
Islam et al. Ornament image retrieval using multimodal fusion
KR102260683B1 (ko) 쇼핑 정보를 제공하는 방법, 장치 및 컴퓨터 프로그램

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant