KR20200020306A - A method for image searching using an peripheral information and an apparatus therefor - Google Patents

A method for image searching using an peripheral information and an apparatus therefor Download PDF

Info

Publication number
KR20200020306A
KR20200020306A KR1020180095859A KR20180095859A KR20200020306A KR 20200020306 A KR20200020306 A KR 20200020306A KR 1020180095859 A KR1020180095859 A KR 1020180095859A KR 20180095859 A KR20180095859 A KR 20180095859A KR 20200020306 A KR20200020306 A KR 20200020306A
Authority
KR
South Korea
Prior art keywords
search
image
information
target item
image data
Prior art date
Application number
KR1020180095859A
Other languages
Korean (ko)
Inventor
김기현
김하윤
Original Assignee
십일번가 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 십일번가 주식회사 filed Critical 십일번가 주식회사
Priority to KR1020180095859A priority Critical patent/KR20200020306A/en
Publication of KR20200020306A publication Critical patent/KR20200020306A/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/58Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/58Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/583Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/06Buying, selling or leasing transactions
    • G06Q30/0601Electronic shopping [e-shopping]

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Physics & Mathematics (AREA)
  • Library & Information Science (AREA)
  • General Physics & Mathematics (AREA)
  • Accounting & Taxation (AREA)
  • Finance (AREA)
  • General Engineering & Computer Science (AREA)
  • Databases & Information Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Economics (AREA)
  • General Business, Economics & Management (AREA)
  • Strategic Management (AREA)
  • Marketing (AREA)
  • Development Economics (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

The present invention relates to a method for image search using ambient information for extracting an image similar to an image search word in a form of an image file by referring to ambient information other than an item to be a search target of information included in the image and to an apparatus thereof. When receiving an image search request including image data from a user device, the apparatus is implemented to extract a search target item and ambient information related to the search target item from the image data and to perform search based on the search target item of the image data in consideration of the ambient information.

Description

주변 정보를 이용한 이미지 검색을 위한 방법 및 장치{A method for image searching using an peripheral information and an apparatus therefor}A method for image searching using an peripheral information and an apparatus therefor}

본 발명은 이미지 검색 기술에 관한 것으로, 더욱 상세하게는, 이미지 내에 포함된 검색 대상 아이템 이외의 주변 정보를 참조하여 이미지 검색을 수행하는 방법 및 장치에 관한 것이다. The present invention relates to an image retrieval technique, and more particularly, to a method and apparatus for performing an image retrieval by referring to surrounding information other than a search target item included in an image.

이미지 검색은 이미지를 찾는 방법과 목적에 따라 크게 두 가지로 구분할 수 있다. 첫 번째는 텍스트 검색어를 이용해 관련 이미지를 찾는 것이다. 예를 들어 텍스트 '꽃'이라는 키워드를 입력하면 다양한 종류의 꽃 사진을 볼 수 있다. 이 유형은 인터넷 초창기부터 있었던 전통적인 검색방식이다. 두 번째는 이미지 파일인 이미지 검색어를 입력하면, 이미지 파일을 분석해서 동일 또는 유사한 이미지를 찾아내는 것이다. 컴퓨터 분석 기술과 인터넷 기술이 발달하면서 등장한 방식이다. 키워드 방식에 비해 사용자가 이미지를 직관적으로 검색할 수 있다는 이점이 있다. Image search can be divided into two types according to the method and purpose of finding an image. The first is to use a text search term to find related images. For example, if you enter the keyword 'flowers', you can see different types of flowers. This type is a traditional search method from the very beginning of the Internet. The second is to enter an image search term, which is an image file, and analyze the image file to find the same or similar image. It's the way computer analysis and internet technology have developed. Compared to the keyword method, the user can intuitively search for an image.

한국공개특허 제2010-0043823호, 2010년 04월 29일 공개 (명칭: 상품이미지를 이용한 온라인 쇼핑 기능을 제공하는 방법 및 쇼핑몰 서버)Korean Laid-Open Patent No. 2010-0043823, published on April 29, 2010 (Name: Method for providing an online shopping function using a product image and a shopping mall server)

본 발명의 목적은 이미지 내에 포함된 정보 중 검색 대상이 되는 아이템 이외의 주변 정보를 참조하여 이미지 파일 형태의 이미지 검색어와 유사한 이미지를 추출하는 주변 정보를 이용한 이미지 검색을 위한 방법 및 장치를 제공함에 있다. SUMMARY OF THE INVENTION An object of the present invention is to provide a method and apparatus for image search using surrounding information which extracts an image similar to an image search word in the form of an image file by referring to surrounding information other than an item to be searched among information included in the image. .

특히, 본 발명은 검색 대상이 되는 아이템 이외의 배경 이미지, 이미지의 메타데이터 정보 등을 주변 정보로 이용하여, 이미지의 검색 범위의 한정하거나 검색 결과를 수정함으로써, 검색 결과에 대한 신뢰도를 높이거나 사용자 만족도를 더 향상시킬 수 있는 주변 정보를 이용한 이미지 검색을 위한 방법 및 장치를 제공하고자 한다. In particular, the present invention uses the background image other than the item to be searched, the metadata information of the image, etc. as surrounding information, thereby limiting the search range of the image or modifying the search result, thereby increasing the reliability of the search result or the user. An object of the present invention is to provide a method and apparatus for image retrieval using surrounding information that can further improve satisfaction.

상술한 바와 같은 목적을 달성하기 위한 본 발명의 바람직한 실시 예에 따른 이미지 검색을 위한 방법은, 이미지 검색을 위한 장치가, 사용자 장치로부터 이미지 데이터를 포함하는 이미지 검색 요청을 수신하는 단계; 상기 이미지 검색 요청에 의하여, 상기 이미지 데이터로부터 검색 대상 아이템 및 상기 검색 대상 아이템과 관련된 주변 정보를 추출하는 단계; 상기 주변 정보를 고려하여 상기 이미지 데이터의 검색 대상 아이템을 기준으로 검색을 수행하는 단계; 및 검색 결과를 상기 사용자장치로 제공하는 단계를 포함한다.According to an aspect of the present invention, there is provided a method for image retrieval, comprising: receiving, by an apparatus for image retrieval, an image retrieval request including image data from a user device; Extracting a search target item and surrounding information related to the search target item from the image data by the image search request; Performing a search based on a search target item of the image data in consideration of the surrounding information; And providing a search result to the user device.

상기 추출하는 단계는, 상기 이미지 데이터 중 상기 검색 대상 아이템을 제외한 나머지 이미지 영역을 배경 이미지로 추출하고, 상기 배경 이미지의 분석을 통해 상기 주변 정보를 추출하는 단계, 상기 이미지 데이터의 메타 데이터를 추출하고, 상기 메타데이터로부터 상기 주변 정보를 추출하는 단계 중 하나 이상을 포함할 수 있다.The extracting may include extracting the remaining image area of the image data except for the search target item as a background image, extracting the peripheral information through analysis of the background image, and extracting metadata of the image data. And extracting the surrounding information from the metadata.

또한, 상기 추출하는 단계는, 상기 이미지 데이터 중 상기 검색 대상 아이템을 제외한 나머지 이미지 영역을 배경 이미지로 추출하고, 상기 배경 이미지의 분석을 통해 상기 주변 정보를 추출한 후, 상기 이미지 데이터의 메타 데이터를 참조하여 상기 주변 정보를 수정 또는 보완하거나, 상기 이미지 데이터의 메타 데이터를 분석하여 상기 주변 정보를 추출하고, 상기 이미지 데이터 중 상기 검색 대상 아이템을 제외한 나머지 이미지 영역을 배경 이미지를 분석하여, 상기 주변 정보를 수정 또는 보완할 수 있다.The extracting may include extracting an image region other than the search target item as a background image from the image data, extracting the peripheral information through analysis of the background image, and then referring to metadata of the image data. Modify or supplement the surrounding information, or analyze the metadata of the image data to extract the surrounding information, and analyze a background image of the remaining image area except for the search target item among the image data to obtain the surrounding information. It can be modified or supplemented.

여기서, 주변 정보는 상기 검색 대상 아이템의, 생산, 판매, 이용 중 하나 이상과 관련된, 시간적 정보, 공간적 정보 및 인물 정보 중 하나 이상을 포함한다.Here, the surrounding information includes one or more of temporal information, spatial information, and person information related to one or more of production, sale, and use of the searched item.

아울러, 상기 검색을 수행하는 단계는, 상기 주변 정보를 분석하여 검색 범위를 특정하는 단계; 상기 검색 대상 아이템을 기준으로 이미지 검색을 수행하는 단계; 및 상기 이미지 검색의 검색 결과를 상기 특정한 검색 범위를 기준으로 수정하는 단계를 포함하거나, 상기 주변 정보를 분석하여 검색 범위를 특정하는 단계; 및 상기 검색 범위 내에서 상기 검색 대상 아이템을 기준으로 이미지 검색을 수행하는 단계를 포함하여 이루어질 수 있다.In addition, the performing of the search may include: specifying a search range by analyzing the surrounding information; Performing an image search based on the search target item; And modifying a search result of the image search based on the specific search range or specifying a search range by analyzing the surrounding information. And performing an image search based on the search target item within the search range.

더하여, 본 발명은 상술한 과제의 다른 해결 수단으로서, 이미지 검색을 위한 장치를 제공한다. 본 발명에 따른 이미지 검색을 위한 장치는, 이미지 검색이 요청된 이미지 데이터를 분석하여, 이미지 데이터에 포함된 검색 가능한 복수의 객체 중 검색 대상 아이템을 선택하는 이미지처리모듈; 상기 이미지 데이터 중 상기 검색 대상 아이템을 제외한 배경 이미지 및 상기 이미지 데이터의 메타 데이터 중 하나 이상을 분석하여 상기 검색 대상 아이템과 관련된 주변 정보를 추출하는 주변정보처리모듈; 및 상기 주변 정보를 고려하여 상기 검색 대상 아이템을 기준으로 상기 이미지 데이터와 유사한 이미지를 검색하는 이미지검색모듈;을 포함한다.In addition, the present invention provides an apparatus for image retrieval as another means for solving the above-mentioned problems. An apparatus for searching for an image according to the present invention may include: an image processing module configured to select image to be searched among a plurality of searchable objects included in the image data by analyzing image data requested for image searching; A peripheral information processing module for extracting peripheral information related to the search target item by analyzing at least one of a background image excluding the search target item among the image data and metadata of the image data; And an image search module configured to search for an image similar to the image data based on the search target item in consideration of the surrounding information.

상기 주변정보처리모듈은, 상기 이미지 데이터 중 배경 이미지의 분석을 통해 상기 주변 정보를 추출한 후, 상기 이미지 데이터의 메타 데이터를 참조하여 상기 주변 정보를 수정 또는 보완하거나, 상기 이미지 데이터의 메타 데이터를 분석하여 상기 주변 정보를 추출하고, 상기 배경 이미지의 분석을 통해서, 상기 주변 정보를 수정 또는 보완할 수 있다.The peripheral information processing module extracts the peripheral information through analysis of the background image among the image data, and then corrects or supplements the peripheral information with reference to the metadata of the image data, or analyzes the metadata of the image data. The peripheral information may be extracted, and the peripheral information may be corrected or supplemented by analyzing the background image.

상기 이미지검색모듈은, 상기 주변 정보를 분석하여 검색 범위를 특정하고, 상기 검색 대상 아이템을 기준으로 이미지 검색을 수행한 후, 상기 이미지 검색의 검색 결과를 상기 특정한 검색 범위를 기준으로 수정하거나, 상기 주변 정보를 분석하여 검색 범위를 특정하고, 상기 특정한 검색 범위 내에서 상기 검색 대상 아이템을 기준으로 이미지 검색을 수행할 수 있다.The image search module analyzes the surrounding information to specify a search range, performs an image search based on the search target item, and then corrects a search result of the image search based on the specific search range, or A search range may be specified by analyzing surrounding information, and an image search may be performed based on the search target item within the specific search range.

본 발명에 따르면, 이미지 검색을 수행하는데 있어서, 검색 대상이 되는 아이템 이외에 배경 이미지 및 이미지의 메타 데이터로부터 시간적 정보 및 공간적 정보와 같은 아이템에 관련된 부가 정보를 추출하고, 이를 기반으로 검색 범위를 한정하여 검색을 수행하거나, 검색 결과의 랭킹을 조정함으로써 사용자에게 제공되는 이미지 검색 결과에 대한 사용자의 신뢰도 및 만족도를 더 형상시킬 수 있다.According to the present invention, in performing an image search, in addition to the item to be searched, additional information related to items such as temporal information and spatial information is extracted from the background image and metadata of the image, and the search range is limited based on the extracted information. By performing a search or adjusting the ranking of the search results, the user's trust and satisfaction with the image search results provided to the user can be further shaped.

도 1은 본 발명의 실시 예에 따른 이미지 검색 시스템을 설명하기 위한 도면이다.
도 2는 본 발명에 따른 이미지 검색을 위한 검색 서버의 구성을 나타낸 블록도이다.
도 3은 본 발명에 따른 이미지 검색을 위한 사용자 장치의 구성을 나타낸 블록도이다.
도 4는 본 발명의 실시 예에 따른 이미지 검색을 위한 방법에 있어서, 이미지 검색 과정 중에 추출된 주변 정보를 예시한 테이블이다.
도 5는 본 발명의 제1 실시 예에 따른 이미지 검색을 위한 방법에 있어서, 이미지 검색 과정을 나타낸 흐름도이다.
도 6은 본 발명의 제2 실시 예에 따른 이미지 검색을 위한 방법에 있어서, 이미지 검색 과정을 나타낸 흐름도이다.
도 7 및 도 8는 본 발명의 실시 예에 따른 이미지 검색어 및 그 검색 과정을 설명하기 위한 예시도이다.
1 is a diagram illustrating an image retrieval system according to an exemplary embodiment of the present invention.
2 is a block diagram showing the configuration of a search server for image search according to the present invention.
3 is a block diagram illustrating a configuration of a user device for searching for an image according to the present invention.
4 is a table illustrating surrounding information extracted during an image search process in the method for image search according to an embodiment of the present invention.
5 is a flowchart illustrating an image retrieval process in the method for image retrieval according to the first embodiment of the present invention.
6 is a flowchart illustrating an image search process in the method for the image search according to the second embodiment of the present invention.
7 and 8 are exemplary diagrams for describing an image search word and a search process according to an exemplary embodiment of the present invention.

본 발명의 과제 해결 수단의 특징 및 이점을 보다 명확히 하기 위하여, 첨부된 도면에 도시된 본 발명의 특정 실시 예를 참조하여 본 발명을 더 상세하게 설명한다. BRIEF DESCRIPTION OF THE DRAWINGS To make the features and advantages of the present invention more clear, the present invention will be described in more detail with reference to specific embodiments shown in the accompanying drawings.

다만, 하기의 설명 및 첨부된 도면에서 본 발명의 요지를 흐릴 수 있는 공지 기능 또는 구성에 대한 상세한 설명은 생략한다. 또한, 도면 전체에 걸쳐 동일한 구성 요소들은 가능한 한 동일한 도면 부호로 나타내고 있음에 유의하여야 한다. However, in the following description and the accompanying drawings, detailed descriptions of well-known functions or configurations that may obscure the subject matter of the present invention will be omitted. In addition, it should be noted that like elements are denoted by the same reference numerals as much as possible throughout the drawings.

이하의 설명 및 도면에서 사용된 용어나 단어는 통상적이거나 사전적인 의미로 한정해서 해석되어서는 아니 되며, 발명자는 그 자신의 발명을 가장 최선의 방법으로 설명하기 위한 용어의 개념으로 적절하게 정의할 수 있다는 원칙에 입각하여 본 발명의 기술적 사상에 부합하는 의미와 개념으로 해석되어야만 한다. 따라서 본 명세서에 기재된 실시 예와 도면에 도시된 구성은 본 발명의 가장 바람직한 일 실시 예에 불과할 뿐이고, 본 발명의 기술적 사상을 모두 대변하는 것은 아니므로, 본 출원시점에 있어서 이들을 대체할 수 있는 다양한 균등물과 변형 예들이 있을 수 있음을 이해하여야 한다. The terms or words used in the following description and drawings should not be construed as being limited to the common or dictionary meanings, and the inventors may appropriately define the concept of terms for describing their own invention in the best way. It should be interpreted as meanings and concepts corresponding to the technical idea of the present invention based on the principle that the present invention. Therefore, the embodiments described in the specification and the drawings shown in the drawings are only the most preferred embodiments of the present invention, and do not represent all of the technical idea of the present invention, various modifications that can be substituted for them at the time of the present application It should be understood that there may be equivalents and variations.

또한, 제1, 제2 등과 같이 서수를 포함하는 용어는 다양한 구성요소들을 설명하기 위해 사용하는 것으로, 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용될 뿐, 상기 구성요소들을 한정하기 위해 사용되지 않는다. 예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제2 구성요소는 제1 구성요소로 명명될 수 있고, 유사하게 제1 구성요소도 제2 구성요소로 명명될 수 있다. In addition, terms including ordinal numbers, such as first and second, are used to describe various components, and are used only to distinguish one component from another component, and to limit the components. Not used. For example, without departing from the scope of the present invention, the second component may be referred to as the first component, and similarly, the first component may also be referred to as the second component.

더하여, 어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급할 경우, 이는 논리적 또는 물리적으로 연결되거나, 접속될 수 있음을 의미한다. 다시 말해, 구성요소가 다른 구성요소에 직접적으로 연결되거나 접속되어 있을 수 있지만, 중간에 다른 구성요소가 존재할 수도 있으며, 간접적으로 연결되거나 접속될 수도 있다고 이해되어야 할 것이다. In addition, when a component is referred to as being "connected" or "connected" to another component, it means that it may be connected or connected logically or physically. In other words, although a component may be directly connected or connected to other components, it should be understood that other components may exist in the middle and may be connected or connected indirectly.

또한, 본 명세서에서 사용한 용어는 단지 특정한 실시 예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 또한, 본 명세서에서 기술되는 "포함 한다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다. In addition, the terminology used herein is for the purpose of describing particular embodiments only and is not intended to be limiting of the invention. Singular expressions include plural expressions unless the context clearly indicates otherwise. In addition, the terms "comprises" or "having" described herein are intended to indicate that there is a feature, number, step, operation, component, part, or combination thereof described in the specification, and one or the same. It is to be understood that the present invention does not exclude in advance the possibility of the presence or the addition of other features, numbers, steps, operations, components, parts, or a combination thereof.

또한, 명세서에 기재된 "?부", "?기", "모듈" 등의 용어는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미하며, 이는 하드웨어나 소프트웨어 또는 하드웨어 및 소프트웨어의 결합으로 구현될 수 있다. In addition, the terms "?", "?", "Module", and the like described in the specification mean a unit that processes at least one function or operation, which may be implemented by hardware or software or a combination of hardware and software. have.

또한, "일(a 또는 an)", "하나(one)", "그(the)" 및 유사어는 본 발명을 기술하는 문맥에 있어서(특히, 이하의 청구항의 문맥에서) 본 명세서에 달리 지시되거나 문맥에 의해 분명하게 반박되지 않는 한, 단수 및 복수 모두를 포함하는 의미로 사용될 수 있다. In addition, "a" or "an", "one", "the" and the like shall also be indicated otherwise in the context of the present invention (particularly in the context of the following claims). Unless otherwise expressly contradicted by context, it may be used in the sense including both singular and plural.

아울러, 본 발명의 범위 내의 실시 예들은 컴퓨터 실행가능 명령어 또는 컴퓨터 판독가능 매체에 저장된 데이터 구조를 가지거나 전달하는 컴퓨터 판독가능 매체를 포함한다. 이러한 컴퓨터 판독가능 매체는, 범용 또는 특수 목적의 컴퓨터 시스템에 의해 액세스 가능한 임의의 이용 가능한 매체일 수 있다. 예로서, 이러한 컴퓨터 판독가능 매체는 RAM, ROM, EPROM, CD-ROM 또는 기타 광 디스크 저장장치, 자기 디스크 저장장치 또는 기타 자기 저장장치, 또는 컴퓨터 실행가능 명령어, 컴퓨터 판독가능 명령어 또는 데이터 구조의 형태로 된 소정의 프로그램 코드 수단을 저장하거나 전달하는 데에 이용될 수 있고, 범용 또는 특수 목적 컴퓨터 시스템에 의해 액세스 될 수 있는 임의의 기타 매체와 같은 물리적 저장 매체를 포함할 수 있지만, 이에 한정되지 않는다. In addition, embodiments within the scope of the present invention include computer readable media having or conveying computer executable instructions or data structures stored on computer readable media. Such computer readable media can be any available media that can be accessed by a general purpose or special purpose computer system. By way of example, such computer readable media may be in the form of RAM, ROM, EPROM, CD-ROM or other optical disk storage, magnetic disk storage or other magnetic storage, or computer executable instructions, computer readable instructions or data structures. And may include, but are not limited to, any other medium that can be used to store or deliver certain program code means, and can be accessed by a general purpose or special purpose computer system. .

이하의 설명 및 특허 청구 범위에서, "네트워크"는 컴퓨터 시스템들 및/또는 모듈들 간의 전자 데이터를 전송할 수 있게 하는 하나 이상의 데이터 링크로서 정의된다. 정보가 네트워크 또는 다른 (유선, 무선, 또는 유선 또는 무선의 조합인) 통신 접속을 통하여 컴퓨터 시스템에 전송되거나 제공될 때, 이 접속은 컴퓨터-판독가능매체로서 이해될 수 있다. 컴퓨터 판독가능 명령어는, 예를 들면, 범용 컴퓨터 시스템 또는 특수 목적 컴퓨터 시스템이 특정 기능 또는 기능의 그룹을 수행하도록 하는 명령어 및 데이터를 포함한다. 컴퓨터 실행가능 명령어는, 예를 들면, 어셈블리어, 또는 심지어는 소스코드와 같은 이진, 중간 포맷 명령어일 수 있다. In the following description and claims, “network” is defined as one or more data links that enable the transfer of electronic data between computer systems and / or modules. When information is transmitted or provided to a computer system via a network or other (wired, wireless, or a combination of wired or wireless) communication connections, this connection can be understood as a computer-readable medium. Computer-readable instructions include, for example, instructions and data that cause a general purpose or special purpose computer system to perform a particular function or group of functions. The computer executable instructions may be, for example, binary, intermediate format instructions such as assembly language, or even source code.

아울러, 본 발명은 퍼스널 컴퓨터, 랩탑 컴퓨터, 핸드헬드 장치, 멀티프로세서 시스템, 마이크로프로세서-기반 또는 프로그램 가능한 가전제품(programmable consumer electronics), 네트워크 PC, 미니컴퓨터, 메인프레임 컴퓨터, 모바일 전화, PDA, 페이저(pager) 등을 포함하는 다양한 유형의 컴퓨터 시스템 구성을 가지는 네트워크 컴퓨팅 환경에서, 상기 컴퓨터 시스템들을 대상으로 이미지 검색 서비스를 제공하는데 적용될 수 있다. 본 발명은 또한 네트워크를 통해 유선 데이터 링크, 무선 데이터 링크, 또는 유선 및 무선 데이터 링크의 조합으로 링크된 로컬 및 원격 컴퓨터 시스템 모두가 태스크를 수행하는 분산형 시스템 환경에서 실행될 수 있다. 분산형 시스템 환경에서, 프로그램 모듈은 로컬 및 원격 메모리 저장 장치에 위치될 수 있다. In addition, the present invention relates to personal computers, laptop computers, handheld devices, multiprocessor systems, microprocessor-based or programmable consumer electronics, network PCs, minicomputers, mainframe computers, mobile phones, PDAs, pagers In a network computing environment having various types of computer system configurations including pagers, etc., the present invention may be applied to provide an image retrieval service to the computer systems. The invention may also be practiced in distributed system environments where both local and remote computer systems that are linked via wired networks, wireless data links, or combinations of wired and wireless data links perform tasks. In a distributed system environment, program modules may be located in both local and remote memory storage devices.

먼저, 본 발명의 실시예에 따른 주변정보를 이용한 이미지 검색 시스템에 대해서 설명하기로 한다. First, an image retrieval system using surrounding information according to an embodiment of the present invention will be described.

도 1은 본 발명의 실시예에 따른 주변정보를 이용한 이미지 검색 시스템을 나타낸 도면이다. 도 1을 참조하면, 이미지 검색 시스템은 네트워크(NW)를 통해 연결된 검색서버(100) 및 사용자장치(200)를 포함한다. 1 is a diagram illustrating an image retrieval system using surrounding information according to an exemplary embodiment of the present invention. Referring to FIG. 1, the image search system includes a search server 100 and a user device 200 connected through a network NW.

검색서버(100) 및 사용자장치(200)는 네트워크(NW)을 통해 상호간에 데이터를 송수신할 수 있다. 예를 들면, 통신망(NW)은 WLAN(Wireless LAN), 와이파이(Wi-Fi), 와이브로(Wibro), 와이맥스(Wimax), HSDPA(High Speed Downlink Packet Access) 등의 무선 통신망을 포함할 수 있으며, 시스템 구현 방식에 따라 이더넷(Ethernet), xDSL(ADSL, VDSL), HFC(Hybrid Fiber Coaxial Cable), FTTC(Fiber to The Curb), FTTH(Fiber To The Home) 등의 유선 통신망을 포함할 수도 있다. The search server 100 and the user device 200 may transmit and receive data to and from each other through the network NW. For example, the communication network NW may include a wireless communication network such as a wireless local area network (WLAN), Wi-Fi, Wibro, Wimax, and High Speed Downlink Packet Access (HSDPA). Depending on how the system is implemented, it may also include wired communication networks such as Ethernet, xDSL (ADSL, VDSL), Hybrid Fiber Coaxial Cable (HFC), Fiber to The Curb (FTTC), and Fiber To The Home (FTTH).

아울러, 본 발명에 이용되는 네트워크 (NW)은 예컨대, 다수의 접속망(미도시) 및 이들을 연결하는 코어망(미도시)으로 이루어진 이동통신망을 포함할 수 있다. 여기서, 접속망은 단말과 직접 접속하여 무선 통신을 수행하는 망으로서, 예를 들어, BS(Base Station), BTS(Base Transceiver Station), NodeB, eNodeB 등과 같은 다수의 기지국과, BSC(Base Station Controller), RNC(Radio Network Controller)와 같은 기지국 제어기로 구현될 수 있다. 또한, 전술한 바와 같이, 기지국에 일체로 구현되어 있던 디지털 신호 처리부와 무선 신호 처리부를 각각 디지털 유니트(Digital Unit, 이하 DU라 함과 무선 유니트(Radio Unit, 이하 RU라 함)으로 구분하여, 다수의 영역에 각각 다수의 RU(미도시)를 설치하고, 다수의 RU를 집중화된 DU와 연결하여 구성할 수도 있다. 또한, 접속망과 함께 모바일 망을 구성하는 코어망(미도시)은 접속망과 외부 망, 예컨대, 인터넷망과 같은 다른 통신망을 연결하는 역할을 수행한다. In addition, the network (NW) used in the present invention may include, for example, a mobile communication network including a plurality of access networks (not shown) and a core network (not shown) connecting them. Here, the access network is a network that performs wireless communication by directly connecting to a terminal, for example, a plurality of base stations such as a base station (BS), a base transceiver station (BTS), a NodeB, an eNodeB, and a base station controller (BSC). It may be implemented as a base station controller such as a Radio Network Controller (RNC). In addition, as described above, the digital signal processing unit and the wireless signal processing unit, which are integrally implemented in the base station, are divided into digital units (hereinafter referred to as DUs and radio units (hereinafter referred to as RUs)). In addition, a plurality of RUs (not shown) may be installed in each of the areas, and a plurality of RUs may be connected to a centralized DU, and a core network (not shown) constituting a mobile network together with an access network may be connected to an external network. It serves to connect networks, for example other communication networks, such as the Internet.

이러한 코어망은 앞서 설명한 바와 같이, 접속망 간의 이동성 제어 및 스위칭 등의 이동통신 서비스를 위한 주요 기능을 수행하는 네트워크 시스템으로서, 서킷 교환(circuit switching) 또는 패킷 교환(packet switching)을 수행하며, 모바일 망 내에서의 패킷 흐름을 관리 및 제어한다. 또한, 코어망은 주파수간 이동성을 관리하고, 접속망 및 코어망 내의 트래픽 및 다른 네트워크, 예컨대 인터넷망과의 연동을 위한 역할을 수행할 수도 있다. 이러한 코어망은 SGW(Serving GateWay), PGW(PDN GateWay), MSC(Mobile Switching Center), HLR(Home Location Register), MME(Mobile Mobility Entity)와 HSS(Home Subscriber Server) 등을 더 포함하여 구성될 수도 있다.As described above, the core network is a network system that performs main functions for mobile communication services such as mobility control and switching between access networks, and performs circuit switching or packet switching, and performs mobile network. Manage and control the flow of packets within In addition, the core network may manage inter-frequency mobility and may play a role for interworking with traffic in the access network and the core network and other networks such as the Internet network. The core network may further include a serving gateway (SGW), a PDN gateway (PGW), a mobile switching center (MSC), a home location register (HLR), a mobile mobility entity (MME), and a home subscriber server (HSS). It may be.

또한, 본 발명에 따른 네트워크(NW)는 인터넷 망을 포함할 수 있다. 인터넷망은 TCP/IP 프로토콜에 따라서 정보가 교환되는 통상의 공개된 통신망, 즉 공용망을 의미한다. 이러한 네트워크(NW)를 통해서 검색서버(100) 및 사용자장치(200)가 상호 연동하여 본 발명에 따른 기반 이미지 검색 시스템을 구성한다. In addition, the network NW according to the present invention may include an internet network. The Internet network refers to a common public communication network, that is, a public network, through which information is exchanged according to the TCP / IP protocol. Through the network NW, the search server 100 and the user device 200 interoperate with each other to form a base image search system according to the present invention.

사용자장치(200)는 사용자 요청에 따라서, 이미지 파일 형태의 이미지 검색어를 검색서버(100)로 전송하여 이미지 검색을 요청한다. 이때, 이미지 검색어는 이미지 데이터를 포함하며, 상기 이미지 데이터는 검색 가능한 복수의 아이템이 포함된 복합 이미지일 수 있다. 여기서 아이템은, 이미지에 포함되며 독립적인 의미 혹은 명칭을 갖는 객체를 의미한다. 상기 아이템은, 예를 들어, 온라인 쇼핑몰에서 판매하는 상품일 수 있으며, 동물, 식물 등의 자연 혹은 사람이 될 수 도 있다. 이러한 복합 이미지에서 사용자가 검색을 원하는 대상은 특정 아이템이 될 수 있다. The user device 200 requests an image search by transmitting an image search word in the form of an image file to the search server 100 according to a user request. In this case, the image search word may include image data, and the image data may be a complex image including a plurality of searchable items. Here, an item means an object included in an image and having an independent meaning or name. The item may be, for example, a product sold in an online shopping mall, or may be nature or a person such as an animal or a plant. In such a composite image, a user may want to search for a specific item.

그리고, 검색서버(100)는 이미지 검색 요청을 수신하면, 이미지 검색어에 대한 검색을 수행하는데, 이때, 이미지 검색어의 배경 이미지 및/또는 메타 데이터로부터 검색 대상과 관련된 주변 정보를 추출한다. 그리고, 상기 주변 정보를 고려하여 이미지 검색을 수행한다. 예를 들어, 주변 정보를 이용하여 검색 범위(예를 들어, 카테고리, 시간, 지역)를 한정한 후 이미지 검색을 수행하거나, 이미지 검색을 수행한 후, 검색 결과의 랭킹을 상기 주변 정보를 이용하여 조정할 수 있다. 참고로, 상기 이미지 검색어가 복합 이미지인 경우, 검색서버(100)는, 이미지 데이터에 포함된 복수의 아이템 중 사용자가 원하는 검색 대상 아이템을 선택한다. 상기 아이템의 선택은, 사용자 컨텍스트와 카테고리의 상관관계에 의한 예측을 통해서 이루어질 수 있다. When the search server 100 receives the image search request, the search server 100 searches for the image search word. At this time, the search server 100 extracts surrounding information related to the search object from the background image and / or metadata of the image search word. The image search is performed in consideration of the surrounding information. For example, after defining a search range (eg, category, time, region) using surrounding information, and performing an image search, or after performing an image search, ranking of search results using the surrounding information I can adjust it. For reference, when the image search word is a composite image, the search server 100 selects a search target item desired by a user from among a plurality of items included in the image data. The selection of the item may be made through prediction based on a correlation between a user context and a category.

그리고 검색서버(100)는 검색 대상 아이템을 기준으로 검색이 요청된 이미지와 동일 혹은 유사한 이미지를 검색하고, 그 이미지 검색 결과 도출된 동일 혹은 유사한 이미지를 사용자장치(200)에 제공한다. The search server 100 searches for the same or similar image as the image requested for the search based on the search target item, and provides the user device 200 with the same or similar image derived as a result of the image search.

여기서, 검색서버(100)는 네트워크 상에 존재하는 하나의 엔티티(Entity)로, 웹 서버(web server), 데이터베이스 서버(database server) 및 애플리케이션 서버(application server)의 역할을 수행한다. 바람직한 일 실시예에 따르면, 검색서버(100)는 쇼핑 몰 웹 사이트를 제공하는 웹 서버와, 이러한 웹 사이트에서 판매되는 아이템의 이미지를 저장하는 데이터베이스 서버 및 이미지 검색어와 동일 또는 유사한 이미지를 검색하여 제공하는 애플리케이션 서버의 역할을 수행할 수 있다. 이하의 실시 예에서 검색서버(100)는 다양한 제품을 판매하는 인터넷 쇼핑 몰 서비스를 제공하는 서버라고 가정한다. 이에 따라, 검색서버(100)는 데이터베이스에 저장된 복수의 이미지 중에서 이미지 검색어와 유사한 이미지를 검색할 수 있다. 인터넷 쇼핑 몰에서 판매하는 이러한 이미지는 상품 이미지가 될 수 있다. 한편, 다른 실시예에 따르면, 검색서버(100)는 네트워크를 통해 다른 서버, 즉, 웹 서버에 접속하여 복수의 웹 페이지로부터 이미지를 검색할 수 있다. Here, the search server 100 is an entity existing on the network, and serves as a web server, a database server, and an application server. According to a preferred embodiment, the search server 100 searches for and provides an image identical or similar to a web server providing a shopping mall web site, a database server storing an image of an item sold on the web site, and an image search word. It can act as an application server. In the following embodiment, it is assumed that the search server 100 is a server that provides an Internet shopping mall service that sells various products. Accordingly, the search server 100 may search for an image similar to an image search word among a plurality of images stored in a database. Such an image sold in an internet shopping mall may be an image of a product. Meanwhile, according to another exemplary embodiment, the search server 100 may search for images from a plurality of web pages by accessing another server, that is, a web server, through a network.

또한, 사용자장치(200)는 이동통신단말기를 대표적인 예로서 설명하지만 단말기는 이동통신단말기에 한정된 것이 아니고, 모든 정보통신기기, 멀티미디어 단말기, 유선 단말기, 고정형 단말기 및 IP(Internet Protocol) 단말기 등의 다양한 단말기에 적용될 수 있다. 일례로, 단말기는 휴대폰, PMP(Portable MultimediaPlayer), MID(Mobile Internet Device), 스마트폰(Smart Phone), 태블릿 PC, 패블릿 PC 및 정보통신 기기 등과 같은 다양한 이동통신 사양을 갖는 모바일(Mobile) 단말기일 때 유리하게 활용될 수 있다. 다른 예로, 단말기는 노트북, 퍼스널컴퓨터 등이 될 수도 있다. In addition, the user device 200 will be described as a representative example of a mobile communication terminal, but the terminal is not limited to the mobile communication terminal, but a variety of information communication devices, multimedia terminals, wired terminals, fixed terminals and IP (Internet Protocol) terminals, etc. Applicable to the terminal. For example, the terminal may be a mobile terminal having various mobile communication specifications such as a mobile phone, a portable multimedia player (PMP), a mobile internet device (MID), a smart phone, a tablet PC, a tablet PC, and an information communication device. Can be advantageously used. As another example, the terminal may be a notebook, a personal computer, or the like.

그러면, 보다 상세히 본 발명의 실시예에 따른 검색서버(100) 및 사용자장치(200)의 구성에 대해서 살펴보기로 한다. 먼저, 본 발명의 실시예에 따른 검색서버(100)의 구성에 대해서 설명하기로 한다. Then, the configuration of the search server 100 and the user device 200 according to an embodiment of the present invention will be described in detail. First, the configuration of the search server 100 according to an embodiment of the present invention will be described.

도 2는 본 발명의 실시예에 따른 검색서버의 구성을 설명하기 위한 블록도이다. 도 2를 참조하면, 검색서버(100)는 통신모듈(110), 저장모듈(120) 및 제어모듈(130)을 포함한다. 2 is a block diagram illustrating a configuration of a search server according to an embodiment of the present invention. Referring to FIG. 2, the search server 100 includes a communication module 110, a storage module 120, and a control module 130.

통신모듈(110)은 사용자장치(200)와의 통신을 위한 것이다. 통신모듈(110)은 네트워크(NW)에 접속하고, 사용자장치(200)가 상기 네트워크(NW)를 통해서 검색서버(100)에 접속하면 사용자장치(200)와 필요한 정보를 포함하는 데이터를 교환하기 위한 통신을 수행한다. 통신모듈(110)은 제어모듈(130)로부터 사용자장치(200)로 전송하기 위한 데이터, 예컨대, 복수의 이미지를 포함하는 검색 결과를 전달받으면, 전달받은 데이터를 패킷으로 구성하여 전송한다. 또한, 통신모듈(110)은 사용자장치(200)로부터 수신되는 패킷으로부터 데이터, 즉, 이미지 검색어를 추출하여 제어모듈(130)로 전달한다. The communication module 110 is for communication with the user device 200. The communication module 110 connects to the network NW, and when the user device 200 connects to the search server 100 through the network NW, exchanging data including necessary information with the user device 200. Perform communication for When the communication module 110 receives data for transmission from the control module 130 to the user device 200, for example, a search result including a plurality of images, the communication module 110 configures and transmits the received data into a packet. In addition, the communication module 110 extracts the data, that is, the image search word from the packet received from the user device 200 and transmits it to the control module 130.

저장모듈(120)은 검색서버(100)의 동작에 필요한 프로그램 및 데이터를 저장하는 역할을 수행하며, 프로그램 영역과 데이터 영역으로 구분될 수 있다. 프로그램 영역은 검색서버(100)의 전반적인 동작을 제어하는 프로그램 및 검색서버(100)를 부팅시키는 운영체제(OS, Operating System), 이미지 검색을 위한 애플리케이션을 등을 저장할 수 있다. 데이터 영역은 검색서버(100)의 운영에 따라 발생하는 데이터 및 검색서버(100)의 운영에 필요한 데이터가 저장되는 영역이다. 예컨대, 저장모듈(120)은 복수의 아이템에 대한 이미지를 저장할 수 있다. 저장모듈(120)에 저장되는 각 종 데이터는 사용자의 조작에 따라, 삭제, 변경, 추가될 수 있다. The storage module 120 stores a program and data necessary for the operation of the search server 100 and may be divided into a program area and a data area. The program area may store a program for controlling the overall operation of the search server 100, an operating system (OS) for booting the search server 100, an application for image search, and the like. The data area is an area in which data generated according to the operation of the search server 100 and data necessary for the operation of the search server 100 are stored. For example, the storage module 120 may store images for a plurality of items. Various data stored in the storage module 120 may be deleted, changed, or added according to a user's manipulation.

제어모듈(130)은 검색서버(100)의 전반적인 동작 및 검색서버(100)의 내부 블록들 간 신호 흐름을 제어하고, 데이터를 처리하는 데이터 처리 기능을 수행할 수 있다. 이러한 제어모듈(130)은 마이크로프로세서 또는 중앙 처리 장치(Central Processing Unit: CPU)인 것이 바람직하다. 제어모듈(130)은 그 주변정보처리모듈(131), 이미지처리모듈(133) 및 이미지검색모듈(135)을 포함한다. The control module 130 may control a general operation of the search server 100 and a signal flow between internal blocks of the search server 100 and may perform a data processing function for processing data. The control module 130 is preferably a microprocessor or a central processing unit (CPU). The control module 130 includes a peripheral information processing module 131, an image processing module 133, and an image retrieval module 135.

주변정보처리모듈(131)은 입력된 이미지 검색어와 관련된 주변정보를 추출한다. 구체적으로, 주변정보처리모듈(131)은 이미지 검색어로부터 검색 대상 아이템과 그 나머지 영역인 배경 이미지를 분리하고, 배경 이미지를 분석하여 검색 대상 아이템과 관련된 시간적 또는 공간적 또는 기타 정보(예를 들어, 인물정보)를 추출할 수 있다. 또한, 주변정보처리모듈(131)은 이미지 검색어의 메타데이터를 분석하여, 이미지 검색어와 관련된 시간적, 공간적 및 기타 정보(인물정보)를 추출할 수 있다. The peripheral information processing module 131 extracts peripheral information related to the input image search word. Specifically, the peripheral information processing module 131 separates the search target item and the background image which is the remaining area from the image search word, analyzes the background image, and analyzes the temporal or spatial or other information related to the search target item (for example, a person). Information) can be extracted. In addition, the peripheral information processing module 131 may analyze the metadata of the image search word and extract temporal, spatial and other information (personal information) related to the image search word.

더하여, 상기 주변정보처리모듈(131)은, 배경 이미지와 메타 데이터 중 어느 하나를 기준으로 주변 정보를 추출한 후, 상기 추출한 주변 정보를 상기 배경 이미지와 메타 데이터 중 다른 하나를 기준으로 수정 또는 보완할 수 있다.In addition, the surrounding information processing module 131 extracts the surrounding information based on one of the background image and the metadata, and then corrects or supplements the extracted surrounding information based on the other of the background image and the metadata. Can be.

따라서, 본 발명에 있어서 주변 정보는, 검색 대상 아이템과 관련된 정보로서, 더 구체적으로는, 상기 검색 대상 아이템의, 생산, 판매, 이용 중 하나 이상과 관련된, 시간적 정보, 공간적 정보 및 인물 정보 중 하나 이상을 포함할 수 이다.Accordingly, in the present invention, the surrounding information is information related to a search target item, and more specifically, one of temporal information, spatial information, and person information related to one or more of production, sale, and use of the search target item. It can contain more.

도 4를 참조하면, 배경 이미지는, 이미지 검색어로 지정된 이미지 데이터 중에서 검색 대상 아이템을 제외한 나머지 이미지를 의미하는 것으로서, 이러한 배경을 통해서, 시간적, 공간적 정보를 추출할 수 있다. 예를 들어, 배경을 통해서 이미지가 촬영된 공간이 실내인지 실외인지 혹은 실외 중 공원인지 거리인지 등과 같은 개략적인 공간적 정보를 추출할 수 있으며, 실외인 경우, 정확한 시간은 모르더라도 낮인지 밤인지 정도의 개략적인 시간적 정보를 추출할 수 있다. 또한, 검색 대상 아이템이 의류 혹은 가방과 같은 상품인 경우, 해당 의류 혹은 가방을 착용하고 있는 사람이 여자인지 남자 인지 혹은 그 대략적인 연령대 등과 같은 인물 정보를 추출할 수 있다. 이러한 정보는 딥러닝과 같은 머신러닝을 통해 학습 알고리즘을 통해서 추출될 수 있다.Referring to FIG. 4, the background image refers to an image other than a search target item among image data designated as an image search word. Through this background, temporal and spatial information may be extracted. For example, through the background, it is possible to extract rough spatial information such as whether the space where the image is captured is indoor, outdoor, outdoor, park, or street.In the case of outdoor, it is day or night without knowing the exact time. The schematic temporal information of can be extracted. In addition, when the item to be searched is a product such as clothing or a bag, it is possible to extract person information such as whether the person who wears the clothing or bag is a woman or a man or an approximate age group. Such information may be extracted through a learning algorithm through machine learning such as deep learning.

또한, 메타데이터는 데이터와 관련된 정보를 기록하는 데이터로서, 이미지의 경우, 이미지의 촬영 일자, 촬영 위치, 촬영 조건, 촬영자 등의 정보를 포함할 수 있다. 따라서, 본 발명의 경우, 메타데이터의 분석을 통해서, 도 4에 도시된 바와 같이, 정확한 촬영 시간 및 위치 정보를 추출할 수 있으며, 또한 이미지 검색어가 된 이미지의 타입 정보, 혹은 촬영한 사용자 정보 등을 추출할 수 있다.In addition, the metadata is data for recording information related to the data, and in the case of an image, may include information such as a photographing date, a photographing position, a photographing condition, a photographer, and the like. Accordingly, in the case of the present invention, as shown in FIG. 4, through the analysis of the metadata, accurate capturing time and location information can be extracted, and also the type information of the image which is an image search word, photographed user information, etc. Can be extracted.

주변정보처리모듈(131)에 의해서 추출된 주변정보는 도 4에 도시된 바와 같이, 이미지 검색어 별로 구분되어 저장된다.The peripheral information extracted by the peripheral information processing module 131 is divided and stored for each image search word, as shown in FIG. 4.

이미지처리모듈(133)은 이미지 검색어로부터 이미지 검색 대상이 되는 아이템을 특정한다. 예를 들어, 이미지처리모듈(133)은 온라인 쇼핑몰에 판매되는 카테고리의 상품을 검색 대상 아이템으로 한정하여, 이미지 검색어에 포함된 다양한 객체 중 온라인 쇼핑몰에서 판매되는 상품을 검색 대상 아이템으로 추출할 수 있다. 또한, 이미지처리모듈(133)은 상기 이미지 검색어가 복합 이미지인 경우, 이미지처리모듈(133)은 복합 이미지로부터 복수의 아이템을 추출하고, 이중에서 하나를 사용자로부터 선택받거나, 사용자의 구매이력, 검색 결과에 대한 사용자 선택과 같은 사용자 컨텍스트에 기반하여 복수의 아이템 중 하나를 검색 대상 아이템으로 선택할 수 있다.The image processing module 133 specifies an item to be an image search target from the image search word. For example, the image processing module 133 may limit a product of a category sold in an online shopping mall to a search target item, and extract a product sold in an online shopping mall from among various objects included in the image search term as a search target item. . In addition, when the image search term is a composite image, the image processing module 133 extracts a plurality of items from the composite image, and one of them is selected from the user, or the user's purchase history or search is performed. One of a plurality of items may be selected as a search target item based on a user context such as user selection of a result.

이미지검색모듈(135)은 이미지처리모듈(133)이 선택한 검색 대상 아이템을 기준으로 이미지 검색을 수행한다. 이러한 주변정보처리모듈(131), 이미지처리모듈(133) 및 이미지검색모듈(135)을 포함하는 제어모듈(130)의 동작은 아래에서 더 상세하게 설명될 것이다. The image search module 135 performs an image search based on the search target item selected by the image processing module 133. The operation of the control module 130 including the peripheral information processing module 131, the image processing module 133, and the image retrieval module 135 will be described in more detail below.

다음으로, 본 발명의 실시예에 따른 사용자장치(200)에 대해서 설명하기로 한다. 도 3은 본 발명의 실시예에 따른 사용자장치의 구성을 설명하기 위한 블록도이다. 도 3을 참조하면, 본 발명의 실시예에 따른 사용자장치(200)는 통신부(210), 입력부(220), 표시부(230), 저장부(240) 및 제어부(250)를 포함한다. Next, the user device 200 according to an embodiment of the present invention will be described. 3 is a block diagram illustrating a configuration of a user device according to an exemplary embodiment of the present invention. Referring to FIG. 3, a user device 200 according to an embodiment of the present invention includes a communication unit 210, an input unit 220, a display unit 230, a storage unit 240, and a control unit 250.

통신부(210)는 검색서버(100)를 비롯한 다른 장치와 통신을 위한 것으로, 다양한 통신 연결 방식을 통해 통신을 수행한다. 이러한 통신부(210)는 다양한 통신 연결 방식의 통신 기능 중 어느 하나를 선택하여 통신할 수 있다. 이러한 통신부(210)는 하나의 모듈 혹은 복수의 모듈로 구현될 수도 있다. 예컨대, 통신부(210)는 WCDMA, LTE, LTE-A 등의 표준에 따라 기지국을 통해 네트워크에 접속하는 광대역이동통신 방식, Wi-Fi(wireless fidelity)를 이용하는 WLAN(Wireless Local Area Network) 방식에 따라 접속포인트(AP: Access Point)를 통해 네트워크에 접속하여 통신을 수행하는 무선근거리통신 방식 등을 이용할 수 있다. 통신부(210)는 송신되는 신호의 주파수를 상승 변환 및 증폭하는 RF송신기와, 수신되는 신호를 저 잡음 증폭하고 주파수를 하강 변환하는 RF수신기 등으로 구성될 수 있다. 제어부(250)로부터 전달 받은 데이터, 예컨대, 이미지 검색어를 무선 신호로 변환하여 무선 채널을 통해 전송할 수 있다. 또한, 통신부(210)는 무선 채널을 통해 데이터, 예컨대, 이미지 검색 결과를 포함하는 무선 신호를 수신하여 제어부(250)로 전달할 수 있다. The communication unit 210 is for communication with other devices including the search server 100 and performs communication through various communication connection methods. The communication unit 210 may communicate by selecting any one of various communication connection type communication functions. The communication unit 210 may be implemented by one module or a plurality of modules. For example, the communication unit 210 according to the WCDMA, LTE, LTE-A, etc. according to the broadband mobile communication method to access the network through the base station, according to the Wireless Local Area Network (WLAN) method using Wi-Fi (wireless fidelity) A wireless near field communication method for accessing a network through an access point (AP) and performing communication may be used. The communication unit 210 may include an RF transmitter for up-converting and amplifying a frequency of a transmitted signal, and an RF receiver for low noise amplifying and down-converting a received signal. Data received from the controller 250, for example, an image search word may be converted into a wireless signal and transmitted through a wireless channel. In addition, the communication unit 210 may receive a wireless signal including data, for example, an image search result, through the wireless channel and transmit the received data to the control unit 250.

입력부(220)는 사용자장치(200)를 제어하기 위한 사용자의 키 조작을 입력 받고 입력 신호를 생성하여 제어부(250)로 전달한다. 입력부(220)는 전원 on/off를 위한 전원 키, 숫자 키, 방향키 중 어느 하나를 포함할 수 있으며, 사용자장치(200)의 일면에 소정의 기능키로 형성될 수 있다. 표시부(230)가 터치스크린으로 이루어진 경우, 입력부(220)의 각 종 키들의 기능이 표시부(230)에서 이루어질 수 있으며, 터치스크린만으로 모든 기능을 수행할 수 있는 경우, 입력부(220)는 생략될 수도 있다. The input unit 220 receives a key operation of the user for controlling the user device 200, generates an input signal, and transmits the generated input signal to the controller 250. The input unit 220 may include any one of a power key, a numeric key, and a direction key for power on / off, and may be formed as a predetermined function key on one surface of the user device 200. When the display unit 230 is formed of a touch screen, functions of various keys of the input unit 220 may be performed in the display unit 230. When the display unit 230 may perform all functions using only the touch screen, the input unit 220 may be omitted. It may be.

표시부(230)는 사용자장치(200)의 메뉴, 입력된 데이터, 기능 설정 정보 및 기타 다양한 정보를 사용자에게 시각적으로 제공한다. 표시부(230)는 사용자장치(200)의 부팅 화면, 대기 화면, 메뉴 화면 등의 각종 화면을 출력하는 기능을 수행한다. 이러한 표시부(230)는 액정표시장치(LCD, Liquid Crystal Display), 유기 발광 다이오드(OLED, Organic Light Emitting Diodes), 능동형 유기 발광 다이오드(AMOLED, Active Matrix Organic Light Emitting Diodes) 등으로 형성될 수 있다. 한편, 표시부(230)는 터치스크린으로 구현될 수 있다. 이러한 경우, 표시부(230)는 터치센서를 포함하며, 제어부(250)는 터치센서를 통해 사용자의 터치 입력을 감지할 수 있다. 터치센서는 정전용량 방식(capacitive overlay), 압력식, 저항막 방식(resistive overlay), 적외선 감지 방식(infrared beam) 등의 터치 감지 센서로 구성되거나, 압력 감지 센서(pressure sensor)로 구성될 수도 있다. 상기 센서들 이외에도 물체의 접촉 또는 압력을 감지할 수 있는 모든 종류의 센서 기기가 본 발명의 터치센서로 이용될 수 있다. 터치센서는 사용자의 터치 입력을 감지하고, 감지 신호를 발생시켜 제어부(250)로 전송한다. 이러한 감지 신호에는 사용자가 터치를 입력한 좌표 데이터가 포함될 수 있다. 사용자가 터치 위치 이동 동작을 입력한 경우에 터치센서는 터치 위치 이동 경로의 좌표 데이터를 포함한 감지 신호를 발생시켜 제어부(250)로 전송할 수 있다. The display unit 230 visually provides a menu, input data, function setting information, and various other information of the user device 200 to the user. The display unit 230 outputs various screens such as a boot screen, a standby screen, and a menu screen of the user device 200. The display unit 230 may be formed of a liquid crystal display (LCD), organic light emitting diodes (OLEDs), active matrix organic light emitting diodes (AMOLEDs), and the like. Meanwhile, the display unit 230 may be implemented as a touch screen. In this case, the display unit 230 may include a touch sensor, and the controller 250 may detect a user's touch input through the touch sensor. The touch sensor may be configured as a touch sensor such as capacitive overlay, pressure, resistive overlay, infrared beam, or a pressure sensor. . In addition to the above sensors, all kinds of sensor devices capable of detecting contact or pressure of an object may be used as the touch sensor of the present invention. The touch sensor detects a user's touch input, generates a detection signal, and transmits the detected signal to the controller 250. The sensing signal may include coordinate data input by the user. When the user inputs the touch position movement operation, the touch sensor may generate a detection signal including coordinate data of the touch position movement path and transmit the detected signal to the controller 250.

저장부(240)는 사용자장치(200)의 동작에 필요한 프로그램 및 데이터를 저장하는 역할을 수행하며, 프로그램 영역과 데이터 영역으로 구분될 수 있다. 프로그램 영역은 사용자장치(200)의 전반적인 동작을 제어하는 프로그램 및 사용자장치(200)를 부팅시키는 운영체제(OS, Operating System), 응용 프로그램 등을 저장할 수 있다. 데이터 영역은 사용자장치(200)의 사용에 따라 발생하는 데이터가 저장되는 영역이다. 또한, 저장부(240)는 사용자장치(200)의 동작에 따라 발생되는 각 종 데이터 등을 저장할 수 있다. 제어부(250)는 사용자장치(200)의 전반적인 동작 및 사용자장치(200)의 내부 블록들 간 신호 흐름을 제어하고, 데이터를 처리하는 데이터 처리 기능을 수행할 수 있다. 이러한 제어부(250)는 중앙 처리 장치(Central Processing Unit: CPU), 애플리케이션 프로세서(Application Processor), 그래픽 프로세서(GPU: graphic processing unit) 등이 될 수 있다. 제어부(250)는 이미지 검색어, 예컨대, 이미지 데이터가 입력되면, 입력된 이미지 데이터를 통신부(210)를 통해 검색서버(100)로 전송하며, 검색서버(100)로부터 검색 결과가 수신되면, 수신된 검색 결과를 표시부(130)를 통해 표시할 수 있다. The storage unit 240 stores a program and data necessary for the operation of the user device 200, and may be divided into a program area and a data area. The program area may store a program for controlling the overall operation of the user device 200, an operating system (OS) for booting the user device 200, an application program, and the like. The data area is an area in which data generated according to the use of the user device 200 is stored. In addition, the storage unit 240 may store various data generated according to the operation of the user device 200. The controller 250 may control an overall operation of the user device 200 and a signal flow between internal blocks of the user device 200, and may perform a data processing function of processing data. The controller 250 may be a central processing unit (CPU), an application processor, a graphic processor (GPU), or the like. When the image search word, for example, image data is input, the controller 250 transmits the input image data to the search server 100 through the communication unit 210, and when the search result is received from the search server 100, The search result may be displayed through the display unit 130.

다음으로, 본 발명의 실시예에 따른 이미지 검색을 위한 방법에 대해서 설명하기로 한다. Next, a method for image retrieval according to an embodiment of the present invention will be described.

도 5는 본 발명의 제1 실시 예에 따른 이미지 검색 과정을 나타낸 흐름도이다.5 is a flowchart illustrating an image search process according to a first embodiment of the present invention.

도 5를 참조하면, 사용자장치(200)의 제어부(250)는 통신부(210)를 통해 이미지 데이터를 포함하는 이미지 검색어를 검색서버(100)로 전송하여 이미지 검색을 요청할 수 있다.Referring to FIG. 5, the controller 250 of the user device 200 may request an image search by transmitting an image search word including image data to the search server 100 through the communication unit 210.

이와 같이, 검색서버(100)의 제어모듈(130)은 통신모듈(110)을 통해 임의의 사용자장치(200)로부터 이미지검색요청을 수신하면(S110), 이미지 검색이 요청된 이미지 검색어의 이미지 데이터를 분석하여, 검색 대상 아이템을 추출하고, 검색 대상 아이템과 관련된 주변 정보를 추출한다(S120).As such, when the control module 130 of the search server 100 receives an image search request from an arbitrary user device 200 through the communication module 110 (S110), the image data of the image search request for the image search is requested. In operation S120, the search target item is extracted, and peripheral information related to the search target item is extracted.

상기 검색 대상 아이템은 이미지에 포함된 복수의 객체 중 검색 가능한 객체로 추출될 수 있다. 예를 들어, 이미지에 포함된 복수의 객체 중 지정된 온라인 쇼핑몰에서 판매하고 있는 상품 카테고리에 해당하는 객체를 검색 대상 아이템으로 추출할 수 있다. 이때, 상기 이미지 검색어에 해당하는 이미지가 복수의 아이템을 포함하는 복합이미지인 경우, 상기 검색서버(100)는 복수의 아이템 중 하나를 검색 대상 아이템으로 선택할 수 있다. 상기 선택은 사용자 입력에 따라서 이루어질 수 도 있고, 사용자 컨텍스트에 따라 사용자가 검색을 의도하는 카테고리를 예측하고, 상기 예측된 카테고리에 기반하여 이루어질 수 도 있다.The search target item may be extracted as a searchable object among a plurality of objects included in the image. For example, an object corresponding to a product category sold in a designated online shopping mall among a plurality of objects included in an image may be extracted as a search target item. In this case, when the image corresponding to the image search word is a composite image including a plurality of items, the search server 100 may select one of the plurality of items as a search target item. The selection may be made according to a user input, or may be predicted based on a user context, and may be made based on the predicted category.

상기에서, 사용자 컨텍스트에 기반한 카테고리 예측을 통한 검색 아이템 선택 과정을 보다 구체적으로 설명하면 다음과 같다.In the above description, the search item selection process through category prediction based on the user context will be described in more detail.

검색 서버(100)를 상품을 판매하는 온라인 쇼핑몰 서버라고 가정할 때, 사용자장치(200)는 검색서버(100)에 접속하여 아이템을 구매하거나, 관심있는 아이템을 장바구니에 담거나(임시저장), 구매하고자 하는 아이템을 검색할 수 있다. 검색서버(100)는 사용자장치(200)의 이러한 동작이 있을 때마다, 구매, 임시저장 및 검색한 시간, 횟수 및 그 아이템이 속한 카테고리를 사용자장치(200)의 식별자 혹은 사용자 식별자(예컨대, ID)에 매핑하여 저장할 수 있다. 이러한 경우, 복수의 사용자 컨텍스트는 카테고리 별 아이템의 구매 횟수, 카테고리 별 아이템을 장바구니에 담은 횟수, 카테고리 별 아이템의 검색 횟수 등을 예시할 수 있다. 이러한 사용자 컨텍스트는, 웹 브라우저에서 생성되는 쿠키를 이용하여 수집될 수 있다.Assuming that the search server 100 is an online shopping mall server that sells products, the user device 200 accesses the search server 100 to purchase an item, stores an item of interest in a shopping cart (temporarily stores), You can search for the item you want to purchase. Whenever there is such an operation of the user device 200, the search server 100 identifies the time, the number of times of the purchase, temporary storage, and search, and the category to which the item belongs to the identifier or user identifier (eg, ID) of the user device 200. Can be mapped and stored. In this case, the plurality of user contexts may exemplify the number of purchases of the items by category, the number of times the items are included in the shopping cart, the number of times the items are searched by category, and the like. Such user context may be collected using cookies generated in a web browser.

검색 서버(100)는 상술한 바와 같이, 사용자 컨텍스트를 추출한 후, 검색된 이미지의 카테고리 및 추출된 사용자 컨텍스트를 1세트의 훈련 데이터로 하여 저장모듈(120)에 누적하여 저장하고, 사용자가 관심을 가졌던 아이템의 카테고리와 검색 수행 시점(Tin)에 사용자가 의도한 아이템의 카테고리의 관계에 대해서 분석하고, 상기 상관관계를 기반으로 검색 대상 아이템을 선택할 수 있다.As described above, the search server 100 extracts the user context, accumulates and stores the category of the searched image and the extracted user context as one set of training data in the storage module 120 and stores the user's interest. The relationship between the category of the item and the category of the item intended by the user at the search execution time Tin may be analyzed, and a search target item may be selected based on the correlation.

또한, 검색서버(100)는 이미지 검색 요청에 대응하는 검색된 복수의 이미지를 포함하는 검색 결과를 사용자장치(200)로 제공하며, 검색 결과를 수신한 사용자장치(200)의 제어부(250)는 표시부(230)를 통해 검색 결과인 복수의 이미지를 표시한다. 이때, 사용자는 복수의 이미지 중 사용자가 원하는 이미지를 선택할 수 있으며, 사용자가 선택한 이미지는 사용자가 선호하는 혹은 원하는 이미지일 가능성이 높다. 이에 따라, 어느 하나의 이미지가 선택되면, 제어부(250)는 입력부(220) 또는 표시부(230)를 통해 이를 감지하고, 통신부(210)를 통해 사용자가 선택한 이미지에 대한 정보를 검색서버(100)로 전달할 수 있다. 그리고, 검색서버(100)의 이미지처리모듈(133)는 검색 결과에 포함된 복수의 이미지 중 사용자가 선택한 이미지를 카테고리별로 분류하고, 누적하여 저장하고, 카테고리별로 검색된 이미지를 디자인 분류에 따라 그룹화하여 복수의 그룹을 생성한 후, 각 그룹의 원소의 수에 따라 사용자의 디자인의 선호도를 결정할 수 있으며, 이러한 선호도를 기반으로 이미지 검색어에 포함된 복수의 아이템 중 선호도가 높은 아이템을 검색 대상 아이템으로 선택할 수 있다.In addition, the search server 100 provides a search result including a plurality of searched images corresponding to the image search request to the user device 200, and the control unit 250 of the user device 200 receiving the search result is a display unit. A plurality of images that are search results are displayed at 230. In this case, the user may select an image desired by the user from among a plurality of images, and the image selected by the user is likely to be a user's preferred or desired image. Accordingly, when any one image is selected, the controller 250 detects the image through the input unit 220 or the display unit 230, and retrieves information about the image selected by the user through the communication unit 210. Can be delivered to. In addition, the image processing module 133 of the search server 100 classifies, accumulates and stores the images selected by the user among the plurality of images included in the search result, and groups the images searched by category according to the design classification. After creating a plurality of groups, a user's design preference can be determined according to the number of elements in each group. Based on these preferences, a user can select a high-preferred item among a plurality of items included in an image search term as a search target item. Can be.

검색서버(200)는 상술한 다양한 방법을 통해서, 이미지 검색어로부터 검색 대상 아이템을 추출하면, 상기 검색 대상 아이템과 관련된 주변 정보를 추출한다(S120).When the search server 200 extracts a search target item from an image search word through the above-described various methods, the search server 200 extracts surrounding information related to the search target item (S120).

상기 주변 정보의 추출은, 상기 이미지 검색어 중에서 상기 검색 대상 아이템 이외의 이미지인 배경 이미지 및/또는 이미지 데이터에 포함되어 있는 메타데이터를 분석함에 의해 이루어질 수 있다.The extraction of the surrounding information may be performed by analyzing metadata included in the background image and / or image data which are images other than the search target item among the image search words.

구체적으로, 검색서버(200)의 주변정보처리모듈(131)은 입력된 이미지 검색어를 검색 대상 아이템과 그 나머지인 배경 이미지로 분리하고, 상기 배경 이미지를 분석하여 검색 대상 아이템과 관련된 시간적 또는 공간적 또는 인물 정보를 추출한다. In detail, the peripheral information processing module 131 of the search server 200 separates the input image search term into a search target item and the rest of the background image, analyzes the background image, and analyzes the background image in time or space or in relation to the search target item. Extract person information.

여기서, 배경 이미지는, 이미지 검색어로 지정된 이미지 중에서 검색 대상 아이템을 제외한 나머지 영역을 의미하는 것으로서, 이러한 배경을 통해서, 시간적, 공간적 정보를 추출할 수 있다. Here, the background image refers to a region other than a search target item among images designated as an image search word, and through this background, temporal and spatial information may be extracted.

예를 들어, 도 7과 같은 이미지가 이미지 검색어로 입력되고, 검색 가능한 아이템으로, 모자, 상의, 하의, 가방이 포함된 경우, 검색 서버(100)는 사용자 컨텍스트에 따라서 상기 모자, 상의, 하의, 가방 중 사용자가 관심 있을 가능성이 높은 대상을 검색 대상 아이템으로 선정할 수 있다. 예를 들어, 상기 모자, 상의, 하의, 가방 중 가방이 검색 대상 아이템으로 선정된 경우, 그 나머지 아이템 및 배경은 배경 이미지로 분리된다. 즉, 검색 서버(100)는, 가방이 검색 대상 아이템으로 선정된 경우, 가방을 들고 있는 사람, 그 사람이 착용하고 있는 모자, 상의, 하의 및 그 뒷 배경을 배경 이미지로 분리하고, 이로부터 배경 정보를 추출한다. 구체적으로, 상기 가방을 들고 있는 사람의 이미지로부터 성별, 연령대를 추출할 수 있으며, 또한, 해당 사람이 착용하고는 복장, 상의 및 하의의 노출 정도에 따라서 여름에 대응하는 시간적 정보를 추출할 수 있다. 이러한 정보들은 검색 대상 아이템인 가방의 주변 정보로서 이용된다.For example, when an image as shown in FIG. 7 is inputted as an image search term and a searchable item includes a hat, a top, a bottom, and a bag, the search server 100 may search for the top, bottom, bottom, according to a user context. Among the bags, a target that is likely to be of interest to the user may be selected as a search target item. For example, when a bag among the hat, top, bottom, and bag is selected as a search target item, the remaining items and the background are separated into a background image. That is, when the bag is selected as the search target item, the search server 100 separates the person carrying the bag, the hat worn by the person, the top, the bottom, and the back background into the background image, and the background from the background image. Extract the information. Specifically, the gender and age group may be extracted from the image of the person carrying the bag, and the temporal information corresponding to the summer may be extracted according to the degree of exposure of the clothing, the top, and the bottom worn by the person. . Such information is used as the peripheral information of the bag which is the search target item.

이외에, 검색 서버(100)는, 배경 이미지의 분석을 통해서, 이미지가 촬영된 공간이 실내인지 실외인지와, 실외인 경우에 공원인지 거리인지 등과 같은 개략적인 공간적 정보를 추출할 수 있으며, 실외인 경우, 정확한 시간은 모르더라도 낮인지 밤인지 정도의 개략적인 시간적 정보를 추출할 수 있다. In addition, the search server 100 may extract schematic spatial information such as whether the space in which the image is captured is indoors or outdoors, in the case of a park or a street in the outdoors, through analysis of the background image. In this case, even if the exact time is not known, rough temporal information about day or night may be extracted.

예를 들어, 이미지 검색어의 이미지가 도 8과 같은 H1, H2, B1, B2로 지시되는 복수의 검색 가능한 아이템을 포함하는 복합 이미지이고, 사용자의 컨텍스트를 기반으로 B1으로 표시된 가방이 검색 대상 아이템으로 선택된 경우, 검색서버(100)는 상기 가방(B1) 이외의 이미지를 모두 배경 이미지로 분리할 수 있다. 그리고, 상기 배경 이미지로부터 실외의 거리에 촬영된 이미지 임을 추출할 수 있으며, 상기 가방을 착용한 인물 이미지로부터 젊은 여성이라는 정보를 추출할 수 있다.For example, an image of an image search word is a composite image including a plurality of searchable items indicated by H1, H2, B1, and B2 as shown in FIG. 8, and a bag indicated by B1 is a search target item based on a user's context. If selected, the search server 100 may separate all images other than the bag B1 into a background image. The image may be extracted from an outdoor distance from the background image, and information of a young woman may be extracted from the image of the person wearing the bag.

이러한 배경 이미지로부터의 주변 정보는 딥러닝과 같은 머신러닝을 통해 학습 알고리즘을 통해서 추출될 수 있다.The surrounding information from the background image may be extracted through a learning algorithm through machine learning such as deep learning.

또한, 검색 서버(100)의 주변정보처리모듈(131)은 이미지 검색어의 메타데이터를 분석하여, 이미지 검색어와 관련된 시간적, 공간적 및 기타 정보를 추출할 수 있다. 메타데이터는 데이터와 관련된 정보를 기록하는 데이터로서, 이미지의 경우, 이미지의 촬영 일자, 촬영 위치, 촬영 조건, 촬영자 등의 정보를 포함할 수 있다. 따라서, 검색서버(100)의 주변정보처리모듈(131)은, 메타데이터의 분석을 통해서, 검색 대상 이미지에 대한 정확한 촬영 시간 및 위치 정보를 추출할 수 있으며, 또한 이미지 검색어가 된 이미지의 타입 정보, 혹은 촬영한 사용자 정보 등을 추출할 수 있다.In addition, the peripheral information processing module 131 of the search server 100 may analyze metadata of the image search word to extract temporal, spatial and other information related to the image search word. The metadata is data for recording information related to data, and in the case of an image, may include information such as a photographing date, a photographing position, a photographing condition, a photographer, and the like. Accordingly, the peripheral information processing module 131 of the search server 100 may extract accurate photographing time and location information of the search target image through analysis of the metadata, and may also extract the type information of the image that has become an image search term. , Or photographed user information can be extracted.

아울러, 상기 검색 서버(100)는 상기 배경 이미지 및 메타 데이터를 함께 고려하여 주변 정보를 추출할 수 있다. 더 구체적으로는, 상기 검색서버(100)의 주변정보처리모듈(131)은, 상기 이미지 데이터의 메타 데이터를 참조하여 상기 주변 정보를 수정 또는 보완하거나, 상기 이미지 데이터의 메타 데이터를 분석하여 상기 주변 정보를 추출하고, 상기 이미지 데이터 중 상기 검색 대상 아이템을 제외한 나머지 이미지 영역을 배경 이미지를 분석하여, 상기 주변 정보를 수정 또는 보완할 수 있다. In addition, the search server 100 may extract the surrounding information in consideration of the background image and the metadata. More specifically, the peripheral information processing module 131 of the search server 100 corrects or supplements the peripheral information with reference to the metadata of the image data, or analyzes the metadata of the image data to analyze the peripheral information. The information may be extracted and the surrounding information may be corrected or supplemented by analyzing a background image of the remaining image area except for the search target item among the image data.

이상과 같이, 이미지 검색어의 처리를 통해, 검색 대상 아이템 및 그의 주변 정보가 추출되면, 검색서버(100)는, 상기 추출한 주변정보를 분석하여 사용자가 원하는 검색 범위를 특정한다(S130). 예를 들어, 도 7과 같은 이미지 검색어에서, 가방이 검색 대상 아이템으로 추출된 경우, 그 주변 정보의 분석을 통해서 여성용 여름 가방을 검색 범위로 특정할 수 있다. 또한, 인물 정보를 기반으로, 연령대를 특정하여 10대 여성용 여름 가방으로 검색 범위를 특정할 수 도 있다. As described above, when the search target item and its surrounding information are extracted through the processing of the image search word, the search server 100 analyzes the extracted surrounding information and specifies a search range desired by the user (S130). For example, in the image search word as shown in FIG. 7, when a bag is extracted as a search target item, the summer bag for women may be specified as a search range through analysis of the surrounding information. In addition, based on the person information, a search range may be specified as a summer bag for teenage women by specifying an age group.

아울러, 검색 서버(100)는 S130단계에서, 배경 이미지로부터 추출된 주변 정보와 메타 데이터로부터 추출된 주변 정보를 비교하여, 두 정보가 상이한 경우 이를 조정할 수 있다. 예를 들어, 배경 이미지로부터 추출된 주변 정보를 기준으로 하되, 메타 데이터로부터 추출된 정보를 이용하여 상기 배경 이미지로부터 추출한 주변 정보를 보완할 수 있다. 구체적으로, 배경 이미지를 분석한 결과, 시간적 정보를 추출할 수 없는 경우, 메타 데이터로부터 관련된 시간적 정보를 추출하여 보완할 수 있다. In addition, in operation S130, the search server 100 compares the surrounding information extracted from the background image with the surrounding information extracted from the meta data and adjusts the two information if they are different. For example, based on the surrounding information extracted from the background image, the information extracted from the metadata may be used to supplement the surrounding information extracted from the background image. In detail, as a result of analyzing the background image, when temporal information cannot be extracted, relevant temporal information may be extracted and supplemented from metadata.

예를 들어, 도 8과 같이 복합 이미지가 이미지 검색어이고, 검색 대상 아이템이 가방(B1)으로 지정된 경우, 검색서버(100)는, 가방(B1) 이외의 이미지 중 배경이미지로부터 '낮'이라는 시간적 정보와, '실외','거리'라는 공간적 정보를 추출할 수 있고, 가방(B1)을 착용한 인물의 분석을 통해서 '젊은 여성'이라는 인물 정보를 추출할 수 있다. 이때, '낮'이라는 시간적 정보보다 더 정확한 시간정보가 필요하거나, '거리'라는 공간적 정보 보다 더 정확한 위치 정보가 필요한 경우, 검색서버(100)는 이미지의 메타데이터를 분석하여, 메타데이터로부터 해당 이미지의 촬영 시간 및 위치 정보로부터 상기 시간적 및 공간적 정보를 보완할 수 있다. 즉, 메타데이터의 시간 정보를 참고하여 해당 이미지에 대응하는 계정이나 월, 혹은 년도를 추출하고, 메타데이터의 공간 정보를 참고하여 상기 거리가 어디에 위치한 거리인지를 보완할 수 있다. 도 8의 경우, '거리'라는 공간적 정보는, 메타데이터의 분석을 통해서 "뉴욕 거리" 혹은 "런던 거리"로 보완될 수 있다.For example, as shown in FIG. 8, when the composite image is an image search word and the search target item is designated as the bag B1, the search server 100 may display a time of 'day' from the background image among images other than the bag B1. Information, and spatial information such as 'outdoor' and 'street' can be extracted, and the character information of 'young woman' can be extracted through analysis of the person wearing the bag B1. In this case, when more accurate time information is required than temporal information called 'day' or more accurate position information is needed than spatial information called 'distance', the search server 100 analyzes the metadata of the image, and corresponds to the metadata from the metadata. The temporal and spatial information can be supplemented from the photographing time and position information of the image. That is, the account, month, or year corresponding to the image may be extracted by referring to the time information of the metadata, and the location where the distance is located may be supplemented by referring to the spatial information of the metadata. In the case of FIG. 8, the spatial information “distance” may be supplemented with “New York street” or “London street” through analysis of metadata.

이와 더불어, 검색서버(100)는 추출된 검색 대상 아이템을 기준으로 이미지 검색을 수행하여, 검색 대상 아이템과 유사한 이미지를 검색한다(S140). 상기 S140단계에서의 이미지 검색은 통상의 이미지 검색 기술을 통해 이루어질 수 있다. 예를 들어, 딥러닝과 같은 학습 알고리즘을 통해 이미지 검색어와 검색 DB내의 이미지들의 유사도를 산출하여, 일정 기준 이상의 유사도를 갖는 이미지를 추출하는 방식으로 이루어질 수 있다.In addition, the search server 100 searches for an image similar to the search target item by performing an image search based on the extracted search target item (S140). The image search in step S140 may be performed through a conventional image search technique. For example, the similarity between the image search word and the images in the search DB may be calculated through a learning algorithm such as deep learning to extract an image having a similarity or more than a predetermined criterion.

상기 S130단계와 S140단계는 거의 동시에 이루어질 수 있다.Steps S130 and S140 may be performed at about the same time.

그리고 상기 검색서버(100)는 검색 대상 아이템의 검색 결과를 상기 주변 정보의 분석을 통해 특정된 검색 범위를 기준으로 조정한다(S150). 구체적으로 검색서버(100)는 검색 결과에 포함된 복수의 이미지 중 상기 특정된 검색 범위에 해당하는 이미지가 더 먼저 노출되도록 상기 복수의 이미지의 순위를 조정할 수 있다.The search server 100 adjusts the search result of the search target item based on the search range specified through the analysis of the surrounding information (S150). In detail, the search server 100 may adjust the ranking of the plurality of images so that the image corresponding to the specified search range is exposed earlier among the plurality of images included in the search result.

그런 다음, 검색서버(100)의 제어모듈(130)은 통신모듈(110)을 통해 복수의 이미지를 포함하는 검색 결과를 사용자장치(100)로 전송한다(S260). Then, the control module 130 of the search server 100 transmits a search result including a plurality of images to the user device 100 through the communication module 110 (S260).

예를 들어, 도 7과 같은 이미지 검색어에서, 가방에 대한 이미지 검색 결과를 제공함에 있어서, 검색서버(100)는 검색 결과 중에서, 주변정보에 기반하여 여성용 여름 가방에 해당하는 이미지를 사용자에게 우선적으로 제공할 수 있다. For example, in providing an image search result for a bag in the image search query as shown in FIG. 7, the search server 100 preferentially provides an image corresponding to the summer bag for women based on the surrounding information to the user. Can provide.

또 다른 예로서, 도 8과 같은 이미지 검색어에서, 가방(B1)에 대한 이미지 검색 결과를 제공함에 있어서, 검색서버(100)는 '뉴욕에서 유행하는 가방' 혹은 '뉴욕 스타일의 가방'과 관련성이 높은 가방 이미지를 우선적으로 사용자에게 제공하거나, '특정 연대에 뉴욕에서 유행한 가방'에 관련된 이미지를 우선적으로 사용자에게 제공할 수 있다.As another example, in providing an image search result for the bag B1 in the image search word as shown in FIG. 8, the search server 100 is related to 'a bag popular in New York' or a 'New York style bag'. A high bag image may be provided to the user first, or an image related to 'bags popular in New York at a certain age' may be provided to the user first.

사용자장치(200)의 제어부(250)는 통신부(210)를 통해 검색 결과를 수신하면, 표시부(230)를 통해 검색결과에 포함된 복수의 이미지를 지정된 순서로 표시한다. 이에 따라, 사용자는 주변 정보에 기반하여 특정된 검색범위에 해당하는 이미지를 우선적으로 확인할 수 있으며, 이를 통해서 사용자가 원하는 검색 결과를 보다 확인하도록 할 수 있다.When the control unit 250 of the user device 200 receives a search result through the communication unit 210, the control unit 250 displays a plurality of images included in the search result in a specified order through the display unit 230. Accordingly, the user may preferentially check an image corresponding to a specific search range based on the surrounding information, and thus may make the search result desired by the user more.

다음으로, 도 6을 참조하여 본 발명의 제2 실시 예에 따른 이미지 검색 과정을 설명한다.Next, an image search process according to the second embodiment of the present invention will be described with reference to FIG. 6.

앞서 제1 실시 예에서 설명한 바와 같이, 사용자장치(200)의 제어부(250)가 통신부(210)를 통해 이미지 데이터를 포함하는 이미지 검색어를 검색서버(100)로 전송하여 이미지 검색을 요청하고, 검색서버(100)의 제어모듈(130)이 통신모듈(110)을 통해 상기 사용자장치(200)의 이미지검색요청을 수신한 경우(S210), 검색서버(100)는 이미지 검색이 요청된 이미지 검색어의 이미지 데이터를 분석하여, 검색 대상 아이템을 추출하고, 검색 대상 아이템과 관련된 주변 정보를 추출한다(S220).As described above in the first embodiment, the control unit 250 of the user device 200 requests an image search by transmitting an image search word including image data to the search server 100 through the communication unit 210, and searching. When the control module 130 of the server 100 receives the image search request of the user device 200 through the communication module 110 (S210), the search server 100 of the image search request for the image search is requested. The image data is analyzed, the search target item is extracted, and peripheral information related to the search target item is extracted (S220).

상기 검색 대상 아이템 및 주변 정보의 추출은 제1 실시 예에서와 동일한 방식으로 이루어질 수 있다.Extraction of the search target item and the surrounding information may be performed in the same manner as in the first embodiment.

이상과 같이, 이미지 검색어의 처리를 통해, 검색 대상 아이템 및 그의 주변 정보가 추출되면, 검색서버(100)는, 먼저, 상기 추출한 주변정보를 분석하여 사용자가 원하는 검색 범위를 특정한다(S230). As described above, when the search target item and its surrounding information are extracted through the processing of the image search word, the search server 100 first analyzes the extracted surrounding information to specify a search range desired by the user (S230).

예를 들어, 도 7과 같은 이미지 검색어에서, 가방이 검색 대상 아이템으로 추출된 경우, 그 주변 정보의 분석을 통해서 여성용 여름 가방을 검색 범위로 특정할 수 있다. 또한, 인물 정보를 기반으로, 연령대를 특정하여 10대 여성용 여름 가방으로 검색 범위를 특정할 수 도 있다. 상기 S130단계에서, 검색서버(100)는, 배경 이미지로부터 추출된 주변 정보와 메타 데이터로부터 추출된 주변 정보를 비교하여, 두 정보가 상이한 경우 이를 조정할 수 있다. 예를 들어, 배경 이미지로부터 추출된 주변 정보를 기준으로 하되, 메타 데이터로부터 추출된 정보를 이용하여 상기 배경 이미지로부터 추출한 주변 정보를 보완할 수 있다. 구체적으로, 배경 이미지를 분석한 결과, 시간적 정보를 추출할 수 없는 경우, 메타 데이터로부터 관련된 시간적 정보를 추출하여 보완할 수 있다. For example, in the image search word as shown in FIG. 7, when a bag is extracted as a search target item, the summer bag for women may be specified as a search range through analysis of the surrounding information. In addition, based on the person information, a search range may be specified as a summer bag for teenage women by specifying an age group. In operation S130, the search server 100 may compare the surrounding information extracted from the background image with the surrounding information extracted from the meta data and adjust the information when the two information are different. For example, based on the surrounding information extracted from the background image, the information extracted from the metadata may be used to supplement the surrounding information extracted from the background image. In detail, as a result of analyzing the background image, when temporal information cannot be extracted, relevant temporal information may be extracted and supplemented from metadata.

상기와 같이 주변 정보의 분석을 통해 검색 범위가 특정되면, 검색서버(100)는 특정된 검색 범위 내에서 상기 검색 대상 아이템을 기준으로 이미지 검색을 수행하여, 검색 대상 아이템과 유사한 이미지를 검색한다(S240). When the search range is specified through the analysis of the surrounding information as described above, the search server 100 searches for an image similar to the search target item by performing an image search based on the search target item within the specified search range ( S240).

상기 S240단계에서의 이미지 검색은 통상의 이미지 검색 기술을 통해 이루어질 수 있다. 예를 들어, 딥러닝과 같은 학습 알고리즘을 통해 이미지 검색어와 검색 DB내의 이미지들의 유사도를 산출하여, 일정 기준 이상의 유사도를 갖는 이미지를 추출하는 방식으로 이루어질 수 있다. 이때, 검색 범위는 상기 주변 정보의 분석 결과에 기반하여 제한되므로, 검색범위의 제한을 통해서 검색 결과를 보다 빠르게 도출할 수 있다. 여기서, 검색 범위는, 시간 속성, 공간 속성, 카테고리 속성 중 하나 이상을 기준으로 설정될 수 있다. 여기서, 시간 속성 및 공간 속성은, 해당 검색 대상 아이템의 생산과 관련된 시간 및 공간 정보가 될 수 도 있고, 해당 검색 대상 아이템의 이용과 관련된 시간 및 공간 정보가 될 수 도 있다. 또한, 상기 카테고리 속성은, 아이템의 용도 이외에, 아이템의 사용 대상자의 연령대, 성별, 및 디자인 속성 등 다양한 특성으로 세분화될 수 있다.The image search in step S240 may be performed through a conventional image search technique. For example, a similarity between the image search word and the images in the search DB may be calculated by using a learning algorithm such as deep learning, and the image may be extracted by having a similarity or more than a predetermined criterion. In this case, since the search range is limited based on the analysis result of the surrounding information, the search result can be derived more quickly through the limitation of the search range. Here, the search range may be set based on one or more of a temporal attribute, a spatial attribute, and a category attribute. Here, the temporal and spatial attributes may be time and space information related to the production of the search target item, or may be time and space information related to the use of the search target item. In addition, the category attribute may be subdivided into various characteristics such as age, gender, and design attribute of the person who is using the item.

검색서버(100)가 저장하고 이미지 DB는 저장된 이미지들을 상술한 시간 속성, 공간 속성, 카테고리 속성으로 분류하여 저장하고, 상기 이렇게 분류된 이미지 중으로서 상기 특정한 검색 범위에 해당하는 이미지들을 추출할 수 있다.The search server 100 stores and the image DB classifies the stored images into the above-described temporal attribute, spatial attribute, and category attribute, and extracts images corresponding to the specific search range among the classified images. .

그리고 상기 검색서버(100)의 제어모듈(130)은 통신모듈(110)을 통해 복수의 이미지를 포함하는 검색 결과를 사용자장치(100)로 전송한다(S250). The control module 130 of the search server 100 transmits a search result including a plurality of images to the user device 100 through the communication module 110 (S250).

사용자장치(200)의 제어부(250)는 통신부(210)를 통해 검색 결과를 수신하면, 표시부(230)를 통해 검색결과에 포함된 복수의 이미지를 지정된 순서로 표시한다. 이에 따라, 사용자는 주변 정보에 기반하여 특정된 검색범위에 해당하는 이미지를 우선적으로 확인할 수 있으며, 이를 통해서 사용자가 원하는 검색 결과를 보다 확인하도록 할 수 있다.When the control unit 250 of the user device 200 receives a search result through the communication unit 210, the control unit 250 displays a plurality of images included in the search result in a specified order through the display unit 230. Accordingly, the user may preferentially check an image corresponding to a specific search range based on the surrounding information, and thus may make the search result desired by the user more.

상술한 바에 따르면, 본 발명은 정보가 넘치는 현대 사회에서 이미지 검색 결과를 제공할 때, 사용자의 별도 개입 없이 검색 요청된 이미지로부터 추출된 주변 정보를 이용하여 더 세분화하여 특정화된 검색 결과를 제공할 수 있다.As described above, when the present invention provides an image search result in an information-rich modern society, it is possible to further refine the information by using the surrounding information extracted from the image requested to be searched without providing a user's intervention. have.

이상에서 설명한 바와 같이, 본 명세서는 다수의 특정한 구현물의 세부사항들을 포함하지만, 이들은 어떠한 발명이나 청구 가능한 것의 범위에 대해서도 제한적인 것으로서 이해되어서는 안되며, 오히려 특정한 발명의 특정한 실시형태에 특유할 수 있는 특징들에 대한 설명으로서 이해되어야 한다. 개별적인 실시형태의 문맥에서 본 명세서에 기술된 특정한 특징들은 단일 실시형태에서 조합하여 구현될 수도 있다. 반대로, 단일 실시형태의 문맥에서 기술한 다양한 특징들 역시 개별적으로 혹은 어떠한 적절한 하위 조합으로도 복수의 실시형태에서 구현 가능하다. 나아가, 특징들이 특정한 조합으로 동작하고 초기에 그와 같이 청구된 바와 같이 묘사될 수 있지만, 청구된 조합으로부터의 하나 이상의 특징들은 일부 경우에 그 조합으로부터 배제될 수 있으며, 그 청구된 조합은 하위 조합이나 하위 조합의 변형물로 변경될 수 있다.As described above, the specification includes the details of a number of specific implementations, but these should not be understood as being limited to the scope of any invention or claimable, but rather may be specific to a particular embodiment of a particular invention. It should be understood as a description of the features. Certain features that are described in this specification in the context of separate embodiments may be implemented in combination in a single embodiment. Conversely, various features that are described in the context of a single embodiment can also be implemented in multiple embodiments individually or in any suitable subcombination. Furthermore, while the features operate in a specific combination and may be initially depicted as so claimed, one or more features from the claimed combination may in some cases be excluded from the combination, wherein the claimed combination is a subcombination Or a combination of subcombinations.

마찬가지로, 특정한 순서로 도면에서 동작들을 묘사하고 있지만, 이는 바람직한 결과를 얻기 위하여 도시된 그 특정한 순서나 순차적인 순서대로 그러한 동작들을 수행하여야 한다거나 모든 도시된 동작들이 수행되어야 하는 것으로 이해되어서는 안 된다. 특정한 경우, 멀티태스킹과 병렬 프로세싱이 유리할 수 있다. 또한, 상술한 실시형태의 다양한 시스템 컴포넌트의 분리는 그러한 분리를 모든 실시형태에서 요구하는 것으로 이해되어서는 안되며, 설명한 프로그램 컴포넌트와 시스템들은 일반적으로 단일의 소프트웨어 제품으로 함께 통합되거나 다중 소프트웨어 제품에 패키징될 수 있다는 점을 이해하여야 한다.Likewise, although the operations are depicted in the drawings in a specific order, it should not be understood that such operations must be performed in the specific order or sequential order shown in order to obtain desirable results or that all illustrated operations must be performed. In certain cases, multitasking and parallel processing may be advantageous. In addition, the separation of the various system components of the above-described embodiments should not be understood as requiring such separation in all embodiments, and the described program components and systems will generally be integrated together into a single software product or packaged into multiple software products. It should be understood that it can.

본 명세서에서 설명한 주제의 특정한 실시형태를 설명하였다. 기타의 실시형태들은 이하의 청구항의 범위 내에 속한다. 예컨대, 청구항에서 인용된 동작들은 상이한 순서로 수행되면서도 여전히 바람직한 결과를 성취할 수 있다. 일 예로서, 첨부도면에 도시한 프로세스는 바람직한 결과를 얻기 위하여 반드시 그 특정한 도시된 순서나 순차적인 순서를 요구하지 않는다. 특정한 구현예에서, 멀티태스킹과 병렬 프로세싱이 유리할 수 있다.Specific embodiments of the subject matter described in this specification have been described. Other embodiments are within the scope of the following claims. For example, the actions recited in the claims can be performed in a different order but still achieve desirable results. As an example, the process depicted in the accompanying drawings does not necessarily require that particular illustrated or sequential order to obtain the desired results. In certain implementations, multitasking and parallel processing may be advantageous.

본 기술한 설명은 본 발명의 최상의 모드를 제시하고 있으며, 본 발명을 설명하기 위하여, 그리고 당업자가 본 발명을 제작 및 이용할 수 있도록 하기 위한 예를 제공하고 있다. 이렇게 작성된 명세서는 그 제시된 구체적인 용어에 본 발명을 제한하는 것이 아니다. 따라서, 상술한 예를 참조하여 본 발명을 상세하게 설명하였지만, 당업자라면 본 발명의 범위를 벗어나지 않으면서도 본 예들에 대한 개조, 변경 및 변형을 가할 수 있다.The foregoing description presents the best mode of the invention, and provides examples to illustrate the invention and to enable those skilled in the art to make and use the invention. The specification thus produced is not intended to limit the invention to the specific terms presented. Thus, while the present invention has been described in detail with reference to the examples described above, those skilled in the art can make modifications, changes and variations to the examples without departing from the scope of the invention.

따라서 본 발명의 범위는 설명된 실시 예에 의하여 정할 것이 아니고 특허청구범위에 의해 정하여져야 한다.Therefore, the scope of the present invention should be determined by the claims rather than by the described embodiments.

본 발명은 이미지 검색 분야에 적용 가능한 것으로서, 이미지 검색을 수행하는데 있어서, 검색 대상이 되는 아이템 이외에 배경 이미지 및 이미지의 메타 데이터로부터 시간적 정보 및 공간적 정보와 같은 아이템에 관련된 부가 정보를 추출하고, 이를 기반으로 검색 범위를 한정하여 검색을 수행하거나, 검색 결과의 랭킹을 조정함으로써 사용자에게 제공되는 이미지 검색 결과에 대한 사용자의 신뢰도 및 만족도를 더 형상시킬 수 있다.The present invention is applicable to the field of image retrieval, in performing image retrieval, extracts additional information related to items such as temporal information and spatial information from background images and metadata of images in addition to the items to be searched, By limiting the search range to perform a search, or by adjusting the ranking of the search results can further shape the user's confidence and satisfaction with the image search results provided to the user.

100: 검색서버 110: 통신모듈
120: 저장모듈 130: 제어모듈
131: 주변정보처리모듈 133: 이미지처리모듈
135: 이미지검색모듈 200: 사용자장치
210: 통신부 220: 입력부
230: 표시부 240: 저장부
250: 제어부
100: search server 110: communication module
120: storage module 130: control module
131: peripheral information processing module 133: image processing module
135: image search module 200: user device
210: communication unit 220: input unit
230: display unit 240: storage unit
250: control unit

Claims (12)

이미지 검색을 위한 장치가,
사용자 장치로부터 이미지 데이터를 포함하는 이미지 검색 요청을 수신하는 단계;
상기 이미지 검색 요청에 의하여, 상기 이미지 데이터로부터 검색 대상 아이템 및 상기 검색 대상 아이템과 관련된 주변 정보를 추출하는 단계;
상기 주변 정보를 고려하여 상기 이미지 데이터의 검색 대상 아이템을 기준으로 검색을 수행하는 단계; 및
검색 결과를 상기 사용자장치로 제공하는 단계를 포함하는 주변 정보를 이용한 이미지 검색을 위한 방법.
The device for image search,
Receiving an image search request comprising image data from a user device;
Extracting a search target item and surrounding information related to the search target item from the image data by the image search request;
Performing a search based on a search target item of the image data in consideration of the surrounding information; And
And providing a search result to the user device.
제1항에 있어서, 상기 추출하는 단계는
상기 이미지 데이터 중 상기 검색 대상 아이템을 제외한 나머지 이미지 영역을 배경 이미지로 추출하고, 상기 배경 이미지의 분석을 통해 상기 주변 정보를 추출하는 단계를 포함하는 것을 특징으로 하는 주변 정보를 이용한 이미지 검색을 위한 방법.
The method of claim 1, wherein the extracting step
Extracting the remaining image area of the image data excluding the search target item as a background image, and extracting the surrounding information through analysis of the background image. .
제1항에 있어서, 상기 추출하는 단계는
상기 이미지 데이터의 메타 데이터를 추출하고, 상기 메타데이터로부터 상기 주변 정보를 추출하는 단계를 포함하는 것을 특징으로 하는 주변 정보를 이용한 이미지 검색을 위한 방법.
The method of claim 1, wherein the extracting step
Extracting metadata of the image data and extracting the peripheral information from the metadata.
제1항에 있어서, 상기 추출하는 단계는
상기 이미지 데이터 중 상기 검색 대상 아이템을 제외한 나머지 이미지 영역을 배경 이미지로 추출하고, 상기 배경 이미지의 분석을 통해 상기 주변 정보를 추출한 후, 상기 이미지 데이터의 메타 데이터를 참조하여 상기 주변 정보를 수정 또는 보완하는 것을 특징으로 하는 주변 정보를 이용한 이미지 검색을 위한 방법.
The method of claim 1, wherein the extracting step
After extracting the remaining image area of the image data excluding the search target item as a background image, extracting the surrounding information through analysis of the background image, and correcting or supplementing the surrounding information with reference to metadata of the image data. Method for image search using the surrounding information, characterized in that.
제1항에 있어서, 상기 추출하는 단계는
상기 이미지 데이터의 메타 데이터를 분석하여 상기 주변 정보를 추출하고,
상기 이미지 데이터 중 상기 검색 대상 아이템을 제외한 나머지 이미지 영역을 배경 이미지를 분석하여, 상기 주변 정보를 수정 또는 보완하는 것을 특징으로 하는 주변 정보를 이용한 이미지 검색을 위한 방법.
The method of claim 1, wherein the extracting step
Extracting the peripheral information by analyzing metadata of the image data,
And analyzing or supplementing the surrounding information by analyzing a background image of the remaining image area of the image data except for the search target item.
제1항에 있어서, 상기 주변 정보는
상기 검색 대상 아이템의, 생산, 판매, 이용 중 하나 이상과 관련된, 시간적 정보, 공간적 정보 및 인물 정보 중 하나 이상을 포함하는 것을 특징으로 하는 주변 정보를 이용한 이미지 검색을 위한 방법.
The method of claim 1, wherein the surrounding information is
And at least one of temporal information, spatial information, and person information related to at least one of production, sale, and use of the searched item.
제1항에 있어서, 상기 검색을 수행하는 단계는,
상기 주변 정보를 분석하여 검색 범위를 특정하는 단계;
상기 검색 대상 아이템을 기준으로 이미지 검색을 수행하는 단계; 및
상기 이미지 검색의 검색 결과를 상기 특정한 검색 범위를 기준으로 수정하는 단계를 포함하는 것을 특징으로 하는 주변 정보를 이용한 이미지 검색을 위한 방법.
The method of claim 1, wherein performing the search comprises:
Analyzing the surrounding information to specify a search range;
Performing an image search based on the search target item; And
And modifying a search result of the image search based on the specific search range.
제1항에 있어서, 상기 검색을 수행하는 단계는
상기 주변 정보를 분석하여 검색 범위를 특정하는 단계; 및
상기 검색 범위 내에서 상기 검색 대상 아이템을 기준으로 이미지 검색을 수행하는 단계를 포함하는 것을 특징으로 하는 주변 정보를 이용한 이미지 검색을 위한 방법.
The method of claim 1, wherein performing the search comprises:
Analyzing the surrounding information to specify a search range; And
And performing an image search on the basis of the search target item within the search range.
이미지 검색이 요청된 이미지 데이터를 분석하여, 이미지 데이터에 포함된 검색 가능한 복수의 객체 중 검색 대상 아이템을 선택하는 이미지처리모듈;
상기 이미지 데이터 중 상기 검색 대상 아이템을 제외한 배경 이미지 및 상기 이미지 데이터의 메타 데이터 중 하나 이상을 분석하여 상기 검색 대상 아이템과 관련된 주변 정보를 추출하는 주변정보처리모듈; 및
상기 주변 정보를 고려하여 상기 검색 대상 아이템을 기준으로 상기 이미지 데이터와 유사한 이미지를 검색하는 이미지검색모듈;을 포함하는 것을 특징으로 하는 주변 정보를 이용한 이미지 검색을 위한 장치.
An image processing module configured to analyze image data requested for an image search and to select a search target item among a plurality of searchable objects included in the image data;
A peripheral information processing module for extracting peripheral information related to the search target item by analyzing at least one of a background image excluding the search target item among the image data and metadata of the image data; And
And an image search module configured to search for an image similar to the image data based on the search target item in consideration of the surrounding information.
제9항에 있어서, 상기 주변정보처리모듈은,
상기 이미지 데이터 중 배경 이미지의 분석을 통해 상기 주변 정보를 추출한 후, 상기 이미지 데이터의 메타 데이터를 참조하여 상기 주변 정보를 수정 또는 보완하거나,
상기 이미지 데이터의 메타 데이터를 분석하여 상기 주변 정보를 추출하고, 상기 배경 이미지의 분석을 통해서, 상기 주변 정보를 수정 또는 보완하는 것을 특징으로 하는 주변 정보를 이용한 이미지 검색을 위한 장치.
The method of claim 9, wherein the peripheral information processing module,
After extracting the surrounding information by analyzing a background image among the image data, correcting or supplementing the surrounding information with reference to the metadata of the image data,
And extracting the surrounding information by analyzing the metadata of the image data, and correcting or supplementing the surrounding information by analyzing the background image.
제9항에 있어서, 상기 주변 정보는
상기 검색 대상 아이템의, 생산, 판매, 이용 중 하나 이상과 관련된, 시간적 정보, 공간적 정보 및 인물 정보 중 하나 이상을 포함하는 것을 특징으로 하는 주변 정보를 이용한 이미지 검색을 위한 장치.
The method of claim 9, wherein the surrounding information is
And at least one of temporal information, spatial information, and person information related to at least one of production, sale, and use of the searched item.
제9항에 있어서, 상기 이미지검색모듈은
상기 주변 정보를 분석하여 검색 범위를 특정하고, 상기 검색 대상 아이템을 기준으로 이미지 검색을 수행한 후, 상기 이미지 검색의 검색 결과를 상기 특정한 검색 범위를 기준으로 수정하거나,
상기 주변 정보를 분석하여 검색 범위를 특정하고, 상기 특정한 검색 범위 내에서 상기 검색 대상 아이템을 기준으로 이미지 검색을 수행하는 것을 특징으로 하는 주변 정보를 이용한 이미지 검색을 위한 장치.
The method of claim 9, wherein the image search module
Analyze the surrounding information to specify a search range, perform an image search based on the search target item, and then modify a search result of the image search based on the specific search range;
The apparatus for searching for an image using the surrounding information, characterized by specifying the search range by analyzing the surrounding information, and performing an image search based on the search target item within the specific search range.
KR1020180095859A 2018-08-17 2018-08-17 A method for image searching using an peripheral information and an apparatus therefor KR20200020306A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020180095859A KR20200020306A (en) 2018-08-17 2018-08-17 A method for image searching using an peripheral information and an apparatus therefor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020180095859A KR20200020306A (en) 2018-08-17 2018-08-17 A method for image searching using an peripheral information and an apparatus therefor

Publications (1)

Publication Number Publication Date
KR20200020306A true KR20200020306A (en) 2020-02-26

Family

ID=69637940

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180095859A KR20200020306A (en) 2018-08-17 2018-08-17 A method for image searching using an peripheral information and an apparatus therefor

Country Status (1)

Country Link
KR (1) KR20200020306A (en)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20100043823A (en) 2008-10-21 2010-04-29 에스케이 텔레콤주식회사 Method and server for providing online shopping using image of commodity

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20100043823A (en) 2008-10-21 2010-04-29 에스케이 텔레콤주식회사 Method and server for providing online shopping using image of commodity

Similar Documents

Publication Publication Date Title
CN108073605B (en) Method and device for loading and pushing service data and generating interactive information
CN108334539B (en) Object recommendation method, mobile terminal and computer-readable storage medium
US10387510B2 (en) Content search method and electronic device implementing same
US10163041B2 (en) Automatic canonical digital image selection method and apparatus
CN105531701A (en) Personalized trending image search suggestion
US11176712B2 (en) System and method for selecting scenes for browsing histories in augmented reality interfaces
CN110309357B (en) Application data recommendation method, model training method, device and storage medium
CN111143543A (en) Object recommendation method, device, equipment and medium
US10567915B2 (en) System and methods of searching for an object using hyper-local location techniques
CN107577726B (en) Searching method, server and computer readable storage medium
US20160110372A1 (en) Method and apparatus for providing location-based social search service
CN112925878B (en) Data processing method and device
KR20200026391A (en) Method for providing recommend service and apparatus therefor
KR20200026373A (en) Image search method using search history and apparatus therefor
KR20200020306A (en) A method for image searching using an peripheral information and an apparatus therefor
KR20200024619A (en) Method for providing recommend service and apparatus therefor
KR20200023093A (en) A method for recommendation of style coordination and an apparatus therefor
CN108897774B (en) Method, device and storage medium for acquiring news hotspots
KR20200003564A (en) A method for image searching using an image comprising a plurality of items and an apparatus therefor
US20220197939A1 (en) Image-based search method, server, terminal, and medium
CN114416254A (en) Business card display method, intelligent terminal and storage medium
CN113918820A (en) Interface display method, mobile terminal and storage medium
US10832461B2 (en) Method and apparatus for editing uploaded image
KR20200023091A (en) Image search method for providing information about similarity and apparatus therefor
CN107347204B (en) WLAN (Wireless local area network) packet display method and mobile terminal

Legal Events

Date Code Title Description
N231 Notification of change of applicant