KR102384419B1 - Method, system and non-transitory computer-readable recording medium for estimating information about objects - Google Patents
Method, system and non-transitory computer-readable recording medium for estimating information about objects Download PDFInfo
- Publication number
- KR102384419B1 KR102384419B1 KR1020200155876A KR20200155876A KR102384419B1 KR 102384419 B1 KR102384419 B1 KR 102384419B1 KR 1020200155876 A KR1020200155876 A KR 1020200155876A KR 20200155876 A KR20200155876 A KR 20200155876A KR 102384419 B1 KR102384419 B1 KR 102384419B1
- Authority
- KR
- South Korea
- Prior art keywords
- interest
- detected
- present
- management unit
- candidate
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q30/00—Commerce
- G06Q30/02—Marketing; Price estimation or determination; Fundraising
- G06Q30/0278—Product appraisal
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q30/00—Commerce
- G06Q30/02—Marketing; Price estimation or determination; Fundraising
- G06Q30/0283—Price estimation or determination
-
- G06K9/6201—
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q30/00—Commerce
- G06Q30/018—Certifying business or products
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
- G06V10/75—Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
Abstract
본 발명의 일 태양에 따르면, 객체에 관한 정보를 추정하기 위한 방법으로서, 촬영 이미지가 획득되면, 상기 촬영 이미지에서 관심 객체를 검출하고, 상기 검출되는 관심 객체에 관한 비교 대상 객체 풀(Pool)에 포함되는 비교 대상 객체 중에서 후보 객체를 도출하는 단계, 및 상기 도출되는 후보 객체에 관한 식별 정보를 참조하여 결정되는 관심 객체에 관한 식별 정보 및 상기 검출되는 관심 객체에 관하여 획득되는 상태 정보에 기초하여 상기 검출되는 관심 객체의 가격을 추정하는 단계를 포함하는 방법이 제공된다.According to an aspect of the present invention, there is provided a method for estimating information about an object, when a photographed image is obtained, an object of interest is detected from the photographed image, and the object of interest is stored in a comparison object pool for the detected object of interest. deriving a candidate object from among included comparison target objects, and based on identification information on the object of interest determined with reference to the derived identification information on the candidate object and state information obtained with respect to the detected object of interest A method is provided that includes estimating a price of a detected object of interest.
Description
본 발명은 객체에 관한 정보를 추정하기 위한 방법, 시스템 및 비일시성의 컴퓨터 판독 가능한 기록 매체에 관한 것이다.The present invention relates to a method, a system, and a non-transitory computer-readable recording medium for estimating information about an object.
근래에 들어, 개인 간의 물품 거래(예를 들면, 중고 물품 거래)가 활발해지면서 간편하면서도 신뢰도 높은 방법으로 이러한 거래가 이루어질 수 있도록 지원하는 서비스에 대한 수요가 높아지고 있다.In recent years, as goods transactions between individuals (eg, used goods transactions) become more active, the demand for services that support such transactions in a simple and reliable way is increasing.
이에 관한 종래 기술의 일 예로서, 한국등록특허공보 제10-1678970호에 개시된 기술을 예로 들 수 있는데, 이에 따르면, 물품의 부분 이미지 및 전체 이미지를 포함하는 촬영 이미지를 수신하는 단계; 상기 촬영 이미지를 분석하는 단계; 상기 촬영 이미지에 대한 분석 결과를 근거로, 상기 촬영 이미지의 특징점 정보를 추출하는 단계; 상기 특징점 정보와 상기 물품에 대한 기준 정보를 비교함으로써, 상기 물품의 진위 여부와 외관 등급을 결정하는 단계; 및 상기 물품의 진위 여부 및 외관 등급을 근거로, 상기 물품의 평가 금액을 산출하는 단계를 포함하고, 상기 촬영 이미지를 분석하는 단계 이후, 상기 물품에 대한 제품 모델명을 도출하는 단계; 및 상기 제품 모델명을 근거로, 외부 서버 또는 저장부에서 상기 물품의 제품 정보를 검색하는 단계를 더 포함하고, 상기 제품 정보는 상기 물품의 출고가 및 중고가를 포함하는 물품 금액, 제조사, 판매자, 판매처, 출시년도, 제작년도, 색상, 상표, 모델, 등급, 중량, 재질, 형태, 제작자 및 상기 판매처 별 재고량 정보 중 적어도 하나를 포함하며, 상기 촬영 이미지를 수신하는 단계는, 물품의 서지, 보증서, 감정서, 개런티 카드 및 워런티 카드 중 적어도 하나에 대한 촬영 이미지를 수신하는 단계를 더 포함하고, 상기 특징점 정보를 추출하는 단계는, 상기 물품의 서지, 보증서, 감정서, 개런티 카드 및 워런티 카드 중 적어도 하나에 대한 촬영 이미지에 포함된 일련 번호, 레퍼런스 번호, 코드 번호, 바코드, 이미지, 모양 및 문자 중 적어도 하나에 대한 특징점 정보를 추출하는 단계를 더 포함하는 것을 특징으로 한다.As an example of the related art, the technology disclosed in Korean Patent Publication No. 10-1678970 may be given as an example, and according to this, receiving a photographed image including a partial image and an entire image of an article; analyzing the photographed image; extracting feature point information of the captured image based on the analysis result of the captured image; determining the authenticity and appearance grade of the article by comparing the feature point information with reference information about the article; and calculating an evaluation amount of the article based on the authenticity and appearance grade of the article, and after analyzing the photographed image, deriving a product model name for the article; And based on the product model name, further comprising the step of searching for product information of the product in an external server or storage unit, wherein the product information includes the product price, manufacturer, seller, It includes at least one of vendor, release year, production year, color, brand, model, grade, weight, material, shape, manufacturer, and inventory amount information for each vendor, and the step of receiving the photographed image includes: The method further comprising: receiving a photographed image of at least one of an appraisal, a guarantee card, and a warranty card, wherein the extracting of the feature point information comprises at least one of a bibliography of the article, a warranty, an appraisal, a guarantee card, and a warranty card It characterized in that it further comprises the step of extracting feature point information about at least one of a serial number, a reference number, a code number, a barcode, an image, a shape, and a character included in the photographed image.
하지만, 위와 같은 종래 기술을 비롯하여 지금까지 소개된 기술에 의하면, 촬영 이미지에 포함되는 객체를 정확하게 식별하기 위하여 해당 객체에 관한 정보가 자세하게 기재되어 있는 보증서 등이 필요하다거나, 특히 중고 명품의 경우에는 해당 객체의 가치를 정확하게 산출하기 위하여 전문가의 감정이 필요하다는 한계가 있었다.However, according to the techniques introduced so far, including the prior art as described above, in order to accurately identify an object included in a photographed image, a warranty card in which information about the object is described in detail is required, or, in particular, in the case of used luxury goods, There was a limit that an expert's appraisal was needed to accurately calculate the value of the object.
이에 본 발명자(들)는, 간편하면서도 정확하게 촬영 이미지에서 검출되는 객체의 정보를 추정하고, 이를 바탕으로 해당 객체의 가치를 평가하는 기술을 제안하는 바이다.Accordingly, the present inventor(s) proposes a technique for estimating information of an object detected from a photographed image simply and accurately, and evaluating the value of the object based on this.
본 발명은 전술한 종래 기술의 문제점을 모두 해결하는 것을 그 목적으로 한다.An object of the present invention is to solve all of the problems of the prior art described above.
또한, 본 발명은, 촬영 이미지가 획득되면, 위의 촬영 이미지에서 관심 객체를 검출하고, 위의 검출되는 관심 객체에 관한 비교 대상 객체 풀(Pool)에 포함되는 비교 대상 객체 중에서 후보 객체를 도출하고, 위의 도출되는 후보 객체에 관한 식별 정보를 참조하여 결정되는 관심 객체에 관한 식별 정보 및 위의 검출되는 관심 객체에 관하여 획득되는 상태 정보에 기초하여 위의 검출되는 관심 객체의 가격을 추정하는 것을 다른 목적으로 한다.In addition, in the present invention, when a captured image is obtained, an object of interest is detected from the captured image, and a candidate object is derived from among comparison objects included in a comparison object pool with respect to the detected object of interest, and , estimating the price of the detected object of interest based on the identification information on the object of interest determined with reference to the derived identification information on the candidate object and the state information obtained with respect to the detected object of interest for other purposes.
또한, 본 발명은, 간편하면서도 정확하게 촬영 이미지에서 검출되는 객체의 정보를 추정하고, 이를 바탕으로 해당 객체의 가치를 평가함으로써 사용자들 간의 물품 거래가 편리하게 진행될 수 있도록 지원하는 것을 또 다른 목적으로 한다.In addition, another object of the present invention is to conveniently and accurately estimate information on an object detected in a photographed image and evaluate the value of the object based on this to support convenient transaction of goods between users.
상기 목적을 달성하기 위한 본 발명의 대표적인 구성은 다음과 같다.A representative configuration of the present invention for achieving the above object is as follows.
본 발명의 일 태양에 따르면, 촬영 이미지가 획득되면, 상기 촬영 이미지에서 관심 객체를 검출하고, 상기 검출되는 관심 객체에 관한 비교 대상 객체 풀(Pool)에 포함되는 비교 대상 객체 중에서 후보 객체를 도출하는 단계, 및 상기 도출되는 후보 객체에 관한 식별 정보를 참조하여 결정되는 관심 객체에 관한 식별 정보 및 상기 검출되는 관심 객체에 관하여 획득되는 상태 정보에 기초하여 상기 검출되는 관심 객체의 가격을 추정하는 단계를 포함하는 방법이 제공된다.According to an aspect of the present invention, when a captured image is obtained, an object of interest is detected from the captured image, and a candidate object is derived from among comparison objects included in a comparison object pool related to the detected object of interest. estimating the price of the detected object of interest based on identification information on the object of interest determined with reference to the derived identification information on the candidate object and state information obtained with respect to the detected object of interest A method comprising
본 발명의 다른 태양에 따르면, 촬영 이미지가 획득되면, 상기 촬영 이미지에서 관심 객체를 검출하고, 상기 검출되는 관심 객체에 관하여 상태 정보를 획득하는 관심 객체 관리부, 상기 검출되는 관심 객체에 관한 비교 대상 객체 풀(Pool)에 포함되는 비교 대상 객체 중에서 후보 객체를 도출하는 후보 객체 관리부, 및 상기 도출되는 후보 객체에 관한 식별 정보를 참조하여 결정되는 관심 객체에 관한 식별 정보 및 상기 획득되는 상태 정보에 기초하여 상기 검출되는 관심 객체의 가격을 추정하는 가격 관리부를 포함하는 시스템이 제공된다.According to another aspect of the present invention, when a captured image is obtained, an object of interest manager detects an object of interest from the captured image and obtains state information about the detected object of interest, and a comparison target object related to the detected object of interest Based on the obtained state information and the identification information on the object of interest determined by referring to the candidate object management unit for deriving a candidate object from among the comparison objects included in the pool, and identification information on the derived candidate object There is provided a system including a price management unit estimating the price of the detected object of interest.
이 외에도, 본 발명을 구현하기 위한 다른 방법, 다른 시스템 및 상기 방법을 실행하기 위한 컴퓨터 프로그램을 기록하는 비일시성의 컴퓨터 판독 가능한 기록 매체가 더 제공된다.In addition to this, another method for implementing the present invention, another system, and a non-transitory computer-readable recording medium for recording a computer program for executing the method are further provided.
본 발명에 의하면, 촬영 이미지가 획득되면, 위의 촬영 이미지에서 관심 객체를 검출하고, 위의 검출되는 관심 객체에 관한 비교 대상 객체 풀(Pool)에 포함되는 비교 대상 객체 중에서 후보 객체를 도출하고, 위의 도출되는 후보 객체에 관한 식별 정보를 참조하여 결정되는 관심 객체에 관한 식별 정보 및 위의 검출되는 관심 객체에 관하여 획득되는 상태 정보에 기초하여 위의 검출되는 관심 객체의 가격을 추정할 수 있게 된다.According to the present invention, when a photographed image is obtained, an object of interest is detected from the photographed image, and a candidate object is derived from among comparison objects included in a comparison object pool with respect to the detected object of interest, To estimate the price of the detected object of interest based on the identification information on the object of interest determined with reference to the derived identification information on the candidate object and the state information obtained with respect to the detected object of interest do.
또한, 본 발명에 의하면, 간편하면서도 정확하게 촬영 이미지에서 검출되는 객체의 정보를 추정하고, 이를 바탕으로 해당 객체의 가치를 평가함으로써 사용자들 간의 물품 거래가 편리하게 진행될 수 있도록 지원할 수 있게 된다.In addition, according to the present invention, it is possible to conveniently and accurately estimate information on an object detected in a photographed image, and evaluate the value of the object based on this, thereby supporting convenient transaction of goods between users.
도 1은 본 발명의 일 실시예에 따라 객체에 관한 정보를 추정하기 위한 전체 시스템의 개략적인 구성을 나타내는 도면이다.
도 2는 본 발명의 일 실시예에 따른 객체 정보 추정 시스템의 내부 구성을 상세하게 도시하는 도면이다.
도 3 내지 도 5, 도 9 및 도 10은 본 발명의 일 실시예에 따라 관심 객체를 검출하는 과정을 예시적으로 나타내는 도면이다.
도 6 내지 도 8은 본 발명의 일 실시예에 따라 관심 객체와 비교 대상 객체 사이의 유사도를 산출하기 위한 과정을 예시적으로 나타내는 도면이다.
도 11 내지 도 12는 본 발명의 일 실시예에 따라 관심 객체에 관하여 사용자로부터 부분적인 식별 정보를 획득하는 과정을 예시적으로 나타내는 도면이다.
도 13은 본 발명의 일 실시예에 따라 관심 객체에 관하여 사용자로부터 검출 영역 및 상태 정보가 획득되는 과정을 예시적으로 나타내는 도면이다.
도 14 내지 도 17은 본 발명의 일 실시예에 따라 후보 객체가 도출되는 과정을 예시적으로 나타내는 도면이다.1 is a diagram illustrating a schematic configuration of an entire system for estimating information about an object according to an embodiment of the present invention.
2 is a diagram illustrating in detail an internal configuration of an object information estimation system according to an embodiment of the present invention.
3 to 5, 9 and 10 are diagrams exemplarily illustrating a process of detecting an object of interest according to an embodiment of the present invention.
6 to 8 are diagrams exemplarily illustrating a process for calculating a degree of similarity between an object of interest and a comparison object according to an embodiment of the present invention.
11 to 12 are diagrams exemplarily illustrating a process of obtaining partial identification information from a user with respect to an object of interest according to an embodiment of the present invention.
13 is a diagram exemplarily illustrating a process in which a detection region and state information are obtained from a user with respect to an object of interest according to an embodiment of the present invention.
14 to 17 are diagrams exemplarily illustrating a process of deriving a candidate object according to an embodiment of the present invention.
후술하는 본 발명에 대한 상세한 설명은, 본 발명이 실시될 수 있는 특정 실시예를 예시로서 도시하는 첨부 도면을 참조한다. 이러한 실시예는 당업자가 본 발명을 실시할 수 있기에 충분하도록 상세히 설명된다. 본 발명의 다양한 실시예는 서로 다르지만 상호 배타적일 필요는 없음이 이해되어야 한다. 예를 들어, 본 명세서에 기재되어 있는 특정 형상, 구조 및 특성은 본 발명의 정신과 범위를 벗어나지 않으면서 일 실시예로부터 다른 실시예로 변경되어 구현될 수 있다. 또한, 각각의 실시예 내의 개별 구성요소의 위치 또는 배치도 본 발명의 정신과 범위를 벗어나지 않으면서 변경될 수 있음이 이해되어야 한다. 따라서, 후술하는 상세한 설명은 한정적인 의미로서 행하여지는 것이 아니며, 본 발명의 범위는 특허청구범위의 청구항들이 청구하는 범위 및 그와 균등한 모든 범위를 포괄하는 것으로 받아들여져야 한다. 도면에서 유사한 참조부호는 여러 측면에 걸쳐서 동일하거나 유사한 구성요소를 나타낸다.DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS [0012] DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS [0010] DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS [0010] Reference is made to the accompanying drawings, which show by way of illustration specific embodiments in which the present invention may be practiced. These embodiments are described in sufficient detail to enable those skilled in the art to practice the present invention. It should be understood that the various embodiments of the present invention are different but need not be mutually exclusive. For example, certain shapes, structures, and characteristics described herein may be implemented with changes from one embodiment to another without departing from the spirit and scope of the present invention. In addition, it should be understood that the location or arrangement of individual components within each embodiment may be changed without departing from the spirit and scope of the present invention. Accordingly, the following detailed description is not to be taken in a limiting sense, and the scope of the present invention should be taken as encompassing the scope of the claims and all equivalents thereto. In the drawings, like reference numerals refer to the same or similar elements throughout the various aspects.
이하에서는, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자가 본 발명을 용이하게 실시할 수 있도록 하기 위하여, 본 발명의 여러 바람직한 실시예에 관하여 첨부된 도면을 참조하여 상세히 설명하기로 한다.Hereinafter, various preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings in order to enable those of ordinary skill in the art to easily practice the present invention.
본 명세서에서는, 객체 정보 추정 서비스에 관한 실시예가 중고 가방의 가격 추정에 주로 초점을 맞추어 설명되지만, 해당 서비스가 특정 종류의 물품에만 제한적으로 적용될 수 있는 것은 아니고, 시계, 장신구 등과 같이 거래가 가능한 모든 종류의 물품에 적용될 수 있는 것으로 이해되어야 한다.In this specification, an embodiment of the object information estimation service is mainly described focusing on price estimation of a used bag, but the service is not limitedly applicable only to a specific type of item, and all types of transactions available such as watches, ornaments, etc. It should be understood that it can be applied to the articles of
전체 시스템의 구성Whole system configuration
도 1은 본 발명의 일 실시예에 따라 객체에 관한 정보를 추정하기 위한 전체 시스템의 개략적인 구성을 나타내는 도면이다.1 is a diagram showing a schematic configuration of an entire system for estimating information about an object according to an embodiment of the present invention.
도 1에 도시된 바와 같이, 본 발명의 일 실시예에 따른 전체 시스템은 통신망(100), 객체 정보 추정 시스템(200) 및 디바이스(300)를 포함할 수 있다.As shown in FIG. 1 , the entire system according to an embodiment of the present invention may include a
먼저, 본 발명의 일 실시예에 따른 통신망(100)은 유선 통신이나 무선 통신과 같은 통신 양태를 가리지 않고 구성될 수 있으며, 근거리 통신망(LAN; Local Area Network), 도시권 통신망(MAN; Metropolitan Area Network), 광역 통신망(WAN; Wide Area Network) 등 다양한 통신망으로 구성될 수 있다. 바람직하게는, 본 명세서에서 말하는 통신망(100)은 공지의 인터넷 또는 월드 와이드 웹(WWW; World Wide Web)일 수 있다. 그러나, 통신망(100)은, 굳이 이에 국한될 필요 없이, 공지의 유무선 데이터 통신망, 공지의 전화망 또는 공지의 유무선 텔레비전 통신망을 그 적어도 일부에 있어서 포함할 수도 있다.First, the
예를 들면, 통신망(100)은 무선 데이터 통신망으로서, 와이파이(WiFi) 통신, 와이파이 다이렉트(WiFi-Direct) 통신, 롱텀 에볼루션(LTE, Long Term Evolution) 통신, 5G 통신, 블루투스 통신(저전력 블루투스(BLE; Bluetooth Low Energy) 통신 포함), 적외선 통신, 초음파 통신 등과 같은 종래의 통신 방법을 적어도 그 일부분에 있어서 구현하는 것일 수 있다. 다른 예를 들면, 통신망(100)은 광 통신망으로서, 라이파이(LiFi, Light Fidelity) 등과 같은 종래의 통신 방법을 적어도 그 일부분에 있어서 구현하는 것일 수 있다.For example, the
다음으로, 본 발명의 일 실시예에 따른 객체 정보 추정 시스템(200)은 촬영 이미지가 획득되면, 위의 촬영 이미지에서 관심 객체를 검출하고, 위의 검출되는 관심 객체에 관한 비교 대상 객체 풀(Pool)에 포함되는 비교 대상 객체 중에서 후보 객체를 도출하고, 위의 도출되는 후보 객체에 관한 식별 정보를 참조하여 결정되는 관심 객체에 관한 식별 정보 및 위의 검출되는 관심 객체에 관하여 획득되는 상태 정보에 기초하여 위의 검출되는 관심 객체의 가격을 추정하는 기능을 수행할 수 있다.Next, when a captured image is obtained, the object
본 발명에 따른 객체 정보 추정 시스템(200)의 구성과 기능에 관하여는 이하의 상세한 설명을 통하여 자세하게 알아보기로 한다.The configuration and function of the object
다음으로, 본 발명의 일 실시예에 따른 디바이스(300)는 객체 정보 추정 시스템(200)에 접속한 후 통신할 수 있는 기능을 포함하는 디지털 기기로서, 스마트폰, 태블릿, 스마트 워치, 스마트 밴드, 스마트 글래스, 데스크탑 컴퓨터, 노트북 컴퓨터, 워크스테이션, PDA, 웹 패드, 이동 전화기 등과 같이 메모리 수단을 구비하고 마이크로 프로세서를 탑재하여 연산 능력을 갖춘 디지털 기기라면 얼마든지 본 발명에 따른 디바이스(300)로서 채택될 수 있다.Next, the
특히, 디바이스(300)는, 사용자가 객체 정보 추정 시스템(200)으로부터 객체 정보 추정 등의 서비스를 제공받을 수 있도록 지원하는 애플리케이션(미도시됨)을 포함할 수 있다. 이와 같은 애플리케이션은 객체 정보 추정 시스템(200) 또는 외부의 애플리케이션 배포 서버(미도시됨)로부터 다운로드된 것일 수 있다. 한편, 이러한 애플리케이션의 성격은 후술할 바와 같은 객체 정보 추정 시스템(200)의 관심 객체 관리부(210), 후보 객체 관리부(220), 가격 관리부(230), 통신부(240) 및 제어부(250)와 전반적으로 유사할 수 있다. 여기서, 애플리케이션은 그 적어도 일부가 필요에 따라 그것과 실질적으로 동일하거나 균등한 기능을 수행할 수 있는 하드웨어 장치나 펌웨어 장치로 치환될 수도 있다.In particular, the
객체 정보 추정 시스템의 구성Composition of object information estimation system
이하에서는, 본 발명의 구현을 위하여 중요한 기능을 수행하는 객체 정보 추정 시스템(200)의 내부 구성과 각 구성요소의 기능에 대하여 살펴보기로 한다.Hereinafter, the internal configuration of the object
도 2는 본 발명의 일 실시예에 따른 객체 정보 추정 시스템(200)의 내부 구성을 상세하게 도시하는 도면이다.2 is a diagram illustrating in detail the internal configuration of the object
도 2에 도시된 바와 같이, 본 발명의 일 실시예에 따른 객체 정보 추정 시스템(200)은, 관심 객체 관리부(210), 후보 객체 관리부(220), 가격 관리부(230), 통신부(240) 및 제어부(250)를 포함하여 구성될 수 있다.As shown in FIG. 2 , the object
본 발명의 일 실시예에 따르면, 관심 객체 관리부(210), 후보 객체 관리부(220), 가격 관리부(230), 통신부(240) 및 제어부(250)는 그 중 적어도 일부가 외부의 시스템(미도시됨)과 통신하는 프로그램 모듈일 수 있다. 이러한 프로그램 모듈은 운영 시스템, 응용 프로그램 모듈 또는 기타 프로그램 모듈의 형태로 객체 정보 추정 시스템(200)에 포함될 수 있고, 물리적으로는 여러 가지 공지의 기억 장치에 저장될 수 있다. 또한, 이러한 프로그램 모듈은 객체 정보 추정 시스템(200)과 통신 가능한 원격 기억 장치에 저장될 수도 있다. 한편, 이러한 프로그램 모듈은 본 발명에 따라 후술할 특정 업무를 수행하거나 특정 추상 데이터 유형을 실행하는 루틴, 서브루틴, 프로그램, 오브젝트, 컴포넌트, 데이터 구조 등을 포괄하지만, 이에 제한되지는 않는다.According to an embodiment of the present invention, the object of
한편, 객체 정보 추정 시스템(200)에 관하여 위와 같이 설명되었으나, 이러한 설명은 예시적인 것이고, 객체 정보 추정 시스템(200)의 구성요소 또는 기능 중 적어도 일부가 필요에 따라 디바이스(300) 또는 서버(미도시됨) 내에서 실현되거나 외부 시스템(미도시됨) 내에 포함될 수도 있음은 당업자에게 자명하다.On the other hand, although described above with respect to the object
먼저, 본 발명의 일 실시예에 따른 관심 객체 관리부(210)는, 촬영 이미지가 획득되면, 그 촬영 이미지에서 관심 객체를 검출하는 기능을 수행할 수 있다.First, the object-of-
구체적으로, 본 발명의 일 실시예에 따른 관심 객체 관리부(210)는, 촬영 이미지가 획득되면, R-CNN(Region-based Convolutional Neural Networks), YOLO(You Only Look Once), SSD(Single Shot multibox Detector) 등과 같은 객체 인식 모델을 이용하여 그 촬영 이미지에서 적어도 하나의 관심 객체를 검출할 수 있다. 다만, 본 발명의 일 실시예에 따른 객체 인식 모델은 위의 열거된 것에 한정되지 않으며, 본 발명의 목적을 달성할 수 있는 범위 내에서 다양하게 변경될 수 있다.Specifically, the object of
계속하면, 본 발명의 일 실시예에 따른 관심 객체 관리부(210)가 관심 객체를 검출하는 것은, 해당 관심 객체의 카테고리 및 촬영 이미지상의 해당 관심 객체의 위치(또는 촬영 이미지상에서 해당 관심 객체가 차지하고 있는 영역)를 인식하고 그 인식된 정보의 신뢰도를 산출하는 과정을 의미할 수 있다. 여기서, 본 발명의 일 실시예에 따르면, 해당 관심 객체의 카테고리를 인식하는 것은, 해당 관심 객체에 관한 식별 정보(즉, 해당 관심 객체의 가격을 추정하기 위하여 필요한 정보로서, 구체적인 모델명과 같이 해당 관심 객체를 다른 객체와 구별하여 특정할 수 있는 정보)를 결정하는 것과는 구별될 수 있다.Continuing, the detection of the object of interest by the object of
보다 구체적으로, 본 발명의 일 실시예에 따르면, 관심 객체의 카테고리란, 위의 관심 객체에 관한 식별 정보를 포함하는 상위의 개념을 의미할 수 있다. 예를 들어, 본 발명의 일 실시예에 따르면, 관심 객체가 가방인 경우에, 가방, 핸드백, 토트백 등이 관심 객체의 카테고리에 해당할 수 있고, 구체적인 모델 정보인 '루이비통 네오 알마 BB' 등이 관심 객체에 관한 식별 정보에 해당할 수 있다.More specifically, according to an embodiment of the present invention, the category of the object of interest may mean a higher level concept including identification information on the object of interest. For example, according to an embodiment of the present invention, when the object of interest is a bag, bags, handbags, tote bags, etc. may correspond to the category of the object of interest, and specific model information such as 'Louis Vuitton Neo Alma BB', etc. This may correspond to identification information about the object of interest.
그리고, 본 발명의 일 실시예에 따른 관심 객체 관리부(210)에 의한 관심 객체의 검출 결과에는, 촬영 이미지에서 검출되는 관심 객체에 관한 메인 카테고리 및 서브 카테고리가 포함될 수 있다.In addition, the detection result of the object-of-interest by the object-of-
구체적으로, 본 발명의 일 실시예에 따르면, 메인 카테고리 및 서브 카테고리와 같이 하나의 관심 객체에 관하여 복수 개의 카테고리가 인식되는 것도 가능하다. 예를 들면, 촬영 이미지에서 관심 객체로서 핸드백이 검출된 경우에, 해당 관심 객체에 관한 메인 카테고리는 가방이고, 서브 카테고리는 핸드백일 수 있다. 다른 예를 들면, 촬영 이미지에서 관심 객체로서 고양이 형상의 가방 또는 표면에 고양이 무늬가 있는 가방이 검출된 경우에, 해당 관심 객체에 관한 메인 카테고리는 가방이고, 서브 카테고리는 동물(또는 고양이)일 수 있다.Specifically, according to an embodiment of the present invention, a plurality of categories may be recognized with respect to one object of interest, such as a main category and a sub-category. For example, when a handbag is detected as an object of interest in the captured image, a main category related to the object of interest may be a bag, and a sub-category may be a handbag. As another example, when a cat-shaped bag or a bag with a cat pattern on the surface is detected as the object of interest in the photographed image, the main category for the object of interest may be a bag, and the sub-category may be an animal (or cat). there is.
다만, 본 발명의 일 실시예에 따른 카테고리가 위에서 설명된 것에 한정되는 것은 아니며, 본 발명의 목적을 달성할 수 있는 범위 내에서 다양하게 변경될 수 있다. 예를 들어, 본 발명의 일 실시예에 따르면, 샤넬, 루이비통 등과 같은 브랜드 정보가 위의 카테고리에 포함될 수도 있다.However, the category according to an embodiment of the present invention is not limited to that described above, and may be variously changed within the scope that can achieve the object of the present invention. For example, according to an embodiment of the present invention, brand information such as Chanel and Louis Vuitton may be included in the above category.
그리고, 본 발명의 일 실시예에 따른 관심 객체 관리부(210)에 의한 적어도 하나의 관심 객체의 검출에는, 관심 객체에 관한 적어도 하나의 경계 영역(예를 들면, 관심 객체를 둘러싸는 Bounding Box)을 설정하는 과정이 포함될 수 있고, 이를 통해, 촬영 이미지상의 적어도 하나의 관심 객체의 위치(또는 해당 관심 객체가 차지하고 있는 영역)를 인식할 수 있다. 다만, 본 발명의 일 실시예에 따르면, 위의 경계 영역을 설정하는 과정이, 관심 객체의 카테고리를 인식하고 그 인식된 정보의 신뢰도를 산출하는 과정과 반드시 구별되는 것은 아니고, 실질적으로 하나의 과정으로서 진행될 수도 있는 것으로 이해되어야 한다.In addition, in the detection of at least one object of interest by the object of
한편, 본 발명의 일 실시예에 따르면, 관심 객체는, 본 발명의 일 실시예에 따른 가격 관리부(230)에 의하여 가격이 추정될 수 있는 대상을 의미할 수 있다.Meanwhile, according to an embodiment of the present invention, the object of interest may mean a target whose price can be estimated by the
예를 들면, 본 발명의 일 실시예에 따른 관심 객체 관리부(210)에 의하여 촬영 이미지에서 검출되는 적어도 하나의 객체 중에서, 본 발명의 일 실시예에 따른 가격 관리부(230)에 의한 가격 추정 기능이 지원되는 적어도 하나의 객체가 관심 객체로서 결정될 수 있다. 이 경우에, 본 발명의 일 실시예에 따른 관심 객체 관리부(210)는, 위의 검출되는 객체의 카테고리가 비교 대상 객체 풀(Pool)에 포함되는 특정 객체의 카테고리와 실질적으로 동일한 것으로 판단되면 위의 검출되는 객체를 관심 객체로서 결정할 수 있다. 한편, 비교 대상 객체 풀에 관한 자세한 내용은 후술하기로 한다.For example, among at least one object detected in a photographed image by the object of
그리고, 본 발명의 일 실시예에 따른 관심 객체 관리부(210)는, 가격을 추정하고자 하는 객체에 관하여 사용자로부터 부분적인 식별 정보가 획득되는 경우에는, 그 획득된 정보 및 검출 결과 중 적어도 하나에 기초하여 관심 객체를 결정할 수도 있다.And, the object of
구체적으로, 본 발명의 일 실시예에 따른 관심 객체 관리부(210)는, 관심 객체에 관하여 사용자로부터 부분적인 식별 정보를 획득할 수 있다. 본 발명의 일 실시예에 따르면, 관심 객체에 관하여 사용자로부터 획득되는 부분적인 식별 정보는 관심 객체를 식별하기 위한 일부의 정보를 의미할 수 있다. 예를 들어, 본 발명의 일 실시예에 따르면, 관심 객체가 가방인 경우에, 관심 객체에 관하여 사용자로부터 획득되는 부분적인 식별 정보에는 카테고리(예를 들면, 핸드백), 브랜드, 소재, 재질, 패턴, 색, 사이즈(실측 사이즈를 포함함), 덮개의 유무, 바닥면의 유무, 손잡이의 유무, 손잡이의 개수, 개런티 카드 번호, 제품 코드번호, 제품명, 각인 번호, 연식 번호 등이 포함될 수 있다. 그리고, 본 발명의 일 실시예에 따르면, 관심 객체에 관하여 사용자로부터 획득되는 부분적인 식별 정보는, 사용자가 객체를 촬영하기 전에 미리 획득되거나, 사용자가 객체를 촬영한 직후에 획득될 수 있다. 또한, 촬영 이미지에서 관심 객체가 검출된 이후에 획득될 수도 있다.Specifically, the object-of-
도 3은 본 발명의 일 실시예에 따라 관심 객체를 검출하는 과정을 예시적으로 나타내는 도면이다.3 is a diagram exemplarily illustrating a process of detecting an object of interest according to an embodiment of the present invention.
예를 들면, 도 3의 (b)를 참조하면, 본 발명의 일 실시예에 따른 관심 객체 관리부(210)에 의하여 촬영 이미지에서 핸드백(321) 및 가방(322)이 검출된 경우에, 관심 객체에 관한 부분적인 식별 정보로서 손잡이가 있다는 정보를 사용자로부터 획득하였다면, 관심 객체를 핸드백(321)으로 결정할 수 있다.For example, referring to FIG. 3B , when the
계속하면, 본 발명의 일 실시예에 따르면, 관심 객체에 관하여 사용자로부터 획득되는 부분적인 식별 정보는 단계적으로 획득될 수 있다. 예를 들어, 관심 객체가 루이비통 가방인 경우에, 본 발명의 일 실시예에 따른 관심 객체 관리부(210)는, 사용자에게 루이비통 가방의 패턴에 관한 상위 이미지들(예를 들면, 다미에, 모노그램 등)을 제공하고, 그 상위 이미지들 중에서 위의 사용자에 의하여 특정 이미지(예를 들면, 다미에)가 선택되면, 그 상위 이미지의 하위 이미지들(예를 들면, 다미에 에벤, 다미에 아주르 등)을 제공하는 방법으로 관심 객체에 관하여 사용자로부터 부분적인 식별 정보를 획득할 수 있다.Continuing, according to an embodiment of the present invention, partial identification information obtained from the user with respect to the object of interest may be obtained step by step. For example, when the object of interest is a Louis Vuitton bag, the object of
도 11 내지 도 12는 본 발명의 일 실시예에 따라 관심 객체에 관하여 사용자로부터 부분적인 식별 정보를 획득하는 과정을 예시적으로 나타내는 도면이다.11 to 12 are diagrams exemplarily illustrating a process of obtaining partial identification information from a user with respect to an object of interest according to an embodiment of the present invention.
도 11의 (a) 및 (b)를 참조하면, 관심 객체가 가방인 경우에, 본 발명의 일 실시예에 따른 관심 객체 관리부(210)는, 사용자로부터 해당 가방의 브랜드 및 소재(또는 패턴)에 관한 정보를 획득할 수 있다.Referring to FIGS. 11A and 11B , when the object of interest is a bag, the object of
도 12를 참조하면, 관심 객체가 가방인 경우에, 본 발명의 일 실시예에 따른 관심 객체 관리부(210)는, 사용자로부터 해당 가방의 사이즈에 관한 정보를 획득할 수 있다. 예를 들면, 본 발명의 일 실시예에 따른 관심 객체 관리부(210)는, 사용자가 해당 가방의 브랜드에 따라 정해지는 사이즈 구분 중 어느 하나를 선택하도록 함으로써 해당 가방의 사이즈에 관한 정보를 획득할 수 있다(도 12의 (a)).Referring to FIG. 12 , when the object of interest is a bag, the object of
또한, 본 발명의 일 실시예에 따른 관심 객체 관리부(210)는, 사용자가 해당 가방의 사이즈를 직접 입력하도록 함으로써 해당 가방의 사이즈에 관한 정보를 획득할 수 있다(도 12의 (b)). 이 경우에, 본 발명의 일 실시예에 따른 관심 객체 관리부(210)는, 해당 가방의 사이즈를 측정할 수 있도록 지원하는 기능을 사용자에게 제공할 수도 있다. 예를 들면, 사용자 디바이스(300)의 디스플레이에 자를 표시하거나, 카메라와 해당 가방 사이의 거리 등에 기초하여 추정되는 해당 가방의 사이즈를 사용자에게 제공할 수 있다.Also, the object of
다만, 본 발명의 일 실시예에 따른 관심 객체에 관하여 사용자로부터 획득되는 부분적인 식별 정보의 종류, 획득 시점 및 획득 방법은 위에서 설명된 것에 한정되지 않으며, 본 발명의 목적을 달성할 수 있는 범위 내에서 다양하게 변경될 수 있다.However, the type, acquisition time, and acquisition method of partial identification information acquired from the user with respect to the object of interest according to an embodiment of the present invention are not limited to those described above, and are within the scope capable of achieving the object of the present invention. can be changed in various ways.
도 3 내지 도 5, 도 9 및 도 10은 본 발명의 일 실시예에 따라 관심 객체를 검출하는 과정을 예시적으로 나타내는 도면이다.3 to 5, 9 and 10 are diagrams exemplarily illustrating a process of detecting an object of interest according to an embodiment of the present invention.
예를 들어, 도 3의 (a)를 참조하면, 본 발명의 일 실시예에 따른 관심 객체 관리부(210)는, 촬영 이미지에서 검출되는 객체에 대하여 경계 영역(311)을 설정할 수 있고, 그 경계 영역(311)에 포함되는 객체의 카테고리를 핸드백으로 인식할 수 있다. 그리고, 본 발명의 일 실시예에 따른 관심 객체 관리부(210)는, 위의 인식된 정보, 즉, 핸드백이 비교 대상 객체 풀에 포함되는 특정 객체의 카테고리와 실질적으로 동일한 것으로 판단되면 위의 검출되는 객체를 관심 객체로서 결정할 수 있다. 여기서, 본 발명의 일 실시예에 따른 관심 객체 관리부(210)는, 위와 같이 관심 객체를 결정함에 있어서, 위의 인식된 정보의 신뢰도 및 위의 경계 영역(311)의 크기(또는 면적, 픽셀의 크기 등) 중 적어도 하나를 참조할 수 있으며, 본 명세서에서 설명되는 다른 실시예에서 별도로 언급되지 않더라도 마찬가지로 이해되어야 한다.For example, referring to FIG. 3A , the object-of-
다른 예를 들어, 도 3의 (b)를 참조하면, 본 발명의 일 실시예에 따른 관심 객체 관리부(210)는, 촬영 이미지에서 검출되는 하나의 객체에 대하여 복수의 경계 영역(321 및 322)을 설정할 수 있다. 그리고, 본 발명의 일 실시예에 따른 관심 객체 관리부(210)는, 그 복수의 경계 영역(321 및 322) 중 제1 경계 영역(321)에 포함되는 객체의 카테고리를 핸드백으로 인식할 수 있고, 제2 경계 영역(322)에 포함되는 객체의 카테고리를 가방으로 인식할 수 있다. 그리고, 본 발명의 일 실시예에 따른 관심 객체 관리부(210)는, 위의 인식된 정보, 즉, 핸드백 및 가방이 비교 대상 객체 풀에 포함되는 특정 객체의 카테고리와 실질적으로 동일한 것으로 판단되면 위의 검출되는 객체를 관심 객체로서 결정할 수 있다. 여기서, 본 발명의 일 실시예에 따른 관심 객체 관리부(210)는, 위의 인식된 정보, 즉, 핸드백 및 가방 중에서 신뢰도가 높은 카테고리를 위의 관심 객체의 카테고리로서 결정할 수 있다. 또한, 본 발명의 일 실시예에 따른 관심 객체 관리부(210)는, 위의 인식된 정보, 즉, 핸드백 및 가방의 신뢰도 및/또는 포함 관계를 고려하여 메인 카테고리를 가방으로 결정하고, 서브 카테고리를 핸드백으로 결정할 수도 있다.For another example, referring to FIG. 3B , the object-of-
또 다른 예를 들어, 도 9의 (a)를 참조하면, 본 발명의 일 실시예에 따른 관심 객체 관리부(210)는, 촬영 이미지(910)에서 검출되는 하나의 객체에 대하여 복수의 경계 영역(911 및 912)을 설정할 수 있다. 그리고, 본 발명의 일 실시예에 따른 관심 객체 관리부(210)는, 그 복수의 경계 영역(911 및 912) 중 제1 경계 영역(911)에 포함되는 객체의 카테고리를 가방으로 인식할 수 있고, 제2 경계 영역(912)에 포함되는 객체의 카테고리를 동물(또는 고양이)로 인식할 수 있다. 그리고, 본 발명의 일 실시예에 따른 관심 객체 관리부(210)는, 위의 인식된 정보, 즉, 가방 및 동물(또는 고양이)이 비교 대상 객체 풀에 포함되는 특정 객체의 카테고리와 실질적으로 동일한 것으로 판단되면 위의 검출되는 객체를 관심 객체로서 결정할 수 있다. 여기서, 본 발명의 일 실시예에 따른 관심 객체 관리부(210)는, 위의 인식된 정보, 즉, 가방 및 동물(또는 고양이)의 신뢰도 및/또는 복수의 경계 영역(911 및 912) 사이의 포함 관계를 고려하여 메인 카테고리를 가방으로 결정하고, 서브 카테고리를 동물(또는 고양이)로 결정할 수도 있다.For another example, referring to FIG. 9A , the object-of-
계속하여 예를 들면, 도 9의 (b)를 참조하면, 본 발명의 일 실시예에 따른 관심 객체 관리부(210)는, 복수의 경계 영역(911 및 912) 중 작은 영역(912)을 촬영 이미지(910)에서 크로핑(Cropping)하고, 그 크로핑된 이미지(920)에서 다시 검출(921)을 수행한 결과(예를 들면, 신뢰도가 소정 수준 이상인지 여부)에 따라 관심 객체의 서브 카테고리를 동물(또는 고양이)로 결정할 수 있다. 또는, 본 발명의 일 실시예에 따른 관심 객체 관리부(210)는, 촬영 이미지(910)에서 검출되는 첫 번째 객체에 대하여 일단 하나의 경계 영역(911)을 설정하고, 그 경계 영역(911)에 포함되는 이미지를 등간격으로 분할하거나 세그먼테이션(Segmentation)을 수행함으로써, 위의 객체의 일부에 해당하는 두 번째 객체를 검출(921)할 수 있다. 그리고, 본 발명의 일 실시예에 따른 관심 객체 관리부(210)는, 이러한 두 번째 객체의 검출 결과로서 관심 객체의 서브 카테고리를 동물(또는 고양이)로 결정할 수도 있다.Continuing, for example, referring to FIG. 9B , the object-of-
또 다른 예를 들어, 도 10을 참조하면, 본 발명의 일 실시예에 따른 관심 객체 관리부(210)는, 촬영 이미지(1020)에서 검출되는 객체에 대하여 경계 영역(1021)을 설정할 수 있고, 실제 촬영된 객체는 고양이 형상의 가방이지만, 그 경계 영역(1021)에 포함되는 객체의 카테고리를 동물(또는 고양이)로 인식한 경우를 가정할 수 있다. 이러한 경우에는, 본 발명의 일 실시예에 따르면, 위의 인식된 정보, 즉, 동물(또는 고양이)이 비교 대상 객체 풀에 동물(또는 고양이)이라는 카테고리를 갖는 객체가 없기 때문에 위의 검출되는 객체가 관심 객체로서 결정되지 않을 수 있다. 이때, 관심 객체에 관하여 사용자로부터 획득되는 부분적인 식별 정보로서 관심 객체의 카테고리가 가방(1010)이라는 정보가 있다면, 본 발명의 일 실시예에 따른 관심 객체 관리부(210)는, 위의 인식된 정보, 즉, 동물(또는 고양이)의 신뢰도 및/또는 관심 객체에 관하여 사용자로부터 획득되는 부분적인 식별 정보(1010)를 고려하여 메인 카테고리를 가방으로 결정하고, 서브 카테고리를 동물(또는 고양이)로 결정할 수도 있다.For another example, referring to FIG. 10 , the object-of-
또 다른 예를 들어, 도 4의 (a) 및 (b)를 참조하면, 본 발명의 일 실시예에 따른 관심 객체 관리부(210)는, 복수의 객체에 각각에 대하여 경계 영역(411 내지 413 및 421 내지 424)을 설정하고, 그 경계 영역(411 내지 413 및 421 내지 424)에 포함되는 복수의 객체가 각각 관심 객체에 해당하는지 여부를 결정할 수도 있다. 그리고, 그 복수의 객체가 모두 관심 객체에 해당한다면, 본 발명의 일 실시예에 따른 후보 객체 관리부(220)는, 그 복수의 객체 각각에 관하여 후보 객체를 도출할 수 있다. 한편, 후보 객체 관리부(220)의 기능에 관한 자세한 내용은 후술하기로 한다.As another example, referring to FIGS. 4A and 4B , the object-of-
한편, 본 발명의 일 실시예에 따른 촬영 이미지는, 촬영에 관한 지침에 기초하여 촬영되는 이미지 일 수 있다.Meanwhile, the photographed image according to an embodiment of the present invention may be an image photographed based on a photographing guideline.
구체적으로, 본 발명의 일 실시예에 따른 관심 객체 관리부(210)는, 객체 정보 추정 시스템(200)을 이용하려는 사용자에게 촬영에 관한 지침을 제공함으로써 그 지침에 따라 관심 객체를 촬영하도록 유도할 수 있다.Specifically, the object-of-
예를 들어, 도 5의 (a)를 참조하면, 본 발명의 일 실시예에 따른 관심 객체 관리부(210)는, 관심 객체가 위치해야 하는 영역을 가이드라인(512)과 같은 형식으로 사용자 디바이스(300)의 디스플레이에 표시함으로써, 위의 사용자가 관심 객체를 올바르게 촬영하도록 유도할 수 있다. 그리고, 본 발명의 일 실시예에 따른 관심 객체 관리부(210)는, 위의 가이드 라인 안쪽의 영역에 대하여 관심 객체의 검출을 수행함으로써 검출 결과의 신뢰도를 높일 수 있다.For example, referring to FIG. 5A , the object-of-
다른 예를 들면, 본 발명의 일 실시예에 따른 관심 객체 관리부(210)는, 카메라를 통하여 보여지는 객체들 중에서 현재 인식되고 있는 객체가 어떤 객체인지를 사용자 디바이스(300)의 디스플레이에 표시(예를 들면, 위의 인식되고 있는 객체의 색을 본래의 색과 다르게 표시)함으로써, 위의 사용자가 관심 객체를 올바르게 촬영하도록 유도할 수 있다. 그리고, 본 발명의 일 실시예에 따른 관심 객체 관리부(210)는, 위의 인식된 객체에 대하여 관심 객체의 검출을 수행함으로써 검출 결과의 신뢰도를 높일 수 있다.For another example, the object of
또 다른 예를 들면, 본 발명의 일 실시예에 따른 관심 객체 관리부(210)는, 관심 객체를 촬영하는 방법에 관한 정보를 사용자에게 제공할 수 있다. 예를 들면, 본 발명의 일 실시예에 따른 관심 객체 관리부(210)는, 촬영되어야 하는 관심 객체의 면(전면, 후면, 바닥면, 안쪽면 등), 위의 각 면을 촬영하는 순서, 촬영 이미지상에서 관심 객체가 차지해야 하는 적절한 면적, 촬영 시 필요한 조명 수준 등에 관한 정보를 사용자에게 제공할 수 있다.As another example, the object-of-
한편, 본 발명의 일 실시예에 따른 관심 객체 관리부(210)는, 본 발명의 일 실시예에 따른 관심 객체 관리부(210)에 의하여 후보 객체의 도출이 수행되기 전에, 촬영 이미지를 전처리하는 기능을 수행할 수 있다.Meanwhile, the object-of-
구체적으로, 본 발명의 일 실시예에 따른 관심 객체 관리부(210)는, 촬영 이미지에서 관심 객체를 검출하기 전에 그 촬영 이미지를 전처리할 수 있다. 본 발명의 일 실시예에 따르면, 이러한 전처리에는 촬영 이미지의 크기, 해상도, 용량 등의 조정, 크로핑(Cropping), 히스토그램 평활화(Histogram equalization), 정규화(Normalization), 색 보정(Color correction), 조명 보정(Illumination correction), 전경 추출(배경 제거), 세그먼테이션(Segmentation), 패딩(Padding) 등이 포함될 수 있다. 다만, 본 발명의 일 실시예에 따른 전처리는 위의 열거된 것에 한정되지 않으며, 본 발명의 목적을 달성할 수 있는 범위 내에서 다양하게 변경될 수 있다.Specifically, the object of
예를 들면, 도 5의 (a) 및 (b)를 참조하면, 관심 객체가 가이드라인(512)에 포함된 상태로 촬영이 된 경우를 가정할 수 있다(511). 이러한 경우에, 본 발명의 일 실시예에 따른 관심 객체 관리부(210)는, 위의 가이드라인(512)에 따라 촬영 이미지를 크로핑하고, 그 크로핑된 촬영 이미지(521)에서 관심 객체를 검출(522)할 수 있다. 계속하여 예를 들면, 도 5의 (b) 및 (c)를 참조하면, 가이드라인에 따라 촬영 이미지를 크로핑하고, 그 크로핑된 촬영 이미지(521)에 패딩(533)을 포함시키고, 그 패딩이 포함된 촬영 이미지(531)에서 관심 객체를 검출(532)할 수도 있다. 여기서, 패딩은 색, 패턴, 위치 및 크기에 제한을 받지 않고 다양하게 조합 및/또는 변경되어 촬영 이미지에 포함될 수 있는 것으로 이해되어야 한다.For example, referring to FIGS. 5A and 5B , it may be assumed that an object of interest is photographed while being included in the guideline 512 ( 511 ). In this case, the object-of-
한편, 본 발명의 일 실시예에 따른 관심 객체 관리부(210)는, 촬영 이미지(전처리된 이미지 일 수 있다.)에서 객체를 검출한 이후에 그 촬영 이미지를 전처리(전처리된 이미지를 다시 전처리하는 것일 수 있다.)할 수도 있다. 예를 들면, 본 발명의 일 실시예에 따른 관심 객체 관리부(210)는, 촬영 이미지에서 검출된 객체의 신뢰도가 소정 수준 이하인 경우에, 그 촬영 이미지를 전처리하고, 그 전처리된 이미지에 대하여 다시 객체를 검출할 수 있다. 그리고, 본 발명의 일 실시예에 따른 관심 객체 관리부(210)는, 다시 검출한 결과로서 검출된 객체의 신뢰도가 소정 수준 이상인지 여부를 고려하여 해당 객체를 관심 객체로서 결정할 수 있다.On the other hand, the object of
또한, 그리고, 본 발명의 일 실시예에 따른 관심 객체 관리부(210)는, 위와 같은 전처리 중 적어도 하나의 전처리가 된 촬영 이미지에서 관심 객체를 검출한 결과 및 위와 같은 전처리가 되지 않은 촬영 이미지에서 관심 객체를 검출한 결과 중 적어도 하나를 참조하여, 관심 객체를 결정할 수 있다.Also, the object-of-
예를 들어, 도 3의 (b)를 참조하면, 본 발명의 일 실시예에 따른 관심 객체 관리부(210)에 의하여, 전처리가 되지 않은 촬영 이미지에서 핸드백(321) 및 가방(322)이 관심 객체로서 검출된 경우를 가정할 수 있다. 이러한 경우에, 도 5의 (b) 및 (c)를 참조하면, 본 발명의 일 실시예에 따른 관심 객체 관리부(210)는, 전처리된 촬영 이미지(521 및 531)에서 각각 핸드백(522 및 532)이 관심 객체로서 검출된 결과를 참조하여, 핸드백의 신뢰도가 가방의 신뢰도보다 높다고 판단할 수 있고, 이에 따라 핸드백을 관심 객체로서 결정할 수 있다.For example, referring to FIG. 3B , the
한편, 본 발명의 일 실시예에 따른 관심 객체 관리부(210)는, 촬영 이미지에 포함되는 메타데이터에 기초하여 위와 같은 전처리를 수행할 수 있다.Meanwhile, the object-of-
구체적으로, 본 발명의 일 실시예에 따르면, 이러한 메타데이터에는 촬영 이미지의 촬영 장소(예를 들면, 실내인지 실외인지 여부, 경도 ,위도 등), 촬영 시간, 위의 촬영 이미지를 촬영한 디바이스(300)의 모델명, 초점 거리, 조리개 값, 노출 시간, ISO 속도, 플래시 작동 여부, 디바이스(300)를 이용하여 측정된 관심 객체의 실제 크기 등이 포함될 수 있다. 그리고, 본 발명의 일 실시예에 따른 관심 객체 관리부(210)는, 이러한 메타데이터를 이용하여 색 보정, 조명 보정 등의 전처리를 수행할 수 있다.Specifically, according to an embodiment of the present invention, such metadata includes the location of the photographed image (for example, whether indoors or outdoors, longitude, latitude, etc.), the recording time, and the device ( 300 ), focal length, aperture value, exposure time, ISO speed, whether the flash is activated, the actual size of the object of interest measured using the
예를 들어, 메타데이터로서 촬영 이미지가 국내 및 실외의 특정 장소에서 특정 날짜의 정오에 촬영되었다는 정보가 획득된 경우를 가정하면, 본 발명의 일 실시예에 따른 관심 객체 관리부(210)는, 그 획득된 정보에 기초하여 태양광의 세기, 방향 등을 추정하고, 그 추정된 정보에 기초하여 위의 촬영 이미지를 보정하는 전처리를 수행할 수 있다.For example, assuming that information that a photographed image was photographed at noon on a specific date at a specific place in Korea and outdoors is acquired as metadata, the object of
다만, 본 발명의 일 실시예에 따른 메타데이터는 위의 열거된 것에 한정되지 않으며, 본 발명의 목적을 달성할 수 있는 범위 내에서 다양하게 변경될 수 있다.However, metadata according to an embodiment of the present invention is not limited to those listed above, and may be variously changed within a range that can achieve the object of the present invention.
한편, 본 발명의 일 실시예에 따른 관심 객체 관리부(210)는, 관심 객체에 관하여 사용자로부터 획득되는 검출 영역을 참조하여 촬영 이미지에서 위의 관심 객체를 검출할 수 있다.Meanwhile, the object-of-
구체적으로, 본 발명의 일 실시예에 따른 관심 객체 관리부(210)는, 촬영 이미지가 획득되면, 그 촬영 이미지에서 관심 객체가 위치하고 있는 영역이 어디인지를 나타내는 검출 영역을 사용자가 입력하도록 함으로써 위의 검출 영역을 획득할 수 있다. 그리고, 본 발명의 일 실시예에 따른 관심 객체 관리부(210)는, 위의 검출 영역에 대하여 관심 객체의 검출을 수행함으로써 검출 결과의 신뢰도를 높일 수 있다.Specifically, the object-of-
또한, 위와 같이 사용자로부터 획득되는 검출 영역은, 본 발명의 일 실시예에 따른 관심 객체 관리부(210)에 포함될 수 있는 인공 지능 기반의 관심 객체 검출 모델(미도시됨)의 학습에 있어서, 일종의 라벨링된 학습 데이터로서 활용될 수 있다. 즉, 본 발명의 일 실시예에 따르면, 관심 객체에 관하여 사용자로부터 획득되는 검출 영역을 학습 데이터로 하여 학습되는 관심 객체 검출 모델에 기초하여 촬영 이미지에서 관심 객체를 검출할 수 있다.In addition, the detection area obtained from the user as described above is a kind of labeling in learning of an AI-based object-of-interest detection model (not shown) that may be included in the object-of-
한편, 본 발명의 일 실시예에 따른 관심 객체 관리부(210)는, 본 발명의 일 실시예에 따른 관심 객체 관리부(210)에 포함될 수 있는 인공 지능 기반의 상태 정보 추정 모델(미도시됨)에 기초하여 촬영 이미지에서 검출되는 관심 객체에 관하여 상태 정보를 획득할 수 있다.On the other hand, the object-of-
구체적으로, 본 발명의 일 실시예에 따르면, 관심 객체에 관한 상태 정보에는, 해당 관심 객체에 존재하는 스크래치, 얼룩, 노후화된 부분 등의 위치, 크기 및/또는 그 정도가 포함될 수 있다. 다만, 본 발명의 일 실시예에 따른 관심 객체에 관한 상태 정보는 위의 열거된 것에 한정되지 않으며, 본 발명의 목적을 달성할 수 있는 범위 내에서 다양하게 변경될 수 있다.Specifically, according to an embodiment of the present invention, the state information on the object of interest may include the location, size, and/or the extent of scratches, stains, and aged parts present in the object of interest. However, the state information about the object of interest according to an embodiment of the present invention is not limited to those listed above, and may be variously changed within a range capable of achieving the object of the present invention.
계속하면, 본 발명의 일 실시예에 따른 관심 객체 관리부(210)는, 촬영 이미지가 획득되면, 그 촬영 이미지에서 위와 같은 관심 객체에 관한 상태 정보를 사용자가 입력하도록 함으로써 위의 상태 정보를 획득할 수 있다. 그리고, 본 발명의 일 실시예에 따른 가격 추정부(230)는, 위와 같이 관심 객체에 관하여 사용자로부터 획득되는 상태 정보에 기초하여 관심 객체의 가격을 추정할 수 있다. 한편, 본 발명의 일 실시예에 따른 가격 추정부(230)의 기능에 관한 자세한 내용은 후술하기로 한다.Continuing, the object-of-
또한, 위와 같이 사용자로부터 획득되는 상태 정보는, 본 발명의 일 실시예에 따른 관심 객체 관리부(210)에 포함될 수 있는 상태 정보 추정 모델의 학습에 있어서, 일종의 라벨링된 학습 데이터로서 활용될 수 있다. 즉, 본 발명의 일 실시예에 따른 관심 객체 관리부(210)는, 관심 객체에 관하여 사용자로부터 획득되는 상태 정보를 학습 데이터로 하여 학습되는 상태 정보 추정 모델에 기초하여, 촬영 이미지에서 검출되는 관심 객체에 관한 상태 정보를 획득할 수 있다.In addition, the state information obtained from the user as described above may be used as a kind of labeled learning data in learning the state information estimation model that may be included in the object-of-
도 13은 본 발명의 일 실시예에 따라 관심 객체에 관하여 사용자로부터 검출 영역 및 상태 정보가 획득되는 과정을 예시적으로 나타내는 도면이다.13 is a diagram exemplarily illustrating a process of obtaining a detection region and state information from a user with respect to an object of interest according to an embodiment of the present invention.
예를 들어, 도 13의 (a)를 참조하면, 본 발명의 일 실시예에 따른 관심 객체 관리부(210)는, 촬영 이미지에서 관심 객체(1311)가 위치하고 있는 영역이 어디인지를 나타내는 검출 영역(1312)을 사용자(1300)가 입력하도록 함으로써 그 검출 영역(1312)을 획득할 수 있다. 본 발명의 일 실시예에 따르면, 이러한 검출 영역은 디바이스(300)의 화면에서 관심 객체가 위치하는 영역을 사용자(1300)가 드래그하여 표시(1312)하는 방법으로 입력될 수 있으나, 이러한 방법에 제한되는 것은 아니다.For example, referring to FIG. 13A , the object-of-
다른 예를 들어, 도 13의 (b)를 참조하면, 본 발명의 일 실시예에 따른 관심 객체 관리부(210)는, 촬영 이미지에서 관심 객체에 관한 상태 정보를 사용자가 입력하도록 함으로써 그 상태 정보(1321, 1322 및 1323)를 획득할 수 있다. 본 발명의 일 실시예에 따르면, 이러한 상태 정보는 디바이스(300)의 화면에서 관심 객체에 존재하는 스크래치 등이 위치하는 영역을 사용자(1300)가 드래그하여 표시(1321)하거나, 위의 스크래치 등의 모양을 직접 손으로 그려서 표시(1322)하는 방법으로 입력될 수 있으나, 이러한 방법에 제한되는 것은 아니다. 또한, 본 발명의 일 실시예에 따르면, 사용자(1300)가 위의 스크래치 등의 심한 정도에 관한 정보(1323)를 선택하도록 할 수도 있다.For another example, referring to FIG. 13B , the object-of-
또 다른 예를 들어, 도 13의 (c)를 참조하면, 본 발명의 일 실시예에 따른 관심 객체 관리부(210)는, 촬영 이미지에서 관심 객체에 관한 상태 정보를 사용자가 입력하도록 함으로써 그 상태 정보(1331 및 1332)를 획득할 수 있다. 본 발명의 일 실시예에 따르면, 이러한 상태 정보는 사용자(1300)가 디바이스(300)의 화면에서 관심 객체에 존재하는 얼룩 등이 위치하는 영역을 선택하여 표시(1331 및 1332)하는 방법으로 입력될 수 있으나, 이러한 방법에 제한되는 것은 아니다. 또한, 본 발명의 일 실시예에 따르면, 사용자(1300)가 위의 얼룩 등의 크기에 관한 정보를 함께 입력할 수 있도록, 사용자(1300)에게 여러 종류의 동전의 이미지와 같이 위의 얼룩 등의 크기를 가늠할 수 있는 수단(1341 및 1342; 즉, 얼룩(1331)의 크기는 500원 동전(1341)의 크기와 유사하고, 얼룩(1332)의 크기는 50원 동전(1342)의 크기와 유사함)을 제공할 수도 있다.As another example, referring to FIG. 13C , the object-of-
한편, 본 발명의 일 실시예에 따른 관심 객체 관리부(210)는, 촬영 이미지에서 관심 객체가 검출되면, 위의 관심 객체에 관한 유효성에 기초하여 위의 관심 객체에 관한 비교 대상 객체 풀에 포함되는 비교 대상 객체 중에서 후보 객체를 도출할지 여부를 결정하는 기능을 수행할 수 있다.Meanwhile, the object-of-
구체적으로, 본 발명의 일 실시예에 따른 관심 객체 관리부(210)는, 촬영 이미지에서 검출되는 관심 객체에 관한 유효성의 수준 또는 유무를 판단하고, 그 판단에 기초하여 위의 후보 객체를 도출할지 여부를 결정할 수 있다. 그리고, 본 발명의 일 실시예에 따른 관심 객체 관리부(210)는, 위의 후보 객체를 도출하지 않는 것으로 결정되는 경우에는, 사용자에게 올바른 촬영 이미지를 제공할 것을 요구할 수 있다.Specifically, the object-of-
보다 구체적으로, 본 발명의 일 실시예에 따른 관심 객체 관리부(210)는, 촬영 이미지에서 검출되는 관심 객체의 개수, 촬영 이미지에서 검출되는 관심 객체의 경계 영역의 크기, 촬영 이미지에서 검출되는 관심 객체의 경계 영역과 그 촬영 이미지에서 검출되는 다른 객체(관심 객체 및/또는 비관심 객체를 포함한다.)의 경계 영역 사이의 관계 및 촬영 이미지에서 비관심 객체가 검출되는지 여부 중 적어도 하나를 참조하여 촬영 이미지에서 검출되는 관심 객체에 관한 유효성의 수준 또는 유무를 판단할 수 있다. 여기서, 본 발명의 일 실시예에 따르면, 비관심 객체란, 비교 대상 객체 풀에 그 비관심 객체의 카테고리를 갖는 객체가 없는 경우의 객체로서, 본 발명의 일 실시예에 따른 가격 관리부(230)에 의한 가격 추정 기능이 지원되지 않는 객체를 의미할 수 있다.More specifically, the object-of-
예를 들면, 도 4의 (a)를 참조하면, 촬영 이미지에서 관심 객체로서 핸드백이 검출(412)되고, 비관심 객체로서 노트북 및 키보드가 검출(411 및 413)된 경우를 가정할 수 있다. 이러한 경우에, 본 발명의 일 실시예에 따른 관심 객체 관리부(210)는, 관심 객체인 핸드백의 경계 영역(412)이 비관심 객체인 노트북의 경계 영역(411)에 포함되거나, 비관심 객체가 검출(411 및 413)되었다는 정보를 참조하여 관심 객체에 관한 유효성이 소정 수준 이하이거나 없다고 판단하고, 후보 객체를 도출하지 않는 것으로 결정할 수 있다.For example, referring to FIG. 4A , it may be assumed that a handbag is detected 412 as an object of interest in a photographed image, and a notebook and a keyboard are detected 411 and 413 as uninterested objects. In this case, the object-of-
다른 예를 들면, 도 4의 (b)를 참조하면, 촬영 이미지에서 관심 객체로서 핸드백이 검출(421)되고, 비관심 객체로서 병, 상자 및 키보드가 검출(각각 422, 423 및 424)된 경우를 가정할 수 있다. 이러한 경우에, 본 발명의 일 실시예에 따른 관심 객체 관리부(210)는, 관심 객체인 핸드백의 경계 영역(421)이 비관심 객체들의 경계 영역(422 내지 424)에 포함되지 않는다는 정보를 참조하여 관심 객체에 관한 유효성이 소정 수준 이상이거나 있다고 판단하고, 후보 객체를 도출하는 것으로 결정할 수 있다.For another example, referring to FIG. 4(b), when a handbag is detected 421 as an object of interest in the photographed image, and a bottle, a box, and a keyboard are detected (422, 423, and 424, respectively) as uninterested objects can be assumed. In this case, the object-of-
또 다른 예를 들면, 본 발명의 일 실시예에 따른 관심 객체 관리부(210)는, 촬영 이미지에서 검출되는 관심 객체가 소정 개수 이상이거나, 촬영 이미지에서 검출되는 관심 객체의 경계 영역의 크기가 소정 수준 이하이거나, 촬영 이미지에서 검출되는 어느 두 개의 관심 객체의 경계 영역이 겹쳐지는 영역이 소정 크기 이상인 경우 등에도, 그러한 정보를 참조하여 관심 객체에 관한 유효성이 소정 수준 이하이거나 없다고 판단하고, 후보 객체를 도출하지 않는 것으로 결정할 수 있다.For another example, the object-of-
다음으로, 본 발명의 일 실시예에 따른 후보 객체 관리부(220)는, 본 발명의 일 실시예에 따른 관심 객체 관리부(210)에 의하여 촬영 이미지에서 관심 객체가 검출되면, 그 검출되는 관심 객체에 관한 비교 대상 객체 풀(Pool)에 포함되는 비교 대상 객체 중에서 후보 객체를 도출하는 기능을 수행할 수 있다.Next, when an object of interest is detected in the captured image by the object-of-
구체적으로, 본 발명의 일 실시예에 따르면, 비교 대상 객체는, 관심 객체에 관한 식별 정보를 결정하기 위하여 그 관심 객체와 서로 비교될 수 있는 객체를 의미할 수 있다. 그리고, 본 발명의 일 실시예에 따른 비교 대상 객체 풀은, 그러한 비교 대상 객체에 관한 데이터베이스를 의미할 수 있다. 본 발명의 일 실시예에 따르면, 이러한 비교 대상 객체 풀에는 비교 대상 객체의 이미지와 함께 그 비교 대상 객체 각각에 대한 카테고리, 브랜드, 소재, 재질, 패턴, 색, 사이즈(실측 사이즈를 포함함), 형상, 제품 코드번호, 제품명, 공식 가격(새 상품의 가격), 중고품의 가격 등에 관한 정보가 포함될 수 있다. 또한, 이러한 비교 대상 객체 풀에 포함되는 정보의 적어도 일부는 웹 크롤링(Crawling) 등을 통해 실시간으로 수집될 수도 있다.Specifically, according to an embodiment of the present invention, the comparison target object may mean an object that can be compared with the object of interest in order to determine identification information about the object of interest. And, the comparison target object pool according to an embodiment of the present invention may mean a database related to the comparison target object. According to an embodiment of the present invention, in such a comparison object pool, a category, brand, material, material, pattern, color, size (including actual size), Information about the shape, product code number, product name, official price (the price of a new product), and the price of a used product may be included. In addition, at least a portion of information included in the comparison object pool may be collected in real time through web crawling or the like.
예를 들면, 본 발명의 일 실시예에 따른 관심 객체가 가방인 경우에, 가방에 관한 비교 대상 객체 풀에는 각종 가방에 대한 이미지와 함께 그 각종 가방 각각에 대한 카테고리(예를 들면, 핸드백), 브랜드, 소재, 재질, 패턴, 색, 사이즈(실측 사이즈를 포함함), 덮개의 유무, 바닥면의 유무, 손잡이의 유무, 손잡이의 개수 등에 관한 정보가 포함될 수 있다.For example, when the object of interest according to an embodiment of the present invention is a bag, a category (eg, handbag) for each of the various bags along with images of various bags in the comparison object pool related to the bag, Information regarding brand, material, material, pattern, color, size (including actual size), presence or absence of a cover, presence or absence of a bottom surface, presence or absence of a handle, number of handles, and the like may be included.
다만, 본 발명의 일 실시예에 따른 비교 대상 객체 풀에 포함되는 정보는 위의 열거된 것에 한정되지 않으며, 본 발명의 목적을 달성할 수 있는 범위 내에서 다양하게 변경될 수 있다.However, the information included in the comparison object pool according to an embodiment of the present invention is not limited to the above-listed ones, and may be variously changed within the scope capable of achieving the object of the present invention.
계속하면, 본 발명의 일 실시예에 따른 후보 객체 관리부(220)는, 관심 객체에 관한 비교 대상 객체 풀에 포함되는 비교 대상 객체와 촬영 이미지에서 검출되는 관심 객체 사이의 유사도를 산출하고, 그 산출되는 유사도에 기초하여 후보 객체를 도출할 수 있다. 예를 들면, 본 발명의 일 실시예에 따른 후보 객체 관리부(220)는, 위의 유사도가 높은 순으로 소정 개수의 비교 대상 객체를 후보 객체로서 도출할 수 있다. 본 발명의 일 실시예에 따르면, 이러한 유사도는 특징 벡터 사이의 거리 값, K-최근접 이웃(KNN; K-Nearest Neighbors) 알고리즘 등을 이용하여 산출될 수 있으나, 이에 제한되는 것은 아니다.Continuing, the
한편, 본 발명의 일 실시예에 따른 후보 객체 관리부(220)는, 위의 유사도를 산출하기 전에, 위의 촬영 이미지상에서 위의 관심 객체가 포함된 영역에 대하여 전처리를 수행할 수 있다. 본 발명의 일 실시예에 따르면, 이러한 전처리는 위에서 상세하게 설명한 촬영 이미지에 대한 전처리와 유사한 방식으로 수행될 수 있으므로, 자세한 내용은 생략하기로 한다.Meanwhile, before calculating the above similarity, the
계속하면, 본 발명의 일 실시예에 따르면, 후보 객체란, 관심 객체에 관한 비교 대상 객체 풀에 포함되는 비교 대상 객체 중에서 촬영 이미지에서 검출되는 관심 객체에 해당할 확률이 높은 적어도 하나의 비교 대상 객체를 의미할 수 있다. 본 발명의 일 실시예에 따르면, 이러한 후보 객체는 하나만 도출되는 경우(예를 들면, 관심 객체에 해당할 확률이 가장 높은 후보 객체와 그 다음으로 확률이 높은 후보 객체 간의 확률 차이가 소정 수준 이상인 경우 등)도 가능하지만, 복수의 후보 객체가 도출되는 경우도 얼마든지 가능하다. 그리고, 본 발명의 일 실시예에 따른 후보 객체 관리부(220)는, 위와 같이 도출된 후보 객체가 도출되면, 그 후보 객체의 이미지 및 그 후보 객체의 식별 정보(예를 들면, 모델명, 브랜드 등)를 사용자에게 제공할 수 있다.Continuing, according to an embodiment of the present invention, the candidate object is at least one comparison target object having a high probability of corresponding to the object of interest detected in the photographed image among the comparison target objects included in the comparison target object pool related to the object of interest. can mean According to an embodiment of the present invention, when only one such candidate object is derived (for example, when a difference in probability between a candidate object having the highest probability corresponding to the object of interest and a candidate object having the next highest probability is greater than or equal to a predetermined level) etc.), but a case in which a plurality of candidate objects are derived is also possible. Then, the candidate
계속하면, 본 발명의 일 실시예에 따른 후보 객체 관리부(220)는, 본 발명의 일 실시예에 따른 관심 객체 관리부(210)에 의하여 촬영 이미지에서 관심 객체가 검출되면, 그 검출되는 관심 객체에 대하여 특징, 형상, 패턴 및 색채 중 적어도 하나에 관한 정보를 각각 도출할 수 있다. 그리고, 본 발명의 일 실시예에 따른 후보 객체 관리부(220)는, 위의 도출되는 특징, 형상, 패턴 및 색채 중 적어도 하나에 관한 정보 각각과 위의 관심 객체에 관한 비교 대상 객체 풀에 포함되는 비교 대상 객체의 대응되는 정보를 서로 비교함으로써, 위의 비교 대상 객체와 위의 검출되는 관심 객체 사이의 유사도를 산출할 수 있다.Continuing, when an object of interest is detected in the captured image by the object-of-
여기서, 본 발명의 일 실시예에 따르면, 관심 객체에 대하여 도출되는 특징에 관한 정보는, 특징점(keypoint) 및 피쳐맵(feature map) 중 적어도 하나를 의미할 수 있다. 그리고, 본 발명의 일 실시예에 따르면, 위의 비교 대상 객체의 대응되는 정보, 즉, 위의 비교 대상 객체의 특징, 형상, 패턴 및 색채 중 적어도 하나에 관한 정보는, 본 발명의 일 실시예에 따른 후보 객체 관리부(220)에 의하여 미리 도출되어 비교 대상 객체 풀에 저장된 것일 수 있다.Here, according to an embodiment of the present invention, information about a feature derived with respect to an object of interest may mean at least one of a keypoint and a feature map. And, according to an embodiment of the present invention, the corresponding information of the comparison target object, that is, information about at least one of the characteristics, shape, pattern, and color of the comparison target object, is an embodiment of the present invention It may be derived in advance by the candidate
계속하면, 본 발명의 일 실시예에 따른 후보 객체 관리부(220)는, 위와 같이 관심 객체에 대하여 도출되는 특징, 형상, 패턴 및 색채 중 적어도 하나에 관한 정보에 각각 기초하여, 위의 도출되는 특징에 관한 정보에 기초한 유사도, 위의 도출되는 형상에 관한 정보에 기초한 유사도, 위의 도출되는 패턴에 관한 정보에 기초한 유사도 및 위의 도출되는 색채에 관한 정보에 기초한 유사도를 각각 산출할 수 있다. 그리고, 본 발명의 일 실시예에 따른 후보 객체 관리부(220)는, 위와 같이 산출되는 각각의 유사도에 대하여 적절한 가중치를 부여하고 이를 종합하여 비교 대상 객체와 촬영 이미지에서 검출되는 관심 객체 사이의 유사도가 높은 순으로 소정 개수의 비교 대상 객체를 후보 객체로서 도출할 수 있다.Continuing, the candidate
계속하면, 본 발명의 일 실시예에 따른 후보 객체 관리부(220)는, 위와 같이 관심 객체에 대하여 특징, 형상, 패턴 및 색채 중 적어도 하나에 관한 정보를 각각 도출함에 있어서 서로 다른 알고리즘을 적용할 수도 있다.Continuing, the candidate
예를 들면, 본 발명의 일 실시예에 따른 후보 객체 관리부(220)는, 특징에 관한 정보의 도출에는 ORB(Oriented FAST and Rotated BRIEF) 알고리즘을 적용하고, 형상에 관한 정보의 도출에는 윤곽(Contour) 검출 알고리즘을 적용하고, 패턴에 관한 정보의 도출에는 LBP(Local Binary Pattern) 알고리즘을 적용할 수 있다. 다만, 본 발명의 일 실시예에 따라 특징, 형상, 패턴 및 색채 중 적어도 하나에 관한 정보를 도출함에 있어서 적용되는 알고리즘들은 위의 열거된 것에 한정되지 않으며, 본 발명의 목적을 달성할 수 있는 범위 내에서 다양하게 변경될 수 있다. 예를 들어, 본 발명의 일 실시예에 따른 후보 객체 관리부(220)는, 위와 같은 영상 처리 기법들 뿐만 아니라, CNN(Convolutional Neural Networks) 이나 오토 인코더(Auto Encoder)와 같은 딥러닝 기반의 알고리즘을 더 이용할 수도 있다.For example, the
또한, 본 발명의 일 실시예에 따른 후보 객체 관리부(220)는, 촬영 이미지에서 관심 객체가 검출되면, 그 검출되는 관심 객체의 적어도 일부와 위의 검출되는 관심 객체에 관한 비교 대상 객체 풀에 포함되는 비교 대상 객체의 적어도 일부를 서로 비교함으로써, 위의 비교 대상 객체와 위의 검출되는 관심 객체 사이의 유사도를 산출할 수 있다. 그리고, 본 발명의 일 실시예에 따르면, 위의 비교 대상 객체의 적어도 일부와 위의 검출되는 관심 객체의 적어도 일부는 서로 연관될 수 있다.In addition, when an object of interest is detected in the captured image, the
구체적으로, 위의 비교 대상 객체의 적어도 일부와 위의 검출되는 관심 객체의 적어도 일부는, 본 발명의 일 실시예에 따른 후보 객체 관리부(220)에 의하여, 이하에서 설명되는 실시예를 포함하는 다양한 방법으로 결정될 수 있다. 그리고, 위의 비교 대상 객체에 대하여 기설정된 관심 영역을 참조하여, 위의 비교 대상 객체의 적어도 일부와 위의 검출되는 관심 객체의 적어도 일부가 결정될 수도 있다. 여기서, 본 발명의 일 실시예에 따르면, 위의 비교 대상 객체에 대하여 기설정된 관심 영역은, 비교 대상 객체의 특징이 되는 영역(예를 들면, 특수한 패턴이나 장식이 있는 영역, 딥러닝 모델에 기초하여 도출될 수 있는 소정의 영역 등), 유형별 영역(예를 들면, 몸체 영역, 중심 영역 등), 전경 영역(예를 들면, 비교 대상 객체의 이미지에서 배경 영역을 제거하고 남은 영역) 등을 포함할 수 있다.Specifically, at least a portion of the comparison target object and at least a portion of the detected object of interest are determined by the
도 6 내지 도 8은 본 발명의 일 실시예에 따라 관심 객체와 비교 대상 객체 사이의 유사도를 산출하기 위한 과정을 예시적으로 나타내는 도면이다. 여기서, 도 6의 (a), 도 7의 (a) 및 도 8의 (a)는 각각 관심 객체에 관한 촬영 이미지를 나타내고, 도 6의 (b) 내지 (d), 도 7의 (b) 내지 (d) 및 도 8의 (b) 내지 (d)는 각각 비교 대상 객체에 관한 촬영 이미지를 나타낸다. 그리고, 도 6의 (b) 내지 (d) 및 도 7의 (b) 내지 (d)를 참조하면, 본 발명의 일 실시예에 따라 비교 대상 객체에 대하여 기설정된 관심 영역(621 내지 623, 631 내지 633, 641 내지 642, 721 내지 723, 731 내지 733 및 741 내지 742)을 확인할 수 있다.6 to 8 are diagrams exemplarily illustrating a process for calculating a degree of similarity between an object of interest and a comparison object according to an embodiment of the present invention. Here, FIGS. 6 (a), 7 (a), and 8 (a) each show a photographed image of an object of interest, and FIGS. 6 (b) to (d) and FIG. 7 (b) to (d) and (b) to (d) of FIG. 8 each represent a photographed image of a comparison target object. And, referring to FIGS. 6 (b) to (d) and 7 (b) to (d), according to an embodiment of the present invention, preset
예를 들면, 도 6의 (a) 내지 (d)를 참조하면, 본 발명의 일 실시예에 따른 후보 객체 관리부(220)는, 도 6의 (a)의 관심 객체와 도 6의 (b)의 비교 대상 객체 사이의 유사도를 산출하는 경우에, 비교 대상 객체의 관심 영역(621 내지 623)과 그 관심 영역 각각에 대응되는 관심 객체의 영역(미도시됨)을 서로 비교함으로써 그 유사도를 산출할 수 있다. 마찬가지로, 본 발명의 일 실시예에 따른 후보 객체 관리부(220)는, 도 6의 (a)의 관심 객체와 도 6의 (c)의 비교 대상 객체 사이의 유사도를 산출하는 경우에, 비교 대상 객체의 관심 영역(631 내지 633)과 그 관심 영역 각각에 대응되는 관심 객체의 영역(미도시됨)을 서로 비교함으로써 그 유사도를 산출할 수 있다. 도 6의 (a)의 관심 객체와 도 6의 (d)의 비교 대상 객체 사이의 유사도 역시 위와 유사한 방법으로 산출될 수 있으므로 자세한 설명은 생략하기로 한다.For example, referring to FIGS. 6A to 6D , the
다른 예를 들면, 도 7의 (a) 내지 (d)를 참조하면, 본 발명의 일 실시예에 따른 후보 객체 관리부(220)는, 도 7의 (a)의 관심 객체와 도 7의 (b)의 비교 대상 객체 사이의 유사도를 산출하는 경우에, 비교 대상 객체의 관심 영역(721 내지 723) 각각에 관심 객체의 특징(711)이 포함되어 있는 개수를 고려하여 그 유사도를 산출할 수 있다. 마찬가지로, 본 발명의 일 실시예에 따른 후보 객체 관리부(220)는, 도 7의 (a)의 관심 객체와 도 7의 (c)의 비교 대상 객체 사이의 유사도를 산출하는 경우에, 비교 대상 객체의 관심 영역(731 내지 733) 각각에 관심 객체의 특징(711)이 포함되어 있는 개수를 고려하여 그 유사도를 산출할 수 있다. 도 7의 (a)의 관심 객체와 도 7의 (d)의 비교 대상 객체 사이의 유사도 역시 위와 유사한 방법으로 산출될 수 있으므로 자세한 설명은 생략하기로 한다.For another example, referring to FIGS. 7A to 7D , the
또 다른 예를 들면, 도 8의 (a) 내지 (d)를 참조하면, 본 발명의 일 실시예에 따른 후보 객체 관리부(220)는, 도 8의 (a)의 관심 객체와 도 8의 (b)의 비교 대상 객체 사이의 유사도를 산출하는 경우에, 관심 객체의 특징(811)을 군집화하여 군집 영역(812 및 813)을 생성하고, 그 생성된 군집 영역(812 및 813)에 각각 대응되는 비교 대상 객체의 영역(822 및 823)을 서로 비교함으로써 그 유사도를 산출할 수 있다. 도 8의 (a)의 관심 객체와 도 8의 (c)의 비교 대상 객체 사이의 유사도 및 도 8의 (a)의 관심 객체와 도 8의 (d)의 비교 대상 객체 사이의 유사도 역시 위와 유사한 방법으로 산출될 수 있으므로 자세한 설명은 생략하기로 한다.As another example, referring to FIGS. 8A to 8D , the
또 다른 예를 들면, 본 발명의 일 실시예에 따른 후보 객체 관리부(220)는, 관심 객체에 관한 촬영 이미지에서 배경 영역을 제거하고 남은 관심 객체에 관한 전경 영역과 비교 대상 객체에 관한 전경 영역을 서로 비교함으로써, 관심 객체와 비교 대상 객체 사이의 유사도를 산출할 수 있다. 여기서, 비교 대상 객체에 관한 전경 영역은 상술한 바와 같이 기설정된 것일 수 있다. 그리고, 관심 객체 및 비교 대상 객체에 관한 전경 영역은 Grabcut, Selective Search, Mask R-CNN, Semantic Segmentation 등의 알고리즘을 적용하여 도출될 수 있다. 다만, 본 발명의 일 실시예에 따라 전경 영역 도출에 적용되는 알고리즘들은 위의 열거된 것에 한정되지 않으며, 본 발명의 목적을 달성할 수 있는 범위 내에서 다양하게 변경될 수 있다.As another example, the candidate
이상에서, 도 6 내지 도 8을 참조하여 관심 객체와 비교 대상 객체 사이의 유사도를 산출하기 위한 과정에 대하여 구체적으로 설명하였지만, 본 발명에서 유사도를 산출하는 과정이 반드시 도 6 내지 도 8의 실시예에 한정되는 것은 아니며, 본 발명의 목적을 달성할 수 있는 범위 내에서 얼마든지 변경 또는 조합될 수 있음을 밝혀 둔다. 또한, 도 6 내지 도 8을 참조하여 이상에서 설명된 내용은, 특징에 관한 정보에 기초하여 유사도를 산출하는 경우 외에, 형상, 패턴 및 색채 중 적어도 하나에 관한 정보에 각각 기초하여 유사도를 산출하는 경우에도 모두 적용될 수 있는 것으로 이해되어야 한다.In the above, the process for calculating the degree of similarity between the object of interest and the object to be compared has been described in detail with reference to FIGS. 6 to 8 , but in the present invention, the process of calculating the degree of similarity is necessarily performed in the embodiment of FIGS. 6 to 8 . It is not limited to, and it is pointed out that any number of changes or combinations can be made within the scope that can achieve the object of the present invention. In addition, in the contents described above with reference to FIGS. 6 to 8, the similarity is calculated based on information on at least one of shape, pattern, and color, respectively, in addition to the case of calculating the degree of similarity based on information about the characteristic. It should be understood that both cases can be applied.
한편, 본 발명의 일 실시예에 따른 후보 객체 관리부(220)는, 촬영 이미지에서 관심 객체가 검출되면, 그 검출되는 관심 객체에 관한 비교 대상 객체 풀에 포함되는 비교 대상 객체에 관한 식별 정보, 위의 비교 대상 객체에 관한 그룹 정보, 위의 검출되는 관심 객체에 관하여 사용자로부터 획득되는 부분적인 식별 정보 및 위의 관심 객체의 검출 결과 중 적어도 하나에 기초하여 후보 객체를 도출하는 기능을 수행할 수 있다.On the other hand, when an object of interest is detected in the captured image, the candidate
구체적으로, 본 발명의 일 실시예에 따르면, 위의 비교 대상 객체에 관한 그룹 정보는, 위의 비교 대상 객체에 관한 식별 정보 중 적어도 하나가 일치하는 적어도 하나의 다른 비교 대상 객체에 관한 식별 정보를 포함할 수 있다. 즉, 본 발명의 일 실시예에 따르면, 위의 비교 대상 객체에 관한 그룹 정보에는, 위의 비교 대상 객체와 완전히 동일한 객체는 아니지만, 위의 비교 대상 객체와 적어도 일부의 특징을 공유하는 다른 비교 대상 객체에 관한 식별 정보가 포함될 수 있다.Specifically, according to an embodiment of the present invention, the group information on the comparison target object includes identification information about at least one other comparison target object that matches at least one of the identification information on the comparison target object. may include That is, according to an embodiment of the present invention, in the group information about the comparison target object, the comparison target object is not exactly the same object as the comparison target object, but another comparison target that shares at least some characteristics with the comparison target object Identification information about the object may be included.
예를 들어, 본 발명의 일 실시예에 따르면, 관심 객체가 핸드백인 경우를 가정하면, 특정 비교 대상 객체에 관한 그룹 정보에는, 그 특정 비교 대상 객체와 디자인이 유사한 비교 대상 객체들 중에서, 사이즈, 캔버스, 재질, 색깔 및 패턴 중 적어도 하나가 다른 비교 대상 객체에 관한 식별 정보가 포함될 수 있다. 여기서, 본 발명의 일 실시예에 따르면, 위의 특정 비교 대상 객체와 디자인이 유사한 비교 대상 객체들은 위의 특정 비교 대상 객체의 식별 정보를 참조하여 결정(예를 들면, 위의 특정 비교 대상 객체의 모델명과 일부가 일치하는 모델명을 갖는 다른 비교 대상 객체를 디자인이 유사한 비교 대상 객체로서 결정)될 수 있고, 사람이나 외부 시스템에 의하여 분류되어 비교 대상 객체 풀에 저장될 수 있다.For example, according to an embodiment of the present invention, assuming that the object of interest is a handbag, group information about a specific comparison target object includes a size, a size, At least one of a canvas, a material, a color, and a pattern may include identification information on a comparison target object different from each other. Here, according to an embodiment of the present invention, comparison target objects having similar design to the specific comparison target object are determined with reference to the identification information of the specific comparison target object (eg, of the specific comparison target object above) Another comparison target object having a model name partially identical to the model name may be determined as a comparison target object having a similar design), and may be classified by a person or an external system and stored in a comparison target object pool.
도 14 내지 도 17은 본 발명의 일 실시예에 따라 후보 객체가 도출되는 과정을 예시적으로 나타내는 도면이다.14 to 17 are diagrams exemplarily illustrating a process of deriving a candidate object according to an embodiment of the present invention.
예를 들어, 도 14의 (a) 및 (b)를 참조하면, 위에서 자세히 설명한 바와 같이, 본 발명의 일 실시예에 따른 후보 객체 관리부(220)는, 관심 객체에 관한 비교 대상 객체 풀에 포함되는 비교 대상 객체와 촬영 이미지(1400)에서 검출되는 관심 객체 사이의 유사도를 산출하고, 그 산출되는 유사도에 기초하여 후보 객체(1420 내지 1460)를 도출할 수 있다. 여기서, 본 발명의 일 실시예에 따르면, 각 후보 객체(1420 내지 1460)의 이미지 왼쪽의 숫자는 유사도에 기초한 순위를 나타낼 수 있다. 그리고, 그 숫자를 둘러싸는 도형의 모양이 같으면 같은 그룹에 해당한다는 것을 나타낼 수 있다. 즉, 본 발명의 일 실시예에 따르면, 비교 대상 객체(1420)에 관한 그룹 정보에는 비교 대상 객체(1460)에 관한 식별 정보가 포함될 수 있고, 그 역도 마찬가지이다. 그리고, 관심 객체에 관하여 사용자로부터 획득되는 부분적인 식별 정보로서, 그 관심 객체의 패턴은 모노그램이고 사이즈가 BB라는 식별 정보가 획득된 경우를 가정할 수 있다(1410).For example, referring to (a) and (b) of FIG. 14 , as described in detail above, the
계속하여 예를 들면, 도 15를 참조하면, 본 발명의 일 실시예에 따른 후보 객체 관리부(220)는, 비교 대상 객체의 그룹 정보에 기초하여, 위와 같이 유사도에 기초하여 도출된 후보 객체(1420 내지 1460)의 순위를 조정할 수 있다. 즉, 본 발명의 일 실시예에 따른 후보 객체 관리부(220)는, 위와 같이 유사도에 기초하여 도출된 후보 객체(1420 내지 1460)에 대하여, 같은 그룹에 속하는 후보 객체는 그 그룹에서 유사도를 기준으로 가장 높은 순위에 위치하는 후보 객체의 순위를 따르도록, 유사도에 기초하여 도출된 후보 객체(1420 내지 1460)의 순위를 조정할 수 있다. 예를 들어, 유사도에 기초하여 도출된 후보 객체(1460)의 순위는 같은 그룹에 해당하는 후보 객체 중 가장 높은 순위의 후보 객체(1420)의 순위에 따라 21위에서 1위로 조정될 수 있다(1510). 마찬가지로, 유사도에 기초하여 도출된 후보 객체(1450)의 순위는 같은 그룹에 해당하는 후보 객체 중 가장 높은 순위의 후보 객체(1430)의 순위에 따라 7위에서 2위로 조정될 수 있다(1520).Continuing, for example, referring to FIG. 15 , the
계속하여 예를 들면, 도 16의 (a)를 참조하면, 본 발명의 일 실시예에 따른 후보 객체 관리부(220)는, 위와 같이 비교 대상 객체의 그룹 정보에 기초하여 조정된 후보 객체의 순위를 기준으로, 관심 객체에 관하여 사용자로부터 획득되는 부분적인 식별 정보(1410)에 기초하여 후보 객체를 도출할 수 있다. 예를 들어, 비교 대상 객체의 그룹 정보에 기초하여 조정된 후보 객체(1510 내지 1530) 중에서, 패턴이 모노그램(1410)인 객체들을 후보 객체로서 도출할 수 있다(1610 내지 1630).Continuing, for example, referring to FIG. 16A , the
나아가, 도 16의 (b)를 참조하면, 본 발명의 일 실시예에 따른 후보 객체 관리부(220)는, 위와 같이 도출된 후보 객체(1610 내지 1630)에 관한 그룹 정보에 기초하여, 후보 객체가 속하는 그룹 내에 사이즈가 BB(1410)인 객체가 있다면, 해당 객체를 후보 객체로서 도출할 수도 있다(1640). 또는, 사용자로부터 획득되는 부분적인 식별 정보가 관심 객체의 실측 사이즈에 해당한다면, 본 발명의 일 실시예에 따른 후보 객체 관리부(220)는, 그 실측 사이즈와의 사이즈 차이가 가장 작은 객체를 후보 객체로서 도출할 수도 있다.Furthermore, referring to FIG. 16B , the
다른 예를 들면, 본 발명의 일 실시예에 따른 후보 객체 관리부(220)는, 관심 객체의 특징, 형상 및 패턴에 관한 정보에 기초하여 비교 대상 객체와 위의 관심 객체 사이의 유사도를 산출하고, 그 산출된 유사도에 기초하여 후보 객체를 도출할 수 있다. 그리고, 본 발명의 일 실시예에 따른 후보 객체 관리부(220)는, 그 도출된 후보 객체와 같은 그룹에 속하는 다른 비교 대상 객체 중에서 관심 객체와 색채가 가장 유사한 객체를 후보 객체로서 도출할 수 있다. 여기서, 색채가 유사한 정도는, 본 발명의 일 실시예에 따른 후보 객체 관리부(220)가 관심 객체의 색채에 관한 정보에 기초하여 비교 대상 객체와 위의 관심 객체 사이의 유사도를 산출함으로써 결정될 수 있다.For another example, the
다른 예를 들면, 본 발명의 일 실시예에 따른 후보 객체 관리부(220)는, 관심 객체의 특징, 패턴 및 색채에 관한 정보에 기초하여 비교 대상 객체와 위의 관심 객체 사이의 유사도를 산출하고, 그 산출된 유사도에 기초하여 후보 객체를 도출할 수 있다. 그리고, 본 발명의 일 실시예에 따른 후보 객체 관리부(220)는, 그 도출된 후보 객체 중에서 관심 객체와 형상(예를 들면, 세로 길이가 가로 길이보다 김)이 유사한 객체의 순위가 높아지도록 후보 객체의 순위를 조정할 수 있다. 여기서, 형상이 유사한 정도는, 본 발명의 일 실시예에 따른 후보 객체 관리부(220)가 관심 객체의 형상에 관한 정보에 기초하여 비교 대상 객체와 위의 관심 객체 사이의 유사도를 산출함으로써 결정될 수 있다.For another example, the candidate
또 다른 예를 들면, 도 9 및 도 17을 참조하면, 상술한 바와 같이, 본 발명의 일 실시예에 따른 관심 객체 관리부(210)에 의한 관심 객체(911)의 검출 결과로서, 그 관심 객체의 메인 카테고리는 가방으로 인식되고 서브 카테고리는 동물(또는 고양이)로 인식된 경우를 가정할 수 있다. 이러한 경우에, 본 발명의 일 실시예에 따른 후보 객체 관리부(220)는, 위와 같은 검출 결과에 기초하여, 유사도에 기초하여 도출된 후보 객체의 순위(1710)를 조정할 수 있다(1720).As another example, referring to FIGS. 9 and 17 , as described above, as a result of the detection of the object of
또 다른 예를 들면, 도 10 및 도 17을 참조하면, 상술한 바와 같이, 본 발명의 일 실시예에 따른 관심 객체 관리부(210)에 의한 관심 객체(1021)의 검출 결과로서, 그 관심 객체의 메인 카테고리는 가방으로 인식되고 서브 카테고리는 동물(또는 고양이)로 인식된 경우를 가정할 수 있다. 이러한 경우에, 본 발명의 일 실시예에 따른 후보 객체 관리부(220)는, 위와 같은 검출 결과에 기초하여, 유사도에 기초하여 도출된 후보 객체의 순위(1710)를 조정할 수 있다(1720).As another example, referring to FIGS. 10 and 17 , as described above, as a result of the detection of the object of
한편, 본 발명의 일 실시예에 따른 후보 객체 관리부(220)가 후보 객체를 도출하는 과정은 위에서 설명된 방법에 한정되는 것은 아니고, 본 발명의 목적을 달성할 수 있는 범위 내에서 다양하게 변경될 수 있다.On the other hand, the process of deriving the candidate object by the
한편, 본 발명의 일 실시예에 따른 후보 객체 관리부(220)는, 촬영 이미지에서 검출되는 관심 객체에 관하여 사용자로부터 획득되는 부분적인 식별 정보에 기초하여 비교 대상 객체 풀을 필터링하는 기능을 수행할 수 있다.Meanwhile, the
구체적으로, 본 발명의 일 실시예에 따른 후보 객체 관리부(220)는, 관심 객체에 관한 비교 대상 객체 풀에 포함되는 비교 대상 객체 중에서, 위의 관심 객체에 관하여 사용자로부터 획득되는 부분적인 식별 정보와 연관되는 식별 정보를 갖는 비교 대상 객체를 필터링할 수 있다. 그리고, 그 필터링된 비교 대상 객체 중에서만 후보 객체가 도출되도록 함으로써, 본 발명의 일 실시예에 따른 후보 객체 관리부(210)의 연산량을 줄이고, 위의 도출되는 후보 객체의 정확성을 높일 수 있다.Specifically, the candidate
한편, 본 발명의 일 실시예에 따른 연관도 평가부(미도시됨)는, 촬영 이미지에서 검출되는 관심 객체와 그 검출되는 관심 객체에 관하여 사용자로부터 획득되는 부분적인 식별 정보 사이의 연관도를 평가하는 기능을 수행할 수 있다.Meanwhile, the relevance evaluation unit (not shown) according to an embodiment of the present invention evaluates the degree of relevance between the object of interest detected in the captured image and partial identification information obtained from the user with respect to the detected object of interest. function can be performed.
구체적으로, 본 발명의 일 실시예에 따른 관심 객체 관리부(210)에 의하여 촬영 이미지에서 관심 객체가 검출되면, 본 발명의 일 실시예에 따른 연관도 평가부는, 위의 검출되는 관심 객체와 위의 검출되는 관심 객체에 관하여 사용자로부터 획득되는 부분적인 식별 정보가 서로 연관되는 정도를 평가할 수 있다. 나아가, 본 발명의 일 실시예에 따른 연관도 평가부는, 위의 평가되는 연관도에 기초하여 위의 사용자에게 피드백을 제공할 수도 있다.Specifically, when an object of interest is detected from a photographed image by the object of
예를 들어, 본 발명의 일 실시예에 따른 관심 객체 관리부(210)에 의하여 촬영 이미지에서 검출되는 관심 객체의 카테고리가 루이비통 가방인 경우를 가정할 수 있다. 이러한 경우에, 위의 검출되는 관심 객체에 관하여 사용자로부터 획득되는 부분적인 식별 정보가 샤넬이라면, 본 발명의 일 실시예에 따른 연관도 평가부는, 위의 관심 객체와 위의 사용자로부터 획득되는 부분적인 식별 정보 사이의 연관도가 소정 수준 이하라고 평가할 수 있다. 그리고, 위의 사용자에게 위의 관심 객체에 관한 촬영 이미지를 다시 제공하거나 위의 사용자로부터 획득되는 부분적인 식별 정보(예를 들면, 브랜드)를 다시 선택 또는 입력할 것을 피드백으로서 요구할 수 있다.For example, it may be assumed that the category of the object of interest detected in the captured image by the object of
한편, 본 발명의 일 실시예에 따른 연관도 평가부가 위에서 설명된 연관도를 평가하는 기능은, 본 발명의 일 실시예에 따른 관심 객체 관리부(210), 후보 객체 관리부(220) 및 가격 관리부(230)에 의하여 수행되는 여러 기능과 병렬적 및/또는 독립적으로 수행될 수 있는 것으로 이해되어야 한다.On the other hand, the function for the relevance evaluation unit according to an embodiment of the present invention to evaluate the degree of relevance described above includes the object of
다음으로, 본 발명의 일 실시예에 따른 가격 관리부(230)는, 본 발명의 일 실시예에 따른 후보 객체 관리부(220)에 의하여 도출되는 후보 객체에 관한 식별 정보를 참조하여 결정되는 관심 객체에 관한 식별 정보 및 위의 관심 객체에 관하여 획득되는 상태 정보에 기초하여 위의 관심 객체의 가격을 추정하는 기능을 수행할 수 있다.Next, the
구체적으로, 본 발명의 일 실시예에 따른 가격 관리부(230)는, 본 발명의 일 실시예에 따른 후보 객체 관리부(220)에 의하여 도출되는 후보 객체에 관한 식별 정보를 참조하여 관심 객체에 관한 식별 정보를 결정할 수 있다. 본 발명의 일 실시예에 따르면, 관심 객체에 관한 식별 정보란, 상술한 바와 같이, 관심 객체의 가격을 추정하기 위하여 필요한 정보로서, 구체적인 모델명과 같이 해당 관심 객체를 다른 객체와 구별하여 특정할 수 있는 정보를 의미할 수 있다.Specifically, the
예를 들면, 본 발명의 일 실시예에 따른 가격 관리부(230)는, 후보 객체 중에서 가장 높은 순위의 객체에 관한 식별 정보를 관심 객체에 관한 식별 정보로서 결정할 수 있다. 다른 예를 들면, 본 발명의 일 실시예에 따른 가격 관리부(230)는, 후보 객체 중에서 사용자로부터 선택되는 객체에 관한 식별 정보를 관심 객체에 관한 식별 정보로서 결정할 수도 있다.For example, the
계속하면, 본 발명의 일 실시예에 따른 관심 객체 관리부(210)에 의하여 검출되는 관심 객체에 관하여 획득되는 상태 정보에는, 위의 관심 객체에 관하여 사용자로부터 획득되는 상태 정보가 포함될 수 있다. 즉, 본 발명의 일 실시예에 따르면, 위에서 도 13의 (b) 및 (c)를 참조하여 설명한 바와 같이, 관심 객체에 관하여 획득되는 상태 정보는 사용자로부터 획득될 수 있고, 이렇게 사용자로부터 획득되는 상태 정보를 학습 데이터로 하여 학습되는 인공 지능 기반의 상태 정보 추정 모델에 기초하여 획득될 수도 있다.Continuing, the state information obtained with respect to the object of interest detected by the object-of-
보다 구체적으로, 본 발명의 일 실시예에 따른 관심 객체 관리부(210)는, 위의 상태 정보 추정 모델에 기초하여 관심 객체에 존재하는 스크래치, 얼룩, 노후화된 부분 등의 위치, 크기 및/또는 그 정도를 추정함으로써 위의 관심 객체에 관한 상태 정보를 획득할 수 있다. 그리고, 본 발명의 일 실시예에 따른 가격 관리부(230)는, 위와 같이 관심 객체에 관하여 획득되는 상태 정보 및 위의 관심 객체에 관한 식별 정보에 기초하여 위의 관심 객체의 품질을 평가할 수 있다. 본 발명의 일 실시예에 따르면, 위와 같이 평가되는 관심 객체의 품질은, 정량적인 수치를 의미할 수 있고, 상, 중 및 하와 같이 구분되는 등급을 의미할 수도 있으나, 이에 제한되는 것은 아니다.More specifically, the object-of-
예를 들어, 관심 객체가 가방인 경우에, 본 발명의 일 실시예에 따른 가격 관리부(230)는, 스크래치(또는 얼룩, 노후화된 부분 등)의 위치(예를 들면, 스크래치가 가방의 전면에 있는 경우에는 스크래치가 바닥면에 있는 경우보다 낮은 품질로 평가될 수 있음), 크기, 가죽의 색상(흰색 가죽은 검은색 가죽보다 스크래치가 눈에 잘 띄므로, 흰색 가죽에 스크래치가 있는 경우에는 검은색 가죽에 스크래치가 있는 경우보다 낮은 품질로 평가될 수 있음), 가죽의 종류 등과 같은 평가 요소들에 기초하여 위의 관심 객체의 품질을 평가할 수 있다. 이때, 본 발명의 일 실시예에 따른 관심 가격 관리부(230)는, 위의 평가 요소별로 부여된 소정의 가중치를 참조하여 위의 관심 객체의 품질을 평가할 수 있다.For example, if the object of interest is a bag, the
계속하면, 본 발명의 일 실시예에 따른 가격 관리부(230)는, 관심 객체에 관한 식별 정보에 기초하여 비교 대상 객체 풀로부터 위의 관심 객체에 대응되는 비교 대상 객체의 가격 정보(예를 들면, 공식 가격, 중고품의 가격 등)를 획득할 수 있다. 본 발명의 일 실시예에 따르면, 위의 가격 정보는 웹 크롤링 등의 방법으로 실시간으로 수집되는 것일 수 있다. 그리고, 본 발명의 일 실시예에 따른 가격 관리부(230)는, 위와 같이 관심 객체에 관하여 획득되는 상태 정보에 기초하여 위의 관심 객체의 품질이 평가되면, 그 평가된 품질 및 위의 가격 정보를 참조하여 위의 관심 객체의 가격을 추정할 수 있다.Continuing, the
한편, 본 발명의 일 실시예에 따른 가격 관리부(230)는, 촬영 이미지에서 검출되는 관심 객체의 인기도에 더 기초하여 위의 관심 객체의 가격을 추정할 수 있다.Meanwhile, the
구체적으로, 본 발명의 일 실시예에 따르면, 관심 객체의 인기도에는 그 관심 객체 자체의 인기도 및 그 관심 객체가 속하는 브랜드의 인기도가 포함될 수 있다. 그리고, 본 발명의 일 실시예에 따른 가격 관리부(230)는, 검색 엔진의 검색 빈도수(예를 들면, 특정 기간 내의 검색 빈도수의 증감), SNS의 해시 태그의 검색 빈도수, 온라인 커뮤니티의 게시글, 댓글 등의 정보를 참조하여 위의 관심 객체의 인기도를 결정할 수 있다.Specifically, according to an embodiment of the present invention, the popularity of the object of interest may include the popularity of the object of interest itself and the popularity of a brand to which the object of interest belongs. And, the
한편, 본 발명의 일 실시예에 따른 가격 관리부(230)는, 위와 같이 촬영 이미지에서 검출되는 관심 객체의 가격을 추정하고, 그 추정된 가격을 사용자에게 제공할 수 있다.Meanwhile, the
예를 들어, 본 발명의 일 실시예에 따른 후보 객체 관리부(220)에 의하여 복수의 후보 객체가 도출된 경우에, 본 발명의 일 실시예에 따른 후보 객체 관리부(220)는 그 도출된 복수의 후보 객체의 이미지 및 식별 정보를 사용자에게 제공할 수 있다. 그리고, 사용자가 위의 복수의 후보 객체 중에서 관심 객체에 대응되는 객체(즉, 관심 객체와 같은 종류의 객체)를 선택하면, 본 발명의 일 실시예에 따른 가격 관리부(230)는, 그 선택된 객체의 식별 정보를 위의 관심 객체에 관한 식별 정보로서 결정하고, 위의 관심 객체에 관한 식별 정보 및 위의 관심 객체에 관하여 획득되는 상태 정보에 기초하여 추정되는 위의 관심 객체의 가격을 사용자에게 제공할 수 있다.For example, when a plurality of candidate objects are derived by the candidate
한편, 본 발명의 일 실시예에 따른 가격 관리부(230)는, 촬영 이미지에 포함되는 메타데이터에 기초하여 사용자에게 제공될 가격의 표시 단위를 결정할 수 있다. 예를 들어, 본 발명의 일 실시예에 따른 가격 관리부(230)는, 촬영 이미지가 촬영된 국가 정보(즉, 메타데이터)에 기초하여 해당 국가에서 사용되는 통화(예를 들면, 달러화, 원화 등)를 위의 사용자에게 제공될 가격의 표시 단위로서 결정할 수 있다.Meanwhile, the
다음으로, 본 발명의 일 실시예에 따른 통신부(240)는 관심 객체 관리부(210), 후보 객체 관리부(220) 및 가격 관리부(230)로부터의/로의 데이터 송수신이 가능하도록 하는 기능을 수행할 수 있다.Next, the
마지막으로, 본 발명의 일 실시예에 따른 제어부(250)는 관심 객체 관리부(210), 후보 객체 관리부(220), 가격 관리부(230) 및 통신부(240) 간의 데이터의 흐름을 제어하는 기능을 수행할 수 있다. 즉, 본 발명에 따른 제어부(250)는 객체 정보 추정 시스템(200)의 외부로부터의/로의 데이터 흐름 또는 객체 정보 추정 시스템(200)의 각 구성요소 간의 데이터 흐름을 제어함으로써, 관심 객체 관리부(210), 후보 객체 관리부(220), 가격 관리부(230) 및 통신부(240)에서 각각 고유 기능을 수행하도록 제어할 수 있다.Finally, the
이상 설명된 본 발명에 따른 실시예는 다양한 컴퓨터 구성요소를 통하여 실행될 수 있는 프로그램 명령어의 형태로 구현되어 컴퓨터 판독 가능한 기록 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능한 기록 매체는 프로그램 명령어, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 컴퓨터 판독 가능한 기록 매체에 기록되는 프로그램 명령어는 본 발명을 위하여 특별히 설계되고 구성된 것이거나 컴퓨터 소프트웨어 분야의 당업자에게 공지되어 사용 가능한 것일 수 있다. 컴퓨터 판독 가능한 기록 매체의 예에는, 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체, CD-ROM 및 DVD와 같은 광기록 매체, 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical medium), 및 ROM, RAM, 플래시 메모리 등과 같은, 프로그램 명령어를 저장하고 실행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령어의 예에는, 컴파일러에 의하여 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용하여 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드도 포함된다. 하드웨어 장치는 본 발명에 따른 처리를 수행하기 위하여 하나 이상의 소프트웨어 모듈로 변경될 수 있으며, 그 역도 마찬가지이다.The embodiments according to the present invention described above may be implemented in the form of program instructions that can be executed through various computer components and recorded in a computer-readable recording medium. The computer-readable recording medium may include program instructions, data files, data structures, etc. alone or in combination. The program instructions recorded on the computer-readable recording medium may be specially designed and configured for the present invention or may be known and used by those skilled in the computer software field. Examples of the computer-readable recording medium include hard disks, magnetic media such as floppy disks and magnetic tapes, optical recording media such as CD-ROMs and DVDs, and magneto-optical media such as floppy disks. medium), and hardware devices specially configured to store and execute program instructions, such as ROM, RAM, flash memory, and the like. Examples of program instructions include not only machine language codes such as those generated by a compiler, but also high-level language codes that can be executed by a computer using an interpreter or the like. A hardware device may be converted into one or more software modules to perform processing in accordance with the present invention, and vice versa.
이상에서 본 발명이 구체적인 구성요소 등과 같은 특정 사항과 한정된 실시예 및 도면에 의하여 설명되었으나, 이는 본 발명의 보다 전반적인 이해를 돕기 위하여 제공된 것일 뿐, 본 발명이 상기 실시예에 한정되는 것은 아니며, 본 발명이 속하는 기술분야에서 통상적인 지식을 가진 자라면 이러한 기재로부터 다양한 수정과 변경을 꾀할 수 있다.In the above, the present invention has been described with reference to specific matters such as specific components and limited embodiments and drawings, but these are only provided to help a more general understanding of the present invention, and the present invention is not limited to the above embodiments, Those of ordinary skill in the art to which the invention pertains can make various modifications and changes from these descriptions.
따라서, 본 발명의 사상은 상기 설명된 실시예에 국한되어 정해져서는 아니 되며, 후술하는 특허청구범위뿐만 아니라 이 특허청구범위와 균등한 또는 이로부터 등가적으로 변경된 모든 범위는 본 발명의 사상의 범주에 속한다고 할 것이다.Therefore, the spirit of the present invention should not be limited to the above-described embodiments, and the scope of the spirit of the present invention is not limited to the scope of the scope of the present invention. will be said to belong to
100: 통신망
200: 객체 정보 추정 시스템
210: 관심 객체 관리부
220: 후보 객체 관리부
230: 가격 관리부
240: 통신부
250: 제어부
300: 디바이스100: communication network
200: object information estimation system
210: object of interest management unit
220: candidate object management unit
230: price control department
240: communication department
250: control unit
300: device
Claims (18)
상기 관심 객체 관리부가, 촬영 이미지가 획득되면, 상기 촬영 이미지에서 관심 객체를 검출하고, 상기 후보 객체 관리부가, 상기 검출되는 관심 객체에 관한 비교 대상 객체 풀(Pool)에 포함되는 비교 대상 객체 중에서 후보 객체를 도출하는 단계, 및
상기 가격 관리부가, 상기 도출되는 후보 객체에 관한 식별 정보를 참조하여 결정되는 관심 객체에 관한 식별 정보 및 상기 검출되는 관심 객체에 관하여 획득되는 상태 정보에 기초하여 상기 검출되는 관심 객체의 가격을 추정하는 단계를 포함하고,
상기 도출 단계는, 상기 후보 객체 관리부가, 상기 비교 대상 객체와 상기 검출되는 관심 객체 사이의 유사도를 산출하는 단계를 포함하고,
상기 후보 객체는 상기 산출되는 유사도에 기초하여 도출되고,
상기 산출 단계에서, 상기 후보 객체 관리부가, 상기 검출되는 관심 객체의 적어도 일부와 상기 비교 대상 객체에 대하여 기설정된 관심 영역을 서로 비교하여 상기 유사도를 산출하고,
상기 검출되는 관심 객체의 적어도 일부는 상기 비교 대상 객체에 대하여 기설정된 관심 영역에 대응되고,
상기 도출 단계에서, 상기 관심 객체 관리부가, 상기 검출되는 관심 객체에 관한 유효성에 기초하여 상기 후보 객체를 도출할지 여부를 결정하고,
상기 도출 단계에서, 상기 관심 객체 관리부가, 상기 촬영 이미지에서 검출되는 상기 관심 객체의 개수, 상기 촬영 이미지에서 검출되는 상기 관심 객체의 경계 영역의 크기, 상기 촬영 이미지에서 검출되는 상기 관심 객체의 경계 영역과 상기 촬영 이미지에서 검출되는 다른 객체의 경계 영역 사이의 관계 및 상기 촬영 이미지에서 비관심 객체가 검출되는지 여부 중 적어도 하나를 참조하여 상기 검출되는 관심 객체에 관한 유효성을 판단하고,
상기 관심 객체 관리부가, 상기 관심 객체의 손상된 부분의 위치, 상기 손상된 부분의 모양, 상기 손상된 부분의 크기 및 상기 손상된 부분의 손상된 정도 중 적어도 하나에 관하여 사용자로부터 입력받음으로써 상기 관심 객체에 관한 상태 정보를 획득하고,
상기 손상된 부분의 위치 및 상기 손상된 부분의 모양은, 상기 관심 객체 관리부가, 상기 손상된 부분의 위치 및 상기 손상된 부분의 모양 중 적어도 하나가 상기 사용자에 의하여 상기 촬영 이미지 상에 표시되도록 함으로써 입력받고,
상기 손상된 부분의 크기 및 상기 손상된 부분의 손상된 정도는, 상기 관심 객체 관리부가, 상기 손상된 부분의 크기 및 상기 손상된 부분의 손상된 정도 중 적어도 하나를 가늠할 수 있는 그래픽 객체가 상기 사용자에 의하여 선택되도록 함으로써 입력받는
방법.A method implemented in an object information estimation system for estimating information about an object, wherein the system includes an object of interest management unit, a candidate object management unit, and a price management unit;
When the captured image is obtained, the object of interest manager detects an object of interest from the captured image, and the candidate object manager includes a candidate among comparison objects included in a comparison object pool for the detected object of interest. deriving an object, and
estimating, by the price management unit, the price of the detected object of interest based on identification information on the object of interest determined with reference to the derived identification information on the candidate object and status information obtained with respect to the detected object of interest comprising steps;
The deriving step includes calculating, by the candidate object manager, a degree of similarity between the comparison target object and the detected object of interest,
The candidate object is derived based on the calculated similarity,
In the calculating step, the candidate object manager calculates the degree of similarity by comparing at least a portion of the detected object of interest and a preset area of interest with respect to the comparison target object,
At least a portion of the detected object of interest corresponds to a region of interest preset with respect to the comparison target object,
In the derivation step, the object-of-interest management unit determines whether to derive the candidate object based on validity with respect to the detected object of interest,
In the derivation step, the object-of-interest manager is configured to: the number of the objects of interest detected in the captured image, the size of the boundary region of the object of interest detected in the photographed image, and the boundary region of the object of interest detected in the photographed image and determining validity of the detected object of interest by referring to at least one of a relationship between a boundary region of another object detected in the photographed image and whether an uninterested object is detected in the photographed image,
State information about the object of interest by the object-of-interest management unit receiving input from a user regarding at least one of a location of a damaged portion of the object of interest, a shape of the damaged portion, a size of the damaged portion, and a degree of damage to the damaged portion to obtain,
The location of the damaged part and the shape of the damaged part are input by the object-of-interest management unit, so that at least one of the location of the damaged part and the shape of the damaged part is displayed on the photographed image by the user,
The size of the damaged part and the degree of damage of the damaged part are input by the object-of-interest management unit allowing the user to select a graphic object capable of estimating at least one of the size of the damaged part and the damage degree of the damaged part. subject
Way.
상기 시스템은 연관도 평가부를 더 포함하고,
상기 도출 단계는, 상기 연관도 평가부가, 상기 검출되는 관심 객체에 관하여 사용자로부터 획득되는 부분적인 식별 정보와 상기 검출되는 관심 객체 사이의 연관도를 평가하는 단계를 포함하는
방법.According to claim 1,
The system further comprises a relevance evaluation unit,
The deriving step includes, by the association evaluation unit, evaluating a degree of association between partial identification information obtained from a user with respect to the detected object of interest and the detected object of interest
Way.
상기 평가되는 연관도에 기초하여 상기 사용자에게 피드백을 제공하는 단계를 더 포함하는
방법.4. The method of claim 3,
Further comprising the step of providing feedback to the user based on the evaluated degree of relevance
Way.
상기 비교 대상 객체 풀은, 상기 검출되는 관심 객체에 관하여 사용자로부터 획득되는 부분적인 식별 정보에 기초하여 필터링되는
방법.According to claim 1,
The comparison object pool is filtered based on partial identification information obtained from a user with respect to the detected object of interest.
Way.
상기 산출 단계에서, 상기 검출되는 관심 객체에 대하여 특징, 형상, 패턴 및 색채 중 적어도 하나에 관한 정보를 도출하고, 상기 유사도는 상기 도출되는 특징, 형상, 패턴 및 색채 중 적어도 하나에 관한 정보에 각각 기초하여 산출되는
방법.According to claim 1,
In the calculating step, information on at least one of a feature, a shape, a pattern, and a color is derived with respect to the detected object of interest, and the degree of similarity is based on information about at least one of the derived feature, shape, pattern, and color, respectively. calculated based on
Way.
상기 획득되는 촬영 이미지는, 촬영에 관한 지침에 기초하여 촬영되는 이미지인
방법.According to claim 1,
The obtained photographed image is an image photographed based on a photographing guideline.
Way.
상기 도출 단계에서, 상기 도출이 수행되기 전에 상기 획득되는 촬영 이미지를 전처리하는
방법.According to claim 1,
In the derivation step, before the derivation is performed, the obtained captured image is pre-processed
Way.
상기 전처리는, 상기 획득되는 촬영 이미지에 포함되는 메타데이터에 기초하여 수행되는
방법.11. The method of claim 10,
The pre-processing is performed based on metadata included in the captured image.
Way.
상기 검출 결과에는, 상기 검출되는 관심 객체에 관한 메인 카테고리 및 서브 카테고리가 포함되는
방법.According to claim 1,
The detection result includes a main category and a sub-category related to the detected object of interest.
Way.
상기 도출 단계에서, 상기 관심 객체에 관하여 사용자로부터 획득되는 검출 영역을 참조하여 상기 촬영 이미지에서 상기 관심 객체를 검출하는
방법.According to claim 1,
In the derivation step, detecting the object of interest from the captured image with reference to a detection area obtained from a user with respect to the object of interest
Way.
상기 도출 단계에서, 상기 관심 객체는 관심 객체 검출 모델에 기초하여 검출되고,
상기 관심 객체 검출 모델은, 상기 획득되는 검출 영역을 학습 데이터로 하여 학습되는
방법.14. The method of claim 13,
In the derivation step, the object of interest is detected based on the object of interest detection model,
The object of interest detection model is learned by using the obtained detection region as learning data.
Way.
상기 사용자로부터 획득되는 상기 관심 객체에 관한 상태 정보는, 상기 관심 객체에 관한 상태 정보를 추정하는 상태 정보 추정 모델의 학습 데이터로서 활용되는
방법.According to claim 1,
The state information about the object of interest obtained from the user is used as learning data of a state information estimation model for estimating state information about the object of interest.
Way.
상기 추정 단계에서, 상기 검출되는 관심 객체의 인기도에 더 기초하여 상기 관심 객체의 가격을 추정하는
방법.According to claim 1,
In the estimation step, estimating the price of the object of interest further based on the popularity of the detected object of interest
Way.
촬영 이미지가 획득되면, 상기 촬영 이미지에서 관심 객체를 검출하고, 상기 검출되는 관심 객체에 관하여 상태 정보를 획득하는 관심 객체 관리부,
상기 검출되는 관심 객체에 관한 비교 대상 객체 풀(Pool)에 포함되는 비교 대상 객체 중에서 후보 객체를 도출하는 후보 객체 관리부, 및
상기 도출되는 후보 객체에 관한 식별 정보를 참조하여 결정되는 관심 객체에 관한 식별 정보 및 상기 획득되는 상태 정보에 기초하여 상기 검출되는 관심 객체의 가격을 추정하는 가격 관리부를 포함하고,
상기 후보 객체 관리부는, 상기 비교 대상 객체와 상기 검출되는 관심 객체 사이의 유사도를 산출하고,
상기 후보 객체는 상기 산출되는 유사도에 기초하여 도출되고,
상기 후보 객체 관리부는, 상기 검출되는 관심 객체의 적어도 일부와 상기 비교 대상 객체에 대하여 기설정된 관심 영역을 서로 비교하여 상기 유사도를 산출하고,
상기 검출되는 관심 객체의 적어도 일부는 상기 비교 대상 객체에 대하여 기설정된 관심 영역에 대응되고,
상기 관심 객체 관리부는, 상기 검출되는 관심 객체에 관한 유효성에 기초하여 상기 후보 객체를 도출할지 여부를 결정하고,
상기 관심 객체 관리부는, 상기 촬영 이미지에서 검출되는 상기 관심 객체의 개수, 상기 촬영 이미지에서 검출되는 상기 관심 객체의 경계 영역의 크기, 상기 촬영 이미지에서 검출되는 상기 관심 객체의 경계 영역과 상기 촬영 이미지에서 검출되는 다른 객체의 경계 영역 사이의 관계 및 상기 촬영 이미지에서 비관심 객체가 검출되는지 여부 중 적어도 하나를 참조하여 상기 검출되는 관심 객체에 관한 유효성을 판단하고,
상기 관심 객체 관리부가, 상기 관심 객체의 손상된 부분의 위치, 상기 손상된 부분의 모양, 상기 손상된 부분의 크기 및 상기 손상된 부분의 손상된 정도 중 적어도 하나에 관하여 사용자로부터 입력받음으로써 상기 관심 객체에 관한 상태 정보를 획득하고,
상기 손상된 부분의 위치 및 상기 손상된 부분의 모양은, 상기 관심 객체 관리부가, 상기 손상된 부분의 위치 및 상기 손상된 부분의 모양 중 적어도 하나가 상기 사용자에 의하여 상기 촬영 이미지 상에 표시되도록 함으로써 입력받고,
상기 손상된 부분의 크기 및 상기 손상된 부분의 손상된 정도는, 상기 관심 객체 관리부가, 상기 손상된 부분의 크기 및 상기 손상된 부분의 손상된 정도 중 적어도 하나를 가늠할 수 있는 그래픽 객체가 상기 사용자에 의하여 선택되도록 함으로써 입력받는
시스템.A system for estimating information about an object, comprising:
an object of interest manager configured to detect an object of interest from the captured image when a captured image is obtained, and obtain state information about the detected object of interest;
a candidate object manager for deriving a candidate object from among comparison target objects included in a comparison target object pool for the detected object of interest; and
a price management unit estimating the price of the detected object of interest based on the obtained state information and identification information on the object of interest determined with reference to the derived identification information on the candidate object;
The candidate object manager calculates a degree of similarity between the comparison target object and the detected object of interest,
The candidate object is derived based on the calculated similarity,
The candidate object manager calculates the degree of similarity by comparing at least a portion of the detected object of interest with a preset area of interest for the comparison target object,
At least a portion of the detected object of interest corresponds to a region of interest preset with respect to the comparison target object,
The object-of-interest management unit determines whether to derive the candidate object based on validity with respect to the detected object of interest;
The object-of-interest management unit is configured to include: the number of objects of interest detected in the captured image, a size of a boundary area of the object of interest detected in the photographed image, a boundary area of the object of interest detected in the photographed image, and the captured image. determining validity with respect to the detected object of interest by referring to at least one of a relationship between boundary regions of other detected objects and whether an uninterested object is detected in the photographed image,
State information about the object of interest by the object-of-interest management unit receiving input from a user regarding at least one of a location of a damaged portion of the object of interest, a shape of the damaged portion, a size of the damaged portion, and a degree of damage to the damaged portion to obtain,
The location of the damaged part and the shape of the damaged part are input by the object-of-interest management unit, so that at least one of the location of the damaged part and the shape of the damaged part is displayed on the photographed image by the user,
The size of the damaged part and the degree of damage of the damaged part are input by the object-of-interest management unit allowing the user to select a graphic object capable of estimating at least one of the size of the damaged part and the damage degree of the damaged part. subject
system.
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020200039454 | 2020-03-31 | ||
KR20200039454 | 2020-03-31 |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20210122030A KR20210122030A (en) | 2021-10-08 |
KR102384419B1 true KR102384419B1 (en) | 2022-04-12 |
Family
ID=78116043
Family Applications (3)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020200155877A KR102346215B1 (en) | 2020-03-31 | 2020-11-19 | Method, system and non-transitory computer-readable recording medium for estimating information about objects |
KR1020200155876A KR102384419B1 (en) | 2020-03-31 | 2020-11-19 | Method, system and non-transitory computer-readable recording medium for estimating information about objects |
KR1020210190445A KR20220000894A (en) | 2020-03-31 | 2021-12-28 | Method, system and non-transitory computer-readable recording medium for estimating information about objects |
Family Applications Before (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020200155877A KR102346215B1 (en) | 2020-03-31 | 2020-11-19 | Method, system and non-transitory computer-readable recording medium for estimating information about objects |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020210190445A KR20220000894A (en) | 2020-03-31 | 2021-12-28 | Method, system and non-transitory computer-readable recording medium for estimating information about objects |
Country Status (1)
Country | Link |
---|---|
KR (3) | KR102346215B1 (en) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102602167B1 (en) * | 2021-11-05 | 2023-11-13 | 한국기술교육대학교 산학협력단 | Deep learning-based MLCC stacked alignment inspection system and method |
KR102488953B1 (en) * | 2022-03-16 | 2023-01-17 | 주식회사 보띠에 | System for providing pre-owned luxury checking service using colorbook |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100827849B1 (en) * | 2007-08-08 | 2008-06-10 | (주)올라웍스 | Method and apparatus for retrieving information on goods attached to human body in image-data |
KR101034117B1 (en) * | 2009-11-13 | 2011-05-13 | 성균관대학교산학협력단 | A method and apparatus for recognizing the object using an interested area designation and outline picture in image |
KR101678970B1 (en) * | 2015-04-14 | 2016-11-24 | 유미나 | Method for appraising item |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2879130B2 (en) * | 1994-04-14 | 1999-04-05 | 株式会社エヌ・ティ・ティ・データ | Article identification system and method |
US9195898B2 (en) * | 2009-04-14 | 2015-11-24 | Qualcomm Incorporated | Systems and methods for image recognition using mobile devices |
CN105844128B (en) * | 2015-01-15 | 2021-03-02 | 北京三星通信技术研究有限公司 | Identity recognition method and device |
KR20170038378A (en) * | 2015-09-30 | 2017-04-07 | 삼성전자주식회사 | Electronic device for processing image and method for controlling thereof |
KR20170112847A (en) * | 2016-03-28 | 2017-10-12 | 삼성전자주식회사 | Method and apparatus for providing information about object |
KR20200024534A (en) * | 2018-08-28 | 2020-03-09 | 십일번가 주식회사 | Supporting Method for Searching of Goods and service device, and terminal device thereof |
-
2020
- 2020-11-19 KR KR1020200155877A patent/KR102346215B1/en active IP Right Grant
- 2020-11-19 KR KR1020200155876A patent/KR102384419B1/en active IP Right Grant
-
2021
- 2021-12-28 KR KR1020210190445A patent/KR20220000894A/en active Application Filing
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100827849B1 (en) * | 2007-08-08 | 2008-06-10 | (주)올라웍스 | Method and apparatus for retrieving information on goods attached to human body in image-data |
KR101034117B1 (en) * | 2009-11-13 | 2011-05-13 | 성균관대학교산학협력단 | A method and apparatus for recognizing the object using an interested area designation and outline picture in image |
KR101678970B1 (en) * | 2015-04-14 | 2016-11-24 | 유미나 | Method for appraising item |
Also Published As
Publication number | Publication date |
---|---|
KR20210122031A (en) | 2021-10-08 |
KR20220000894A (en) | 2022-01-04 |
KR20210122030A (en) | 2021-10-08 |
KR102346215B1 (en) | 2022-01-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11335092B2 (en) | Item identification method, system and electronic device | |
CN105528604B (en) | A kind of bill automatic identification and processing system based on OCR | |
CN105956578B (en) | A kind of face verification method of identity-based certificate information | |
Noh et al. | A new framework for background subtraction using multiple cues | |
US9842266B2 (en) | Method for detecting driver cell phone usage from side-view images | |
KR20220000894A (en) | Method, system and non-transitory computer-readable recording medium for estimating information about objects | |
Zhang et al. | Toward new retail: A benchmark dataset for smart unmanned vending machines | |
US8498454B2 (en) | Optimal subspaces for face recognition | |
KR101835333B1 (en) | Method for providing face recognition service in order to find out aging point | |
JP6351243B2 (en) | Image processing apparatus and image processing method | |
US20130223726A1 (en) | Method and apparatus of classification and object detection, image pickup and processing device | |
US11151583B2 (en) | Shoe authentication device and authentication process | |
CN103902962A (en) | Shielding or light source self-adaption human face recognition method and device | |
US10726358B2 (en) | Identification of individuals and/or times using image analysis | |
CN104794693A (en) | Human image optimization method capable of automatically detecting mask in human face key areas | |
Xing et al. | Traffic sign recognition using guided image filtering | |
CN107533547B (en) | Product indexing method and system | |
CN108830175A (en) | Iris image local enhancement methods, device, equipment and storage medium | |
KR102441562B1 (en) | Smart vending machine with AI-based adult authentication function | |
KR101672814B1 (en) | Method for recognizing gender using random forest | |
CN113762257A (en) | Identification method and device for marks in makeup brand images | |
JP7054760B2 (en) | Object recognition system, location information acquisition method, and program | |
US20220051040A1 (en) | Automatic method to determine the authenticity of a product | |
JP4510562B2 (en) | Circle center position detection method, apparatus, and program | |
CN114511911A (en) | Face recognition method, device and equipment |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E90F | Notification of reason for final refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |