KR102384419B1 - Method, system and non-transitory computer-readable recording medium for estimating information about objects - Google Patents

Method, system and non-transitory computer-readable recording medium for estimating information about objects Download PDF

Info

Publication number
KR102384419B1
KR102384419B1 KR1020200155876A KR20200155876A KR102384419B1 KR 102384419 B1 KR102384419 B1 KR 102384419B1 KR 1020200155876 A KR1020200155876 A KR 1020200155876A KR 20200155876 A KR20200155876 A KR 20200155876A KR 102384419 B1 KR102384419 B1 KR 102384419B1
Authority
KR
South Korea
Prior art keywords
interest
detected
present
management unit
candidate
Prior art date
Application number
KR1020200155876A
Other languages
Korean (ko)
Other versions
KR20210122030A (en
Inventor
김중현
김예슬
윤경민
Original Assignee
주식회사 세컨핸즈
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 세컨핸즈 filed Critical 주식회사 세컨핸즈
Publication of KR20210122030A publication Critical patent/KR20210122030A/en
Application granted granted Critical
Publication of KR102384419B1 publication Critical patent/KR102384419B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/02Marketing; Price estimation or determination; Fundraising
    • G06Q30/0278Product appraisal
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/02Marketing; Price estimation or determination; Fundraising
    • G06Q30/0283Price estimation or determination
    • G06K9/6201
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/018Certifying business or products
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries

Abstract

본 발명의 일 태양에 따르면, 객체에 관한 정보를 추정하기 위한 방법으로서, 촬영 이미지가 획득되면, 상기 촬영 이미지에서 관심 객체를 검출하고, 상기 검출되는 관심 객체에 관한 비교 대상 객체 풀(Pool)에 포함되는 비교 대상 객체 중에서 후보 객체를 도출하는 단계, 및 상기 도출되는 후보 객체에 관한 식별 정보를 참조하여 결정되는 관심 객체에 관한 식별 정보 및 상기 검출되는 관심 객체에 관하여 획득되는 상태 정보에 기초하여 상기 검출되는 관심 객체의 가격을 추정하는 단계를 포함하는 방법이 제공된다.According to an aspect of the present invention, there is provided a method for estimating information about an object, when a photographed image is obtained, an object of interest is detected from the photographed image, and the object of interest is stored in a comparison object pool for the detected object of interest. deriving a candidate object from among included comparison target objects, and based on identification information on the object of interest determined with reference to the derived identification information on the candidate object and state information obtained with respect to the detected object of interest A method is provided that includes estimating a price of a detected object of interest.

Description

객체에 관한 정보를 추정하기 위한 방법, 시스템 및 비일시성의 컴퓨터 판독 가능한 기록 매체{METHOD, SYSTEM AND NON-TRANSITORY COMPUTER-READABLE RECORDING MEDIUM FOR ESTIMATING INFORMATION ABOUT OBJECTS}A method for estimating information about an object, a system and a non-transitory computer-readable recording medium

본 발명은 객체에 관한 정보를 추정하기 위한 방법, 시스템 및 비일시성의 컴퓨터 판독 가능한 기록 매체에 관한 것이다.The present invention relates to a method, a system, and a non-transitory computer-readable recording medium for estimating information about an object.

근래에 들어, 개인 간의 물품 거래(예를 들면, 중고 물품 거래)가 활발해지면서 간편하면서도 신뢰도 높은 방법으로 이러한 거래가 이루어질 수 있도록 지원하는 서비스에 대한 수요가 높아지고 있다.In recent years, as goods transactions between individuals (eg, used goods transactions) become more active, the demand for services that support such transactions in a simple and reliable way is increasing.

이에 관한 종래 기술의 일 예로서, 한국등록특허공보 제10-1678970호에 개시된 기술을 예로 들 수 있는데, 이에 따르면, 물품의 부분 이미지 및 전체 이미지를 포함하는 촬영 이미지를 수신하는 단계; 상기 촬영 이미지를 분석하는 단계; 상기 촬영 이미지에 대한 분석 결과를 근거로, 상기 촬영 이미지의 특징점 정보를 추출하는 단계; 상기 특징점 정보와 상기 물품에 대한 기준 정보를 비교함으로써, 상기 물품의 진위 여부와 외관 등급을 결정하는 단계; 및 상기 물품의 진위 여부 및 외관 등급을 근거로, 상기 물품의 평가 금액을 산출하는 단계를 포함하고, 상기 촬영 이미지를 분석하는 단계 이후, 상기 물품에 대한 제품 모델명을 도출하는 단계; 및 상기 제품 모델명을 근거로, 외부 서버 또는 저장부에서 상기 물품의 제품 정보를 검색하는 단계를 더 포함하고, 상기 제품 정보는 상기 물품의 출고가 및 중고가를 포함하는 물품 금액, 제조사, 판매자, 판매처, 출시년도, 제작년도, 색상, 상표, 모델, 등급, 중량, 재질, 형태, 제작자 및 상기 판매처 별 재고량 정보 중 적어도 하나를 포함하며, 상기 촬영 이미지를 수신하는 단계는, 물품의 서지, 보증서, 감정서, 개런티 카드 및 워런티 카드 중 적어도 하나에 대한 촬영 이미지를 수신하는 단계를 더 포함하고, 상기 특징점 정보를 추출하는 단계는, 상기 물품의 서지, 보증서, 감정서, 개런티 카드 및 워런티 카드 중 적어도 하나에 대한 촬영 이미지에 포함된 일련 번호, 레퍼런스 번호, 코드 번호, 바코드, 이미지, 모양 및 문자 중 적어도 하나에 대한 특징점 정보를 추출하는 단계를 더 포함하는 것을 특징으로 한다.As an example of the related art, the technology disclosed in Korean Patent Publication No. 10-1678970 may be given as an example, and according to this, receiving a photographed image including a partial image and an entire image of an article; analyzing the photographed image; extracting feature point information of the captured image based on the analysis result of the captured image; determining the authenticity and appearance grade of the article by comparing the feature point information with reference information about the article; and calculating an evaluation amount of the article based on the authenticity and appearance grade of the article, and after analyzing the photographed image, deriving a product model name for the article; And based on the product model name, further comprising the step of searching for product information of the product in an external server or storage unit, wherein the product information includes the product price, manufacturer, seller, It includes at least one of vendor, release year, production year, color, brand, model, grade, weight, material, shape, manufacturer, and inventory amount information for each vendor, and the step of receiving the photographed image includes: The method further comprising: receiving a photographed image of at least one of an appraisal, a guarantee card, and a warranty card, wherein the extracting of the feature point information comprises at least one of a bibliography of the article, a warranty, an appraisal, a guarantee card, and a warranty card It characterized in that it further comprises the step of extracting feature point information about at least one of a serial number, a reference number, a code number, a barcode, an image, a shape, and a character included in the photographed image.

하지만, 위와 같은 종래 기술을 비롯하여 지금까지 소개된 기술에 의하면, 촬영 이미지에 포함되는 객체를 정확하게 식별하기 위하여 해당 객체에 관한 정보가 자세하게 기재되어 있는 보증서 등이 필요하다거나, 특히 중고 명품의 경우에는 해당 객체의 가치를 정확하게 산출하기 위하여 전문가의 감정이 필요하다는 한계가 있었다.However, according to the techniques introduced so far, including the prior art as described above, in order to accurately identify an object included in a photographed image, a warranty card in which information about the object is described in detail is required, or, in particular, in the case of used luxury goods, There was a limit that an expert's appraisal was needed to accurately calculate the value of the object.

이에 본 발명자(들)는, 간편하면서도 정확하게 촬영 이미지에서 검출되는 객체의 정보를 추정하고, 이를 바탕으로 해당 객체의 가치를 평가하는 기술을 제안하는 바이다.Accordingly, the present inventor(s) proposes a technique for estimating information of an object detected from a photographed image simply and accurately, and evaluating the value of the object based on this.

등록특허공보 제10-1678970호 (2016. 11. 24)Registered Patent Publication No. 10-1678970 (2016. 11. 24)

본 발명은 전술한 종래 기술의 문제점을 모두 해결하는 것을 그 목적으로 한다.An object of the present invention is to solve all of the problems of the prior art described above.

또한, 본 발명은, 촬영 이미지가 획득되면, 위의 촬영 이미지에서 관심 객체를 검출하고, 위의 검출되는 관심 객체에 관한 비교 대상 객체 풀(Pool)에 포함되는 비교 대상 객체 중에서 후보 객체를 도출하고, 위의 도출되는 후보 객체에 관한 식별 정보를 참조하여 결정되는 관심 객체에 관한 식별 정보 및 위의 검출되는 관심 객체에 관하여 획득되는 상태 정보에 기초하여 위의 검출되는 관심 객체의 가격을 추정하는 것을 다른 목적으로 한다.In addition, in the present invention, when a captured image is obtained, an object of interest is detected from the captured image, and a candidate object is derived from among comparison objects included in a comparison object pool with respect to the detected object of interest, and , estimating the price of the detected object of interest based on the identification information on the object of interest determined with reference to the derived identification information on the candidate object and the state information obtained with respect to the detected object of interest for other purposes.

또한, 본 발명은, 간편하면서도 정확하게 촬영 이미지에서 검출되는 객체의 정보를 추정하고, 이를 바탕으로 해당 객체의 가치를 평가함으로써 사용자들 간의 물품 거래가 편리하게 진행될 수 있도록 지원하는 것을 또 다른 목적으로 한다.In addition, another object of the present invention is to conveniently and accurately estimate information on an object detected in a photographed image and evaluate the value of the object based on this to support convenient transaction of goods between users.

상기 목적을 달성하기 위한 본 발명의 대표적인 구성은 다음과 같다.A representative configuration of the present invention for achieving the above object is as follows.

본 발명의 일 태양에 따르면, 촬영 이미지가 획득되면, 상기 촬영 이미지에서 관심 객체를 검출하고, 상기 검출되는 관심 객체에 관한 비교 대상 객체 풀(Pool)에 포함되는 비교 대상 객체 중에서 후보 객체를 도출하는 단계, 및 상기 도출되는 후보 객체에 관한 식별 정보를 참조하여 결정되는 관심 객체에 관한 식별 정보 및 상기 검출되는 관심 객체에 관하여 획득되는 상태 정보에 기초하여 상기 검출되는 관심 객체의 가격을 추정하는 단계를 포함하는 방법이 제공된다.According to an aspect of the present invention, when a captured image is obtained, an object of interest is detected from the captured image, and a candidate object is derived from among comparison objects included in a comparison object pool related to the detected object of interest. estimating the price of the detected object of interest based on identification information on the object of interest determined with reference to the derived identification information on the candidate object and state information obtained with respect to the detected object of interest A method comprising

본 발명의 다른 태양에 따르면, 촬영 이미지가 획득되면, 상기 촬영 이미지에서 관심 객체를 검출하고, 상기 검출되는 관심 객체에 관하여 상태 정보를 획득하는 관심 객체 관리부, 상기 검출되는 관심 객체에 관한 비교 대상 객체 풀(Pool)에 포함되는 비교 대상 객체 중에서 후보 객체를 도출하는 후보 객체 관리부, 및 상기 도출되는 후보 객체에 관한 식별 정보를 참조하여 결정되는 관심 객체에 관한 식별 정보 및 상기 획득되는 상태 정보에 기초하여 상기 검출되는 관심 객체의 가격을 추정하는 가격 관리부를 포함하는 시스템이 제공된다.According to another aspect of the present invention, when a captured image is obtained, an object of interest manager detects an object of interest from the captured image and obtains state information about the detected object of interest, and a comparison target object related to the detected object of interest Based on the obtained state information and the identification information on the object of interest determined by referring to the candidate object management unit for deriving a candidate object from among the comparison objects included in the pool, and identification information on the derived candidate object There is provided a system including a price management unit estimating the price of the detected object of interest.

이 외에도, 본 발명을 구현하기 위한 다른 방법, 다른 시스템 및 상기 방법을 실행하기 위한 컴퓨터 프로그램을 기록하는 비일시성의 컴퓨터 판독 가능한 기록 매체가 더 제공된다.In addition to this, another method for implementing the present invention, another system, and a non-transitory computer-readable recording medium for recording a computer program for executing the method are further provided.

본 발명에 의하면, 촬영 이미지가 획득되면, 위의 촬영 이미지에서 관심 객체를 검출하고, 위의 검출되는 관심 객체에 관한 비교 대상 객체 풀(Pool)에 포함되는 비교 대상 객체 중에서 후보 객체를 도출하고, 위의 도출되는 후보 객체에 관한 식별 정보를 참조하여 결정되는 관심 객체에 관한 식별 정보 및 위의 검출되는 관심 객체에 관하여 획득되는 상태 정보에 기초하여 위의 검출되는 관심 객체의 가격을 추정할 수 있게 된다.According to the present invention, when a photographed image is obtained, an object of interest is detected from the photographed image, and a candidate object is derived from among comparison objects included in a comparison object pool with respect to the detected object of interest, To estimate the price of the detected object of interest based on the identification information on the object of interest determined with reference to the derived identification information on the candidate object and the state information obtained with respect to the detected object of interest do.

또한, 본 발명에 의하면, 간편하면서도 정확하게 촬영 이미지에서 검출되는 객체의 정보를 추정하고, 이를 바탕으로 해당 객체의 가치를 평가함으로써 사용자들 간의 물품 거래가 편리하게 진행될 수 있도록 지원할 수 있게 된다.In addition, according to the present invention, it is possible to conveniently and accurately estimate information on an object detected in a photographed image, and evaluate the value of the object based on this, thereby supporting convenient transaction of goods between users.

도 1은 본 발명의 일 실시예에 따라 객체에 관한 정보를 추정하기 위한 전체 시스템의 개략적인 구성을 나타내는 도면이다.
도 2는 본 발명의 일 실시예에 따른 객체 정보 추정 시스템의 내부 구성을 상세하게 도시하는 도면이다.
도 3 내지 도 5, 도 9 및 도 10은 본 발명의 일 실시예에 따라 관심 객체를 검출하는 과정을 예시적으로 나타내는 도면이다.
도 6 내지 도 8은 본 발명의 일 실시예에 따라 관심 객체와 비교 대상 객체 사이의 유사도를 산출하기 위한 과정을 예시적으로 나타내는 도면이다.
도 11 내지 도 12는 본 발명의 일 실시예에 따라 관심 객체에 관하여 사용자로부터 부분적인 식별 정보를 획득하는 과정을 예시적으로 나타내는 도면이다.
도 13은 본 발명의 일 실시예에 따라 관심 객체에 관하여 사용자로부터 검출 영역 및 상태 정보가 획득되는 과정을 예시적으로 나타내는 도면이다.
도 14 내지 도 17은 본 발명의 일 실시예에 따라 후보 객체가 도출되는 과정을 예시적으로 나타내는 도면이다.
1 is a diagram illustrating a schematic configuration of an entire system for estimating information about an object according to an embodiment of the present invention.
2 is a diagram illustrating in detail an internal configuration of an object information estimation system according to an embodiment of the present invention.
3 to 5, 9 and 10 are diagrams exemplarily illustrating a process of detecting an object of interest according to an embodiment of the present invention.
6 to 8 are diagrams exemplarily illustrating a process for calculating a degree of similarity between an object of interest and a comparison object according to an embodiment of the present invention.
11 to 12 are diagrams exemplarily illustrating a process of obtaining partial identification information from a user with respect to an object of interest according to an embodiment of the present invention.
13 is a diagram exemplarily illustrating a process in which a detection region and state information are obtained from a user with respect to an object of interest according to an embodiment of the present invention.
14 to 17 are diagrams exemplarily illustrating a process of deriving a candidate object according to an embodiment of the present invention.

후술하는 본 발명에 대한 상세한 설명은, 본 발명이 실시될 수 있는 특정 실시예를 예시로서 도시하는 첨부 도면을 참조한다. 이러한 실시예는 당업자가 본 발명을 실시할 수 있기에 충분하도록 상세히 설명된다. 본 발명의 다양한 실시예는 서로 다르지만 상호 배타적일 필요는 없음이 이해되어야 한다. 예를 들어, 본 명세서에 기재되어 있는 특정 형상, 구조 및 특성은 본 발명의 정신과 범위를 벗어나지 않으면서 일 실시예로부터 다른 실시예로 변경되어 구현될 수 있다. 또한, 각각의 실시예 내의 개별 구성요소의 위치 또는 배치도 본 발명의 정신과 범위를 벗어나지 않으면서 변경될 수 있음이 이해되어야 한다. 따라서, 후술하는 상세한 설명은 한정적인 의미로서 행하여지는 것이 아니며, 본 발명의 범위는 특허청구범위의 청구항들이 청구하는 범위 및 그와 균등한 모든 범위를 포괄하는 것으로 받아들여져야 한다. 도면에서 유사한 참조부호는 여러 측면에 걸쳐서 동일하거나 유사한 구성요소를 나타낸다.DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS [0012] DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS [0010] DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS [0010] Reference is made to the accompanying drawings, which show by way of illustration specific embodiments in which the present invention may be practiced. These embodiments are described in sufficient detail to enable those skilled in the art to practice the present invention. It should be understood that the various embodiments of the present invention are different but need not be mutually exclusive. For example, certain shapes, structures, and characteristics described herein may be implemented with changes from one embodiment to another without departing from the spirit and scope of the present invention. In addition, it should be understood that the location or arrangement of individual components within each embodiment may be changed without departing from the spirit and scope of the present invention. Accordingly, the following detailed description is not to be taken in a limiting sense, and the scope of the present invention should be taken as encompassing the scope of the claims and all equivalents thereto. In the drawings, like reference numerals refer to the same or similar elements throughout the various aspects.

이하에서는, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자가 본 발명을 용이하게 실시할 수 있도록 하기 위하여, 본 발명의 여러 바람직한 실시예에 관하여 첨부된 도면을 참조하여 상세히 설명하기로 한다.Hereinafter, various preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings in order to enable those of ordinary skill in the art to easily practice the present invention.

본 명세서에서는, 객체 정보 추정 서비스에 관한 실시예가 중고 가방의 가격 추정에 주로 초점을 맞추어 설명되지만, 해당 서비스가 특정 종류의 물품에만 제한적으로 적용될 수 있는 것은 아니고, 시계, 장신구 등과 같이 거래가 가능한 모든 종류의 물품에 적용될 수 있는 것으로 이해되어야 한다.In this specification, an embodiment of the object information estimation service is mainly described focusing on price estimation of a used bag, but the service is not limitedly applicable only to a specific type of item, and all types of transactions available such as watches, ornaments, etc. It should be understood that it can be applied to the articles of

전체 시스템의 구성Whole system configuration

도 1은 본 발명의 일 실시예에 따라 객체에 관한 정보를 추정하기 위한 전체 시스템의 개략적인 구성을 나타내는 도면이다.1 is a diagram showing a schematic configuration of an entire system for estimating information about an object according to an embodiment of the present invention.

도 1에 도시된 바와 같이, 본 발명의 일 실시예에 따른 전체 시스템은 통신망(100), 객체 정보 추정 시스템(200) 및 디바이스(300)를 포함할 수 있다.As shown in FIG. 1 , the entire system according to an embodiment of the present invention may include a communication network 100 , an object information estimation system 200 , and a device 300 .

먼저, 본 발명의 일 실시예에 따른 통신망(100)은 유선 통신이나 무선 통신과 같은 통신 양태를 가리지 않고 구성될 수 있으며, 근거리 통신망(LAN; Local Area Network), 도시권 통신망(MAN; Metropolitan Area Network), 광역 통신망(WAN; Wide Area Network) 등 다양한 통신망으로 구성될 수 있다. 바람직하게는, 본 명세서에서 말하는 통신망(100)은 공지의 인터넷 또는 월드 와이드 웹(WWW; World Wide Web)일 수 있다. 그러나, 통신망(100)은, 굳이 이에 국한될 필요 없이, 공지의 유무선 데이터 통신망, 공지의 전화망 또는 공지의 유무선 텔레비전 통신망을 그 적어도 일부에 있어서 포함할 수도 있다.First, the communication network 100 according to an embodiment of the present invention may be configured regardless of communication aspects such as wired communication or wireless communication, and includes a local area network (LAN), a metropolitan area network (MAN) ), a wide area network (WAN), etc. may be configured as various communication networks. Preferably, the communication network 100 as used herein may be a well-known Internet or World Wide Web (WWW). However, the communication network 100 is not necessarily limited thereto, and may include a known wired/wireless data communication network, a known telephone network, or a known wired/wireless television communication network in at least a part thereof.

예를 들면, 통신망(100)은 무선 데이터 통신망으로서, 와이파이(WiFi) 통신, 와이파이 다이렉트(WiFi-Direct) 통신, 롱텀 에볼루션(LTE, Long Term Evolution) 통신, 5G 통신, 블루투스 통신(저전력 블루투스(BLE; Bluetooth Low Energy) 통신 포함), 적외선 통신, 초음파 통신 등과 같은 종래의 통신 방법을 적어도 그 일부분에 있어서 구현하는 것일 수 있다. 다른 예를 들면, 통신망(100)은 광 통신망으로서, 라이파이(LiFi, Light Fidelity) 등과 같은 종래의 통신 방법을 적어도 그 일부분에 있어서 구현하는 것일 수 있다.For example, the communication network 100 is a wireless data communication network, such as Wi-Fi communication, Wi-Fi Direct communication, Long Term Evolution (LTE) communication, 5G communication, Bluetooth communication (Low Energy Bluetooth (BLE)) (including Bluetooth Low Energy) communication), infrared communication, ultrasonic communication, and the like, may be implemented in at least a part thereof. As another example, the communication network 100 may be an optical communication network that implements at least a part of a conventional communication method such as LiFi (Light Fidelity).

다음으로, 본 발명의 일 실시예에 따른 객체 정보 추정 시스템(200)은 촬영 이미지가 획득되면, 위의 촬영 이미지에서 관심 객체를 검출하고, 위의 검출되는 관심 객체에 관한 비교 대상 객체 풀(Pool)에 포함되는 비교 대상 객체 중에서 후보 객체를 도출하고, 위의 도출되는 후보 객체에 관한 식별 정보를 참조하여 결정되는 관심 객체에 관한 식별 정보 및 위의 검출되는 관심 객체에 관하여 획득되는 상태 정보에 기초하여 위의 검출되는 관심 객체의 가격을 추정하는 기능을 수행할 수 있다.Next, when a captured image is obtained, the object information estimation system 200 according to an embodiment of the present invention detects an object of interest from the captured image, and a comparison target object pool for the detected object of interest ), based on identification information on the object of interest determined by deriving a candidate object from among the comparison target objects included in Thus, the function of estimating the price of the object of interest detected above may be performed.

본 발명에 따른 객체 정보 추정 시스템(200)의 구성과 기능에 관하여는 이하의 상세한 설명을 통하여 자세하게 알아보기로 한다.The configuration and function of the object information estimation system 200 according to the present invention will be described in detail through the following detailed description.

다음으로, 본 발명의 일 실시예에 따른 디바이스(300)는 객체 정보 추정 시스템(200)에 접속한 후 통신할 수 있는 기능을 포함하는 디지털 기기로서, 스마트폰, 태블릿, 스마트 워치, 스마트 밴드, 스마트 글래스, 데스크탑 컴퓨터, 노트북 컴퓨터, 워크스테이션, PDA, 웹 패드, 이동 전화기 등과 같이 메모리 수단을 구비하고 마이크로 프로세서를 탑재하여 연산 능력을 갖춘 디지털 기기라면 얼마든지 본 발명에 따른 디바이스(300)로서 채택될 수 있다.Next, the device 300 according to an embodiment of the present invention is a digital device including a function to communicate after accessing the object information estimation system 200, a smart phone, a tablet, a smart watch, a smart band, Any digital device equipped with memory means such as smart glasses, desktop computer, notebook computer, workstation, PDA, web pad, mobile phone, etc. and equipped with a microprocessor and equipped with computing power is adopted as the device 300 according to the present invention. can be

특히, 디바이스(300)는, 사용자가 객체 정보 추정 시스템(200)으로부터 객체 정보 추정 등의 서비스를 제공받을 수 있도록 지원하는 애플리케이션(미도시됨)을 포함할 수 있다. 이와 같은 애플리케이션은 객체 정보 추정 시스템(200) 또는 외부의 애플리케이션 배포 서버(미도시됨)로부터 다운로드된 것일 수 있다. 한편, 이러한 애플리케이션의 성격은 후술할 바와 같은 객체 정보 추정 시스템(200)의 관심 객체 관리부(210), 후보 객체 관리부(220), 가격 관리부(230), 통신부(240) 및 제어부(250)와 전반적으로 유사할 수 있다. 여기서, 애플리케이션은 그 적어도 일부가 필요에 따라 그것과 실질적으로 동일하거나 균등한 기능을 수행할 수 있는 하드웨어 장치나 펌웨어 장치로 치환될 수도 있다.In particular, the device 300 may include an application (not shown) that supports a user to receive a service, such as object information estimation, from the object information estimation system 200 . Such an application may be downloaded from the object information estimation system 200 or an external application distribution server (not shown). On the other hand, the nature of this application is the object of interest management unit 210, the candidate object management unit 220, the price management unit 230, the communication unit 240 and the control unit 250 of the object information estimation system 200 to be described later and overall can be similar to Here, at least a part of the application may be replaced with a hardware device or a firmware device capable of performing substantially the same or equivalent function as the application, if necessary.

객체 정보 추정 시스템의 구성Composition of object information estimation system

이하에서는, 본 발명의 구현을 위하여 중요한 기능을 수행하는 객체 정보 추정 시스템(200)의 내부 구성과 각 구성요소의 기능에 대하여 살펴보기로 한다.Hereinafter, the internal configuration of the object information estimation system 200 that performs an important function for the implementation of the present invention and the function of each component will be described.

도 2는 본 발명의 일 실시예에 따른 객체 정보 추정 시스템(200)의 내부 구성을 상세하게 도시하는 도면이다.2 is a diagram illustrating in detail the internal configuration of the object information estimation system 200 according to an embodiment of the present invention.

도 2에 도시된 바와 같이, 본 발명의 일 실시예에 따른 객체 정보 추정 시스템(200)은, 관심 객체 관리부(210), 후보 객체 관리부(220), 가격 관리부(230), 통신부(240) 및 제어부(250)를 포함하여 구성될 수 있다.As shown in FIG. 2 , the object information estimation system 200 according to an embodiment of the present invention includes an object of interest management unit 210 , a candidate object management unit 220 , a price management unit 230 , a communication unit 240 and The controller 250 may be included.

본 발명의 일 실시예에 따르면, 관심 객체 관리부(210), 후보 객체 관리부(220), 가격 관리부(230), 통신부(240) 및 제어부(250)는 그 중 적어도 일부가 외부의 시스템(미도시됨)과 통신하는 프로그램 모듈일 수 있다. 이러한 프로그램 모듈은 운영 시스템, 응용 프로그램 모듈 또는 기타 프로그램 모듈의 형태로 객체 정보 추정 시스템(200)에 포함될 수 있고, 물리적으로는 여러 가지 공지의 기억 장치에 저장될 수 있다. 또한, 이러한 프로그램 모듈은 객체 정보 추정 시스템(200)과 통신 가능한 원격 기억 장치에 저장될 수도 있다. 한편, 이러한 프로그램 모듈은 본 발명에 따라 후술할 특정 업무를 수행하거나 특정 추상 데이터 유형을 실행하는 루틴, 서브루틴, 프로그램, 오브젝트, 컴포넌트, 데이터 구조 등을 포괄하지만, 이에 제한되지는 않는다.According to an embodiment of the present invention, the object of interest management unit 210 , the candidate object management unit 220 , the price management unit 230 , the communication unit 240 , and the control unit 250 include at least some of them in an external system (not shown). It may be a program module that communicates with Such a program module may be included in the object information estimation system 200 in the form of an operating system, an application program module, or other program modules, and may be physically stored in various known storage devices. Also, such a program module may be stored in a remote storage device capable of communicating with the object information estimation system 200 . Meanwhile, such a program module includes, but is not limited to, routines, subroutines, programs, objects, components, data structures, etc. that perform specific tasks or execute specific abstract data types according to the present invention.

한편, 객체 정보 추정 시스템(200)에 관하여 위와 같이 설명되었으나, 이러한 설명은 예시적인 것이고, 객체 정보 추정 시스템(200)의 구성요소 또는 기능 중 적어도 일부가 필요에 따라 디바이스(300) 또는 서버(미도시됨) 내에서 실현되거나 외부 시스템(미도시됨) 내에 포함될 수도 있음은 당업자에게 자명하다.On the other hand, although described above with respect to the object information estimation system 200, these descriptions are exemplary, and at least some of the components or functions of the object information estimation system 200 may be used as the device 300 or the server (not shown) as needed. It will be apparent to those skilled in the art that it may be implemented within an external system (not shown) or implemented within an external system (not shown).

먼저, 본 발명의 일 실시예에 따른 관심 객체 관리부(210)는, 촬영 이미지가 획득되면, 그 촬영 이미지에서 관심 객체를 검출하는 기능을 수행할 수 있다.First, the object-of-interest manager 210 according to an embodiment of the present invention may perform a function of detecting an object of interest in a photographed image when a photographed image is obtained.

구체적으로, 본 발명의 일 실시예에 따른 관심 객체 관리부(210)는, 촬영 이미지가 획득되면, R-CNN(Region-based Convolutional Neural Networks), YOLO(You Only Look Once), SSD(Single Shot multibox Detector) 등과 같은 객체 인식 모델을 이용하여 그 촬영 이미지에서 적어도 하나의 관심 객체를 검출할 수 있다. 다만, 본 발명의 일 실시예에 따른 객체 인식 모델은 위의 열거된 것에 한정되지 않으며, 본 발명의 목적을 달성할 수 있는 범위 내에서 다양하게 변경될 수 있다.Specifically, the object of interest management unit 210 according to an embodiment of the present invention, when a captured image is obtained, R-CNN (Region-based Convolutional Neural Networks), YOLO (You Only Look Once), SSD (Single Shot multibox) Detector) may be used to detect at least one object of interest in the captured image using an object recognition model. However, the object recognition model according to an embodiment of the present invention is not limited to those listed above, and may be variously changed within a range that can achieve the object of the present invention.

계속하면, 본 발명의 일 실시예에 따른 관심 객체 관리부(210)가 관심 객체를 검출하는 것은, 해당 관심 객체의 카테고리 및 촬영 이미지상의 해당 관심 객체의 위치(또는 촬영 이미지상에서 해당 관심 객체가 차지하고 있는 영역)를 인식하고 그 인식된 정보의 신뢰도를 산출하는 과정을 의미할 수 있다. 여기서, 본 발명의 일 실시예에 따르면, 해당 관심 객체의 카테고리를 인식하는 것은, 해당 관심 객체에 관한 식별 정보(즉, 해당 관심 객체의 가격을 추정하기 위하여 필요한 정보로서, 구체적인 모델명과 같이 해당 관심 객체를 다른 객체와 구별하여 특정할 수 있는 정보)를 결정하는 것과는 구별될 수 있다.Continuing, the detection of the object of interest by the object of interest management unit 210 according to an embodiment of the present invention includes the category of the object of interest and the location of the object of interest on the photographed image (or the location of the object of interest on the photographed image. region) and calculating the reliability of the recognized information. Here, according to an embodiment of the present invention, recognizing the category of the corresponding object of interest includes identification information about the corresponding object of interest (ie, information necessary for estimating the price of the corresponding object of interest, such as a specific model name, of the corresponding interest It can be distinguished from determining information that can be specified by distinguishing an object from other objects.

보다 구체적으로, 본 발명의 일 실시예에 따르면, 관심 객체의 카테고리란, 위의 관심 객체에 관한 식별 정보를 포함하는 상위의 개념을 의미할 수 있다. 예를 들어, 본 발명의 일 실시예에 따르면, 관심 객체가 가방인 경우에, 가방, 핸드백, 토트백 등이 관심 객체의 카테고리에 해당할 수 있고, 구체적인 모델 정보인 '루이비통 네오 알마 BB' 등이 관심 객체에 관한 식별 정보에 해당할 수 있다.More specifically, according to an embodiment of the present invention, the category of the object of interest may mean a higher level concept including identification information on the object of interest. For example, according to an embodiment of the present invention, when the object of interest is a bag, bags, handbags, tote bags, etc. may correspond to the category of the object of interest, and specific model information such as 'Louis Vuitton Neo Alma BB', etc. This may correspond to identification information about the object of interest.

그리고, 본 발명의 일 실시예에 따른 관심 객체 관리부(210)에 의한 관심 객체의 검출 결과에는, 촬영 이미지에서 검출되는 관심 객체에 관한 메인 카테고리 및 서브 카테고리가 포함될 수 있다.In addition, the detection result of the object-of-interest by the object-of-interest manager 210 according to an embodiment of the present invention may include a main category and a sub-category regarding the object of interest detected in the captured image.

구체적으로, 본 발명의 일 실시예에 따르면, 메인 카테고리 및 서브 카테고리와 같이 하나의 관심 객체에 관하여 복수 개의 카테고리가 인식되는 것도 가능하다. 예를 들면, 촬영 이미지에서 관심 객체로서 핸드백이 검출된 경우에, 해당 관심 객체에 관한 메인 카테고리는 가방이고, 서브 카테고리는 핸드백일 수 있다. 다른 예를 들면, 촬영 이미지에서 관심 객체로서 고양이 형상의 가방 또는 표면에 고양이 무늬가 있는 가방이 검출된 경우에, 해당 관심 객체에 관한 메인 카테고리는 가방이고, 서브 카테고리는 동물(또는 고양이)일 수 있다.Specifically, according to an embodiment of the present invention, a plurality of categories may be recognized with respect to one object of interest, such as a main category and a sub-category. For example, when a handbag is detected as an object of interest in the captured image, a main category related to the object of interest may be a bag, and a sub-category may be a handbag. As another example, when a cat-shaped bag or a bag with a cat pattern on the surface is detected as the object of interest in the photographed image, the main category for the object of interest may be a bag, and the sub-category may be an animal (or cat). there is.

다만, 본 발명의 일 실시예에 따른 카테고리가 위에서 설명된 것에 한정되는 것은 아니며, 본 발명의 목적을 달성할 수 있는 범위 내에서 다양하게 변경될 수 있다. 예를 들어, 본 발명의 일 실시예에 따르면, 샤넬, 루이비통 등과 같은 브랜드 정보가 위의 카테고리에 포함될 수도 있다.However, the category according to an embodiment of the present invention is not limited to that described above, and may be variously changed within the scope that can achieve the object of the present invention. For example, according to an embodiment of the present invention, brand information such as Chanel and Louis Vuitton may be included in the above category.

그리고, 본 발명의 일 실시예에 따른 관심 객체 관리부(210)에 의한 적어도 하나의 관심 객체의 검출에는, 관심 객체에 관한 적어도 하나의 경계 영역(예를 들면, 관심 객체를 둘러싸는 Bounding Box)을 설정하는 과정이 포함될 수 있고, 이를 통해, 촬영 이미지상의 적어도 하나의 관심 객체의 위치(또는 해당 관심 객체가 차지하고 있는 영역)를 인식할 수 있다. 다만, 본 발명의 일 실시예에 따르면, 위의 경계 영역을 설정하는 과정이, 관심 객체의 카테고리를 인식하고 그 인식된 정보의 신뢰도를 산출하는 과정과 반드시 구별되는 것은 아니고, 실질적으로 하나의 과정으로서 진행될 수도 있는 것으로 이해되어야 한다.In addition, in the detection of at least one object of interest by the object of interest manager 210 according to an embodiment of the present invention, at least one boundary region (eg, a bounding box surrounding the object of interest) of the object of interest is selected. A setting process may be included, and through this, the location of at least one object of interest (or a region occupied by the object of interest) on the captured image may be recognized. However, according to an embodiment of the present invention, the process of setting the boundary region above is not necessarily distinct from the process of recognizing the category of the object of interest and calculating the reliability of the recognized information, and is substantially one process. It should be understood that it may proceed as

한편, 본 발명의 일 실시예에 따르면, 관심 객체는, 본 발명의 일 실시예에 따른 가격 관리부(230)에 의하여 가격이 추정될 수 있는 대상을 의미할 수 있다.Meanwhile, according to an embodiment of the present invention, the object of interest may mean a target whose price can be estimated by the price management unit 230 according to an embodiment of the present invention.

예를 들면, 본 발명의 일 실시예에 따른 관심 객체 관리부(210)에 의하여 촬영 이미지에서 검출되는 적어도 하나의 객체 중에서, 본 발명의 일 실시예에 따른 가격 관리부(230)에 의한 가격 추정 기능이 지원되는 적어도 하나의 객체가 관심 객체로서 결정될 수 있다. 이 경우에, 본 발명의 일 실시예에 따른 관심 객체 관리부(210)는, 위의 검출되는 객체의 카테고리가 비교 대상 객체 풀(Pool)에 포함되는 특정 객체의 카테고리와 실질적으로 동일한 것으로 판단되면 위의 검출되는 객체를 관심 객체로서 결정할 수 있다. 한편, 비교 대상 객체 풀에 관한 자세한 내용은 후술하기로 한다.For example, among at least one object detected in a photographed image by the object of interest management unit 210 according to an embodiment of the present invention, the price estimation function by the price management unit 230 according to an embodiment of the present invention is At least one supported object may be determined as an object of interest. In this case, the object-of-interest management unit 210 according to an embodiment of the present invention determines that the category of the detected object is substantially the same as the category of the specific object included in the comparison object pool. The detected object of may be determined as the object of interest. Meanwhile, details of the comparison target object pool will be described later.

그리고, 본 발명의 일 실시예에 따른 관심 객체 관리부(210)는, 가격을 추정하고자 하는 객체에 관하여 사용자로부터 부분적인 식별 정보가 획득되는 경우에는, 그 획득된 정보 및 검출 결과 중 적어도 하나에 기초하여 관심 객체를 결정할 수도 있다.And, the object of interest management unit 210 according to an embodiment of the present invention, when partial identification information is obtained from the user with respect to the object for which the price is to be estimated, based on at least one of the obtained information and the detection result to determine the object of interest.

구체적으로, 본 발명의 일 실시예에 따른 관심 객체 관리부(210)는, 관심 객체에 관하여 사용자로부터 부분적인 식별 정보를 획득할 수 있다. 본 발명의 일 실시예에 따르면, 관심 객체에 관하여 사용자로부터 획득되는 부분적인 식별 정보는 관심 객체를 식별하기 위한 일부의 정보를 의미할 수 있다. 예를 들어, 본 발명의 일 실시예에 따르면, 관심 객체가 가방인 경우에, 관심 객체에 관하여 사용자로부터 획득되는 부분적인 식별 정보에는 카테고리(예를 들면, 핸드백), 브랜드, 소재, 재질, 패턴, 색, 사이즈(실측 사이즈를 포함함), 덮개의 유무, 바닥면의 유무, 손잡이의 유무, 손잡이의 개수, 개런티 카드 번호, 제품 코드번호, 제품명, 각인 번호, 연식 번호 등이 포함될 수 있다. 그리고, 본 발명의 일 실시예에 따르면, 관심 객체에 관하여 사용자로부터 획득되는 부분적인 식별 정보는, 사용자가 객체를 촬영하기 전에 미리 획득되거나, 사용자가 객체를 촬영한 직후에 획득될 수 있다. 또한, 촬영 이미지에서 관심 객체가 검출된 이후에 획득될 수도 있다.Specifically, the object-of-interest management unit 210 according to an embodiment of the present invention may obtain partial identification information from the user regarding the object of interest. According to an embodiment of the present invention, partial identification information obtained from the user with respect to the object of interest may mean partial information for identifying the object of interest. For example, according to an embodiment of the present invention, when the object of interest is a bag, partial identification information obtained from the user with respect to the object of interest includes a category (eg, handbag), brand, material, material, pattern , color, size (including actual size), presence or absence of a cover, presence or absence of a bottom surface, presence or absence of a handle, the number of handles, guarantee card number, product code number, product name, engraving number, year number, etc. may be included. And, according to an embodiment of the present invention, the partial identification information obtained from the user with respect to the object of interest may be obtained in advance before the user captures the object, or may be obtained immediately after the user captures the object. Also, it may be obtained after the object of interest is detected in the captured image.

도 3은 본 발명의 일 실시예에 따라 관심 객체를 검출하는 과정을 예시적으로 나타내는 도면이다.3 is a diagram exemplarily illustrating a process of detecting an object of interest according to an embodiment of the present invention.

예를 들면, 도 3의 (b)를 참조하면, 본 발명의 일 실시예에 따른 관심 객체 관리부(210)에 의하여 촬영 이미지에서 핸드백(321) 및 가방(322)이 검출된 경우에, 관심 객체에 관한 부분적인 식별 정보로서 손잡이가 있다는 정보를 사용자로부터 획득하였다면, 관심 객체를 핸드백(321)으로 결정할 수 있다.For example, referring to FIG. 3B , when the handbag 321 and the bag 322 are detected from the photographed image by the object-of-interest management unit 210 according to an embodiment of the present invention, the object of interest If information that there is a handle is obtained from the user as partial identification information about the , the object of interest may be determined as the handbag 321 .

계속하면, 본 발명의 일 실시예에 따르면, 관심 객체에 관하여 사용자로부터 획득되는 부분적인 식별 정보는 단계적으로 획득될 수 있다. 예를 들어, 관심 객체가 루이비통 가방인 경우에, 본 발명의 일 실시예에 따른 관심 객체 관리부(210)는, 사용자에게 루이비통 가방의 패턴에 관한 상위 이미지들(예를 들면, 다미에, 모노그램 등)을 제공하고, 그 상위 이미지들 중에서 위의 사용자에 의하여 특정 이미지(예를 들면, 다미에)가 선택되면, 그 상위 이미지의 하위 이미지들(예를 들면, 다미에 에벤, 다미에 아주르 등)을 제공하는 방법으로 관심 객체에 관하여 사용자로부터 부분적인 식별 정보를 획득할 수 있다.Continuing, according to an embodiment of the present invention, partial identification information obtained from the user with respect to the object of interest may be obtained step by step. For example, when the object of interest is a Louis Vuitton bag, the object of interest manager 210 according to an embodiment of the present invention provides the user with upper images (eg, Damier, monogram, etc.) related to the pattern of the Louis Vuitton bag. ) is provided, and when a specific image (eg, Damier) is selected by the user above among the upper images, the lower images of the upper image (eg, Damier Eben, Damier Azur, etc.) It is possible to obtain partial identification information from the user with respect to the object of interest by providing the .

도 11 내지 도 12는 본 발명의 일 실시예에 따라 관심 객체에 관하여 사용자로부터 부분적인 식별 정보를 획득하는 과정을 예시적으로 나타내는 도면이다.11 to 12 are diagrams exemplarily illustrating a process of obtaining partial identification information from a user with respect to an object of interest according to an embodiment of the present invention.

도 11의 (a) 및 (b)를 참조하면, 관심 객체가 가방인 경우에, 본 발명의 일 실시예에 따른 관심 객체 관리부(210)는, 사용자로부터 해당 가방의 브랜드 및 소재(또는 패턴)에 관한 정보를 획득할 수 있다.Referring to FIGS. 11A and 11B , when the object of interest is a bag, the object of interest manager 210 according to an embodiment of the present invention receives the brand and material (or pattern) of the bag from the user. information can be obtained.

도 12를 참조하면, 관심 객체가 가방인 경우에, 본 발명의 일 실시예에 따른 관심 객체 관리부(210)는, 사용자로부터 해당 가방의 사이즈에 관한 정보를 획득할 수 있다. 예를 들면, 본 발명의 일 실시예에 따른 관심 객체 관리부(210)는, 사용자가 해당 가방의 브랜드에 따라 정해지는 사이즈 구분 중 어느 하나를 선택하도록 함으로써 해당 가방의 사이즈에 관한 정보를 획득할 수 있다(도 12의 (a)).Referring to FIG. 12 , when the object of interest is a bag, the object of interest manager 210 according to an embodiment of the present invention may obtain information about the size of the bag from the user. For example, the object of interest management unit 210 according to an embodiment of the present invention may obtain information about the size of the corresponding bag by allowing the user to select any one of the size categories determined according to the brand of the corresponding bag. There is (Fig. 12 (a)).

또한, 본 발명의 일 실시예에 따른 관심 객체 관리부(210)는, 사용자가 해당 가방의 사이즈를 직접 입력하도록 함으로써 해당 가방의 사이즈에 관한 정보를 획득할 수 있다(도 12의 (b)). 이 경우에, 본 발명의 일 실시예에 따른 관심 객체 관리부(210)는, 해당 가방의 사이즈를 측정할 수 있도록 지원하는 기능을 사용자에게 제공할 수도 있다. 예를 들면, 사용자 디바이스(300)의 디스플레이에 자를 표시하거나, 카메라와 해당 가방 사이의 거리 등에 기초하여 추정되는 해당 가방의 사이즈를 사용자에게 제공할 수 있다.Also, the object of interest manager 210 according to an embodiment of the present invention may obtain information about the size of the corresponding bag by allowing the user to directly input the size of the corresponding bag (FIG. 12(b)). In this case, the object-of-interest management unit 210 according to an embodiment of the present invention may provide the user with a function that supports measuring the size of the corresponding bag. For example, a ruler may be displayed on the display of the user device 300 or the size of the corresponding bag estimated based on a distance between the camera and the corresponding bag may be provided to the user.

다만, 본 발명의 일 실시예에 따른 관심 객체에 관하여 사용자로부터 획득되는 부분적인 식별 정보의 종류, 획득 시점 및 획득 방법은 위에서 설명된 것에 한정되지 않으며, 본 발명의 목적을 달성할 수 있는 범위 내에서 다양하게 변경될 수 있다.However, the type, acquisition time, and acquisition method of partial identification information acquired from the user with respect to the object of interest according to an embodiment of the present invention are not limited to those described above, and are within the scope capable of achieving the object of the present invention. can be changed in various ways.

도 3 내지 도 5, 도 9 및 도 10은 본 발명의 일 실시예에 따라 관심 객체를 검출하는 과정을 예시적으로 나타내는 도면이다.3 to 5, 9 and 10 are diagrams exemplarily illustrating a process of detecting an object of interest according to an embodiment of the present invention.

예를 들어, 도 3의 (a)를 참조하면, 본 발명의 일 실시예에 따른 관심 객체 관리부(210)는, 촬영 이미지에서 검출되는 객체에 대하여 경계 영역(311)을 설정할 수 있고, 그 경계 영역(311)에 포함되는 객체의 카테고리를 핸드백으로 인식할 수 있다. 그리고, 본 발명의 일 실시예에 따른 관심 객체 관리부(210)는, 위의 인식된 정보, 즉, 핸드백이 비교 대상 객체 풀에 포함되는 특정 객체의 카테고리와 실질적으로 동일한 것으로 판단되면 위의 검출되는 객체를 관심 객체로서 결정할 수 있다. 여기서, 본 발명의 일 실시예에 따른 관심 객체 관리부(210)는, 위와 같이 관심 객체를 결정함에 있어서, 위의 인식된 정보의 신뢰도 및 위의 경계 영역(311)의 크기(또는 면적, 픽셀의 크기 등) 중 적어도 하나를 참조할 수 있으며, 본 명세서에서 설명되는 다른 실시예에서 별도로 언급되지 않더라도 마찬가지로 이해되어야 한다.For example, referring to FIG. 3A , the object-of-interest manager 210 according to an embodiment of the present invention may set a boundary area 311 for an object detected in a photographed image, and the boundary A category of an object included in the area 311 may be recognized as a handbag. In addition, the object of interest management unit 210 according to an embodiment of the present invention determines that the above-recognized information, that is, the handbag, is substantially the same as the category of a specific object included in the comparison object pool, the above detected An object may be determined as an object of interest. Here, in determining the object of interest as described above, the object of interest manager 210 according to an embodiment of the present invention determines the reliability of the recognized information and the size (or area, pixels of the boundary area 311 ). size, etc.), and should be understood similarly even if not separately mentioned in other embodiments described herein.

다른 예를 들어, 도 3의 (b)를 참조하면, 본 발명의 일 실시예에 따른 관심 객체 관리부(210)는, 촬영 이미지에서 검출되는 하나의 객체에 대하여 복수의 경계 영역(321 및 322)을 설정할 수 있다. 그리고, 본 발명의 일 실시예에 따른 관심 객체 관리부(210)는, 그 복수의 경계 영역(321 및 322) 중 제1 경계 영역(321)에 포함되는 객체의 카테고리를 핸드백으로 인식할 수 있고, 제2 경계 영역(322)에 포함되는 객체의 카테고리를 가방으로 인식할 수 있다. 그리고, 본 발명의 일 실시예에 따른 관심 객체 관리부(210)는, 위의 인식된 정보, 즉, 핸드백 및 가방이 비교 대상 객체 풀에 포함되는 특정 객체의 카테고리와 실질적으로 동일한 것으로 판단되면 위의 검출되는 객체를 관심 객체로서 결정할 수 있다. 여기서, 본 발명의 일 실시예에 따른 관심 객체 관리부(210)는, 위의 인식된 정보, 즉, 핸드백 및 가방 중에서 신뢰도가 높은 카테고리를 위의 관심 객체의 카테고리로서 결정할 수 있다. 또한, 본 발명의 일 실시예에 따른 관심 객체 관리부(210)는, 위의 인식된 정보, 즉, 핸드백 및 가방의 신뢰도 및/또는 포함 관계를 고려하여 메인 카테고리를 가방으로 결정하고, 서브 카테고리를 핸드백으로 결정할 수도 있다.For another example, referring to FIG. 3B , the object-of-interest management unit 210 according to an embodiment of the present invention includes a plurality of boundary regions 321 and 322 for one object detected in a photographed image. can be set. And, the object-of-interest management unit 210 according to an embodiment of the present invention may recognize a category of an object included in the first boundary area 321 among the plurality of boundary areas 321 and 322 as a handbag, A category of an object included in the second boundary area 322 may be recognized as a bag. And, the object of interest management unit 210 according to an embodiment of the present invention, when it is determined that the recognized information, that is, the handbag and the bag, is substantially the same as the category of a specific object included in the comparison object pool, the above The detected object may be determined as the object of interest. Here, the object-of-interest manager 210 according to an embodiment of the present invention may determine, as the category of the object of interest, a category with high reliability among the recognized information, that is, a handbag and a bag. In addition, the object-of-interest management unit 210 according to an embodiment of the present invention determines the main category as a bag in consideration of the above recognized information, that is, the reliability and/or inclusion relationship of the handbag and the bag, and selects the sub-category. You can also decide with a handbag.

또 다른 예를 들어, 도 9의 (a)를 참조하면, 본 발명의 일 실시예에 따른 관심 객체 관리부(210)는, 촬영 이미지(910)에서 검출되는 하나의 객체에 대하여 복수의 경계 영역(911 및 912)을 설정할 수 있다. 그리고, 본 발명의 일 실시예에 따른 관심 객체 관리부(210)는, 그 복수의 경계 영역(911 및 912) 중 제1 경계 영역(911)에 포함되는 객체의 카테고리를 가방으로 인식할 수 있고, 제2 경계 영역(912)에 포함되는 객체의 카테고리를 동물(또는 고양이)로 인식할 수 있다. 그리고, 본 발명의 일 실시예에 따른 관심 객체 관리부(210)는, 위의 인식된 정보, 즉, 가방 및 동물(또는 고양이)이 비교 대상 객체 풀에 포함되는 특정 객체의 카테고리와 실질적으로 동일한 것으로 판단되면 위의 검출되는 객체를 관심 객체로서 결정할 수 있다. 여기서, 본 발명의 일 실시예에 따른 관심 객체 관리부(210)는, 위의 인식된 정보, 즉, 가방 및 동물(또는 고양이)의 신뢰도 및/또는 복수의 경계 영역(911 및 912) 사이의 포함 관계를 고려하여 메인 카테고리를 가방으로 결정하고, 서브 카테고리를 동물(또는 고양이)로 결정할 수도 있다.For another example, referring to FIG. 9A , the object-of-interest manager 210 according to an embodiment of the present invention provides a plurality of boundary regions ( 911 and 912) can be set. And, the object-of-interest management unit 210 according to an embodiment of the present invention may recognize the category of the object included in the first boundary area 911 among the plurality of boundary areas 911 and 912 as a bag, The category of the object included in the second boundary area 912 may be recognized as an animal (or cat). In addition, the object of interest management unit 210 according to an embodiment of the present invention determines that the above recognized information, that is, a bag and an animal (or cat), is substantially the same as the category of a specific object included in the comparison object pool. If it is determined, the detected object above may be determined as an object of interest. Here, the object of interest management unit 210 according to an embodiment of the present invention includes the above recognized information, that is, the reliability of the bag and the animal (or cat) and/or the inclusion between the plurality of boundary regions 911 and 912 . Considering the relationship, the main category may be determined as a bag, and the sub-category may be determined as an animal (or a cat).

계속하여 예를 들면, 도 9의 (b)를 참조하면, 본 발명의 일 실시예에 따른 관심 객체 관리부(210)는, 복수의 경계 영역(911 및 912) 중 작은 영역(912)을 촬영 이미지(910)에서 크로핑(Cropping)하고, 그 크로핑된 이미지(920)에서 다시 검출(921)을 수행한 결과(예를 들면, 신뢰도가 소정 수준 이상인지 여부)에 따라 관심 객체의 서브 카테고리를 동물(또는 고양이)로 결정할 수 있다. 또는, 본 발명의 일 실시예에 따른 관심 객체 관리부(210)는, 촬영 이미지(910)에서 검출되는 첫 번째 객체에 대하여 일단 하나의 경계 영역(911)을 설정하고, 그 경계 영역(911)에 포함되는 이미지를 등간격으로 분할하거나 세그먼테이션(Segmentation)을 수행함으로써, 위의 객체의 일부에 해당하는 두 번째 객체를 검출(921)할 수 있다. 그리고, 본 발명의 일 실시예에 따른 관심 객체 관리부(210)는, 이러한 두 번째 객체의 검출 결과로서 관심 객체의 서브 카테고리를 동물(또는 고양이)로 결정할 수도 있다.Continuing, for example, referring to FIG. 9B , the object-of-interest manager 210 according to an embodiment of the present invention captures a small area 912 among the plurality of boundary areas 911 and 912 as a captured image. The sub-category of the object of interest is selected according to the result of cropping at 910 and detecting 921 again on the cropped image 920 (eg, whether the reliability is above a predetermined level). It can be determined as an animal (or cat). Alternatively, the object-of-interest management unit 210 according to an embodiment of the present invention sets one boundary area 911 for a first object detected in the photographed image 910 , and By dividing the included image at equal intervals or performing segmentation, a second object corresponding to a part of the above object may be detected ( 921 ). Also, the object-of-interest manager 210 according to an embodiment of the present invention may determine the sub-category of the object of interest to be an animal (or a cat) as a result of detecting the second object.

또 다른 예를 들어, 도 10을 참조하면, 본 발명의 일 실시예에 따른 관심 객체 관리부(210)는, 촬영 이미지(1020)에서 검출되는 객체에 대하여 경계 영역(1021)을 설정할 수 있고, 실제 촬영된 객체는 고양이 형상의 가방이지만, 그 경계 영역(1021)에 포함되는 객체의 카테고리를 동물(또는 고양이)로 인식한 경우를 가정할 수 있다. 이러한 경우에는, 본 발명의 일 실시예에 따르면, 위의 인식된 정보, 즉, 동물(또는 고양이)이 비교 대상 객체 풀에 동물(또는 고양이)이라는 카테고리를 갖는 객체가 없기 때문에 위의 검출되는 객체가 관심 객체로서 결정되지 않을 수 있다. 이때, 관심 객체에 관하여 사용자로부터 획득되는 부분적인 식별 정보로서 관심 객체의 카테고리가 가방(1010)이라는 정보가 있다면, 본 발명의 일 실시예에 따른 관심 객체 관리부(210)는, 위의 인식된 정보, 즉, 동물(또는 고양이)의 신뢰도 및/또는 관심 객체에 관하여 사용자로부터 획득되는 부분적인 식별 정보(1010)를 고려하여 메인 카테고리를 가방으로 결정하고, 서브 카테고리를 동물(또는 고양이)로 결정할 수도 있다.For another example, referring to FIG. 10 , the object-of-interest manager 210 according to an embodiment of the present invention may set a boundary area 1021 with respect to an object detected in a photographed image 1020 , and Although the photographed object is a cat-shaped bag, it may be assumed that the category of the object included in the boundary area 1021 is recognized as an animal (or cat). In this case, according to an embodiment of the present invention, the object detected above because there is no object having the category of animal (or cat) in the object pool to which the recognized information, ie, animal (or cat), is compared. may not be determined as an object of interest. At this time, if there is information that the category of the object of interest is the bag 1010 as partial identification information obtained from the user with respect to the object of interest, the object of interest management unit 210 according to an embodiment of the present invention, the recognized information That is, in consideration of the reliability of the animal (or cat) and/or partial identification information 1010 obtained from the user with respect to the object of interest, the main category may be determined as a bag, and the sub-category may be determined as the animal (or cat). there is.

또 다른 예를 들어, 도 4의 (a) 및 (b)를 참조하면, 본 발명의 일 실시예에 따른 관심 객체 관리부(210)는, 복수의 객체에 각각에 대하여 경계 영역(411 내지 413 및 421 내지 424)을 설정하고, 그 경계 영역(411 내지 413 및 421 내지 424)에 포함되는 복수의 객체가 각각 관심 객체에 해당하는지 여부를 결정할 수도 있다. 그리고, 그 복수의 객체가 모두 관심 객체에 해당한다면, 본 발명의 일 실시예에 따른 후보 객체 관리부(220)는, 그 복수의 객체 각각에 관하여 후보 객체를 도출할 수 있다. 한편, 후보 객체 관리부(220)의 기능에 관한 자세한 내용은 후술하기로 한다.As another example, referring to FIGS. 4A and 4B , the object-of-interest management unit 210 according to an embodiment of the present invention may include boundary regions 411 to 413 and 421 to 424 may be set, and it may be determined whether a plurality of objects included in the boundary regions 411 to 413 and 421 to 424 respectively correspond to the object of interest. And, if the plurality of objects all correspond to the object of interest, the candidate object manager 220 according to an embodiment of the present invention may derive a candidate object for each of the plurality of objects. Meanwhile, details on the function of the candidate object management unit 220 will be described later.

한편, 본 발명의 일 실시예에 따른 촬영 이미지는, 촬영에 관한 지침에 기초하여 촬영되는 이미지 일 수 있다.Meanwhile, the photographed image according to an embodiment of the present invention may be an image photographed based on a photographing guideline.

구체적으로, 본 발명의 일 실시예에 따른 관심 객체 관리부(210)는, 객체 정보 추정 시스템(200)을 이용하려는 사용자에게 촬영에 관한 지침을 제공함으로써 그 지침에 따라 관심 객체를 촬영하도록 유도할 수 있다.Specifically, the object-of-interest management unit 210 according to an embodiment of the present invention may induce a user who intends to use the object information estimation system 200 to photograph the object of interest according to the instruction by providing a photographing instruction. there is.

예를 들어, 도 5의 (a)를 참조하면, 본 발명의 일 실시예에 따른 관심 객체 관리부(210)는, 관심 객체가 위치해야 하는 영역을 가이드라인(512)과 같은 형식으로 사용자 디바이스(300)의 디스플레이에 표시함으로써, 위의 사용자가 관심 객체를 올바르게 촬영하도록 유도할 수 있다. 그리고, 본 발명의 일 실시예에 따른 관심 객체 관리부(210)는, 위의 가이드 라인 안쪽의 영역에 대하여 관심 객체의 검출을 수행함으로써 검출 결과의 신뢰도를 높일 수 있다.For example, referring to FIG. 5A , the object-of-interest manager 210 according to an embodiment of the present invention sets an area where the object of interest is to be located in the form of a guideline 512 to the user device ( 300), it is possible to induce the above user to correctly photograph the object of interest. Further, the object-of-interest manager 210 according to an embodiment of the present invention may increase the reliability of the detection result by detecting the object of interest in the region inside the guide line.

다른 예를 들면, 본 발명의 일 실시예에 따른 관심 객체 관리부(210)는, 카메라를 통하여 보여지는 객체들 중에서 현재 인식되고 있는 객체가 어떤 객체인지를 사용자 디바이스(300)의 디스플레이에 표시(예를 들면, 위의 인식되고 있는 객체의 색을 본래의 색과 다르게 표시)함으로써, 위의 사용자가 관심 객체를 올바르게 촬영하도록 유도할 수 있다. 그리고, 본 발명의 일 실시예에 따른 관심 객체 관리부(210)는, 위의 인식된 객체에 대하여 관심 객체의 검출을 수행함으로써 검출 결과의 신뢰도를 높일 수 있다.For another example, the object of interest management unit 210 according to an embodiment of the present invention displays on the display of the user device 300 which object is currently recognized among objects displayed through the camera (eg, For example, by displaying the color of the recognized object differently from the original color), it is possible to induce the user to correctly photograph the object of interest. And, the object-of-interest manager 210 according to an embodiment of the present invention may increase the reliability of the detection result by detecting the object of interest on the recognized object.

또 다른 예를 들면, 본 발명의 일 실시예에 따른 관심 객체 관리부(210)는, 관심 객체를 촬영하는 방법에 관한 정보를 사용자에게 제공할 수 있다. 예를 들면, 본 발명의 일 실시예에 따른 관심 객체 관리부(210)는, 촬영되어야 하는 관심 객체의 면(전면, 후면, 바닥면, 안쪽면 등), 위의 각 면을 촬영하는 순서, 촬영 이미지상에서 관심 객체가 차지해야 하는 적절한 면적, 촬영 시 필요한 조명 수준 등에 관한 정보를 사용자에게 제공할 수 있다.As another example, the object-of-interest manager 210 according to an embodiment of the present invention may provide information on a method of photographing an object of interest to the user. For example, the object-of-interest management unit 210 according to an embodiment of the present invention may include a surface (front, rear, bottom, inner surface, etc.) of the object of interest to be photographed, the order in which each surface is photographed, and photographing. It is possible to provide the user with information about an appropriate area that the object of interest should occupy on the image, a lighting level required for photographing, and the like.

한편, 본 발명의 일 실시예에 따른 관심 객체 관리부(210)는, 본 발명의 일 실시예에 따른 관심 객체 관리부(210)에 의하여 후보 객체의 도출이 수행되기 전에, 촬영 이미지를 전처리하는 기능을 수행할 수 있다.Meanwhile, the object-of-interest management unit 210 according to an embodiment of the present invention performs a function of pre-processing a captured image before the derivation of the candidate object is performed by the object-of-interest management unit 210 according to an embodiment of the present invention. can be done

구체적으로, 본 발명의 일 실시예에 따른 관심 객체 관리부(210)는, 촬영 이미지에서 관심 객체를 검출하기 전에 그 촬영 이미지를 전처리할 수 있다. 본 발명의 일 실시예에 따르면, 이러한 전처리에는 촬영 이미지의 크기, 해상도, 용량 등의 조정, 크로핑(Cropping), 히스토그램 평활화(Histogram equalization), 정규화(Normalization), 색 보정(Color correction), 조명 보정(Illumination correction), 전경 추출(배경 제거), 세그먼테이션(Segmentation), 패딩(Padding) 등이 포함될 수 있다. 다만, 본 발명의 일 실시예에 따른 전처리는 위의 열거된 것에 한정되지 않으며, 본 발명의 목적을 달성할 수 있는 범위 내에서 다양하게 변경될 수 있다.Specifically, the object of interest manager 210 according to an embodiment of the present invention may pre-process the captured image before detecting the object of interest in the captured image. According to an embodiment of the present invention, such pre-processing includes adjustment of the size, resolution, capacity, etc. of the photographed image, cropping, histogram equalization, normalization, color correction, and lighting. Illumination correction, foreground extraction (background removal), segmentation, padding, and the like may be included. However, the pretreatment according to an embodiment of the present invention is not limited to those listed above, and may be variously changed within the range that can achieve the object of the present invention.

예를 들면, 도 5의 (a) 및 (b)를 참조하면, 관심 객체가 가이드라인(512)에 포함된 상태로 촬영이 된 경우를 가정할 수 있다(511). 이러한 경우에, 본 발명의 일 실시예에 따른 관심 객체 관리부(210)는, 위의 가이드라인(512)에 따라 촬영 이미지를 크로핑하고, 그 크로핑된 촬영 이미지(521)에서 관심 객체를 검출(522)할 수 있다. 계속하여 예를 들면, 도 5의 (b) 및 (c)를 참조하면, 가이드라인에 따라 촬영 이미지를 크로핑하고, 그 크로핑된 촬영 이미지(521)에 패딩(533)을 포함시키고, 그 패딩이 포함된 촬영 이미지(531)에서 관심 객체를 검출(532)할 수도 있다. 여기서, 패딩은 색, 패턴, 위치 및 크기에 제한을 받지 않고 다양하게 조합 및/또는 변경되어 촬영 이미지에 포함될 수 있는 것으로 이해되어야 한다.For example, referring to FIGS. 5A and 5B , it may be assumed that an object of interest is photographed while being included in the guideline 512 ( 511 ). In this case, the object-of-interest management unit 210 according to an embodiment of the present invention crops the captured image according to the above guideline 512 , and detects the object of interest from the cropped captured image 521 . (522) You can. Continuing, for example, referring to FIGS. 5 ( b ) and 5 ( c ), the captured image is cropped according to the guidelines, the cropped image 521 includes the padding 533 , and the An object of interest may be detected 532 from the captured image 531 including padding. Here, it should be understood that the padding may be variously combined and/or changed to be included in the photographed image without being limited by color, pattern, position, and size.

한편, 본 발명의 일 실시예에 따른 관심 객체 관리부(210)는, 촬영 이미지(전처리된 이미지 일 수 있다.)에서 객체를 검출한 이후에 그 촬영 이미지를 전처리(전처리된 이미지를 다시 전처리하는 것일 수 있다.)할 수도 있다. 예를 들면, 본 발명의 일 실시예에 따른 관심 객체 관리부(210)는, 촬영 이미지에서 검출된 객체의 신뢰도가 소정 수준 이하인 경우에, 그 촬영 이미지를 전처리하고, 그 전처리된 이미지에 대하여 다시 객체를 검출할 수 있다. 그리고, 본 발명의 일 실시예에 따른 관심 객체 관리부(210)는, 다시 검출한 결과로서 검출된 객체의 신뢰도가 소정 수준 이상인지 여부를 고려하여 해당 객체를 관심 객체로서 결정할 수 있다.On the other hand, the object of interest management unit 210 according to an embodiment of the present invention, after detecting an object in the captured image (which may be a pre-processed image), pre-process the captured image (pre-processing the pre-processed image again) can.) can be done. For example, the object-of-interest management unit 210 according to an embodiment of the present invention pre-processes the captured image when the reliability of the object detected in the captured image is less than or equal to a predetermined level, and returns the object to the pre-processed image. can be detected. Then, the object-of-interest manager 210 according to an embodiment of the present invention may determine the object as the object of interest in consideration of whether the reliability of the object detected as a result of the re-detection is equal to or greater than a predetermined level.

또한, 그리고, 본 발명의 일 실시예에 따른 관심 객체 관리부(210)는, 위와 같은 전처리 중 적어도 하나의 전처리가 된 촬영 이미지에서 관심 객체를 검출한 결과 및 위와 같은 전처리가 되지 않은 촬영 이미지에서 관심 객체를 검출한 결과 중 적어도 하나를 참조하여, 관심 객체를 결정할 수 있다.Also, the object-of-interest management unit 210 according to an embodiment of the present invention detects the object of interest in the photographed image that has been subjected to at least one of the pre-processing as described above and the interest in the photographed image that has not been pre-processed as described above. An object of interest may be determined by referring to at least one of the results of detecting the object.

예를 들어, 도 3의 (b)를 참조하면, 본 발명의 일 실시예에 따른 관심 객체 관리부(210)에 의하여, 전처리가 되지 않은 촬영 이미지에서 핸드백(321) 및 가방(322)이 관심 객체로서 검출된 경우를 가정할 수 있다. 이러한 경우에, 도 5의 (b) 및 (c)를 참조하면, 본 발명의 일 실시예에 따른 관심 객체 관리부(210)는, 전처리된 촬영 이미지(521 및 531)에서 각각 핸드백(522 및 532)이 관심 객체로서 검출된 결과를 참조하여, 핸드백의 신뢰도가 가방의 신뢰도보다 높다고 판단할 수 있고, 이에 따라 핸드백을 관심 객체로서 결정할 수 있다.For example, referring to FIG. 3B , the handbag 321 and the bag 322 are objects of interest in the captured image that has not been pre-processed by the object-of-interest manager 210 according to an embodiment of the present invention. It can be assumed that it is detected as In this case, referring to FIGS. 5B and 5C , the object-of-interest management unit 210 according to an embodiment of the present invention provides handbags 522 and 532 in the pre-processed captured images 521 and 531, respectively. ) is detected as the object of interest, it may be determined that the reliability of the handbag is higher than the reliability of the bag, and accordingly, the handbag may be determined as the object of interest.

한편, 본 발명의 일 실시예에 따른 관심 객체 관리부(210)는, 촬영 이미지에 포함되는 메타데이터에 기초하여 위와 같은 전처리를 수행할 수 있다.Meanwhile, the object-of-interest manager 210 according to an embodiment of the present invention may perform the above pre-processing based on metadata included in the captured image.

구체적으로, 본 발명의 일 실시예에 따르면, 이러한 메타데이터에는 촬영 이미지의 촬영 장소(예를 들면, 실내인지 실외인지 여부, 경도 ,위도 등), 촬영 시간, 위의 촬영 이미지를 촬영한 디바이스(300)의 모델명, 초점 거리, 조리개 값, 노출 시간, ISO 속도, 플래시 작동 여부, 디바이스(300)를 이용하여 측정된 관심 객체의 실제 크기 등이 포함될 수 있다. 그리고, 본 발명의 일 실시예에 따른 관심 객체 관리부(210)는, 이러한 메타데이터를 이용하여 색 보정, 조명 보정 등의 전처리를 수행할 수 있다.Specifically, according to an embodiment of the present invention, such metadata includes the location of the photographed image (for example, whether indoors or outdoors, longitude, latitude, etc.), the recording time, and the device ( 300 ), focal length, aperture value, exposure time, ISO speed, whether the flash is activated, the actual size of the object of interest measured using the device 300 , and the like may be included. In addition, the object-of-interest manager 210 according to an embodiment of the present invention may perform pre-processing such as color correction and lighting correction using such metadata.

예를 들어, 메타데이터로서 촬영 이미지가 국내 및 실외의 특정 장소에서 특정 날짜의 정오에 촬영되었다는 정보가 획득된 경우를 가정하면, 본 발명의 일 실시예에 따른 관심 객체 관리부(210)는, 그 획득된 정보에 기초하여 태양광의 세기, 방향 등을 추정하고, 그 추정된 정보에 기초하여 위의 촬영 이미지를 보정하는 전처리를 수행할 수 있다.For example, assuming that information that a photographed image was photographed at noon on a specific date at a specific place in Korea and outdoors is acquired as metadata, the object of interest management unit 210 according to an embodiment of the present invention, Pre-processing of estimating the intensity and direction of sunlight based on the obtained information, and correcting the captured image based on the estimated information may be performed.

다만, 본 발명의 일 실시예에 따른 메타데이터는 위의 열거된 것에 한정되지 않으며, 본 발명의 목적을 달성할 수 있는 범위 내에서 다양하게 변경될 수 있다.However, metadata according to an embodiment of the present invention is not limited to those listed above, and may be variously changed within a range that can achieve the object of the present invention.

한편, 본 발명의 일 실시예에 따른 관심 객체 관리부(210)는, 관심 객체에 관하여 사용자로부터 획득되는 검출 영역을 참조하여 촬영 이미지에서 위의 관심 객체를 검출할 수 있다.Meanwhile, the object-of-interest manager 210 according to an embodiment of the present invention may detect the object of interest from the captured image with reference to a detection area obtained from the user with respect to the object of interest.

구체적으로, 본 발명의 일 실시예에 따른 관심 객체 관리부(210)는, 촬영 이미지가 획득되면, 그 촬영 이미지에서 관심 객체가 위치하고 있는 영역이 어디인지를 나타내는 검출 영역을 사용자가 입력하도록 함으로써 위의 검출 영역을 획득할 수 있다. 그리고, 본 발명의 일 실시예에 따른 관심 객체 관리부(210)는, 위의 검출 영역에 대하여 관심 객체의 검출을 수행함으로써 검출 결과의 신뢰도를 높일 수 있다.Specifically, the object-of-interest management unit 210 according to an embodiment of the present invention, when a captured image is obtained, allows the user to input a detection area indicating where the object of interest is located in the captured image. A detection area can be obtained. In addition, the object of interest manager 210 according to an embodiment of the present invention may increase the reliability of the detection result by detecting the object of interest in the above detection area.

또한, 위와 같이 사용자로부터 획득되는 검출 영역은, 본 발명의 일 실시예에 따른 관심 객체 관리부(210)에 포함될 수 있는 인공 지능 기반의 관심 객체 검출 모델(미도시됨)의 학습에 있어서, 일종의 라벨링된 학습 데이터로서 활용될 수 있다. 즉, 본 발명의 일 실시예에 따르면, 관심 객체에 관하여 사용자로부터 획득되는 검출 영역을 학습 데이터로 하여 학습되는 관심 객체 검출 모델에 기초하여 촬영 이미지에서 관심 객체를 검출할 수 있다.In addition, the detection area obtained from the user as described above is a kind of labeling in learning of an AI-based object-of-interest detection model (not shown) that may be included in the object-of-interest management unit 210 according to an embodiment of the present invention. It can be used as learning data. That is, according to an embodiment of the present invention, an object of interest may be detected from a captured image based on an object of interest detection model that is learned using a detection region obtained from a user with respect to the object of interest as learning data.

한편, 본 발명의 일 실시예에 따른 관심 객체 관리부(210)는, 본 발명의 일 실시예에 따른 관심 객체 관리부(210)에 포함될 수 있는 인공 지능 기반의 상태 정보 추정 모델(미도시됨)에 기초하여 촬영 이미지에서 검출되는 관심 객체에 관하여 상태 정보를 획득할 수 있다.On the other hand, the object-of-interest manager 210 according to an embodiment of the present invention is based on an artificial intelligence-based state information estimation model (not shown) that can be included in the object-of-interest management unit 210 according to an embodiment of the present invention. Based on the state information about the object of interest detected in the captured image may be obtained.

구체적으로, 본 발명의 일 실시예에 따르면, 관심 객체에 관한 상태 정보에는, 해당 관심 객체에 존재하는 스크래치, 얼룩, 노후화된 부분 등의 위치, 크기 및/또는 그 정도가 포함될 수 있다. 다만, 본 발명의 일 실시예에 따른 관심 객체에 관한 상태 정보는 위의 열거된 것에 한정되지 않으며, 본 발명의 목적을 달성할 수 있는 범위 내에서 다양하게 변경될 수 있다.Specifically, according to an embodiment of the present invention, the state information on the object of interest may include the location, size, and/or the extent of scratches, stains, and aged parts present in the object of interest. However, the state information about the object of interest according to an embodiment of the present invention is not limited to those listed above, and may be variously changed within a range capable of achieving the object of the present invention.

계속하면, 본 발명의 일 실시예에 따른 관심 객체 관리부(210)는, 촬영 이미지가 획득되면, 그 촬영 이미지에서 위와 같은 관심 객체에 관한 상태 정보를 사용자가 입력하도록 함으로써 위의 상태 정보를 획득할 수 있다. 그리고, 본 발명의 일 실시예에 따른 가격 추정부(230)는, 위와 같이 관심 객체에 관하여 사용자로부터 획득되는 상태 정보에 기초하여 관심 객체의 가격을 추정할 수 있다. 한편, 본 발명의 일 실시예에 따른 가격 추정부(230)의 기능에 관한 자세한 내용은 후술하기로 한다.Continuing, the object-of-interest management unit 210 according to an embodiment of the present invention obtains the above state information by allowing the user to input the state information on the object of interest as above from the captured image when the captured image is obtained. can In addition, the price estimator 230 according to an embodiment of the present invention may estimate the price of the object of interest based on state information obtained from the user regarding the object of interest as described above. Meanwhile, details of the function of the price estimator 230 according to an embodiment of the present invention will be described later.

또한, 위와 같이 사용자로부터 획득되는 상태 정보는, 본 발명의 일 실시예에 따른 관심 객체 관리부(210)에 포함될 수 있는 상태 정보 추정 모델의 학습에 있어서, 일종의 라벨링된 학습 데이터로서 활용될 수 있다. 즉, 본 발명의 일 실시예에 따른 관심 객체 관리부(210)는, 관심 객체에 관하여 사용자로부터 획득되는 상태 정보를 학습 데이터로 하여 학습되는 상태 정보 추정 모델에 기초하여, 촬영 이미지에서 검출되는 관심 객체에 관한 상태 정보를 획득할 수 있다.In addition, the state information obtained from the user as described above may be used as a kind of labeled learning data in learning the state information estimation model that may be included in the object-of-interest management unit 210 according to an embodiment of the present invention. That is, the object-of-interest management unit 210 according to an embodiment of the present invention, based on a state information estimation model that is learned by using state information obtained from a user about the object of interest as learning data, the object of interest detected from the captured image. status information can be obtained.

도 13은 본 발명의 일 실시예에 따라 관심 객체에 관하여 사용자로부터 검출 영역 및 상태 정보가 획득되는 과정을 예시적으로 나타내는 도면이다.13 is a diagram exemplarily illustrating a process of obtaining a detection region and state information from a user with respect to an object of interest according to an embodiment of the present invention.

예를 들어, 도 13의 (a)를 참조하면, 본 발명의 일 실시예에 따른 관심 객체 관리부(210)는, 촬영 이미지에서 관심 객체(1311)가 위치하고 있는 영역이 어디인지를 나타내는 검출 영역(1312)을 사용자(1300)가 입력하도록 함으로써 그 검출 영역(1312)을 획득할 수 있다. 본 발명의 일 실시예에 따르면, 이러한 검출 영역은 디바이스(300)의 화면에서 관심 객체가 위치하는 영역을 사용자(1300)가 드래그하여 표시(1312)하는 방법으로 입력될 수 있으나, 이러한 방법에 제한되는 것은 아니다.For example, referring to FIG. 13A , the object-of-interest manager 210 according to an embodiment of the present invention provides a detection area ( By allowing the user 1300 to input 1312 , the detection area 1312 may be obtained. According to an embodiment of the present invention, such a detection area may be input by a method in which the user 1300 drags and displays 1312 the area in which the object of interest is located on the screen of the device 300, but this method is limited. it is not going to be

다른 예를 들어, 도 13의 (b)를 참조하면, 본 발명의 일 실시예에 따른 관심 객체 관리부(210)는, 촬영 이미지에서 관심 객체에 관한 상태 정보를 사용자가 입력하도록 함으로써 그 상태 정보(1321, 1322 및 1323)를 획득할 수 있다. 본 발명의 일 실시예에 따르면, 이러한 상태 정보는 디바이스(300)의 화면에서 관심 객체에 존재하는 스크래치 등이 위치하는 영역을 사용자(1300)가 드래그하여 표시(1321)하거나, 위의 스크래치 등의 모양을 직접 손으로 그려서 표시(1322)하는 방법으로 입력될 수 있으나, 이러한 방법에 제한되는 것은 아니다. 또한, 본 발명의 일 실시예에 따르면, 사용자(1300)가 위의 스크래치 등의 심한 정도에 관한 정보(1323)를 선택하도록 할 수도 있다.For another example, referring to FIG. 13B , the object-of-interest management unit 210 according to an embodiment of the present invention allows the user to input state information about the object of interest in the captured image, thereby providing the state information ( 1321, 1322 and 1323) can be obtained. According to an embodiment of the present invention, such state information is displayed 1321 by the user 1300 by dragging the area where the scratch, etc. existing in the object of interest is located on the screen of the device 300, or A shape may be input by a method of directly drawing and displaying 1322 by hand, but is not limited thereto. In addition, according to an embodiment of the present invention, the user 1300 may select the information 1323 on the severity of the scratch or the like.

또 다른 예를 들어, 도 13의 (c)를 참조하면, 본 발명의 일 실시예에 따른 관심 객체 관리부(210)는, 촬영 이미지에서 관심 객체에 관한 상태 정보를 사용자가 입력하도록 함으로써 그 상태 정보(1331 및 1332)를 획득할 수 있다. 본 발명의 일 실시예에 따르면, 이러한 상태 정보는 사용자(1300)가 디바이스(300)의 화면에서 관심 객체에 존재하는 얼룩 등이 위치하는 영역을 선택하여 표시(1331 및 1332)하는 방법으로 입력될 수 있으나, 이러한 방법에 제한되는 것은 아니다. 또한, 본 발명의 일 실시예에 따르면, 사용자(1300)가 위의 얼룩 등의 크기에 관한 정보를 함께 입력할 수 있도록, 사용자(1300)에게 여러 종류의 동전의 이미지와 같이 위의 얼룩 등의 크기를 가늠할 수 있는 수단(1341 및 1342; 즉, 얼룩(1331)의 크기는 500원 동전(1341)의 크기와 유사하고, 얼룩(1332)의 크기는 50원 동전(1342)의 크기와 유사함)을 제공할 수도 있다.As another example, referring to FIG. 13C , the object-of-interest manager 210 according to an embodiment of the present invention allows the user to input state information about the object of interest in the captured image, thereby providing the state information. (1331 and 1332) can be obtained. According to an embodiment of the present invention, such state information may be input by a method in which the user 1300 selects and displays (1331 and 1332) an area where a spot, etc. existing on an object of interest is located on the screen of the device 300. However, it is not limited to this method. In addition, according to an embodiment of the present invention, the user 1300 can provide information on the size of the stain, such as the stain, to the user 1300, such as images of various types of coins. Means for sizing 1341 and 1342; that is, the size of the blob 1331 is similar to the size of the 500 won coin 1341, and the size of the blob 1332 is similar to the size of the 50 won coin 1342. ) can also be provided.

한편, 본 발명의 일 실시예에 따른 관심 객체 관리부(210)는, 촬영 이미지에서 관심 객체가 검출되면, 위의 관심 객체에 관한 유효성에 기초하여 위의 관심 객체에 관한 비교 대상 객체 풀에 포함되는 비교 대상 객체 중에서 후보 객체를 도출할지 여부를 결정하는 기능을 수행할 수 있다.Meanwhile, the object-of-interest management unit 210 according to an embodiment of the present invention, when an object of interest is detected in the captured image, is included in the comparison target object pool for the object of interest based on the validity of the object of interest. It is possible to perform a function of determining whether to derive a candidate object from among the comparison target objects.

구체적으로, 본 발명의 일 실시예에 따른 관심 객체 관리부(210)는, 촬영 이미지에서 검출되는 관심 객체에 관한 유효성의 수준 또는 유무를 판단하고, 그 판단에 기초하여 위의 후보 객체를 도출할지 여부를 결정할 수 있다. 그리고, 본 발명의 일 실시예에 따른 관심 객체 관리부(210)는, 위의 후보 객체를 도출하지 않는 것으로 결정되는 경우에는, 사용자에게 올바른 촬영 이미지를 제공할 것을 요구할 수 있다.Specifically, the object-of-interest management unit 210 according to an embodiment of the present invention determines the level or presence of validity with respect to the object of interest detected in the captured image, and whether to derive the above candidate object based on the determination can be decided And, when it is determined that the above candidate object is not derived, the object of interest management unit 210 according to an embodiment of the present invention may request the user to provide a correct photographed image.

보다 구체적으로, 본 발명의 일 실시예에 따른 관심 객체 관리부(210)는, 촬영 이미지에서 검출되는 관심 객체의 개수, 촬영 이미지에서 검출되는 관심 객체의 경계 영역의 크기, 촬영 이미지에서 검출되는 관심 객체의 경계 영역과 그 촬영 이미지에서 검출되는 다른 객체(관심 객체 및/또는 비관심 객체를 포함한다.)의 경계 영역 사이의 관계 및 촬영 이미지에서 비관심 객체가 검출되는지 여부 중 적어도 하나를 참조하여 촬영 이미지에서 검출되는 관심 객체에 관한 유효성의 수준 또는 유무를 판단할 수 있다. 여기서, 본 발명의 일 실시예에 따르면, 비관심 객체란, 비교 대상 객체 풀에 그 비관심 객체의 카테고리를 갖는 객체가 없는 경우의 객체로서, 본 발명의 일 실시예에 따른 가격 관리부(230)에 의한 가격 추정 기능이 지원되지 않는 객체를 의미할 수 있다.More specifically, the object-of-interest management unit 210 according to an embodiment of the present invention may include the number of objects of interest detected in the photographed image, the size of the boundary region of the object of interest detected in the photographed image, and the object of interest detected in the photographed image. Shooting with reference to at least one of a relationship between a boundary region of , and a boundary region of another object (including an object of interest and/or an object of interest) detected in the captured image and whether an uninterested object is detected in the captured image It is possible to determine the level or presence of validity with respect to the object of interest detected in the image. Here, according to an embodiment of the present invention, the uninterested object is an object when there is no object having the category of the uninterested object in the comparison object pool, and the price management unit 230 according to an embodiment of the present invention. It may mean an object whose price estimation function is not supported by .

예를 들면, 도 4의 (a)를 참조하면, 촬영 이미지에서 관심 객체로서 핸드백이 검출(412)되고, 비관심 객체로서 노트북 및 키보드가 검출(411 및 413)된 경우를 가정할 수 있다. 이러한 경우에, 본 발명의 일 실시예에 따른 관심 객체 관리부(210)는, 관심 객체인 핸드백의 경계 영역(412)이 비관심 객체인 노트북의 경계 영역(411)에 포함되거나, 비관심 객체가 검출(411 및 413)되었다는 정보를 참조하여 관심 객체에 관한 유효성이 소정 수준 이하이거나 없다고 판단하고, 후보 객체를 도출하지 않는 것으로 결정할 수 있다.For example, referring to FIG. 4A , it may be assumed that a handbag is detected 412 as an object of interest in a photographed image, and a notebook and a keyboard are detected 411 and 413 as uninterested objects. In this case, the object-of-interest management unit 210 according to an embodiment of the present invention is configured such that the boundary area 412 of the handbag as the object of interest is included in the boundary area 411 of the notebook as the object of interest, or the object of interest is With reference to the detected information 411 and 413 , it may be determined that the validity of the object of interest is below a predetermined level or not, and it may be determined that the candidate object is not derived.

다른 예를 들면, 도 4의 (b)를 참조하면, 촬영 이미지에서 관심 객체로서 핸드백이 검출(421)되고, 비관심 객체로서 병, 상자 및 키보드가 검출(각각 422, 423 및 424)된 경우를 가정할 수 있다. 이러한 경우에, 본 발명의 일 실시예에 따른 관심 객체 관리부(210)는, 관심 객체인 핸드백의 경계 영역(421)이 비관심 객체들의 경계 영역(422 내지 424)에 포함되지 않는다는 정보를 참조하여 관심 객체에 관한 유효성이 소정 수준 이상이거나 있다고 판단하고, 후보 객체를 도출하는 것으로 결정할 수 있다.For another example, referring to FIG. 4(b), when a handbag is detected 421 as an object of interest in the photographed image, and a bottle, a box, and a keyboard are detected (422, 423, and 424, respectively) as uninterested objects can be assumed. In this case, the object-of-interest management unit 210 according to an embodiment of the present invention refers to information that the boundary region 421 of the handbag, which is the object of interest, is not included in the boundary regions 422 to 424 of non-interested objects. It may be determined that the validity of the object of interest is greater than or equal to a predetermined level, and it may be determined that the candidate object is derived.

또 다른 예를 들면, 본 발명의 일 실시예에 따른 관심 객체 관리부(210)는, 촬영 이미지에서 검출되는 관심 객체가 소정 개수 이상이거나, 촬영 이미지에서 검출되는 관심 객체의 경계 영역의 크기가 소정 수준 이하이거나, 촬영 이미지에서 검출되는 어느 두 개의 관심 객체의 경계 영역이 겹쳐지는 영역이 소정 크기 이상인 경우 등에도, 그러한 정보를 참조하여 관심 객체에 관한 유효성이 소정 수준 이하이거나 없다고 판단하고, 후보 객체를 도출하지 않는 것으로 결정할 수 있다.For another example, the object-of-interest management unit 210 according to an embodiment of the present invention may determine that the number of objects of interest detected in the captured image is greater than or equal to a predetermined number, or the size of the boundary region of the object of interest detected in the captured image is at a predetermined level. or less, or when the overlapping area of the boundary area of any two objects of interest detected in the captured image is greater than or equal to a predetermined size, it is determined by referring to such information that the validity of the object of interest is less than or equal to a predetermined level or not, and the candidate object is selected It can be decided not to derive.

다음으로, 본 발명의 일 실시예에 따른 후보 객체 관리부(220)는, 본 발명의 일 실시예에 따른 관심 객체 관리부(210)에 의하여 촬영 이미지에서 관심 객체가 검출되면, 그 검출되는 관심 객체에 관한 비교 대상 객체 풀(Pool)에 포함되는 비교 대상 객체 중에서 후보 객체를 도출하는 기능을 수행할 수 있다.Next, when an object of interest is detected in the captured image by the object-of-interest manager 210 according to an embodiment of the present invention, the candidate object manager 220 according to an embodiment of the present invention provides information on the detected object of interest. It is possible to perform a function of deriving a candidate object from among the comparison target objects included in the comparison target object pool (Pool).

구체적으로, 본 발명의 일 실시예에 따르면, 비교 대상 객체는, 관심 객체에 관한 식별 정보를 결정하기 위하여 그 관심 객체와 서로 비교될 수 있는 객체를 의미할 수 있다. 그리고, 본 발명의 일 실시예에 따른 비교 대상 객체 풀은, 그러한 비교 대상 객체에 관한 데이터베이스를 의미할 수 있다. 본 발명의 일 실시예에 따르면, 이러한 비교 대상 객체 풀에는 비교 대상 객체의 이미지와 함께 그 비교 대상 객체 각각에 대한 카테고리, 브랜드, 소재, 재질, 패턴, 색, 사이즈(실측 사이즈를 포함함), 형상, 제품 코드번호, 제품명, 공식 가격(새 상품의 가격), 중고품의 가격 등에 관한 정보가 포함될 수 있다. 또한, 이러한 비교 대상 객체 풀에 포함되는 정보의 적어도 일부는 웹 크롤링(Crawling) 등을 통해 실시간으로 수집될 수도 있다.Specifically, according to an embodiment of the present invention, the comparison target object may mean an object that can be compared with the object of interest in order to determine identification information about the object of interest. And, the comparison target object pool according to an embodiment of the present invention may mean a database related to the comparison target object. According to an embodiment of the present invention, in such a comparison object pool, a category, brand, material, material, pattern, color, size (including actual size), Information about the shape, product code number, product name, official price (the price of a new product), and the price of a used product may be included. In addition, at least a portion of information included in the comparison object pool may be collected in real time through web crawling or the like.

예를 들면, 본 발명의 일 실시예에 따른 관심 객체가 가방인 경우에, 가방에 관한 비교 대상 객체 풀에는 각종 가방에 대한 이미지와 함께 그 각종 가방 각각에 대한 카테고리(예를 들면, 핸드백), 브랜드, 소재, 재질, 패턴, 색, 사이즈(실측 사이즈를 포함함), 덮개의 유무, 바닥면의 유무, 손잡이의 유무, 손잡이의 개수 등에 관한 정보가 포함될 수 있다.For example, when the object of interest according to an embodiment of the present invention is a bag, a category (eg, handbag) for each of the various bags along with images of various bags in the comparison object pool related to the bag, Information regarding brand, material, material, pattern, color, size (including actual size), presence or absence of a cover, presence or absence of a bottom surface, presence or absence of a handle, number of handles, and the like may be included.

다만, 본 발명의 일 실시예에 따른 비교 대상 객체 풀에 포함되는 정보는 위의 열거된 것에 한정되지 않으며, 본 발명의 목적을 달성할 수 있는 범위 내에서 다양하게 변경될 수 있다.However, the information included in the comparison object pool according to an embodiment of the present invention is not limited to the above-listed ones, and may be variously changed within the scope capable of achieving the object of the present invention.

계속하면, 본 발명의 일 실시예에 따른 후보 객체 관리부(220)는, 관심 객체에 관한 비교 대상 객체 풀에 포함되는 비교 대상 객체와 촬영 이미지에서 검출되는 관심 객체 사이의 유사도를 산출하고, 그 산출되는 유사도에 기초하여 후보 객체를 도출할 수 있다. 예를 들면, 본 발명의 일 실시예에 따른 후보 객체 관리부(220)는, 위의 유사도가 높은 순으로 소정 개수의 비교 대상 객체를 후보 객체로서 도출할 수 있다. 본 발명의 일 실시예에 따르면, 이러한 유사도는 특징 벡터 사이의 거리 값, K-최근접 이웃(KNN; K-Nearest Neighbors) 알고리즘 등을 이용하여 산출될 수 있으나, 이에 제한되는 것은 아니다.Continuing, the candidate object manager 220 according to an embodiment of the present invention calculates a degree of similarity between the comparison target included in the comparison target pool for the target of interest and the target of interest detected in the captured image, and the calculation A candidate object may be derived based on the similarity. For example, the candidate object manager 220 according to an embodiment of the present invention may derive a predetermined number of comparison target objects in the order of the above similarity as the candidate objects. According to an embodiment of the present invention, the similarity may be calculated using a distance value between feature vectors, a K-Nearest Neighbors (KNN) algorithm, or the like, but is not limited thereto.

한편, 본 발명의 일 실시예에 따른 후보 객체 관리부(220)는, 위의 유사도를 산출하기 전에, 위의 촬영 이미지상에서 위의 관심 객체가 포함된 영역에 대하여 전처리를 수행할 수 있다. 본 발명의 일 실시예에 따르면, 이러한 전처리는 위에서 상세하게 설명한 촬영 이미지에 대한 전처리와 유사한 방식으로 수행될 수 있으므로, 자세한 내용은 생략하기로 한다.Meanwhile, before calculating the above similarity, the candidate object manager 220 according to an embodiment of the present invention may perform pre-processing on a region including the above object of interest on the above photographed image. According to an embodiment of the present invention, since this pre-processing may be performed in a similar manner to the pre-processing of the photographed image described in detail above, the detailed description will be omitted.

계속하면, 본 발명의 일 실시예에 따르면, 후보 객체란, 관심 객체에 관한 비교 대상 객체 풀에 포함되는 비교 대상 객체 중에서 촬영 이미지에서 검출되는 관심 객체에 해당할 확률이 높은 적어도 하나의 비교 대상 객체를 의미할 수 있다. 본 발명의 일 실시예에 따르면, 이러한 후보 객체는 하나만 도출되는 경우(예를 들면, 관심 객체에 해당할 확률이 가장 높은 후보 객체와 그 다음으로 확률이 높은 후보 객체 간의 확률 차이가 소정 수준 이상인 경우 등)도 가능하지만, 복수의 후보 객체가 도출되는 경우도 얼마든지 가능하다. 그리고, 본 발명의 일 실시예에 따른 후보 객체 관리부(220)는, 위와 같이 도출된 후보 객체가 도출되면, 그 후보 객체의 이미지 및 그 후보 객체의 식별 정보(예를 들면, 모델명, 브랜드 등)를 사용자에게 제공할 수 있다.Continuing, according to an embodiment of the present invention, the candidate object is at least one comparison target object having a high probability of corresponding to the object of interest detected in the photographed image among the comparison target objects included in the comparison target object pool related to the object of interest. can mean According to an embodiment of the present invention, when only one such candidate object is derived (for example, when a difference in probability between a candidate object having the highest probability corresponding to the object of interest and a candidate object having the next highest probability is greater than or equal to a predetermined level) etc.), but a case in which a plurality of candidate objects are derived is also possible. Then, the candidate object management unit 220 according to an embodiment of the present invention, when the derived candidate object is derived as described above, an image of the candidate object and identification information of the candidate object (eg, model name, brand, etc.) can be provided to users.

계속하면, 본 발명의 일 실시예에 따른 후보 객체 관리부(220)는, 본 발명의 일 실시예에 따른 관심 객체 관리부(210)에 의하여 촬영 이미지에서 관심 객체가 검출되면, 그 검출되는 관심 객체에 대하여 특징, 형상, 패턴 및 색채 중 적어도 하나에 관한 정보를 각각 도출할 수 있다. 그리고, 본 발명의 일 실시예에 따른 후보 객체 관리부(220)는, 위의 도출되는 특징, 형상, 패턴 및 색채 중 적어도 하나에 관한 정보 각각과 위의 관심 객체에 관한 비교 대상 객체 풀에 포함되는 비교 대상 객체의 대응되는 정보를 서로 비교함으로써, 위의 비교 대상 객체와 위의 검출되는 관심 객체 사이의 유사도를 산출할 수 있다.Continuing, when an object of interest is detected in the captured image by the object-of-interest manager 210 according to an embodiment of the present invention, the candidate object manager 220 according to an embodiment of the present invention provides information on the detected object of interest. Information about at least one of a characteristic, a shape, a pattern, and a color may be derived, respectively. And, the candidate object management unit 220 according to an embodiment of the present invention, each of the information about at least one of the derived features, shapes, patterns, and colors, and each of the information about the object of interest is included in the object pool for comparison. By comparing corresponding information of the comparison target object with each other, a degree of similarity between the comparison target object and the detected object of interest may be calculated.

여기서, 본 발명의 일 실시예에 따르면, 관심 객체에 대하여 도출되는 특징에 관한 정보는, 특징점(keypoint) 및 피쳐맵(feature map) 중 적어도 하나를 의미할 수 있다. 그리고, 본 발명의 일 실시예에 따르면, 위의 비교 대상 객체의 대응되는 정보, 즉, 위의 비교 대상 객체의 특징, 형상, 패턴 및 색채 중 적어도 하나에 관한 정보는, 본 발명의 일 실시예에 따른 후보 객체 관리부(220)에 의하여 미리 도출되어 비교 대상 객체 풀에 저장된 것일 수 있다.Here, according to an embodiment of the present invention, information about a feature derived with respect to an object of interest may mean at least one of a keypoint and a feature map. And, according to an embodiment of the present invention, the corresponding information of the comparison target object, that is, information about at least one of the characteristics, shape, pattern, and color of the comparison target object, is an embodiment of the present invention It may be derived in advance by the candidate object management unit 220 according to , and stored in the comparison target object pool.

계속하면, 본 발명의 일 실시예에 따른 후보 객체 관리부(220)는, 위와 같이 관심 객체에 대하여 도출되는 특징, 형상, 패턴 및 색채 중 적어도 하나에 관한 정보에 각각 기초하여, 위의 도출되는 특징에 관한 정보에 기초한 유사도, 위의 도출되는 형상에 관한 정보에 기초한 유사도, 위의 도출되는 패턴에 관한 정보에 기초한 유사도 및 위의 도출되는 색채에 관한 정보에 기초한 유사도를 각각 산출할 수 있다. 그리고, 본 발명의 일 실시예에 따른 후보 객체 관리부(220)는, 위와 같이 산출되는 각각의 유사도에 대하여 적절한 가중치를 부여하고 이를 종합하여 비교 대상 객체와 촬영 이미지에서 검출되는 관심 객체 사이의 유사도가 높은 순으로 소정 개수의 비교 대상 객체를 후보 객체로서 도출할 수 있다.Continuing, the candidate object management unit 220 according to an embodiment of the present invention, based on information about at least one of features, shapes, patterns, and colors derived for the object of interest as described above, respectively, the derived features The degree of similarity based on the information on , the degree of similarity based on the information on the shape derived above, the degree of similarity based on the information on the pattern derived above, and the degree of similarity based on the information on the color derived above can be calculated, respectively. In addition, the candidate object manager 220 according to an embodiment of the present invention assigns an appropriate weight to each similarity calculated as above, and synthesizes them to determine the similarity between the comparison target object and the object of interest detected in the photographed image. A predetermined number of comparison target objects may be derived as candidate objects in the highest order.

계속하면, 본 발명의 일 실시예에 따른 후보 객체 관리부(220)는, 위와 같이 관심 객체에 대하여 특징, 형상, 패턴 및 색채 중 적어도 하나에 관한 정보를 각각 도출함에 있어서 서로 다른 알고리즘을 적용할 수도 있다.Continuing, the candidate object management unit 220 according to an embodiment of the present invention may apply different algorithms in deriving information about at least one of a characteristic, a shape, a pattern, and a color for the object of interest as described above. there is.

예를 들면, 본 발명의 일 실시예에 따른 후보 객체 관리부(220)는, 특징에 관한 정보의 도출에는 ORB(Oriented FAST and Rotated BRIEF) 알고리즘을 적용하고, 형상에 관한 정보의 도출에는 윤곽(Contour) 검출 알고리즘을 적용하고, 패턴에 관한 정보의 도출에는 LBP(Local Binary Pattern) 알고리즘을 적용할 수 있다. 다만, 본 발명의 일 실시예에 따라 특징, 형상, 패턴 및 색채 중 적어도 하나에 관한 정보를 도출함에 있어서 적용되는 알고리즘들은 위의 열거된 것에 한정되지 않으며, 본 발명의 목적을 달성할 수 있는 범위 내에서 다양하게 변경될 수 있다. 예를 들어, 본 발명의 일 실시예에 따른 후보 객체 관리부(220)는, 위와 같은 영상 처리 기법들 뿐만 아니라, CNN(Convolutional Neural Networks) 이나 오토 인코더(Auto Encoder)와 같은 딥러닝 기반의 알고리즘을 더 이용할 수도 있다.For example, the candidate object manager 220 according to an embodiment of the present invention applies an Oriented FAST and Rotated BRIEF (ORB) algorithm to deriving feature-related information, and Contour to deriving shape-related information. ) detection algorithm, and LBP (Local Binary Pattern) algorithm can be applied to derivation of pattern information. However, algorithms applied in deriving information on at least one of features, shapes, patterns and colors according to an embodiment of the present invention are not limited to those listed above, and the scope of achieving the object of the present invention It can be changed in various ways. For example, the candidate object management unit 220 according to an embodiment of the present invention, as well as the image processing techniques as described above, deep learning-based algorithms such as CNN (Convolutional Neural Networks) or Auto Encoder (Auto Encoder) more may be used.

또한, 본 발명의 일 실시예에 따른 후보 객체 관리부(220)는, 촬영 이미지에서 관심 객체가 검출되면, 그 검출되는 관심 객체의 적어도 일부와 위의 검출되는 관심 객체에 관한 비교 대상 객체 풀에 포함되는 비교 대상 객체의 적어도 일부를 서로 비교함으로써, 위의 비교 대상 객체와 위의 검출되는 관심 객체 사이의 유사도를 산출할 수 있다. 그리고, 본 발명의 일 실시예에 따르면, 위의 비교 대상 객체의 적어도 일부와 위의 검출되는 관심 객체의 적어도 일부는 서로 연관될 수 있다.In addition, when an object of interest is detected in the captured image, the candidate object manager 220 according to an embodiment of the present invention includes at least a portion of the detected object of interest and a comparison object pool related to the detected object of interest. By comparing at least some of the comparison target objects to be compared with each other, a degree of similarity between the comparison target object and the detected object of interest may be calculated. And, according to an embodiment of the present invention, at least a portion of the comparison target object and at least a portion of the detected object of interest may be associated with each other.

구체적으로, 위의 비교 대상 객체의 적어도 일부와 위의 검출되는 관심 객체의 적어도 일부는, 본 발명의 일 실시예에 따른 후보 객체 관리부(220)에 의하여, 이하에서 설명되는 실시예를 포함하는 다양한 방법으로 결정될 수 있다. 그리고, 위의 비교 대상 객체에 대하여 기설정된 관심 영역을 참조하여, 위의 비교 대상 객체의 적어도 일부와 위의 검출되는 관심 객체의 적어도 일부가 결정될 수도 있다. 여기서, 본 발명의 일 실시예에 따르면, 위의 비교 대상 객체에 대하여 기설정된 관심 영역은, 비교 대상 객체의 특징이 되는 영역(예를 들면, 특수한 패턴이나 장식이 있는 영역, 딥러닝 모델에 기초하여 도출될 수 있는 소정의 영역 등), 유형별 영역(예를 들면, 몸체 영역, 중심 영역 등), 전경 영역(예를 들면, 비교 대상 객체의 이미지에서 배경 영역을 제거하고 남은 영역) 등을 포함할 수 있다.Specifically, at least a portion of the comparison target object and at least a portion of the detected object of interest are determined by the candidate object manager 220 according to an embodiment of the present invention, including various embodiments described below. method can be determined. In addition, at least a portion of the comparison target object and at least a part of the detected target object of interest may be determined by referring to a region of interest preset with respect to the comparison target object. Here, according to an embodiment of the present invention, the region of interest preset with respect to the comparison target object is a region that is a characteristic of the comparison target object (eg, a region with a special pattern or decoration, based on a deep learning model) Including a predetermined area that can be derived from can do.

도 6 내지 도 8은 본 발명의 일 실시예에 따라 관심 객체와 비교 대상 객체 사이의 유사도를 산출하기 위한 과정을 예시적으로 나타내는 도면이다. 여기서, 도 6의 (a), 도 7의 (a) 및 도 8의 (a)는 각각 관심 객체에 관한 촬영 이미지를 나타내고, 도 6의 (b) 내지 (d), 도 7의 (b) 내지 (d) 및 도 8의 (b) 내지 (d)는 각각 비교 대상 객체에 관한 촬영 이미지를 나타낸다. 그리고, 도 6의 (b) 내지 (d) 및 도 7의 (b) 내지 (d)를 참조하면, 본 발명의 일 실시예에 따라 비교 대상 객체에 대하여 기설정된 관심 영역(621 내지 623, 631 내지 633, 641 내지 642, 721 내지 723, 731 내지 733 및 741 내지 742)을 확인할 수 있다.6 to 8 are diagrams exemplarily illustrating a process for calculating a degree of similarity between an object of interest and a comparison object according to an embodiment of the present invention. Here, FIGS. 6 (a), 7 (a), and 8 (a) each show a photographed image of an object of interest, and FIGS. 6 (b) to (d) and FIG. 7 (b) to (d) and (b) to (d) of FIG. 8 each represent a photographed image of a comparison target object. And, referring to FIGS. 6 (b) to (d) and 7 (b) to (d), according to an embodiment of the present invention, preset ROIs 621 to 623 and 631 for a comparison target object to 633, 641 to 642, 721 to 723, 731 to 733, and 741 to 742) can be confirmed.

예를 들면, 도 6의 (a) 내지 (d)를 참조하면, 본 발명의 일 실시예에 따른 후보 객체 관리부(220)는, 도 6의 (a)의 관심 객체와 도 6의 (b)의 비교 대상 객체 사이의 유사도를 산출하는 경우에, 비교 대상 객체의 관심 영역(621 내지 623)과 그 관심 영역 각각에 대응되는 관심 객체의 영역(미도시됨)을 서로 비교함으로써 그 유사도를 산출할 수 있다. 마찬가지로, 본 발명의 일 실시예에 따른 후보 객체 관리부(220)는, 도 6의 (a)의 관심 객체와 도 6의 (c)의 비교 대상 객체 사이의 유사도를 산출하는 경우에, 비교 대상 객체의 관심 영역(631 내지 633)과 그 관심 영역 각각에 대응되는 관심 객체의 영역(미도시됨)을 서로 비교함으로써 그 유사도를 산출할 수 있다. 도 6의 (a)의 관심 객체와 도 6의 (d)의 비교 대상 객체 사이의 유사도 역시 위와 유사한 방법으로 산출될 수 있으므로 자세한 설명은 생략하기로 한다.For example, referring to FIGS. 6A to 6D , the candidate object manager 220 according to an embodiment of the present invention provides an object of interest in FIG. 6A and an object of interest in FIG. 6B . In the case of calculating the degree of similarity between the comparison target objects of can Similarly, when the candidate object manager 220 according to an embodiment of the present invention calculates the similarity between the object of interest of FIG. 6(a) and the comparison object of FIG. 6(c), the comparison target object The similarity may be calculated by comparing the ROIs 631 to 633 of . Since the degree of similarity between the object of interest of FIG. 6A and the comparison target object of FIG. 6D can also be calculated in a similar manner to the above, a detailed description thereof will be omitted.

다른 예를 들면, 도 7의 (a) 내지 (d)를 참조하면, 본 발명의 일 실시예에 따른 후보 객체 관리부(220)는, 도 7의 (a)의 관심 객체와 도 7의 (b)의 비교 대상 객체 사이의 유사도를 산출하는 경우에, 비교 대상 객체의 관심 영역(721 내지 723) 각각에 관심 객체의 특징(711)이 포함되어 있는 개수를 고려하여 그 유사도를 산출할 수 있다. 마찬가지로, 본 발명의 일 실시예에 따른 후보 객체 관리부(220)는, 도 7의 (a)의 관심 객체와 도 7의 (c)의 비교 대상 객체 사이의 유사도를 산출하는 경우에, 비교 대상 객체의 관심 영역(731 내지 733) 각각에 관심 객체의 특징(711)이 포함되어 있는 개수를 고려하여 그 유사도를 산출할 수 있다. 도 7의 (a)의 관심 객체와 도 7의 (d)의 비교 대상 객체 사이의 유사도 역시 위와 유사한 방법으로 산출될 수 있으므로 자세한 설명은 생략하기로 한다.For another example, referring to FIGS. 7A to 7D , the candidate object manager 220 according to an embodiment of the present invention provides an object of interest in FIG. 7A and FIG. 7B ), the similarity may be calculated in consideration of the number of features 711 of the object of interest included in each of the ROIs 721 to 723 of the comparison object. Similarly, when the candidate object manager 220 according to an embodiment of the present invention calculates the similarity between the object of interest of FIG. 7A and the comparison object of FIG. 7C , the comparison target object The similarity may be calculated in consideration of the number of features 711 of the object of interest included in each of the ROIs 731 to 733 of . Since the degree of similarity between the object of interest of FIG. 7A and the comparison target object of FIG. 7D can also be calculated in a similar manner to the above, a detailed description thereof will be omitted.

또 다른 예를 들면, 도 8의 (a) 내지 (d)를 참조하면, 본 발명의 일 실시예에 따른 후보 객체 관리부(220)는, 도 8의 (a)의 관심 객체와 도 8의 (b)의 비교 대상 객체 사이의 유사도를 산출하는 경우에, 관심 객체의 특징(811)을 군집화하여 군집 영역(812 및 813)을 생성하고, 그 생성된 군집 영역(812 및 813)에 각각 대응되는 비교 대상 객체의 영역(822 및 823)을 서로 비교함으로써 그 유사도를 산출할 수 있다. 도 8의 (a)의 관심 객체와 도 8의 (c)의 비교 대상 객체 사이의 유사도 및 도 8의 (a)의 관심 객체와 도 8의 (d)의 비교 대상 객체 사이의 유사도 역시 위와 유사한 방법으로 산출될 수 있으므로 자세한 설명은 생략하기로 한다.As another example, referring to FIGS. 8A to 8D , the candidate object manager 220 according to an embodiment of the present invention provides an object of interest in FIG. 8A and an object of interest in FIG. 8( In the case of calculating the degree of similarity between objects to be compared in b), cluster regions 812 and 813 are generated by clustering features 811 of the object of interest, and corresponding to the generated cluster regions 812 and 813, respectively. The similarity may be calculated by comparing the regions 822 and 823 of the comparison object with each other. The degree of similarity between the object of interest of FIG. 8(a) and the comparison target of FIG. 8(c) and the similarity between the object of interest of FIG. 8(a) and the comparison target of FIG. 8(d) is also similar to the above Since it can be calculated by this method, a detailed description thereof will be omitted.

또 다른 예를 들면, 본 발명의 일 실시예에 따른 후보 객체 관리부(220)는, 관심 객체에 관한 촬영 이미지에서 배경 영역을 제거하고 남은 관심 객체에 관한 전경 영역과 비교 대상 객체에 관한 전경 영역을 서로 비교함으로써, 관심 객체와 비교 대상 객체 사이의 유사도를 산출할 수 있다. 여기서, 비교 대상 객체에 관한 전경 영역은 상술한 바와 같이 기설정된 것일 수 있다. 그리고, 관심 객체 및 비교 대상 객체에 관한 전경 영역은 Grabcut, Selective Search, Mask R-CNN, Semantic Segmentation 등의 알고리즘을 적용하여 도출될 수 있다. 다만, 본 발명의 일 실시예에 따라 전경 영역 도출에 적용되는 알고리즘들은 위의 열거된 것에 한정되지 않으며, 본 발명의 목적을 달성할 수 있는 범위 내에서 다양하게 변경될 수 있다.As another example, the candidate object management unit 220 according to an embodiment of the present invention removes the background area from the captured image of the object of interest and sets the remaining foreground area regarding the object of interest and the foreground area regarding the comparison target object. By comparing with each other, a degree of similarity between the object of interest and the object to be compared may be calculated. Here, the foreground area of the comparison target object may be preset as described above. In addition, the foreground area for the object of interest and the object to be compared may be derived by applying algorithms such as Grabcut, Selective Search, Mask R-CNN, and Semantic Segmentation. However, the algorithms applied to the foreground region derivation according to an embodiment of the present invention are not limited to those listed above, and may be variously changed within a range capable of achieving the object of the present invention.

이상에서, 도 6 내지 도 8을 참조하여 관심 객체와 비교 대상 객체 사이의 유사도를 산출하기 위한 과정에 대하여 구체적으로 설명하였지만, 본 발명에서 유사도를 산출하는 과정이 반드시 도 6 내지 도 8의 실시예에 한정되는 것은 아니며, 본 발명의 목적을 달성할 수 있는 범위 내에서 얼마든지 변경 또는 조합될 수 있음을 밝혀 둔다. 또한, 도 6 내지 도 8을 참조하여 이상에서 설명된 내용은, 특징에 관한 정보에 기초하여 유사도를 산출하는 경우 외에, 형상, 패턴 및 색채 중 적어도 하나에 관한 정보에 각각 기초하여 유사도를 산출하는 경우에도 모두 적용될 수 있는 것으로 이해되어야 한다.In the above, the process for calculating the degree of similarity between the object of interest and the object to be compared has been described in detail with reference to FIGS. 6 to 8 , but in the present invention, the process of calculating the degree of similarity is necessarily performed in the embodiment of FIGS. 6 to 8 . It is not limited to, and it is pointed out that any number of changes or combinations can be made within the scope that can achieve the object of the present invention. In addition, in the contents described above with reference to FIGS. 6 to 8, the similarity is calculated based on information on at least one of shape, pattern, and color, respectively, in addition to the case of calculating the degree of similarity based on information about the characteristic. It should be understood that both cases can be applied.

한편, 본 발명의 일 실시예에 따른 후보 객체 관리부(220)는, 촬영 이미지에서 관심 객체가 검출되면, 그 검출되는 관심 객체에 관한 비교 대상 객체 풀에 포함되는 비교 대상 객체에 관한 식별 정보, 위의 비교 대상 객체에 관한 그룹 정보, 위의 검출되는 관심 객체에 관하여 사용자로부터 획득되는 부분적인 식별 정보 및 위의 관심 객체의 검출 결과 중 적어도 하나에 기초하여 후보 객체를 도출하는 기능을 수행할 수 있다.On the other hand, when an object of interest is detected in the captured image, the candidate object management unit 220 according to an embodiment of the present invention provides identification information on the comparison object included in the comparison object pool for the detected object of interest, the above may perform a function of deriving a candidate object based on at least one of group information about the comparison target object, partial identification information obtained from a user with respect to the detected object of interest, and a detection result of the object of interest .

구체적으로, 본 발명의 일 실시예에 따르면, 위의 비교 대상 객체에 관한 그룹 정보는, 위의 비교 대상 객체에 관한 식별 정보 중 적어도 하나가 일치하는 적어도 하나의 다른 비교 대상 객체에 관한 식별 정보를 포함할 수 있다. 즉, 본 발명의 일 실시예에 따르면, 위의 비교 대상 객체에 관한 그룹 정보에는, 위의 비교 대상 객체와 완전히 동일한 객체는 아니지만, 위의 비교 대상 객체와 적어도 일부의 특징을 공유하는 다른 비교 대상 객체에 관한 식별 정보가 포함될 수 있다.Specifically, according to an embodiment of the present invention, the group information on the comparison target object includes identification information about at least one other comparison target object that matches at least one of the identification information on the comparison target object. may include That is, according to an embodiment of the present invention, in the group information about the comparison target object, the comparison target object is not exactly the same object as the comparison target object, but another comparison target that shares at least some characteristics with the comparison target object Identification information about the object may be included.

예를 들어, 본 발명의 일 실시예에 따르면, 관심 객체가 핸드백인 경우를 가정하면, 특정 비교 대상 객체에 관한 그룹 정보에는, 그 특정 비교 대상 객체와 디자인이 유사한 비교 대상 객체들 중에서, 사이즈, 캔버스, 재질, 색깔 및 패턴 중 적어도 하나가 다른 비교 대상 객체에 관한 식별 정보가 포함될 수 있다. 여기서, 본 발명의 일 실시예에 따르면, 위의 특정 비교 대상 객체와 디자인이 유사한 비교 대상 객체들은 위의 특정 비교 대상 객체의 식별 정보를 참조하여 결정(예를 들면, 위의 특정 비교 대상 객체의 모델명과 일부가 일치하는 모델명을 갖는 다른 비교 대상 객체를 디자인이 유사한 비교 대상 객체로서 결정)될 수 있고, 사람이나 외부 시스템에 의하여 분류되어 비교 대상 객체 풀에 저장될 수 있다.For example, according to an embodiment of the present invention, assuming that the object of interest is a handbag, group information about a specific comparison target object includes a size, a size, At least one of a canvas, a material, a color, and a pattern may include identification information on a comparison target object different from each other. Here, according to an embodiment of the present invention, comparison target objects having similar design to the specific comparison target object are determined with reference to the identification information of the specific comparison target object (eg, of the specific comparison target object above) Another comparison target object having a model name partially identical to the model name may be determined as a comparison target object having a similar design), and may be classified by a person or an external system and stored in a comparison target object pool.

도 14 내지 도 17은 본 발명의 일 실시예에 따라 후보 객체가 도출되는 과정을 예시적으로 나타내는 도면이다.14 to 17 are diagrams exemplarily illustrating a process of deriving a candidate object according to an embodiment of the present invention.

예를 들어, 도 14의 (a) 및 (b)를 참조하면, 위에서 자세히 설명한 바와 같이, 본 발명의 일 실시예에 따른 후보 객체 관리부(220)는, 관심 객체에 관한 비교 대상 객체 풀에 포함되는 비교 대상 객체와 촬영 이미지(1400)에서 검출되는 관심 객체 사이의 유사도를 산출하고, 그 산출되는 유사도에 기초하여 후보 객체(1420 내지 1460)를 도출할 수 있다. 여기서, 본 발명의 일 실시예에 따르면, 각 후보 객체(1420 내지 1460)의 이미지 왼쪽의 숫자는 유사도에 기초한 순위를 나타낼 수 있다. 그리고, 그 숫자를 둘러싸는 도형의 모양이 같으면 같은 그룹에 해당한다는 것을 나타낼 수 있다. 즉, 본 발명의 일 실시예에 따르면, 비교 대상 객체(1420)에 관한 그룹 정보에는 비교 대상 객체(1460)에 관한 식별 정보가 포함될 수 있고, 그 역도 마찬가지이다. 그리고, 관심 객체에 관하여 사용자로부터 획득되는 부분적인 식별 정보로서, 그 관심 객체의 패턴은 모노그램이고 사이즈가 BB라는 식별 정보가 획득된 경우를 가정할 수 있다(1410).For example, referring to (a) and (b) of FIG. 14 , as described in detail above, the candidate object manager 220 according to an embodiment of the present invention is included in the comparison target object pool for the object of interest. A degree of similarity between the comparison target object to be compared and the object of interest detected in the captured image 1400 may be calculated, and candidate objects 1420 to 1460 may be derived based on the calculated similarity degree. Here, according to an embodiment of the present invention, a number on the left side of the image of each candidate object 1420 to 1460 may indicate a ranking based on similarity. And, if the shapes of the figures surrounding the number are the same, it may indicate that they belong to the same group. That is, according to an embodiment of the present invention, the group information on the comparison object 1420 may include identification information on the comparison object 1460 , and vice versa. Then, as partial identification information obtained from the user with respect to the object of interest, it may be assumed that the pattern of the object of interest is a monogram and identification information that the size is BB is obtained ( 1410 ).

계속하여 예를 들면, 도 15를 참조하면, 본 발명의 일 실시예에 따른 후보 객체 관리부(220)는, 비교 대상 객체의 그룹 정보에 기초하여, 위와 같이 유사도에 기초하여 도출된 후보 객체(1420 내지 1460)의 순위를 조정할 수 있다. 즉, 본 발명의 일 실시예에 따른 후보 객체 관리부(220)는, 위와 같이 유사도에 기초하여 도출된 후보 객체(1420 내지 1460)에 대하여, 같은 그룹에 속하는 후보 객체는 그 그룹에서 유사도를 기준으로 가장 높은 순위에 위치하는 후보 객체의 순위를 따르도록, 유사도에 기초하여 도출된 후보 객체(1420 내지 1460)의 순위를 조정할 수 있다. 예를 들어, 유사도에 기초하여 도출된 후보 객체(1460)의 순위는 같은 그룹에 해당하는 후보 객체 중 가장 높은 순위의 후보 객체(1420)의 순위에 따라 21위에서 1위로 조정될 수 있다(1510). 마찬가지로, 유사도에 기초하여 도출된 후보 객체(1450)의 순위는 같은 그룹에 해당하는 후보 객체 중 가장 높은 순위의 후보 객체(1430)의 순위에 따라 7위에서 2위로 조정될 수 있다(1520).Continuing, for example, referring to FIG. 15 , the candidate object manager 220 according to an embodiment of the present invention provides the candidate object 1420 derived based on the degree of similarity as above, based on group information of the comparison target object. to 1460) can be adjusted. That is, the candidate object manager 220 according to an embodiment of the present invention, with respect to the candidate objects 1420 to 1460 derived based on the degree of similarity as described above, the candidate objects belonging to the same group are determined based on the degree of similarity in the group. The ranks of the candidate objects 1420 to 1460 derived based on the similarity may be adjusted to follow the ranks of the candidate objects located in the highest rank. For example, the ranking of the candidate object 1460 derived based on the similarity may be adjusted from 21st to 1st according to the ranking of the highest ranked candidate object 1420 among candidate objects corresponding to the same group ( 1510 ). Similarly, the ranking of the candidate object 1450 derived based on the similarity may be adjusted from 7th to 2nd according to the ranking of the highest-ranked candidate object 1430 among the candidate objects corresponding to the same group ( 1520 ).

계속하여 예를 들면, 도 16의 (a)를 참조하면, 본 발명의 일 실시예에 따른 후보 객체 관리부(220)는, 위와 같이 비교 대상 객체의 그룹 정보에 기초하여 조정된 후보 객체의 순위를 기준으로, 관심 객체에 관하여 사용자로부터 획득되는 부분적인 식별 정보(1410)에 기초하여 후보 객체를 도출할 수 있다. 예를 들어, 비교 대상 객체의 그룹 정보에 기초하여 조정된 후보 객체(1510 내지 1530) 중에서, 패턴이 모노그램(1410)인 객체들을 후보 객체로서 도출할 수 있다(1610 내지 1630).Continuing, for example, referring to FIG. 16A , the candidate object manager 220 according to an embodiment of the present invention determines the rank of the candidate object adjusted based on the group information of the comparison target object as described above. As a reference, a candidate object may be derived based on partial identification information 1410 obtained from a user with respect to the object of interest. For example, from among the candidate objects 1510 to 1530 adjusted based on group information of the comparison object, objects having the pattern of the monogram 1410 may be derived as candidate objects ( 1610 to 1630 ).

나아가, 도 16의 (b)를 참조하면, 본 발명의 일 실시예에 따른 후보 객체 관리부(220)는, 위와 같이 도출된 후보 객체(1610 내지 1630)에 관한 그룹 정보에 기초하여, 후보 객체가 속하는 그룹 내에 사이즈가 BB(1410)인 객체가 있다면, 해당 객체를 후보 객체로서 도출할 수도 있다(1640). 또는, 사용자로부터 획득되는 부분적인 식별 정보가 관심 객체의 실측 사이즈에 해당한다면, 본 발명의 일 실시예에 따른 후보 객체 관리부(220)는, 그 실측 사이즈와의 사이즈 차이가 가장 작은 객체를 후보 객체로서 도출할 수도 있다.Furthermore, referring to FIG. 16B , the candidate object manager 220 according to an embodiment of the present invention selects the candidate object based on the group information on the candidate objects 1610 to 1630 derived as described above. If there is an object having a size of BB 1410 in the group to which it belongs, the object may be derived as a candidate object ( 1640 ). Alternatively, if the partial identification information obtained from the user corresponds to the actual size of the object of interest, the candidate object manager 220 according to an embodiment of the present invention selects the object having the smallest size difference from the actual size as the candidate object. It can also be derived as

다른 예를 들면, 본 발명의 일 실시예에 따른 후보 객체 관리부(220)는, 관심 객체의 특징, 형상 및 패턴에 관한 정보에 기초하여 비교 대상 객체와 위의 관심 객체 사이의 유사도를 산출하고, 그 산출된 유사도에 기초하여 후보 객체를 도출할 수 있다. 그리고, 본 발명의 일 실시예에 따른 후보 객체 관리부(220)는, 그 도출된 후보 객체와 같은 그룹에 속하는 다른 비교 대상 객체 중에서 관심 객체와 색채가 가장 유사한 객체를 후보 객체로서 도출할 수 있다. 여기서, 색채가 유사한 정도는, 본 발명의 일 실시예에 따른 후보 객체 관리부(220)가 관심 객체의 색채에 관한 정보에 기초하여 비교 대상 객체와 위의 관심 객체 사이의 유사도를 산출함으로써 결정될 수 있다.For another example, the candidate object manager 220 according to an embodiment of the present invention calculates a degree of similarity between the object of interest and the object of interest above, based on information about the characteristics, shape, and pattern of the object of interest, A candidate object may be derived based on the calculated similarity. In addition, the candidate object manager 220 according to an embodiment of the present invention may derive, as a candidate object, an object having the most similar color to the object of interest among other comparison objects belonging to the same group as the derived candidate object. Here, the degree of color similarity may be determined by calculating, by the candidate object manager 220 according to an embodiment of the present invention, the degree of similarity between the comparison target object and the object of interest above, based on information about the color of the object of interest. .

다른 예를 들면, 본 발명의 일 실시예에 따른 후보 객체 관리부(220)는, 관심 객체의 특징, 패턴 및 색채에 관한 정보에 기초하여 비교 대상 객체와 위의 관심 객체 사이의 유사도를 산출하고, 그 산출된 유사도에 기초하여 후보 객체를 도출할 수 있다. 그리고, 본 발명의 일 실시예에 따른 후보 객체 관리부(220)는, 그 도출된 후보 객체 중에서 관심 객체와 형상(예를 들면, 세로 길이가 가로 길이보다 김)이 유사한 객체의 순위가 높아지도록 후보 객체의 순위를 조정할 수 있다. 여기서, 형상이 유사한 정도는, 본 발명의 일 실시예에 따른 후보 객체 관리부(220)가 관심 객체의 형상에 관한 정보에 기초하여 비교 대상 객체와 위의 관심 객체 사이의 유사도를 산출함으로써 결정될 수 있다.For another example, the candidate object management unit 220 according to an embodiment of the present invention calculates a degree of similarity between the comparison target object and the object of interest above, based on information about the characteristic, pattern, and color of the object of interest, A candidate object may be derived based on the calculated similarity. And, the candidate object management unit 220 according to an embodiment of the present invention, from among the derived candidate objects, a candidate object having a similar shape (eg, a vertical length longer than a horizontal length) to the object of interest is ranked higher. You can adjust the rank of objects. Here, the degree of similarity in shape may be determined when the candidate object manager 220 according to an embodiment of the present invention calculates the degree of similarity between the object of interest and the object of interest above, based on information about the shape of the object of interest. .

또 다른 예를 들면, 도 9 및 도 17을 참조하면, 상술한 바와 같이, 본 발명의 일 실시예에 따른 관심 객체 관리부(210)에 의한 관심 객체(911)의 검출 결과로서, 그 관심 객체의 메인 카테고리는 가방으로 인식되고 서브 카테고리는 동물(또는 고양이)로 인식된 경우를 가정할 수 있다. 이러한 경우에, 본 발명의 일 실시예에 따른 후보 객체 관리부(220)는, 위와 같은 검출 결과에 기초하여, 유사도에 기초하여 도출된 후보 객체의 순위(1710)를 조정할 수 있다(1720).As another example, referring to FIGS. 9 and 17 , as described above, as a result of the detection of the object of interest 911 by the object of interest manager 210 according to an embodiment of the present invention, the object of interest It may be assumed that the main category is recognized as a bag and the sub-category is recognized as an animal (or cat). In this case, the candidate object manager 220 according to an embodiment of the present invention may adjust the rank 1710 of the candidate object derived based on the degree of similarity based on the above detection result ( 1720 ).

또 다른 예를 들면, 도 10 및 도 17을 참조하면, 상술한 바와 같이, 본 발명의 일 실시예에 따른 관심 객체 관리부(210)에 의한 관심 객체(1021)의 검출 결과로서, 그 관심 객체의 메인 카테고리는 가방으로 인식되고 서브 카테고리는 동물(또는 고양이)로 인식된 경우를 가정할 수 있다. 이러한 경우에, 본 발명의 일 실시예에 따른 후보 객체 관리부(220)는, 위와 같은 검출 결과에 기초하여, 유사도에 기초하여 도출된 후보 객체의 순위(1710)를 조정할 수 있다(1720).As another example, referring to FIGS. 10 and 17 , as described above, as a result of the detection of the object of interest 1021 by the object of interest manager 210 according to an embodiment of the present invention, the object of interest is It may be assumed that the main category is recognized as a bag and the sub-category is recognized as an animal (or cat). In this case, the candidate object manager 220 according to an embodiment of the present invention may adjust the rank 1710 of the candidate object derived based on the degree of similarity based on the above detection result ( 1720 ).

한편, 본 발명의 일 실시예에 따른 후보 객체 관리부(220)가 후보 객체를 도출하는 과정은 위에서 설명된 방법에 한정되는 것은 아니고, 본 발명의 목적을 달성할 수 있는 범위 내에서 다양하게 변경될 수 있다.On the other hand, the process of deriving the candidate object by the candidate object manager 220 according to an embodiment of the present invention is not limited to the method described above, and may be variously changed within the scope that can achieve the object of the present invention. can

한편, 본 발명의 일 실시예에 따른 후보 객체 관리부(220)는, 촬영 이미지에서 검출되는 관심 객체에 관하여 사용자로부터 획득되는 부분적인 식별 정보에 기초하여 비교 대상 객체 풀을 필터링하는 기능을 수행할 수 있다.Meanwhile, the candidate object manager 220 according to an embodiment of the present invention may perform a function of filtering the comparison target object pool based on partial identification information obtained from the user with respect to the object of interest detected in the photographed image. there is.

구체적으로, 본 발명의 일 실시예에 따른 후보 객체 관리부(220)는, 관심 객체에 관한 비교 대상 객체 풀에 포함되는 비교 대상 객체 중에서, 위의 관심 객체에 관하여 사용자로부터 획득되는 부분적인 식별 정보와 연관되는 식별 정보를 갖는 비교 대상 객체를 필터링할 수 있다. 그리고, 그 필터링된 비교 대상 객체 중에서만 후보 객체가 도출되도록 함으로써, 본 발명의 일 실시예에 따른 후보 객체 관리부(210)의 연산량을 줄이고, 위의 도출되는 후보 객체의 정확성을 높일 수 있다.Specifically, the candidate object management unit 220 according to an embodiment of the present invention may include partial identification information obtained from a user with respect to the object of interest from among the comparison objects included in the comparison object pool related to the object of interest; A comparison target object having associated identification information may be filtered. And, by allowing candidate objects to be derived only from the filtered comparison target objects, the amount of computation of the candidate object management unit 210 according to an embodiment of the present invention can be reduced and the accuracy of the derived candidate objects can be increased.

한편, 본 발명의 일 실시예에 따른 연관도 평가부(미도시됨)는, 촬영 이미지에서 검출되는 관심 객체와 그 검출되는 관심 객체에 관하여 사용자로부터 획득되는 부분적인 식별 정보 사이의 연관도를 평가하는 기능을 수행할 수 있다.Meanwhile, the relevance evaluation unit (not shown) according to an embodiment of the present invention evaluates the degree of relevance between the object of interest detected in the captured image and partial identification information obtained from the user with respect to the detected object of interest. function can be performed.

구체적으로, 본 발명의 일 실시예에 따른 관심 객체 관리부(210)에 의하여 촬영 이미지에서 관심 객체가 검출되면, 본 발명의 일 실시예에 따른 연관도 평가부는, 위의 검출되는 관심 객체와 위의 검출되는 관심 객체에 관하여 사용자로부터 획득되는 부분적인 식별 정보가 서로 연관되는 정도를 평가할 수 있다. 나아가, 본 발명의 일 실시예에 따른 연관도 평가부는, 위의 평가되는 연관도에 기초하여 위의 사용자에게 피드백을 제공할 수도 있다.Specifically, when an object of interest is detected from a photographed image by the object of interest manager 210 according to an embodiment of the present invention, the relevance evaluation unit according to an embodiment of the present invention is configured to The degree of correlation between partial identification information obtained from the user with respect to the detected object of interest may be evaluated. Furthermore, the relevance evaluation unit according to an embodiment of the present invention may provide feedback to the above user based on the evaluated relevance level.

예를 들어, 본 발명의 일 실시예에 따른 관심 객체 관리부(210)에 의하여 촬영 이미지에서 검출되는 관심 객체의 카테고리가 루이비통 가방인 경우를 가정할 수 있다. 이러한 경우에, 위의 검출되는 관심 객체에 관하여 사용자로부터 획득되는 부분적인 식별 정보가 샤넬이라면, 본 발명의 일 실시예에 따른 연관도 평가부는, 위의 관심 객체와 위의 사용자로부터 획득되는 부분적인 식별 정보 사이의 연관도가 소정 수준 이하라고 평가할 수 있다. 그리고, 위의 사용자에게 위의 관심 객체에 관한 촬영 이미지를 다시 제공하거나 위의 사용자로부터 획득되는 부분적인 식별 정보(예를 들면, 브랜드)를 다시 선택 또는 입력할 것을 피드백으로서 요구할 수 있다.For example, it may be assumed that the category of the object of interest detected in the captured image by the object of interest manager 210 according to an embodiment of the present invention is a Louis Vuitton bag. In this case, if the partial identification information obtained from the user with respect to the detected object of interest is Chanel, the relevance evaluation unit according to an embodiment of the present invention includes the partial identification information obtained from the user and the object of interest. It may be evaluated that the degree of association between the identification information is less than or equal to a predetermined level. In addition, the user may again provide a photographed image of the object of interest to the above user or request as feedback to select or input partial identification information (eg, brand) obtained from the above user again.

한편, 본 발명의 일 실시예에 따른 연관도 평가부가 위에서 설명된 연관도를 평가하는 기능은, 본 발명의 일 실시예에 따른 관심 객체 관리부(210), 후보 객체 관리부(220) 및 가격 관리부(230)에 의하여 수행되는 여러 기능과 병렬적 및/또는 독립적으로 수행될 수 있는 것으로 이해되어야 한다.On the other hand, the function for the relevance evaluation unit according to an embodiment of the present invention to evaluate the degree of relevance described above includes the object of interest management unit 210 , the candidate object management unit 220 and the price management unit ( It should be understood that various functions performed by 230) may be performed in parallel and/or independently.

다음으로, 본 발명의 일 실시예에 따른 가격 관리부(230)는, 본 발명의 일 실시예에 따른 후보 객체 관리부(220)에 의하여 도출되는 후보 객체에 관한 식별 정보를 참조하여 결정되는 관심 객체에 관한 식별 정보 및 위의 관심 객체에 관하여 획득되는 상태 정보에 기초하여 위의 관심 객체의 가격을 추정하는 기능을 수행할 수 있다.Next, the price management unit 230 according to an embodiment of the present invention provides an object of interest determined with reference to identification information on a candidate object derived by the candidate object management unit 220 according to an embodiment of the present invention. It is possible to perform a function of estimating the price of the object of interest based on the identification information about the object of interest and the state information obtained about the object of interest.

구체적으로, 본 발명의 일 실시예에 따른 가격 관리부(230)는, 본 발명의 일 실시예에 따른 후보 객체 관리부(220)에 의하여 도출되는 후보 객체에 관한 식별 정보를 참조하여 관심 객체에 관한 식별 정보를 결정할 수 있다. 본 발명의 일 실시예에 따르면, 관심 객체에 관한 식별 정보란, 상술한 바와 같이, 관심 객체의 가격을 추정하기 위하여 필요한 정보로서, 구체적인 모델명과 같이 해당 관심 객체를 다른 객체와 구별하여 특정할 수 있는 정보를 의미할 수 있다.Specifically, the price management unit 230 according to an embodiment of the present invention identifies the object of interest with reference to the identification information on the candidate object derived by the candidate object management unit 220 according to the embodiment of the present invention. information can be determined. According to an embodiment of the present invention, the identification information on the object of interest is information necessary for estimating the price of the object of interest as described above. It may mean that there is information

예를 들면, 본 발명의 일 실시예에 따른 가격 관리부(230)는, 후보 객체 중에서 가장 높은 순위의 객체에 관한 식별 정보를 관심 객체에 관한 식별 정보로서 결정할 수 있다. 다른 예를 들면, 본 발명의 일 실시예에 따른 가격 관리부(230)는, 후보 객체 중에서 사용자로부터 선택되는 객체에 관한 식별 정보를 관심 객체에 관한 식별 정보로서 결정할 수도 있다.For example, the price management unit 230 according to an embodiment of the present invention may determine identification information on an object of the highest rank among candidate objects as identification information on the object of interest. For another example, the price management unit 230 according to an embodiment of the present invention may determine identification information on an object selected by a user from among candidate objects as identification information on an object of interest.

계속하면, 본 발명의 일 실시예에 따른 관심 객체 관리부(210)에 의하여 검출되는 관심 객체에 관하여 획득되는 상태 정보에는, 위의 관심 객체에 관하여 사용자로부터 획득되는 상태 정보가 포함될 수 있다. 즉, 본 발명의 일 실시예에 따르면, 위에서 도 13의 (b) 및 (c)를 참조하여 설명한 바와 같이, 관심 객체에 관하여 획득되는 상태 정보는 사용자로부터 획득될 수 있고, 이렇게 사용자로부터 획득되는 상태 정보를 학습 데이터로 하여 학습되는 인공 지능 기반의 상태 정보 추정 모델에 기초하여 획득될 수도 있다.Continuing, the state information obtained with respect to the object of interest detected by the object-of-interest manager 210 according to an embodiment of the present invention may include state information obtained from the user regarding the object of interest. That is, according to an embodiment of the present invention, as described above with reference to FIGS. 13 (b) and (c), the state information obtained with respect to the object of interest may be obtained from the user, and thus obtained from the user It may be obtained based on an artificial intelligence-based state information estimation model that is learned by using the state information as learning data.

보다 구체적으로, 본 발명의 일 실시예에 따른 관심 객체 관리부(210)는, 위의 상태 정보 추정 모델에 기초하여 관심 객체에 존재하는 스크래치, 얼룩, 노후화된 부분 등의 위치, 크기 및/또는 그 정도를 추정함으로써 위의 관심 객체에 관한 상태 정보를 획득할 수 있다. 그리고, 본 발명의 일 실시예에 따른 가격 관리부(230)는, 위와 같이 관심 객체에 관하여 획득되는 상태 정보 및 위의 관심 객체에 관한 식별 정보에 기초하여 위의 관심 객체의 품질을 평가할 수 있다. 본 발명의 일 실시예에 따르면, 위와 같이 평가되는 관심 객체의 품질은, 정량적인 수치를 의미할 수 있고, 상, 중 및 하와 같이 구분되는 등급을 의미할 수도 있으나, 이에 제한되는 것은 아니다.More specifically, the object-of-interest management unit 210 according to an embodiment of the present invention may include, based on the above state information estimation model, the location, size, and/or the size of scratches, stains, aged parts, etc. existing in the object of interest. By estimating the degree, it is possible to obtain state information about the object of interest above. In addition, the price management unit 230 according to an embodiment of the present invention may evaluate the quality of the object of interest based on the state information obtained about the object of interest and the identification information about the object of interest as described above. According to an embodiment of the present invention, the quality of the object of interest evaluated as described above may mean a quantitative numerical value, and may mean a grade classified as high, medium, and low, but is not limited thereto.

예를 들어, 관심 객체가 가방인 경우에, 본 발명의 일 실시예에 따른 가격 관리부(230)는, 스크래치(또는 얼룩, 노후화된 부분 등)의 위치(예를 들면, 스크래치가 가방의 전면에 있는 경우에는 스크래치가 바닥면에 있는 경우보다 낮은 품질로 평가될 수 있음), 크기, 가죽의 색상(흰색 가죽은 검은색 가죽보다 스크래치가 눈에 잘 띄므로, 흰색 가죽에 스크래치가 있는 경우에는 검은색 가죽에 스크래치가 있는 경우보다 낮은 품질로 평가될 수 있음), 가죽의 종류 등과 같은 평가 요소들에 기초하여 위의 관심 객체의 품질을 평가할 수 있다. 이때, 본 발명의 일 실시예에 따른 관심 가격 관리부(230)는, 위의 평가 요소별로 부여된 소정의 가중치를 참조하여 위의 관심 객체의 품질을 평가할 수 있다.For example, if the object of interest is a bag, the price management unit 230 according to an embodiment of the present invention may include a location of a scratch (or a stain, an aged part, etc.) (eg, a scratch on the front of the bag). If there are scratches, they may be rated as a lower quality than if they were on the bottom), size, and color of the leather (white leather is more prone to scratches than black leather, so if there are scratches on white leather, it will be black). It is possible to evaluate the quality of the object of interest above based on evaluation factors such as a color leather with scratches) and a type of leather. In this case, the interest price management unit 230 according to an embodiment of the present invention may evaluate the quality of the object of interest with reference to a predetermined weight assigned to each evaluation element.

계속하면, 본 발명의 일 실시예에 따른 가격 관리부(230)는, 관심 객체에 관한 식별 정보에 기초하여 비교 대상 객체 풀로부터 위의 관심 객체에 대응되는 비교 대상 객체의 가격 정보(예를 들면, 공식 가격, 중고품의 가격 등)를 획득할 수 있다. 본 발명의 일 실시예에 따르면, 위의 가격 정보는 웹 크롤링 등의 방법으로 실시간으로 수집되는 것일 수 있다. 그리고, 본 발명의 일 실시예에 따른 가격 관리부(230)는, 위와 같이 관심 객체에 관하여 획득되는 상태 정보에 기초하여 위의 관심 객체의 품질이 평가되면, 그 평가된 품질 및 위의 가격 정보를 참조하여 위의 관심 객체의 가격을 추정할 수 있다.Continuing, the price management unit 230 according to an embodiment of the present invention, based on the identification information on the object of interest, from the comparison object pool, price information (eg, Official prices, second-hand prices, etc.) can be obtained. According to an embodiment of the present invention, the above price information may be collected in real time by a method such as web crawling. And, the price management unit 230 according to an embodiment of the present invention, when the quality of the object of interest is evaluated based on the state information obtained with respect to the object of interest as described above, the evaluated quality and the price information With reference to it, the price of the object of interest above can be estimated.

한편, 본 발명의 일 실시예에 따른 가격 관리부(230)는, 촬영 이미지에서 검출되는 관심 객체의 인기도에 더 기초하여 위의 관심 객체의 가격을 추정할 수 있다.Meanwhile, the price management unit 230 according to an embodiment of the present invention may estimate the price of the object of interest further based on the popularity of the object of interest detected in the captured image.

구체적으로, 본 발명의 일 실시예에 따르면, 관심 객체의 인기도에는 그 관심 객체 자체의 인기도 및 그 관심 객체가 속하는 브랜드의 인기도가 포함될 수 있다. 그리고, 본 발명의 일 실시예에 따른 가격 관리부(230)는, 검색 엔진의 검색 빈도수(예를 들면, 특정 기간 내의 검색 빈도수의 증감), SNS의 해시 태그의 검색 빈도수, 온라인 커뮤니티의 게시글, 댓글 등의 정보를 참조하여 위의 관심 객체의 인기도를 결정할 수 있다.Specifically, according to an embodiment of the present invention, the popularity of the object of interest may include the popularity of the object of interest itself and the popularity of a brand to which the object of interest belongs. And, the price management unit 230 according to an embodiment of the present invention, the search frequency of the search engine (eg, increase or decrease of the search frequency within a specific period), the search frequency of hashtags in SNS, online community posts, comments It is possible to determine the popularity of the above object of interest by referring to information such as.

한편, 본 발명의 일 실시예에 따른 가격 관리부(230)는, 위와 같이 촬영 이미지에서 검출되는 관심 객체의 가격을 추정하고, 그 추정된 가격을 사용자에게 제공할 수 있다.Meanwhile, the price management unit 230 according to an embodiment of the present invention may estimate the price of the object of interest detected in the captured image as described above, and provide the estimated price to the user.

예를 들어, 본 발명의 일 실시예에 따른 후보 객체 관리부(220)에 의하여 복수의 후보 객체가 도출된 경우에, 본 발명의 일 실시예에 따른 후보 객체 관리부(220)는 그 도출된 복수의 후보 객체의 이미지 및 식별 정보를 사용자에게 제공할 수 있다. 그리고, 사용자가 위의 복수의 후보 객체 중에서 관심 객체에 대응되는 객체(즉, 관심 객체와 같은 종류의 객체)를 선택하면, 본 발명의 일 실시예에 따른 가격 관리부(230)는, 그 선택된 객체의 식별 정보를 위의 관심 객체에 관한 식별 정보로서 결정하고, 위의 관심 객체에 관한 식별 정보 및 위의 관심 객체에 관하여 획득되는 상태 정보에 기초하여 추정되는 위의 관심 객체의 가격을 사용자에게 제공할 수 있다.For example, when a plurality of candidate objects are derived by the candidate object management unit 220 according to an embodiment of the present invention, the candidate object management unit 220 according to an embodiment of the present invention receives the derived plurality of objects. An image and identification information of the candidate object may be provided to the user. And, when the user selects an object corresponding to the object of interest (ie, the same type of object as the object of interest) from among the plurality of candidate objects above, the price management unit 230 according to an embodiment of the present invention, the selected object determines the identification information of the object of interest as identification information about the object of interest, and provides the user with the price of the object of interest estimated based on the identification information about the object of interest and state information obtained with respect to the object of interest can do.

한편, 본 발명의 일 실시예에 따른 가격 관리부(230)는, 촬영 이미지에 포함되는 메타데이터에 기초하여 사용자에게 제공될 가격의 표시 단위를 결정할 수 있다. 예를 들어, 본 발명의 일 실시예에 따른 가격 관리부(230)는, 촬영 이미지가 촬영된 국가 정보(즉, 메타데이터)에 기초하여 해당 국가에서 사용되는 통화(예를 들면, 달러화, 원화 등)를 위의 사용자에게 제공될 가격의 표시 단위로서 결정할 수 있다.Meanwhile, the price management unit 230 according to an embodiment of the present invention may determine a display unit of a price to be provided to the user based on metadata included in the captured image. For example, the price management unit 230 according to an embodiment of the present invention, based on the country information (ie, metadata) in which the photographed image is photographed, a currency (eg, dollar, won, etc.) used in the country ) may be determined as the display unit of the price to be provided to the above user.

다음으로, 본 발명의 일 실시예에 따른 통신부(240)는 관심 객체 관리부(210), 후보 객체 관리부(220) 및 가격 관리부(230)로부터의/로의 데이터 송수신이 가능하도록 하는 기능을 수행할 수 있다.Next, the communication unit 240 according to an embodiment of the present invention may perform a function of enabling data transmission/reception to and from the object of interest management unit 210 , the candidate object management unit 220 , and the price management unit 230 . there is.

마지막으로, 본 발명의 일 실시예에 따른 제어부(250)는 관심 객체 관리부(210), 후보 객체 관리부(220), 가격 관리부(230) 및 통신부(240) 간의 데이터의 흐름을 제어하는 기능을 수행할 수 있다. 즉, 본 발명에 따른 제어부(250)는 객체 정보 추정 시스템(200)의 외부로부터의/로의 데이터 흐름 또는 객체 정보 추정 시스템(200)의 각 구성요소 간의 데이터 흐름을 제어함으로써, 관심 객체 관리부(210), 후보 객체 관리부(220), 가격 관리부(230) 및 통신부(240)에서 각각 고유 기능을 수행하도록 제어할 수 있다.Finally, the control unit 250 according to an embodiment of the present invention performs a function of controlling the flow of data between the object of interest management unit 210 , the candidate object management unit 220 , the price management unit 230 , and the communication unit 240 . can do. That is, the control unit 250 according to the present invention controls the data flow to/from the outside of the object information estimation system 200 or the data flow between each component of the object information estimation system 200 , thereby controlling the object of interest management unit 210 . ), the candidate object management unit 220 , the price management unit 230 , and the communication unit 240 may be controlled to perform their own functions, respectively.

이상 설명된 본 발명에 따른 실시예는 다양한 컴퓨터 구성요소를 통하여 실행될 수 있는 프로그램 명령어의 형태로 구현되어 컴퓨터 판독 가능한 기록 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능한 기록 매체는 프로그램 명령어, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 컴퓨터 판독 가능한 기록 매체에 기록되는 프로그램 명령어는 본 발명을 위하여 특별히 설계되고 구성된 것이거나 컴퓨터 소프트웨어 분야의 당업자에게 공지되어 사용 가능한 것일 수 있다. 컴퓨터 판독 가능한 기록 매체의 예에는, 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체, CD-ROM 및 DVD와 같은 광기록 매체, 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical medium), 및 ROM, RAM, 플래시 메모리 등과 같은, 프로그램 명령어를 저장하고 실행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령어의 예에는, 컴파일러에 의하여 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용하여 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드도 포함된다. 하드웨어 장치는 본 발명에 따른 처리를 수행하기 위하여 하나 이상의 소프트웨어 모듈로 변경될 수 있으며, 그 역도 마찬가지이다.The embodiments according to the present invention described above may be implemented in the form of program instructions that can be executed through various computer components and recorded in a computer-readable recording medium. The computer-readable recording medium may include program instructions, data files, data structures, etc. alone or in combination. The program instructions recorded on the computer-readable recording medium may be specially designed and configured for the present invention or may be known and used by those skilled in the computer software field. Examples of the computer-readable recording medium include hard disks, magnetic media such as floppy disks and magnetic tapes, optical recording media such as CD-ROMs and DVDs, and magneto-optical media such as floppy disks. medium), and hardware devices specially configured to store and execute program instructions, such as ROM, RAM, flash memory, and the like. Examples of program instructions include not only machine language codes such as those generated by a compiler, but also high-level language codes that can be executed by a computer using an interpreter or the like. A hardware device may be converted into one or more software modules to perform processing in accordance with the present invention, and vice versa.

이상에서 본 발명이 구체적인 구성요소 등과 같은 특정 사항과 한정된 실시예 및 도면에 의하여 설명되었으나, 이는 본 발명의 보다 전반적인 이해를 돕기 위하여 제공된 것일 뿐, 본 발명이 상기 실시예에 한정되는 것은 아니며, 본 발명이 속하는 기술분야에서 통상적인 지식을 가진 자라면 이러한 기재로부터 다양한 수정과 변경을 꾀할 수 있다.In the above, the present invention has been described with reference to specific matters such as specific components and limited embodiments and drawings, but these are only provided to help a more general understanding of the present invention, and the present invention is not limited to the above embodiments, Those of ordinary skill in the art to which the invention pertains can make various modifications and changes from these descriptions.

따라서, 본 발명의 사상은 상기 설명된 실시예에 국한되어 정해져서는 아니 되며, 후술하는 특허청구범위뿐만 아니라 이 특허청구범위와 균등한 또는 이로부터 등가적으로 변경된 모든 범위는 본 발명의 사상의 범주에 속한다고 할 것이다.Therefore, the spirit of the present invention should not be limited to the above-described embodiments, and the scope of the spirit of the present invention is not limited to the scope of the scope of the present invention. will be said to belong to

100: 통신망
200: 객체 정보 추정 시스템
210: 관심 객체 관리부
220: 후보 객체 관리부
230: 가격 관리부
240: 통신부
250: 제어부
300: 디바이스
100: communication network
200: object information estimation system
210: object of interest management unit
220: candidate object management unit
230: price control department
240: communication department
250: control unit
300: device

Claims (18)

객체에 관한 정보를 추정하기 위한 객체 정보 추정 시스템에서 구현되는 방법으로서 - 상기 시스템은 관심 객체 관리부, 후보 객체 관리부, 가격 관리부를 포함함 -,
상기 관심 객체 관리부가, 촬영 이미지가 획득되면, 상기 촬영 이미지에서 관심 객체를 검출하고, 상기 후보 객체 관리부가, 상기 검출되는 관심 객체에 관한 비교 대상 객체 풀(Pool)에 포함되는 비교 대상 객체 중에서 후보 객체를 도출하는 단계, 및
상기 가격 관리부가, 상기 도출되는 후보 객체에 관한 식별 정보를 참조하여 결정되는 관심 객체에 관한 식별 정보 및 상기 검출되는 관심 객체에 관하여 획득되는 상태 정보에 기초하여 상기 검출되는 관심 객체의 가격을 추정하는 단계를 포함하고,
상기 도출 단계는, 상기 후보 객체 관리부가, 상기 비교 대상 객체와 상기 검출되는 관심 객체 사이의 유사도를 산출하는 단계를 포함하고,
상기 후보 객체는 상기 산출되는 유사도에 기초하여 도출되고,
상기 산출 단계에서, 상기 후보 객체 관리부가, 상기 검출되는 관심 객체의 적어도 일부와 상기 비교 대상 객체에 대하여 기설정된 관심 영역을 서로 비교하여 상기 유사도를 산출하고,
상기 검출되는 관심 객체의 적어도 일부는 상기 비교 대상 객체에 대하여 기설정된 관심 영역에 대응되고,
상기 도출 단계에서, 상기 관심 객체 관리부가, 상기 검출되는 관심 객체에 관한 유효성에 기초하여 상기 후보 객체를 도출할지 여부를 결정하고,
상기 도출 단계에서, 상기 관심 객체 관리부가, 상기 촬영 이미지에서 검출되는 상기 관심 객체의 개수, 상기 촬영 이미지에서 검출되는 상기 관심 객체의 경계 영역의 크기, 상기 촬영 이미지에서 검출되는 상기 관심 객체의 경계 영역과 상기 촬영 이미지에서 검출되는 다른 객체의 경계 영역 사이의 관계 및 상기 촬영 이미지에서 비관심 객체가 검출되는지 여부 중 적어도 하나를 참조하여 상기 검출되는 관심 객체에 관한 유효성을 판단하고,
상기 관심 객체 관리부가, 상기 관심 객체의 손상된 부분의 위치, 상기 손상된 부분의 모양, 상기 손상된 부분의 크기 및 상기 손상된 부분의 손상된 정도 중 적어도 하나에 관하여 사용자로부터 입력받음으로써 상기 관심 객체에 관한 상태 정보를 획득하고,
상기 손상된 부분의 위치 및 상기 손상된 부분의 모양은, 상기 관심 객체 관리부가, 상기 손상된 부분의 위치 및 상기 손상된 부분의 모양 중 적어도 하나가 상기 사용자에 의하여 상기 촬영 이미지 상에 표시되도록 함으로써 입력받고,
상기 손상된 부분의 크기 및 상기 손상된 부분의 손상된 정도는, 상기 관심 객체 관리부가, 상기 손상된 부분의 크기 및 상기 손상된 부분의 손상된 정도 중 적어도 하나를 가늠할 수 있는 그래픽 객체가 상기 사용자에 의하여 선택되도록 함으로써 입력받는
방법.
A method implemented in an object information estimation system for estimating information about an object, wherein the system includes an object of interest management unit, a candidate object management unit, and a price management unit;
When the captured image is obtained, the object of interest manager detects an object of interest from the captured image, and the candidate object manager includes a candidate among comparison objects included in a comparison object pool for the detected object of interest. deriving an object, and
estimating, by the price management unit, the price of the detected object of interest based on identification information on the object of interest determined with reference to the derived identification information on the candidate object and status information obtained with respect to the detected object of interest comprising steps;
The deriving step includes calculating, by the candidate object manager, a degree of similarity between the comparison target object and the detected object of interest,
The candidate object is derived based on the calculated similarity,
In the calculating step, the candidate object manager calculates the degree of similarity by comparing at least a portion of the detected object of interest and a preset area of interest with respect to the comparison target object,
At least a portion of the detected object of interest corresponds to a region of interest preset with respect to the comparison target object,
In the derivation step, the object-of-interest management unit determines whether to derive the candidate object based on validity with respect to the detected object of interest,
In the derivation step, the object-of-interest manager is configured to: the number of the objects of interest detected in the captured image, the size of the boundary region of the object of interest detected in the photographed image, and the boundary region of the object of interest detected in the photographed image and determining validity of the detected object of interest by referring to at least one of a relationship between a boundary region of another object detected in the photographed image and whether an uninterested object is detected in the photographed image,
State information about the object of interest by the object-of-interest management unit receiving input from a user regarding at least one of a location of a damaged portion of the object of interest, a shape of the damaged portion, a size of the damaged portion, and a degree of damage to the damaged portion to obtain,
The location of the damaged part and the shape of the damaged part are input by the object-of-interest management unit, so that at least one of the location of the damaged part and the shape of the damaged part is displayed on the photographed image by the user,
The size of the damaged part and the degree of damage of the damaged part are input by the object-of-interest management unit allowing the user to select a graphic object capable of estimating at least one of the size of the damaged part and the damage degree of the damaged part. subject
Way.
삭제delete 제1항에 있어서,
상기 시스템은 연관도 평가부를 더 포함하고,
상기 도출 단계는, 상기 연관도 평가부가, 상기 검출되는 관심 객체에 관하여 사용자로부터 획득되는 부분적인 식별 정보와 상기 검출되는 관심 객체 사이의 연관도를 평가하는 단계를 포함하는
방법.
According to claim 1,
The system further comprises a relevance evaluation unit,
The deriving step includes, by the association evaluation unit, evaluating a degree of association between partial identification information obtained from a user with respect to the detected object of interest and the detected object of interest
Way.
제3항에 있어서,
상기 평가되는 연관도에 기초하여 상기 사용자에게 피드백을 제공하는 단계를 더 포함하는
방법.
4. The method of claim 3,
Further comprising the step of providing feedback to the user based on the evaluated degree of relevance
Way.
제1항에 있어서,
상기 비교 대상 객체 풀은, 상기 검출되는 관심 객체에 관하여 사용자로부터 획득되는 부분적인 식별 정보에 기초하여 필터링되는
방법.
According to claim 1,
The comparison object pool is filtered based on partial identification information obtained from a user with respect to the detected object of interest.
Way.
제1항에 있어서,
상기 산출 단계에서, 상기 검출되는 관심 객체에 대하여 특징, 형상, 패턴 및 색채 중 적어도 하나에 관한 정보를 도출하고, 상기 유사도는 상기 도출되는 특징, 형상, 패턴 및 색채 중 적어도 하나에 관한 정보에 각각 기초하여 산출되는
방법.
According to claim 1,
In the calculating step, information on at least one of a feature, a shape, a pattern, and a color is derived with respect to the detected object of interest, and the degree of similarity is based on information about at least one of the derived feature, shape, pattern, and color, respectively. calculated based on
Way.
삭제delete 삭제delete 제1항에 있어서,
상기 획득되는 촬영 이미지는, 촬영에 관한 지침에 기초하여 촬영되는 이미지인
방법.
According to claim 1,
The obtained photographed image is an image photographed based on a photographing guideline.
Way.
제1항에 있어서,
상기 도출 단계에서, 상기 도출이 수행되기 전에 상기 획득되는 촬영 이미지를 전처리하는
방법.
According to claim 1,
In the derivation step, before the derivation is performed, the obtained captured image is pre-processed
Way.
제10항에 있어서,
상기 전처리는, 상기 획득되는 촬영 이미지에 포함되는 메타데이터에 기초하여 수행되는
방법.
11. The method of claim 10,
The pre-processing is performed based on metadata included in the captured image.
Way.
제1항에 있어서,
상기 검출 결과에는, 상기 검출되는 관심 객체에 관한 메인 카테고리 및 서브 카테고리가 포함되는
방법.
According to claim 1,
The detection result includes a main category and a sub-category related to the detected object of interest.
Way.
제1항에 있어서,
상기 도출 단계에서, 상기 관심 객체에 관하여 사용자로부터 획득되는 검출 영역을 참조하여 상기 촬영 이미지에서 상기 관심 객체를 검출하는
방법.
According to claim 1,
In the derivation step, detecting the object of interest from the captured image with reference to a detection area obtained from a user with respect to the object of interest
Way.
제13항에 있어서,
상기 도출 단계에서, 상기 관심 객체는 관심 객체 검출 모델에 기초하여 검출되고,
상기 관심 객체 검출 모델은, 상기 획득되는 검출 영역을 학습 데이터로 하여 학습되는
방법.
14. The method of claim 13,
In the derivation step, the object of interest is detected based on the object of interest detection model,
The object of interest detection model is learned by using the obtained detection region as learning data.
Way.
제1항에 있어서,
상기 사용자로부터 획득되는 상기 관심 객체에 관한 상태 정보는, 상기 관심 객체에 관한 상태 정보를 추정하는 상태 정보 추정 모델의 학습 데이터로서 활용되는
방법.
According to claim 1,
The state information about the object of interest obtained from the user is used as learning data of a state information estimation model for estimating state information about the object of interest.
Way.
제1항에 있어서,
상기 추정 단계에서, 상기 검출되는 관심 객체의 인기도에 더 기초하여 상기 관심 객체의 가격을 추정하는
방법.
According to claim 1,
In the estimation step, estimating the price of the object of interest further based on the popularity of the detected object of interest
Way.
제1항에 따른 방법을 실행하기 위한 컴퓨터 프로그램을 기록하는 비일시성의 컴퓨터 판독 가능 기록 매체.A non-transitory computer-readable recording medium storing a computer program for executing the method according to claim 1 . 객체에 관한 정보를 추정하기 위한 시스템으로서,
촬영 이미지가 획득되면, 상기 촬영 이미지에서 관심 객체를 검출하고, 상기 검출되는 관심 객체에 관하여 상태 정보를 획득하는 관심 객체 관리부,
상기 검출되는 관심 객체에 관한 비교 대상 객체 풀(Pool)에 포함되는 비교 대상 객체 중에서 후보 객체를 도출하는 후보 객체 관리부, 및
상기 도출되는 후보 객체에 관한 식별 정보를 참조하여 결정되는 관심 객체에 관한 식별 정보 및 상기 획득되는 상태 정보에 기초하여 상기 검출되는 관심 객체의 가격을 추정하는 가격 관리부를 포함하고,
상기 후보 객체 관리부는, 상기 비교 대상 객체와 상기 검출되는 관심 객체 사이의 유사도를 산출하고,
상기 후보 객체는 상기 산출되는 유사도에 기초하여 도출되고,
상기 후보 객체 관리부는, 상기 검출되는 관심 객체의 적어도 일부와 상기 비교 대상 객체에 대하여 기설정된 관심 영역을 서로 비교하여 상기 유사도를 산출하고,
상기 검출되는 관심 객체의 적어도 일부는 상기 비교 대상 객체에 대하여 기설정된 관심 영역에 대응되고,
상기 관심 객체 관리부는, 상기 검출되는 관심 객체에 관한 유효성에 기초하여 상기 후보 객체를 도출할지 여부를 결정하고,
상기 관심 객체 관리부는, 상기 촬영 이미지에서 검출되는 상기 관심 객체의 개수, 상기 촬영 이미지에서 검출되는 상기 관심 객체의 경계 영역의 크기, 상기 촬영 이미지에서 검출되는 상기 관심 객체의 경계 영역과 상기 촬영 이미지에서 검출되는 다른 객체의 경계 영역 사이의 관계 및 상기 촬영 이미지에서 비관심 객체가 검출되는지 여부 중 적어도 하나를 참조하여 상기 검출되는 관심 객체에 관한 유효성을 판단하고,
상기 관심 객체 관리부가, 상기 관심 객체의 손상된 부분의 위치, 상기 손상된 부분의 모양, 상기 손상된 부분의 크기 및 상기 손상된 부분의 손상된 정도 중 적어도 하나에 관하여 사용자로부터 입력받음으로써 상기 관심 객체에 관한 상태 정보를 획득하고,
상기 손상된 부분의 위치 및 상기 손상된 부분의 모양은, 상기 관심 객체 관리부가, 상기 손상된 부분의 위치 및 상기 손상된 부분의 모양 중 적어도 하나가 상기 사용자에 의하여 상기 촬영 이미지 상에 표시되도록 함으로써 입력받고,
상기 손상된 부분의 크기 및 상기 손상된 부분의 손상된 정도는, 상기 관심 객체 관리부가, 상기 손상된 부분의 크기 및 상기 손상된 부분의 손상된 정도 중 적어도 하나를 가늠할 수 있는 그래픽 객체가 상기 사용자에 의하여 선택되도록 함으로써 입력받는
시스템.
A system for estimating information about an object, comprising:
an object of interest manager configured to detect an object of interest from the captured image when a captured image is obtained, and obtain state information about the detected object of interest;
a candidate object manager for deriving a candidate object from among comparison target objects included in a comparison target object pool for the detected object of interest; and
a price management unit estimating the price of the detected object of interest based on the obtained state information and identification information on the object of interest determined with reference to the derived identification information on the candidate object;
The candidate object manager calculates a degree of similarity between the comparison target object and the detected object of interest,
The candidate object is derived based on the calculated similarity,
The candidate object manager calculates the degree of similarity by comparing at least a portion of the detected object of interest with a preset area of interest for the comparison target object,
At least a portion of the detected object of interest corresponds to a region of interest preset with respect to the comparison target object,
The object-of-interest management unit determines whether to derive the candidate object based on validity with respect to the detected object of interest;
The object-of-interest management unit is configured to include: the number of objects of interest detected in the captured image, a size of a boundary area of the object of interest detected in the photographed image, a boundary area of the object of interest detected in the photographed image, and the captured image. determining validity with respect to the detected object of interest by referring to at least one of a relationship between boundary regions of other detected objects and whether an uninterested object is detected in the photographed image,
State information about the object of interest by the object-of-interest management unit receiving input from a user regarding at least one of a location of a damaged portion of the object of interest, a shape of the damaged portion, a size of the damaged portion, and a degree of damage to the damaged portion to obtain,
The location of the damaged part and the shape of the damaged part are input by the object-of-interest management unit, so that at least one of the location of the damaged part and the shape of the damaged part is displayed on the photographed image by the user,
The size of the damaged part and the degree of damage of the damaged part are input by the object-of-interest management unit allowing the user to select a graphic object capable of estimating at least one of the size of the damaged part and the damage degree of the damaged part. subject
system.
KR1020200155876A 2020-03-31 2020-11-19 Method, system and non-transitory computer-readable recording medium for estimating information about objects KR102384419B1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020200039454 2020-03-31
KR20200039454 2020-03-31

Publications (2)

Publication Number Publication Date
KR20210122030A KR20210122030A (en) 2021-10-08
KR102384419B1 true KR102384419B1 (en) 2022-04-12

Family

ID=78116043

Family Applications (3)

Application Number Title Priority Date Filing Date
KR1020200155877A KR102346215B1 (en) 2020-03-31 2020-11-19 Method, system and non-transitory computer-readable recording medium for estimating information about objects
KR1020200155876A KR102384419B1 (en) 2020-03-31 2020-11-19 Method, system and non-transitory computer-readable recording medium for estimating information about objects
KR1020210190445A KR20220000894A (en) 2020-03-31 2021-12-28 Method, system and non-transitory computer-readable recording medium for estimating information about objects

Family Applications Before (1)

Application Number Title Priority Date Filing Date
KR1020200155877A KR102346215B1 (en) 2020-03-31 2020-11-19 Method, system and non-transitory computer-readable recording medium for estimating information about objects

Family Applications After (1)

Application Number Title Priority Date Filing Date
KR1020210190445A KR20220000894A (en) 2020-03-31 2021-12-28 Method, system and non-transitory computer-readable recording medium for estimating information about objects

Country Status (1)

Country Link
KR (3) KR102346215B1 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102602167B1 (en) * 2021-11-05 2023-11-13 한국기술교육대학교 산학협력단 Deep learning-based MLCC stacked alignment inspection system and method
KR102488953B1 (en) * 2022-03-16 2023-01-17 주식회사 보띠에 System for providing pre-owned luxury checking service using colorbook

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100827849B1 (en) * 2007-08-08 2008-06-10 (주)올라웍스 Method and apparatus for retrieving information on goods attached to human body in image-data
KR101034117B1 (en) * 2009-11-13 2011-05-13 성균관대학교산학협력단 A method and apparatus for recognizing the object using an interested area designation and outline picture in image
KR101678970B1 (en) * 2015-04-14 2016-11-24 유미나 Method for appraising item

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2879130B2 (en) * 1994-04-14 1999-04-05 株式会社エヌ・ティ・ティ・データ Article identification system and method
US9195898B2 (en) * 2009-04-14 2015-11-24 Qualcomm Incorporated Systems and methods for image recognition using mobile devices
CN105844128B (en) * 2015-01-15 2021-03-02 北京三星通信技术研究有限公司 Identity recognition method and device
KR20170038378A (en) * 2015-09-30 2017-04-07 삼성전자주식회사 Electronic device for processing image and method for controlling thereof
KR20170112847A (en) * 2016-03-28 2017-10-12 삼성전자주식회사 Method and apparatus for providing information about object
KR20200024534A (en) * 2018-08-28 2020-03-09 십일번가 주식회사 Supporting Method for Searching of Goods and service device, and terminal device thereof

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100827849B1 (en) * 2007-08-08 2008-06-10 (주)올라웍스 Method and apparatus for retrieving information on goods attached to human body in image-data
KR101034117B1 (en) * 2009-11-13 2011-05-13 성균관대학교산학협력단 A method and apparatus for recognizing the object using an interested area designation and outline picture in image
KR101678970B1 (en) * 2015-04-14 2016-11-24 유미나 Method for appraising item

Also Published As

Publication number Publication date
KR20210122031A (en) 2021-10-08
KR20220000894A (en) 2022-01-04
KR20210122030A (en) 2021-10-08
KR102346215B1 (en) 2022-01-03

Similar Documents

Publication Publication Date Title
US11335092B2 (en) Item identification method, system and electronic device
CN105528604B (en) A kind of bill automatic identification and processing system based on OCR
CN105956578B (en) A kind of face verification method of identity-based certificate information
Noh et al. A new framework for background subtraction using multiple cues
US9842266B2 (en) Method for detecting driver cell phone usage from side-view images
KR20220000894A (en) Method, system and non-transitory computer-readable recording medium for estimating information about objects
Zhang et al. Toward new retail: A benchmark dataset for smart unmanned vending machines
US8498454B2 (en) Optimal subspaces for face recognition
KR101835333B1 (en) Method for providing face recognition service in order to find out aging point
JP6351243B2 (en) Image processing apparatus and image processing method
US20130223726A1 (en) Method and apparatus of classification and object detection, image pickup and processing device
US11151583B2 (en) Shoe authentication device and authentication process
CN103902962A (en) Shielding or light source self-adaption human face recognition method and device
US10726358B2 (en) Identification of individuals and/or times using image analysis
CN104794693A (en) Human image optimization method capable of automatically detecting mask in human face key areas
Xing et al. Traffic sign recognition using guided image filtering
CN107533547B (en) Product indexing method and system
CN108830175A (en) Iris image local enhancement methods, device, equipment and storage medium
KR102441562B1 (en) Smart vending machine with AI-based adult authentication function
KR101672814B1 (en) Method for recognizing gender using random forest
CN113762257A (en) Identification method and device for marks in makeup brand images
JP7054760B2 (en) Object recognition system, location information acquisition method, and program
US20220051040A1 (en) Automatic method to determine the authenticity of a product
JP4510562B2 (en) Circle center position detection method, apparatus, and program
CN114511911A (en) Face recognition method, device and equipment

Legal Events

Date Code Title Description
E90F Notification of reason for final refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant