KR102366595B1 - System, method and program for obtaining appearance descriptive data from image data - Google Patents

System, method and program for obtaining appearance descriptive data from image data Download PDF

Info

Publication number
KR102366595B1
KR102366595B1 KR1020210030706A KR20210030706A KR102366595B1 KR 102366595 B1 KR102366595 B1 KR 102366595B1 KR 1020210030706 A KR1020210030706 A KR 1020210030706A KR 20210030706 A KR20210030706 A KR 20210030706A KR 102366595 B1 KR102366595 B1 KR 102366595B1
Authority
KR
South Korea
Prior art keywords
appearance
individual
image data
characteristic
type information
Prior art date
Application number
KR1020210030706A
Other languages
Korean (ko)
Other versions
KR20210031876A (en
Inventor
이종혁
Original Assignee
(주)사맛디
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from KR1020200012942A external-priority patent/KR102227896B1/en
Application filed by (주)사맛디 filed Critical (주)사맛디
Publication of KR20210031876A publication Critical patent/KR20210031876A/en
Application granted granted Critical
Publication of KR102366595B1 publication Critical patent/KR102366595B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/70Information retrieval; Database structures therefor; File system structures therefor of video data
    • G06F16/78Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/783Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • G06F16/7837Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using objects detected or recognised in the video content
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/70Information retrieval; Database structures therefor; File system structures therefor of video data
    • G06F16/73Querying
    • G06F16/735Filtering based on additional data, e.g. user or group profiles
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/70Information retrieval; Database structures therefor; File system structures therefor of video data
    • G06F16/75Clustering; Classification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Abstract

본 발명은 영상데이터의 외형서술데이터 획득 방법, 장치 및 프로그램에 관한 것이다.
본 발명의 일 실시예에 따른 영상데이터의 외형서술데이터 획득 방법은, 서버가 영상데이터를 대상체유형 인식모델에 입력하여, 대상체 유형정보를 산출하는 단계(S3100); 상기 서버가 상기 영상데이터를 외형특성 인식모델에 입력하여, 복수의 외형분류기준에 대한 개별외형특성을 산출하는 단계(S3200); 및 상기 서버가 상기 영상데이터에 대하여 산출된 대상체 유형정보 및 복수의 개별외형특성을 조합하여 외형서술데이터를 생성하는 단계(S3300);를 포함한다.
The present invention relates to a method, apparatus and program for acquiring outline description data of image data.
According to an embodiment of the present invention, there is provided a method for obtaining outline description data of image data, comprising: calculating, by a server, image data into an object type recognition model to calculate object type information (S3100); calculating, by the server, the individual appearance characteristics for a plurality of appearance classification criteria by inputting the image data into an appearance characteristic recognition model (S3200); and generating, by the server, the outline description data by combining the object type information calculated with respect to the image data and a plurality of individual appearance characteristics (S3300).

Figure 112021027589660-pat00001
Figure 112021027589660-pat00001

Description

영상데이터의 외형서술데이터 획득 방법, 장치 및 프로그램{SYSTEM, METHOD AND PROGRAM FOR OBTAINING APPEARANCE DESCRIPTIVE DATA FROM IMAGE DATA}Appearance description data acquisition method, device and program of image data {SYSTEM, METHOD AND PROGRAM FOR OBTAINING APPEARANCE DESCRIPTIVE DATA FROM IMAGE DATA}

본 발명은 영상데이터의 외형서술데이터 획득 방법, 장치 및 프로그램에 관한 것이다. The present invention relates to a method, apparatus and program for acquiring outline description data of image data.

최근 인터넷의 발달로 소셜 미디어 네트워크 서비스가 급격히 성장하고 있다. 그 결과, 멀티미디어의 양이 폭발 적으로 증가하면서 효과적인 이미지 검색 시스템이 요구되며, 이미지 어노테이션은 폭발적으로 증가하는 웹이미지에 따른 효율적인 이미지 검색의 필요성으로 인해 그 중요도가 점점 높아지고 있다.Recently, with the development of the Internet, social media network services are rapidly growing. As a result, as the amount of multimedia explosively increases, an effective image search system is required, and the importance of image annotation is increasing due to the need for efficient image search according to the explosively increasing web image.

대부분의 이미지 검색 연구는 주로 이미지의 내용을 분석하는 내용 기반 이미지 검색(CBIR: Content-based Image Retrieval) 방법이 많이 진행되어 왔다. 내용 기반 이미지 검색은 색상, 텍스처 및 형태와 같은 시각적 특징을 이용하여 이미지의 내용을 분석한다. 이러한 방법은 정의하는 태그의 개수가 적을 경우에는 잘 작동하지만, 데이터셋이 커지고 태그의 종류가 다양해짐에 따라 성능이 떨어지게 된다.Most of the image retrieval studies have mainly conducted a content-based image retrieval (CBIR) method that analyzes the content of an image. Content-based image retrieval uses visual features such as color, texture, and shape to analyze the content of an image. This method works well when the number of tags to be defined is small, but the performance deteriorates as the dataset grows and the types of tags diversify.

텍스트 기반 이미지 검색(TBIR: Text-based Image Retrieval)은 텍스트를 쿼리로 하여 텍스트에 대응되는 이미지를 검색하는 방식이다. 이 방식은 이미지의 시각적 내용이 수동으로 태깅된 텍스트 디스크립터에 의해 표현되며, 데이터셋 관리 시스템에서 이미지 검색을 수행하는데 사용된다. 즉, 기존의 이미지 또는 영상 검색 방식은 사용자가 직접 태깅한 정보를 기반으로 검색이 이루어진다. 또한, 이미지를 통한 사용자 관심정보 획득 방식도 사용자가 직접 태깅한 정보를 기반으로 획득이 이루어져, 사용자가 영상에 키워드를 잘못 태깅하면 획득 결과가 부정확해지는 문제점이 존재하였다. 또한, 사용자마다 정의하는 키워드에 차이가 존재할 수 있어서, 이미지를 입력하는 사용자가 선택한 키워드에 따라 제공되는 결과가 상이한 문제가 존재하였다.Text-based image retrieval (TBIR) is a method of searching for images corresponding to text by using text as a query. In this method, the visual content of an image is expressed by a manually tagged text descriptor, and is used to perform image search in a dataset management system. That is, in the existing image or video search method, a search is performed based on information directly tagged by a user. In addition, the method of acquiring user interest information through an image is also acquired based on information directly tagged by the user, so there is a problem in that the acquisition result is inaccurate if the user tags the keyword incorrectly on the image. In addition, since there may be differences in keywords defined for each user, there is a problem in that results provided according to keywords selected by a user inputting an image are different.

공개특허공보 제10-2018-0133200호, 2018.12.13Laid-open Patent Publication No. 10-2018-0133200, 2018.12.13

본 발명은, 영상데이터로부터 특정한 대상체의 유형정보, 상기 대상체의 외형을 표현하는 외형특성 또는 상기 대상체에 대하여 인지할 수 있는 추상적특성을 획득하여 코드열 형태의 외형서술데이터로 생성하는, 영상데이터의 외형서술데이터 획득 방법, 장치 및 프로그램을 제공하고자 한다.The present invention is a method of generating image data in the form of a code string form by acquiring type information of a specific object, an external characteristic expressing the external appearance of the object, or an abstract characteristic recognizable to the object from image data. It is intended to provide a method, apparatus and program for acquiring appearance description data.

본 발명이 해결하고자 하는 과제들은 이상에서 언급된 과제로 제한되지 않으며, 언급되지 않은 또 다른 과제들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해될 수 있을 것이다.The problems to be solved by the present invention are not limited to the problems mentioned above, and other problems not mentioned will be clearly understood by those skilled in the art from the following description.

본 발명의 일 실시예에 따른 영상데이터의 외형서술데이터 획득 방법은, 서버에 의해 수행되는, 방법에 있어서, 영상데이터를 대상체유형 인식모델에 입력하여, 제1 대상체의 유형에 대한 유형정보를 산출하는 단계; 상기 영상데이터를 상기 제1 대상체 유형에 관한 외형특성 인식모델에 입력하여, 복수의 외형분류기준에 대한 복수의 개별외형특성을 산출하는 단계; 상기 개별외형특성이 산출되는 결과에 기반하여, 상기 제1 대상체 유형정보를 검증하는 단계; 및 상기 제1 대상체 유형정보 및 상기 복수의 개별외형특성을 조합한 외형서술데이터를 생성하는 단계;를 포함하고, 상기 외형분류기준은, 특정한 대상체의 외형을 서술하기 위한 특정한 분류기준으로서, 상기 대상체의 동일한 분류기준 내의 다양한 외형특성을 표현하는 복수의 개별외형특성을 포함하고, 상기 서버는, 상기 유형정보 산출 단계에서, 특정한 영상데이터의 대상체가 특정 유형정보 각각에 해당할 제1 확률을 산출하여, 상기 제1 확률이 임계값 이상인 복수의 후보유형정보를 모두 산출하고, 상기 개별외형특성 산출 단계에서, 상기 복수의 후보유형정보 각각에 대응되는 특화 외형특성 인식모델에 상기 영상데이터를 입력하여 상기 복수의 후보유형정보 각각에 대한 개별외형특성을 산출하고, 개별외형특성이 산출되지 않은 개별특성인식모듈의 개수 또는 비율이 가장 적은 후보 외형특성 인식모델에 대응되는 후보유형정보를 최종유형정보로 설정하는 것을 특징으로 한다.The method for obtaining outline description data of image data according to an embodiment of the present invention is performed by a server, wherein image data is input into an object type recognition model to calculate type information on the type of a first object to do; inputting the image data into an appearance characteristic recognition model for the first object type, and calculating a plurality of individual appearance characteristics for a plurality of appearance classification criteria; verifying the first object type information based on a result of calculating the individual appearance characteristics; and generating appearance descriptive data by combining the first object type information and the plurality of individual appearance characteristics, wherein the appearance classification criterion is a specific classification criterion for describing the appearance of a specific object, and the object includes a plurality of individual appearance characteristics expressing various appearance characteristics within the same classification criterion of , all of a plurality of pieces of candidate type information having the first probability equal to or greater than a threshold value are calculated, and in the individual appearance characteristic calculation step, the image data is inputted into a specialized appearance characteristic recognition model corresponding to each of the plurality of candidate type information to make the Individual appearance characteristics for each of the plurality of candidate type information are calculated, and candidate type information corresponding to the candidate appearance characteristic recognition model having the smallest number or ratio of individual characteristic recognition modules for which individual appearance characteristics are not calculated is set as the final type information. characterized in that

또한, 상기 외형특성 인식모델은, 특정한 대상체 유형정보에 적용하도록 설정된 복수의 외형분류기준에 대응되는 복수의 개별특성인식모듈을 포함하고, 상기 검증 단계는, 상기 복수의 개별특성인식모듈 중 개별외형특성이 산출되지 않은 개별특성인식모듈의 개수 또는 비율이 임계값 이상일 경우, 상기 외형특성 인식모델이 상기 복수의 개별외형특성을 산출할 수 없는 것으로 판단한다.In addition, the appearance characteristic recognition model includes a plurality of individual characteristic recognition modules corresponding to a plurality of exterior classification criteria set to be applied to specific object type information, and the verification step includes individual appearance among the plurality of individual characteristic recognition modules. When the number or ratio of individual characteristic recognition modules for which characteristics are not calculated is equal to or greater than a threshold value, it is determined that the external characteristic recognition model cannot calculate the plurality of individual external characteristics.

또한, 상기 복수의 개별외형특성을 기초로 추상적특성을 산출하는 단계를 더 포함하고, 상기 외형서술데이터는, 상기 산출된 추상적특성을 더 포함한다.The method further includes calculating an abstract characteristic based on the plurality of individual appearance characteristics, and the appearance description data further includes the calculated abstract characteristic.

또한, 상기 추상적특성의 산출 단계는, 상기 외형서술데이터를 추상적특성 인식모델에 입력하여 추상적 특성을 산출하고, 상기 외형서술데이터의 산출 단계는, 상기 산출된 추상적 특성에 기반하여, 외형서술데이터를 갱신할 수 있다.In addition, the calculating step of the abstract characteristic calculates the abstract characteristic by inputting the appearance description data to an abstract characteristic recognition model, and the calculating of the appearance description data includes: based on the calculated abstract characteristic, the appearance description data Can be updated.

또한, 상기 추상적특성의 산출 단계는, 각각의 개별외형특성마다 복수의 추상적특성 각각에 대한 점수가 설정되어 있고, 상기 복수의 개별외형특성에 설정된 각각의 추상적특성에 대한 점수를 합산하여 산출할 수 있다.In addition, in the calculating step of the abstract characteristic, a score for each of a plurality of abstract characteristics is set for each individual external characteristic, and the score for each abstract characteristic set in the plurality of individual external characteristics can be summed to calculate it. there is.

본 발명의 다른 일실시예에 따른 영상데이터의 외형서술데이터 획득 서버장치는, 하나 이상의 컴퓨터를 포함하고, 상기 언급된 외형서술데이터 획득 방법을 수행한다.A server apparatus for obtaining external appearance description data of image data according to another embodiment of the present invention includes one or more computers, and performs the above-mentioned external appearance description data acquisition method.

삭제delete

삭제delete

삭제delete

삭제delete

삭제delete

삭제delete

삭제delete

본 발명의 또 다른 일실시예에 따른 영상데이터의 외형서술데이터 획득 프로그램은, 하드웨어와 결합되어 상기 언급된 외형서술데이터 획득 방법을 실행하며, 매체에 저장된다.The program for obtaining outline description data of image data according to another embodiment of the present invention is combined with hardware to execute the above-mentioned method for obtaining outline description data, and is stored in a medium.

본 발명의 기타 구체적인 사항들은 상세한 설명 및 도면들에 포함되어 있다.Other specific details of the invention are included in the detailed description and drawings.

상기 본 발명에 의하면, 복수의 영상데이터에 대해 동일한 기준에 따라 대상체의 유형정보, 개별외형특성 또는 추상적특성을 획득하여 이를 기초로 외형서술데이터를 생성할 수 있다.According to the present invention, it is possible to obtain type information, individual appearance characteristics, or abstract characteristics of an object based on the same criteria for a plurality of image data, and generate appearance description data based on the obtained type information.

또한, 상기 본 발명에 의하면, 특정한 영상데이터의 대상체 유형정보를 산출하고 이에 대응되는 특화 외형특성 인식모델에 상기 영상데이터를 입력함으로써, 유형정보에 따라 적용되는 외형분류기준의 조합을 달리하여 보다 효율적으로 개별외형특성을 획득할 수 있다.In addition, according to the present invention, by calculating object type information of specific image data and inputting the image data into a specialized appearance characteristic recognition model corresponding thereto, the combination of appearance classification criteria applied according to the type information is changed more efficiently individual appearance characteristics can be obtained.

또한, 상기 본 발명에 의하면, 특정 영상데이터에 대하여, 외형서술데이터(획득한 대상체 유형정보 또는 개별외형특성)를 기초로 추상적특성을 산출하고, 산출한 추상적특성을 외형서술데이터에 추가함으로써 간단하게 영상데이터의 추상적특성을 획득하고 외형서술데이터를 업데이트할 수 있다.In addition, according to the present invention, for specific image data, abstract characteristics are calculated based on the appearance description data (obtained object type information or individual appearance characteristics), and the calculated abstract characteristics are added to the appearance description data. It is possible to acquire abstract characteristics of image data and update appearance description data.

또한, 상기 본 발명에 의하면, 외형특성 인식모델을 재학습 또는 추가 학습시켜야 하는 상황을 최소화할 수 있다. 예를 들어, 특정한 대상체에 대해 새로운 외형분류기준이 추가되는 경우에, 신규 개별특성인식모듈만 학습시키면 되고 기존 개별특성인식모듈은 그대로 활용할 수 있다.In addition, according to the present invention, it is possible to minimize a situation in which the appearance characteristic recognition model needs to be re-learned or additionally learned. For example, when a new appearance classification criterion is added to a specific object, only the new individual characteristic recognition module needs to be learned, and the existing individual characteristic recognition module can be used as it is.

본 발명의 효과들은 이상에서 언급된 효과로 제한되지 않으며, 언급되지 않은 또 다른 효과들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해될 수 있을 것이다.Effects of the present invention are not limited to the effects mentioned above, and other effects not mentioned will be clearly understood by those skilled in the art from the following description.

도 1은 본 발명의 일 실시예에 따른 영상데이터의 외형서술데이터 획득 방법의 순서도이다.
도 2는 본 발명의 일 실시예에 따른 외형특성 인식모델의 구성도이다.
도 3은 본 발명의 일 실시예에 따른 코드시스템을 설명하기 위한 예시도이다.
도 4는 본 발명의 일 실시예에 따른 추상적특성 산출 단계를 더 포함하는 외형서술데이터 획득 방법의 순서도이다.
도 5는 본 발명의 일 실시예에 따른 추상적특성 인식모델의 구성도이다.
도 6은 본 발명의 일 실시예에 따른 개별외형특성에 대한 제1개별감성특성 점수 설정을 설명하기 위한 예시도이다.
도 7은 본 발명의 일 실시예에 따른 세부유형정보 산출 단계를 더 포함하는 외형서술데이터 획득 방법의 순서도이다.
도 8은 본 발명의 일 실시예에 따른 사용자 검색 단계를 더 포함하는 외형서술데이터 획득 방법의 순서도이다.
도 9는 본 발명의 일 실시예에 따른 외형서술데이터 획득 서버의 구성도이다.
1 is a flowchart of a method for acquiring outline description data of image data according to an embodiment of the present invention.
2 is a block diagram of an appearance characteristic recognition model according to an embodiment of the present invention.
3 is an exemplary diagram for explaining a code system according to an embodiment of the present invention.
4 is a flowchart of a method for obtaining outline description data further comprising the step of calculating abstract characteristics according to an embodiment of the present invention.
5 is a block diagram of an abstract characteristic recognition model according to an embodiment of the present invention.
6 is an exemplary diagram for explaining the setting of a first individual emotional characteristic score for an individual external characteristic according to an embodiment of the present invention.
7 is a flowchart of a method for obtaining outline description data further comprising the step of calculating detailed type information according to an embodiment of the present invention.
8 is a flowchart of a method for obtaining outline description data further including a user search step according to an embodiment of the present invention.
9 is a block diagram of an appearance description data acquisition server according to an embodiment of the present invention.

본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나, 본 발명은 이하에서 개시되는 실시예들에 제한되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하고, 본 발명이 속하는 기술 분야의 통상의 기술자에게 본 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. Advantages and features of the present invention and methods of achieving them will become apparent with reference to the embodiments described below in detail in conjunction with the accompanying drawings. However, the present invention is not limited to the embodiments disclosed below, but may be implemented in various different forms, and only the present embodiments allow the disclosure of the present invention to be complete, and those of ordinary skill in the art to which the present invention pertains. It is provided to fully understand the scope of the present invention to those skilled in the art, and the present invention is only defined by the scope of the claims.

본 명세서에서 사용된 용어는 실시예들을 설명하기 위한 것이며 본 발명을 제한하고자 하는 것은 아니다. 본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함한다. 명세서에서 사용되는 "포함한다(comprises)" 및/또는 "포함하는(comprising)"은 언급된 구성요소 외에 하나 이상의 다른 구성요소의 존재 또는 추가를 배제하지 않는다. 명세서 전체에 걸쳐 동일한 도면 부호는 동일한 구성 요소를 지칭하며, "및/또는"은 언급된 구성요소들의 각각 및 하나 이상의 모든 조합을 포함한다. 비록 "제1", "제2" 등이 다양한 구성요소들을 서술하기 위해서 사용되나, 이들 구성요소들은 이들 용어에 의해 제한되지 않음은 물론이다. 이들 용어들은 단지 하나의 구성요소를 다른 구성요소와 구별하기 위하여 사용하는 것이다. 따라서, 이하에서 언급되는 제1 구성요소는 본 발명의 기술적 사상 내에서 제2 구성요소일 수도 있음은 물론이다.The terminology used herein is for the purpose of describing the embodiments and is not intended to limit the present invention. In this specification, the singular also includes the plural unless specifically stated otherwise in the phrase. As used herein, “comprises” and/or “comprising” does not exclude the presence or addition of one or more other components in addition to the stated components. Like reference numerals refer to like elements throughout, and "and/or" includes each and every combination of one or more of the recited elements. Although "first", "second", etc. are used to describe various elements, these elements are not limited by these terms, of course. These terms are only used to distinguish one component from another. Accordingly, it goes without saying that the first component mentioned below may be the second component within the spirit of the present invention.

다른 정의가 없다면, 본 명세서에서 사용되는 모든 용어(기술 및 과학적 용어를 포함)는 본 발명이 속하는 기술분야의 통상의 기술자에게 공통적으로 이해될 수 있는 의미로 사용될 수 있을 것이다. 또한, 일반적으로 사용되는 사전에 정의되어 있는 용어들은 명백하게 특별히 정의되어 있지 않는 한 이상적으로 또는 과도하게 해석되지 않는다.Unless otherwise defined, all terms (including technical and scientific terms) used herein will have the meaning commonly understood by those of ordinary skill in the art to which this invention belongs. In addition, terms defined in a commonly used dictionary are not to be interpreted ideally or excessively unless specifically defined explicitly.

본 명세서에서 '컴퓨터'는 연산처리를 수행하여 사용자에게 결과를 제공할 수 있는 다양한 장치들이 모두 포함된다. 예를 들어, 컴퓨터는 데스크 탑 PC, 노트북(Note Book) 뿐만 아니라 스마트폰(Smart phone), 태블릿 PC, 셀룰러폰(Cellular phone), 피씨에스폰(PCS phone; Personal Communication Service phone), 동기식/비동기식 IMT-2000(International Mobile Telecommunication-2000)의 이동 단말기, 팜 PC(Palm Personal Computer), 개인용 디지털 보조기(PDA; Personal Digital Assistant) 등도 해당될 수 있다. 또한, 헤드마운트 디스플레이(Head Mounted Display; HMD) 장치가 컴퓨팅 기능을 포함하는 경우, HMD장치가 컴퓨터가 될 수 있다. 또한, 컴퓨터는 클라이언트로부터 요청을 수신하여 정보처리를 수행하는 서버(10)가 해당될 수 있다.As used herein, the term 'computer' includes various devices capable of providing a result to a user by performing arithmetic processing. For example, computers include desktop PCs and notebooks (Note Books) as well as smart phones, tablet PCs, cellular phones, PCS phones (Personal Communication Service phones), synchronous/asynchronous A mobile terminal of International Mobile Telecommunication-2000 (IMT-2000), a Palm Personal Computer (PC), a Personal Digital Assistant (PDA), and the like may also be applicable. In addition, when a head mounted display (HMD) device includes a computing function, the HMD device may be a computer. In addition, the computer may correspond to the server 10 that receives a request from a client and performs information processing.

본 명세서에서 '클라이언트'는 사용자들이 프로그램(또는 어플리케이션)을 설치하여 사용할 수 있는 통신 기능을 포함한 모든 장치를 말한다. 즉, 클라이언트 장치는 스마트폰, 태블릿, PDA, 랩톱, 스마트워치, 스마트카메라 등과 같은 전기 통신 장치, 리모트 콘트롤러 중 하나 이상을 포함할 수 있으나, 이에 제한되는 것은 아니다.In this specification, a 'client' refers to any device including a communication function that users can use by installing a program (or application). That is, the client device may include one or more of a telecommunication device such as a smart phone, a tablet, a PDA, a laptop, a smart watch, a smart camera, and a remote controller, but is not limited thereto.

본 명세서에서 '대상체'는 영상데이터에 포함된 특정한 분류 또는 카테고리의 물품을 의미한다.As used herein, the term 'object' refers to an article of a specific classification or category included in image data.

본 명세서에서, '영상데이터'는 특정한 대상체를 포함하는 2차원 또는 3차원의 정적 또는 동적 이미지를 의미한다. 즉, '영상데이터'는 하나의 프레임인 정적 영상데이터일 수도 있고, 복수의 프레임이 연속되는 동적 영상데이터(즉, 동영상데이터)일 수도 있다.As used herein, 'image data' refers to a two-dimensional or three-dimensional static or dynamic image including a specific object. That is, 'image data' may be static image data that is one frame, or dynamic image data (ie, moving image data) in which a plurality of frames are continuous.

본 명세서에서 '외형분류기준'은 특정한 대상체의 외형을 서술(description)하거나 주석 삽입(annotation)을 위해 필요한 외형 표현의 분류기준을 의미한다. 즉, '외형분류기준'은 특정한 대상체의 외형을 서술하기 위한 특정한 분류기준으로서, 상기 대상체의 동일한 분류기준 내의 다양한 외형특성을 표현하는 복수의 개별외형특성을 포함한다. 예를 들어, 대상체가 의류인 경우, 외형분류기준은 의류의 외형에 대한 분류기준으로, 패턴(Pattern), 색상(Color), 핏(fit), 기장(Length) 등이 해당될 수 있다. 즉, 특정한 대상체에 대해 외형분류기준이 많아지면, 대상체에 속하는 특정한 물품의 외형을 상세히 기술할 수 있다.In the present specification, the 'appearance classification standard' refers to a classification criterion for an appearance expression necessary for describing or annotating the appearance of a specific object. That is, the 'appearance classification criterion' is a specific classification criterion for describing the appearance of a specific object, and includes a plurality of individual appearance characteristics expressing various appearance characteristics within the same classification criterion of the object. For example, when the object is clothing, the appearance classification criterion is a classification criterion for the appearance of the clothing, and may correspond to a pattern, a color, a fit, a length, and the like. That is, if the appearance classification standard for a specific object increases, the appearance of a specific article belonging to the object may be described in detail.

본 명세서에서 '개별외형특성'은 특정한 외형분류기준 내에 포함되는 다양한 특성을 의미한다. 예를 들어, 외형분류기준이 색상인 경우, 개별외형특성은 다양한 개별 색상을 의미한다.As used herein, the term 'individual appearance characteristics' refers to various characteristics included in specific appearance classification criteria. For example, when the appearance classification criterion is color, the individual appearance characteristics mean various individual colors.

본 명세서에서 '추상적 특성'은 특정한 대상체에 대하여 인지되는 추상적인 특성으로서, 제1감성특성 또는 제2감성특성을 포함한다.In the present specification, an 'abstract characteristic' is an abstract characteristic recognized with respect to a specific object, and includes a first emotional characteristic or a second emotional characteristic.

본 명세서에서 '제1감성특성'은 특정한 대상체의 외형을 기반으로 인지되는 감성적 특성을 의미한다. 예를 들어, 특정한 대상체의 외형에 대한 '귀여운' 또는 '빈티지'와 같은 감성적 또는 유행적 표현일 수 있다.In the present specification, the 'first emotional characteristic' refers to an emotional characteristic recognized based on the appearance of a specific object. For example, it may be an emotional or fashionable expression such as 'cute' or 'vintage' for the appearance of a specific object.

본 명세서에서 '제2감성특성'은 특정한 대상체의 상품에 부여되는 정보를 기반으로 인지되는 감성적 특성을 의미한다. 예를 들어, 특정한 대상체의 상품 정보 중 가격에 대하여 인지되는 '저렴한', '비싼'과 같은 감성적 표현일 수 있다.In the present specification, the 'second emotional characteristic' refers to an emotional characteristic recognized based on information given to a product of a specific object. For example, it may be an emotional expression such as 'cheap' or 'expensive' recognized for a price among product information of a specific object.

이하, 첨부된 도면을 참조하여 본 발명의 실시예를 상세하게 설명한다. Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings.

도 1은 본 발명의 일 실시예에 따른 영상데이터의 외형서술데이터 획득 방법의 순서도이다.1 is a flowchart of a method for obtaining outline description data of image data according to an embodiment of the present invention.

도 1을 참조하면, 본 발명의 일 실시예에 따른 영상데이터의 외형서술데이터 획득 방법은, 서버가 영상데이터를 대상체유형 인식모델에 입력하여, 대상체 유형정보를 산출하는 단계(S3100); 상기 서버가 상기 영상데이터를 외형특성 인식모델에 입력하여, 복수의 외형분류기준에 대한 개별외형특성을 산출하는 단계(S3200); 및 상기 서버가 상기 영상데이터에 대하여 산출된 대상체 유형정보 및 복수의 개별외형특성을 조합하여 외형서술데이터를 생성하는 단계(S3300);를 포함한다. 이하, 각 단계에 대한 상세한 설명을 기술한다.Referring to FIG. 1 , a method for obtaining outline description data of image data according to an embodiment of the present invention includes: inputting image data into an object type recognition model by a server, and calculating object type information (S3100); calculating, by the server, the individual appearance characteristics for a plurality of appearance classification criteria by inputting the image data into an appearance characteristic recognition model (S3200); and generating, by the server, the shape description data by combining the object type information calculated with respect to the image data and a plurality of individual shape characteristics (S3300). Hereinafter, a detailed description of each step will be described.

서버(10)가 영상데이터를 대상체유형 인식모델(100)에 입력하여, 대상체 유형정보를 산출한다(S3100). 즉, 영상데이터에 포함된 대상체의 특정한 분류 또는 카테고리인 대상체 유형정보를 산출한다.The server 10 inputs the image data into the object type recognition model 100 to calculate object type information (S3100). That is, object type information that is a specific classification or category of an object included in the image data is calculated.

일 실시예에서, 상기 대상체 유형정보는, 미리 설정된 대상체 유형 분류에 기초하여 산출될 수 있다. 예를 들어, 상위유형 분류가 의류, 액세서리, 신발, 인테리어 등으로 설정되고, 상위유형 중 의류에 대한 하위유형 분류가 '셔츠&블라우스', '자켓', '코트', '바지', '치마', '레깅스&스타킹', '원피스'의 7개로 설정된 경우, 의류에 대한 영상데이터가 입력되면 상기 대상체유형 인식모델은 의류에 대한 7개의 하위유형 중에서 대상체 유형정보를 산출할 수 있다.In an embodiment, the object type information may be calculated based on a preset object type classification. For example, the upper type classification is set to clothing, accessories, shoes, interior, etc., and the subtype classification for clothing among the upper types is 'Shirt & Blouse', 'Jacket', 'Coat', 'Pants', 'Skirt' ', 'leggings & stockings', and 'one piece', when image data for clothing is input, the object type recognition model may calculate object type information from among the seven subtypes for clothing.

또한, 일 실시예에서, 상기 대상체 유형정보 산출 단계(S3100)는, 복수의 유형정보를 산출할 수 있다. 즉, 입력된 영상데이터에 대하여 특정한 하나의 대상체 유형정보 산출이 어려운 경우, 확률이 높은 복수의 유형정보를 산출할 수 있다.Also, in an embodiment, the calculating of the object type information ( S3100 ) may calculate a plurality of type information. That is, when it is difficult to calculate one specific object type information for the input image data, it is possible to calculate a plurality of type information with high probability.

일 실시예에서 상기 대상체 유형정보 산출 단계(S3100)는, 특정한 영상데이터의 대상체가 특정한 유형정보 각각에 해당할 제1확률을 획득하여, 상기 제1확률이 임계값 이상인 유형정보를 산출하는 것일 수 있다.In an embodiment, the step of calculating the object type information ( S3100 ) may include obtaining a first probability that an object of specific image data corresponds to each specific type information, and calculating type information in which the first probability is equal to or greater than a threshold value. there is.

예를 들어, 상기 임계값이 0.4이고, 입력된 영상데이터의 대상체가 '셔츠&블라우스'에 해당할 제1확률이 0.8, '자켓'이 0.1, '코트'가 0.1인 경우, '셔츠&블라우스'를 대상체 유형정보로 산출할 수 있다.For example, when the threshold value is 0.4, the first probability that the object of the input image data corresponds to 'shirt & blouse' is 0.8, 'jacket' is 0.1, and 'coat' is 0.1, 'shirt & blouse' ' can be calculated as object type information.

또한, 일 실시예에서, 상기 제1확률이 임계값 이상인 유형정보가 복수개인 경우, 복수의 유형정보를 후보유형정보로 산출할 수 있다.Also, in an embodiment, when there are a plurality of type information having the first probability equal to or greater than a threshold value, the plurality of type information may be calculated as candidate type information.

예를 들어, 마찬가지로 상기 임계값이 0.4이고, '셔츠&블라우스'에 해당할 제1확률이 0.5, '자켓'이 0.4, '코트'가 0.1인 경우, '셔츠&블라우스' 및 '자켓'을 후보유형정보로 산출할 수 있다. 상기 후보유형정보에 대한 최종유형정보 설정에 대하여는 후술한다.For example, if the threshold value is 0.4, the first probability corresponding to 'Shirt & Blouse' is 0.5, 'Jacket' is 0.4, and 'Coat' is 0.1, 'Shirt & Blouse' and 'Jacket' are selected. Can be calculated from candidate type information. The final type information setting for the candidate type information will be described later.

이어서, 상기 서버(10)가 상기 영상데이터를 외형특성 인식모델(200)에 입력하여, 복수의 외형분류기준에 대한 개별외형특성을 산출한다(S3200). Next, the server 10 inputs the image data to the external appearance characteristic recognition model 200, and calculates individual appearance characteristics for a plurality of external appearance classification criteria (S3200).

일 실시예에서, 상기 외형특성 인식모델(200)은, 상이한 외형분류기준을 판단하는 복수의 개별특성인식모듈(210)을 포함한다. 즉, 상기 외형특성 인식모델은 각각의 외형분류기준을 인식하는 것으로 특화된 복수의 개별특성인식모듈을 포함한다. 특정한 대상체의 외형분류기준이 많을수록, 서버는 다수의 개별특성인식모듈을 외형특성 인식모델 내에 포함한다. 상기 개별특성인식모듈은 영상데이터의 특정한 외형분류기준에 포함된 개별외형특성을 산출하는 것이다.In one embodiment, the appearance characteristic recognition model 200 includes a plurality of individual characteristic recognition modules 210 for determining different appearance classification criteria. That is, the appearance characteristic recognition model includes a plurality of individual characteristic recognition modules specialized for recognizing each appearance classification criterion. As the number of appearance classification criteria of a specific object increases, the server includes a plurality of individual characteristic recognition modules in the exterior characteristic recognition model. The individual characteristic recognition module calculates individual appearance characteristics included in a specific appearance classification criterion of image data.

또한, 일 실시예에서, 상기 개별특성인식모듈(210)은, 복수의 학습용 영상데이터에 대해 특정한 외형분류기준의 개별외형특성을 매칭하여 딥러닝 학습모델을 통해 트레이닝이 된 것이다. 즉, 개별특성인식모듈은 특정한 딥러닝 알고리즘으로 구축되는 것으로, 복수의 외형분류기준 중에서 특정한 하나와 학습용 영상데이터를 매칭하여 학습을 수행한 것이다.Also, in one embodiment, the individual characteristic recognition module 210 is trained through a deep learning learning model by matching individual appearance characteristics of a specific appearance classification criterion with respect to a plurality of image data for learning. That is, the individual characteristic recognition module is built with a specific deep learning algorithm, and learning is performed by matching a specific one of a plurality of appearance classification criteria with image data for learning.

이를 위해, 서버(10)는 다음과 같이 각각의 개별특성인식모듈(210)을 트레이닝하는 과정을 수행할 수 있다.To this end, the server 10 may perform a process of training each individual characteristic recognition module 210 as follows.

먼저, 서버는 특정한 대상체에 대한 복수의 학습용 영상데이터를 획득한다. 예를 들어, 대상체가 특정한 의류 유형(예를 들어, 셔츠)인 경우, 서버는 여러 셔츠의 이미지를 획득한다.First, the server acquires a plurality of learning image data for a specific object. For example, when the object is a specific clothing type (eg, a shirt), the server acquires images of several shirts.

서버는 각각의 외형분류기준 정의 및 각 외형분류기준에 대한 복수의 개별외형특성을 획득한다. 즉, 서버는 복수의 외형분류기준을 설정함에 따라 개별특성인식모듈의 초기 개수를 설정한다. 그리고, 서버는 각 외형분류기준 내의 복수의 개별외형특성을 설정함에 따라, 각 외형분류기준에 대해 학습용 영상데이터를 레이블링할 특징(feature) 종류를 설정한다. The server acquires a definition of each appearance classification criterion and a plurality of individual appearance characteristics for each appearance classification criterion. That is, the server sets the initial number of individual characteristic recognition modules by setting a plurality of appearance classification criteria. Then, as the server sets a plurality of individual appearance characteristics in each appearance classification criterion, it sets a feature type for labeling the image data for learning for each appearance classification criterion.

일 실시예에서, 서버는 특정한 대상체 외형 분석에 대한 전문가 클라이언트로부터 특정한 대상체 외형을 분석하기 위한 복수의 외형분류기준 및 각 외형분류기준 내의 복수의 개별외형특성을 설정 받을 수 있다. 예를 들어, 의류에 대한 외형특성 인식모델을 구축하는 경우, 서버는 의류 전문가인 디자이너의 클라이언트로부터 외형분류기준 및 이에 포함되는 개별외형특성을 입력 받을 수 있다.In an embodiment, the server may receive a plurality of appearance classification criteria for analyzing a specific object appearance and a plurality of individual appearance characteristics within each external appearance classification criterion from an expert client for analyzing a specific object appearance. For example, when constructing an appearance characteristic recognition model for clothing, the server may receive an appearance classification standard and individual appearance characteristics included therein from a client of a designer who is a clothing expert.

그 후, 서버는 학습용 영상데이터를 각 외형분류기준의 복수의 개별외형특성으로 레이블링한다. 즉, 서버는 각각의 학습용 영상데이터에 대해 복수의 외형분류기준별로 적어도 하나의 개별외형특성을 입력 받아서 매칭한다. Then, the server labels the training image data with a plurality of individual appearance characteristics of each appearance classification criterion. That is, the server receives and matches at least one individual appearance characteristic for each of the plurality of appearance classification criteria for each training image data.

그 후, 서버는 학습용 영상데이터와 이에 대해 레이블링된 특정한 외형분류기준의 개별외형특성을 매칭한 학습데이터셋을 기초로 트레이닝(Training)을 수행한다. 즉, 서버가, A 외형분류기준에 대한 개별특성인식모듈을 트레이닝하는 경우, 학습데이터셋에서 학습용 영상데이터와 이에 매칭된 A 외형분류기준의 개별외형특성만을 추출하여 딥러닝 학습모델에 입력한다. 이를 통해, 서버(10)는 각각의 외형분류기준의 개별외형특성을 인식할 수 있는 각각의 개별특성인식모듈(210)을 구축한다.After that, the server performs training based on the training data set matching the individual appearance characteristics of the specific appearance classification criteria labeled with the image data for training. That is, when the server trains the individual characteristic recognition module for the appearance classification criterion A, only the image data for training and the individual appearance characteristics of the appearance classification criterion A matched thereto are extracted from the learning dataset and input to the deep learning learning model. Through this, the server 10 builds each individual characteristic recognition module 210 capable of recognizing individual appearance characteristics of each exterior classification criterion.

또한, 일 실시예에서, 상기 개별외형특성 산출단계(S3200)는, 상기 외형특성 인식모델 내의 각각의 개별특성인식모듈에 영상데이터를 입력하여, 상기 영상데이터에 대한 복수의 개별외형특성을 산출하는 것이다. 이를 통해, 서버는 영상데이터에 대한 각 외형분류기준의 개별외형특성을 모두 획득한다.In addition, in one embodiment, the individual appearance characteristic calculating step (S3200) comprises inputting image data into each individual characteristic recognition module in the exterior characteristic recognition model to calculate a plurality of individual appearance characteristics for the image data. will be. Through this, the server acquires all the individual appearance characteristics of each appearance classification criterion for the image data.

또한, 일 실시예에서, 상기 개별외형특성 산출단계(S3200)는, 산출된 대상체 유형정보에 대응되는 특화 외형특성 인식모델에 상기 영상데이터를 입력하여, 복수의 개별외형특성을 산출하는 것일 수 있다.Also, in one embodiment, the calculating of the individual external characteristics ( S3200 ) may include inputting the image data into a specialized external characteristic recognition model corresponding to the calculated object type information to calculate a plurality of individual external characteristics. .

일 실시예에서, 상기 특화 외형특성 인식모델은, 특정 대상체 유형정보에 따라 적용하도록 미리 설정된 복수의 외형분류기준의 개별특성인식모듈을 포함한다. 즉, 특정 영상데이터에 대하여 산출되는 대상체 유형정보에 따라 적용되는 외형분류기준의 종류가 결정될 수 있다.In an embodiment, the specialized appearance characteristic recognition model includes an individual characteristic recognition module of a plurality of appearance classification criteria preset to be applied according to specific object type information. That is, the type of the appearance classification criterion applied may be determined according to the object type information calculated with respect to specific image data.

구체적으로, 도 2를 참조하면, 특정한 대상체 유형정보(대상체1, 대상체2, 대상체3)에 따라 각각 상이한 외형분류기준의 조합(즉, 개별특성인식모듈의 조합)이 설정되어 있는 특화 외형특성 인식모델을 생성할 수 있고, 특정한 영상데이터에 대하여 산출된 대상체 유형정보에 따라 상기 영상데이터를 해당하는 유형정보의 특화 외형특성 인식모델 내의 복수의 개별특성인식모듈 각각에 입력하여, 개별외형특성을 산출할 수 있다. 또한, 상이한 대상체 유형정보의 특화 외형특성 인식모델 내의 개별특성인식모듈의 조합이 동일할 수 있음은 물론이다.Specifically, referring to FIG. 2 , specialized appearance characteristic recognition in which different combinations of appearance classification criteria (ie, combination of individual characteristic recognition modules) are set according to specific object type information (object 1, object 2, object 3) A model can be generated, and the image data is input to each of a plurality of individual characteristic recognition modules in the specialized appearance characteristic recognition model of the corresponding type information according to the object type information calculated for specific image data, and individual appearance characteristics are calculated can do. Also, it goes without saying that the combination of individual characteristic recognition modules in the specialized appearance characteristic recognition model of different object type information may be the same.

예를 들어, '자켓' 유형정보의 특화 외형특성 인식모델이 '목모양(neckline)', '소매(sleeve)', '상의길이(top length)' 및 '색상(color)' 개별특성인식모듈을 포함하고, '바지' 유형정보의 특화 외형특성 인식모델이 '웨이스트라인(waist)', '하의길이(bottom length)' 및 '색상(color)' 개별특성인식모듈을 포함하는 경우, 외형특성 인식모델에 입력되는 영상데이터의 대상체 유형정보(자켓/바지)에 따라 상기 영상데이터가 입력되는 특화 외형특성 인식모델(즉, 적용되는 외형분류기준의 조합)이 상이할 수 있다.For example, the specialized external characteristic recognition model of 'jacket' type information is 'neckline', 'sleeve', 'top length' and 'color' individual characteristic recognition module When the specialized appearance characteristic recognition model of 'pants' type information includes individual characteristic recognition modules for 'waist', 'bottom length' and 'color', appearance characteristics According to the object type information (jacket/pants) of the image data input to the recognition model, the specialized appearance characteristic recognition model to which the image data is input (ie, a combination of applied appearance classification criteria) may be different.

또한, 일 실시예에서, 도 2와 같이 복수의 대상체 유형정보에 대한 각 특화 외형특성 인식모델은 범용 개별특성인식모듈을 공유하여 사용할 수 있다. 상기 범용 개별특성인식모듈은 대상체 유형에 무관하게 적용 가능한 범용 외형분류기준에 대한 개별특성인식모듈을 의미한다.In addition, in one embodiment, as shown in FIG. 2 , each specialized appearance characteristic recognition model for a plurality of object type information may be used by sharing a general-purpose individual characteristic recognition module. The general-purpose individual characteristic recognition module refers to an individual characteristic recognition module for general-purpose appearance classification criteria applicable regardless of the type of object.

예를 들어, '색상(color)', '패턴(pattern)', '질감(texture)'등의 외형분류기준은 대상체 유형에 무관하게 적용이(개별외형특성 산출) 가능하므로, 범용 외형분류기준에 해당할 수 있다.For example, the appearance classification criteria such as 'color', 'pattern', and 'texture' can be applied regardless of the type of object (calculation of individual appearance characteristics), so it is a universal appearance classification standard may correspond to

또한, 일 실시예에서, S3100단계에서 복수의 후보유형정보가 산출된 경우, 상기 후보유형정보 각각에 대응되는 특화 외형특성 인식모델 모두에 상기 영상데이터를 각각 입력할 수 있다. 이를 토대로 수행되는 최종유형정보 설정에 대하여는 후술한다.Also, in an embodiment, when a plurality of pieces of candidate type information are calculated in step S3100, the image data may be respectively input to all of the specialized appearance characteristic recognition models corresponding to each of the candidate type information. The final type information setting performed based on this will be described later.

예를 들어, 특정한 영상데이터에 대하여 '자켓' 및 '바지'가 후보유형정보로 산출된 경우, 상기 영상데이터를 '자켓' 특화 외형특성 인식모델 및 '바지' 특화 외형특성 인식모델 각각에 입력하여 개별외형특성을 산출할 수 있다.For example, when 'jacket' and 'pants' are calculated as candidate type information for specific image data, the image data is input to each of the 'jacket' specialized appearance characteristic recognition model and the 'pants' specialized appearance characteristic recognition model. Individual appearance characteristics can be calculated.

삭제delete

삭제delete

삭제delete

또한, 다른 일 실시예에서, S3100단계에서 복수의 후보유형정보가 산출되어 상기 후보유형정보 각각에 대응되는 특화 외형특성 인식모델의 개별특성인식모듈에 영상데이터를 각각 입력한 경우, 개별외형특성을 산출할 수 없는 외형분류기준이 가장 적은 후보유형정보를 최종유형정보로 설정하는 단계;를 더 포함한다.Further, in another embodiment, when a plurality of candidate type information is calculated in step S3100 and the image data is respectively input to the individual characteristic recognition module of the specialized appearance characteristic recognition model corresponding to each of the candidate type information, individual appearance characteristics are obtained. It further includes; setting candidate type information having the fewest appearance classification criteria that cannot be calculated as final type information.

즉, 전술한 실시예와 같이 입력된 영상데이터에 대하여 특정한 하나의 대상체 유형정보 산출이 어려워 확률이 높은 복수의 후보유형정보를 산출하고, 상기 영상데이터를 각각의 후보유형정보의 특화 외형특성 인식모델에 입력한 경우, 인식률이 높은(개별외형특성을 산출할 수 없는 개별특성인식모듈의 개수가 적은) 후보유형정보를 최종유형정보로 설정할 수 있다.That is, as in the above-described embodiment, it is difficult to calculate one specific object type information with respect to the input image data, so a plurality of candidate type information with high probability is calculated, and the image data is used as a specialized appearance characteristic recognition model of each candidate type information. When input to , candidate type information with a high recognition rate (the number of individual characteristic recognition modules that cannot calculate individual appearance characteristics is small) can be set as the final type information.

예를 들어, 자켓에 관한 영상데이터에 대해 S3100단계에서 '자켓' 및 '바지'의 후보유형정보가 산출되어 해당 영상데이터를 '자켓' 특화 외형특성 인식모델 및 '바지' 특화 외형특성 인식모델에 각각 입력한 경우, 특별한 사정이 없는 한 각각의 특화 외형특성 인식모델의 인식률이 '바지'보다 '자켓'에서 높을 것이므로(개별외형특성을 산출할 수 없는 개별특성인식모듈의 개수가 '바지' 특화 외형특성 인식모델에서 더 많을 것이므로), '자켓'을 최종유형정보(즉, 대상체 유형정보)로 설정할 수 있다.For example, candidate type information of 'jacket' and 'pants' is calculated in step S3100 for the image data about the jacket, and the corresponding image data is applied to the 'jacket'-specialized appearance characteristic recognition model and 'pants'-specialized appearance characteristic recognition model. In the case of each input, the recognition rate of each specialized appearance characteristic recognition model will be higher in 'jacket' than in 'pants' unless there are special circumstances (the number of individual characteristic recognition modules that cannot calculate individual appearance characteristics is 'pants' specialized Since there will be more in the appearance characteristic recognition model), 'jacket' can be set as the final type information (ie, object type information).

이어서, 상기 서버가 상기 영상데이터에 대하여 산출된 대상체 유형정보 및 복수의 개별외형특성을 조합하여 외형서술데이터를 생성한다(S3300). 즉, 특정한 대상체에 대해 외형분류기준이 세부적으로 나누어져 있으면, 상기 외형서술데이터는 해당 대상체의 외형을 개별외형특성을 통해 구체적으로 서술한다.Next, the server generates the outline description data by combining the object type information calculated with respect to the image data and a plurality of individual appearance characteristics (S3300). That is, if the appearance classification criteria for a specific object are divided in detail, the appearance description data specifically describes the appearance of the object through individual appearance characteristics.

예를 들어, 셔츠에 관한 특정 영상데이터에 대하여, S3100단계에서 산출된 대상체 유형정보가 '셔츠&블라우스'이고, S3200단계에서 산출된 복수의 외형분류기준에(목모양, 소매, 상의길이, 색상 및 패턴) 대한 개별외형특성이 '라운드넥(Round Neckline)', '짧은 소매(short sleeve)', '크롭탑(crop)', '밝은 빨간색(red right)' 및 '물방울 무늬(polka dot)' 인 경우, 상기 영상데이터에 대한 외형서술데이터는 "셔츠&블라우스, 라운드넥, 짧은 소매, 크롭탑, 밝은 빨간색, 물방울 무늬"로 생성될 수 있다.For example, with respect to specific image data on a shirt, the object type information calculated in step S3100 is 'shirt & blouse', and in the plurality of appearance classification criteria calculated in step S3200 (neck shape, sleeve, top length, color) and pattern) for 'Round Neckline', 'Short Sleeve', 'Crop', 'Red Right' and 'Polka Dot' ', the outline descriptive data for the image data may be generated as "shirt & blouse, round neck, short sleeves, crop top, bright red, polka dots".

또한, 일 실시예에서, 상기 외형서술데이터 생성단계(S3300)는, 상기 영상데이터에 대한 대상체 유형정보 및 복수의 개별외형특성 각각에 대응하는 코드값을 추출하는 단계; 및 상기 복수의 코드값을 조합하여, 코드열 형태의 외형서술데이터를 생성하는 단계;를 포함한다. 즉, 서버가 개별외형특성을 코드화 함에 따라 외형서술데이터를 코드열로 생성할 수 있고, 이를 통해 외형서술데이터의 처리가 효율적으로 될 수 있다.In one embodiment, the step of generating the outline description data (S3300) may include: extracting object type information for the image data and a code value corresponding to each of a plurality of individual appearance characteristics; and generating outline description data in the form of a code string by combining the plurality of code values. That is, as the server codes the individual appearance characteristics, it is possible to generate the outline description data as a code string, and through this, the processing of the outline description data can be efficiently performed.

예를 들면, 대상체 유형정보(셔츠&블라우스) 및 복수의 개별외형특성에(라운드넥, 짧은 소매, 크롭탑, 밝은 빨간색, 물방울 무늬) 대응하는 코드값이 각각 'Zb01', 'Bb01', 'Bg03', Bi01', 'Oa01', 'Id00'인 경우, 상기 영상데이터에 대한 외형서술데이터는 상기 코드값을 조합한 "Bb01, Bg03, Bi01, Id00, Oa01, Zb01"로 생성될 수 있다.For example, code values corresponding to object type information (shirt & blouse) and a plurality of individual appearance characteristics (round neck, short sleeves, crop top, bright red, polka dots) are 'Zb01', 'Bb01', ' In case of Bg03', Bi01', 'Oa01', or 'Id00', the outline description data for the image data may be generated as "Bb01, Bg03, Bi01, Id00, Oa01, Zb01" by combining the code values.

또한, 본 발명의 일 실시예에 따른 외형서술데이터의 코드시스템(code system)의 구조는, 각각의 대상체 유형 분류기준, 외형분류기준, 추상적특성 분류기준에 따라 다양하게 구축될 수 있다.In addition, the structure of the code system of the appearance description data according to an embodiment of the present invention may be constructed in various ways according to each object type classification criterion, appearance classification criterion, and abstract characteristic classification criterion.

예를 들어, 본 발명의 일 실시예에 따른 코드시스템은, 도 3과 같이 구축될 수 있다. 도 3을 참조하면, 대문자는 상위 카테고리에 대한 정보를 의미한다. 즉, 대상체 유형정보에 대응되는 코드는 Z를, 추상적특성에 대응되는 코드는 A를 포함하며, 복수의 외형분류기준에 대응되는 코드는 B~Y를 포함할 수 있다.For example, the code system according to an embodiment of the present invention may be constructed as shown in FIG. 3 . Referring to FIG. 3 , capital letters mean information on higher categories. That is, the code corresponding to the object type information may include Z, the code corresponding to the abstract characteristic may include A, and the code corresponding to the plurality of appearance classification criteria may include B to Y.

또한, 대상체 유형정보 대응되는 코드(Z)의 경우, 이어서 상위유형(예를 들어, 의류, 액세서리, 신발, 인테리어 등)에 따라 소문자(a~y)가 부여되고, 하위유형에 해당하는 각각의 대상체 유형정보에 따라 숫자(00~99)가 부여될 수 있다. 예를 들어, Zb는 '의류', Zc는 '액세서리'를 뜻하고, Zb01은 '셔츠&블라우스', Zb02는 '자켓'의 대상체 유형정보에 대응되는 코드값일 수 있다.In addition, in the case of a code (Z) corresponding to the object type information, a lowercase letter (a~y) is assigned according to the upper type (eg, clothing, accessories, shoes, interior, etc.), and each A number (00 to 99) may be assigned according to the object type information. For example, Zb may be 'clothing', Zc may be 'accessories', Zb01 may be 'shirt & blouse', and Zb02 may be a code value corresponding to object type information of 'jacket'.

또한, 복수의 외형분류기준에 대응되는 코드는(B~Y), 대상체 유형에 무관하게 적용 가능한 범용 외형분류기준(E, I, O, U) 및 특정 대상체 유형에 적용되는 특화 외형분류기준(B, C, D 등)으로 구분되고, 상기 특화 외형분류기준의 코드는 전술한 상위유형의 코드(Za, Zb, Zc 등)에 대응될 수 있다. In addition, the codes corresponding to the plurality of appearance classification criteria (B to Y) include general-purpose appearance classification standards (E, I, O, U) that can be applied regardless of object type and specialized appearance classification standards applied to specific object types (E, I, O, U). B, C, D, etc.), and the code of the specialized external classification criterion may correspond to the above-described upper-type code (Za, Zb, Zc, etc.).

예를 들어, '의류'에 대한 복수의 특화 외형분류기준은 B를 포함하고, 각각의 외형분류기준에 따라 소문자(a~y)가 부여되며, 해당 외형분류기준에 대한 개별외형특성에 따라 숫자(00~99)가 부여될 수 있다. 구체적으로, Ba는 '상의 실루엣(Top Silhouette)', Bb는 '목모양(Neckline)', Bi는 '바지 실루엣(Pants Silhouette)'의 외형분류기준을 의미하고, Bb01은 '라운드넥(Round Neckline)', Bb02는 '브이넥(V Neckline)'의 목모양(Bb) 외형분류기준에 대한 각각의 개별외형특성에 대응되는 코드값일 수 있다. 추상적특성에 대응되는 코드값의 예시는 후술한다.For example, a plurality of specialized appearance classification criteria for 'clothes' include B, and a lowercase letter (a~y) is given according to each appearance classification criterion, and a number according to the individual appearance characteristics for the appearance classification criterion (00 to 99) may be assigned. Specifically, Ba stands for 'Top Silhouette', Bb stands for 'Neckline', Bi stands for 'Pants Silhouette', and Bb01 stands for 'Round Neckline'. )' and Bb02 may be code values corresponding to individual appearance characteristics for the neck shape (Bb) appearance classification standard of 'V Neckline'. Examples of code values corresponding to abstract characteristics will be described later.

이상으로, 본 발명의 일 실시예에 따른 코드시스템 구조의 예시를 기술하였으나, 본 발명의 코드시스템은 이에 제한되지 않고 다양한 방식으로 구축될 수 있다.In the above, an example of the code system structure according to an embodiment of the present invention has been described, but the code system of the present invention is not limited thereto and can be constructed in various ways.

도 4를 참조하면, 본 발명의 일 실시예에 따른 영상데이터의 외형서술데이터 획득 방법은, 상기 서버가 산출된 복수의 개별외형특성을 기초로 추상적특성을 산출하는 단계(S3400);를 더 포함한다.Referring to FIG. 4 , the method for obtaining the appearance description data of image data according to an embodiment of the present invention further includes: calculating, by the server, an abstract characteristic based on a plurality of individual appearance characteristics calculated (S3400); do.

일 실시예에서, 상기 추상적특성 산출 단계(S3400)는, 서버가 상기 외형서술데이터를 추상적특성 인식모델(300)에 입력하여 추상적특성을 산출하는 것을 포함한다.In an embodiment, the calculating of the abstract characteristics ( S3400 ) includes calculating the abstract characteristics by the server inputting the outline description data into the abstract characteristic recognition model 300 .

즉, 본 발명에 따르면 이미지와 같은 영상데이터 자체가 아닌, 영상데이터로부터 산출된 외형서술데이터(대상체 유형정보 및 개별외형특성)를 기초로 추상적특성을 산출함에 따라, 데이터의 효율적인 처리 및 객관적인 추상적특성 산출이 가능하다.That is, according to the present invention, as abstract characteristics are calculated based on appearance descriptive data (object type information and individual appearance characteristics) calculated from image data, not image data itself such as an image, efficient processing of data and objective abstract characteristics calculation is possible.

또한, 일 실시예에서, 대상체 유형정보 및 개별외형특성이 조합된 외형서술데이터를 추상적특성 인식모델에 입력하여 추상적특성을 산출한 경우, 상기 추상적특성을 상기 외형서술데이터에 추가하여 외형서술데이터를 업데이트하는 단계를 더 포함할 수 있다.Also, in one embodiment, when the abstract characteristics are calculated by inputting the object type information and the individual appearance description data combined with the individual appearance characteristics to the abstract characteristic recognition model, the appearance description data is obtained by adding the abstract characteristics to the appearance description data. The step of updating may be further included.

일 실시예에서, 상기 추상적특성은, 제1감성특성을 포함한다. 상기 제1감성특성은, 특정한 대상체의 외형을 기반으로 인지되는 감성적 특성으로, 특정한 감성적 특성인 복수의 제1개별감성특성을 포함한다. In an embodiment, the abstract characteristic includes a first emotional characteristic. The first emotional characteristic is an emotional characteristic recognized based on the appearance of a specific object, and includes a plurality of first individual emotional characteristics that are specific emotional characteristics.

일 실시예에서, 제1감성특성에 포함된 각각의 제1개별감성특성의 정의 및 개수는 서버에 의하여 설정될 수 있으며, 추가 또는 변경될 수 있다. 대상체의 외형에 대한 감성적 특성인 제1감성특성은, 시대 또는 지역에 따라 상이하게 정의될 수 있으므로, 이에 맞추어 다양하게 변경 가능하도록 하기 위함이다.In an embodiment, the definition and number of each first individual emotional characteristic included in the first emotional characteristic may be set by the server, and may be added or changed. The first emotional characteristic, which is an emotional characteristic for the external appearance of the object, may be defined differently according to times or regions, so that it can be variously changed according to this.

예를 들어, 각각의 제1개별감성특성은 '귀여운(Cute)', '부드러운(soft)', '현대적인(Modern)' 등으로 설정될 수 있으며, 또한, 각각의 제1개별감성특성에 대조되는 제1개별감성특성인 '우아한(Elegant)', '거친(Wild)', '고전적인(Classic)' 등을 더 포함하도록 설정될 수도 있다. 그러나, 본 발명의 제1개별감성특성은 이에 제한되지 않고 다양하게 설정될 수 있다.For example, each of the first individual emotional characteristics may be set to 'Cute', 'soft', 'Modern', etc. The contrasting first individual emotional characteristics may be set to further include 'Elegant', 'Wild', 'Classic', and the like. However, the first individual emotional characteristic of the present invention is not limited thereto and may be set in various ways.

도 5를 참조하면, 일 실시예에서, 상기 추상적특성 인식모델(300)은, 개별외형특성을 입력 받아 제1감성특성을 산출하는 제1감성특성 인식모델(310)을 포함한다.Referring to FIG. 5 , in one embodiment, the abstract characteristic recognition model 300 includes a first emotional characteristic recognition model 310 that receives individual appearance characteristics and calculates first emotional characteristics.

일 실시예에서, 상기 제1감성특성 인식모델은, 각 개별외형특성마다 복수의 제1개별감성특성 각각에 대한 점수가 설정됨에 따라, 입력된 복수의 개별외형특성에 설정된 각각의 제1개별감성특성에 대한 점수를 합산하여 제1감성특성을 산출하는 것일 수 있다.In an embodiment, in the first emotional characteristic recognition model, as scores for each of a plurality of first individual emotional characteristics are set for each individual external characteristic, each first individual emotion set in the input plurality of individual external characteristics The first emotional characteristic may be calculated by summing the scores for the characteristics.

예를 들어, 도 6과 같이 각 외형분류기준에 포함된 복수의 개별외형특성마다 제1개별감성특성 각각에 대한 점수가 설정될 수 있다. 도 6에서는 각 점수가 0 또는 1로 표시되었으나, 이에 제한되지 않고 0~1 사이의 수 또는 음수 등 다양한 방식으로 점수가 설정될 수 있다. For example, as shown in FIG. 6 , a score for each of the first individual emotional characteristics may be set for each of a plurality of individual appearance characteristics included in each appearance classification criterion. In FIG. 6 , each score is indicated as 0 or 1, but it is not limited thereto, and the score may be set in various ways, such as a number between 0 and 1 or a negative number.

일 실시예에서, 각각의 개별외형특성에 제1개별감성특성별 점수가 설정된 점수표는, 하나의 점수표뿐만 아니라, 상이한 복수의 점수표가 생성될 수 있다. 예를 들어, 국가별 또는 지역별로 점수표가 상이하거나, 사용자별 개인화된 점수표가 생성될 수 있으며, 상기 점수표는 서버에 의하여 자유롭게 변경될 수 있음은 물론이다.In an embodiment, a score sheet in which a score for each individual emotional characteristic is set for each individual appearance characteristic may generate not only one score sheet but also a plurality of different score sheets. For example, a score sheet may be different for each country or region, or a score sheet personalized for each user may be generated, and it goes without saying that the score sheet may be freely changed by the server.

이어서, 입력된 복수의 개별외형특성 및 개별외형특성에 설정된 각각의 제1개별감성특성 점수를 기반으로, 각각의 제1개별감성특성 점수를 합산하여 제1감성특성을 산출한다.Then, based on the plurality of input individual appearance characteristics and each first individual emotional characteristic score set in the individual external characteristic, each first individual emotional characteristic score is summed to calculate a first emotional characteristic.

예를 들어, 도 6의 예시에 있어서 특정 영상데이터로부터 산출된 '브이넥' 및 '빨간색'의 개별외형특성이 입력된 경우, 각각의 제1개별감성특성별 합산된 점수는, '귀여운: 1', '우아한: 2', '부드러운: 0', '거친: 1', '현대적인: 0', '고전적인: 1'이고, 이를 기초로 제1감성특성을 산출할 수 있다.For example, in the example of FIG. 6 , when individual appearance characteristics of 'V-neck' and 'red' calculated from specific image data are input, the summed score for each first individual emotional characteristic is 'Cute: 1' , 'elegant: 2', 'soft: 0', 'rough: 1', 'modern: 0', 'classic: 1', and based on these, the first emotional characteristic can be calculated.

일 실시예에서, 상기 제1감성특성은 각 제1개별감성특성 점수의 전체 점수에 대한 비율을 포함하여 산출될 수 있다. 예를 들어, 전술한 예시의 경우 전체 점수가 5이므로, 제1감성특성은 각 제1개별감성특성 점수의 비율을 포함하도록 "귀여운: 0.2, 우아한: 0.4, 부드러운: 0, 거친: 0.2, 현대적인: 0, 고전적인: 0.2"으로 산출될 수 있다.In an embodiment, the first emotional characteristic may be calculated including a ratio of each of the first individual emotional characteristic scores to the total score. For example, in the case of the above example, since the overall score is 5, the first emotional characteristic is "cute: 0.2, elegant: 0.4, soft: 0, rough: 0.2, modern" to include the ratio of each first individual emotional characteristic score. Enemy: 0, classic: 0.2".

다른 실시예에서, 상기 제1감성특성은 각 제1개별감성특성 점수를 포함하여 산출될 수 있다. 예를 들어, 전술한 예시의 경우 제1감성특성은 각 제1개별감성특성 점수를 포함하도록 "귀여운: 1, 우아한: 2, 부드러운: 0, 거친: 1, 현대적인: 0, 고전적인: 1"으로 산출될 수 있다.In another embodiment, the first emotional characteristic may be calculated including each first individual emotional characteristic score. For example, in the case of the above example, the first emotional characteristic is "cute: 1, elegant: 2, soft: 0, rough: 1, modern: 0, classic: 1, so as to include each first individual emotional characteristic score. " can be calculated as

다른 실시예에서, 상기 제1감성특성은 각 제1개별감성특성 점수가 미리 설정된 임계값 이상인 제1개별감성특성만 산출하는 것일 수 있다. 예를 들어, 전술한 예시에서 임계값이 2(혹은 비율 0.4)인 경우, 제1감성특성은 '우아한'의 제1개별감성특성만 산출될 수 있다. 그러나, 제1감성특성의 산출은 전술한 예시에 제한되지 않고 다양한 방식으로 산출될 수 있다.In another embodiment, as the first emotional characteristic, only the first individual emotional characteristic in which each first individual emotional characteristic score is equal to or greater than a preset threshold value is calculated. For example, in the above example, when the threshold value is 2 (or ratio 0.4), only the first individual emotional characteristic of 'elegant' may be calculated as the first emotional characteristic. However, the calculation of the first emotional characteristic is not limited to the above-described example and may be calculated in various ways.

또한, 일 실시예에서, 상기 제1감성특성에 대응하는 코드값은, 상기 제1개별감성특성 각각에 대하여 합산된 점수에 대한 정보를 포함할 수 있다. Also, in an embodiment, the code value corresponding to the first emotional characteristic may include information about a score summed for each of the first individual emotional characteristics.

구체적으로, 전술한 예시에서 "귀여운: 0.2, 우아한: 0.4, 부드러운: 0, 거친: 0.2, 현대적인: 0, 고전적인: 0.2"로 제1감성특성이 산출되고, 각각의 제1개별감성특성에 대응하는 코드값이 "귀여운: Aa, 우아한: Ac, 부드러운: Ad, 거친: Af, 현대적인: Ai, 고전적인: Ap"인 경우, 제1감성특성에 대한 코드열 형태의 외형서술데이터는 "Aa20, Ac40, Ad00, Af20, Ai00, Ap20"으로 생성될 수 있다. 또한, 개별외형특성인 '빨간색', '브이넥'에 대응되는 코드값이 'Oa02, 'Bb02'라면, 상기 영상데이터의 외형서술데이터는 이를 조합한 "Aa20, Ac40, Ad00, Af20, Ai00, Ap20, Bb02, Oa02"로 생성될 수 있다. 그러나, 전술한 바와 같이, 본 발명의 코드시스템은 이에 제한되지 않고 다양한 방식으로 구축될 수 있다.Specifically, in the above example, the first emotional characteristic is calculated as "cute: 0.2, elegant: 0.4, soft: 0, rough: 0.2, modern: 0, classic: 0.2", and each first individual emotional characteristic When the code value corresponding to "Cute: Aa, Elegant: Ac, Soft: Ad, Rough: Af, Modern: Ai, Classic: Ap" is, the appearance descriptive data in the form of a code string for the first emotional characteristic is "Aa20, Ac40, Ad00, Af20, Ai00, Ap20". In addition, if the code values corresponding to the individual appearance characteristics 'red' and 'V-neck' are 'Oa02, 'Bb02', the external description data of the image data is "Aa20, Ac40, Ad00, Af20, Ai00, Ap20" , Bb02, Oa02". However, as described above, the code system of the present invention is not limited thereto and may be constructed in various ways.

일 실시예에서, 상기 추상적특성은, 제2감성특성을 포함한다. 상기 제2감성특성은, 특정한 대상체의 상품에 부여되는 정보를 기반으로 인지되는 감성적 특성으로, 상이한 종류의 상품정보에 대하여 느껴지는 다양한 감성적 특성인 제2개별감성특성을 포함한다.In an embodiment, the abstract characteristic includes a second emotional characteristic. The second emotional characteristic is an emotional characteristic recognized based on information given to a product of a specific object, and includes a second individual emotional characteristic that is various emotional characteristics felt for different types of product information.

예를 들어, '가격'의 상품정보에 대하여 느껴지는 '저렴한', '비싼'의 제2개별감성특성 또는 '배송 시간'의 상품정보에 대하여 느껴지는 '빠른', '느린'의 제2개별감성특성을 포함할 수 있다.For example, the second individual emotional characteristics of 'cheap' and 'expensive' felt for product information of 'price' or the second individual emotional characteristic of 'fast' and 'slow' felt for product information of 'delivery time' may include

도 5를 참조하면, 일 실시예에서, 상기 추상적특성 인식모델(300)은, 영상데이터의 대상체에 대한 상품정보를 입력 받아 제2감성특성을 산출하는 제2감성특성 인식모델(320)을 포함한다.Referring to FIG. 5 , in one embodiment, the abstract characteristic recognition model 300 includes a second emotional characteristic recognition model 320 that receives product information on an object of image data and calculates second emotional characteristics. do.

또한, 일 실시예에서, 상기 제2감성특성 인식모델(320)은, 상이한 상품정보에 대한 감성적 특성을 판단하는 복수의 제2개별감성특성 인식모듈을 포함한다. 상기 제2개별감성특성 인식모듈은 영상데이터의 대상체의 특정한 상품정보에 대한 각각의 제2개별감성특성을 산출하는 것이다.Also, in one embodiment, the second emotional characteristic recognition model 320 includes a plurality of second individual emotional characteristic recognition modules for determining emotional characteristics for different product information. The second individual emotional characteristic recognition module calculates each second individual emotional characteristic for specific product information of the object of the image data.

또한, 일 실시예에서, 상기 제2감성특성은, 상기 상품정보뿐만 아니라 개별외형특성, 대상체 유형정보, 또는 사용자 정보 등 다양한 정보를 고려하여 산출될 수 있다.Also, in an embodiment, the second emotional characteristic may be calculated in consideration of not only the product information but also various information such as individual appearance characteristics, object type information, or user information.

도 7을 참조하면, 본 발명의 일 실시예에 따른 영상데이터의 외형서술데이터 획득 방법은, 상기 서버(10)가 상기 영상데이터의 외형서술데이터를 세부유형 인식모델(400)에 입력하여, 대상체 세부유형정보를 산출하는 단계(S3500);를 더 포함한다. Referring to FIG. 7 , in the method for obtaining outline description data of image data according to an embodiment of the present invention, the server 10 inputs outline description data of the image data into a detailed type recognition model 400, It further includes; calculating the detailed type information (S3500).

일 실시예에서, 상기 세부유형정보는, S3100단계에서 산출된 대상체 유형정보의 하위개념일 수 있다. 예를 들어, 특정 영상데이터에 대하여 S3100단계에서 '바지(pants)' 대상체 유형정보가 산출된 경우, 세부유형정보는 '스키니 팬츠', '슬랙스 팬츠', '배기 팬츠' 등이 될 수 있다.In an embodiment, the detailed type information may be a sub-concept of the object type information calculated in step S3100. For example, when 'pants' object type information is calculated for specific image data in step S3100, the detailed type information may be 'skinny pants', 'slacks pants', 'exhaust pants', and the like.

상기 세부유형 인식모델은, 특정 영상데이터에 대하여 생성된 외형서술데이터(대상체 유형정보, 개별외형특성)가 입력되면, 상기 영상데이터의 대상체 세부유형정보를 산출하는 모델일 수 있다.The detailed type recognition model may be a model that calculates detailed object type information of the image data when appearance description data (object type information, individual appearance characteristics) generated with respect to specific image data is input.

일 실시예에서, 상기 세부유형 인식모델은, 하나 이상의 개별외형특성 조합 각각에 하나 이상의 세부유형정보가 매칭됨에 따라, 입력된 외형서술데이터의 개별외형특성 조합에 대한 세부유형정보를 산출하는 것일 수 있다. 또한, 일 실시예에서, 복수개의 세부유형정보를 산출하는 것도 가능하다.In an embodiment, the detailed type recognition model may be to calculate detailed type information for the individual appearance characteristic combination of the input appearance description data as one or more detailed type information is matched to each of one or more individual appearance characteristic combinations there is. Also, according to an embodiment, it is also possible to calculate a plurality of detailed type information.

예를 들어, 특정 개별외형특성 조합(a, b, c)에 대하여 세부유형정보(대상체 유형정보가 A인 경우 하위개념인 a2, 대상체 유형정보가 B인 경우 하위개념인 b1 등)가 매칭되어 있고, 입력된 외형서술데이터(대상체 유형정보 B, 개별외형특성 a, b, c)에 따라 대응되는 세부유형정보를(b1) 산출할 수 있다.For example, detailed type information (a2, a sub-concept when the object type information is A, b1, a sub-concept, etc.) Also, it is possible to calculate the corresponding detailed type information (b1) according to the input appearance description data (object type information B, individual appearance characteristics a, b, c).

또한, 일 실시예에서, 상기 세부유형정보가 산출된 경우, 상기 외형서술데이터는 상기 대상체 세부유형정보를 더 포함할 수 있다. 즉, 일 실시예에서, 상기 산출된 세부유형정보에 대응되는 코드값을 추출하여 기존의 외형서술데이터에 추가할 수 있다.Also, in an embodiment, when the detailed type information is calculated, the appearance description data may further include the detailed object type information. That is, in an embodiment, a code value corresponding to the calculated detailed type information may be extracted and added to the existing appearance description data.

도 8을 참조하면, 본 발명의 일 실시예에 따른 영상데이터의 외형서술데이터 획득 방법은, 상기 서버가 사용자 클라이언트로부터 검색키워드를 수신하는 단계(S3600); 및 상기 서버가 상기 검색키워드에 대응되는 외형서술데이터를 포함하는 영상데이터를 추출하여 상기 사용자 클라이언트에 전송하는 단계(S3700);를 더 포함한다. 이하, 각 단계에 대한 상세한 설명을 기술한다.Referring to FIG. 8 , the method for obtaining outline description data of image data according to an embodiment of the present invention includes: receiving, by the server, a search keyword from a user client (S3600); and extracting, by the server, image data including external description data corresponding to the search keyword and transmitting the image data to the user client (S3700). Hereinafter, a detailed description of each step will be described.

즉, 사용자가 영상데이터의 검색을 위하여 특정한 검색키워드를 입력한 경우, 서버는 상기 검색키워드에 대응되는 대상체 유형정보, 개별외형특성 또는 추상적특성을 추출하고, 추출된 유형정보, 개별외형특성 또는 추상적특성의 외형서술데이터를 포함하는 영상데이터를 검색 결과로 사용자에게 제공한다.That is, when a user inputs a specific search keyword to search image data, the server extracts object type information, individual appearance characteristics, or abstract characteristics corresponding to the search keyword, and extracts the extracted type information, individual appearance characteristics or abstract characteristics. The image data including the appearance description data of the characteristic is provided to the user as a search result.

예를 들어, 사용자가 '귀여운 빨간색 라운드 티셔츠'를 검색키워드로 입력한 경우, 상기 검색키워드로부터 대상체 유형정보로 '셔츠&블라우스'를, 개별외형특성으로 '빨간색', '라운드넥', '카라(collar)없음'을, 추상적특성으로 '귀여운(cute)'을 추출하고, "빨간색, 라운드넥, 카라없음, 귀여운"의 외형서술데이터를 포함하는 영상데이터를 사용자에게 제공할 수 있다.For example, when the user inputs 'cute red round T-shirt' as a search keyword, 'shirt & blouse' as object type information from the search keyword, 'red', 'round neck', 'collar' as individual appearance characteristics (collar) ', 'cute' is extracted as an abstract characteristic, and image data including the appearance descriptive data of "red, round neck, no collar, cute" can be provided to the user.

또한, 일 실시예에서, 상기 검색키워드에 대응되는 영상데이터의 추출 시, 상기 사용자의 개별외형특성, 제1개별감성특성 또는 제2개별감성특성 각각에 대한 선호정보를 더 고려하여 추출할 수 있다. 이 경우, 동일한 검색키워드가 입력되는 경우라도, 검색키워드를 입력하는 사용자에 따라 검색결과가 상이할 수 있다.Also, in an embodiment, when extracting image data corresponding to the search keyword, preference information for each of the user's individual appearance characteristics, the first individual emotional characteristics, or the second individual emotional characteristics may be further taken into consideration. . In this case, even when the same search keyword is input, the search result may be different depending on the user inputting the search keyword.

또한, 도면에 도시되지는 않았으나, 본 발명의 일 실시예에 따른 영상데이터의 외형서술데이터 획득 방법은, 특정한 대상체에 대한 신규 외형분류기준이 추가되는 경우, 서버가 학습용 영상데이터에 대한 신규 외형분류기준의 개별외형특성을 획득하여, 신규 학습데이터셋을 구축하는 단계; 및 서버가 상기 신규 학습데이터셋을 기반으로 신규 개별특성인식모듈을 트레이닝하여, 상기 외형특성 인식모델에 추가하는 단계;를 더 포함할 수 있다.In addition, although not shown in the drawings, in the method for acquiring external appearance description data of image data according to an embodiment of the present invention, when a new external appearance classification criterion for a specific object is added, the server performs a new external appearance classification for image data for learning building a new learning data set by acquiring the individual appearance characteristics of the standard; and training, by the server, a new individual characteristic recognition module based on the new learning dataset, and adding it to the external characteristic recognition model.

즉, 특정한 대상체에 대한 새로운 외형분류기준이 추가되는 경우(예를 들어, 의류의 외형특성을 나누는 새로운 기준이 추가된 경우), 서버는 기존의 개별특성인식모듈을 변경하지 않고 새로운 외형분류기준에 대한 개별특성인식모듈만 추가 구축하여 외형특성 인식모델을 새로운 외형분류기준이 추가된 상황에 맞게 변경할 수 있다.That is, when a new appearance classification criterion for a specific object is added (for example, when a new criterion for dividing the appearance characteristics of clothing is added), the server does not change the existing individual characteristic recognition module and applies the new appearance classification criterion to the new appearance classification criterion. By additionally constructing only the individual characteristic recognition module for

먼저, 서버가 학습용 영상데이터에 대한 신규 외형분류기준의 개별외형특성을 획득하여, 신규 학습데이터셋을 구축한다. 일 실시예에서, 기존에 다른 개별특성인식모듈을 트레이닝하기 위해 이용된 영상데이터를 동일하게 활용하여 신규 개별특성인식모듈을 구축하는 경우, 서버는 전문가 클라이언트로부터 학습용 영상데이터 각각에 대해 신규 외형분류기준의 개별외형특성을 입력 받는다. 또한, 다른 일실시예로, 서버는 신규 외형분류기준에 대한 개별특성인식모듈을 트레이닝하기 위한 신규 영상데이터를 획득하고, 이에 대해 신규 외형분류기준의 개별외형특성을 각각 입력 받아서 신규 학습데이터셋을 구축한다.First, the server acquires the individual appearance characteristics of the new appearance classification criteria for the image data for learning, and builds a new learning dataset. In one embodiment, when a new individual characteristic recognition module is constructed by using the same image data previously used for training other individual characteristic recognition modules, the server provides a new appearance classification standard for each training image data from an expert client input the individual appearance characteristics of In addition, in another embodiment, the server acquires new image data for training the individual characteristic recognition module for the new appearance classification criterion, and receives individual appearance characteristics of the new appearance classification criterion for this, respectively, and creates a new learning dataset build

그 후, 서버가 상기 신규 학습데이터셋을 기반으로 신규 개별특성인식모듈을 트레이닝하여, 상기 외형특성 인식모델에 추가한다. 이를 통해, 서버는 기존의 외형특성 인식모델에(복수의 특화 외형특성 인식모델) 복수의 기존 개별특성인식모듈과 함께 신규 개별특성인식모듈을 추가한다.Thereafter, the server trains a new individual characteristic recognition module based on the new learning dataset, and adds it to the appearance characteristic recognition model. Through this, the server adds a new individual characteristic recognition module together with a plurality of existing individual characteristic recognition modules to the existing appearance characteristic recognition model (a plurality of specialized exterior characteristic recognition models).

또한, 일 실시예에서, 서버가 이미 구축된 개별특성인식모듈에 의해 외형서술데이터가 획득된 영상데이터를 신규 개별특성인식모듈에 입력하여 신규 외형분류기준에 대해 개별외형특성을 추가하는 단계;를 더 포함할 수 있다. 즉, 서버는 기존에 획득된 영상데이터의 외형서술데이터를 신규 외형분류기준을 반영하도록 업데이트하는 과정을 수행한다. 이를 위해, 서버는 신규 개별특성인식모듈에 모든 영상데이터를 삽입하여 개별외형특성을 산출하는 과정을 수행한다.In addition, in one embodiment, the server inputs the image data obtained by the individual characteristic recognition module that has already been built in the individual characteristic recognition module to the new individual characteristic recognition module to add individual appearance characteristics to the new appearance classification criteria; may include more. That is, the server performs a process of updating the appearance description data of the previously acquired image data to reflect the new appearance classification criteria. To this end, the server inserts all image data into the new individual characteristic recognition module to calculate individual appearance characteristics.

또한, 본 발명의 일 실시예에서, 상기 영상데이터가 복수의 프레임을 포함하는 동영상데이터인 경우, 상기 대상체 유형정보 산출단계(S3100) 및 개별외형특성 산출단계(S3200)는, 상기 동영상데이터 내의 각각의 프레임에 대해 수행되는 것을 특징으로 할 수 있고, 외형서술데이터 생성단계(S3300)는 각 프레임에 대한 대상체 유형정보 및 복수의 개별외형특성을 순차적으로 나열하여 생성하는 것을 특징으로 할 수 있다.In addition, in an embodiment of the present invention, when the image data is moving picture data including a plurality of frames, the object type information calculating step S3100 and the individual appearance characteristic calculating step S3200 are each in the moving picture data. It may be characterized in that it is performed for a frame of , and the appearance description data generation step (S3300) may be characterized in that the object type information for each frame and a plurality of individual appearance characteristics are sequentially arranged and generated.

본 발명의 다른 일실시예에 따른 영상데이터의 외형서술데이터 획득 서버장치는, 하나 이상의 컴퓨터를 포함하고, 상기 언급된 외형서술데이터 획득 방법을 수행한다.A server apparatus for obtaining external appearance description data of image data according to another embodiment of the present invention includes one or more computers, and performs the above-mentioned external appearance description data acquisition method.

도 9를 참조하면, 본 발명의 일 실시예에 따른 영상데이터의 외형서술데이터 획득 서버장치(10)는, 대상체유형 인식모델(100), 외형특성 인식모델(200), 외형서술데이터 생성부(600) 및 데이터베이스(800)를 포함하며, 전술한 외형서술데이터 획득 방법을 수행한다.Referring to FIG. 9 , the server apparatus 10 for obtaining external appearance description data of image data according to an embodiment of the present invention includes an object type recognition model 100 , an external appearance characteristic recognition model 200 , and an external appearance description data generating unit ( 600) and the database 800, and performs the above-described method for acquiring external appearance description data.

또한, 다른 실시예에서, 상기 서버장치(10)는 추상적특성 인식모델(300), 세부유형 인식모델(400), 스타일 인식모델(500) 또는 추천영상데이터 생성부(700) 중 하나 이상을 더 포함할 수 있다.In addition, in another embodiment, the server device 10 further adds one or more of the abstract characteristic recognition model 300 , the detailed type recognition model 400 , the style recognition model 500 , or the recommended image data generator 700 . may include

또한, 전술한 본 발명의 일 실시예에 따른 영상데이터의 외형서술데이터 획득 방법은, 하드웨어인 컴퓨터와 결합되어 실행되기 위해 프로그램(또는 어플리케이션)으로 구현되어 매체에 저장될 수 있다.In addition, the above-described method for acquiring outline description data of image data according to an embodiment of the present invention may be implemented as a program (or application) and stored in a medium in order to be executed in combination with a computer, which is hardware.

상기 전술한 프로그램은, 상기 컴퓨터가 프로그램을 읽어 들여 프로그램으로 구현된 상기 방법들을 실행시키기 위하여, 상기 컴퓨터의 프로세서(CPU)가 상기 컴퓨터의 장치 인터페이스를 통해 읽힐 수 있는 C, C++, JAVA, 기계어 등의 컴퓨터 언어로 코드화된 코드(Code)를 포함할 수 있다. 이러한 코드는 상기 방법들을 실행하는 필요한 기능들을 정의한 함수 등과 관련된 기능적인 코드(Functional Code)를 포함할 수 있고, 상기 기능들을 상기 컴퓨터의 프로세서가 소정의 절차대로 실행시키는데 필요한 실행 절차 관련 제어 코드를 포함할 수 있다. 또한, 이러한 코드는 상기 기능들을 상기 컴퓨터의 프로세서가 실행시키는데 필요한 추가 정보나 미디어가 상기 컴퓨터의 내부 또는 외부 메모리의 어느 위치(주소 번지)에서 참조되어야 하는지에 대한 메모리 참조관련 코드를 더 포함할 수 있다. 또한, 상기 컴퓨터의 프로세서가 상기 기능들을 실행시키기 위하여 원격(Remote)에 있는 어떠한 다른 컴퓨터나 서버(10) 등과 통신이 필요한 경우, 코드는 상기 컴퓨터의 통신 모듈을 이용하여 원격에 있는 어떠한 다른 컴퓨터나 서버(10) 등과 어떻게 통신해야 하는지, 통신 시 어떠한 정보나 미디어를 송수신해야 하는지 등에 대한 통신 관련 코드를 더 포함할 수 있다. The above-described program is C, C++, JAVA, machine language, etc. that a processor (CPU) of the computer can read through a device interface of the computer in order for the computer to read the program and execute the methods implemented as a program It may include code (Code) coded in the computer language of Such code may include functional code related to a function defining functions necessary for executing the methods, etc., and includes an execution procedure related control code necessary for the processor of the computer to execute the functions according to a predetermined procedure. can do. In addition, the code may further include additional information necessary for the processor of the computer to execute the functions or code related to memory reference for which location (address address) in the internal or external memory of the computer to be referenced. there is. In addition, when the processor of the computer needs to communicate with any other computer or server 10 in a remote location in order to execute the functions, the code is transmitted to any other computer remotely using the communication module of the computer. It may further include a communication-related code for how to communicate with the server 10 and the like, and what kind of information or media should be transmitted and received during communication.

상기 저장되는 매체는, 레지스터, 캐쉬, 메모리 등과 같이 짧은 순간 동안 데이터를 저장하는 매체가 아니라 반영구적으로 데이터를 저장하며, 기기에 의해 판독(reading)이 가능한 매체를 의미한다. 구체적으로는, 상기 저장되는 매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 플로피디스크, 광 데이터 저장장치 등이 있지만, 이에 제한되지 않는다. 즉, 상기 프로그램은 상기 컴퓨터가 접속할 수 있는 다양한 서버(10) 상의 다양한 기록매체 또는 사용자의 상기 컴퓨터상의 다양한 기록매체에 저장될 수 있다. 또한, 상기 매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어, 분산방식으로 컴퓨터가 읽을 수 있는 코드가 저장될 수 있다.The storage medium is not a medium that stores data for a short moment, such as a register, a cache, a memory, etc., but a medium that stores data semi-permanently and can be read by a device. Specifically, examples of the storage medium include, but are not limited to, ROM, RAM, CD-ROM, magnetic tape, floppy disk, and optical data storage device. That is, the program may be stored in various recording media on the various servers 10 accessible by the computer or in various recording media on the computer of the user. In addition, the medium may be distributed in a computer system connected to a network, and a computer-readable code may be stored in a distributed manner.

이상, 첨부된 도면을 참조로 하여 본 발명의 실시예를 설명하였지만, 본 발명이 속하는 기술분야의 통상의 기술자는 본 발명이 그 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 그러므로, 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며, 제한적이 아닌 것으로 이해해야만 한다.In the above, the embodiments of the present invention have been described with reference to the accompanying drawings, but those skilled in the art to which the present invention pertains know that the present invention may be embodied in other specific forms without changing the technical spirit or essential features thereof. you will be able to understand Therefore, it should be understood that the embodiments described above are illustrative in all respects and not restrictive.

Claims (10)

서버에 의해 수행되는, 방법에 있어서,
영상데이터를 대상체유형 인식모델에 입력하여, 제1 대상체의 유형에 대한 유형정보를 산출하는 단계;
상기 영상데이터를 상기 제1 대상체 유형에 관한 외형특성 인식모델에 입력하여, 복수의 외형분류기준에 대한 복수의 개별외형특성을 산출하는 단계;
상기 개별외형특성이 산출되는 결과에 기반하여, 상기 제1 대상체 유형정보를 검증하는 단계; 및
상기 제1 대상체 유형정보 및 상기 복수의 개별외형특성을 조합한 외형서술데이터를 생성하는 단계;를 포함하고,
상기 외형분류기준은, 특정한 대상체의 외형을 서술하기 위한 특정한 분류기준으로서, 상기 대상체의 동일한 분류기준 내의 다양한 외형특성을 표현하는 복수의 개별외형특성을 포함하고,
상기 서버는,
상기 유형정보 산출 단계에서, 특정한 영상데이터의 대상체가 특정 유형정보 각각에 해당할 제1 확률을 산출하여, 상기 제1 확률이 임계값 이상인 복수의 후보유형정보를 모두 산출하고,
상기 개별외형특성 산출 단계에서, 상기 복수의 후보유형정보 각각에 대응되는 특화 외형특성 인식모델에 상기 영상데이터를 입력하여 상기 복수의 후보유형정보 각각에 대한 개별외형특성을 산출하고,
개별외형특성이 산출되지 않은 개별특성인식모듈의 개수 또는 비율이 가장 적은 후보 외형특성 인식모델에 대응되는 후보유형정보를 최종유형정보로 설정하는 것을 특징으로 하는,
영상데이터의 외형서술데이터 생성 방법.
A method, performed by a server, comprising:
inputting the image data into the object type recognition model, and calculating type information on the type of the first object;
inputting the image data into an appearance characteristic recognition model for the first object type, and calculating a plurality of individual appearance characteristics for a plurality of appearance classification criteria;
verifying the first object type information based on a result of calculating the individual appearance characteristics; and
Including; generating appearance description data combining the first object type information and the plurality of individual appearance characteristics;
The appearance classification criterion is a specific classification criterion for describing the appearance of a specific object, and includes a plurality of individual appearance characteristics expressing various appearance characteristics within the same classification criterion of the object,
The server is
In the step of calculating the type information, a first probability that an object of specific image data corresponds to each specific type information is calculated, and a plurality of pieces of candidate type information having the first probability equal to or greater than a threshold value are all calculated;
In the individual appearance characteristic calculation step, the image data is input to a specialized appearance characteristic recognition model corresponding to each of the plurality of candidate type information to calculate individual appearance characteristics for each of the plurality of candidate type information;
characterized in that candidate type information corresponding to a candidate appearance characteristic recognition model having the smallest number or ratio of individual characteristic recognition modules for which individual appearance characteristics are not calculated is set as final type information;
A method of generating outline description data of image data.
제1항에 있어서,
상기 외형특성 인식모델은, 특정한 대상체 유형정보에 적용하도록 설정된 복수의 외형분류기준에 대응되는 복수의 개별특성인식모듈을 포함하고,
상기 검증 단계는,
상기 복수의 개별특성인식모듈 중 개별외형특성이 산출되지 않은 개별특성인식모듈의 개수 또는 비율이 임계값 이상일 경우, 상기 외형특성 인식모델이 상기 복수의 개별외형특성을 산출할 수 없는 것으로 판단하는,
영상데이터의 외형서술데이터 생성 방법.
The method of claim 1,
The appearance characteristic recognition model includes a plurality of individual characteristic recognition modules corresponding to a plurality of appearance classification criteria set to be applied to specific object type information;
The verification step is
If the number or ratio of individual characteristic recognition modules for which individual appearance characteristics are not calculated among the plurality of individual characteristic recognition modules is greater than or equal to a threshold value, it is determined that the exterior characteristic recognition model cannot calculate the plurality of individual appearance characteristics,
A method of generating outline description data of image data.
삭제delete 제1항에 있어서,
상기 복수의 개별외형특성을 기초로 추상적특성을 산출하는 단계를 더 포함하고,
상기 외형서술데이터는, 상기 산출된 추상적특성을 더 포함하는,
영상데이터의 외형서술데이터 생성 방법.
The method of claim 1,
Further comprising the step of calculating an abstract characteristic based on the plurality of individual appearance characteristics,
The appearance description data further includes the calculated abstract characteristics,
A method of generating outline description data of image data.
제4항에 있어서,
상기 추상적특성의 산출 단계는,
상기 외형서술데이터를 추상적특성 인식모델에 입력하여 추상적 특성을 산출하고,
상기 외형서술데이터의 산출 단계는,
상기 산출된 추상적 특성에 기반하여, 외형서술데이터를 갱신하는,
영상데이터의 외형서술데이터 생성 방법.
5. The method of claim 4,
The step of calculating the abstract characteristic is
By inputting the appearance description data into an abstract characteristic recognition model, an abstract characteristic is calculated,
The step of calculating the outline description data is
Based on the calculated abstract characteristics, updating the appearance description data,
A method of generating outline description data of image data.
제5항에 있어서,
상기 추상적특성의 산출 단계는,
각각의 개별외형특성마다 복수의 추상적특성 각각에 대한 점수가 설정되어 있고, 상기 복수의 개별외형특성에 설정된 각각의 추상적특성에 대한 점수를 합산하여 산출하는,
영상데이터의 외형서술데이터 생성 방법.
6. The method of claim 5,
The step of calculating the abstract characteristic is
A score for each of a plurality of abstract characteristics is set for each individual appearance characteristic, and the sum of the scores for each abstract characteristic set in the plurality of individual appearance characteristics is calculated,
A method of generating outline description data of image data.
삭제delete 삭제delete 삭제delete 하드웨어인 컴퓨터와 결합되어, 제1항, 제2항, 제4항, 제5항 및 제6항 중 어느 한 항의 방법을 실행시키기 위하여 매체에 저장된, 영상데이터의 외형서술데이터 생성 프로그램.A program for generating outline description data of image data, which is combined with a computer that is hardware and stored in a medium to execute the method of any one of claims 1, 2, 4, 5 and 6.
KR1020210030706A 2019-06-10 2021-03-09 System, method and program for obtaining appearance descriptive data from image data KR102366595B1 (en)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
KR1020190067795 2019-06-10
KR20190067795 2019-06-10
KR1020200012942A KR102227896B1 (en) 2019-06-10 2020-02-04 System, method and program for obtaining appearance descriptive data from image data

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
KR1020200012942A Division KR102227896B1 (en) 2019-06-10 2020-02-04 System, method and program for obtaining appearance descriptive data from image data

Publications (2)

Publication Number Publication Date
KR20210031876A KR20210031876A (en) 2021-03-23
KR102366595B1 true KR102366595B1 (en) 2022-02-23

Family

ID=80495424

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210030706A KR102366595B1 (en) 2019-06-10 2021-03-09 System, method and program for obtaining appearance descriptive data from image data

Country Status (1)

Country Link
KR (1) KR102366595B1 (en)

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1183461A (en) * 1997-09-09 1999-03-26 Mitsubishi Electric Corp Article assortment recognition system
KR20180133200A (en) 2018-04-24 2018-12-13 김지우 Application program for managing clothes recorded in recording media, system and method for managing clothes using the same

Also Published As

Publication number Publication date
KR20210031876A (en) 2021-03-23

Similar Documents

Publication Publication Date Title
KR102227896B1 (en) System, method and program for obtaining appearance descriptive data from image data
Tautkute et al. Deepstyle: Multimodal search engine for fashion and interior design
US7689527B2 (en) Attribute extraction using limited training data
WO2019011936A1 (en) Method for evaluating an image
US20210019374A1 (en) Natural language text conversion and method therefor
US10776417B1 (en) Parts-based visual similarity search
CN108345612A (en) A kind of question processing method and device, a kind of device for issue handling
CN107679070A (en) A kind of intelligence, which is read, recommends method and apparatus, electronic equipment
CN111767420A (en) Method and device for generating clothing matching data
KR20200141387A (en) System, method and program for searching image data by using deep-learning algorithm
CN113657087A (en) Information matching method and device
Luo et al. Spatial constraint multiple granularity attention network for clothesretrieval
US20220100792A1 (en) Method, device, and program for retrieving image data by using deep learning algorithm
CN110413818B (en) Label paper recommending method, device, computer readable storage medium and computer equipment
KR102366595B1 (en) System, method and program for obtaining appearance descriptive data from image data
CN111223014B (en) Method and system for online generation of subdivision scene teaching courses from a large number of subdivision teaching contents
CN110704654A (en) Picture searching method and device
KR102119246B1 (en) System, method and program for searching image data by using deep-learning algorithm
CN110785753A (en) Method, apparatus, and storage medium for searching for image
CN110413823A (en) Garment image method for pushing and relevant apparatus
CN110110126A (en) Inquire the method, apparatus and server of the face-image of personage
CN112650869B (en) Image retrieval reordering method and device, electronic equipment and storage medium
CN111666963B (en) Method, device and equipment for identifying clothes styles
KR102524049B1 (en) Device and method for recommending apparel for user based on characteristic information
CN114283300A (en) Label determining method and device, and model training method and device

Legal Events

Date Code Title Description
A107 Divisional application of patent
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right