KR102227896B1 - System, method and program for obtaining appearance descriptive data from image data - Google Patents

System, method and program for obtaining appearance descriptive data from image data Download PDF

Info

Publication number
KR102227896B1
KR102227896B1 KR1020200012942A KR20200012942A KR102227896B1 KR 102227896 B1 KR102227896 B1 KR 102227896B1 KR 1020200012942 A KR1020200012942 A KR 1020200012942A KR 20200012942 A KR20200012942 A KR 20200012942A KR 102227896 B1 KR102227896 B1 KR 102227896B1
Authority
KR
South Korea
Prior art keywords
appearance
type information
individual
image data
characteristic
Prior art date
Application number
KR1020200012942A
Other languages
Korean (ko)
Other versions
KR20200141375A (en
Inventor
이종혁
Original Assignee
(주)사맛디
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by (주)사맛디 filed Critical (주)사맛디
Priority to PCT/KR2020/007439 priority Critical patent/WO2020251236A1/en
Priority to EP20822980.7A priority patent/EP3982277A4/en
Publication of KR20200141375A publication Critical patent/KR20200141375A/en
Priority to KR1020210030706A priority patent/KR102366595B1/en
Application granted granted Critical
Publication of KR102227896B1 publication Critical patent/KR102227896B1/en
Priority to US17/546,709 priority patent/US20220100792A1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/70Information retrieval; Database structures therefor; File system structures therefor of video data
    • G06F16/78Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/783Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • G06F16/7837Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using objects detected or recognised in the video content
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/70Information retrieval; Database structures therefor; File system structures therefor of video data
    • G06F16/73Querying
    • G06F16/735Filtering based on additional data, e.g. user or group profiles
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/70Information retrieval; Database structures therefor; File system structures therefor of video data
    • G06F16/75Clustering; Classification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Abstract

본 발명은 영상데이터의 외형서술데이터 획득 방법, 장치 및 프로그램에 관한 것이다.
본 발명의 일 실시예에 따른 영상데이터의 외형서술데이터 획득 방법은, 서버가 영상데이터를 대상체유형 인식모델에 입력하여, 대상체 유형정보를 산출하는 단계(S3100); 상기 서버가 상기 영상데이터를 외형특성 인식모델에 입력하여, 복수의 외형분류기준에 대한 개별외형특성을 산출하는 단계(S3200); 및 상기 서버가 상기 영상데이터에 대하여 산출된 대상체 유형정보 및 복수의 개별외형특성을 조합하여 외형서술데이터를 생성하는 단계(S3300);를 포함한다.
The present invention relates to a method, an apparatus, and a program for obtaining outline description data of image data.
A method of obtaining outline description data of image data according to an embodiment of the present invention includes: calculating object type information by inputting the image data into an object type recognition model by a server (S3100); Calculating, by the server, the image data into an appearance characteristic recognition model, and calculating individual appearance characteristics for a plurality of appearance classification criteria (S3200); And generating, by the server, the external description data by combining the object type information calculated for the image data and a plurality of individual external characteristics (S3300).

Description

영상데이터의 외형서술데이터 획득 방법, 장치 및 프로그램{SYSTEM, METHOD AND PROGRAM FOR OBTAINING APPEARANCE DESCRIPTIVE DATA FROM IMAGE DATA}Appearance description data acquisition method, device and program of image data {SYSTEM, METHOD AND PROGRAM FOR OBTAINING APPEARANCE DESCRIPTIVE DATA FROM IMAGE DATA}

본 발명은 영상데이터의 외형서술데이터 획득 방법, 장치 및 프로그램에 관한 것이다. The present invention relates to a method, an apparatus, and a program for obtaining outline description data of image data.

최근 인터넷의 발달로 소셜 미디어 네트워크 서비스가 급격히 성장하고 있다. 그 결과, 멀티미디어의 양이 폭발 적으로 증가하면서 효과적인 이미지 검색 시스템이 요구되며, 이미지 어노테이션은 폭발적으로 증가하는 웹이미지에 따른 효율적인 이미지 검색의 필요성으로 인해 그 중요도가 점점 높아지고 있다.With the recent development of the Internet, social media network services are rapidly growing. As a result, as the amount of multimedia explosively increases, an effective image retrieval system is required, and image annotations are increasingly important due to the necessity of efficient image retrieval according to the explosively increasing web images.

대부분의 이미지 검색 연구는 주로 이미지의 내용을 분석하는 내용 기반 이미지 검색(CBIR: Content-based Image Retrieval) 방법이 많이 진행되어 왔다. 내용 기반 이미지 검색은 색상, 텍스처 및 형태와 같은 시각적 특징을 이용하여 이미지의 내용을 분석한다. 이러한 방법은 정의하는 태그의 개수가 적을 경우에는 잘 작동하지만, 데이터셋이 커지고 태그의 종류가 다양해짐에 따라 성능이 떨어지게 된다.Most of the image retrieval studies have been mainly conducted on a content-based image retrieval (CBIR) method that analyzes the contents of an image. Content-based image search analyzes the content of an image using visual features such as color, texture, and shape. This method works well when the number of tags to be defined is small, but performance deteriorates as the data set becomes larger and the types of tags diversify.

텍스트 기반 이미지 검색(TBIR: Text-based Image Retrieval)은 텍스트를 쿼리로 하여 텍스트에 대응되는 이미지를 검색하는 방식이다. 이 방식은 이미지의 시각적 내용이 수동으로 태깅된 텍스트 디스크립터에 의해 표현되며, 데이터셋 관리 시스템에서 이미지 검색을 수행하는데 사용된다. 즉, 기존의 이미지 또는 영상 검색 방식은 사용자가 직접 태깅한 정보를 기반으로 검색이 이루어진다. 또한, 이미지를 통한 사용자 관심정보 획득 방식도 사용자가 직접 태깅한 정보를 기반으로 획득이 이루어져, 사용자가 영상에 키워드를 잘못 태깅하면 획득 결과가 부정확해지는 문제점이 존재하였다. 또한, 사용자마다 정의하는 키워드에 차이가 존재할 수 있어서, 이미지를 입력하는 사용자가 선택한 키워드에 따라 제공되는 결과가 상이한 문제가 존재하였다.Text-based image retrieval (TBIR) is a method of searching for images corresponding to text by querying text. In this method, the visual content of the image is represented by a manually tagged text descriptor, and is used to perform image search in the dataset management system. That is, in the existing image or video search method, a search is performed based on information directly tagged by a user. In addition, the method of acquiring user interest information through an image is also acquired based on information directly tagged by the user, and there is a problem in that the acquisition result becomes inaccurate if the user incorrectly tags the keyword in the image. In addition, since there may be differences in keywords defined for each user, there is a problem in that the results provided according to the keywords selected by the user inputting an image are different.

공개특허공보 제10-2018-0133200호, 2018.12.13Unexamined Patent Publication No. 10-2018-0133200, 2018.12.13

본 발명은, 영상데이터로부터 특정한 대상체의 유형정보, 상기 대상체의 외형을 표현하는 외형특성 또는 상기 대상체에 대하여 인지할 수 있는 추상적특성을 획득하여 코드열 형태의 외형서술데이터로 생성하는, 영상데이터의 외형서술데이터 획득 방법, 장치 및 프로그램을 제공하고자 한다.The present invention is to obtain type information of a specific object, external characteristics representing the external appearance of the object, or abstract characteristics recognizable for the object from image data, and generate the external description data in the form of a code string. It is intended to provide a method, apparatus, and program for obtaining appearance description data.

본 발명이 해결하고자 하는 과제들은 이상에서 언급된 과제로 제한되지 않으며, 언급되지 않은 또 다른 과제들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해될 수 있을 것이다.The problems to be solved by the present invention are not limited to the problems mentioned above, and other problems that are not mentioned will be clearly understood by those skilled in the art from the following description.

본 발명의 일 실시예에 따른 영상데이터의 외형서술데이터 획득 방법은, 서버가 영상데이터를 대상체유형 인식모델에 입력하여, 대상체 유형정보를 산출하는 단계; 상기 서버가 상기 영상데이터를 외형특성 인식모델에 입력하여, 복수의 외형분류기준에 대한 개별외형특성을 산출하는 단계; 및 상기 서버가 상기 영상데이터에 대하여 산출된 대상체 유형정보 및 복수의 개별외형특성을 조합하여 외형서술데이터를 생성하는 단계;를 포함하고, 상기 외형분류기준은, 특정한 대상체의 외형을 서술하기 위한 특정한 분류기준으로서, 상기 대상체의 동일한 분류기준 내의 다양한 외형특성을 표현하는 복수의 개별외형특성을 포함하는 것이다.According to an exemplary embodiment of the present invention, a method for obtaining outline description data of image data includes: calculating object type information by inputting the image data into an object type recognition model by a server; Calculating individual appearance characteristics for a plurality of appearance classification criteria by the server inputting the image data into an appearance characteristic recognition model; And generating, by the server, the object type information calculated with respect to the image data and a plurality of individual appearance characteristics to generate appearance description data; wherein the appearance classification criterion includes a specific object for describing the appearance of a specific object. As a classification criterion, a plurality of individual appearance characteristics expressing various external appearance characteristics within the same classification standard of the object are included.

또한, 다른 일실시예로, 상기 외형특성 인식모델은, 상이한 외형분류기준을 판단하는 복수의 개별특성인식모듈을 포함하고, 상기 개별특성인식모듈은, 특정한 외형분류기준에 포함된 개별외형특성을 산출하는 것이고, 상기 개별외형특성 산출단계는, 산출된 대상체 유형정보에 대응되는 특화 외형특성 인식모델에 상기 영상데이터를 입력하여, 복수의 개별외형특성을 산출하는 것을 특징으로 하고, 상기 특화 외형특성 인식모델은, 특정 대상체 유형정보에 따라 적용하도록 미리 설정된 복수의 외형분류기준의 개별특성인식모듈을 포함하는 외형특성 인식모델인 것을 특징으로 한다.In addition, in another embodiment, the appearance characteristic recognition model includes a plurality of individual characteristic recognition modules for determining different appearance classification criteria, and the individual characteristic recognition module includes individual appearance characteristics included in a specific appearance classification standard. And calculating a plurality of individual appearance characteristics by inputting the image data into a specialized appearance characteristic recognition model corresponding to the calculated object type information, and in the step of calculating the individual appearance characteristics, the specialized appearance characteristics The recognition model is characterized in that it is an appearance characteristic recognition model including individual characteristic recognition modules of a plurality of appearance classification criteria set in advance to be applied according to specific object type information.

또한, 다른 일실시예로, 상기 특화 외형특성 인식모델의 외형분류기준에 대하여 개별외형특성을 산출할 수 없는 경우, 상기 서버가 상기 영상데이터를 상기 대상체유형 인식모델에 다시 입력하여, 이전과 상이한 대상체 유형정보를 산출하는 단계;를 더 포함한다.In another embodiment, when it is not possible to calculate the individual appearance characteristics with respect to the external appearance classification criteria of the specialized external characteristic recognition model, the server inputs the image data to the object type recognition model again, and is different from the previous one. It further includes; calculating object type information.

또한, 다른 일실시예로, 상기 대상체 유형정보 산출단계는, 상기 서버가 제1확률을 획득하여 상기 제1확률이 임계값 이상인 유형정보를 산출하되, 상기 제1확률이 임계값 이상인 유형정보가 복수개인 경우, 복수의 후보유형정보를 모두 산출하는 것을 특징으로 하고, 상기 제1확률은, 상기 대상체가 특정한 유형정보 각각에 해당할 확률이고, 상기 개별외형특성 산출단계는, 상기 영상데이터에 대하여 복수의 후보유형정보가 산출된 경우, 상기 후보유형정보 각각에 대응되는 특화 외형특성 인식모델에 상기 영상데이터를 각각 입력하는 것을 특징으로 한다.In another embodiment, in the step of calculating the object type information, the server obtains a first probability and calculates type information in which the first probability is equal to or greater than a threshold value, and the type information in which the first probability is equal to or greater than a threshold value is In the case of a plurality of pieces, all of a plurality of candidate type information is calculated, the first probability is a probability that the object corresponds to each of the specific type information, and the step of calculating the individual appearance characteristics is performed with respect to the image data. When a plurality of candidate type information is calculated, each of the image data is input to a specialized appearance characteristic recognition model corresponding to each of the candidate type information.

또한, 다른 일실시예로, 상기 서버가 상기 복수의 후보유형정보 각각에 대응되는 특화 외형특성 인식모델 중 개별외형특성을 산출할 수 없는 외형분류기준이 가장 적은 후보유형정보를 최종유형정보로 설정하는 단계;를 더 포함한다.In another embodiment, the server sets the candidate type information with the smallest appearance classification criteria for which individual appearance characteristics cannot be calculated among the specialized appearance characteristic recognition models corresponding to each of the plurality of candidate type information as the final type information. It further includes;

또한, 다른 일실시예로, 상기 서버가 산출된 복수의 개별외형특성을 기초로 추상적특성을 산출하는 단계;를 더 포함하고, 상기 외형서술데이터는, 상기 영상데이터에 대하여 산출된 상기 추상적특성을 더 포함하는 것을 특징으로 한다.In addition, in another embodiment, the server calculating an abstract characteristic based on a plurality of individual appearance characteristics calculated; further comprising, the appearance description data, the abstract characteristic calculated for the image data It characterized in that it further includes.

또한, 다른 일실시예로, 상기 추상적특성 산출단계는, 각각의 개별외형특성마다 복수의 추상적특성 각각에 대한 점수가 설정되어 있고, 상기 서버가 상기 영상데이터에 대하여 산출된 복수의 개별외형특성에 설정된 각각의 추상적특성에 대한 점수를 합산하여 산출하는 것을 특징으로 한다.In another embodiment, in the step of calculating the abstract characteristics, a score for each of a plurality of abstract characteristics is set for each individual appearance characteristic, and the server determines the plurality of individual appearance characteristics calculated for the image data. It is characterized by calculating by summing the scores for each set abstract characteristics.

또한, 다른 일실시예로, 상기 서버가 상기 영상데이터의 외형서술데이터를 세부유형 인식모델에 입력하여, 대상체 세부유형정보를 산출하는 단계;를 더 포함하고, 상기 세부유형정보는, 산출된 상기 대상체 유형정보의 하위개념인 것을 특징으로 한다.In another embodiment, the server inputs the outline description data of the image data into a detailed type recognition model to calculate object detailed type information, wherein the detailed type information comprises: It is characterized in that it is a sub-concept of object type information.

또한, 다른 일실시예로, 상기 세부유형 인식모델은, 하나 이상의 개별외형특성 조합이 하나 이상의 세부유형정보와 매칭됨에 따라, 입력된 외형서술데이터의 개별외형특성 조합에 대한 세부유형정보를 산출하는 것을 특징으로 한다.In addition, in another embodiment, the detailed type recognition model calculates detailed type information for an individual appearance characteristic combination of the input appearance description data, as one or more individual appearance characteristic combinations are matched with one or more detailed type information. It is characterized by that.

또한, 다른 일실시예로, 상기 서버가 사용자 클라이언트로부터 검색키워드를 수신하는 단계; 및 상기 서버가 상기 검색키워드에 대응되는 외형서술데이터를 포함하는 영상데이터를 추출하여 상기 사용자 클라이언트에 전송하는 단계;를 더 포함한다.In addition, in another embodiment, the server receiving a search keyword from a user client; And extracting, by the server, image data including appearance description data corresponding to the search keyword and transmitting the extracted image data to the user client.

또한, 다른 일실시예로, 상기 외형서술데이터 생성단계는, 상기 영상데이터에 대한 대상체 유형정보 및 복수의 개별외형특성 각각에 대응하는 코드값을 추출하는 단계; 및 상기 복수의 코드값을 조합하여, 코드열 형태의 외형서술데이터를 생성하는 단계;를 포함한다.In another embodiment, the generating of the appearance description data includes: extracting object type information for the image data and a code value corresponding to each of a plurality of individual appearance characteristics; And generating external description data in the form of a code string by combining the plurality of code values.

또한, 다른 일실시예로, 상기 영상데이터가 복수의 프레임을 포함하는 동영상데이터인 경우, 상기 대상체 유형정보 산출단계 및 개별외형특성 산출단계는, 상기 동영상데이터 내의 각각의 프레임에 대해 수행되는 것을 특징으로 한다.In another embodiment, when the image data is moving image data including a plurality of frames, the object type information calculation step and the individual appearance characteristic calculation step are performed for each frame in the moving image data. It is done.

본 발명의 다른 일실시예에 따른 영상데이터의 외형서술데이터 획득 서버장치는, 하나 이상의 컴퓨터를 포함하고, 상기 언급된 외형서술데이터 획득 방법을 수행한다.A server apparatus for obtaining outline description data of image data according to another embodiment of the present invention includes one or more computers, and performs the above-mentioned method for obtaining outline description data.

본 발명의 또 다른 일실시예에 따른 영상데이터의 외형서술데이터 획득 프로그램은, 하드웨어와 결합되어 상기 언급된 외형서술데이터 획득 방법을 실행하며, 매체에 저장된다.A program for obtaining appearance description data of image data according to another embodiment of the present invention is combined with hardware to execute the aforementioned method for obtaining appearance description data, and is stored in a medium.

본 발명의 기타 구체적인 사항들은 상세한 설명 및 도면들에 포함되어 있다.Other specific details of the present invention are included in the detailed description and drawings.

상기 본 발명에 의하면, 복수의 영상데이터에 대해 동일한 기준에 따라 대상체의 유형정보, 개별외형특성 또는 추상적특성을 획득하여 이를 기초로 외형서술데이터를 생성할 수 있다.According to the present invention, it is possible to obtain type information, individual appearance characteristics, or abstract characteristics of an object according to the same criterion for a plurality of image data, and generate appearance description data based on this.

또한, 상기 본 발명에 의하면, 특정한 영상데이터의 대상체 유형정보를 산출하고 이에 대응되는 특화 외형특성 인식모델에 상기 영상데이터를 입력함으로써, 유형정보에 따라 적용되는 외형분류기준의 조합을 달리하여 보다 효율적으로 개별외형특성을 획득할 수 있다.In addition, according to the present invention, by calculating the object type information of specific image data and inputting the image data to a corresponding specialized appearance characteristic recognition model, it is more efficient by different combinations of appearance classification criteria applied according to the type information. Individual appearance characteristics can be obtained with this.

또한, 상기 본 발명에 의하면, 특정 영상데이터에 대하여, 외형서술데이터(획득한 대상체 유형정보 또는 개별외형특성)를 기초로 추상적특성을 산출하고, 산출한 추상적특성을 외형서술데이터에 추가함으로써 간단하게 영상데이터의 추상적특성을 획득하고 외형서술데이터를 업데이트할 수 있다.In addition, according to the present invention, for specific image data, abstract characteristics are calculated based on external appearance description data (obtained object type information or individual external characteristics), and the calculated abstract characteristics are added to the external description data. It is possible to acquire abstract characteristics of image data and update appearance description data.

또한, 상기 본 발명에 의하면, 외형특성 인식모델을 재학습 또는 추가 학습시켜야 하는 상황을 최소화할 수 있다. 예를 들어, 특정한 대상체에 대해 새로운 외형분류기준이 추가되는 경우에, 신규 개별특성인식모듈만 학습시키면 되고 기존 개별특성인식모듈은 그대로 활용할 수 있다.In addition, according to the present invention, it is possible to minimize a situation in which the external feature recognition model needs to be retrained or additionally learned. For example, when a new appearance classification criterion is added for a specific object, only a new individual characteristic recognition module needs to be learned, and the existing individual characteristic recognition module can be used as it is.

본 발명의 효과들은 이상에서 언급된 효과로 제한되지 않으며, 언급되지 않은 또 다른 효과들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해될 수 있을 것이다.The effects of the present invention are not limited to the effects mentioned above, and other effects not mentioned will be clearly understood by those skilled in the art from the following description.

도 1은 본 발명의 일 실시예에 따른 영상데이터의 외형서술데이터 획득 방법의 순서도이다.
도 2는 본 발명의 일 실시예에 따른 외형특성 인식모델의 구성도이다.
도 3은 본 발명의 일 실시예에 따른 코드시스템을 설명하기 위한 예시도이다.
도 4는 본 발명의 일 실시예에 따른 추상적특성 산출 단계를 더 포함하는 외형서술데이터 획득 방법의 순서도이다.
도 5는 본 발명의 일 실시예에 따른 추상적특성 인식모델의 구성도이다.
도 6은 본 발명의 일 실시예에 따른 개별외형특성에 대한 제1개별감성특성 점수 설정을 설명하기 위한 예시도이다.
도 7은 본 발명의 일 실시예에 따른 세부유형정보 산출 단계를 더 포함하는 외형서술데이터 획득 방법의 순서도이다.
도 8은 본 발명의 일 실시예에 따른 사용자 검색 단계를 더 포함하는 외형서술데이터 획득 방법의 순서도이다.
도 9는 본 발명의 일 실시예에 따른 외형서술데이터 획득 서버의 구성도이다.
1 is a flowchart of a method of obtaining outline description data of image data according to an embodiment of the present invention.
2 is a block diagram of an external feature recognition model according to an embodiment of the present invention.
3 is an exemplary diagram for explaining a code system according to an embodiment of the present invention.
4 is a flowchart of a method of obtaining outline description data further including a step of calculating abstract characteristics according to an embodiment of the present invention.
5 is a block diagram of an abstract feature recognition model according to an embodiment of the present invention.
6 is an exemplary view for explaining setting of a first individual emotional characteristic score for an individual external characteristic according to an embodiment of the present invention.
7 is a flowchart of a method for obtaining appearance description data further including a step of calculating detailed type information according to an embodiment of the present invention.
8 is a flow chart of a method for obtaining appearance description data further including a user search step according to an embodiment of the present invention.
9 is a configuration diagram of a server for obtaining appearance description data according to an embodiment of the present invention.

본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나, 본 발명은 이하에서 개시되는 실시예들에 제한되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하고, 본 발명이 속하는 기술 분야의 통상의 기술자에게 본 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. Advantages and features of the present invention, and a method of achieving them will become apparent with reference to the embodiments described below in detail together with the accompanying drawings. However, the present invention is not limited to the embodiments disclosed below, but may be implemented in a variety of different forms. It is provided to fully inform the skilled person of the scope of the present invention, and the present invention is only defined by the scope of the claims.

본 명세서에서 사용된 용어는 실시예들을 설명하기 위한 것이며 본 발명을 제한하고자 하는 것은 아니다. 본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함한다. 명세서에서 사용되는 "포함한다(comprises)" 및/또는 "포함하는(comprising)"은 언급된 구성요소 외에 하나 이상의 다른 구성요소의 존재 또는 추가를 배제하지 않는다. 명세서 전체에 걸쳐 동일한 도면 부호는 동일한 구성 요소를 지칭하며, "및/또는"은 언급된 구성요소들의 각각 및 하나 이상의 모든 조합을 포함한다. 비록 "제1", "제2" 등이 다양한 구성요소들을 서술하기 위해서 사용되나, 이들 구성요소들은 이들 용어에 의해 제한되지 않음은 물론이다. 이들 용어들은 단지 하나의 구성요소를 다른 구성요소와 구별하기 위하여 사용하는 것이다. 따라서, 이하에서 언급되는 제1 구성요소는 본 발명의 기술적 사상 내에서 제2 구성요소일 수도 있음은 물론이다.The terms used in the present specification are for describing exemplary embodiments and are not intended to limit the present invention. In this specification, the singular form also includes the plural form unless specifically stated in the phrase. As used herein, “comprises” and/or “comprising” do not exclude the presence or addition of one or more other elements other than the mentioned elements. Throughout the specification, the same reference numerals refer to the same elements, and "and/or" includes each and all combinations of one or more of the mentioned elements. Although "first", "second", and the like are used to describe various elements, it goes without saying that these elements are not limited by these terms. These terms are only used to distinguish one component from another component. Therefore, it goes without saying that the first component mentioned below may be the second component within the technical idea of the present invention.

다른 정의가 없다면, 본 명세서에서 사용되는 모든 용어(기술 및 과학적 용어를 포함)는 본 발명이 속하는 기술분야의 통상의 기술자에게 공통적으로 이해될 수 있는 의미로 사용될 수 있을 것이다. 또한, 일반적으로 사용되는 사전에 정의되어 있는 용어들은 명백하게 특별히 정의되어 있지 않는 한 이상적으로 또는 과도하게 해석되지 않는다.Unless otherwise defined, all terms (including technical and scientific terms) used in the present specification may be used with meanings that can be commonly understood by those of ordinary skill in the art to which the present invention belongs. In addition, terms defined in a commonly used dictionary are not interpreted ideally or excessively unless explicitly defined specifically.

본 명세서에서 '컴퓨터'는 연산처리를 수행하여 사용자에게 결과를 제공할 수 있는 다양한 장치들이 모두 포함된다. 예를 들어, 컴퓨터는 데스크 탑 PC, 노트북(Note Book) 뿐만 아니라 스마트폰(Smart phone), 태블릿 PC, 셀룰러폰(Cellular phone), 피씨에스폰(PCS phone; Personal Communication Service phone), 동기식/비동기식 IMT-2000(International Mobile Telecommunication-2000)의 이동 단말기, 팜 PC(Palm Personal Computer), 개인용 디지털 보조기(PDA; Personal Digital Assistant) 등도 해당될 수 있다. 또한, 헤드마운트 디스플레이(Head Mounted Display; HMD) 장치가 컴퓨팅 기능을 포함하는 경우, HMD장치가 컴퓨터가 될 수 있다. 또한, 컴퓨터는 클라이언트로부터 요청을 수신하여 정보처리를 수행하는 서버(10)가 해당될 수 있다.In the present specification, the'computer' includes all various devices capable of performing arithmetic processing and providing a result to a user. For example, computers are not only desktop PCs and notebooks, but also smart phones, tablet PCs, cellular phones, PCS phones, and synchronous/asynchronous systems. A mobile terminal of IMT-2000 (International Mobile Telecommunication-2000), a Palm Personal Computer (PC), a personal digital assistant (PDA), and the like may also be applicable. In addition, when a head mounted display (HMD) device includes a computing function, the HMD device may be a computer. In addition, the computer may correspond to a server 10 that receives a request from a client and performs information processing.

본 명세서에서 '클라이언트'는 사용자들이 프로그램(또는 어플리케이션)을 설치하여 사용할 수 있는 통신 기능을 포함한 모든 장치를 말한다. 즉, 클라이언트 장치는 스마트폰, 태블릿, PDA, 랩톱, 스마트워치, 스마트카메라 등과 같은 전기 통신 장치, 리모트 콘트롤러 중 하나 이상을 포함할 수 있으나, 이에 제한되는 것은 아니다.In the present specification, a'client' refers to all devices including a communication function that users can install and use a program (or application). That is, the client device may include at least one of a telecommunication device such as a smart phone, a tablet, a PDA, a laptop, a smart watch, and a smart camera, and a remote controller, but is not limited thereto.

본 명세서에서 '대상체'는 영상데이터에 포함된 특정한 분류 또는 카테고리의 물품을 의미한다.In the present specification,'object' means an article of a specific classification or category included in image data.

본 명세서에서, '영상데이터'는 특정한 대상체를 포함하는 2차원 또는 3차원의 정적 또는 동적 이미지를 의미한다. 즉, '영상데이터'는 하나의 프레임인 정적 영상데이터일 수도 있고, 복수의 프레임이 연속되는 동적 영상데이터(즉, 동영상데이터)일 수도 있다.In this specification,'image data' means a two-dimensional or three-dimensional static or dynamic image including a specific object. That is,'image data' may be static image data that is one frame, or dynamic image data (ie, moving image data) in which a plurality of frames are consecutive.

본 명세서에서 '외형분류기준'은 특정한 대상체의 외형을 서술(description)하거나 주석 삽입(annotation)을 위해 필요한 외형 표현의 분류기준을 의미한다. 즉, '외형분류기준'은 특정한 대상체의 외형을 서술하기 위한 특정한 분류기준으로서, 상기 대상체의 동일한 분류기준 내의 다양한 외형특성을 표현하는 복수의 개별외형특성을 포함한다. 예를 들어, 대상체가 의류인 경우, 외형분류기준은 의류의 외형에 대한 분류기준으로, 패턴(Pattern), 색상(Color), 핏(fit), 기장(Length) 등이 해당될 수 있다. 즉, 특정한 대상체에 대해 외형분류기준이 많아지면, 대상체에 속하는 특정한 물품의 외형을 상세히 기술할 수 있다.In the present specification, the'appearance classification standard' refers to a classification standard of appearance expression required for describing the appearance of a specific object or for annotation. That is, the'appearance classification standard' is a specific classification standard for describing the appearance of a specific object, and includes a plurality of individual appearance characteristics expressing various external characteristics within the same classification standard of the object. For example, when the object is clothing, the appearance classification standard is a classification standard for the appearance of the clothing, and may correspond to a pattern, color, fit, length, and the like. That is, when the appearance classification standard for a specific object increases, the appearance of a specific article belonging to the object can be described in detail.

본 명세서에서 '개별외형특성'은 특정한 외형분류기준 내에 포함되는 다양한 특성을 의미한다. 예를 들어, 외형분류기준이 색상인 경우, 개별외형특성은 다양한 개별 색상을 의미한다.In this specification,'individual appearance characteristics' refers to various characteristics included in a specific appearance classification standard. For example, when the appearance classification criterion is color, individual appearance characteristics mean various individual colors.

본 명세서에서 '추상적 특성'은 특정한 대상체에 대하여 인지되는 추상적인 특성으로서, 제1감성특성 또는 제2감성특성을 포함한다.In the present specification, the'abstract characteristic' is an abstract characteristic perceived with respect to a specific object, and includes a first emotional characteristic or a second emotional characteristic.

본 명세서에서 '제1감성특성'은 특정한 대상체의 외형을 기반으로 인지되는 감성적 특성을 의미한다. 예를 들어, 특정한 대상체의 외형에 대한 '귀여운' 또는 '빈티지'와 같은 감성적 또는 유행적 표현일 수 있다.In the present specification, the'first emotional characteristic' means an emotional characteristic recognized based on the appearance of a specific object. For example, it may be an emotional or trendy expression such as'cute' or'vintage' about the appearance of a specific object.

본 명세서에서 '제2감성특성'은 특정한 대상체의 상품에 부여되는 정보를 기반으로 인지되는 감성적 특성을 의미한다. 예를 들어, 특정한 대상체의 상품 정보 중 가격에 대하여 인지되는 '저렴한', '비싼'과 같은 감성적 표현일 수 있다.In the present specification, the'second emotional characteristic' means an emotional characteristic recognized based on information given to a product of a specific object. For example, it may be an emotional expression such as'cheap' or'expensive' perceived for a price among product information of a specific object.

이하, 첨부된 도면을 참조하여 본 발명의 실시예를 상세하게 설명한다. Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings.

도 1은 본 발명의 일 실시예에 따른 영상데이터의 외형서술데이터 획득 방법의 순서도이다.1 is a flowchart of a method of obtaining outline description data of image data according to an embodiment of the present invention.

도 1을 참조하면, 본 발명의 일 실시예에 따른 영상데이터의 외형서술데이터 획득 방법은, 서버가 영상데이터를 대상체유형 인식모델에 입력하여, 대상체 유형정보를 산출하는 단계(S3100); 상기 서버가 상기 영상데이터를 외형특성 인식모델에 입력하여, 복수의 외형분류기준에 대한 개별외형특성을 산출하는 단계(S3200); 및 상기 서버가 상기 영상데이터에 대하여 산출된 대상체 유형정보 및 복수의 개별외형특성을 조합하여 외형서술데이터를 생성하는 단계(S3300);를 포함한다. 이하, 각 단계에 대한 상세한 설명을 기술한다.Referring to FIG. 1, a method of obtaining outline description data of image data according to an embodiment of the present invention includes: calculating object type information by inputting image data into an object type recognition model by a server (S3100); Calculating, by the server, the image data into an appearance characteristic recognition model, and calculating individual appearance characteristics for a plurality of appearance classification criteria (S3200); And generating, by the server, the object type information calculated for the image data and a plurality of individual appearance characteristics to generate appearance description data (S3300). Hereinafter, a detailed description of each step will be described.

서버(10)가 영상데이터를 대상체유형 인식모델(100)에 입력하여, 대상체 유형정보를 산출한다(S3100). 즉, 영상데이터에 포함된 대상체의 특정한 분류 또는 카테고리인 대상체 유형정보를 산출한다.The server 10 calculates object type information by inputting image data into the object type recognition model 100 (S3100). That is, object type information, which is a specific classification or category of an object included in the image data, is calculated.

일 실시예에서, 상기 대상체 유형정보는, 미리 설정된 대상체 유형 분류에 기초하여 산출될 수 있다. 예를 들어, 상위유형 분류가 의류, 액세서리, 신발, 인테리어 등으로 설정되고, 상위유형 중 의류에 대한 하위유형 분류가 '셔츠&블라우스', '자켓', '코트', '바지', '치마', '레깅스&스타킹', '원피스'의 7개로 설정된 경우, 의류에 대한 영상데이터가 입력되면 상기 대상체유형 인식모델은 의류에 대한 7개의 하위유형 중에서 대상체 유형정보를 산출할 수 있다.In an embodiment, the object type information may be calculated based on a preset object type classification. For example, the upper type classification is set to clothing, accessories, shoes, interior, etc., and the subtype classification for clothing among the upper types is'Shirt & Blouse','Jacket','Coat','Pants','Skirt' When the number of','leggings & stockings' and'one piece' is set, when image data for clothing is input, the object type recognition model may calculate object type information from among seven subtypes for clothing.

또한, 일 실시예에서, 상기 대상체 유형정보 산출 단계(S3100)는, 복수의 유형정보를 산출할 수 있다. 즉, 입력된 영상데이터에 대하여 특정한 하나의 대상체 유형정보 산출이 어려운 경우, 확률이 높은 복수의 유형정보를 산출할 수 있다.In addition, in an embodiment, in the calculating of the object type information (S3100), a plurality of types of information may be calculated. That is, when it is difficult to calculate one specific object type information with respect to the input image data, a plurality of types of information with high probability may be calculated.

일 실시예에서 상기 대상체 유형정보 산출 단계(S3100)는, 특정한 영상데이터의 대상체가 특정한 유형정보 각각에 해당할 제1확률을 획득하여, 상기 제1확률이 임계값 이상인 유형정보를 산출하는 것일 수 있다.In one embodiment, the object type information calculation step (S3100) may be to obtain a first probability that an object of specific image data corresponds to each specific type information, and calculate type information in which the first probability is equal to or greater than a threshold value. have.

예를 들어, 상기 임계값이 0.4이고, 입력된 영상데이터의 대상체가 '셔츠&블라우스'에 해당할 제1확률이 0.8, '자켓'이 0.1, '코트'가 0.1인 경우, '셔츠&블라우스'를 대상체 유형정보로 산출할 수 있다.For example, if the threshold value is 0.4, the first probability that the object of the input image data corresponds to'Shirt & Blouse' is 0.8,'Jacket' is 0.1, and'Coat' is 0.1,'Shirt & Blouse' 'Can be calculated as object type information.

또한, 일 실시예에서, 상기 제1확률이 임계값 이상인 유형정보가 복수개인 경우, 복수의 유형정보를 후보유형정보로 산출할 수 있다.In addition, in an embodiment, when there are a plurality of type information having the first probability equal to or greater than a threshold value, the plurality of type information may be calculated as candidate type information.

예를 들어, 마찬가지로 상기 임계값이 0.4이고, '셔츠&블라우스'에 해당할 제1확률이 0.5, '자켓'이 0.4, '코트'가 0.1인 경우, '셔츠&블라우스' 및 '자켓'을 후보유형정보로 산출할 수 있다. 상기 후보유형정보에 대한 최종유형정보 설정에 대하여는 후술한다.For example, if the threshold value is 0.4, the first probability corresponding to the'Shirt & Blouse' is 0.5, the'Jacket' is 0.4, and the'Coat' is 0.1, then'Shirt & Blouse' and'Jacket' are Can be calculated as candidate type information. The setting of the final type information for the candidate type information will be described later.

이어서, 상기 서버(10)가 상기 영상데이터를 외형특성 인식모델(200)에 입력하여, 복수의 외형분류기준에 대한 개별외형특성을 산출한다(S3200). Subsequently, the server 10 inputs the image data into the appearance characteristic recognition model 200 to calculate individual appearance characteristics for a plurality of appearance classification criteria (S3200).

일 실시예에서, 상기 외형특성 인식모델(200)은, 상이한 외형분류기준을 판단하는 복수의 개별특성인식모듈(210)을 포함한다. 즉, 상기 외형특성 인식모델은 각각의 외형분류기준을 인식하는 것으로 특화된 복수의 개별특성인식모듈을 포함한다. 특정한 대상체의 외형분류기준이 많을수록, 서버는 다수의 개별특성인식모듈을 외형특성 인식모델 내에 포함한다. 상기 개별특성인식모듈은 영상데이터의 특정한 외형분류기준에 포함된 개별외형특성을 산출하는 것이다.In one embodiment, the appearance characteristic recognition model 200 includes a plurality of individual characteristic recognition modules 210 for determining different appearance classification criteria. That is, the external characteristic recognition model includes a plurality of individual characteristic recognition modules specialized for recognizing each appearance classification criterion. The more the appearance classification criteria of a specific object are, the more the server includes a plurality of individual characteristic recognition modules in the external characteristic recognition model. The individual characteristic recognition module calculates individual appearance characteristics included in a specific appearance classification criterion of image data.

또한, 일 실시예에서, 상기 개별특성인식모듈(210)은, 복수의 학습용 영상데이터에 대해 특정한 외형분류기준의 개별외형특성을 매칭하여 딥러닝 학습모델을 통해 트레이닝이 된 것이다. 즉, 개별특성인식모듈은 특정한 딥러닝 알고리즘으로 구축되는 것으로, 복수의 외형분류기준 중에서 특정한 하나와 학습용 영상데이터를 매칭하여 학습을 수행한 것이다.In addition, in an embodiment, the individual characteristic recognition module 210 is trained through a deep learning learning model by matching individual external characteristics of a specific external classification criterion with respect to a plurality of training image data. That is, the individual characteristic recognition module is constructed with a specific deep learning algorithm, and learning is performed by matching a specific one of a plurality of appearance classification criteria with image data for learning.

이를 위해, 서버(10)는 다음과 같이 각각의 개별특성인식모듈(210)을 트레이닝하는 과정을 수행할 수 있다.To this end, the server 10 may perform a process of training each individual characteristic recognition module 210 as follows.

먼저, 서버는 특정한 대상체에 대한 복수의 학습용 영상데이터를 획득한다. 예를 들어, 대상체가 특정한 의류 유형(예를 들어, 셔츠)인 경우, 서버는 여러 셔츠의 이미지를 획득한다.First, the server acquires a plurality of training image data for a specific object. For example, when the object is a specific type of clothing (eg, a shirt), the server acquires images of several shirts.

서버는 각각의 외형분류기준 정의 및 각 외형분류기준에 대한 복수의 개별외형특성을 획득한다. 즉, 서버는 복수의 외형분류기준을 설정함에 따라 개별특성인식모듈의 초기 개수를 설정한다. 그리고, 서버는 각 외형분류기준 내의 복수의 개별외형특성을 설정함에 따라, 각 외형분류기준에 대해 학습용 영상데이터를 레이블링할 특징(feature) 종류를 설정한다. The server defines each appearance classification standard and acquires a plurality of individual appearance characteristics for each appearance classification standard. That is, the server sets the initial number of individual characteristic recognition modules according to the setting of a plurality of appearance classification criteria. In addition, as the server sets a plurality of individual appearance characteristics in each appearance classification criterion, the server sets a type of feature to label the learning image data for each appearance classification criterion.

일 실시예에서, 서버는 특정한 대상체 외형 분석에 대한 전문가 클라이언트로부터 특정한 대상체 외형을 분석하기 위한 복수의 외형분류기준 및 각 외형분류기준 내의 복수의 개별외형특성을 설정 받을 수 있다. 예를 들어, 의류에 대한 외형특성 인식모델을 구축하는 경우, 서버는 의류 전문가인 디자이너의 클라이언트로부터 외형분류기준 및 이에 포함되는 개별외형특성을 입력 받을 수 있다.In an embodiment, the server may receive a plurality of appearance classification criteria for analyzing a specific object appearance and a plurality of individual appearance characteristics within each appearance classification standard from an expert client for analyzing the appearance of a specific object. For example, when constructing a model for recognizing external appearance characteristics for clothing, the server may receive external appearance classification criteria and individual appearance characteristics included therein from a client of a designer who is a clothing expert.

그 후, 서버는 학습용 영상데이터를 각 외형분류기준의 복수의 개별외형특성으로 레이블링한다. 즉, 서버는 각각의 학습용 영상데이터에 대해 복수의 외형분류기준별로 적어도 하나의 개별외형특성을 입력 받아서 매칭한다. Thereafter, the server labels the training image data with a plurality of individual appearance characteristics of each appearance classification criterion. That is, the server receives and matches at least one individual appearance characteristic for each of the plurality of appearance classification criteria for each learning image data.

그 후, 서버는 학습용 영상데이터와 이에 대해 레이블링된 특정한 외형분류기준의 개별외형특성을 매칭한 학습데이터셋을 기초로 트레이닝(Training)을 수행한다. 즉, 서버가, A 외형분류기준에 대한 개별특성인식모듈을 트레이닝하는 경우, 학습데이터셋에서 학습용 영상데이터와 이에 매칭된 A 외형분류기준의 개별외형특성만을 추출하여 딥러닝 학습모델에 입력한다. 이를 통해, 서버(10)는 각각의 외형분류기준의 개별외형특성을 인식할 수 있는 각각의 개별특성인식모듈(210)을 구축한다.Thereafter, the server performs training on the basis of the training image data and the training data set in which the individual appearance characteristics of the specific appearance classification criteria labeled thereto are matched. That is, when the server trains the individual characteristic recognition module for the A appearance classification criterion, only the training image data and the individual appearance characteristics of the A appearance classification criterion matched therewith are extracted from the training dataset and input to the deep learning learning model. Through this, the server 10 constructs each individual characteristic recognition module 210 capable of recognizing individual external characteristics of each external classification standard.

또한, 일 실시예에서, 상기 개별외형특성 산출단계(S3200)는, 상기 외형특성 인식모델 내의 각각의 개별특성인식모듈에 영상데이터를 입력하여, 상기 영상데이터에 대한 복수의 개별외형특성을 산출하는 것이다. 이를 통해, 서버는 영상데이터에 대한 각 외형분류기준의 개별외형특성을 모두 획득한다.In addition, in one embodiment, the individual appearance characteristic calculation step (S3200) includes inputting image data to each individual characteristic recognition module in the appearance characteristic recognition model, and calculating a plurality of individual appearance characteristics for the image data. will be. Through this, the server acquires all of the individual appearance characteristics of each appearance classification criterion for the image data.

또한, 일 실시예에서, 상기 개별외형특성 산출단계(S3200)는, 산출된 대상체 유형정보에 대응되는 특화 외형특성 인식모델에 상기 영상데이터를 입력하여, 복수의 개별외형특성을 산출하는 것일 수 있다.In addition, in an embodiment, in the step of calculating the individual appearance characteristics (S3200), a plurality of individual appearance characteristics may be calculated by inputting the image data into a specialized appearance characteristic recognition model corresponding to the calculated object type information. .

일 실시예에서, 상기 특화 외형특성 인식모델은, 특정 대상체 유형정보에 따라 적용하도록 미리 설정된 복수의 외형분류기준의 개별특성인식모듈을 포함한다. 즉, 특정 영상데이터에 대하여 산출되는 대상체 유형정보에 따라 적용되는 외형분류기준의 종류가 결정될 수 있다.In one embodiment, the specialized external characteristic recognition model includes individual characteristic recognition modules of a plurality of external appearance classification criteria set in advance to be applied according to specific object type information. That is, the type of the external classification criterion to be applied may be determined according to the object type information calculated for specific image data.

구체적으로, 도 2를 참조하면, 특정한 대상체 유형정보(대상체1, 대상체2, 대상체3)에 따라 각각 상이한 외형분류기준의 조합(즉, 개별특성인식모듈의 조합)이 설정되어 있는 특화 외형특성 인식모델을 생성할 수 있고, 특정한 영상데이터에 대하여 산출된 대상체 유형정보에 따라 상기 영상데이터를 해당하는 유형정보의 특화 외형특성 인식모델 내의 복수의 개별특성인식모듈 각각에 입력하여, 개별외형특성을 산출할 수 있다. 또한, 상이한 대상체 유형정보의 특화 외형특성 인식모델 내의 개별특성인식모듈의 조합이 동일할 수 있음은 물론이다.Specifically, referring to FIG. 2, a specialized external characteristic recognition in which a combination of different external classification criteria (i.e., a combination of individual characteristic recognition modules) is set according to specific object type information (object 1, object 2, object 3). A model can be created, and individual external characteristics are calculated by inputting the image data into each of a plurality of individual characteristic recognition modules in the specialized external characteristic recognition model of the corresponding type information according to the object type information calculated for specific image data. can do. In addition, it goes without saying that the combination of individual characteristic recognition modules in the specialized external characteristic recognition model of different object type information may be the same.

예를 들어, '자켓' 유형정보의 특화 외형특성 인식모델이 '목모양(neckline)', '소매(sleeve)', '상의길이(top length)' 및 '색상(color)' 개별특성인식모듈을 포함하고, '바지' 유형정보의 특화 외형특성 인식모델이 '웨이스트라인(waist)', '하의길이(bottom length)' 및 '색상(color)' 개별특성인식모듈을 포함하는 경우, 외형특성 인식모델에 입력되는 영상데이터의 대상체 유형정보(자켓/바지)에 따라 상기 영상데이터가 입력되는 특화 외형특성 인식모델(즉, 적용되는 외형분류기준의 조합)이 상이할 수 있다.For example,'neckline','sleeve','top length', and'color' individual feature recognition modules for specialized external feature recognition models of'jacket' type information. Including, and when the specialized external characteristic recognition model of the'pants' type information includes individual characteristic recognition modules of'waist','bottom length', and'color', appearance characteristics Depending on the object type information (jacket/pants) of the image data input to the recognition model, the specialized external characteristic recognition model (that is, a combination of applied appearance classification criteria) to which the image data is input may be different.

또한, 일 실시예에서, 도 2와 같이 복수의 대상체 유형정보에 대한 각 특화 외형특성 인식모델은 범용 개별특성인식모듈을 공유하여 사용할 수 있다. 상기 범용 개별특성인식모듈은 대상체 유형에 무관하게 적용 가능한 범용 외형분류기준에 대한 개별특성인식모듈을 의미한다.In addition, in an embodiment, as shown in FIG. 2, each specialized external feature recognition model for a plurality of object type information may share and use a general-purpose individual feature recognition module. The general-purpose individual characteristic recognition module means an individual characteristic recognition module for a general-purpose appearance classification criterion that can be applied irrespective of the object type.

예를 들어, '색상(color)', '패턴(pattern)', '질감(texture)'등의 외형분류기준은 대상체 유형에 무관하게 적용이(개별외형특성 산출) 가능하므로, 범용 외형분류기준에 해당할 수 있다.For example, external classification standards such as'color','pattern', and'texture' can be applied regardless of the type of object (individual appearance characteristics are calculated), so general-purpose appearance classification standards It may correspond to.

또한, 일 실시예에서, S3100단계에서 복수의 후보유형정보가 산출된 경우, 상기 후보유형정보 각각에 대응되는 특화 외형특성 인식모델 모두에 상기 영상데이터를 각각 입력할 수 있다. 이를 토대로 수행되는 최종유형정보 설정에 대하여는 후술한다.In addition, in an embodiment, when a plurality of candidate type information is calculated in step S3100, the image data may be respectively input to all of the specialized appearance characteristic recognition models corresponding to each of the candidate type information. The final type information setting performed based on this will be described later.

예를 들어, 특정한 영상데이터에 대하여 '자켓' 및 '바지'가 후보유형정보로 산출된 경우, 상기 영상데이터를 '자켓' 특화 외형특성 인식모델 및 '바지' 특화 외형특성 인식모델 각각에 입력하여 개별외형특성을 산출할 수 있다.For example, when'jacket' and'pants' are calculated as candidate type information for specific image data, the image data is inputted into each of the'jacket'-specialized external feature recognition model and the'pants'-specific external feature recognition model. Individual appearance characteristics can be calculated.

또한, 도면에 도시되지는 않았으나, 본 발명의 일 실시예에 따른 영상데이터의 외형서술데이터 획득 방법은, 상기 특화 외형특성 인식모델의 외형분류기준에 대하여 개별외형특성을 산출할 수 없는 경우, 상기 서버가 상기 영상데이터를 상기 대상체유형 인식모델에 다시 입력하여, 이전과 상이한 대상체 유형정보를 산출하는 단계;를 더 포함한다.In addition, although not shown in the drawings, the method for acquiring appearance description data of image data according to an embodiment of the present invention is, when it is not possible to calculate individual appearance characteristics with respect to the appearance classification criteria of the specialized appearance characteristic recognition model. And calculating, by the server, the image data into the object type recognition model again to calculate object type information different from the previous one.

즉, 일 실시예에서 전술한 바와 같이 산출된 대상체 유형정보에 따라 적용되는 외형분류기준의 조합이 상이한데, 만약 산출된 유형정보의 특화 외형특성 인식모델에 대하여 특정 비율 이상으로 오류가 발생하는 경우(예를 들어, 개별외형특성을 산출할 수 없는 개별특성인식모듈의 개수가 소정의 임계값 이상인 경우) 서버가 대상체 유형정보 산출이 잘못된 것으로 판단하고, 영상데이터를 대상체유형 인식모델에 다시 입력하여 새로운 유형정보를 다시 산출하는 것이다.That is, in one embodiment, the combination of the external classification criteria applied according to the object type information calculated as described above is different, but if an error occurs more than a certain ratio with respect to the specialized external characteristic recognition model of the calculated type information (For example, when the number of individual characteristic recognition modules that cannot calculate individual appearance characteristics is equal to or greater than a predetermined threshold), the server determines that the object type information is incorrectly calculated, and the image data is re-entered into the object type recognition model. It is to recalculate new type information.

예를 들어, '바지'에 관한 영상데이터에 대하여 S3100단계에서 서버가 대상체 유형정보를 '자켓'으로 잘못 산출하여, S3200단계에서 '자켓' 특화 외형특성 인식모델(예를 들면, '목모양(neckline)', '소매길이(sleeve length)', '상의길이(top length)' 및 '색상(color)' 개별특성인식모듈 포함)의 개별특성인식모듈에 상기 영상데이터를 입력하였으나, 목모양, 소매, 상의길이에 대한 개별외형특성을 산출할 수 없는 경우, 서버가 대상체 유형정보 산출이 잘못된 것으로 판단하고, 상기 영상데이터를 대상체유형 인식모델에 다시 입력하여 새로운 유형정보(예를 들면, '바지')를 다시 산출할 수 있다.For example, for image data related to'pants', the server incorrectly calculates the object type information as'jacket' in step S3100, and in step S3200, a'jacket'-specialized appearance characteristic recognition model (for example,'neck shape ( neckline)','sleeve length','top length', and'color' individual feature recognition modules included). If it is not possible to calculate the individual appearance characteristics for the length of the sleeve or top, the server determines that the object type information is incorrectly calculated, and the image data is re-entered into the object type recognition model to provide new type information (e.g.,'pants). ') can be recalculated.

또한, 다른 일 실시예에서, S3100단계에서 복수의 후보유형정보가 산출되어 상기 후보유형정보 각각에 대응되는 특화 외형특성 인식모델의 개별특성인식모듈에 영상데이터를 각각 입력한 경우, 개별외형특성을 산출할 수 없는 외형분류기준이 가장 적은 후보유형정보를 최종유형정보로 설정하는 단계;를 더 포함한다.In addition, in another embodiment, in step S3100, when a plurality of candidate type information is calculated and image data is input to each individual characteristic recognition module of a specialized external characteristic recognition model corresponding to each of the candidate type information, the individual external characteristic is determined. It further includes a step of setting the candidate type information having the smallest appearance classification criteria that cannot be calculated as the final type information.

즉, 전술한 실시예와 같이 입력된 영상데이터에 대하여 특정한 하나의 대상체 유형정보 산출이 어려워 확률이 높은 복수의 후보유형정보를 산출하고, 상기 영상데이터를 각각의 후보유형정보의 특화 외형특성 인식모델에 입력한 경우, 인식률이 높은(개별외형특성을 산출할 수 없는 개별특성인식모듈의 개수가 적은) 후보유형정보를 최종유형정보로 설정할 수 있다.That is, as in the above-described embodiment, it is difficult to calculate one specific object type information for the input image data, so that a plurality of candidate type information with high probability is calculated, and the image data is a specialized external characteristic recognition model for each candidate type information. When input to, candidate type information having a high recognition rate (the number of individual feature recognition modules that cannot calculate individual appearance characteristics is small) can be set as the final type information.

예를 들어, 자켓에 관한 영상데이터에 대해 S3100단계에서 '자켓' 및 '바지'의 후보유형정보가 산출되어 해당 영상데이터를 '자켓' 특화 외형특성 인식모델 및 '바지' 특화 외형특성 인식모델에 각각 입력한 경우, 특별한 사정이 없는 한 각각의 특화 외형특성 인식모델의 인식률이 '바지'보다 '자켓'에서 높을 것이므로(개별외형특성을 산출할 수 없는 개별특성인식모듈의 개수가 '바지' 특화 외형특성 인식모델에서 더 많을 것이므로), '자켓'을 최종유형정보(즉, 대상체 유형정보)로 설정할 수 있다.For example, for the video data on the jacket, candidate type information of'jacket' and'pants' is calculated in step S3100, and the corresponding video data is converted into a'jacket'-specialized appearance characteristic recognition model and a'pants' specialized appearance characteristic recognition model. In the case of each input, the recognition rate of each specialized external feature recognition model will be higher in the'jacket' than in the'pants' unless there is a special situation (the number of individual feature recognition modules that cannot calculate individual appearance characteristics is specialized in'pants'). Since there will be more in the external feature recognition model),'jacket' can be set as the final type information (ie, object type information).

이어서, 상기 서버가 상기 영상데이터에 대하여 산출된 대상체 유형정보 및 복수의 개별외형특성을 조합하여 외형서술데이터를 생성한다(S3300). 즉, 특정한 대상체에 대해 외형분류기준이 세부적으로 나누어져 있으면, 상기 외형서술데이터는 해당 대상체의 외형을 개별외형특성을 통해 구체적으로 서술한다.Subsequently, the server generates appearance description data by combining the object type information calculated for the image data and a plurality of individual appearance characteristics (S3300). That is, if the external shape classification criteria for a specific object are divided in detail, the external shape description data specifically describes the external shape of the object through individual external characteristics.

예를 들어, 셔츠에 관한 특정 영상데이터에 대하여, S3100단계에서 산출된 대상체 유형정보가 '셔츠&블라우스'이고, S3200단계에서 산출된 복수의 외형분류기준에(목모양, 소매, 상의길이, 색상 및 패턴) 대한 개별외형특성이 '라운드넥(Round Neckline)', '짧은 소매(short sleeve)', '크롭탑(crop)', '밝은 빨간색(red right)' 및 '물방울 무늬(polka dot)' 인 경우, 상기 영상데이터에 대한 외형서술데이터는 "셔츠&블라우스, 라운드넥, 짧은 소매, 크롭탑, 밝은 빨간색, 물방울 무늬"로 생성될 수 있다.For example, for specific image data about a shirt, the object type information calculated in step S3100 is'Shirt & Blouse', and according to a plurality of appearance classification criteria calculated in step S3200 (neck shape, sleeve, top length, color And pattern), the individual appearance characteristics of'Round Neckline','short sleeve','crop','red right' and'polka dot) In the case of', the appearance description data for the image data may be generated as "shirt & blouse, round neck, short sleeve, crop top, bright red, polka dot pattern".

또한, 일 실시예에서, 상기 외형서술데이터 생성단계(S3300)는, 상기 영상데이터에 대한 대상체 유형정보 및 복수의 개별외형특성 각각에 대응하는 코드값을 추출하는 단계; 및 상기 복수의 코드값을 조합하여, 코드열 형태의 외형서술데이터를 생성하는 단계;를 포함한다. 즉, 서버가 개별외형특성을 코드화 함에 따라 외형서술데이터를 코드열로 생성할 수 있고, 이를 통해 외형서술데이터의 처리가 효율적으로 될 수 있다.In addition, in an embodiment, the step of generating the appearance description data (S3300) includes: extracting object type information for the image data and a code value corresponding to each of a plurality of individual appearance characteristics; And generating external description data in the form of a code string by combining the plurality of code values. That is, as the server codes the individual appearance characteristics, the appearance description data can be generated as a code sequence, and through this, the processing of the appearance description data can be efficiently performed.

예를 들면, 대상체 유형정보(셔츠&블라우스) 및 복수의 개별외형특성에(라운드넥, 짧은 소매, 크롭탑, 밝은 빨간색, 물방울 무늬) 대응하는 코드값이 각각 'Zb01', 'Bb01', 'Bg03', Bi01', 'Oa01', 'Id00'인 경우, 상기 영상데이터에 대한 외형서술데이터는 상기 코드값을 조합한 "Bb01, Bg03, Bi01, Id00, Oa01, Zb01"로 생성될 수 있다.For example, object type information (shirt & blouse) and code values corresponding to a plurality of individual appearance characteristics (round neck, short sleeves, crop top, bright red, polka dots) are respectively'Zb01','Bb01', ' In the case of Bg03', Bi01','Oa01', and'Id00', the outline description data for the image data may be generated as "Bb01, Bg03, Bi01, Id00, Oa01, Zb01" by combining the code values.

또한, 본 발명의 일 실시예에 따른 외형서술데이터의 코드시스템(code system)의 구조는, 각각의 대상체 유형 분류기준, 외형분류기준, 추상적특성 분류기준에 따라 다양하게 구축될 수 있다.In addition, the structure of a code system of appearance description data according to an embodiment of the present invention may be variously constructed according to each object type classification standard, appearance classification standard, and abstract characteristic classification standard.

예를 들어, 본 발명의 일 실시예에 따른 코드시스템은, 도 3과 같이 구축될 수 있다. 도 3을 참조하면, 대문자는 상위 카테고리에 대한 정보를 의미한다. 즉, 대상체 유형정보에 대응되는 코드는 Z를, 추상적특성에 대응되는 코드는 A를 포함하며, 복수의 외형분류기준에 대응되는 코드는 B~Y를 포함할 수 있다.For example, a code system according to an embodiment of the present invention may be constructed as shown in FIG. 3. Referring to FIG. 3, capital letters indicate information on an upper category. That is, a code corresponding to the object type information may include Z, a code corresponding to an abstract characteristic may include A, and codes corresponding to a plurality of appearance classification criteria may include B to Y.

또한, 대상체 유형정보 대응되는 코드(Z)의 경우, 이어서 상위유형(예를 들어, 의류, 액세서리, 신발, 인테리어 등)에 따라 소문자(a~y)가 부여되고, 하위유형에 해당하는 각각의 대상체 유형정보에 따라 숫자(00~99)가 부여될 수 있다. 예를 들어, Zb는 '의류', Zc는 '액세서리'를 뜻하고, Zb01은 '셔츠&블라우스', Zb02는 '자켓'의 대상체 유형정보에 대응되는 코드값일 수 있다.In addition, in the case of the code (Z) corresponding to the object type information, lowercase letters (a to y) are given according to the upper type (for example, clothing, accessories, shoes, interior, etc.), and each Numbers (00 to 99) may be assigned according to the object type information. For example, Zb may be a code value corresponding to the object type information of'Clothing', Zc is'Accessory', Zb01 is'Shirt & Blouse', and Zb02 is'Jacket'.

또한, 복수의 외형분류기준에 대응되는 코드는(B~Y), 대상체 유형에 무관하게 적용 가능한 범용 외형분류기준(E, I, O, U) 및 특정 대상체 유형에 적용되는 특화 외형분류기준(B, C, D 등)으로 구분되고, 상기 특화 외형분류기준의 코드는 전술한 상위유형의 코드(Za, Zb, Zc 등)에 대응될 수 있다. In addition, codes corresponding to a plurality of appearance classification criteria (B to Y), universal appearance classification standards (E, I, O, U) that can be applied irrespective of the object type, and specialized appearance classification standards that are applied to a specific object type ( B, C, D, etc.), and the code of the specialized external classification criteria may correspond to the above-described higher type codes (Za, Zb, Zc, etc.).

예를 들어, '의류'에 대한 복수의 특화 외형분류기준은 B를 포함하고, 각각의 외형분류기준에 따라 소문자(a~y)가 부여되며, 해당 외형분류기준에 대한 개별외형특성에 따라 숫자(00~99)가 부여될 수 있다. 구체적으로, Ba는 '상의 실루엣(Top Silhouette)', Bb는 '목모양(Neckline)', Bi는 '바지 실루엣(Pants Silhouette)'의 외형분류기준을 의미하고, Bb01은 '라운드넥(Round Neckline)', Bb02는 '브이넥(V Neckline)'의 목모양(Bb) 외형분류기준에 대한 각각의 개별외형특성에 대응되는 코드값일 수 있다. 추상적특성에 대응되는 코드값의 예시는 후술한다.For example, a plurality of specialized cosmetic classification standards for'clothing' include B, and lowercase letters (a~y) are assigned according to each appearance classification standard, and numbers according to the individual appearance characteristics of the corresponding appearance classification standard (00~99) may be given. Specifically, Ba stands for'Top Silhouette', Bb stands for'Neckline', Bi stands for'Pants Silhouette', and Bb01 stands for'Round Neckline'. )'and Bb02 may be a code value corresponding to each individual appearance characteristic for the Bb appearance classification standard of the'V Neckline'. Examples of code values corresponding to abstract characteristics will be described later.

이상으로, 본 발명의 일 실시예에 따른 코드시스템 구조의 예시를 기술하였으나, 본 발명의 코드시스템은 이에 제한되지 않고 다양한 방식으로 구축될 수 있다.As described above, an example of the structure of a code system according to an embodiment of the present invention has been described, but the code system of the present invention is not limited thereto and may be constructed in various ways.

도 4를 참조하면, 본 발명의 일 실시예에 따른 영상데이터의 외형서술데이터 획득 방법은, 상기 서버가 산출된 복수의 개별외형특성을 기초로 추상적특성을 산출하는 단계(S3400);를 더 포함한다.Referring to FIG. 4, the method for obtaining external appearance description data of image data according to an embodiment of the present invention further includes: calculating an abstract characteristic based on a plurality of individual appearance characteristics calculated by the server (S3400); do.

일 실시예에서, 상기 추상적특성 산출 단계(S3400)는, 서버가 상기 외형서술데이터를 추상적특성 인식모델(300)에 입력하여 추상적특성을 산출하는 것을 포함한다.In one embodiment, the step of calculating the abstract characteristic (S3400) includes calculating the abstract characteristic by inputting the outline description data into the abstract characteristic recognition model 300 by the server.

즉, 본 발명에 따르면 이미지와 같은 영상데이터 자체가 아닌, 영상데이터로부터 산출된 외형서술데이터(대상체 유형정보 및 개별외형특성)를 기초로 추상적특성을 산출함에 따라, 데이터의 효율적인 처리 및 객관적인 추상적특성 산출이 가능하다.That is, according to the present invention, by calculating the abstract characteristics based on the appearance description data (object type information and individual appearance characteristics) calculated from the image data, not the image data itself such as an image, efficient processing of data and objective abstract characteristics It is possible to calculate.

또한, 일 실시예에서, 대상체 유형정보 및 개별외형특성이 조합된 외형서술데이터를 추상적특성 인식모델에 입력하여 추상적특성을 산출한 경우, 상기 추상적특성을 상기 외형서술데이터에 추가하여 외형서술데이터를 업데이트하는 단계를 더 포함할 수 있다.In addition, in one embodiment, when the abstract characteristic is calculated by inputting the outline description data in which the object type information and the individual appearance characteristics are combined into the abstract characteristic recognition model, the abstract characteristic is added to the external appearance description data to obtain the external description data. It may further include the step of updating.

일 실시예에서, 상기 추상적특성은, 제1감성특성을 포함한다. 상기 제1감성특성은, 특정한 대상체의 외형을 기반으로 인지되는 감성적 특성으로, 특정한 감성적 특성인 복수의 제1개별감성특성을 포함한다. In one embodiment, the abstract characteristic includes a first emotional characteristic. The first emotional characteristic is an emotional characteristic recognized based on an external shape of a specific object, and includes a plurality of first individual emotional characteristics that are specific emotional characteristics.

일 실시예에서, 제1감성특성에 포함된 각각의 제1개별감성특성의 정의 및 개수는 서버에 의하여 설정될 수 있으며, 추가 또는 변경될 수 있다. 대상체의 외형에 대한 감성적 특성인 제1감성특성은, 시대 또는 지역에 따라 상이하게 정의될 수 있으므로, 이에 맞추어 다양하게 변경 가능하도록 하기 위함이다.In one embodiment, the definition and number of each first individual emotional characteristic included in the first emotional characteristic may be set by the server, and may be added or changed. The first emotional characteristic, which is an emotional characteristic with respect to the external appearance of an object, may be defined differently according to the times or regions, and is thus to be variously changed according to the period or region.

예를 들어, 각각의 제1개별감성특성은 '귀여운(Cute)', '부드러운(soft)', '현대적인(Modern)' 등으로 설정될 수 있으며, 또한, 각각의 제1개별감성특성에 대조되는 제1개별감성특성인 '우아한(Elegant)', '거친(Wild)', '고전적인(Classic)' 등을 더 포함하도록 설정될 수도 있다. 그러나, 본 발명의 제1개별감성특성은 이에 제한되지 않고 다양하게 설정될 수 있다.For example, each of the first individual emotional characteristics may be set as'cute','soft','modern', etc. In addition, each first individual emotional characteristic It may be set to further include contrasted first individual emotional characteristics such as'Elegant','Wild', and'Classic'. However, the first individual emotional characteristic of the present invention is not limited thereto and may be variously set.

도 5를 참조하면, 일 실시예에서, 상기 추상적특성 인식모델(300)은, 개별외형특성을 입력 받아 제1감성특성을 산출하는 제1감성특성 인식모델(310)을 포함한다.Referring to FIG. 5, in an embodiment, the abstract feature recognition model 300 includes a first emotional feature recognition model 310 that receives individual external features and calculates a first emotional feature.

일 실시예에서, 상기 제1감성특성 인식모델은, 각 개별외형특성마다 복수의 제1개별감성특성 각각에 대한 점수가 설정됨에 따라, 입력된 복수의 개별외형특성에 설정된 각각의 제1개별감성특성에 대한 점수를 합산하여 제1감성특성을 산출하는 것일 수 있다.In one embodiment, in the first emotional characteristic recognition model, as points for each of the plurality of first individual emotional characteristics are set for each individual external characteristic, each of the first individual emotions set in the input plurality of individual external characteristics. It may be to calculate the first emotional characteristic by summing the scores for the characteristic.

예를 들어, 도 6과 같이 각 외형분류기준에 포함된 복수의 개별외형특성마다 제1개별감성특성 각각에 대한 점수가 설정될 수 있다. 도 6에서는 각 점수가 0 또는 1로 표시되었으나, 이에 제한되지 않고 0~1 사이의 수 또는 음수 등 다양한 방식으로 점수가 설정될 수 있다. For example, as shown in FIG. 6, a score for each of the first individual emotional characteristics may be set for each of a plurality of individual appearance characteristics included in each appearance classification criterion. In FIG. 6, each score is displayed as 0 or 1, but the score is not limited thereto and may be set in various ways, such as a number between 0 and 1 or a negative number.

일 실시예에서, 각각의 개별외형특성에 제1개별감성특성별 점수가 설정된 점수표는, 하나의 점수표뿐만 아니라, 상이한 복수의 점수표가 생성될 수 있다. 예를 들어, 국가별 또는 지역별로 점수표가 상이하거나, 사용자별 개인화된 점수표가 생성될 수 있으며, 상기 점수표는 서버에 의하여 자유롭게 변경될 수 있음은 물론이다.In an embodiment, a score table in which a score for each individual emotional characteristic is set for each individual appearance characteristic may generate not only one score table but also a plurality of different score tables. For example, a score table may be different for each country or region, or a personalized score table may be generated for each user, and the score table may be freely changed by the server.

이어서, 입력된 복수의 개별외형특성 및 개별외형특성에 설정된 각각의 제1개별감성특성 점수를 기반으로, 각각의 제1개별감성특성 점수를 합산하여 제1감성특성을 산출한다.Subsequently, based on the input plurality of individual external characteristics and each first individual emotional characteristic score set in the individual external characteristic, each first individual emotional characteristic score is summed to calculate a first emotional characteristic.

예를 들어, 도 6의 예시에 있어서 특정 영상데이터로부터 산출된 '브이넥' 및 '빨간색'의 개별외형특성이 입력된 경우, 각각의 제1개별감성특성별 합산된 점수는, '귀여운: 1', '우아한: 2', '부드러운: 0', '거친: 1', '현대적인: 0', '고전적인: 1'이고, 이를 기초로 제1감성특성을 산출할 수 있다.For example, in the example of FIG. 6, when individual appearance characteristics of'V-neck' and'red' calculated from specific image data are input, the summed score for each of the first individual emotional characteristics is'cute: 1' ,'Elegant: 2','Soft: 0','Rough: 1','Modern: 0','Classic: 1', and based on this, the first emotional characteristic can be calculated.

일 실시예에서, 상기 제1감성특성은 각 제1개별감성특성 점수의 전체 점수에 대한 비율을 포함하여 산출될 수 있다. 예를 들어, 전술한 예시의 경우 전체 점수가 5이므로, 제1감성특성은 각 제1개별감성특성 점수의 비율을 포함하도록 "귀여운: 0.2, 우아한: 0.4, 부드러운: 0, 거친: 0.2, 현대적인: 0, 고전적인: 0.2"으로 산출될 수 있다.In an embodiment, the first emotional characteristic may be calculated by including a ratio of each first individual emotional characteristic score to the total score. For example, in the case of the above example, since the total score is 5, the first emotional characteristic is "cute: 0.2, elegant: 0.4, soft: 0, rough: 0.2, modern Classic: can be calculated as 0, classic: 0.2".

다른 실시예에서, 상기 제1감성특성은 각 제1개별감성특성 점수를 포함하여 산출될 수 있다. 예를 들어, 전술한 예시의 경우 제1감성특성은 각 제1개별감성특성 점수를 포함하도록 "귀여운: 1, 우아한: 2, 부드러운: 0, 거친: 1, 현대적인: 0, 고전적인: 1"으로 산출될 수 있다.In another embodiment, the first emotional characteristic may be calculated including each first individual emotional characteristic score. For example, in the case of the above example, the first emotional trait is "cute: 1, elegant: 2, soft: 0, rough: 1, modern: 0, classic: 1, so as to include each first individual emotional attribute score. Can be calculated as ".

다른 실시예에서, 상기 제1감성특성은 각 제1개별감성특성 점수가 미리 설정된 임계값 이상인 제1개별감성특성만 산출하는 것일 수 있다. 예를 들어, 전술한 예시에서 임계값이 2(혹은 비율 0.4)인 경우, 제1감성특성은 '우아한'의 제1개별감성특성만 산출될 수 있다. 그러나, 제1감성특성의 산출은 전술한 예시에 제한되지 않고 다양한 방식으로 산출될 수 있다.In another embodiment, the first emotional characteristic may be to calculate only the first individual emotional characteristic in which each first individual emotional characteristic score is equal to or greater than a preset threshold. For example, in the case where the threshold value is 2 (or a ratio of 0.4) in the above example, only the first individual emotional characteristic of'elegant' may be calculated as the first emotional characteristic. However, the calculation of the first emotional characteristic is not limited to the above-described example and may be calculated in various ways.

또한, 일 실시예에서, 상기 제1감성특성에 대응하는 코드값은, 상기 제1개별감성특성 각각에 대하여 합산된 점수에 대한 정보를 포함할 수 있다. In addition, in an embodiment, the code value corresponding to the first emotional characteristic may include information on a score summed for each of the first individual emotional characteristics.

구체적으로, 전술한 예시에서 "귀여운: 0.2, 우아한: 0.4, 부드러운: 0, 거친: 0.2, 현대적인: 0, 고전적인: 0.2"로 제1감성특성이 산출되고, 각각의 제1개별감성특성에 대응하는 코드값이 "귀여운: Aa, 우아한: Ac, 부드러운: Ad, 거친: Af, 현대적인: Ai, 고전적인: Ap"인 경우, 제1감성특성에 대한 코드열 형태의 외형서술데이터는 "Aa20, Ac40, Ad00, Af20, Ai00, Ap20"으로 생성될 수 있다. 또한, 개별외형특성인 '빨간색', '브이넥'에 대응되는 코드값이 'Oa02, 'Bb02'라면, 상기 영상데이터의 외형서술데이터는 이를 조합한 "Aa20, Ac40, Ad00, Af20, Ai00, Ap20, Bb02, Oa02"로 생성될 수 있다. 그러나, 전술한 바와 같이, 본 발명의 코드시스템은 이에 제한되지 않고 다양한 방식으로 구축될 수 있다.Specifically, in the above example, the first emotional characteristic is calculated as "cute: 0.2, elegant: 0.4, soft: 0, rough: 0.2, modern: 0, classic: 0.2", and each of the first individual emotional characteristics If the code value corresponding to "cute: Aa, elegant: Ac, soft: Ad, rough: Af, modern: Ai, classic: Ap", the external description data in the form of a code string for the first emotional characteristic is It can be produced as "Aa20, Ac40, Ad00, Af20, Ai00, Ap20". In addition, if the code values corresponding to the individual appearance characteristics'Red' and'V-Neck' are'Oa02,'Bb02', the outer form description data of the image data is a combination of "Aa20, Ac40, Ad00, Af20, Ai00, Ap20 , Bb02, Oa02". However, as described above, the code system of the present invention is not limited thereto and can be constructed in various ways.

일 실시예에서, 상기 추상적특성은, 제2감성특성을 포함한다. 상기 제2감성특성은, 특정한 대상체의 상품에 부여되는 정보를 기반으로 인지되는 감성적 특성으로, 상이한 종류의 상품정보에 대하여 느껴지는 다양한 감성적 특성인 제2개별감성특성을 포함한다.In one embodiment, the abstract characteristic includes a second emotional characteristic. The second emotional characteristic is an emotional characteristic recognized based on information given to a product of a specific object, and includes a second individual emotional characteristic, which is a variety of emotional characteristics felt for different types of product information.

예를 들어, '가격'의 상품정보에 대하여 느껴지는 '저렴한', '비싼'의 제2개별감성특성 또는 '배송 시간'의 상품정보에 대하여 느껴지는 '빠른', '느린'의 제2개별감성특성을 포함할 수 있다.For example, a second individual sensitivity characteristic of'cheap' and'expensive' felt for product information of'price', or a second individual sensitivity characteristic of'fast' and'slow' felt for product information of'delivery time' It may include.

도 5를 참조하면, 일 실시예에서, 상기 추상적특성 인식모델(300)은, 영상데이터의 대상체에 대한 상품정보를 입력 받아 제2감성특성을 산출하는 제2감성특성 인식모델(320)을 포함한다.Referring to FIG. 5, in one embodiment, the abstract feature recognition model 300 includes a second emotional feature recognition model 320 that receives product information on an object of image data and calculates a second emotional feature. do.

또한, 일 실시예에서, 상기 제2감성특성 인식모델(320)은, 상이한 상품정보에 대한 감성적 특성을 판단하는 복수의 제2개별감성특성 인식모듈을 포함한다. 상기 제2개별감성특성 인식모듈은 영상데이터의 대상체의 특정한 상품정보에 대한 각각의 제2개별감성특성을 산출하는 것이다.In addition, in an embodiment, the second emotional characteristic recognition model 320 includes a plurality of second individual emotional characteristic recognition modules for determining emotional characteristics for different product information. The second individual emotional characteristic recognition module is configured to calculate each second individual emotional characteristic for specific product information of an object of image data.

또한, 일 실시예에서, 상기 제2감성특성은, 상기 상품정보뿐만 아니라 개별외형특성, 대상체 유형정보, 또는 사용자 정보 등 다양한 정보를 고려하여 산출될 수 있다.In addition, in an embodiment, the second emotional characteristic may be calculated in consideration of not only the product information, but also various information such as individual appearance characteristics, object type information, or user information.

도 7을 참조하면, 본 발명의 일 실시예에 따른 영상데이터의 외형서술데이터 획득 방법은, 상기 서버(10)가 상기 영상데이터의 외형서술데이터를 세부유형 인식모델(400)에 입력하여, 대상체 세부유형정보를 산출하는 단계(S3500);를 더 포함한다. Referring to FIG. 7, in a method for obtaining outline description data of image data according to an embodiment of the present invention, the server 10 inputs outline description data of the image data into a detailed type recognition model 400, It further includes; calculating detailed type information (S3500).

일 실시예에서, 상기 세부유형정보는, S3100단계에서 산출된 대상체 유형정보의 하위개념일 수 있다. 예를 들어, 특정 영상데이터에 대하여 S3100단계에서 '바지(pants)' 대상체 유형정보가 산출된 경우, 세부유형정보는 '스키니 팬츠', '슬랙스 팬츠', '배기 팬츠' 등이 될 수 있다.In an embodiment, the detailed type information may be a sub-concept of the object type information calculated in step S3100. For example, when object type information of'pants' is calculated in step S3100 for specific image data, detailed type information may be'skinny pants','slacks pants','exhaust pants', and the like.

상기 세부유형 인식모델은, 특정 영상데이터에 대하여 생성된 외형서술데이터(대상체 유형정보, 개별외형특성)가 입력되면, 상기 영상데이터의 대상체 세부유형정보를 산출하는 모델일 수 있다.The detailed type recognition model may be a model that calculates object detailed type information of the image data when external appearance description data (object type information, individual appearance characteristics) generated for specific image data is input.

일 실시예에서, 상기 세부유형 인식모델은, 하나 이상의 개별외형특성 조합 각각에 하나 이상의 세부유형정보가 매칭됨에 따라, 입력된 외형서술데이터의 개별외형특성 조합에 대한 세부유형정보를 산출하는 것일 수 있다. 또한, 일 실시예에서, 복수개의 세부유형정보를 산출하는 것도 가능하다.In one embodiment, the detailed type recognition model may be to calculate detailed type information for an individual external characteristic combination of the input external appearance description data as one or more detailed type information is matched to each of one or more individual external characteristic combinations. have. In addition, in one embodiment, it is also possible to calculate a plurality of detailed type information.

예를 들어, 특정 개별외형특성 조합(a, b, c)에 대하여 세부유형정보(대상체 유형정보가 A인 경우 하위개념인 a2, 대상체 유형정보가 B인 경우 하위개념인 b1 등)가 매칭되어 있고, 입력된 외형서술데이터(대상체 유형정보 B, 개별외형특성 a, b, c)에 따라 대응되는 세부유형정보를(b1) 산출할 수 있다.For example, detailed type information (a2 which is a sub-concept when the object type information is A, b1 which is a sub-concept when the object type information is B) is matched with respect to a specific combination of appearance characteristics (a, b, c). In addition, it is possible to calculate the corresponding detailed type information (b1) according to the input appearance description data (object type information B, individual appearance characteristics a, b, c).

또한, 일 실시예에서, 상기 세부유형정보가 산출된 경우, 상기 외형서술데이터는 상기 대상체 세부유형정보를 더 포함할 수 있다. 즉, 일 실시예에서, 상기 산출된 세부유형정보에 대응되는 코드값을 추출하여 기존의 외형서술데이터에 추가할 수 있다.In addition, in an embodiment, when the detailed type information is calculated, the appearance description data may further include the object detailed type information. That is, in an embodiment, a code value corresponding to the calculated detailed type information may be extracted and added to the existing appearance description data.

도 8을 참조하면, 본 발명의 일 실시예에 따른 영상데이터의 외형서술데이터 획득 방법은, 상기 서버가 사용자 클라이언트로부터 검색키워드를 수신하는 단계(S3600); 및 상기 서버가 상기 검색키워드에 대응되는 외형서술데이터를 포함하는 영상데이터를 추출하여 상기 사용자 클라이언트에 전송하는 단계(S3700);를 더 포함한다. 이하, 각 단계에 대한 상세한 설명을 기술한다.Referring to FIG. 8, a method of obtaining external description data of image data according to an embodiment of the present invention includes: receiving, by the server, a search keyword from a user client (S3600); And extracting, by the server, image data including appearance description data corresponding to the search keyword and transmitting the extracted image data to the user client (S3700). Hereinafter, a detailed description of each step will be described.

즉, 사용자가 영상데이터의 검색을 위하여 특정한 검색키워드를 입력한 경우, 서버는 상기 검색키워드에 대응되는 대상체 유형정보, 개별외형특성 또는 추상적특성을 추출하고, 추출된 유형정보, 개별외형특성 또는 추상적특성의 외형서술데이터를 포함하는 영상데이터를 검색 결과로 사용자에게 제공한다.That is, when a user inputs a specific search keyword to search for image data, the server extracts object type information, individual appearance characteristics, or abstract characteristics corresponding to the search keyword, and extracts type information, individual appearance characteristics, or abstract characteristics. Image data including characteristic appearance description data is provided to the user as a search result.

예를 들어, 사용자가 '귀여운 빨간색 라운드 티셔츠'를 검색키워드로 입력한 경우, 상기 검색키워드로부터 대상체 유형정보로 '셔츠&블라우스'를, 개별외형특성으로 '빨간색', '라운드넥', '카라(collar)없음'을, 추상적특성으로 '귀여운(cute)'을 추출하고, "빨간색, 라운드넥, 카라없음, 귀여운"의 외형서술데이터를 포함하는 영상데이터를 사용자에게 제공할 수 있다.For example, if a user enters'cute red round T-shirt' as a search keyword,'Shirt & Blouse' is used as object type information from the search keyword, and'red','round neck','color' as individual appearance characteristics. It is possible to extract'no (collar)' and'cute' as an abstract characteristic, and provide image data including appearance descriptive data of "red, round neck, no color, cute" to the user.

또한, 일 실시예에서, 상기 검색키워드에 대응되는 영상데이터의 추출 시, 상기 사용자의 개별외형특성, 제1개별감성특성 또는 제2개별감성특성 각각에 대한 선호정보를 더 고려하여 추출할 수 있다. 이 경우, 동일한 검색키워드가 입력되는 경우라도, 검색키워드를 입력하는 사용자에 따라 검색결과가 상이할 수 있다.In addition, in an embodiment, when the image data corresponding to the search keyword is extracted, preference information for each of the user's individual appearance characteristics, first individual sensibility characteristics, or second individual sensibility characteristics may be further considered and extracted. . In this case, even when the same search keyword is input, the search result may be different depending on the user who inputs the search keyword.

또한, 도면에 도시되지는 않았으나, 본 발명의 일 실시예에 따른 영상데이터의 외형서술데이터 획득 방법은, 특정한 대상체에 대한 신규 외형분류기준이 추가되는 경우, 서버가 학습용 영상데이터에 대한 신규 외형분류기준의 개별외형특성을 획득하여, 신규 학습데이터셋을 구축하는 단계; 및 서버가 상기 신규 학습데이터셋을 기반으로 신규 개별특성인식모듈을 트레이닝하여, 상기 외형특성 인식모델에 추가하는 단계;를 더 포함할 수 있다.In addition, although not shown in the drawings, in the method for obtaining appearance description data of image data according to an embodiment of the present invention, when a new appearance classification criterion for a specific object is added, the server classifies the new appearance of the image data for learning. Acquiring the individual appearance characteristics of the reference, and constructing a new learning data set; And training, by the server, a new individual feature recognition module based on the new learning data set, and adding it to the external feature recognition model.

즉, 특정한 대상체에 대한 새로운 외형분류기준이 추가되는 경우(예를 들어, 의류의 외형특성을 나누는 새로운 기준이 추가된 경우), 서버는 기존의 개별특성인식모듈을 변경하지 않고 새로운 외형분류기준에 대한 개별특성인식모듈만 추가 구축하여 외형특성 인식모델을 새로운 외형분류기준이 추가된 상황에 맞게 변경할 수 있다.That is, when a new appearance classification criterion for a specific object is added (for example, a new criterion for dividing the appearance characteristics of clothing is added), the server does not change the existing individual characteristic recognition module. It is possible to change the external characteristic recognition model to suit the situation in which a new external classification standard has been added by additionally building only individual characteristic recognition modules.

먼저, 서버가 학습용 영상데이터에 대한 신규 외형분류기준의 개별외형특성을 획득하여, 신규 학습데이터셋을 구축한다. 일 실시예에서, 기존에 다른 개별특성인식모듈을 트레이닝하기 위해 이용된 영상데이터를 동일하게 활용하여 신규 개별특성인식모듈을 구축하는 경우, 서버는 전문가 클라이언트로부터 학습용 영상데이터 각각에 대해 신규 외형분류기준의 개별외형특성을 입력 받는다. 또한, 다른 일실시예로, 서버는 신규 외형분류기준에 대한 개별특성인식모듈을 트레이닝하기 위한 신규 영상데이터를 획득하고, 이에 대해 신규 외형분류기준의 개별외형특성을 각각 입력 받아서 신규 학습데이터셋을 구축한다.First, the server acquires the individual appearance characteristics of the new appearance classification criteria for the training image data, and constructs a new training data set. In one embodiment, in the case of constructing a new individual characteristic recognition module by using the same image data used to train other individual characteristic recognition modules, the server is based on a new appearance classification standard for each of the image data for learning from an expert client. The individual appearance characteristics of are inputted. In addition, in another embodiment, the server acquires new image data for training the individual characteristic recognition module for the new appearance classification criteria, and receives the individual appearance characteristics of the new appearance classification criteria for this, and receives the new learning data set. Build.

그 후, 서버가 상기 신규 학습데이터셋을 기반으로 신규 개별특성인식모듈을 트레이닝하여, 상기 외형특성 인식모델에 추가한다. 이를 통해, 서버는 기존의 외형특성 인식모델에(복수의 특화 외형특성 인식모델) 복수의 기존 개별특성인식모듈과 함께 신규 개별특성인식모듈을 추가한다.Thereafter, the server trains a new individual feature recognition module based on the new learning data set, and adds it to the external feature recognition model. Through this, the server adds a new individual characteristic recognition module along with a plurality of existing individual characteristic recognition modules to the existing external appearance characteristic recognition model (multiple specialized external characteristic recognition models).

또한, 일 실시예에서, 서버가 이미 구축된 개별특성인식모듈에 의해 외형서술데이터가 획득된 영상데이터를 신규 개별특성인식모듈에 입력하여 신규 외형분류기준에 대해 개별외형특성을 추가하는 단계;를 더 포함할 수 있다. 즉, 서버는 기존에 획득된 영상데이터의 외형서술데이터를 신규 외형분류기준을 반영하도록 업데이트하는 과정을 수행한다. 이를 위해, 서버는 신규 개별특성인식모듈에 모든 영상데이터를 삽입하여 개별외형특성을 산출하는 과정을 수행한다.In addition, in an embodiment, the server inputs the image data obtained by the external appearance description data by the individual characteristic recognition module already built into the new individual characteristic recognition module to add individual external characteristics to the new external appearance classification criteria; It may contain more. That is, the server performs a process of updating the appearance description data of the previously acquired image data to reflect the new appearance classification criteria. To this end, the server performs a process of calculating individual appearance characteristics by inserting all image data into a new individual characteristic recognition module.

또한, 본 발명의 일 실시예에서, 상기 영상데이터가 복수의 프레임을 포함하는 동영상데이터인 경우, 상기 대상체 유형정보 산출단계(S3100) 및 개별외형특성 산출단계(S3200)는, 상기 동영상데이터 내의 각각의 프레임에 대해 수행되는 것을 특징으로 할 수 있고, 외형서술데이터 생성단계(S3300)는 각 프레임에 대한 대상체 유형정보 및 복수의 개별외형특성을 순차적으로 나열하여 생성하는 것을 특징으로 할 수 있다.In addition, in an embodiment of the present invention, when the image data is moving image data including a plurality of frames, the object type information calculating step (S3100) and the individual appearance characteristic calculating step (S3200) may be performed in each of the moving picture data. It may be characterized in that it is performed on the frame of, and the appearance description data generation step (S3300) may be characterized in that the object type information for each frame and a plurality of individual appearance characteristics are sequentially arranged and generated.

본 발명의 다른 일실시예에 따른 영상데이터의 외형서술데이터 획득 서버장치는, 하나 이상의 컴퓨터를 포함하고, 상기 언급된 외형서술데이터 획득 방법을 수행한다.A server apparatus for obtaining outline description data of image data according to another embodiment of the present invention includes one or more computers, and performs the above-mentioned method for obtaining outline description data.

도 9를 참조하면, 본 발명의 일 실시예에 따른 영상데이터의 외형서술데이터 획득 서버장치(10)는, 대상체유형 인식모델(100), 외형특성 인식모델(200), 외형서술데이터 생성부(600) 및 데이터베이스(800)를 포함하며, 전술한 외형서술데이터 획득 방법을 수행한다.Referring to FIG. 9, the server apparatus 10 for obtaining external description data of image data according to an embodiment of the present invention includes an object type recognition model 100, an external characteristic recognition model 200, and an external description data generation unit ( 600) and a database 800, and performs the above-described method of obtaining appearance description data.

또한, 다른 실시예에서, 상기 서버장치(10)는 추상적특성 인식모델(300), 세부유형 인식모델(400), 스타일 인식모델(500) 또는 추천영상데이터 생성부(700) 중 하나 이상을 더 포함할 수 있다.In addition, in another embodiment, the server device 10 further includes one or more of an abstract feature recognition model 300, a detailed type recognition model 400, a style recognition model 500, or a recommended image data generation unit 700. Can include.

또한, 전술한 본 발명의 일 실시예에 따른 영상데이터의 외형서술데이터 획득 방법은, 하드웨어인 컴퓨터와 결합되어 실행되기 위해 프로그램(또는 어플리케이션)으로 구현되어 매체에 저장될 수 있다.In addition, the above-described method for obtaining outline description data of image data according to an embodiment of the present invention may be implemented as a program (or application) to be executed by being combined with a computer, which is hardware, and stored in a medium.

상기 전술한 프로그램은, 상기 컴퓨터가 프로그램을 읽어 들여 프로그램으로 구현된 상기 방법들을 실행시키기 위하여, 상기 컴퓨터의 프로세서(CPU)가 상기 컴퓨터의 장치 인터페이스를 통해 읽힐 수 있는 C, C++, JAVA, 기계어 등의 컴퓨터 언어로 코드화된 코드(Code)를 포함할 수 있다. 이러한 코드는 상기 방법들을 실행하는 필요한 기능들을 정의한 함수 등과 관련된 기능적인 코드(Functional Code)를 포함할 수 있고, 상기 기능들을 상기 컴퓨터의 프로세서가 소정의 절차대로 실행시키는데 필요한 실행 절차 관련 제어 코드를 포함할 수 있다. 또한, 이러한 코드는 상기 기능들을 상기 컴퓨터의 프로세서가 실행시키는데 필요한 추가 정보나 미디어가 상기 컴퓨터의 내부 또는 외부 메모리의 어느 위치(주소 번지)에서 참조되어야 하는지에 대한 메모리 참조관련 코드를 더 포함할 수 있다. 또한, 상기 컴퓨터의 프로세서가 상기 기능들을 실행시키기 위하여 원격(Remote)에 있는 어떠한 다른 컴퓨터나 서버(10) 등과 통신이 필요한 경우, 코드는 상기 컴퓨터의 통신 모듈을 이용하여 원격에 있는 어떠한 다른 컴퓨터나 서버(10) 등과 어떻게 통신해야 하는지, 통신 시 어떠한 정보나 미디어를 송수신해야 하는지 등에 대한 통신 관련 코드를 더 포함할 수 있다. The above-described program is C, C++, JAVA, machine language, etc. that can be read by the computer's processor (CPU) through the device interface of the computer in order for the computer to read the program and execute the methods implemented as a program. It may include a code (Code) coded in the computer language of. Such code may include a functional code related to a function defining necessary functions for executing the methods, and a control code related to an execution procedure necessary for the processor of the computer to execute the functions according to a predetermined procedure. can do. In addition, these codes may further include additional information required for the processor of the computer to execute the functions or code related to a memory reference to which location (address address) of the internal or external memory of the computer should be referenced. have. In addition, when the processor of the computer needs to communicate with any other computer or server 10 at a remote location in order to execute the functions, the code can be used with any other computer remotely using the communication module of the computer. It may further include a communication-related code for how to communicate with the server 10 or the like, and what information or media should be transmitted/received during communication.

상기 저장되는 매체는, 레지스터, 캐쉬, 메모리 등과 같이 짧은 순간 동안 데이터를 저장하는 매체가 아니라 반영구적으로 데이터를 저장하며, 기기에 의해 판독(reading)이 가능한 매체를 의미한다. 구체적으로는, 상기 저장되는 매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 플로피디스크, 광 데이터 저장장치 등이 있지만, 이에 제한되지 않는다. 즉, 상기 프로그램은 상기 컴퓨터가 접속할 수 있는 다양한 서버(10) 상의 다양한 기록매체 또는 사용자의 상기 컴퓨터상의 다양한 기록매체에 저장될 수 있다. 또한, 상기 매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어, 분산방식으로 컴퓨터가 읽을 수 있는 코드가 저장될 수 있다.The stored medium is not a medium that stores data for a short moment, such as a register, cache, memory, etc., but a medium that stores data semi-permanently and can be read by a device. Specifically, examples of the storage medium include, but are not limited to, ROM, RAM, CD-ROM, magnetic tape, floppy disk, optical data storage device, and the like. That is, the program may be stored in various recording media on various servers 10 to which the computer can access, or on various recording media on the computer of the user. In addition, the medium may be distributed over a computer system connected through a network, and computer-readable codes may be stored in a distributed manner.

이상, 첨부된 도면을 참조로 하여 본 발명의 실시예를 설명하였지만, 본 발명이 속하는 기술분야의 통상의 기술자는 본 발명이 그 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 그러므로, 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며, 제한적이 아닌 것으로 이해해야만 한다.In the above, embodiments of the present invention have been described with reference to the accompanying drawings, but those of ordinary skill in the art to which the present invention pertains can be implemented in other specific forms without changing the technical spirit or essential features. You will be able to understand. Therefore, the embodiments described above are illustrative in all respects, and should be understood as non-limiting.

Claims (14)

서버가 영상데이터를 대상체유형 인식모델에 입력하여, 제1 대상체 유형정보를 산출하는 단계;
상기 서버가 상기 영상데이터를 상기 제1 대상체 유형정보에 대응되는 특화 외형특성 인식모델에 입력하여, 복수의 외형분류기준에 대한 개별외형특성을 산출하는 단계-상기 개별외형특성은, 대상체의 외형을 서술하기 위한 특정한 분류기준인 외형분류기준 내의 복수의 외형특성을 표현함-; 및
상기 특화 외형특성 인식모델이 개별외형특성을 산출할 수 없는 경우, 상기 서버가 상기 영상데이터를 상기 대상체유형 인식모델에 입력하여, 상기 제1 대상체 유형정보와 상이한 제2 대상체 유형정보를 산출하는 단계-상기 특화 외형특성 인식모델은, 특정한 대상체 유형정보에 적용하도록 설정된 복수의 외형분류기준에 대응되는 복수의 개별특성인식모듈을 포함하고, 상기 개별특성인식모듈은, 특정한 외형분류기준에 대한 개별외형특성을 산출하는 모듈을 포함함-;를 포함하고,
상기 특화 외형특성 인식모델이 개별외형특성을 산출할 수 없는 경우는, 상기 특화 외형특성 인식모델에 포함된 상기 복수의 개별특성인식모듈 중에서 개별외형특성이 산출되지 않은 개별특성인식모듈의 개수 또는 비율이 임계값 이상인 경우이고,
상기 제1 대상체 유형정보를 산출하는 단계는, 상기 서버가 제1 확률을 획득하여 상기 제1 확률이 임계값 이상인 유형정보를 산출하되, 상기 제1 확률이 임계값 이상인 유형정보가 복수개인 경우, 복수의 후보유형정보를 모두 산출하고,
상기 제1 확률은, 상기 대상체가 특정한 유형정보 각각에 해당할 확률이고,
상기 개별외형특성을 산출하는 단계는, 상기 영상데이터에 대하여 복수의 후보유형정보가 산출된 경우, 복수의 후보 외형특성 인식모델 각각에 상기 영상데이터를 입력하는 것이고,
상기 후보 외형특성 인식모델은, 상기 후보유형정보에 대응되는 특화 외형특성 인식모델이고,
상기 서버가, 상기 복수의 후보유형정보 중 적어도 하나의 후보유형정보를 최종유형정보로 설정하고,
상기 최종유형정보는, 개별외형특성이 산출되지 않은 개별특성인식모듈의 개수 또는 비율이 가장 적은 후보 외형특성 인식모델에 대응되는 후보유형정보인 것을 특징으로 하는, 영상데이터의 외형서술데이터 획득 방법.
Calculating first object type information by inputting the image data into the object type recognition model by the server;
The server inputs the image data into a specialized appearance characteristic recognition model corresponding to the first object type information, and calculates individual appearance characteristics for a plurality of appearance classification criteria-The individual appearance characteristics determine the appearance of the object. Expressing a plurality of external characteristics within the external classification standard, which is a specific classification standard for description -; And
If the specialized external characteristic recognition model cannot calculate individual external characteristics, the server inputs the image data into the object type recognition model, and calculates second object type information different from the first object type information -The specialized external characteristic recognition model includes a plurality of individual characteristic recognition modules corresponding to a plurality of external appearance classification criteria set to be applied to specific object type information, and the individual characteristic recognition module is Including a module for calculating the characteristic -; Including,
If the specialized external characteristic recognition model cannot calculate individual external characteristics, the number or ratio of individual characteristic recognition modules for which individual external characteristics are not calculated among the plurality of individual characteristic recognition modules included in the specialized external characteristic recognition model. Is above this threshold,
In the calculating of the first object type information, the server obtains a first probability and calculates type information having the first probability equal to or greater than a threshold value, Calculate all of the plurality of candidate type information,
The first probability is a probability that the object corresponds to each specific type information,
In the calculating of the individual appearance characteristics, when a plurality of candidate type information is calculated for the image data, inputting the image data to each of a plurality of candidate appearance characteristics recognition models,
The candidate appearance characteristic recognition model is a specialized appearance characteristic recognition model corresponding to the candidate type information,
The server sets at least one candidate type information among the plurality of candidate type information as final type information,
The final type information is candidate type information corresponding to a candidate appearance characteristic recognition model having the least number or ratio of individual characteristic recognition modules for which individual appearance characteristics are not calculated.
제1항에 있어서,
상기 서버가 상기 영상데이터에 대하여 산출된 대상체 유형정보 및 복수의 개별외형특성을 조합하여 외형서술데이터를 생성하는 단계를 더 포함하는, 영상데이터의 외형서술데이터 획득 방법.
The method of claim 1,
The server further comprising the step of generating the appearance description data by combining the object type information calculated with respect to the image data and a plurality of individual appearance characteristics, the appearance description data acquisition method of image data.
삭제delete 삭제delete 삭제delete 제2항에 있어서,
상기 서버가 산출된 복수의 개별외형특성을 기초로 추상적특성을 산출하는 단계를 더 포함하고,
상기 외형서술데이터는, 상기 영상데이터에 대하여 산출된 상기 추상적특성을 더 포함하는 것인, 영상데이터의 외형서술데이터 획득 방법.
The method of claim 2,
The server further comprises the step of calculating abstract characteristics based on the calculated plurality of individual appearance characteristics,
The outline description data further includes the abstract characteristic calculated with respect to the image data.
제6항에 있어서,
상기 추상적특성 산출단계는,
각각의 개별외형특성마다 복수의 추상적특성 각각에 대한 점수가 설정되어 있고, 상기 서버가 상기 영상데이터에 대하여 산출된 복수의 개별외형특성에 설정된 각각의 추상적특성에 대한 점수를 합산하여 산출하는 것인, 영상데이터의 외형서술데이터 획득 방법.
The method of claim 6,
The step of calculating the abstract characteristics,
A score for each of a plurality of abstract characteristics is set for each individual appearance characteristic, and the server calculates by summing the scores for each abstract characteristic set in a plurality of individual appearance characteristics calculated for the image data. , Method for obtaining external description data of image data.
제2항에 있어서,
상기 서버가 상기 영상데이터의 외형서술데이터를 세부유형 인식모델에 입력하여, 대상체 세부유형정보를 산출하는 단계를 더 포함하고,
상기 세부유형정보는, 산출된 상기 제1 대상체 유형정보 또는 제2 대상체 유형정보의 하위개념인, 영상데이터의 외형서술데이터 획득 방법.
The method of claim 2,
The server further comprises the step of calculating the object detailed type information by inputting the outline description data of the image data into the detailed type recognition model,
The detailed type information is a sub-concept of the calculated first object type information or second object type information.
제8항에 있어서,
상기 세부유형 인식모델은,
하나 이상의 개별외형특성 조합이 하나 이상의 세부유형정보와 매칭됨에 따라, 입력된 외형서술데이터의 개별외형특성 조합에 대한 세부유형정보를 산출하는 것인, 영상데이터의 외형서술데이터 획득 방법.
The method of claim 8,
The detailed type recognition model,
According to one or more combinations of individual appearance characteristics matched with the one or more detailed type information, to calculate the detailed type information for the individual appearance characteristics combination of the input appearance description data, the appearance description data acquisition method of image data.
제2항에 있어서,
상기 서버가 사용자 클라이언트로부터 검색키워드를 수신하는 단계; 및
상기 서버가 상기 검색키워드에 대응되는 외형서술데이터를 포함하는 영상데이터를 추출하여 상기 사용자 클라이언트에 전송하는 단계를 더 포함하는, 영상데이터의 외형서술데이터 획득 방법.
The method of claim 2,
Receiving, by the server, a search keyword from a user client; And
The method further comprising the step of extracting, by the server, image data including appearance description data corresponding to the search keyword and transmitting the extracted image data to the user client.
제2항에 있어서,
상기 외형서술데이터를 생성하는 단계는,
상기 영상데이터에 대한 대상체 유형정보 및 복수의 개별외형특성 각각에 대응하는 코드값을 추출하는 단계; 및
상기 복수의 코드값을 조합하여, 코드열 형태의 외형서술데이터를 생성하는 단계를 포함하는, 영상데이터의 외형서술데이터 획득 방법.
The method of claim 2,
The step of generating the appearance description data,
Extracting object type information for the image data and a code value corresponding to each of a plurality of individual appearance characteristics; And
And generating outline description data in the form of a code string by combining the plurality of code values.
제1항에 있어서,
상기 영상데이터가 복수의 프레임을 포함하는 동영상데이터인 경우,
상기 제1 대상체 유형정보 산출단계, 상기 제2 대상체 유형정보 산출단계 및 상기 개별외형특성 산출단계는,
상기 동영상데이터 내의 각각의 프레임에 대해 수행되는 것을 특징으로 하는, 영상데이터의 외형서술데이터 획득 방법.
The method of claim 1,
When the image data is moving image data including a plurality of frames,
The first object type information calculation step, the second object type information calculation step, and the individual appearance characteristic calculation step,
A method of obtaining outline description data of image data, characterized in that it is performed for each frame in the moving picture data.
하나 이상의 컴퓨터를 포함하며, 제1항의 방법을 실행하는, 영상데이터의 외형서술데이터 획득 서버장치.A server apparatus comprising one or more computers, and executing the method of claim 1, for obtaining appearance description data of image data. 하드웨어인 컴퓨터와 결합되어, 제1항의 방법을 실행시키기 위하여 매체에 저장된, 영상데이터의 외형서술데이터 획득 프로그램.A program for obtaining appearance description data of image data, which is combined with a computer as hardware and stored in a medium to execute the method of claim 1.
KR1020200012942A 2019-06-10 2020-02-04 System, method and program for obtaining appearance descriptive data from image data KR102227896B1 (en)

Priority Applications (4)

Application Number Priority Date Filing Date Title
PCT/KR2020/007439 WO2020251236A1 (en) 2019-06-10 2020-06-09 Image data retrieval method, device, and program using deep learning algorithm
EP20822980.7A EP3982277A4 (en) 2019-06-10 2020-06-09 Image data retrieval method, device, and program using deep learning algorithm
KR1020210030706A KR102366595B1 (en) 2019-06-10 2021-03-09 System, method and program for obtaining appearance descriptive data from image data
US17/546,709 US20220100792A1 (en) 2019-06-10 2021-12-09 Method, device, and program for retrieving image data by using deep learning algorithm

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020190067795 2019-06-10
KR20190067795 2019-06-10

Related Child Applications (1)

Application Number Title Priority Date Filing Date
KR1020210030706A Division KR102366595B1 (en) 2019-06-10 2021-03-09 System, method and program for obtaining appearance descriptive data from image data

Publications (2)

Publication Number Publication Date
KR20200141375A KR20200141375A (en) 2020-12-18
KR102227896B1 true KR102227896B1 (en) 2021-03-15

Family

ID=70910841

Family Applications (9)

Application Number Title Priority Date Filing Date
KR1020200009164A KR20200141373A (en) 2019-06-10 2020-01-23 System, method and program of constructing dataset for training appearance recognition model
KR1020200009600A KR102115573B1 (en) 2019-06-10 2020-01-28 System, method and program for acquiring user interest based on input image data
KR1020200012942A KR102227896B1 (en) 2019-06-10 2020-02-04 System, method and program for obtaining appearance descriptive data from image data
KR1020200012943A KR102119253B1 (en) 2019-06-10 2020-02-04 System, method and program for obtaining abstract data from image data
KR1020200016533A KR102115574B1 (en) 2019-06-10 2020-02-11 Method, device and program for customizing object design
KR1020200060527A KR102366580B1 (en) 2019-06-10 2020-05-20 System, method and program for acquiring user interest based on input image data
KR1020200060528A KR20200141929A (en) 2019-06-10 2020-05-20 Method, device and program for customizing object design
KR1020200065373A KR102355702B1 (en) 2019-06-10 2020-05-29 System, method and program for obtaining abstract data from image data
KR1020200181898A KR20210002410A (en) 2019-06-10 2020-12-23 System, method and program of constructing dataset for training appearance recognition model

Family Applications Before (2)

Application Number Title Priority Date Filing Date
KR1020200009164A KR20200141373A (en) 2019-06-10 2020-01-23 System, method and program of constructing dataset for training appearance recognition model
KR1020200009600A KR102115573B1 (en) 2019-06-10 2020-01-28 System, method and program for acquiring user interest based on input image data

Family Applications After (6)

Application Number Title Priority Date Filing Date
KR1020200012943A KR102119253B1 (en) 2019-06-10 2020-02-04 System, method and program for obtaining abstract data from image data
KR1020200016533A KR102115574B1 (en) 2019-06-10 2020-02-11 Method, device and program for customizing object design
KR1020200060527A KR102366580B1 (en) 2019-06-10 2020-05-20 System, method and program for acquiring user interest based on input image data
KR1020200060528A KR20200141929A (en) 2019-06-10 2020-05-20 Method, device and program for customizing object design
KR1020200065373A KR102355702B1 (en) 2019-06-10 2020-05-29 System, method and program for obtaining abstract data from image data
KR1020200181898A KR20210002410A (en) 2019-06-10 2020-12-23 System, method and program of constructing dataset for training appearance recognition model

Country Status (2)

Country Link
KR (9) KR20200141373A (en)
WO (2) WO2020251233A1 (en)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20200141373A (en) * 2019-06-10 2020-12-18 (주)사맛디 System, method and program of constructing dataset for training appearance recognition model
KR102387907B1 (en) * 2020-06-26 2022-04-18 주식회사 이스트엔드 Creators and prosumers participate in the no design clothing design customizing method and system for the same
KR102524049B1 (en) * 2021-02-08 2023-05-24 (주)사맛디 Device and method for recommending apparel for user based on characteristic information
KR102556642B1 (en) 2021-02-10 2023-07-18 한국기술교육대학교 산학협력단 Method of generating data for machine learning training
CN113360477A (en) * 2021-06-21 2021-09-07 四川大学 Classification method for large-scale customized women's leather shoes
CN113807708B (en) * 2021-09-22 2024-03-01 深圳市微琪思服饰有限公司 Distributed clothing flexible production manufacturing platform system

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1183461A (en) * 1997-09-09 1999-03-26 Mitsubishi Electric Corp Article assortment recognition system
KR101157744B1 (en) * 2010-05-06 2012-06-25 윤진호 Method and system for recommending products based on preference and presenting recommended products for customers
KR101231946B1 (en) * 2011-01-03 2013-02-08 김건민 The commodity sales and management system that used a coordination system
KR101925764B1 (en) 2012-08-23 2018-12-05 인터디지탈 패튼 홀딩스, 인크 Operating with multiple schedulers in a wireless system
KR101579617B1 (en) * 2014-04-04 2015-12-22 홍익대학교세종캠퍼스산학협력단 Image converting tool system of 3D printing robot and Driving method thereof
KR20170096971A (en) * 2016-02-17 2017-08-25 옴니어스 주식회사 Method for recommending a product using style feature
KR20180014495A (en) * 2016-08-01 2018-02-09 삼성에스디에스 주식회사 Apparatus and method for recognizing objects
KR102530045B1 (en) * 2016-12-23 2023-05-09 삼성전자주식회사 Image display device and operating method for the same
CN108268539A (en) * 2016-12-31 2018-07-10 上海交通大学 Video matching system based on text analyzing
KR20180133200A (en) 2018-04-24 2018-12-13 김지우 Application program for managing clothes recorded in recording media, system and method for managing clothes using the same
KR102024818B1 (en) * 2018-04-30 2019-09-24 오드컨셉 주식회사 Method, apparatus and computer program for providing search information from video
KR20200141373A (en) * 2019-06-10 2020-12-18 (주)사맛디 System, method and program of constructing dataset for training appearance recognition model

Also Published As

Publication number Publication date
KR20200141373A (en) 2020-12-18
KR102119253B1 (en) 2020-06-04
KR20200141384A (en) 2020-12-18
KR102115574B1 (en) 2020-05-27
KR20200141388A (en) 2020-12-18
KR20210002410A (en) 2021-01-08
WO2020251238A1 (en) 2020-12-17
KR102355702B1 (en) 2022-01-26
WO2020251233A1 (en) 2020-12-17
KR102115573B1 (en) 2020-05-26
KR20200141375A (en) 2020-12-18
KR20200141929A (en) 2020-12-21
KR102366580B1 (en) 2022-02-23

Similar Documents

Publication Publication Date Title
KR102227896B1 (en) System, method and program for obtaining appearance descriptive data from image data
US11275906B2 (en) Natural language text conversion and method therefor
KR102317432B1 (en) Method, apparatus and program for fashion trend prediction based on integrated analysis of image and text
US20150379336A1 (en) Handwriting input conversion apparatus, computer-readable medium, and conversion method
WO2019011936A1 (en) Method for evaluating an image
WO2020253063A1 (en) Method and device for searching for similar images
US20080243905A1 (en) Attribute extraction using limited training data
CN110059156A (en) Coordinate retrieval method, apparatus, equipment and readable storage medium storing program for executing based on conjunctive word
US20200143454A1 (en) Computer vision based methods and systems of universal fashion ontology fashion rating and recommendation
CN111767420A (en) Method and device for generating clothing matching data
CN109241299A (en) Multimedia resource searching method, device, storage medium and equipment
JP2024045510A (en) Information processing device, information processing method, and program
CN111444695A (en) Text generation method, device and equipment based on artificial intelligence and storage medium
US20200372560A1 (en) Method for exploring and recommending matching products across categories
KR20200141387A (en) System, method and program for searching image data by using deep-learning algorithm
US20220100792A1 (en) Method, device, and program for retrieving image data by using deep learning algorithm
CN110413818B (en) Label paper recommending method, device, computer readable storage medium and computer equipment
US20230180917A1 (en) Method for processing makeup and electronic device
KR102366595B1 (en) System, method and program for obtaining appearance descriptive data from image data
CN110785753A (en) Method, apparatus, and storage medium for searching for image
CN110413823A (en) Garment image method for pushing and relevant apparatus
KR102119246B1 (en) System, method and program for searching image data by using deep-learning algorithm
CN111666963B (en) Method, device and equipment for identifying clothes styles
KR102524049B1 (en) Device and method for recommending apparel for user based on characteristic information
KR20210109927A (en) System, method and program of constructing dataset for training visual characteristic recognition model

Legal Events

Date Code Title Description
AMND Amendment
E601 Decision to refuse application
X091 Application refused [patent]
AMND Amendment
X701 Decision to grant (after re-examination)
GRNT Written decision to grant