KR102524049B1 - Device and method for recommending apparel for user based on characteristic information - Google Patents

Device and method for recommending apparel for user based on characteristic information Download PDF

Info

Publication number
KR102524049B1
KR102524049B1 KR1020210017629A KR20210017629A KR102524049B1 KR 102524049 B1 KR102524049 B1 KR 102524049B1 KR 1020210017629 A KR1020210017629 A KR 1020210017629A KR 20210017629 A KR20210017629 A KR 20210017629A KR 102524049 B1 KR102524049 B1 KR 102524049B1
Authority
KR
South Korea
Prior art keywords
user
objects
combination
information
server
Prior art date
Application number
KR1020210017629A
Other languages
Korean (ko)
Other versions
KR20220114305A (en
Inventor
이종혁
김형숙
Original Assignee
(주)사맛디
동서대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by (주)사맛디, 동서대학교 산학협력단 filed Critical (주)사맛디
Priority to KR1020210017629A priority Critical patent/KR102524049B1/en
Publication of KR20220114305A publication Critical patent/KR20220114305A/en
Application granted granted Critical
Publication of KR102524049B1 publication Critical patent/KR102524049B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/06Buying, selling or leasing transactions
    • G06Q30/0601Electronic shopping [e-shopping]
    • G06Q30/0631Item recommendations
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/02Marketing; Price estimation or determination; Fundraising
    • G06Q30/0278Product appraisal
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/06Buying, selling or leasing transactions
    • G06Q30/0601Electronic shopping [e-shopping]
    • G06Q30/0641Shopping interfaces
    • G06Q30/0643Graphical representation of items or shoppers

Abstract

본 발명은 대상체의 특성정보에 기반한 사용자 코디 추천 방법에 관한 것이다. 상기 방법은, 서버가 영상데이터 내에 포함된 복수의 대상체 각각을 인식하는 단계, 상기 서버가 딥러닝 기반의 대상체조합평가모델에 기반하여, 상기 복수의 대상체간의 조합을 평가하는 단계 및 상기 서버가 상기 평가 결과를 상기 사용자에게 제공하는 단계를 포함하고, 상기 조합 평가 단계는, 상기 복수의 대상체 각각에 대한 특성정보를 산출하고, 상기 산출된 특성정보를 상기 대상체조합평가모델에 입력하여 상기 복수의 대상체 간의 조합을 평가하는 것이다.The present invention relates to a user coordination recommendation method based on characteristic information of an object. The method includes recognizing, by a server, each of a plurality of objects included in image data; evaluating, by the server, a combination of the plurality of objects based on a deep learning-based object combination evaluation model; and providing an evaluation result to the user, wherein the combination evaluation step calculates characteristic information for each of the plurality of objects, inputs the calculated characteristic information into the object combination evaluation model, and inputs the plurality of object combination evaluation model. to evaluate the combination of

Description

대상체 특성 정보에 기반한 사용자 코디 추천 장치 및 방법{DEVICE AND METHOD FOR RECOMMENDING APPAREL FOR USER BASED ON CHARACTERISTIC INFORMATION}Apparatus and method for recommending user coordination based on object property information

본 발명은 대상체 특성 정보에 기반한 사용자 코디 추천 방법 및 장치에 관한 것이다. 보다 상세하게는 각각의 대상체의 개별외형특성과 추상적특성을 해당 대상체의 특성 정보로서 식별하고, 복수의 대상체의 특성정보의 조합을 평가하여 사용자에게 적절한 대상체 조합을 추천하는 것이다.The present invention relates to a method and apparatus for recommending user coordination based on object characteristic information. More specifically, the individual appearance characteristics and abstract characteristics of each object are identified as the object's characteristic information, and a combination of the plurality of object's characteristic information is evaluated to recommend an appropriate object combination to the user.

최근 인터넷의 발달로 소셜 미디어 네트워크 서비스가 급격히 성장하고 있다. 그 결과, 멀티미디어의 양이 폭발적으로 증가하면서 효과적인 이미지 검색 시스템이 요구되며, 이미지 어노테이션은 폭발적으로 증가하는 웹이미지에 따른 효율적인 이미지 검색의 필요성으로 인해 그 중요도가 점점 높아지고 있다. Recently, with the development of the Internet, social media network services are rapidly growing. As a result, as the amount of multimedia explodes, an effective image retrieval system is required, and the importance of image annotations is gradually increasing due to the need for efficient image retrieval according to the explosively increasing web images.

대부분의 이미지 검색 연구는 주로 이미지의 내용을 분석하는 내용 기반 이미지 검색(CBIR: Content-basedImage Retrieval) 방법이 많이 진행되어 왔다. 내용 기반 이미지 검색은 색상, 텍스처 및 형태와 같은 시각적 특징을 이용하여 이미지의 내용을 분석한다. 이러한 방법은 정의하는 태그의 개수가 적을 경우에는 잘 작동하지만, 데이터셋이 커지고 태그의 종류가 다양해짐에 따라 성능이 떨어지게 된다.Most of the image retrieval studies have been carried out in a content-based image retrieval (CBIR) method, which mainly analyzes the content of an image. Content-based image retrieval analyzes the content of an image using visual characteristics such as color, texture, and shape. This method works well when the number of tags defined is small, but performance deteriorates as the dataset grows and the types of tags become more diverse.

텍스트 기반 이미지 검색(TBIR: Text-based Image Retrieval)은 텍스트를 쿼리로 하여 텍스트에 대응되는 이미지를 검색하는 방식이다. 이 방식은 이미지의 시각적 내용이 수동으로 태깅된 텍스트 디스크립터에 의해 표현되며, 데이터셋 관리 시스템에서 이미지 검색을 수행하는데 사용된다. 즉, 기존의 이미지 또는 영상 검색 방식은 사용자가 직접 태깅한 정보를 기반으로 검색이 이루어진다. 또한, 이미지를 통한 사용자 관심 정보 획득 방식도 사용자가 직접 태깅한 정보를 기반으로 획득이 이루어져, 사용자가 영상에 키워드를 잘못 태깅하면 획득 결과가 부정확해지는 문제점이 존재하였다. 또한, 사용자마다 정의하는 키워드에 차이가 존재할 수 있어서, 이미지를 입력하는 사용자가 선택한 키워드에 따라 제공되는 결과가 상이한 문제가 존재하였다.Text-based image retrieval (TBIR) is a method of retrieving an image corresponding to text by using text as a query. In this way, the visual content of an image is represented by a manually tagged text descriptor, and is used to perform image retrieval in a dataset management system. That is, in the existing image or video search method, a search is performed based on information directly tagged by a user. In addition, a method of obtaining user interest information through an image also has a problem in that the acquisition is performed based on information directly tagged by the user, and the acquisition result is inaccurate when the user incorrectly tags a keyword in the image. In addition, since there may be differences in keywords defined for each user, there is a problem in that results provided depending on keywords selected by a user inputting an image are different.

따라서, 태그의 개수 또는 사용자의 개입 없이도 이미지의 특성 및 속성을 추출하여 자동으로 이미지를 검색하거나, 해당 특성 및 속성을 기반으로 이미지를 식별하는 방법 및 장치가 요구되나, 아직까지는 제안되지 못하는 실정이다.Therefore, a method and apparatus for automatically searching an image by extracting the characteristics and attributes of an image without the number of tags or user intervention, or identifying an image based on the corresponding characteristics and attributes are required, but have not yet been proposed. .

한편, 기존의 사용자의 코디를 평가하는 다양한 방법이 제시되고 있다. 그러나 코디의 경우 주관적인 판단이 개입될 수 밖에 없어, 평가하는 프로그램이나 주체에 따라 다른 결과를 제공하게 된다. 즉 일관되지 못한 평가 결과를 제공하는 것이다. 이를 해결하기 위해서는 사용자가 입은 의상 자체의 특성정보를 정확히 추출하고, 해당 정보에 기반하여 코디를 판단하는 것이 필요하다. 그러나 아직까지 의상 자체에 대한 정확하고 일관되는 특성정보를 추출하는 방법이 제시되고 있지 못하다.On the other hand, various methods of evaluating an existing user's coordination have been proposed. However, in the case of Cody, subjective judgment is inevitably involved, and different results are provided depending on the program or subject being evaluated. That is, it provides inconsistent evaluation results. To solve this problem, it is necessary to accurately extract the characteristic information of the clothes worn by the user and determine the coordination based on the information. However, a method for extracting accurate and consistent characteristic information about the clothing itself has not yet been proposed.

대한민국 공개특허공보 제10-2018-0133200호, (2018.12.13)Republic of Korea Patent Publication No. 10-2018-0133200, (2018.12.13)

상술한 바와 같은 문제점을 해결하기 위한 본 발명은 대상체의 특성 정보에 기반한 사용자 코디 추천 장치 및 방법을 제공하는 것이다. To solve the above problems, the present invention provides an apparatus and method for recommending user coordination based on characteristic information of an object.

다만 본 발명이 해결하고자 하는 과제들은 이상에서 언급된 과제로 제한되지 않으며, 언급되지 않은 또 다른 과제들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해될 수 있을 것이다.However, the problems to be solved by the present invention are not limited to the problems mentioned above, and other problems not mentioned will be clearly understood by those skilled in the art from the description below.

상술한 과제를 해결하기 위한 본 발명의 일 면에 따른 대상체 특성 정보에 기반한 사용자 코디 추천 방법은, 서버가 영상데이터 내에 포함된 복수의 대상체 각각을 인식하는 단계, 상기 서버가 딥러닝 기반의 대상체조합평가모델에 기반하여, 상기 복수의 대상체간의 조합을 평가하는 단계 및 상기 서버가 상기 평가 결과를 상기 사용자에게 제공하는 단계를 포함하고, 상기 조합 평가 단계는, 상기 복수의 대상체 각각에 대한 특성정보를 산출하고, 상기 산출된 특성정보를 상기 대상체조합평가모델에 입력하여 상기 복수의 대상체 간의 조합을 평가하는 것이다. A method for recommending user coordination based on object characteristic information according to an aspect of the present invention for solving the above problems includes recognizing, by a server, each of a plurality of objects included in image data; Evaluating a combination between the plurality of objects based on an evaluation model and providing, by the server, the evaluation result to the user, wherein the evaluating the combination includes characteristic information for each of the plurality of objects. and evaluating the combination between the plurality of objects by inputting the calculated characteristic information into the object combination evaluation model.

본 발명의 일 실시예로, 상기 특성정보는 상기 대상체의 복수의 개별외형특성을 포함하고, 상기 조합 평가 단계는, 상기 영상데이터에 포함된 상기 복수의 대상체에 대해 각각의 대상체 유형을 식별하는 단계, 상기 영상데이터를 외형특성 인식모델에 입력하여 각각의 대상체 유형 정보에 대응되는 복수의 외형분류기준에 대한 개별외형특성을 각각의 대상체에 대해 산출하는 단계 및 상기 각각의 대상체의 복수의 개별외형특성을 조합한 데이터를 상기 대상체조합평가모델에 입력하여 상기 대상체 간의 조합을 평가하는 단계를 포함할 수 있다. In one embodiment of the present invention, the characteristic information includes a plurality of individual external appearance characteristics of the object, and the combining evaluation step includes identifying each object type for the plurality of objects included in the image data. inputting the image data into an appearance feature recognition model to calculate individual appearance characteristics for each object for a plurality of appearance classification criteria corresponding to each object type information, and a plurality of individual appearance characteristics of each object and evaluating the combination between the objects by inputting the combined data into the object combination evaluation model.

본 발명의 일 실시예로, 상기 특성정보는 상기 대상체의 추상적특성을 더 포함하고, 상기 조합 평가 단계는 상기 각각의 대상체에 관한 개별외형특성 정보를 추상적특성 인식모델에 입력하여 상기 각각의 대상체의 추상적특성을 산출하는 단계 및 상기 각각의 대상체의 복수의 개별외형특성 및 상기 추상적특성을 조합한 데이터를 상기 대상체조합평가모델에 입력하여 상기 대상체 간의 조합을 평가하는 단계를 포함할 수 있다. In one embodiment of the present invention, the characteristic information further includes abstract characteristics of the target object, and the combination evaluation step inputs the individual appearance characteristic information on each object to an abstract characteristic recognition model to determine the abstract characteristics of each object. The method may include calculating abstract characteristics and evaluating combinations between the objects by inputting a plurality of individual external appearance characteristics of each object and data obtained by combining the abstract characteristics into the object combination evaluation model.

본 발명의 일 실시예로, 상기 조합 평가 단계는, 상기 서버가 상기 복수의 대상체 간의 상기 복수의 개별외형특성 및 상기 추상적특성 각각에 대한 평가값을 산출하고, 상기 평가값이 기 설정된 기준값 미만인 개별외형특성 및 추상적특성의 개수를 산출하고, 상기 개수에 기초하여 상기 복수의 대상체 간의 조합을 평가하는 것일 수 있다. In one embodiment of the present invention, in the combination evaluation step, the server calculates an evaluation value for each of the plurality of individual appearance characteristics and the abstract characteristic between the plurality of objects, and the evaluation value is less than a preset reference value. The number of appearance characteristics and abstract characteristics may be calculated, and a combination between the plurality of objects may be evaluated based on the number of appearance characteristics and abstract characteristics.

본 발명의 일 실시예로, 상기 제공하는 단계는, 상기 서버가 기 설정된 복수의 평가 등급 중 상기 산출된 개수에 해당하는 평가 등급을 나타내는 정보를 사용자에게 제공할 수 있다. In one embodiment of the present invention, in the providing step, the server may provide the user with information indicating evaluation grades corresponding to the calculated number among a plurality of predetermined evaluation grades.

본 발명의 일 실시예로, 상기 제공하는 단계는, 상기 복수의 대상체 중 기준대상체를 선정하고, 상기 기준대상체와 매칭되는 추천대상체의 복수의 개별외형특성 및 추상적특성을 탐색하는 단계 및 상기 개별외형특성 및 추상적특성에 기반한 추천대상체의 정보를 상기 사용자에게 제공하는 단계를 더 포함할 수 있다. In one embodiment of the present invention, the providing step may include selecting a reference object from among the plurality of objects, and searching for a plurality of individual appearance characteristics and abstract characteristics of the recommendation object matching the reference object, and the individual appearance The method may further include providing information on a recommendation target based on characteristics and abstract characteristics to the user.

본 발명의 일 실시예로, 상기 서버가 사용자가 보유한 복수의 대상체의 정보를 획득하는 단계를 더 포함하고, 상기 제공하는 단계는, 상기 사용자가 보유한 대상체 정보 중에서 상기 추천대상체의 복수의 개별외형특성 및 추상적특성에 해당하는 적어도 하나의 대상체 정보를 사용자에게 제공할 수 있다. As an embodiment of the present invention, the server may further include acquiring information on a plurality of objects possessed by the user, and the providing step may include a plurality of individual appearance characteristics of the recommendation object among object information possessed by the user. and at least one object information corresponding to an abstract characteristic may be provided to the user.

본 발명의 일 실시예로, 상기 딥러닝 기반의 대상체조합평가모델은, 서로 다른 대상체 유형에 해당하는 복수의 대상체가 조합된 영상데이터를 기반으로 사전 학습된 것일 수 있다. In an embodiment of the present invention, the deep learning-based object combination evaluation model may be pre-learned based on image data in which a plurality of objects corresponding to different object types are combined.

상술한 과제를 해결하기 위한 본 발명의 다른 면에 따른 대상체의 특성에 기반한 사용자 의상 조합 평가 서버 장치는 하나 이상의 컴퓨터를 포함하며, 상술한 대상체 특성에 기반한 사용자 의상 조합 평가 방법을 실행할 수 있다. A user costume combination evaluation server device based on object characteristics according to another aspect of the present invention for solving the above problems may include one or more computers and execute the above-described user costume combination evaluation method based on object characteristics.

상술한 과제를 해결하기 위한 본 발명의 다른 면에 따른 컴퓨터 프로그램은, 대상체의 특성 정보에 기반한 사용자 코디 추천 방법을 실행하기 위하여 컴퓨터 판독가능 기록 매체에 저장될 수 있다.A computer program according to another aspect of the present invention for solving the above problems may be stored in a computer readable recording medium in order to execute a user coordination recommendation method based on object characteristic information.

이 외에도, 본 발명을 구현하기 위한 다른 방법, 다른 시스템 및 상기 방법을 실행하기 위한 컴퓨터 프로그램을 기록하는 컴퓨터 판독 가능한 기록 매체가 더 제공될 수 있다.In addition to this, another method for implementing the present invention, another system, and a computer readable recording medium recording a computer program for executing the method may be further provided.

상기와 같은 본 발명에 따르면, 사용자의 코디를 평가하고, 평가 결과에 기반하여 사용자에게 적합한 코디를 추천할 수 있다. According to the present invention as described above, a user's coordination may be evaluated, and a coordination suitable for the user may be recommended based on the evaluation result.

한편, 사용자가 착용한 의상에 대한 개별특성인식을 식별하고, 상기 개별특성인식의 정보의 조합을 기반으로, 코디를 평가함으로써 평가 결과에 객관성을 도모한다. On the other hand, by identifying the individual characteristic recognition of the clothes worn by the user and evaluating the coordinates based on the combination of the individual characteristic recognition information, objectivity is sought in the evaluation result.

뿐만 아니라, 개별특성인식을 기반으로 사용자 코디의 추상적특성을 인식하여, 대상체인 의상의 외형적 특징에 기반한 것이 아닌, 대상체로부터 느껴지는 감성에 더 기반하여 조합의 적합함을 평가한다. 이를 통해, 세밀하게 코디를 평가할 수 있을 것이다. In addition, by recognizing the abstract characteristics of the user's coordination based on the recognition of individual characteristics, the suitability of the combination is evaluated more based on the emotion felt from the object, not based on the external features of the object, which is the clothing. Through this, you will be able to evaluate coordination in detail.

또한, 각각의 대상체에 대해 적절한, 즉 매칭되는 추천대상체의 개별외형특성 및 추상적특성을 탐색하여, 사용자에게 적절한 코디를 제안할 수도 있을 것이다. In addition, appropriate coordination for each object may be suggested to the user by searching for individual appearance characteristics and abstract characteristics of the matching recommendation object.

본 발명의 효과들은 이상에서 언급된 효과로 제한되지 않으며, 언급되지 않은 또 다른 효과들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해될 수 있을 것이다.The effects of the present invention are not limited to the effects mentioned above, and other effects not mentioned will be clearly understood by those skilled in the art from the description below.

도 1은 본 발명의 일 실시예에 따른, 대상체의 특성 정보에 기반한 사용자 코디 추천 시스템을 개략적으로 나타낸 예시도이다.
도 2는 본 발명의 일 실시예에 따른, 대상체의 특성 정보에 기반한 사용자 코디 추천 장치의 구성도이다.
도 3은 본 발명의 일 실시예에 따른, 대상체의 특성 정보에 기반한 사용자 코디 추천 방법을 개략적으로 나타낸 순서도이다.
도 4는 본 발명의 일 실시예에 따른, 영상데이터 내 복수의 대상체를 분리하여 인식하는 것을 나타낸 예시도이다.
도 5는 본 발명의 일 실시예에 따른, 개별외형특성의 조합을 기반으로 대상체의 조합을 평가하는 방법을 개략적으로 나타낸 순서도이다.
도 6은 본 발명의 일 실시예에 따른 대상체조합평가모델의 개략적인 구성도이다.
도 7은 본 발명의 일 실시예에 따른, 개별외형특성 및 추삭적특성의 조합을 기반으로 대상체의 조합을 평가하는 방법을 개략적으로 나타낸 순서도이다.
도 8은 본 발명의 일 실시예에 따른, 각 개별 외형 특성에 따라 감성 특성에 대한 점수가 설정된 것을 나타낸 예시도이다.
도 9는 본 발명의 일 실시예에 따른, 서버에 의해 각각의 대상체에 대한 개별외형특성을 산출하고, 대상체 조합 전체에 대한 추상적특성을 산출한 것을 나타낸 예시도이다.
도 10은 본 발명의 일 실시예에 따른, 사용자에게 대상체 조합 평가 결과를 제공하는 것을 나타낸 예시도이다.
도 11은 본 발명의 일 실시예에 따른, 기준대상체에 대한 추천대상체를 추천하는 방법을 개략적으로 나타낸 순서도이다.
도 12는 본 발명의 일 실시예에 따른, 기준대상체에 대한 추천대상체를 추천하는 것을 나타낸 예시도이다.
1 is an exemplary view schematically illustrating a user coordination recommendation system based on characteristic information of an object according to an embodiment of the present invention.
2 is a configuration diagram of an apparatus for recommending user coordination based on property information of an object according to an embodiment of the present invention.
3 is a flowchart schematically illustrating a user coordination recommendation method based on property information of an object according to an embodiment of the present invention.
4 is an exemplary view illustrating separating and recognizing a plurality of objects in image data according to an embodiment of the present invention.
5 is a flowchart schematically illustrating a method of evaluating a combination of objects based on a combination of individual appearance characteristics according to an embodiment of the present invention.
6 is a schematic configuration diagram of a subject combination evaluation model according to an embodiment of the present invention.
7 is a flowchart schematically illustrating a method of evaluating a combination of objects based on a combination of individual appearance characteristics and tracking characteristics according to an embodiment of the present invention.
8 is an exemplary diagram illustrating that scores for emotional characteristics are set according to individual external appearance characteristics according to an embodiment of the present invention.
9 is an exemplary view illustrating that individual external appearance characteristics for each object are calculated by a server and abstract characteristics for the entire object combination are calculated according to an embodiment of the present invention.
10 is an exemplary diagram illustrating providing a user with an object combination evaluation result according to an embodiment of the present invention.
11 is a flowchart schematically illustrating a method of recommending a recommendation object for a reference object according to an embodiment of the present invention.
12 is an exemplary view illustrating recommending a recommendation target for a reference target according to an embodiment of the present invention.

본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나, 본 발명은 이하에서 개시되는 실시예들에 제한되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하고, 본 발명이 속하는 기술 분야의 통상의 기술자에게 본 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다.Advantages and features of the present invention, and methods of achieving them, will become clear with reference to the detailed description of the following embodiments taken in conjunction with the accompanying drawings. However, the present invention is not limited to the embodiments disclosed below, but may be implemented in various different forms, only these embodiments are intended to complete the disclosure of the present invention, and are common in the art to which the present invention belongs. It is provided to fully inform the person skilled in the art of the scope of the invention, and the invention is only defined by the scope of the claims.

본 명세서에서 사용된 용어는 실시예들을 설명하기 위한 것이며 본 발명을 제한하고자 하는 것은 아니다. 본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함한다. 명세서에서 사용되는 "포함한다(comprises)" 및/또는 "포함하는(comprising)"은 언급된 구성요소 외에 하나 이상의 다른 구성요소의 존재 또는 추가를 배제하지 않는다. 명세서 전체에 걸쳐 동일한 도면 부호는 동일한 구성 요소를 지칭하며, "및/또는"은 언급된 구성요소들의 각각 및 하나 이상의 모든 조합을 포함한다. 비록 "제1", "제2" 등이 다양한 구성요소들을 서술하기 위해서 사용되나, 이들 구성요소들은 이들 용어에 의해 제한되지 않음은 물론이다. 이들 용어들은 단지 하나의 구성요소를 다른 구성요소와 구별하기 위하여 사용하는 것이다. 따라서, 이하에서 언급되는 제1 구성요소는 본 발명의 기술적 사상 내에서 제2 구성요소일 수도 있음은 물론이다.Terminology used herein is for describing the embodiments and is not intended to limit the present invention. In this specification, singular forms also include plural forms unless specifically stated otherwise in a phrase. As used herein, "comprises" and/or "comprising" does not exclude the presence or addition of one or more other elements other than the recited elements. Like reference numerals throughout the specification refer to like elements, and “and/or” includes each and every combination of one or more of the recited elements. Although "first", "second", etc. are used to describe various components, these components are not limited by these terms, of course. These terms are only used to distinguish one component from another. Accordingly, it goes without saying that the first element mentioned below may also be the second element within the technical spirit of the present invention.

다른 정의가 없다면, 본 명세서에서 사용되는 모든 용어(기술 및 과학적 용어를 포함)는 본 발명이 속하는 기술분야의 통상의 기술자에게 공통적으로 이해될 수 있는 의미로 사용될 수 있을 것이다. 또한, 일반적으로 사용되는 사전에 정의되어 있는 용어들은 명백하게 특별히 정의되어 있지 않는 한 이상적으로 또는 과도하게 해석되지 않는다.Unless otherwise defined, all terms (including technical and scientific terms) used in this specification may be used with meanings commonly understood by those skilled in the art to which the present invention belongs. In addition, terms defined in commonly used dictionaries are not interpreted ideally or excessively unless explicitly specifically defined.

이하, 첨부된 도면을 참조하여 본 발명의 실시예를 상세하게 설명한다.Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings.

설명에 앞서 본 명세서에서 사용하는 용어의 의미를 간략히 설명한다. 그렇지만 용어의 설명은 본 명세서의 이해를 돕기 위한 것이므로, 명시적으로 본 발명을 한정하는 사항으로 기재하지 않은 경우에 본 발명의 기술적 사상을 한정하는 의미로 사용하는 것이 아님을 주의해야 한다.Prior to the description, the meaning of the terms used in this specification will be briefly described. However, it should be noted that the description of terms is intended to help the understanding of the present specification, and is not used in the sense of limiting the technical spirit of the present invention unless explicitly described as limiting the present invention.

본 명세서에서 '컴퓨터'는 연산처리를 수행하여 사용자에게 결과를 제공할 수 있는 다양한 장치들이 모두 포함된다. 예를 들어, 컴퓨터는 데스크 탑 PC, 노트북(Note Book) 뿐만 아니라 스마트폰(Smart phone), 태블릿 PC, 셀룰러폰(Cellular phone), 피씨에스폰(PCS phone; Personal Communication Service phone), 동기식/비동기식 IMT-2000(International Mobile Telecommunication-2000)의 이동 단말기, 팜 PC(Palm Personal Computer), 개인용 디지털 보조기(PDA; Personal Digital Assistant) 등도 해당될 수 있다. 또한, 헤드마운트 디스플레이(Head Mounted Display; HMD) 장치가 컴퓨팅 기능을 포함하는 경우, HMD장치가 컴퓨터가 될 수 있다. 또한, 컴퓨터는 클라이언트로부터 요청을 수신하여 정보처리를 수행하는 서버(10)가 해당될 수 있다. 이때, 서버(10)는 사용자에 관한 영상데이터를 기반으로, 사용자의 코디를 평가하고 적합한 코디를 추천하는 서비스를 제공하는 업체의 서버 컴퓨터일 수 있다. In this specification, 'computer' includes all various devices that can perform calculation processing and provide results to users. For example, a computer includes not only a desktop PC and a notebook (Note Book) but also a smart phone, a tablet PC, a cellular phone, a PCS phone (Personal Communication Service phone), synchronous/asynchronous A mobile terminal of IMT-2000 (International Mobile Telecommunication-2000), a Palm Personal Computer (Palm PC), and a Personal Digital Assistant (PDA) may also be applicable. In addition, when a Head Mounted Display (HMD) device includes a computing function, the HMD device may become a computer. In addition, the computer may correspond to the server 10 that receives a request from a client and performs information processing. In this case, the server 10 may be a server computer of a company that provides a service of evaluating a user's coordination and recommending a suitable coordination based on the image data of the user.

본 명세서에서 '대상체'는 상세 설명 정보를 생성하고자 하는 대상으로서, 특정한 분류 또는 카테고리의 물품을 의미한다. In the present specification, 'object' is an object for which detailed description information is to be generated, and refers to an article of a specific classification or category.

본 명세서에서 '영상데이터'는 특정한 대상체를 포함하는 2차원 또는 3차원의 정적 또는 동적 이미지를 의미한다. 즉, '영상데이터'는 하나의 프레임인 정적 영상데이터일 수도 있고, 복수의 프레임이 연속되는 동적 영상데이터(즉, 동영상데이터)일 수도 있다. 보다 바람직하게는, 특정한 대상체를 착용한 사용자에 관한 2차원 또는 3차원의 정적 또는 동적 이미지일 수 있다. 예를 들어, 대상체가 "후드티"와 "반바지"라고 가정하였을 때, 영상데이터는 "후드티" 및 "반바지"를 착용한 사용자에 관한 이미지일 수 있다. In this specification, 'image data' means a 2D or 3D static or dynamic image including a specific object. That is, 'image data' may be static image data of one frame or dynamic image data (ie, video data) of a plurality of consecutive frames. More preferably, it may be a 2D or 3D static or dynamic image of a user wearing a specific object. For example, assuming that the target objects are "hoodie" and "shorts", the image data may be an image of a user wearing "hoodie" and "shorts".

본 명세서에서 "클라이언트"는 사용자들이 프로그램(또는 어플리케이션)을 설치하여 사용할 수 있는 통신 기능을 포함한 모든 장치를 말한다. 즉, 클라이언트 장치는 스마트폰, 태블릿, PDA, 랩톱, 스마트워치, 스마트카메라등과 같은 전기 통신 장치, 리모트 콘트롤러 중 하나 이상을 포함할 수 있으나, 이에 제한되는 것은 아니다.In this specification, a "client" refers to any device including a communication function that users can install and use a program (or application). That is, the client device may include one or more of telecommunication devices such as smart phones, tablets, PDAs, laptops, smart watches, smart cameras, and the like, and remote controllers, but is not limited thereto.

본 명세서에서 '전문가 클라이언트(30)'는 학습용 영상 데이터에 개별 외형 특성을 부여(즉, 학습용 영상데이터의 레이블링(Lableing))하거나, 입력 영상 데이터에 미학습 외형분류기준 내의 개별 외형 특성을 부여하는 역할을 수행하는 전문가의 클라이언트를 의미한다.In the present specification, the 'expert client 30' assigns individual appearance characteristics to image data for learning (ie, labeling of image data for learning) or assigns individual appearance characteristics within unlearned appearance classification criteria to input image data A client of an expert performing a role.

본 명세서에서 '학습용 영상 데이터'는 학습모델의 트레이닝에 이용되는 영상데이터를 의미한다.In this specification, 'video data for learning' refers to image data used for training of a learning model.

본 명세서에서 '외형 분류 기준'은 특정한 대상체의 외형을 서술(description)하거나 주석 삽입(annotation)을 위해 필요한 외형 표현의 분류 기준을 의미한다. 즉, '외형 분류 기준'은 특정한 대상체의 외형을 서술하기 위한 특정한 분류 기준으로서, 상기 대상체의 동일한 분류 기준 내의 다양한 외형 특성을 표현하는 복수의 개별 외형 특성을 포함한다. In the present specification, 'appearance classification criteria' refers to classification criteria for appearance expressions necessary for describing the appearance of a specific object or inserting annotations. That is, the 'appearance classification criterion' is a specific classification criterion for describing the external appearance of a specific target object, and includes a plurality of individual external appearance characteristics expressing various external appearance characteristics within the same classification criterion of the target object.

예를 들어, 대상체가 의류인 경우, 외형 분류 기준은 의류의 외형에 대한 분류 기준으로, 패턴(Pattern), 색상(Color), 핏(fit), 기장(Length) 등이 해당될 수 있다. 즉, 특정한 대상체에 대해 외형 분류 기준이 많아지면, 대상체에 속하는 특정한 물품의 외형을 상세히 기술할 수 있다.For example, when the object is clothing, the appearance classification criterion is a classification criterion for the outer appearance of the clothing, and may correspond to a pattern, color, fit, length, and the like. That is, if the appearance classification criteria for a specific object increase, the appearance of a specific article belonging to the object may be described in detail.

본 명세서에서 '개별 외형 특성'은 특정한 외형 분류 기준 내에 포함되는 다양한 특성을 의미한다. 예를 들어, 외형 분류 기준이 색상인 경우, 개별 외형 특성은 다양한 개별 색상을 의미한다.In the present specification, 'individual appearance characteristics' means various characteristics included in a specific appearance classification criterion. For example, when the appearance classification criterion is color, individual appearance characteristics refer to various individual colors.

본 명세서에서 '추상적 특성'은 특정한 대상체에 대해 부여되는 추상적인 특성을 의미한다. 예를 들어, '추상적 특성'은 특정한 대상체에 대한 감성적 특성(예를 들어, 의류인 경우, 빈티지와 같은 감성적 또는 유행적 표현)일 수 있다. 또한, 예를 들어, '추상적 특성'은, 영상데이터가 동영상인 경우, 형상 변화 또는 동작의 의미일 수 있다.In this specification, an 'abstract characteristic' means an abstract characteristic given to a specific object. For example, the 'abstract characteristic' may be an emotional characteristic (eg, in the case of clothing, emotional or fashionable expression such as vintage) for a specific object. Also, for example, 'abstract characteristics' may mean a shape change or motion when the image data is a video.

도 1은 본 발명의 일 실시예에 따른, 대상체의 특성 정보에 기반한 사용자 코디 추천 시스템을 개략적으로 나타낸 예시도이다. 1 is an exemplary view schematically illustrating a user coordination recommendation system based on characteristic information of an object according to an embodiment of the present invention.

도 2는 본 발명의 일 실시예에 따른, 대상체의 특성 정보에 기반한 사용자 코디 추천 장치의 구성도이다. 2 is a configuration diagram of an apparatus for recommending user coordination based on property information of an object according to an embodiment of the present invention.

도 1을 참조하면, 대상체의 특성 정보에 기반한 사용자 코디 추천 시스템은 서버(10) 및 사용자 단말기(20)를 포함한다. Referring to FIG. 1 , a user coordination recommendation system based on object property information includes a server 10 and a user terminal 20 .

도 2를 참조하면, 서버는 통신부(110), 메모리(120), 대상체조합평가부(130) 및 제어부(140)를 포함한다. Referring to FIG. 2 , the server includes a communication unit 110, a memory 120, an object combination evaluation unit 130, and a control unit 140.

도 1을 참조하면, 서버(10)는 통신부(110), 메모리(120), 대상체조합평가부(130) 및 제어부(140)를 포함할 수 있으며, 각 구성요소를 통해 시스템의 각 프로세스를 수행한다. 다만, 서버(10)는 도 1에 도시된 구성요소보다 더 적은 수의 구성요소나 더 많은 구성요소를 포함할 수도 있다.Referring to FIG. 1 , the server 10 may include a communication unit 110, a memory 120, an object combination evaluation unit 130, and a control unit 140, and each process of the system is performed through each component. do. However, the server 10 may include fewer or more components than those shown in FIG. 1 .

통신부(110)는 서버(10)와 사용자 단말기(20) 사이의 무선통신을 가능하게 하는 하나 이상의 모듈을 포함할 수 있다. 또한, 상기 통신부(110)는 서버(10)를 하나 이상의 네트워크에 연결하는 하나 이상의 모듈을 포함할 수 있다.The communication unit 110 may include one or more modules enabling wireless communication between the server 10 and the user terminal 20 . Also, the communication unit 110 may include one or more modules that connect the server 10 to one or more networks.

한편, 통신부(110)은 서버(10) 및 사용자 단말기(20) 간의 다양한 정보를 송수신할 수 있다. 통신부(110)은 다양한 형태의 통신망을 이용할 수 있으며, 예컨대, WLAN(Wireless LAN), 와이파이(Wi-Fi), 와이브로(Wibro), 와이맥스(Wimax), HSDPA(High Speed Downlink Packet Access) 등의 무선 통신방식 또는 이더넷(Ethernet), xDSL(ADSL, VDSL), HFC(Hybrid Fiber Coax), FTTC(Fiber to The Curb), FTTH(Fiber To The Home) 등의 유선 통신방식이 이용될 수 있다. Meanwhile, the communication unit 110 may transmit and receive various types of information between the server 10 and the user terminal 20 . The communication unit 110 may use various types of communication networks, for example, wireless LANs such as WLAN (Wireless LAN), Wi-Fi, Wibro, Wimax, and High Speed Downlink Packet Access (HSDPA). A wired communication method such as communication method or Ethernet, xDSL (ADSL, VDSL), HFC (Hybrid Fiber Coax), FTTC (Fiber to The Curb), FTTH (Fiber To The Home) may be used.

한편, 도 3, 도 6 및 도 10에 도시된 단계들은 사용자의 코디를 평가하고 적합한 코디를 추천하는 서비스를 제공하는 업체에 의해 운영되는 장치에 의해 수행되는 것으로 이해될 수 있지만, 이에 제한되는 것은 아니다. 한편, 상술한 장치는 서버(이하, 서버) 컴퓨터에 해당할 수 있다. Meanwhile, the steps shown in FIGS. 3, 6, and 10 may be understood to be performed by a device operated by a company that provides a service that evaluates a user's coordination and recommends a suitable coordination, but is not limited thereto. no. Meanwhile, the above-described device may correspond to a server (hereinafter referred to as server) computer.

본 명세서에서는, 설명의 편의를 위해 "대상체"에 대해 "의류"를 예를 들어 설명하지만 상기 대상체에는 목걸이, 시계, 운동화, 모자, 안경 등과 같은 패션 잡화를 포함됨은 통상의 기술자 또한 명확하게 이해할 수 있다. In the present specification, “clothing” is described as an example for “object” for convenience of description, but the object includes fashion accessories such as necklaces, watches, sneakers, hats, and glasses, which can be clearly understood by those skilled in the art. there is.

한편, 사용자 단말기(20)는 "의류"를 착용한 사용자의 촬영하여 영상데이터를 생성하는 디바이스를 의미한다. 보다 구체적으로, 도면에 명확히 도시되지는 않았으나, 사용자 단말기(20)는 사용자에 대한 영상데이터를 생성하는, 카메라모듈, 제어부를 포함하며, 생성된 영상데이터를 서버에 송신하고, 서버로부터 사용자에 관한 정보를 수신하는 통신부를 포함한다. 또한, 서버로부터 수신한 정보를 표시하는 출력부 또는/및 디스플레이부를 포함한다. 이때 상기 디스플레이부는, 멀티 터치 센서 모듈 레이어을 포함하여, 입력부의 역할을 통시에 수행할 수도 있을 것이다. Meanwhile, the user terminal 20 refers to a device that generates image data by photographing a user wearing "clothing". More specifically, although not clearly shown in the drawing, the user terminal 20 includes a camera module and a control unit that generate image data for the user, transmits the generated image data to the server, and from the server to the user. Includes a communication unit for receiving information. In addition, it includes an output unit or/and a display unit for displaying the information received from the server. At this time, the display unit, including the multi-touch sensor module layer, may simultaneously perform the role of the input unit.

사용자 단말기(20)로는, 예를 들어 대상체의 특성정보에 기반한 사용자 코디 평가 프로그램(또는 어플리케이션)을 설치하여 사용할 수 있는 통신 기능을 포함한 모든 장치를 의미한다. 즉, 스마트 거울, 스마트폰, 태블릿, PDA, 랩톱, 스마트 워치, 스마트카메라 등과 같은 전기 통신 장치, 리모트 콘트롤러 중 하나 이상을 포함할 수 있으나, 이에 제한되는 것은 아니다. The user terminal 20 refers to any device including a communication function capable of installing and using a user coordination evaluation program (or application) based on characteristic information of an object, for example. That is, it may include one or more of telecommunication devices such as smart mirrors, smart phones, tablets, PDAs, laptops, smart watches, smart cameras, and remote controllers, but is not limited thereto.

한편, 본 발명의 설명의 편의를 위해, 본 명세서에서의 "사용자 단말기"는 최근 의류를 판매하는 매장에서 사용하고 있는 "스마트 거울"을 예를 들어 설명한다.On the other hand, for convenience of description of the present invention, a "user terminal" in this specification describes a "smart mirror" recently used in a store selling clothes as an example.

도 3은 본 발명의 일 실시예에 따른, 대상체의 특성 정보에 기반한 사용자 코디 추천 방법을 개략적으로 나타낸 순서도이다. 도 4는 본 발명의 일 실시예에 따른, 영상데이터 내 복수의 대상체를 분리하여 인식하는 것을 나타낸 예시도이다.3 is a flowchart schematically illustrating a user coordination recommendation method based on property information of an object according to an embodiment of the present invention. 4 is an exemplary view illustrating separating and recognizing a plurality of objects in image data according to an embodiment of the present invention.

먼저 도 3을 참조하면, 서버는 영상데이터 내에 포함된 복수의 대상체 각각을 인식한다(S410). 서버는 사용자 단말기로부터 사용자에 관한 영상데이터를 통신부를 통해 획득한다. 그리고 서버는 해당 영상데이터 내 복수의 대상체를 인식한다. 예를 들어, 대상체가 의류에 해당할 경우, 서버는 사용자가 착용하고 있는 의류를 상의와 하의로 분리하여 인식할 수 있을 것이다. 물론, 상술한 바와 같이, 대상체는 시계, 모자, 운동화 등과 같은 패션잡화를 포함하므로, 사용자가 신발을 함께 착용하고 있는 경우에는 신발 역시 분리하여 인식할 수 있다. First, referring to FIG. 3 , the server recognizes each of a plurality of objects included in image data (S410). The server acquires image data about the user from the user terminal through a communication unit. And the server recognizes a plurality of objects in the corresponding image data. For example, if the object corresponds to clothing, the server may separate and recognize the clothing worn by the user as upper and lower garments. Of course, as described above, since the target object includes fashion accessories such as a watch, a hat, and sneakers, when the user is wearing shoes together, the shoes may also be separately recognized.

한편, 서버가 영상데이터 내에 포함된 복수의 대상체 각각을 인식(S410)한 후에는 서버가 딥러닝 기반의 대상체조합평가모델에 기반하여, 상기 복수의 대상체간의 조합을 평가한다(S420).Meanwhile, after the server recognizes each of a plurality of objects included in the image data (S410), the server evaluates a combination between the plurality of objects based on a deep learning-based object combination evaluation model (S420).

상기 S410단계에서의 영상데이터 내 복수의 대상체를 분리하여 인식하는 과정은 딥러닝 기반의 대상체조합평가모델을 통한 대상체간의 조합을 평가하는 일련의 과정에서 수행될 수 있다. 즉, 딥러닝 기반의 대상체조합평가모델에 영상데이터를 입력하면, 영상데이터 내 복수의 대상체를 분리하여 인식한 후 해당 대상체간의 조합을 평가할 수 있을 것이다. The process of separating and recognizing a plurality of objects in the image data in step S410 may be performed in a series of processes of evaluating combinations between objects through a deep learning-based object combination evaluation model. That is, if image data is input to the deep learning-based object combination evaluation model, a plurality of objects in the image data can be separated and recognized, and then combinations between the objects can be evaluated.

한편, 조합 평가 단계(S420)는, 복수의 대상체 각각에 대한 특성정보를 산출하고, 산출된 특성정보를 상기 대상체조합평가모델에 입력하여 상기 복수의 대상체 간의 조합을 평가한다. Meanwhile, in the combination evaluation step (S420), characteristic information for each of a plurality of objects is calculated, and a combination between the plurality of objects is evaluated by inputting the calculated characteristic information to the object combination evaluation model.

각각의 대상체, 예를 들어 후드티(대상체 1)과 슬랙스(대상체 2)에 관한 각각의 특성정보를 산출하고, 해당 특성정보를 조합하였을 때, 사용자의 코디가 적절한지 여부를 판단한다. 동일한 유형에 속하는 의상이더라도 의류의 색상, 패턴, 소재 등에 따라서 조합에 대한 평가가 달라질 수 밖에 없다. 따라서 서버는 각각의 대상체에 대한 특성정보를 추출하고, 추출된 특성정보의 조합이 적절한지 여부를 판단하는 것이다. Each characteristic information about each object, for example, a hoodie (object 1) and slacks (object 2) is calculated, and when the corresponding characteristic information is combined, it is determined whether the user's coordination is appropriate. Even if clothes belong to the same type, the evaluation of the combination is inevitably different depending on the color, pattern, material, etc. of the clothes. Accordingly, the server extracts characteristic information for each object and determines whether a combination of the extracted characteristic information is appropriate.

다시 도 3을 참조하면, 서버는 대상체의 조합이 적절한지 여부를 판단한 후 평가 결과를 상기 사용자에게 제공한다(S430). 이때, 서버는 평가 결과에 기반하여, 사용자에게 적절한 대상체 조합을 추천할 수도 있을 것이다. 이에 대해서는 자세히 후술하도록 한다. Referring back to FIG. 3 , the server determines whether the combination of objects is appropriate and then provides the evaluation result to the user (S430). In this case, the server may recommend an appropriate object combination to the user based on the evaluation result. This will be described later in detail.

한편, 이하에서는, 대상체 조합의 평가하는 구체적인 방법에 대해 설명하도록 한다. Meanwhile, hereinafter, a specific method for evaluating a combination of objects will be described.

도 5는 본 발명의 일 실시예에 따른, 개별외형특성의 조합을 기반으로 대상체의 조합을 평가하는 방법을 개략적으로 나타낸 순서도이다. 도 6은 본 발명의 일 실시예에 따른 대상체조합평가모델의 개략적인 구성도이다. 5 is a flowchart schematically illustrating a method of evaluating a combination of objects based on a combination of individual appearance characteristics according to an embodiment of the present invention. 6 is a schematic configuration diagram of a subject combination evaluation model according to an embodiment of the present invention.

먼저, 상술한 각각의 대상체의 특성정보는 대상체의 복수의 개별외형특성을 포함한다. 서버는 복수의 대상체 조합을 평가하기 위해, 영상데이터에 포함된 상기 복수의 대상체에 대해 각각의 대상체 유형을 식별한다(S421). First, the above-described characteristic information of each object includes a plurality of individual external appearance characteristics of the object. In order to evaluate a plurality of object combinations, the server identifies object types for each of the plurality of objects included in the image data (S421).

구체적으로, 서버는 스마트 거울로부터 획득한 사용자에 대한 영상데이터 내 복수의 대상체의 각각의 대상체 유형을 식별한다. 즉, 영상데이터에 포함된 대상체의 특정한 분류 또는 카테고리인 대상체 유형 정보를 산출한다. 이때, 본 발명의 일 실시예로, 상기 대상체 유형을 식별하는 과정은, 딥러닝 기반의 대상체조합평가모델에 영상데이터를 입력하여 수행될 수 있다. 이를 위해, 딥러닝 기반의 대상체조합평가모델에는 대상체 유형을 식별하는 모듈을 더 포함할 수도 있다. 예를 들어, 도 5를 참조하면, 서버가 사용자로부터 획득한 영상데이터 내에서 사용자가 착용하고 있는 각각의 대상체를 분리하여 식별함과 동시에 각각의 대상체의 유형 또한 식별한다. Specifically, the server identifies each object type of a plurality of objects in the image data of the user obtained from the smart mirror. That is, object type information, which is a specific classification or category of objects included in the image data, is calculated. At this time, according to an embodiment of the present invention, the process of identifying the object type may be performed by inputting image data to a deep learning-based object combination evaluation model. To this end, the deep learning-based object combination evaluation model may further include a module for identifying the object type. For example, referring to FIG. 5 , the server separates and identifies each object worn by the user within image data obtained from the user and simultaneously identifies the type of each object.

한편, 본 발명의 일 실시예에서, 상기 대상체 유형정보는, 미리 설정된 대상체 유형 분류에 기초하여 산출될 수 있다. 예를 들어, 상위 유형 분류가 의류, 액세서리, 신발 등으로 설정되고, 상위 유형 중 의류에 대한 하위 유형 분류가 '셔츠&블라우스', '자켓', '코트', '바지', '치마', '레깅스&스타킹', '원피스'의 7개로 설정된 경우, 의류에 대한 영상데이터가 입력되면 상기 대상체유형 인식모델은 의류에 대한 7개의 하위유형 중에서 대상체 유형 정보를 산출할 수 있다.Meanwhile, in one embodiment of the present invention, the object type information may be calculated based on a preset object type classification. For example, the upper type classification is set to clothing, accessories, shoes, etc., and the sub-type classification for clothing among the upper types is 'Shirt&Blouse', 'Jacket', 'Coat', 'Pants', 'Skirt', When set to 7 of 'leggings & stockings' and 'one piece', when image data of clothing is input, the object body type recognition model may calculate object type information among the 7 subtypes of clothing.

다시 도 5를 참조하면, 서버는 영상데이터를 외형특성 인식모델에 입력하여 각각의 대상체 유형 정보에 대응되는 복수의 외형분류기준에 대한 개별외형특성을 각각의 대상체에 대해 산출한다(S422). Referring back to FIG. 5 , the server calculates individual appearance characteristics for each object based on a plurality of appearance classification criteria corresponding to each object type information by inputting the image data to the appearance feature recognition model (S422).

이를 위해 상기 딥러닝 기반의 대상체조합평가모델은 개별외형특성인식 모듈을 더 포함할 수 있다. 개별외형특성인식 모듈은 상이한 외형 분류 기준을 판단하는 복수의 개별 특성 인식 모듈을 포함한다. 즉, 대상체조합평가모델은 각각의 외형 분류 기준을 인식하는 것으로 특화된 복수의 개별 특성 인식 모듈을 포함한다. 특정한 대상체의 외형 분류 기준이 많을수록, 서버는 다수의 개별 특성 인식 모듈을 외형 특성 인식 모델 내에 포함한다. 상기 개별 특성 인식 모듈은 영상 데이터의 특정한 외형 분류 기준에 포함된 개별 외형 특성을 산출하는 것이다.To this end, the deep learning-based object combination evaluation model may further include an individual appearance feature recognition module. The individual appearance feature recognition module includes a plurality of individual feature recognition modules for determining different appearance classification criteria. That is, the object combination evaluation model includes a plurality of individual feature recognition modules specialized in recognizing each appearance classification criterion. As the number of criteria for classifying the appearance of a specific object increases, the server includes a plurality of individual feature recognition modules in the external feature recognition model. The individual feature recognition module calculates individual appearance characteristics included in specific appearance classification criteria of image data.

이때, 각각의 대상체에 대한 각 외형특성 인식모델은 특정한 개별특성인식모듈을 공유하여 사용할 수 있다. 예를 들어, 개별특성인식모듈이 색상 인식을 수행하는 경우, 대상체 유형에 무관하게 동일하게 색상인식모듈은 범용적으로 사용될 수 있으므로, 서버(10)는 대상체 별로 구별되는 복수의 외형특성 인식모델(100)에서 범용 색상인식모듈을 사용할 수 있다.At this time, each external feature recognition model for each object may be used by sharing a specific individual feature recognition module. For example, when the individual feature recognition module performs color recognition, since the color recognition module can be used universally regardless of the type of object, the server 10 provides a plurality of external feature recognition models differentiated for each object ( 100), a general-purpose color recognition module can be used.

한편, 각각의 대상체에 대한 외형분류기준에 대한 개별외형특성 산출한(S422) 이후 각각의 대상체의 복수의 개별외형특성을 조합한 데이터를 상기 대상체조합평가모델에 입력하여 상기 대상체 간의 조합을 평가한다(S423). Meanwhile, after calculating the individual appearance characteristics for the appearance classification criteria for each object (S422), data combining a plurality of individual appearance characteristics of each object is input into the object combination evaluation model to evaluate the combination between the objects. (S423).

구체적으로, 도 4를 참조하면, 서버는 영상데이터 내 복수의 대상체의 유형을 각각 후드티 및 트레이닝바지로 식별한다. 그리고 후드티 및 트레이닝바지 각각에 대한 외형분류기준에 대한 개별외형특성을 산출한다. 예를 들어, 개별외형특성이 색상, 패턴, 소재라고 가정한다면, 후드티는 회색, 무지, 면으로 트레이닝바지는 검정색, 체크, 면으로 각각의 개별외형특성이 산출될 수 있을 것이다. 그리고, 후드티와 트레이닝바지의 개별외형특성을 조합한 데이터를 대상체조합평가모델에 입력하여 대상체 간의 조합을 평가한다. 이때, 대상체조합평가모델에는, 산출된 각각의 개별외형특성을 조합한 정보가 입력된다. 즉, 상술한 예를 참조하면, "후드티-회색-무지-면 및 트레이닝바지-검정색-체크-면"을 조합한 정보가 상기 대상체조합평가모델에 입력되게 될 것이다. 이를 위해, 상기 딥러닝 기반의 대상체조합평가모델은 복수의 대상체의 개별외형특성의 조합 데이터를 하나의 데이터 셋으로 기 학습된 모델일 수 있다. 이에 대해서는 자세히 후술하도록 한다. Specifically, referring to FIG. 4 , the server identifies the types of a plurality of objects in image data as hoodies and training pants, respectively. Then, the individual appearance characteristics for the appearance classification criterion for each hoodie and training pants are calculated. For example, assuming that the individual external characteristics are color, pattern, and material, the individual external characteristics can be calculated as gray, plain, and cotton for hoodies and black, check, and cotton for training pants. In addition, data combining the individual appearance characteristics of the hoodie and the training pants are input into the object combination evaluation model to evaluate the combination between the objects. At this time, information in which the calculated individual appearance characteristics are combined is input to the object combination evaluation model. That is, referring to the above-described example, information combining "hoodie-grey-plain-cotton and training pants-black-check-cotton" will be input to the subject combination evaluation model. To this end, the deep learning-based object combination evaluation model may be a pre-learned model using combination data of individual appearance characteristics of a plurality of objects as one data set. This will be described later in detail.

한편, 상술한 바와 같이 각각의 대상체는 대상체 유형에 따라 외형분류기준이 상이할 수 있으며, 그에 따라 개별외형특성 또한 상이할 수 있다. 예를 들어, 상의의 경우 카라&네크라인에 관한 개별외형특성이 산출될 수도 있으나, 하의의 경우 이러한 개별외형특성이 산출될 수 없다. 따라서, 본 발명의 일 실시예로, 서버는 동일한 개별외형특성에 한하여 대상체 조합을 평가할 수 있다. 즉, 패턴, 소재, 색상과 같이 서로 다른 대상체 유형의 경우에도 산출이 가능한 개별외형특성에 한하여 조합의 적절성을 평가한다.Meanwhile, as described above, each object may have different appearance classification criteria depending on the object type, and accordingly, individual external appearance characteristics may also be different. For example, in the case of a top, individual appearance characteristics related to the collar and neckline may be calculated, but in the case of a bottom, such individual appearance characteristics cannot be calculated. Accordingly, according to an embodiment of the present invention, the server may evaluate a combination of objects only for the same individual appearance characteristics. That is, the suitability of the combination is evaluated only for individual external appearance characteristics that can be calculated even for different types of objects, such as patterns, materials, and colors.

한편, 본 발명의 일 실시예로, 특성정보는 상기 대상체의 추상적특성을 더 포함할 수 있다. 즉, 외형적 특성에 한하여 대상체 조합을 평가하는 것이 아니라, 각각의 대상체에 대한 사용자의 감성적 특성을 더 고려하여 대상체의 조합을 평가하는 것이다. 이하, 개별외형특성과 더불어 추상적특성에 기반하여 대상체의 조합을 평가하는 구체적인 방법에 대해 설명한다. Meanwhile, as an embodiment of the present invention, the characteristic information may further include abstract characteristics of the target object. That is, the combination of objects is evaluated in consideration of the user's emotional characteristics for each object, rather than evaluating the combination of objects only in terms of external characteristics. Hereinafter, a specific method for evaluating a combination of objects based on abstract characteristics together with individual appearance characteristics will be described.

도 7은 본 발명의 일 실시예에 따른, 개별외형특성 및 추삭적특성의 조합을 기반으로 대상체의 조합을 평가하는 방법을 개략적으로 나타낸 순서도이다. 7 is a flowchart schematically illustrating a method of evaluating a combination of objects based on a combination of individual appearance characteristics and tracking characteristics according to an embodiment of the present invention.

먼저, 도 7을 참조하면, 서버는 복수의 대상체의 조합을 평가하기 위해, 각각의 대상체에 관한 개별외형특성 정보를 추상적특성 인식모델에 입력하여 상기 각각의 대상체의 추상적특성을 산출한다(S424). 이를 위해 딥러닝 기반의 대상체조합평가 모델은 추상적특성 인식 모듈을 더 포함할 수 있다. First, referring to FIG. 7 , in order to evaluate a combination of a plurality of objects, the server calculates the abstract characteristics of each object by inputting individual appearance characteristic information about each object into an abstract feature recognition model (S424). . To this end, the deep learning-based object combination evaluation model may further include an abstract feature recognition module.

한편, 본 발명의 일 실시예에서, 서버는 복수의 개별 외형 특성뿐만 아니라 대상체 유형 정보를 더 포함하여 상기 추상적 특성 인식 모델에 입력할 수 있으며, 개별 외형 특성 또는 대상체 유형 정보가 조합된 외형 서술 데이터의 형태로 입력할 수 있다. 즉, 본 발명에 따르면 이미지와 같은 영상데이터 자체가 아닌, 영상 데이터로부터 식별된 외형 서술 데이터를 기초로 추상적 특성을 산출함에 따라, 데이터의 효율적인 처리 및 객관적인 추상적특성 산출이 가능하다.Meanwhile, in an embodiment of the present invention, the server may further include object type information as well as a plurality of individual appearance characteristics and input the data to the abstract feature recognition model, and outline description data in which individual appearance characteristics or object type information are combined. can be entered in the form of That is, according to the present invention, by calculating abstract characteristics based on appearance description data identified from image data rather than image data itself, it is possible to efficiently process data and calculate objective abstract characteristics.

본 발명의 일 실시예에서, 상기 추상적 특성은, 제1 감성 특성을 포함한다. 상기 제1 감성 특성은, 특정한 대상체의 외형을 기반으로 인지되는 감성적 특성으로, 특정한 감성적 특성인 복수의 제1 개별 감성 특성을 포함한다.In one embodiment of the present invention, the abstract characteristic includes a first emotional characteristic. The first emotional characteristic is an emotional characteristic recognized based on the appearance of a specific object, and includes a plurality of first individual emotional characteristics that are specific emotional characteristics.

일 실시예에서, 제1 감성 특성에 포함된 각각의 제1 개별 감성 특성의 정의 및 개수는 서버에 의하여 설정될 수 있으며, 추가 또는 변경될 수 있다. 대상체의 외형에 대한 감성적 특성인 제1 감성 특성은, 시대 또는 지역에 따라 상이하게 정의될 수 있으므로, 이에 맞추어 다양하게 변경 가능하도록 하기 위함이다.In one embodiment, the definition and number of each first individual emotional characteristic included in the first emotional characteristic may be set by the server and may be added or changed. Since the first emotional characteristic, which is an emotional characteristic for the external appearance of the object, may be defined differently depending on the era or region, this is to be changed in various ways according to this.

예를 들어, 각각의 제1개별감성특성은 '귀여운(Cute)', '부드러운(soft)', '현대적인(Modern)' 등으로 설정될 수 있으며, 또한, 각각의 제1 개별 감성 특성에 대조되는 제1 개별 감성 특성인 '우아한(Elegant)', '거친(Wild)', '고전적인(Classic)' 등을 더 포함하도록 설정될 수도 있다. 그러나, 본 발명의 제1 개별 감성 특성은 이에 제한되지 않고 다양하게 설정될 수 있다.For example, each first individual emotional characteristic may be set to 'cute', 'soft', 'modern', etc. It may be set to further include contrasting first individual emotional characteristics such as 'Elegant', 'Wild', and 'Classic'. However, the first individual emotional characteristic of the present invention is not limited thereto and may be set in various ways.

도 8은 본 발명의 일 실시예에 따른, 각 개별 외형 특성에 따라 감성 특성에 대한 점수가 설정된 것을 나타낸 예시도이다.8 is an exemplary diagram illustrating that scores for emotional characteristics are set according to individual external appearance characteristics according to an embodiment of the present invention.

이때, 상기 대상체조합평가모델은, 각 개별 외형 특성마다 복수의 제1 개별 감성 특성 각각에 대한 점수가 설정됨에 따라, 입력된 복수의 개별 외형 특성에 설정된 각각의 제1 개별 감성 특성에 대한 점수를 합산하여 제1 감성 특성을 산출하는 것일 수 있다.At this time, the object combination evaluation model sets the score for each of the first individual emotional characteristics set in the plurality of input individual appearance characteristics as the scores for each of the plurality of first individual emotional characteristics are set for each individual appearance characteristic. It may be to calculate the first emotional characteristic by adding them up.

예를 들어, 각 외형분류기준에 포함된 복수의 개별 외형 특성마다 제1 개별 감성 특성 각각에 대한 점수가 설정될 수 있다. For example, a score for each of the first individual emotional characteristics may be set for each of a plurality of individual appearance characteristics included in each appearance classification criterion.

한편, 도 8을 참조하면, 본 발명의 실시예에서, 각각의 개별 외형 특성에 제1개별감성특성별 점수가 설정된 점수표는, 하나의 점수표뿐만 아니라, 특정 영상데이터로부터 산출된 '브이넥' 및 '빨간색'의 개별 외형 특성이 입력된 경우, 각각의 제1개별감성특성별 합산된 점수는, '귀여운: 1', '우아한: 2', '부드러운: 0', '거친: 1', '현대적인: 0', '고전적인: 1'이고, 이를 기초로 제1감성특성을 산출할 수 있다.On the other hand, referring to FIG. 8 , in an embodiment of the present invention, a score table in which a score for each individual appearance characteristic is set for each first individual emotional characteristic is not only one score table, but also a 'V-neck' calculated from specific image data. and 'red', the sum of scores for each first individual emotional characteristic is 'cute: 1', 'elegant: 2', 'soft: 0', 'rough: 1', 'Modern: 0' and 'Classic: 1', and based on this, the first emotional characteristic can be calculated.

일 실시예에서, 상기 제1감성특성은 각 제1개별감성특성 점수의 전체 점수에 대한 비율을 포함하여 산출될 수 있다. 예를 들어, 전술한 예시의 경우 전체 점수가 5이므로, 제1감성특성은 각 제1개별감성특성 점수의 비율을 포함하도록 "귀여운: 0.2, 우아한: 0.4, 부드러운: 0, 거친: 0.2, 현대적인: 0, 고전적인: 0.2"으로 산출될 수 있다.In an embodiment, the first emotional characteristic may be calculated by including a ratio of each first individual emotional characteristic score to the total score. For example, in the case of the above example, since the total score is 5, the first emotional characteristic is "cute: 0.2, elegant: 0.4, soft: 0, rough: 0.2, modern" to include the ratio of each first individual emotional characteristic score. Can be calculated as negative: 0, classic: 0.2".

다른 실시예에서, 상기 제1감성특성은 각 제1개별감성특성 점수를 포함하여 산출될 수 있다. 예를 들어, 전술한 예시의 경우 제1감성특성은 각 제1개별감성특성 점수를 포함하도록 "귀여운: 1, 우아한: 2, 부드러운: 0, 거친: 1, 현대적인: 0, 고전적인: 1"으로 산출될 수 있다.In another embodiment, the first emotional characteristic may be calculated by including each first individual emotional characteristic score. For example, in the case of the above example, the first emotional characteristic is "cute: 1, elegant: 2, soft: 0, rough: 1, modern: 0, classic: 1" to include each first individual emotional characteristic score. " can be calculated.

다른 실시예에서, 상기 제1감성특성은 각 제1개별감성특성 점수가 미리 설정된 임계값 이상인 제1 개별 감성 특성만 산출하는 것일 수 있다. 예를 들어, 전술한 예시에서 임계값이 2(혹은 비율 0.4)인 경우, 제1감성특성은 '우아한'의 제1개별감성특성만 산출될 수 있다. 그러나, 제1감성특성의 산출은 전술한 예시에 제한되지 않고 다양한 알고리즘으로 산출될 수 있다.In another embodiment, the first emotional characteristic may be to calculate only the first individual emotional characteristic for which each first individual emotional characteristic score is equal to or greater than a preset threshold value. For example, in the above example, when the threshold value is 2 (or the ratio is 0.4), only the first individual emotional characteristic of 'elegant' can be calculated as the first emotional characteristic. However, the calculation of the first emotional characteristic is not limited to the above example and may be calculated using various algorithms.

한편, 본 발명의 일 실시예로, 서버는 복수의 대상체 조합 전체에 대한 추상적특성을 산출할 수 있다. Meanwhile, according to an embodiment of the present invention, the server may calculate abstract characteristics for all combinations of a plurality of objects.

도 9는 본 발명의 일 실시예에 따른, 서버에 의해 각각의 대상체에 대한 개별외형특성을 산출하고, 대상체 조합 전체에 대한 추상적특성을 산출한 것을 나타낸 예시도이다. 9 is an exemplary view illustrating that individual external appearance characteristics for each object are calculated by a server and abstract characteristics for the entire object combination are calculated according to an embodiment of the present invention.

도 9를 참조하면, 서버는 영상데이터를 기반으로 각각의 대상체의 대상체 유형을 식별하고, 각각의 대상체에 관한 개별외형특성을 산출한다. 도 9를 참조하면, 셔츠 또는 블라우스로 식별된 상의의 개별외형특성은, 소재, 패턴, 색상, 상의 핏, 네크라인 및 카라, 여밈, 상의 길이이다. 이때, 각각의 개별외형특성이 면, 무지, 하늘색, 슬림핏, 보트 네크라인, 풀오버, 크롭길이로 산출되었다. 한편, 팬츠로 식별된 하의의 개별외형특성은 소재, 패턴, 색상, 바지 핏, 하의 길이이다. 그리고 각각의 개별외형특성은 면, 무지, 회색, 배기 팬츠, 롱(맥시)로 산출되었다. 한편, 도면에 명확히 도시되지는 않았으나, 각각의 대상체인 셔츠와 팬츠에 대한 추상적 특성 또한 각각 산출될 수 있을 것이다. Referring to FIG. 9 , the server identifies the object type of each object based on image data and calculates individual appearance characteristics of each object. Referring to FIG. 9 , individual external characteristics of a top identified as a shirt or blouse are material, pattern, color, fit, neckline and collar, fastening, and length of the top. At this time, each individual appearance characteristic was calculated as cotton, plain, sky blue, slim fit, boat neckline, pullover, and crop length. On the other hand, the individual external characteristics of the bottoms identified as pants are material, pattern, color, pants fit, and bottom length. And each individual external appearance characteristic was calculated as cotton, plain, gray, baggy pants, and long (maxi). Meanwhile, although not clearly shown in the drawings, abstract characteristics of shirts and pants, which are respective objects, may also be calculated.

한편, 도 9를 참조하면, 사용자의 코디에 대한 전체 추상적 특성이 산출되었다. 보다 구체적으로, ACTIVE(활동적), CLASSC(클래식), ELEGANCE(우아함), LOVELY(사랑스러움), NATURAL(자연스러움), SEXY(섹시)에 관한 추상적 특성만이 산출되었다. 이때, 각각의 추상적 특성에 대한 수치가 상이함을 알 수 있다. 이는 대상체 각각에 대해 산출된 추상적 특성의 합으로 산출될 수 있다. 예를 들어, 상의의 추상적 특성 중 ACTIVE에 대해 26으로, 하의의 추상적 특성 중 ACTIVE에 대해 20으로 산출되었다고 가정한다면, 전체 상하의의 조합에 대한 평가는 ACTIVE의 항목이 46으로 산출되는 것이다. Meanwhile, referring to FIG. 9 , all abstract characteristics of the user's coordination are calculated. More specifically, only the abstract characteristics of ACTIVE, CLASSC, ELEGANCE, LOVELY, NATURAL, and SEXY were calculated. At this time, it can be seen that the numerical values for each abstract characteristic are different. This may be calculated as the sum of abstract characteristics calculated for each object. For example, assuming that ACTIVE among the abstract characteristics of the top is calculated as 26 and ACTIVE among the abstract characteristics of the bottom is calculated as 20, the evaluation of the entire combination of top and bottom results in the ACTIVE item being calculated as 46.

이를 통해, 서버는 사용자의 전체적인 코디에 대한 평가 결과를 산출하여 사용자에게 제공할 수 있다. Through this, the server may calculate an evaluation result for the user's overall coordination and provide it to the user.

다시 도 7을 참조하면, 서버는 추상적특성을 산출한 이후, 각각의 대상체의 복수의 개별외형특성 및 상기 추상적특성을 조합한 데이터를 상기 대상체조합평가모델에 입력하여 상기 대상체 간의 조합을 평가할 수 있다(S425). Referring back to FIG. 7 , after calculating the abstract characteristics, the server may evaluate the combination between the objects by inputting data obtained by combining a plurality of individual appearance characteristics of each object and the abstract characteristics into the object combination evaluation model. (S425).

구체적으로, 각각의 대상체에 대한 개별외형특성뿐만 아니라 추상적특성을 조합한 데이터를 대상체조합평가모델에 입력함으로써, 사용자의 코디가 적절한지 여부를 판단하는 것이다. Specifically, it is determined whether the user's coordination is appropriate by inputting data combining abstract characteristics as well as individual appearance characteristics of each object into the object combination evaluation model.

즉, 도 9를 참조하여 전술한 본 발명의 일 실시예는, 사용자의 코디를 식별하여 전체적인 추상적 특성을 산출하는 것인 반면에, 상술한 본 발명의 일 실시예는 사용자의 코디가 적절한지 여부를 판단하는 것이다. 한편, 개별외형특성과 추상적특성을 조합하여 사용자의 코디가 적절한지 여부를 판단하는 본 발명의 일 실시예에 대해서는 자세히 후술하도록 한다.That is, one embodiment of the present invention described above with reference to FIG. 9 identifies the user's coordination and calculates the overall abstract characteristic, whereas the above-described embodiment of the present invention determines whether the user's coordination is appropriate. is to judge Meanwhile, an embodiment of the present invention for determining whether a user's coordination is appropriate by combining individual appearance characteristics and abstract characteristics will be described later in detail.

한편, 본 발명의 일 실시예로, 상기 딥러닝 기반의 대상체조합평가모델은, 서로 다른 대상체 유형에 해당하는 복수의 대상체가 조합된 영상데이터를 기반으로 사전 학습된 것일 수 있다. Meanwhile, as an embodiment of the present invention, the deep learning-based object combination evaluation model may be pre-learned based on image data in which a plurality of objects corresponding to different object types are combined.

구체적으로, 딥러닝 기반의 대상체조합평가모델의 학습용 영상데이터는, 서로 다른 유형에 속하는 복수의 대상체가 조합된 영상데이터일 수 있다. 예를 들어, 상의와 하의가 조합된 영상데이터를 통해, 상기 대상체조합평가모델은, 각각의 상의와 하의의 특성정보를 추출하고, 상기 특성정보의 조합이 적합한지를 학습할 수 있을 것이다. Specifically, image data for learning of a deep learning-based object combination evaluation model may be image data in which a plurality of objects belonging to different types are combined. For example, through image data of a combination of upper and lower garments, the object combination evaluation model may extract characteristic information of each upper garment and lower garment and learn whether the combination of the characteristic information is appropriate.

한편, 이를 위해 서버는 '전문가 클라이언트'를 통해 학습용 영상데이터에 개별외형특성 및 추상적특성을 기반으로 한 대상체 조합의 평가 결과를 레이블링(Lableing))하거나, 입력영상데이터에 미학습된 개별외형특성 및 추상적특성 조합에 대한 평가 결과를 부여할 수 있다. 보다 구체적으로, '전문가 클라이언트'는 복수의 대상체에 관한 개별외형특성 및 추상적특성의 조합 각각에 대한 평가결과를 각각의 조합에 대해서 레이블링 한다. 예를 들어, "대상체1의 개별외형특성(패턴, 색상, 소재) 및 추상적특성이 체크, 검정색, 면, 시크이고 대상체 2의 개별외형특성(패턴, 색상, 소재) 및 추상적특성이 무지, 빨간색, 울, 사랑스러움이라고 가정한다면, 상기 대상체 1, 2의 개별외형특성 및 추상적특성의 조합에 대한 평가 결과를, 각각의 개별외형특성과 추상적특성에 대하여 레이블링 한다. 그리고 적합하다고 판단되는 특성에 대해서는 예를 들어, 1점을 부여하고 적합하지 않다고 판단되는 특성에 대해서는 0점을 부여하여, 총 합계를 산출한다. 만약 개별외형특성이 패턴에 관하여, 체크와 무지의 조합이 적절하다고 판단되면, 해당 특성에 대해서는 1점이 부여될 것이다. 그리고 개별외형특성 색상에 대해 검정색과 빨간색의 조합이 적절하지 않다고 판단되면 0점이 부여된다. 이처럼, 대상체 조합의 각각의 개별외형특성과 추상적특성에 대해 점수를 산출한 후 총 특성 정보에 대한 점수를 합산하고, 합산한 점수를 평가결과로 상기 영상데이터에 대해 레이블링한다. 이를 통해, 상기 딥러닝 기반의 대상체조합평가모델은 영상데이터 내 복수의 대상체를 식별하고, 각각의 대상체에 대한 특성정보(개별외형특성 및 추상적특성)을 추출한 후 해당 특성정보의 조합의 적절함을 평가하도록 학습할 수 있다. Meanwhile, to this end, the server labels the evaluation result of the object combination based on the individual appearance characteristics and abstract characteristics in the image data for learning through the 'expert client', or the unlearned individual appearance characteristics and Evaluation results can be given for combinations of abstract characteristics. More specifically, the 'expert client' labels evaluation results for each combination of individual appearance characteristics and abstract characteristics of a plurality of objects for each combination. For example, "The individual external characteristics (pattern, color, material) and abstract characteristics of object 1 are check, black, cotton, and chic, and the individual external characteristics (pattern, color, material) and abstract characteristics of object 2 are plain and red. Assuming that it is , woolly, and lovely, the evaluation result of the combination of individual external appearance characteristics and abstract characteristics of the objects 1 and 2 is labeled for each individual external appearance characteristics and abstract characteristics. For example, 1 point is given and 0 points are assigned to characteristics that are judged to be unsuitable, and the total sum is calculated. 1 point will be given for the characteristic, and if it is judged that the combination of black and red is not appropriate for the color of the individual appearance characteristics, 0 points will be given. In this way, scores are calculated for each individual appearance characteristic and abstract characteristic of the object combination. After that, scores for the total feature information are summed, and the summed scores are labeled for the image data as an evaluation result, whereby the deep learning-based object combination evaluation model identifies a plurality of objects in the image data; After extracting the characteristic information (individual appearance characteristics and abstract characteristics) for each object, it is possible to learn to evaluate the appropriateness of the combination of the corresponding characteristic information.

한편, 사용자의 코디가 적합한지 여부를 판단하는 방법은 다음과 같다. Meanwhile, a method of determining whether the user's coordination is appropriate is as follows.

본 발명의 일 실시예로, 서버가 상기 복수의 대상체 간의 상기 복수의 개별외형특성 및 상기 추상적특성 각각에 대한 평가값을 산출하고, 상기 평가값이 기 설정된 기준값 미만인 개별외형특성 및 추상적특성의 개수를 산출하고, 상기 개수에 기초하여 상기 복수의 대상체 간의 조합을 평가하는 것일 수 있다. In one embodiment of the present invention, the server calculates evaluation values for each of the plurality of individual appearance characteristics and the abstract characteristics among the plurality of objects, and the number of individual appearance characteristics and abstract characteristics for which the evaluation values are less than a predetermined reference value may be calculated, and a combination between the plurality of objects may be evaluated based on the number.

상술했던 딥러닝 기반의 조합체 평가 모델의 학습 과정에서와 같이, 서버는 복수의 대상체 간에 각각의 개별외형특성과 추상적특성에 대한 평가값을 산출한다. 예를 들어, 패턴의 경우 적절하지 않다고 판단되면 '0'으로, 색상의 경우 적절하다고 판단되면 '1'로, '소재'가 적절하지 않다고 판단되면 '1'로 마지막으로 추상적 특성이 감성이 적절하다고 판단되면 '1'로 각각의 평가값을 산출한다. 그리고 상기 평가값을 기초로, 대상체 조합에 관한 전체 평가값을 산출한다. 이는, 각각의 평가값을 합산한 것일 수도 있다. 만약 상술한 예의 경우, 전체 평가값은 3으로 산출된다. 한편, 상술한 설명에서는 '1'과 '0'의 값 만으로 평가값이 산출되는 것으로 설명되었으나, 각각의 평가 결과값은 다양한 값으로 산출될 수 있음은 당연하다. As in the learning process of the above-described combination evaluation model based on deep learning, the server calculates evaluation values for each individual appearance characteristic and abstract characteristic among a plurality of objects. For example, in the case of a pattern, '0' is judged to be inappropriate, in the case of a color, '1' is judged to be appropriate, and 'material' is judged to be inappropriate, '1'. If it is judged as '1', each evaluation value is calculated. Then, based on the evaluation values, an overall evaluation value for the object combination is calculated. This may be the sum of each evaluation value. In the case of the above example, the total evaluation value is calculated as 3. On the other hand, in the above description, it has been described that the evaluation value is calculated only with the values of '1' and '0', but it is natural that each evaluation result value can be calculated with various values.

한편, 각각의 개별외형특성 및 추상적특성에 대하여 평가값이 기 설정된 기준값 미만인 항목의 개수를 산출한다. 상술한 예의 경우, 기 설정된 기준값이 1이라고 가정하였을 때, 항목 개수는 '소재'와 관련된 개별외형특성 1개로 산출될 것이다. 그리고 상기 개수에 기초하여 복수의 대상체 간의 조합을 평가한다. On the other hand, the number of items whose evaluation values are less than a predetermined reference value for each individual appearance characteristic and abstract characteristic is calculated. In the case of the above example, assuming that the preset reference value is 1, the number of items will be calculated as one individual appearance characteristic related to 'material'. A combination between a plurality of objects is evaluated based on the number of objects.

한편, 본 발명의 일 실시예로, 상기 제공하는 단계는, 서버가 기 설정된 복수의 평가 등급 중 상기 산출된 개수에 해당하는 평가 등급을 나타내는 정보를 사용자에게 제공할 수 있다. Meanwhile, in one embodiment of the present invention, in the providing step, the server may provide the user with information indicating evaluation grades corresponding to the calculated number among a plurality of predetermined evaluation grades.

도 10은 본 발명의 일 실시예에 따른, 사용자에게 대상체 조합 평가 결과를 제공하는 것을 나타낸 예시도이다. 10 is an exemplary diagram illustrating providing a user with an object combination evaluation result according to an embodiment of the present invention.

구체적으로, 상술한 평가값이 기 설정된 기준값 미만인 개별외형특성 및 추상적특성의 개수를 기반으로, 복수의 대상체 간의 조합을 평가하는 방법의 일 실시예로, 상기 개수를 기반으로 복수의 평가 등급이 설정될 수 있다. 예를 들어, 기 설정된 기준값 미만인 항목의 개수가 0~1개일 경우 A등급, 2~3개일 경우 B등급, 3~4개일 경우 C등급 그리고 5개 이상일 경우 F등급으로 설정되고, 서버는 평가결과에 기반하여 산출된 개수에 해당하는 평가 등급 정보를 사용자에게 제공한다. Specifically, as an embodiment of a method of evaluating a combination between a plurality of objects based on the number of individual appearance characteristics and abstract characteristics whose evaluation value is less than a preset reference value, a plurality of evaluation grades are set based on the number. It can be. For example, if the number of items less than a predetermined reference value is 0 to 1, it is set to A grade, 2 to 3 items to B grade, 3 to 4 items to C grade, and 5 or more items to F grade, and the server determines the evaluation result Evaluation grade information corresponding to the number calculated based on is provided to the user.

도 10을 참조하면, 사용자가 착용하고 있는 후드티와 트레이닝 바지 각각의 특성정보인, 개별외형특성과 추상적특성을 식별하고, 상기 식별 결과에 기초한 조합 정보를 딥러닝 기반의 대상체조합평가 모델에 입력한 결과가, C등급으로 출력되었음을 알 수 있다. 이때, 상술한 예를 참조하면, 상기 후드티와 트레이닝 바지의 조합 평가 결과는, 기준값 미만인 항목의 개수가 3~4개임을 추론할 수 있다. Referring to FIG. 10, individual appearance characteristics and abstract characteristics, which are characteristic information of a hoodie and training pants worn by a user, are identified, and combination information based on the identification result is input into a deep learning-based object combination evaluation model. It can be seen that one result was output as a C grade. At this time, referring to the above example, it can be inferred that the number of items less than the reference value is 3 to 4 from the evaluation result of the combination of the hoodie and training pants.

본 발명의 일 실시예로, 서버는 상술한 평가 방법에 기반하여, 사용자에게 기 설정된 기준값 미만인 개별외형특성과 추상적특성의 항목에 관한 정보를 제공할 수도 있을 것이다. 예를 들어, 상의와 하의의 코디 결과가 부적한 근거인, 기 설정된 기준값 미만인 항목이 "소재"와 "감성"인 경우 사용자에게 "소재"와 "감성"이 매칭되지 않음을 스마트 거울에 송신한다. As an embodiment of the present invention, the server may provide information about items of individual appearance characteristics and abstract characteristics less than a predetermined reference value to the user based on the above-described evaluation method. For example, if the items that are less than a predetermined reference value, which is the basis for the coordination result of the top and bottom, are "material" and "emotion", the smart mirror is sent to the user that "material" and "emotion" do not match. .

도 11은 본 발명의 일 실시예에 따른, 기준대상체에 대한 추천대상체를 추천하는 방법을 개략적으로 나타낸 순서도이다. 도 12는 본 발명의 일 실시예에 따른, 기준대상체에 대한 추천대상체를 추천하는 것을 나타낸 예시도이다. 11 is a flowchart schematically illustrating a method of recommending a recommendation object for a reference object according to an embodiment of the present invention. 12 is an exemplary view illustrating recommending a recommendation target for a reference target according to an embodiment of the present invention.

도 11을 참조하면, S430 단계는 상기 복수의 대상체 중 기준대상체를 선정하고, 상기 기준대상체와 매칭되는 추천대상체의 복수의 개별외형특성 및 추상적특성을 탐색하는 단계(S431) 및 상기 개별외형특성 및 추상적특성에 기반한 추천대상체의 정보를 상기 사용자에게 제공하는 단계(S432)를 더 포함할 수 있다. Referring to FIG. 11 , step S430 is a step of selecting a reference object from among the plurality of objects and searching for a plurality of individual external appearance characteristics and abstract characteristics of the recommendation target object matching the reference object (S431) and the individual external appearance characteristics and The method may further include providing information on a recommendation target based on abstract characteristics to the user (S432).

먼저 S431 단계에서, 서버는 복수의 대상체 중 기준대상체를 선정한다. 본 발명의 일 실시예로, 상기 기준대상체는 사용자에 의해 선택될 수도 있으나 이에 제한되는 것은 아니다. 예를 들어, 각각의 사용자에 대한 영상데이터를 누적하여 회득함으로써, 각각의 대상체를 착용한 횟수를 산출하고, 상기 착용한 횟수에 기반하여 복수의 대상체 중 착용 횟수가 큰 대상체를 기준대상체로 선정할 수도 있을 것이다. First, in step S431, the server selects a reference object from among a plurality of objects. In one embodiment of the present invention, the reference object may be selected by a user, but is not limited thereto. For example, by accumulating and acquiring image data for each user, the number of times each object is worn is calculated, and based on the number of times that each object is worn, an object that has been worn the most among a plurality of objects is selected as the reference object. It could be.

한편, 기준대상체를 선정한 후에는, 상기 기준대상체와 매칭되는 추천대상체의 개별외형특성과 추상적특성을 탐색한다. 즉, 적절한 코디를 위한 의상 정보를 탐색하는 것이다. 이를 위해, 상기 기준대상체의 개별외형특성과 추상적특성에 관한 조합 정보를 상기 딥러닝 기반의 대상체조합평가모델에 입력한다. 또는, 상기 도면에 명확히 도시되지는 않았으나, 상기 대상체조합평가모델에 포함된 대상체추천모델(미도시)에 입력하여 상기 기준대상체와 매칭되는 추천대상체의 개별외형특성과 추상적특성을 탐색할 수도 있을 것이다. Meanwhile, after the reference object is selected, the individual appearance characteristics and abstract characteristics of the recommendation object matching the reference object are searched. That is, it is to search for clothing information for proper coordinating. To this end, combination information on the individual appearance characteristics and abstract characteristics of the reference object is input into the deep learning-based object combination evaluation model. Alternatively, although not clearly shown in the drawing, individual appearance characteristics and abstract characteristics of the recommendation object matching the reference object may be searched by inputting the input to an object recommendation model (not shown) included in the object combination evaluation model. .

한편, 기준대상체가 후드티라고 가정하고, 해당 후드티에 대한 개별외형특성과 추상적특성의 조합이 "후드티-회색-면-무지-자유로움"라고 식별되었다고 가정한다. 이때, 서버는 상기 조합 정보에 기반하여 해당 기준대상체와 어울리는, 추천대상체의 개별외형특성과 추상적특성 조합을 식별한다. 예를 들어, "트레이닝바지-회색-면-체크-자유로움"으로 상기 기준대상체와 매칭되는 추천대상체의 개별외형특성과 추상적특성의 조합 정보를 탐색할 수 있을 것이다. Meanwhile, it is assumed that the reference object is a hoodie, and that a combination of individual appearance characteristics and abstract characteristics of the corresponding hoodie is identified as "hoodie-gray-cotton-plain-free". At this time, the server identifies a combination of individual appearance characteristics and abstract characteristics of the recommendation target object that matches the reference target object based on the combination information. For example, combination information of individual appearance characteristics and abstract characteristics of a recommendation target object that matches the reference target object may be searched for "training pants-grey-face-check-free".

한편, 개별외형특성과 추상적특성을 탐색한(S431) 후 해당 탐색 정보에 기반한 추천대상체 정보를 사용자에게 제공한다(S432). 즉, "트레이닝바지-회색-면-체크-자유로움"에 해당하는 추천대상체 정보로, 트레이닝 바지의 영상데이터를 사용자에게 제공할 수 있을 것이다. 이를 위해, 서버의 메모리(120)에는 복수의 대상체에 대한 영상데이터가 저장될 수 있다. 이때, 각각의 영상데이터는 해당 영상데이터 내의 대상체에 관한 개별외형특성과 추상적특성에 관한 정보가 라벨링되어 상기 메모리(120)에 저장된다. Meanwhile, after individual appearance characteristics and abstract characteristics are searched (S431), recommendation object information based on the search information is provided to the user (S432). That is, as recommendation object information corresponding to "training pants-gray-cotton-check-free", image data of training pants may be provided to the user. To this end, image data of a plurality of objects may be stored in the memory 120 of the server. At this time, each image data is labeled with information about the individual appearance characteristics and abstract characteristics of the object in the corresponding image data and stored in the memory 120 .

한편, 도면에 명확히 도시되지는 않았으나, 본 발명의 일 실시예로, 상기 서버가 사용자가 보유한 복수의 대상체의 정보를 획득하는 단계를 더 포함할 수 있다. Meanwhile, although not clearly shown in the drawing, as an embodiment of the present invention, the server may further include acquiring information on a plurality of objects owned by the user.

구체적으로, 서버는 각각의 사용자로부터 사용자가 보유하고 있는 복수의 대상체, 즉 의류에 대한 정보를 획득할 수 있다. 이는, 사용자 단말기(20)의 카메라모듈(미도시)를 통해 획득한 각각의 의류 정보를 통신부를 통해 수신한 후 각각의 사용자와 매칭하여 메모리(120)에 저장된다. 이때, 본 발명의 일 실시예로, 상술한 사용자가 보유한 적어도 하나 이상의 대상체의 정보 획득 서비스는, "개인 옷장 관리"라는 명칭으로 각각의 사용자의 의류에 대한 특성정보를 생성한 후 사용자에게 제공될 수 있다. Specifically, the server may obtain information on a plurality of objects owned by the user, that is, clothing, from each user. After receiving each clothing information obtained through the camera module (not shown) of the user terminal 20 through the communication unit, it is matched with each user and stored in the memory 120 . At this time, as an embodiment of the present invention, the above-described information acquisition service of at least one object possessed by the user generates characteristic information on each user's clothing under the name of "personal closet management" and then provides the information to the user. can

한편, 서버는 사용자에게 상술한 추천대상체의 정보를 제공하기 위하여, 상기 사용자가 보유한 대상체 정보 중에서 상기 추천대상체의 복수의 개별외형특성 및 추상적특성에 해당하는 적어도 하나의 대상체 정보를 사용자에게 제공할 수 있다. Meanwhile, the server may provide the user with at least one object information corresponding to a plurality of individual appearance characteristics and abstract characteristics of the recommendation object among the object information possessed by the user in order to provide the user with the above-described recommendation object information. there is.

구체적으로, 상술한 바와 같이, 사용자의 영상데이터를 기반으로 한, 실시간 사용자의 코디 평가가 낮은 점수에 의해 산출된 경우, 서버는 기준대상체에 매칭되는 추천대상체를 탐색한다. 이때, 해당 사용자에 대해 등록된 대상체 정보, 즉 의류 정보를 기반으로 현재 사용자가 보유하고 있는 의류 중에서 적합한 의류를 추천대상체로 추출하여, 사용자에게 해당 정보를 제공할 것이다. 한편, 추천대상체의 개별외형특성 및 추상적특성에 상응하는 의류를 사용자가 보유하고 있지 않은 경우에는, 해당 정보만을 출력하여 사용자에게 제공할 수 있다. Specifically, as described above, when the real-time user's coordinating evaluation based on the user's image data is calculated with a low score, the server searches for a recommendation object that matches the reference object. At this time, based on object information registered for the corresponding user, that is, clothing information, appropriate clothing among clothing currently possessed by the user is extracted as a recommendation object, and the corresponding information is provided to the user. On the other hand, if the user does not have clothing corresponding to the individual appearance characteristics and abstract characteristics of the recommendation object, only the corresponding information may be output and provided to the user.

한편, 본 발명의 일 실시예로, 서버는 각각의 사용자가 정보를 공유할 수 있는 또 다른 사용자와의 연계 서비스를 제공할 수 있다. 예를 들어, "친구 등록"의 명칭으로 각각의 사용자가 대상체 정보를 공유하고자 하는 또 다른 사용자 정보를 연계하여 등록하는 서비스를 제공할 수 있다. 이때, 친구로 등록된 복수의 사용자끼리는, 상술한 서버에 등록된 대상체 정보에 관한 공유가 가능하다. 서버는 사용자에게 추천대상체에 상응하는 개별외형특성 및 추상적특성에 해당하는 보유 의류가 존재하지 않을 경우, 친구로 등록된 또 다른 사용자의 등록된 대상체정보를 기반으로, 추천대상체를 탐색할 수도 있을 것이다. 그리고 해당 사용자에게 친구로 등록된 또 다른 사용자의 추천대상체 보유 정보를 제공할 수도 있을 것이다.Meanwhile, in one embodiment of the present invention, the server may provide a linkage service with another user through which each user can share information. For example, under the name of “friend registration”, a service may be provided in which each user links and registers another user information to which object information is to be shared. At this time, a plurality of users registered as friends can share object information registered in the above-described server. The server may search for a recommendation object based on the registered object information of another user registered as a friend, if the user does not have clothes corresponding to the individual appearance characteristics and abstract characteristics corresponding to the recommendation object. . Further, it may be possible to provide the corresponding user with information on holding a recommendation object of another user registered as a friend.

이상에서 전술한 본 발명의 일 실시예에 따른 대상체의 특성정보에 기반한 사용자 코디 추천 방법은, 하드웨어인 서버와 결합되어 실행되기 위해 프로그램(또는 어플리케이션)으로 구현되어 매체에 저장될 수 있다.The method for recommending user coordination based on the characteristic information of an object according to an embodiment of the present invention described above may be implemented as a program (or application) to be executed in combination with a server, which is hardware, and stored in a medium.

상기 전술한 프로그램은, 상기 컴퓨터가 프로그램을 읽어 들여 프로그램으로 구현된 상기 방법들을 실행시키기 위하여, 상기 컴퓨터의 프로세서(CPU)가 상기 컴퓨터의 장치 인터페이스를 통해 읽힐 수 있는 C, C++, JAVA, 기계어 등의 컴퓨터 언어로 코드화된 코드(Code)를 포함할 수 있다. 이러한 코드는 상기 방법들을 실행하는 필요한 기능들을 정의한 함수 등과 관련된 기능적인 코드(Functional Code)를 포함할 수 있고, 상기 기능들을 상기 컴퓨터의 프로세서가 소정의 절차대로 실행시키는데 필요한 실행 절차 관련 제어 코드를 포함할 수 있다. 또한, 이러한 코드는 상기 기능들을 상기 컴퓨터의 프로세서가 실행시키는데 필요한 추가 정보나 미디어가 상기 컴퓨터의 내부 또는 외부 메모리의 어느 위치(주소 번지)에서 참조되어야 하는지에 대한 메모리 참조관련 코드를 더 포함할 수 있다. 또한, 상기 컴퓨터의 프로세서가 상기 기능들을 실행시키기 위하여 원격(Remote)에 있는 어떠한 다른 컴퓨터나 서버 등과 통신이 필요한 경우, 코드는 상기 컴퓨터의 통신 모듈을 이용하여 원격에 있는 어떠한 다른 컴퓨터나 서버 등과 어떻게 통신해야 하는지, 통신 시 어떠한 정보나 미디어를 송수신해야 하는지 등에 대한 통신 관련 코드를 더 포함할 수 있다.The aforementioned program is C, C++, JAVA, machine language, etc. It may include a code coded in a computer language of. These codes may include functional codes related to functions defining necessary functions for executing the methods, and include control codes related to execution procedures necessary for the processor of the computer to execute the functions according to a predetermined procedure. can do. In addition, these codes may further include memory reference related codes for which location (address address) of the computer's internal or external memory should be referenced for additional information or media required for the computer's processor to execute the functions. there is. In addition, when the processor of the computer needs to communicate with any other remote computer or server in order to execute the functions, the code uses the computer's communication module to determine how to communicate with any other remote computer or server. It may further include communication-related codes for whether to communicate, what kind of information or media to transmit/receive during communication, and the like.

상기 저장되는 매체는, 레지스터, 캐쉬, 메모리 등과 같이 짧은 순간 동안 데이터를 저장하는 매체가 아니라 반영구적으로 데이터를 저장하며, 기기에 의해 판독(reading)이 가능한 매체를 의미한다. 구체적으로는, 상기 저장되는 매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 플로피디스크, 광 데이터 저장장치 등이 있지만, 이에 제한되지 않는다. 즉, 상기 프로그램은 상기 컴퓨터가 접속할 수 있는 다양한 서버 상의 다양한 기록매체 또는 사용자의 상기 컴퓨터상의 다양한 기록매체에 저장될 수 있다. 또한, 상기 매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어, 분산방식으로 컴퓨터가 읽을 수 있는 코드가 저장될 수 있다.The storage medium is not a medium that stores data for a short moment, such as a register, cache, or memory, but a medium that stores data semi-permanently and is readable by a device. Specifically, examples of the storage medium include ROM, RAM, CD-ROM, magnetic tape, floppy disk, optical data storage device, etc., but are not limited thereto. That is, the program may be stored in various recording media on various servers accessible by the computer or various recording media on the user's computer. In addition, the medium may be distributed to computer systems connected through a network, and computer readable codes may be stored in a distributed manner.

본 발명의 실시예와 관련하여 설명된 방법 또는 알고리즘의 단계들은 하드웨어로 직접 구현되거나, 하드웨어에 의해 실행되는 소프트웨어 모듈로 구현되거나, 또는 이들의 결합에 의해 구현될 수 있다. 소프트웨어 모듈은 RAM(Random Access Memory), ROM(Read Only Memory), EPROM(Erasable Programmable ROM), EEPROM(Electrically Erasable Programmable ROM), 플래시 메모리(Flash Memory), 하드 디스크, 착탈형 디스크, CD-ROM, 또는 본 발명이 속하는 기술 분야에서 잘 알려진 임의의 형태의 컴퓨터 판독가능 기록매체에 상주할 수도 있다.Steps of a method or algorithm described in connection with an embodiment of the present invention may be implemented directly in hardware, implemented in a software module executed by hardware, or implemented by a combination thereof. A software module may include random access memory (RAM), read only memory (ROM), erasable programmable ROM (EPROM), electrically erasable programmable ROM (EEPROM), flash memory, hard disk, removable disk, CD-ROM, or It may reside in any form of computer readable recording medium well known in the art to which the present invention pertains.

이상, 첨부된 도면을 참조로 하여 본 발명의 실시예를 설명하였지만, 본 발명이 속하는 기술분야의 통상의 기술자는 본 발명이 그 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 그러므로, 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며, 제한적이 아닌 것으로 이해해야만 한다.Although the embodiments of the present invention have been described with reference to the accompanying drawings, those skilled in the art to which the present invention pertains can be implemented in other specific forms without changing the technical spirit or essential features of the present invention. you will be able to understand Therefore, it should be understood that the embodiments described above are illustrative in all respects and not restrictive.

10 : 서버
20 : 스마트거울
110 : 통신부
120 : 메모리
130 : 대상체조합평가모델
131 : 대상체유형인식모듈
132 : 개별외형특성인식모듈
133 : 추상적특성인식모듈
134 : 대상체조합평가모듈
140 : 제어부
10: Server
20: smart mirror
110: Communication Department
120: memory
130: object combination evaluation model
131: target body type recognition module
132: Individual appearance characteristic recognition module
133: abstract characteristic recognition module
134: object combination evaluation module
140: control unit

Claims (10)

서버가 영상데이터 내에 포함된 복수의 대상체 각각을 인식하는 단계;
상기 서버가 딥러닝 기반의 대상체조합평가모델에 기반하여, 상기 복수의 대상체 간의 조합을 평가하는 단계; 및
상기 서버가 상기 평가 결과를 사용자에게 제공하는 단계를 포함하고,
상기 조합 평가 단계는,
상기 복수의 대상체 각각에 대한 특성정보를 산출하고, 상기 산출된 특성정보를 상기 대상체조합평가모델에 입력하여 상기 복수의 대상체 간의 조합을 평가하는 것이고,
상기 딥러닝 기반의 대상체조합평가모델은 서로 다른 대상체 유형에 해당하는 복수의 대상체가 조합된 영상데이터를 기반으로 사전 학습된 것이고,
상기 특성정보는 상기 대상체의 복수의 개별외형특성 및 추상적특성을 포함하고,
상기 조합 평가 단계는,
상기 인식된 복수의 대상체 각각에 대하여 대상체 유형 정보를 산출하고,
상기 영상데이터를 외형특성 인식모델에 입력하여 상기 산출된 대상체 유형 정보 각각에 대응되는 복수의 외형분류기준에 대한 개별외형특성을 상기 인식된 복수의 대상체 각각에 대하여 산출하고,
상기 각각의 대상체에 관한 개별외형특성 정보를 추상적특성 인식모델에 입력하여 상기 각각의 대상체의 추상적특성을 산출하고,
상기 각각의 대상체의 복수의 개별외형특성 및 상기 추상적특성을 조합한 데이터를 상기 대상체조합평가모델에 입력하여 상기 대상체 간의 조합을 평가하고,
상기 서버는 상기 조합을 평가할 때, 상기 복수의 대상체 간의 상기 복수의 개별외형특성 및 상기 추상적특성 각각에 대한 평가값을 산출하고, 상기 평가값이 기 설정된 기준값 미만인 개별외형특성 및 추상적특성의 개수를 산출하고, 상기 개수에 기초하여 상기 복수의 대상체 간의 조합을 평가하는 것을 특징으로 하는,
대상체의 특성정보에 기반한 사용자 코디 추천 방법.
recognizing, by a server, each of a plurality of objects included in the image data;
evaluating, by the server, a combination between the plurality of objects based on a deep learning-based object combination evaluation model; and
The server providing the evaluation result to a user,
The combination evaluation step,
Calculating characteristic information for each of the plurality of objects, and inputting the calculated characteristic information to the object combination evaluation model to evaluate combinations between the plurality of objects;
The deep learning-based object combination evaluation model is pre-learned based on image data in which a plurality of objects corresponding to different object types are combined,
The characteristic information includes a plurality of individual appearance characteristics and abstract characteristics of the object,
The combination evaluation step,
Calculating object type information for each of the plurality of recognized objects;
Inputting the image data into an appearance feature recognition model to calculate individual appearance characteristics for each of a plurality of recognized objects based on a plurality of appearance classification criteria corresponding to each of the calculated object type information;
Calculating the abstract characteristics of each object by inputting the individual appearance characteristic information on each object to an abstract feature recognition model;
Evaluating the combination between the objects by inputting the combined data of the plurality of individual appearance characteristics and the abstract characteristics of each object into the object combination evaluation model,
When evaluating the combination, the server calculates evaluation values for each of the plurality of individual appearance characteristics and the abstract characteristics among the plurality of objects, and calculates the number of individual appearance characteristics and abstract characteristics for which the evaluation values are less than a predetermined reference value. Calculating and evaluating a combination between the plurality of objects based on the number,
A method for recommending user coordination based on object characteristic information.
제1항에 있어서,
상기 서버는 미리 설정된 대상체 유형 분류에 기초하여 상기 대상체 유형 정보를 산출하는 것을 특징으로 하는,
대상체의 특성정보에 기반한 사용자 코디 추천 방법.
According to claim 1,
Characterized in that the server calculates the object type information based on a preset object type classification.
A method for recommending user coordination based on object characteristic information.
삭제delete 삭제delete 제1항에 있어서,
상기 제공하는 단계는,
상기 서버가 기 설정된 복수의 평가 등급 중 상기 산출된 개수에 해당하는 평가 등급을 나타내는 정보를 사용자에게 제공하는,
대상체의 특성정보에 기반한 사용자 코디 추천 방법.
According to claim 1,
The step of providing,
The server provides the user with information indicating evaluation grades corresponding to the calculated number among a plurality of predetermined evaluation grades.
A method for recommending user coordination based on object characteristic information.
제1항에 있어서,
상기 제공하는 단계는,
상기 복수의 대상체 중 기준대상체를 선정하고, 상기 기준대상체와 매칭되는 추천대상체의 복수의 개별외형특성 및 추상적특성을 탐색하는 단계; 및
상기 개별외형특성 및 추상적특성에 기반한 추천대상체의 정보를 상기 사용자에게 제공하는 단계를 더 포함하는,
대상체의 특성정보에 기반한 사용자 코디 추천 방법.
According to claim 1,
The step of providing,
selecting a reference object from among the plurality of objects and searching for a plurality of individual appearance characteristics and abstract characteristics of the recommendation object matching the reference object; and
Further comprising the step of providing the user with information on a recommendation target based on the individual appearance characteristics and abstract characteristics.
A method for recommending user coordination based on object characteristic information.
제6항에 있어서,
상기 서버가 사용자가 보유한 복수의 대상체의 정보를 획득하는 단계를 더 포함하고,
상기 제공하는 단계는,
상기 사용자가 보유한 대상체 정보 중에서 상기 추천대상체의 복수의 개별외형특성 및 추상적특성에 해당하는 적어도 하나의 대상체 정보를 사용자에게 제공하는,
대상체의 특성정보에 기반한 사용자 코디 추천 방법.
According to claim 6,
Further comprising obtaining, by the server, information on a plurality of objects owned by the user,
The step of providing,
Providing the user with at least one object information corresponding to a plurality of individual appearance characteristics and abstract characteristics of the recommendation object among the object information possessed by the user,
A method for recommending user coordination based on object characteristic information.
제1항에 있어서,
상기 딥러닝 기반의 대상체조합평가모델의 학습용 영상데이터는 서로 다른 유형에 속하는 복수의 대상체가 조합된 영상데이터인,
대상체의 특성정보에 기반한 사용자 코디 추천 방법.
According to claim 1,
The image data for learning of the deep learning-based object combination evaluation model is image data in which a plurality of objects belonging to different types are combined.
A method for recommending user coordination based on object characteristic information.
하나 이상의 컴퓨터를 포함하며, 제1항, 제2항, 제5항 내지 제8항 중 어느 하나의 항의 방법을 실행하는, 대상체의 특성정보에 기반한 사용자 의상 조합 평가 서버 장치.A user costume combination evaluation server device based on characteristic information of an object, including one or more computers, and executing the method of any one of claims 1, 2, and 5 to 8. 컴퓨터와 결합되어, 제1항, 제2항, 제5항 내지 제8항 중 어느 하나의 항의 대상체의 특성정보에 기반한 사용자 코디 추천 방법을 실행시키기 위하여 컴퓨터 판독가능 기록매체에 저장된 컴퓨터 프로그램.A computer program stored in a computer readable recording medium to be combined with a computer to execute a user coordination recommendation method based on the characteristic information of an object of any one of claims 1, 2, and 5 to 8.
KR1020210017629A 2021-02-08 2021-02-08 Device and method for recommending apparel for user based on characteristic information KR102524049B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020210017629A KR102524049B1 (en) 2021-02-08 2021-02-08 Device and method for recommending apparel for user based on characteristic information

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210017629A KR102524049B1 (en) 2021-02-08 2021-02-08 Device and method for recommending apparel for user based on characteristic information

Publications (2)

Publication Number Publication Date
KR20220114305A KR20220114305A (en) 2022-08-17
KR102524049B1 true KR102524049B1 (en) 2023-05-24

Family

ID=83111174

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210017629A KR102524049B1 (en) 2021-02-08 2021-02-08 Device and method for recommending apparel for user based on characteristic information

Country Status (1)

Country Link
KR (1) KR102524049B1 (en)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102115574B1 (en) * 2019-06-10 2020-05-27 (주)사맛디 Method, device and program for customizing object design

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101449814B1 (en) * 2012-11-29 2014-10-13 주식회사 포스코아이씨티 System and method for managementing tray
KR20180133200A (en) 2018-04-24 2018-12-13 김지우 Application program for managing clothes recorded in recording media, system and method for managing clothes using the same
KR20200042203A (en) * 2018-10-15 2020-04-23 한국전자통신연구원 Outfit coordination system and method based on user input Images

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102115574B1 (en) * 2019-06-10 2020-05-27 (주)사맛디 Method, device and program for customizing object design

Also Published As

Publication number Publication date
KR20220114305A (en) 2022-08-17

Similar Documents

Publication Publication Date Title
US8983142B1 (en) Programmatic silhouette attribute determination
US10747826B2 (en) Interactive clothes searching in online stores
US10942966B2 (en) Textual and image based search
WO2020119311A1 (en) Neural network training method and image matching method and device
CN104504055B (en) The similar computational methods of commodity and commercial product recommending system based on image similarity
US20200342320A1 (en) Non-binary gender filter
WO2018228448A1 (en) Method and apparatus for recommending matching clothing, electronic device and storage medium
KR102227896B1 (en) System, method and program for obtaining appearance descriptive data from image data
KR20190029567A (en) Method for recommending a product using style feature
KR102317432B1 (en) Method, apparatus and program for fashion trend prediction based on integrated analysis of image and text
US11841735B2 (en) Object based image search
US11126653B2 (en) Mixed type image based search results
JP2010262425A (en) Computer execution method for recognizing and classifying clothes
US20200372560A1 (en) Method for exploring and recommending matching products across categories
Stan et al. An intelligent personalized fashion recommendation system
CN110413818B (en) Label paper recommending method, device, computer readable storage medium and computer equipment
Lasserre et al. Studio2shop: from studio photo shoots to fashion articles
KR102524049B1 (en) Device and method for recommending apparel for user based on characteristic information
US20220100792A1 (en) Method, device, and program for retrieving image data by using deep learning algorithm
KR20210139119A (en) System, method and program for recobnizing emotion of the object basen on deep-learning
KR102366595B1 (en) System, method and program for obtaining appearance descriptive data from image data
WO2021230675A1 (en) Method and device for recognizing subject's emotion on basis of deep learning

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right