KR102119253B1 - System, method and program for obtaining abstract data from image data - Google Patents

System, method and program for obtaining abstract data from image data Download PDF

Info

Publication number
KR102119253B1
KR102119253B1 KR1020200012943A KR20200012943A KR102119253B1 KR 102119253 B1 KR102119253 B1 KR 102119253B1 KR 1020200012943 A KR1020200012943 A KR 1020200012943A KR 20200012943 A KR20200012943 A KR 20200012943A KR 102119253 B1 KR102119253 B1 KR 102119253B1
Authority
KR
South Korea
Prior art keywords
individual
image data
emotional
characteristic
abstract
Prior art date
Application number
KR1020200012943A
Other languages
Korean (ko)
Inventor
이종혁
Original Assignee
(주)사맛디
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by (주)사맛디 filed Critical (주)사맛디
Priority to KR1020200065373A priority Critical patent/KR102355702B1/en
Application granted granted Critical
Publication of KR102119253B1 publication Critical patent/KR102119253B1/en
Priority to PCT/KR2020/007426 priority patent/WO2020251233A1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/70Information retrieval; Database structures therefor; File system structures therefor of video data
    • G06F16/78Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/783Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • G06F16/7837Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using objects detected or recognised in the video content
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/70Information retrieval; Database structures therefor; File system structures therefor of video data
    • G06F16/73Querying
    • G06F16/735Filtering based on additional data, e.g. user or group profiles
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/70Information retrieval; Database structures therefor; File system structures therefor of video data
    • G06F16/75Clustering; Classification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Abstract

The present invention relates to a method for obtaining abstract characteristics of image data, an apparatus thereof, and a program thereof. According to one embodiment of the present invention, the method for obtaining abstract characteristics of image data comprises the steps of: inputting a plurality of individual appearance characteristics calculated for the image data into an abstract characteristic recognition model and calculating abstract characteristics by a server (S4100); and combining the calculated individual appearance characteristics and the abstract characteristics to generate appearance descriptive data by the server (S4200).

Description

영상데이터의 추상적특성 획득 방법, 장치 및 프로그램{SYSTEM, METHOD AND PROGRAM FOR OBTAINING ABSTRACT DATA FROM IMAGE DATA}Method, device and program for obtaining abstract characteristics of image data {SYSTEM, METHOD AND PROGRAM FOR OBTAINING ABSTRACT DATA FROM IMAGE DATA}

본 발명은 영상데이터의 추상적특성 획득 방법, 장치 및 프로그램에 관한 것이다.The present invention relates to a method, apparatus and program for obtaining abstract characteristics of image data.

최근 인터넷의 발달로 소셜 미디어 네트워크 서비스가 급격히 성장하고 있다. 그 결과, 멀티미디어의 양이 폭발 적으로 증가하면서 효과적인 이미지 검색 시스템이 요구되며, 이미지 어노테이션은 폭발적으로 증가하는 웹이미지에 따른 효율적인 이미지 검색의 필요성으로 인해 그 중요도가 점점 높아지고 있다.With the recent development of the Internet, social media network services are rapidly growing. As a result, as the amount of multimedia explosively increases, an effective image retrieval system is required, and image annotation is becoming increasingly important due to the necessity of efficient image retrieval according to explosively increasing web images.

대부분의 이미지 검색 연구는 주로 이미지의 내용을 분석하는 내용 기반 이미지 검색(CBIR: Content-based Image Retrieval) 방법이 많이 진행되어 왔다. 내용 기반 이미지 검색은 색상, 텍스처 및 형태와 같은 시각적 특징을 이용하여 이미지의 내용을 분석한다. 이러한 방법은 정의하는 태그의 개수가 적을 경우에는 잘 작동하지만, 데이터셋이 커지고 태그의 종류가 다양해짐에 따라 성능이 떨어지게 된다.In most image search studies, a content-based image retrieval (CBIR) method, which mainly analyzes the contents of an image, has been conducted. Content-based image retrieval analyzes the contents of an image using visual features such as color, texture, and shape. This method works well when the number of defined tags is small, but performance decreases as the dataset becomes larger and the types of tags vary.

텍스트 기반 이미지 검색(TBIR: Text-based Image Retrieval)은 텍스트를 쿼리로 하여 텍스트에 대응되는 이미지를 검색하는 방식이다. 이 방식은 이미지의 시각적 내용이 수동으로 태깅된 텍스트 디스크립터에 의해 표현되며, 데이터셋 관리 시스템에서 이미지 검색을 수행하는데 사용된다. 즉, 기존의 이미지 또는 영상 검색 방식은 사용자가 직접 태깅한 정보를 기반으로 검색이 이루어진다. 또한, 이미지를 통한 사용자 관심정보 획득 방식도 사용자가 직접 태깅한 정보를 기반으로 획득이 이루어져, 사용자가 영상에 키워드를 잘못 태깅하면 획득 결과가 부정확해지는 문제점이 존재하였다. 또한, 사용자마다 정의하는 키워드에 차이가 존재할 수 있어서, 이미지를 입력하는 사용자가 선택한 키워드에 따라 제공되는 결과가 상이한 문제가 존재하였다.Text-based image retrieval (TBIR) is a method of retrieving an image corresponding to text using text as a query. In this method, the visual content of an image is represented by a manually tagged text descriptor, and is used to perform image search in a dataset management system. That is, in the existing image or video search method, a search is performed based on information directly tagged by a user. In addition, the method of acquiring the user interest information through the image is obtained based on the information directly tagged by the user, and thus, if the user incorrectly tags the keyword in the image, the acquisition result is incorrect. In addition, since there may be a difference in keywords defined for each user, there is a problem in that results provided according to keywords selected by a user inputting an image are different.

공개특허공보 제10-2018-0133200호, 2018.12.13Published Patent Publication No. 10-2018-0133200, 2018.12.13

본 발명은, 영상데이터로부터 산출된 복수의 개별외형특성이 코드열 형태로 조합된 외형서술데이터를 기초로, 특정한 대상체에 대하여 느껴지는 감성적 특성인 추상적특성을 획득하는, 영상데이터의 추상적특성 획득 방법, 장치 및 프로그램을 제공하고자 한다.The present invention is a method for acquiring abstract characteristics of image data, obtaining abstract characteristics, which are emotional characteristics felt for a specific object, based on appearance description data in which a plurality of individual appearance characteristics calculated from image data are combined in a code string form, It is intended to provide devices and programs.

본 발명이 해결하고자 하는 과제들은 이상에서 언급된 과제로 제한되지 않으며, 언급되지 않은 또 다른 과제들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해될 수 있을 것이다.The problems to be solved by the present invention are not limited to the problems mentioned above, and other problems not mentioned will be clearly understood by those skilled in the art from the following description.

본 발명의 일 실시예에 따른 영상데이터의 추상적특성 획득 방법은, 서버가 영상데이터에 대하여 산출된 복수의 개별외형특성을 추상적특성 인식모델에 입력하여, 추상적특성을 산출하는 단계; 및 상기 서버가 상기 산출된 복수의 개별외형특성 및 추상적특성을 조합하여 외형서술데이터를 생성하는 단계;를 포함하고, 상기 개별외형특성은, 대상체의 외형을 서술하기 위한 특정한 분류기준인 외형분류기준 내의 다양한 외형특성을 표현하는 것이고, 상기 추상적특성은, 상기 대상체의 외형을 기반으로 인지되는 제1감성특성을 포함하는 것이다.A method for acquiring abstract characteristics of image data according to an embodiment of the present invention includes: a server inputting a plurality of individual appearance characteristics calculated for image data into an abstract characteristic recognition model, thereby calculating abstract characteristics; And generating, by the server, appearance descriptive data by combining the calculated plurality of individual appearance characteristics and abstract characteristics, wherein the individual appearance characteristics include a specific classification criterion, which is a specific classification criterion for describing the appearance of an object. It expresses various external appearance characteristics, and the abstract characteristic includes a first emotional characteristic recognized based on the external appearance of the object.

또한, 다른 일실시예로, 상기 개별외형특성은, 외형특성 인식모델 내의 상이한 외형분류기준을 판단하는 복수의 개별특성인식모듈 각각에 상기 영상데이터를 입력하여 산출되는 것을 특징으로 하고, 상기 개별특성인식모듈은, 영상데이터의 특정한 외형분류기준에 포함된 개별외형특성을 산출하는 것이다.In addition, in another embodiment, the individual external characteristics are calculated by inputting the image data into each of a plurality of individual characteristic recognition modules for determining different external classification criteria in the external characteristic recognition model, and the individual characteristics The recognition module calculates individual appearance characteristics included in specific appearance classification criteria of image data.

또한, 다른 일실시예로, 상기 외형분류기준은, 특정 유형의 대상체에만 적용되는 특화 외형분류기준 및 모든 유형의 대상체에 적용되는 범용 외형분류기준을 포함하는 것이다.In addition, in another embodiment, the appearance classification criteria include a specialized appearance classification criterion applied only to a specific type of object and a universal appearance classification criterion applied to all types of objects.

또한, 다른 일실시예로, 상기 추상적특성 인식모델은, 제1감성특성 인식모델을 포함하고, 상기 제1감성특성 인식모델은, 각 개별외형특성마다 복수의 제1개별감성특성 각각에 대한 점수가 설정됨에 따라, 입력된 복수의 개별외형특성에 설정된 각각의 제1개별감성특성에 대한 점수를 합산하여 제1감성특성을 산출하는 것이다.In another embodiment, the abstract characteristic recognition model includes a first emotional characteristic recognition model, and the first emotional characteristic recognition model scores for each of a plurality of first individual emotional characteristics for each individual external characteristic. As is set, the first emotional characteristic is calculated by summing the scores for each of the first individual emotional characteristics set in the inputted plurality of individual external characteristics.

또한, 다른 일실시예로, 상기 외형서술데이터 생성단계는, 상기 영상데이터에 대한 복수의 개별외형특성 및 제1감성특성 각각에 대응하는 코드값을 추출하여, 상기 복수의 코드값이 조합된 코드열 형태의 외형서술데이터를 생성하는 것이고, 상기 제1감성특성에 대응하는 코드값은, 상기 제1개별감성특성 각각에 대하여 합산된 점수에 대한 정보를 포함하는 것이다.In addition, in another embodiment, the external description data generation step extracts code values corresponding to each of a plurality of individual appearance characteristics and first emotion characteristics of the image data, and the plurality of code values are combined. It is to generate the column-shaped appearance description data, and the code value corresponding to the first emotional characteristic includes information on the scores summed for each of the first individual emotional characteristics.

또한, 다른 일실시예로, 상기 추상적특성은, 상기 대상체의 상품에 부여되는 정보를 기반으로 인지되는 제2감성특성을 더 포함하고, 상기 추상적특성 인식모델은, 상기 대상체의 상품정보를 입력 받아 제2감성특성을 산출하는 제2감성특성 인식모델을 포함하고, 상기 제2감성특성 인식모델은, 상이한 상품정보에 대한 제2감성특성을 판단하는 복수의 제2개별감성특성 인식모듈을 포함하는 것이다.In another embodiment, the abstract characteristic further includes a second emotional characteristic recognized based on information given to the product of the object, and the abstract characteristic recognition model receives product information of the object And a second emotional characteristic recognition model for calculating a second emotional characteristic, wherein the second emotional characteristic recognition model includes a plurality of second individual emotional characteristic recognition modules for determining a second emotional characteristic for different product information. will be.

또한, 다른 일실시예로, 상기 서버가 상기 외형서술데이터에 매칭되는 추천외형서술데이터를 산출하여, 상기 추천외형서술데이터를 포함하는 하나 이상의 영상데이터에 대한 정보인 추천영상데이터정보를 생성하는 단계;를 더 포함한다.In addition, in another embodiment, the server calculates the recommended outline description data matching the outline description data, and generates recommended image data information that is information about one or more image data including the recommended outline description data. ; Further includes.

또한, 다른 일실시예로, 상기 추천영상데이터정보 생성단계는, 상기 서버가 상기 외형서술데이터 및 제1개별감성특성 간 연관도를 기초로 추천외형서술데이터를 산출하여, 추천영상데이터정보를 생성하는 것을 특징으로 하고, 상기 제1개별감성특성 간 연관도는, 각각의 제1개별감성특성 간 유사도 및 비유사도를 포함하는 것이다.In another embodiment, in the step of generating the recommended image data information, the server calculates the recommended outline description data based on the degree of association between the outline description data and the first individual emotional characteristics, thereby generating recommended image data information. Characterized in that, and the degree of association between the first individual emotional characteristics, it includes a similarity and dissimilarity between each of the first individual emotional characteristics.

또한, 다른 일실시예로, 상기 추천영상데이터정보 생성단계는, 상기 서버가 상기 외형서술데이터, 상기 제1개별감성특성 간 연관도 및 사용자 선호도정보를 기초로 추천외형서술데이터를 산출하여, 추천영상데이터정보를 생성하는 것을 특징으로 하고, 상기 사용자 선호도정보는, 상기 사용자의 제1개별감성특성 각각에 대한 선호 정보인 것이다.Further, in another embodiment, in the generating of the recommended image data information, the server calculates the recommended appearance description data based on the correlation between the appearance description data, the first individual emotional characteristics, and user preference information, and recommends It is characterized in that it generates image data information, and the user preference information is preference information for each of the first individual emotion characteristics of the user.

또한, 다른 일실시예로, 상기 서버가 키워드에 하나 이상의 제1개별감성특성을 매칭하는 단계; 및 상기 서버가 사용자 클라이언트로부터 수신한 검색키워드에 매칭된 제1개별감성특성을 추출하여, 상기 제1개별감성특성을 포함하는 영상데이터를 상기 사용자 클라이언트에 전송하는 단계;를 더 포함한다.Further, in another embodiment, the server matching one or more first individual sentiment characteristics to the keyword; And extracting, by the server, a first individual sentiment characteristic matching the search keyword received from the user client, and transmitting image data including the first individual sentiment characteristic to the user client.

또한, 다른 일실시예로, 상기 서버가 상기 산출된 제1감성특성을 스타일(style) 인식모델에 입력하여, 스타일정보를 산출하는 단계;를 더 포함하고, 상기 스타일 인식모델은, 제1감성특성 공간맵에 복수의 스타일 각각의 영역이 설정됨에 따라, 입력된 제1감성특성이 위치하는 영역의 스타일정보 산출하는 것이고, 상기 제1감성특성 공간맵은, 복수의 제1개별감성특성을 각각의 제1개별감성특성 간의 연관도를 기초로 평면상에 배치한 공간맵인 것이다.Further, according to another embodiment, the server inputting the calculated first emotional characteristic into a style (style) recognition model, and calculating style information; further comprising, the style recognition model, the first emotion As each region of a plurality of styles is set in the characteristic spatial map, style information of an area in which the input first emotional characteristic is located is calculated, and the first emotional characteristic spatial map is configured to respectively determine a plurality of first individual emotional characteristics. It is a spatial map arranged on a plane based on the correlation between the first individual emotional characteristics of.

본 발명의 다른 일실시예에 따른 영상데이터의 추상적특성 획득 서버장치는, 하나 이상의 컴퓨터를 포함하고, 상기 언급된 추상적특성 획득 방법을 수행한다.An apparatus for acquiring abstract characteristics of image data according to another embodiment of the present invention includes one or more computers, and performs the above-mentioned abstract characteristic acquisition method.

본 발명의 또 다른 일실시예에 따른 영상데이터의 추상적특성 획득 프로그램은, 하드웨어와 결합되어 상기 언급된 추상적특성 획득 방법을 실행하며, 매체에 저장된다.The program for acquiring abstract characteristics of image data according to another embodiment of the present invention is implemented in combination with hardware to execute the above-mentioned abstract characteristic acquisition method, and is stored in a medium.

본 발명의 기타 구체적인 사항들은 상세한 설명 및 도면들에 포함되어 있다.Other specific matters of the present invention are included in the detailed description and drawings.

상기 본 발명에 의하면, 영상데이터 자체가 아닌, 상기 영상데이터로부터 산출된 외형서술데이터를 이용하여 추상적특성을 산출함으로써, 데이터의 처리를 효율적으로 할 수 있다.According to the present invention, it is possible to efficiently process data by calculating abstract characteristics by using appearance description data calculated from the image data, not the image data itself.

또한, 상기 본 발명에 의하면, 영상데이터의 추상적특성의 구체적인 산출 방식을 국가별, 지역별 또는 개인별로 세분화함에 따라 각각의 특성을 반영하여 추상적특성을 산출할 수 있다.In addition, according to the present invention, abstract characteristics can be calculated by reflecting each characteristic by subdividing the specific calculation method of abstract characteristics of image data by country, region, or individual.

또한, 상기 본 발명에 의하면, 대상체의 외형에 대한 제1감성특성뿐만 아니라, 가격 등 대상체의 상품정보에 대한 제2감성특성을 산출하고, 사용자별 각각의 개별감성특성에 대한 선호도를 입력 받음으로써, 개인화된 추천영상데이터 또는 검색결과를 제공할 수 있다.In addition, according to the present invention, by calculating not only the first emotional characteristics of the object's appearance, but also the second emotional characteristics of the object's product information such as price, and receiving preferences for each individual emotional characteristic for each user , Personalized recommendation image data or search results can be provided.

본 발명의 효과들은 이상에서 언급된 효과로 제한되지 않으며, 언급되지 않은 또 다른 효과들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해될 수 있을 것이다.The effects of the present invention are not limited to the effects mentioned above, and other effects not mentioned will be clearly understood by those skilled in the art from the following description.

도 1은 본 발명의 일 실시예에 따른 영상데이터의 추상적특성 획득 방법의 순서도이다.
도 2는 본 발명의 일 실시예에 따른 외형특성 인식모델의 구성도이다.
도 3은 본 발명의 일 실시예에 따른 추상적특성 인식모델의 구성도이다.
도 4는 본 발명의 일 실시예에 따른 개별외형특성에 대한 제1개별감성특성 점수 설정을 설명하기 위한 예시도이다.
도 5는 본 발명의 일 실시예에 따른 추천영상데이터정보 생성 단계를 더 포함하는 추상적특성 획득 방법의 순서도이다.
도 6은 본 발명의 일 실시예에 따른 키워드의 제1개별감성특성 매칭 단계 및 사용자 검색 단계를 더 포함하는 추상적특성 획득 방법의 순서도이다.
도 7은 본 발명의 일 실시예에 따른 스타일정보 산출 단계를 더 포함하는 추상적특성 획득 방법의 순서도이다.
도 8은 본 발명의 일 실시예에 따른 제1감성특성 공간맵을 설명하기 위한 예시도이다.
도 9는 본 발명의 일 실시예에 따른 추상적특성 획득 서버의 구성도이다.
1 is a flowchart of a method for obtaining abstract characteristics of image data according to an embodiment of the present invention.
2 is a block diagram of an appearance characteristic recognition model according to an embodiment of the present invention.
3 is a block diagram of an abstract feature recognition model according to an embodiment of the present invention.
4 is an exemplary diagram for explaining setting of a first individual emotion characteristic score for individual appearance characteristics according to an embodiment of the present invention.
5 is a flowchart of an abstract characteristic acquisition method further comprising the step of generating recommended image data information according to an embodiment of the present invention.
6 is a flowchart of a method for acquiring abstract characteristics, which further includes a first individual emotion characteristic matching step and a user search step of keywords according to an embodiment of the present invention.
7 is a flowchart of a method for acquiring abstract characteristics, further comprising a step of calculating style information according to an embodiment of the present invention.
8 is an exemplary view for explaining a first emotional characteristic spatial map according to an embodiment of the present invention.
9 is a block diagram of an abstract characteristic acquisition server according to an embodiment of the present invention.

본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나, 본 발명은 이하에서 개시되는 실시예들에 제한되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하고, 본 발명이 속하는 기술 분야의 통상의 기술자에게 본 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. Advantages and features of the present invention, and methods for achieving them will be clarified with reference to embodiments described below in detail together with the accompanying drawings. However, the present invention is not limited to the embodiments disclosed below, but may be implemented in various different forms, and only the present embodiments allow the disclosure of the present invention to be complete, and are common in the technical field to which the present invention pertains. It is provided to fully inform the skilled person of the scope of the present invention, and the present invention is only defined by the scope of the claims.

본 명세서에서 사용된 용어는 실시예들을 설명하기 위한 것이며 본 발명을 제한하고자 하는 것은 아니다. 본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함한다. 명세서에서 사용되는 "포함한다(comprises)" 및/또는 "포함하는(comprising)"은 언급된 구성요소 외에 하나 이상의 다른 구성요소의 존재 또는 추가를 배제하지 않는다. 명세서 전체에 걸쳐 동일한 도면 부호는 동일한 구성 요소를 지칭하며, "및/또는"은 언급된 구성요소들의 각각 및 하나 이상의 모든 조합을 포함한다. 비록 "제1", "제2" 등이 다양한 구성요소들을 서술하기 위해서 사용되나, 이들 구성요소들은 이들 용어에 의해 제한되지 않음은 물론이다. 이들 용어들은 단지 하나의 구성요소를 다른 구성요소와 구별하기 위하여 사용하는 것이다. 따라서, 이하에서 언급되는 제1 구성요소는 본 발명의 기술적 사상 내에서 제2 구성요소일 수도 있음은 물론이다.The terminology used herein is for describing the embodiments and is not intended to limit the present invention. In the present specification, the singular form also includes the plural form unless otherwise specified in the phrase. As used herein, “comprises” and/or “comprising” does not exclude the presence or addition of one or more other components other than the components mentioned. Throughout the specification, the same reference numerals refer to the same components, and “and/or” includes each and every combination of one or more of the components mentioned. Although "first", "second", etc. are used to describe various components, it goes without saying that these components are not limited by these terms. These terms are only used to distinguish one component from another component. Therefore, it goes without saying that the first component mentioned below may be the second component within the technical spirit of the present invention.

다른 정의가 없다면, 본 명세서에서 사용되는 모든 용어(기술 및 과학적 용어를 포함)는 본 발명이 속하는 기술분야의 통상의 기술자에게 공통적으로 이해될 수 있는 의미로 사용될 수 있을 것이다. 또한, 일반적으로 사용되는 사전에 정의되어 있는 용어들은 명백하게 특별히 정의되어 있지 않는 한 이상적으로 또는 과도하게 해석되지 않는다.Unless otherwise defined, all terms (including technical and scientific terms) used in the present specification may be used as meanings commonly understood by those skilled in the art to which the present invention pertains. In addition, terms defined in the commonly used dictionary are not ideally or excessively interpreted unless explicitly defined.

본 명세서에서 '컴퓨터'는 연산처리를 수행하여 사용자에게 결과를 제공할 수 있는 다양한 장치들이 모두 포함된다. 예를 들어, 컴퓨터는 데스크 탑 PC, 노트북(Note Book) 뿐만 아니라 스마트폰(Smart phone), 태블릿 PC, 셀룰러폰(Cellular phone), 피씨에스폰(PCS phone; Personal Communication Service phone), 동기식/비동기식 IMT-2000(International Mobile Telecommunication-2000)의 이동 단말기, 팜 PC(Palm Personal Computer), 개인용 디지털 보조기(PDA; Personal Digital Assistant) 등도 해당될 수 있다. 또한, 헤드마운트 디스플레이(Head Mounted Display; HMD) 장치가 컴퓨팅 기능을 포함하는 경우, HMD장치가 컴퓨터가 될 수 있다. 또한, 컴퓨터는 클라이언트로부터 요청을 수신하여 정보처리를 수행하는 서버(10)가 해당될 수 있다.In the present specification,'computer' includes all of various devices capable of performing arithmetic processing and providing a result to a user. For example, the computer is not only a desktop PC and a notebook, but also a smart phone, a tablet PC, a cellular phone, a personal communication service phone (PCS phone), and synchronous/asynchronous. The mobile terminal of the International Mobile Telecommunication-2000 (IMT-2000), a Palm Personal Computer (PC), and a Personal Digital Assistant (PDA) may also be applicable. In addition, when a head mounted display (HMD) device includes a computing function, the HMD device may be a computer. Also, the computer may be a server 10 that receives a request from a client and performs information processing.

본 명세서에서 '클라이언트'는 사용자들이 프로그램(또는 어플리케이션)을 설치하여 사용할 수 있는 통신 기능을 포함한 모든 장치를 말한다. 즉, 클라이언트 장치는 스마트폰, 태블릿, PDA, 랩톱, 스마트워치, 스마트카메라 등과 같은 전기 통신 장치, 리모트 콘트롤러 중 하나 이상을 포함할 수 있으나, 이에 제한되는 것은 아니다.In this specification,'client' refers to all devices including communication functions that users can install and use programs (or applications). That is, the client device may include one or more of a telecommunication device, a remote controller, such as a smart phone, a tablet, a PDA, a laptop, a smart watch, and a smart camera, but is not limited thereto.

본 명세서에서 '대상체'는 영상데이터에 포함된 특정한 분류 또는 카테고리의 물품을 의미한다.In the present specification, the term'object' means an article of a specific classification or category included in image data.

본 명세서에서, '영상데이터'는 특정한 대상체를 포함하는 2차원 또는 3차원의 정적 또는 동적 이미지를 의미한다. 즉, '영상데이터'는 하나의 프레임인 정적 영상데이터일 수도 있고, 복수의 프레임이 연속되는 동적 영상데이터(즉, 동영상데이터)일 수도 있다.In this specification,'image data' means a two-dimensional or three-dimensional static or dynamic image including a specific object. That is, the'image data' may be static image data that is one frame, or may be dynamic image data (ie, video data) in which a plurality of frames are consecutive.

본 명세서에서 '외형분류기준'은 특정한 대상체의 외형을 서술(description)하거나 주석 삽입(annotation)을 위해 필요한 외형 표현의 분류기준을 의미한다. 즉, '외형분류기준'은 특정한 대상체의 외형을 서술하기 위한 특정한 분류기준으로서, 상기 대상체의 동일한 분류기준 내의 다양한 외형특성을 표현하는 복수의 개별외형특성을 포함한다. 예를 들어, 대상체가 의류인 경우, 외형분류기준은 의류의 외형에 대한 분류기준으로, 패턴(Pattern), 색상(Color), 핏(fit), 기장(Length) 등이 해당될 수 있다. 즉, 특정한 대상체에 대해 외형분류기준이 많아지면, 대상체에 속하는 특정한 물품의 외형을 상세히 기술할 수 있다.In the present specification, the'appearance classification criteria' refers to a classification criterion of an appearance expression required for description or annotation of a specific object. That is, the'appearance classification criteria' is a specific classification criterion for describing the appearance of a specific object, and includes a plurality of individual appearance characteristics expressing various appearance characteristics within the same classification criterion of the object. For example, when the object is clothing, the appearance classification criteria are classification criteria for the appearance of clothing, and may include patterns, colors, fits, and lengths. In other words, if the classification criteria for a specific object are increased, the appearance of a specific object belonging to the object can be described in detail.

본 명세서에서 '개별외형특성'은 특정한 외형분류기준 내에 포함되는 다양한 특성을 의미한다. 예를 들어, 외형분류기준이 색상인 경우, 개별외형특성은 다양한 개별 색상을 의미한다.In the present specification,'individual appearance characteristics' means various characteristics included in a specific appearance classification criterion. For example, when the external classification criteria are colors, individual appearance characteristics refer to various individual colors.

본 명세서에서 '추상적 특성'은 특정한 대상체에 대하여 인지되는 추상적인 특성으로서, 제1감성특성 또는 제2감성특성을 포함한다.In the present specification,'abstract characteristic' is an abstract characteristic perceived for a specific object, and includes a first emotional characteristic or a second emotional characteristic.

본 명세서에서 '제1감성특성'은 특정한 대상체의 외형을 기반으로 인지되는 감성적 특성을 의미한다. 예를 들어, 특정한 대상체의 외형에 대한 '귀여운' 또는 '빈티지'와 같은 감성적 또는 유행적 표현일 수 있다.In the present specification,'first emotional characteristic' refers to an emotional characteristic recognized based on the appearance of a specific object. For example, it may be an emotional or fashionable expression such as'cute' or'vintage' for the appearance of a specific object.

본 명세서에서 '제2감성특성'은 특정한 대상체의 상품에 부여되는 정보를 기반으로 인지되는 감성적 특성을 의미한다. 예를 들어, 특정한 대상체의 상품 정보 중 가격에 대하여 인지되는 '저렴한', '비싼'과 같은 감성적 표현일 수 있다.In the present specification,'second emotional characteristics' refers to emotional characteristics recognized based on information given to a product of a specific object. For example, it may be an emotional expression such as'cheap' or'expensive' perceived for a price among product information of a specific object.

이하, 첨부된 도면을 참조하여 본 발명의 실시예를 상세하게 설명한다. Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings.

도 1은 본 발명의 일 실시예에 따른 영상데이터의 추상적특성 획득 방법의 순서도이다.1 is a flowchart of a method for obtaining abstract characteristics of image data according to an embodiment of the present invention.

도 1을 참조하면, 본 발명의 일 실시예에 따른 영상데이터의 추상적특성 획득 방법은, 서버가 영상데이터에 대하여 산출된 복수의 개별외형특성을 추상적특성 인식모델에 입력하여, 추상적특성을 산출하는 단계(S4100); 및 상기 서버가 상기 산출된 복수의 개별외형특성 및 추상적특성을 조합하여 외형서술데이터를 생성하는 단계(S4200);를 포함한다. 이하, 각 단계에 대한 상세한 설명을 기술한다.Referring to FIG. 1, in the method of acquiring abstract characteristics of image data according to an embodiment of the present invention, a server inputs a plurality of individual appearance characteristics calculated for image data into an abstract characteristic recognition model to calculate abstract characteristics Step S4100; And generating, by the server, appearance descriptive data by combining the calculated plurality of individual appearance characteristics and abstract characteristics (S4200). Hereinafter, detailed description of each step will be described.

서버(10)가 영상데이터에 대하여 산출된 복수의 개별외형특성을 추상적특성 인식모델(300)에 입력하여, 추상적특성을 산출한다(S4100). 상기 개별외형특성은, 대상체의 외형을 서술하기 위한 특정한 분류기준인 외형분류기준 내의 다양한 외형특성을 표현하는 것일 수 있다.The server 10 inputs a plurality of individual appearance characteristics calculated on the image data into the abstract characteristic recognition model 300 to calculate the abstract characteristics (S4100). The individual external characteristics may be to express various external characteristics within the external classification criteria, which are specific classification criteria for describing the external shape of the subject.

일 실시예에서, 상기 개별외형특성은, 서버가 영상데이터를 외형특성 인식모델(200)에 입력하여 산출되는 것일 수 있다.In one embodiment, the individual appearance characteristics may be calculated by inputting image data into the appearance characteristic recognition model 200 by the server.

도 2는 본 발명의 일 실시예에 따른 외형특성 인식모델의 구성도이다.2 is a block diagram of an appearance characteristic recognition model according to an embodiment of the present invention.

도 2를 참조하면, 일 실시예에서 상기 외형특성 인식모델(200)은, 상이한 외형분류기준을 판단하는 복수의 개별특성인식모듈(210)을 포함한다. 즉, 상기 외형특성 인식모델은 각각의 외형분류기준을 인식하는 것으로 특화된 복수의 개별특성인식모듈을 포함한다. 특정한 대상체의 외형분류기준이 많을수록, 서버는 다수의 개별특성인식모듈을 외형특성 인식모델 내에 포함한다. 상기 개별특성인식모듈은 영상데이터의 특정한 외형분류기준에 포함된 개별외형특성을 산출하는 것이다.Referring to FIG. 2, in one embodiment, the appearance characteristic recognition model 200 includes a plurality of individual characteristic recognition modules 210 for determining different appearance classification criteria. That is, the appearance characteristic recognition model includes a plurality of individual characteristic recognition modules specialized for recognizing respective appearance classification criteria. The more the classification criteria of a specific object, the more the server includes a plurality of individual characteristic recognition modules in the appearance characteristic recognition model. The individual characteristic recognition module calculates individual external characteristics included in a specific external classification criteria of image data.

또한, 일 실시예에서, 상기 개별외형특성 산출단계(S4200)는, 대상체 유형정보에 대응되는 특화 외형특성 인식모델에 상기 영상데이터를 입력하여, 복수의 개별외형특성을 산출하는 것일 수 있다. In addition, in one embodiment, the calculating of the individual external characteristics (S4200) may include calculating the plurality of individual external characteristics by inputting the image data in a specialized external characteristic recognition model corresponding to object type information.

이를 위하여, 일 실시예에서, 특정 영상데이터에 대하여 개별외형특성을 산출하기에 앞서, 대상체의 유형정보를 획득하는 단계;를 더 포함할 수 있다. 상기 대상체의 유형정보 획득은, 영상데이터를 대상체유형 인식모델(100)에 입력하여 획득하는 것을 포함하나, 이에 제한되지 않는다.To this end, in one embodiment, prior to calculating individual appearance characteristics for specific image data, obtaining type information of the object may further include. Acquiring the type information of the object includes, but is not limited to, acquiring image data by inputting it to the object type recognition model 100.

일 실시예에서, 상기 특화 외형특성 인식모델은, 특정 대상체 유형정보에 따라 적용하도록 미리 설정된 복수의 외형분류기준의 개별특성인식모듈을 포함한다. 즉, 특정 영상데이터에 대하여 산출되는 대상체 유형정보에 따라 적용되는 외형분류기준의 종류가 결정될 수 있다.In one embodiment, the specialized external characteristic recognition model includes a plurality of external characteristic recognition modules preset in advance to be applied according to specific object type information. That is, the type of the appearance classification criterion applied according to object type information calculated for specific image data may be determined.

구체적으로, 도 2를 참조하면, 특정한 대상체 유형정보(대상체1, 대상체2, 대상체3)에 따라 각각 상이한 외형분류기준의 조합(즉, 개별특성인식모듈의 조합)이 설정되어 있는 특화 외형특성 인식모델을 생성할 수 있고, 특정한 영상데이터에 대하여 산출된 대상체 유형정보에 따라 상기 영상데이터를 해당하는 유형정보의 특화 외형특성 인식모델 내의 복수의 개별특성인식모듈 각각에 입력하여, 개별외형특성을 산출할 수 있다. 또한, 상이한 대상체 유형정보의 특화 외형특성 인식모델 내의 개별특성인식모듈의 조합이 동일할 수 있음은 물론이다.Specifically, referring to FIG. 2, specialized appearance characteristic recognition in which a combination of different appearance classification criteria (that is, combination of individual characteristic recognition modules) is set according to specific object type information (object 1, object 2, object 3) Models can be generated, and input the image data to each of a plurality of individual characteristic recognition modules in a specialized appearance characteristic recognition model of the corresponding type information according to object type information calculated for specific image data to calculate individual appearance characteristics can do. Also, it goes without saying that the combination of individual characteristic recognition modules in the specialized external characteristic recognition model of different object type information may be the same.

또한, 일 실시예에서, 도 2와 같이 상기 외형분류기준은, 특정 유형의 대상체에만 적용되는 특화 외형분류기준 및 모든 유형의 대상체에 적용되는 범용 외형분류기준을 포함하고, 복수의 대상체 유형정보에 대한 각 특화 외형특성 인식모델은 범용 개별특성인식모듈을 공유하여 사용할 수 있다.In addition, in one embodiment, as shown in FIG. 2, the external classification criteria include specialized external classification criteria applied only to a specific type of object and universal external classification criteria applied to all types of objects, and include a plurality of object type information. Each specialized appearance characteristic recognition model for Korea can be used by sharing a general purpose individual characteristic recognition module.

예를 들어, '색상(color)', '패턴(pattern)', '질감(texture)'등의 외형분류기준은 대상체 유형에 무관하게 적용이(개별외형특성 산출) 가능하므로, 범용 외형분류기준에 해당할 수 있다.For example, the external classification criteria such as'color','pattern', and'texture' can be applied regardless of the object type (individual appearance characteristics are calculated). May correspond to

전술한 방법에 의하여 산출된 복수의 개별외형특성을 추상적특성 인식모델(300)에 입력하여, 추상적특성을 산출한다. The plurality of individual appearance characteristics calculated by the above-described method are input to the abstract characteristic recognition model 300 to calculate the abstract characteristics.

일 실시예에서, 서버는 복수의 개별외형특성뿐만 아니라 대상체 유형정보를 더 포함하여 상기 추상적특성 인식모델에 입력할 수 있으며, 개별외형특성 또는 대상체 유형정보가 조합된 외형서술데이터의 형태로 입력할 수 있다.In one embodiment, the server may input a plurality of individual external characteristics as well as object type information to the abstract characteristic recognition model, and input the individual external characteristics or object type information in the form of external descriptive data combined. Can be.

즉, 본 발명에 따르면 이미지와 같은 영상데이터 자체가 아닌, 영상데이터로부터 산출된 외형서술데이터를 기초로 추상적특성을 산출함에 따라, 데이터의 효율적인 처리 및 객관적인 추상적특성 산출이 가능하다.That is, according to the present invention, as the abstract characteristics are calculated based on the external description data calculated from the image data, not the image data itself such as an image, efficient processing of data and objective abstract characteristic calculation are possible.

일 실시예에서, 상기 추상적특성은, 제1감성특성을 포함한다. 상기 제1감성특성은, 특정한 대상체의 외형을 기반으로 인지되는 감성적 특성으로, 특정한 감성적 특성인 복수의 제1개별감성특성을 포함한다. In one embodiment, the abstract characteristic includes a first emotional characteristic. The first emotional characteristic is a perceived emotional characteristic based on the appearance of a specific object, and includes a plurality of first individual emotional characteristics that are specific emotional characteristics.

일 실시예에서, 제1감성특성에 포함된 각각의 제1개별감성특성의 정의 및 개수는 서버에 의하여 설정될 수 있으며, 추가 또는 변경될 수 있다. 대상체의 외형에 대한 감성적 특성인 제1감성특성은, 시0대 또는 지역에 따라 상이하게 정의될 수 있으므로, 이에 맞추어 다양하게 변경 가능하도록 하기 위함이다.In one embodiment, the definition and number of each first individual emotional characteristic included in the first emotional characteristic may be set by the server, and may be added or changed. The first emotional characteristic, which is an emotional characteristic for the appearance of the object, may be defined differently according to the time zone or region, so that it can be variously changed accordingly.

예를 들어, 각각의 제1개별감성특성은 '귀여운(Cute)', '부드러운(soft)', '현대적인(Modern)' 등으로 설정될 수 있으며, 또한, 각각의 제1개별감성특성에 대조되는 제1개별감성특성인 '우아한(Elegant)', '거친(Wild)', '고전적인(Classic)' 등을 더 포함하도록 설정될 수도 있다. 그러나, 본 발명의 제1개별감성특성은 이에 제한되지 않고 다양하게 설정될 수 있다.For example, each first individual emotion characteristic may be set to'Cute','soft','modern', etc., and also to each first individual emotion characteristic. It may be set to further include'Elegant','Wild','Classic', etc., which are contrasting first individual emotional characteristics. However, the first individual emotional characteristic of the present invention is not limited to this and can be variously set.

도 3을 참조하면, 일 실시예에서, 상기 추상적특성 인식모델(300)은, 개별외형특성을 입력 받아 제1감성특성을 산출하는 제1감성특성 인식모델(310)을 포함한다.Referring to FIG. 3, in one embodiment, the abstract characteristic recognition model 300 includes a first emotional characteristic recognition model 310 that receives an individual external characteristic and calculates a first emotional characteristic.

일 실시예에서, 상기 제1감성특성 인식모델은, 각 개별외형특성마다 복수의 제1개별감성특성 각각에 대한 점수가 설정됨에 따라, 입력된 복수의 개별외형특성에 설정된 각각의 제1개별감성특성에 대한 점수를 합산하여 제1감성특성을 산출하는 것일 수 있다.In one embodiment, the first emotional characteristic recognition model, each of the first individual emotions set in the plurality of individual appearance characteristics, as the scores for each of the plurality of first individual emotion characteristics are set for each individual appearance characteristic The first emotional characteristic may be calculated by summing the scores for the characteristic.

예를 들어, 도 4와 같이 각 외형분류기준에 포함된 복수의 개별외형특성마다 제1개별감성특성 각각에 대한 점수가 설정될 수 있다. 도 4에서는 각 점수가 0 또는 1로 표시되었으나, 이에 제한되지 않고 0~1 사이의 수 또는 음수 등 다양한 방식으로 점수가 설정될 수 있다. For example, as shown in FIG. 4, for each of the plurality of individual appearance characteristics included in each appearance classification criterion, a score for each of the first individual emotion characteristics may be set. In FIG. 4, each score is indicated as 0 or 1, but the present invention is not limited thereto, and the score may be set in various ways such as a number between 0 and 1 or a negative number.

일 실시예에서, 각각의 개별외형특성에 제1개별감성특성별 점수가 설정된 점수표는, 하나의 점수표뿐만 아니라, 상이한 복수의 점수표가 생성될 수 있다. 예를 들어, 국가별 또는 지역별로 점수표가 상이하거나, 사용자별 개인화된 점수표가 생성될 수 있으며, 상기 점수표는 서버에 의하여 자유롭게 변경될 수 있음은 물론이다.In one embodiment, a score table in which a score for each individual appearance characteristic is set for each individual appearance characteristic, as well as one score table, a plurality of different score tables may be generated. For example, the score table may be different for each country or region, or a personalized score table for each user may be generated, and the score table can be freely changed by a server.

구체적으로, 동일한 개별외형특성에 대하여 사용자마다 인지하는 제1개별감성특성의 유형이나 정도가 상이할 수 있으므로, 이에 대한 사용자 각각의 데이터가 축적되면 상기 사용자 각각의 점수표의 점수값, 가중치 등을 조절하여 업데이트함으로써, 개인별 최적화된 제1개별감성특성을 산출할 수 있다.Specifically, since the type or degree of the first individual emotion characteristic perceived by each user for the same individual appearance characteristic may be different, when data for each user is accumulated, the score value, weight, etc. of each user's score table are adjusted. By updating by, it is possible to calculate the first individual emotion characteristics optimized for each individual.

이어서, 입력된 복수의 개별외형특성 및 개별외형특성에 설정된 각각의 제1개별감성특성 점수를 기반으로, 각각의 제1개별감성특성 점수를 합산하여 제1감성특성을 산출한다.Subsequently, the first emotion characteristics are calculated by summing each first individual emotion characteristic score based on the inputted plurality of individual external characteristics and respective first individual emotional characteristic scores set in the individual external characteristics.

예를 들어, 도 4의 예시에 있어서 특정 영상데이터로부터 산출된 '브이넥' 및 '빨간색'의 개별외형특성이 입력된 경우, 각각의 제1개별감성특성별 합산된 점수는, '귀여운: 1', '우아한: 2', '부드러운: 0', '거친: 1', '현대적인: 0', '고전적인: 1'이고, 이를 기초로 제1감성특성을 산출할 수 있다.For example, in the example of FIG. 4, when the individual appearance characteristics of'V-neck' and'red' calculated from specific image data are input, the sum of the scores of each first individual emotional characteristic is'cute: 1'. ,'Elegant: 2','Soft: 0','Rough: 1','Modern: 0','Classic: 1', and based on this, the first emotional characteristics can be calculated.

일 실시예에서, 상기 제1감성특성은 각 제1개별감성특성 점수의 전체 점수에 대한 비율을 포함하여 산출될 수 있다. 예를 들어, 전술한 예시의 경우 전체 점수가 5이므로, 제1감성특성은 각 제1개별감성특성 점수의 비율을 포함하도록 "귀여운: 0.2, 우아한: 0.4, 부드러운: 0, 거친: 0.2, 현대적인: 0, 고전적인: 0.2"으로 산출될 수 있다.In one embodiment, the first emotional characteristic may be calculated by including a ratio of the total score of each first individual emotional characteristic score. For example, in the example described above, since the overall score is 5, the first emotional characteristic includes a ratio of each first individual emotional characteristic score, such as "cute: 0.2, elegant: 0.4, soft: 0, rough: 0.2, modern It can be calculated as Red: 0, Classic: 0.2".

다른 실시예에서, 상기 제1감성특성은 각 제1개별감성특성 점수를 포함하여 산출될 수 있다. 예를 들어, 전술한 예시의 경우 제1감성특성은 각 제1개별감성특성 점수를 포함하도록 "귀여운: 1, 우아한: 2, 부드러운: 0, 거친: 1, 현대적인: 0, 고전적인: 1"으로 산출될 수 있다. In another embodiment, the first emotional characteristic may be calculated by including each first individual emotional characteristic score. For example, in the example above, the first sentiment characteristic is "cute: 1, elegant: 2, soft: 0, rough: 1, modern: 0, classic: 1 to include each first individual sentiment score. ".

다른 실시예에서, 상기 제1감성특성은 각 제1개별감성특성 점수가 미리 설정된 임계값 이상인 제1개별감성특성만 산출하는 것일 수 있다. 예를 들어, 전술한 예시에서 임계값이 2(혹은 비율 0.4)인 경우, 제1감성특성은 '우아한'의 제1개별감성특성만 산출될 수 있다. 그러나, 제1감성특성의 산출은 전술한 예시에 제한되지 않고 다양한 알고리즘으로 산출될 수 있다.In another embodiment, the first emotional characteristic may be to calculate only the first individual emotional characteristic in which each first individual emotional characteristic score is equal to or greater than a preset threshold. For example, in the above-described example, when the threshold value is 2 (or a ratio of 0.4), only the first individual emotion characteristic of'elegant' may be calculated as the first emotion characteristic. However, the calculation of the first emotional characteristic is not limited to the above-described example and can be calculated by various algorithms.

일 실시예에서, 제1감성특성은 대상체의 외형에 대하여 느껴지는 감성적인 특성이므로, 각각의 제1개별감성특성에 대하여 사용자마다 인지하는 정의는 상이할 수 있다. 그러나, 제1감성특성은, 표준화된 제1감성특성 인식모델(320)에 개별외형특성을 입력함으로써 산출되는 것이므로, 동일한 영상데이터(즉, 동일한 개별외형특성)에 대하여는 동일한 제1감성특성이 산출될 수 있다.In one embodiment, since the first emotional characteristic is an emotional characteristic that is felt with respect to the appearance of the object, definitions perceived by each user for each first individual emotional characteristic may be different. However, since the first emotional characteristic is calculated by inputting the individual external characteristics to the standardized first emotional characteristic recognition model 320, the same first emotional characteristics are calculated for the same image data (ie, the same individual external characteristics). Can be.

예를 들어, 특정한 사용자가 일반적인 정의의 '우아한' 자켓에 관한 영상데이터에 대하여 사용자 A가 '귀여운'이라 인지하고, 상기 영상데이터를 입력하여 유사한 영상데이터를 검색하려는 경우, 서버가 상기 영상데이터에 대하여 '우아한(표준화된 제1감성특성 인식모델 상 정의)'의 제1개별감성특성을 산출하였다 하더라도, 서버가 사용자에게 상기 제1개별감성특성을 포함하는 영상데이터를 유사한 영상데이터로 제공함에 있어서 제공되는 영상데이터는 '사용자 A에 있어서 귀여운(즉, 일반적인 정의의 '우아한'과 동일)' 제1감성특성을 포함할 것이므로, 사용자의 검색에 있어서 문제가 발생하지 않는다.For example, when a specific user recognizes that the user A is'cute' with respect to the image data related to the'elegant' jacket of the general definition, and inputs the image data to search for similar image data, the server may use Even if the first individual emotion characteristics of'elegant (defined as the standardized first emotion characteristic recognition model)' are calculated, the server provides the user with image data including the first individual emotion characteristics as similar image data. Since the provided image data will include the first emotion characteristic of'cute for user A (ie, the same as'elegant' of general definition)), there is no problem in the user's search.

또한, 일 실시예에서, 본 발명의 일 실시예에 따른 영상데이터의 추상적특성 획득 방법은, 사용자에 대한 개인화 추상적특성을 설정하는 단계;를 더 포함할 수 있다.In addition, in one embodiment, the method for acquiring abstract characteristics of image data according to an embodiment of the present invention may further include setting a personalized abstract characteristic for a user.

즉, 전술한 바와 같이 상기 제1감성특성 인식모델에 정의된 제1개별감성특성의 정의와, 상기 제1개별감성특성에 대하여 특정 사용자가 인지하는 정의는 상이할 수 있으므로, 특정 제1개별감성특성에 대한 상기 제1감성특성 인식모델의 정의와 상기 사용자가 생각하는 정의를 매칭시킬 수 있다. 이를 통해, 해당 사용자가 후술하는 바와 같이, 특정 검색키워드를 이용하여 영상데이터의 검색을 수행하는 경우 상기 개인화 추상적특성을 이용할 수 있다.That is, as described above, the definition of the first individual emotion characteristic defined in the recognition model of the first emotional characteristic and the definition recognized by a specific user with respect to the first individual emotional characteristic may be different. The definition of the first emotional characteristic recognition model for a characteristic may be matched with the definition that the user thinks. Through this, when the user searches for image data using a specific search keyword, as described later, the personalized abstract characteristic can be used.

예를 들어, 제1감성특성 인식모델의 '귀여운' 제1개별감성특성에 대하여, 특정 사용자가 '우아한'으로 인지하는 것으로 매칭된 경우, 상기 사용자가 "우아한 자켓"의 검색키워드를 이용하여 영상데이터를 검색하는 경우, 상기 매칭 결과에 따라 서버는 상기 검색키워드로부터 상기 제1감성특성 인식모델 상 '우아한'이 아닌 '귀여운'의 제1개별감성특성을 산출하여 이를 포함하는 검색 결과를 제공하더라도, 상기 사용자는 검색 결과에 대하여 '우아한'으로 인지할 것이므로, 마찬가지로 사용자의 검색에 있어서 문제가 발생하지 않는다.For example, if a specific user's'cute' first individual emotional characteristic of the first emotional characteristic recognition model is matched to be recognized as'elegant', the user uses the search keyword of "elegant jacket" to search for the video. When searching for data, the server calculates the first individual emotional characteristic of'cute' instead of'elegant' on the first emotional characteristic recognition model from the search keyword and provides the search result including the result according to the matching result. , Since the user will recognize the search result as'elegant', there is no problem in the user's search.

또한, 일 실시예에서, 상기 제1개별감성특성에 대하여 특정 사용자가 인지하는 정의는 다양한 방식으로 획득될 수 있다. 예를 들어, 제1감성특성이 산출된 복수의 영상데이터를 사용자에게 제공하여 사용자가 느끼는 의미를 입력 받아 매칭시킬 수 있으나, 이에 제한되지 않는다.Also, in one embodiment, a definition recognized by a specific user with respect to the first individual emotional characteristic may be obtained in various ways. For example, a plurality of image data from which the first emotional characteristic is calculated may be provided to the user to receive and match the meaning felt by the user, but is not limited thereto.

일 실시예에서, 상기 추상적특성은, 제2감성특성을 포함한다. 상기 제2감성특성은, 특정한 대상체의 상품에 부여되는 정보를 기반으로 인지되는 감성적 특성으로, 상이한 종류의 상품정보에 대하여 느껴지는 다양한 감성적 특성인 제2개별감성특성을 포함한다.In one embodiment, the abstract characteristic includes a second emotional characteristic. The second emotional characteristic is an emotional characteristic recognized based on information given to a product of a specific object, and includes a second individual emotional characteristic that is various emotional characteristics felt for different types of product information.

예를 들어, '가격'의 상품정보에 대하여 느껴지는 '저렴한', '비싼'의 제2개별감성특성 또는 '배송 시간'의 상품정보에 대하여 느껴지는 '빠른', '느린'의 제2개별감성특성을 포함할 수 있다. 즉, 사용자의 특정 대상체에 대한 호감도에 있어서, 외형(디자인)뿐만 아니라 가격, 배송시간 등 해당 영상데이터의 상품에 부여된 정보도 중요한 고려요소가 될 수 있으므로, 이에 대한 감성적 특성을 추가적으로 산출하는 것이다.For example, the second individual emotion characteristics of'cheap','expensive' felt about product information of'price', or the second individual emotion characteristics of'fast','slow' felt about product information of'delivery time' It may include. That is, in regard to the user's preference for a specific object, information given to the product of the corresponding image data, such as price and delivery time, as well as appearance (design) may be an important consideration factor, and thus emotional characteristics of the user are additionally calculated .

도 3을 참조하면, 일 실시예에서, 상기 추상적특성 인식모델(300)은, 영상데이터의 대상체에 대한 상품정보를 입력 받아 제2감성특성을 산출하는 제2감성특성 인식모델(320)을 포함한다.Referring to FIG. 3, in one embodiment, the abstract characteristic recognition model 300 includes a second emotional characteristic recognition model 320 that receives product information about an object of image data and calculates a second emotional characteristic. do.

또한, 일 실시예에서, 상기 제2감성특성 인식모델(320)은, 상이한 상품정보에 대한 감성적 특성을 판단하는 복수의 제2개별감성특성 인식모듈을 포함한다. 상기 제2개별감성특성 인식모듈은 영상데이터의 대상체의 특정한 상품정보에 대한 각각의 제2개별감성특성을 산출하는 것이다.In addition, in one embodiment, the second emotional characteristic recognition model 320 includes a plurality of second individual emotional characteristic recognition modules for determining emotional characteristics for different product information. The second individual emotional characteristic recognition module calculates each second individual emotional characteristic for specific product information of an object of image data.

또한, 일 실시예에서, 상기 제2감성특성은, 상기 상품정보뿐만 아니라 개별외형특성, 대상체 유형정보, 또는 사용자 정보 등 다양한 정보를 고려하여 산출될 수 있다.In addition, in one embodiment, the second emotional characteristic may be calculated in consideration of various information such as individual appearance characteristics, object type information, or user information as well as the product information.

예를 들면, 상품정보 중 '가격'에 대한 제2개별감성특성(예를 들어, '비싼' 또는 '저렴한) 경우, 대상체의 유형이나 브랜드, 사용자 유형에 따라 제2개별감성특성을 판단하는 기준이 상이할 수 있으므로, 이를 포함하는 다양한 정보를 고려하여 제2감성특성을 산출하는 것이다.For example, in the case of the second individual emotion characteristic of'price' among product information (for example,'expensive' or'cheap'), the criterion for determining the second individual emotion characteristic according to the object type, brand, or user type Since this may be different, the second emotional characteristic is calculated in consideration of various information including the same.

이어서, 상기 서버가 상기 영상데이터에 대하여 산출된 복수의 개별외형특성 및 추상적특성을 조합하여 외형서술데이터를 생성한다(S4200).Subsequently, the server generates external descriptive data by combining a plurality of individual external characteristics and abstract characteristics calculated for the image data (S4200).

일 실시예에서, 상기 외형서술데이터 생성단계(S4200)는, 상기 영상데이터에 대한 복수의 개별외형특성 및 추상적특성 각각에 대응하는 코드값을 추출하여, 상기 복수의 코드값이 조합된 코드열 형태의 외형서술데이터를 생성하는 것을 포함한다. 즉, 서버가 개별외형특성 및 추상적특성을 코드화 함에 따라 외형서술데이터를 코드열로 생성할 수 있고, 이를 통해 외형서술데이터의 처리가 효율적으로 될 수 있다.In one embodiment, the external description data generation step (S4200) extracts a code value corresponding to each of a plurality of individual appearance characteristics and abstract characteristics of the image data, and the code string form in which the plurality of code values are combined And generating external description data. That is, as the server codes the individual external characteristics and the abstract characteristics, external description data can be generated as a code string, thereby enabling efficient processing of external description data.

일 실시예에서, 복수의 개별외형특성이 조합된 외형서술데이터를 추상적특성 인식모델에 입력하여 추상적특성을 산출한 경우, 상기 추상적특성에 대응되는 코드값을 추출하여 기존의 외형서술데이터에 추가함으로써 간단하게 외형서술데이터를 업데이트할 수 있다.In one embodiment, when the abstract characteristics are calculated by inputting the outline description data combined with a plurality of individual appearance characteristics into the abstract characteristic recognition model, the code values corresponding to the abstract characteristics are extracted and added to the existing outline description data. You can simply update the appearance description data.

또한, 일 실시예에서, 상기 제1감성특성에 대응하는 코드값은, 상기 제1개별감성특성 각각에 대하여 합산된 점수에 대한 정보를 포함할 수 있다. In addition, in one embodiment, the code value corresponding to the first emotional characteristic may include information about the summed score for each of the first individual emotional characteristics.

구체적으로, 전술한 예시에서 "귀여운: 0.2, 우아한: 0.4, 부드러운: 0, 거친: 0.2, 현대적인: 0, 고전적인: 0.2"로 제1감성특성이 산출되고, 각각의 제1개별감성특성에 대응하는 코드값이 "귀여운: Aa, 우아한: Ac, 부드러운: Ad, 거친: Af, 현대적인: Ai, 고전적인: Ap"인 경우, 제1감성특성에 대한 코드열 형태의 외형서술데이터는 "Aa20, Ac40, Ad00, Af20, Ai00, Ap20"으로 생성될 수 있다. 또한, 개별외형특성인 '빨간색', '브이넥'에 대응되는 코드값이 'Oa02, 'Bb02'라면, 상기 영상데이터의 외형서술데이터는 이를 조합한 "Aa20, Ac40, Ad00, Af20, Ai00, Ap20, Bb02, Oa02"로 생성될 수 있다. 그러나, 본 발명의 코드시스템은 이에 제한되지 않고 다양한 방식으로 구축될 수 있다.Specifically, in the above-described example, "Cute: 0.2, Elegant: 0.4, Soft: 0, Coarse: 0.2, Modern: 0, Classical: 0.2", the first emotional characteristics are calculated, and each first individual emotional characteristic If the code values corresponding to "Cute: Aa, Elegant: Ac, Soft: Ad, Coarse: Af, Modern: Ai, Classic: Ap", then the code descriptive data for the first emotional characteristic is "Aa20, Ac40, Ad00, Af20, Ai00, Ap20". In addition, if the code values corresponding to the individual appearance characteristics of'red' and'V-neck' are'Oa02 and'Bb02', the external description data of the video data is a combination of "Aa20, Ac40, Ad00, Af20, Ai00, Ap20" , Bb02, Oa02". However, the code system of the present invention is not limited to this and can be constructed in various ways.

도 5를 참조하면, 본 발명의 일 실시예에 따른 영상데이터의 추상적특성 획득 방법은, 상기 서버가 외형서술데이터를 기초로 추천영상데이터정보 생성하는 단계(S4300);를 더 포함한다. Referring to FIG. 5, the method for acquiring abstract characteristics of image data according to an embodiment of the present invention further includes (S4300) the server generating recommended image data information based on appearance description data.

일 실시예에서, 상기 추천영상데이터정보는, 특정한 영상데이터와 유사하거나 연관성이 있어 상기 영상데이터와 그룹핑(grouping)될 수 있는 영상데이터인 추천영상데이터에 대한 정보를 의미한다.In one embodiment, the recommended image data information refers to information about recommended image data, which is image data that can be grouped with the image data because it is similar or related to specific image data.

예를 들어, 특정 자켓에 관한 영상데이터의 추천영상데이터는, 상기 자켓과 유사한 다른 자켓에 관한 영상데이터나, 상기 자켓과 어울리는 하의, 액세서리 또는 인테리어에 관한 영상데이터 등 특정 영상데이터와 그룹핑 될 수 있는 다양한 영상데이터를 포함한다.For example, the recommended image data of the image data related to a specific jacket may be grouped with specific image data such as image data related to other jackets similar to the jacket or image data related to bottoms, accessories or interiors matching the jacket. Contains various image data.

일 실시예에서, 상기 추천영상데이터정보 생성 단계(S4300)는, 서버가 특정 영상데이터의 외형서술데이터에 매칭되는 추천외형서술데이터를 산출하고, 이를 포함하는 영상데이터에 대한 추천영상데이터정보를 생성하는 것일 수 있다. 즉, 특정 영상데이터 자체가 아닌, 산출된 외형서술데이터를 기준으로 추천영상데이터를 산출하는 것이다.In one embodiment, in the step S4300 of generating the recommended image data information, the server calculates the recommended outline description data matching the outline description data of the specific image data, and generates the recommended image data information for the image data including the same. It may be. That is, the recommended image data is calculated based on the calculated appearance description data, not the specific image data itself.

일 실시예에서, 상기 추천외형서술데이터의 산출은, 상기 외형서술데이터에 포함된 복수의 개별외형특성뿐만 아니라, 산출된 제1개별감성특성 및 각각의 제1개별감성특성 간 연관도를 기초로 추천외형서술데이터를 산출할 수 있다.In one embodiment, the calculation of the recommended outline description data is based on a correlation between the calculated first individual emotion characteristics and each first individual emotion characteristics, as well as a plurality of individual appearance characteristics included in the outline description data. Recommended external descriptive data can be calculated.

일 실시예에서, 상기 제1개별감성특성 간 연관도는, 각각의 제1개별감성특성 간 유사도 및 비유사도를 포함한다. 즉, 상기 제1개별감성특성 간 연관도는, 특정한 감성적 특성에 대하여, 다른 감성적 특성이 어울리는 정도 또는 배치되는 정도를 의미할 수 있다.In one embodiment, the degree of association between the first individual emotional characteristics includes similarity and dissimilarity between each of the first individual emotional characteristics. That is, the degree of association between the first individual emotional characteristics may refer to a degree of matching or disposition of other emotional characteristics with respect to specific emotional characteristics.

예를 들어, '귀여운'의 제1개별감성특성은, '순수한', '부드러운', '자연스러운'의 제1개별감성특성들과 어울리나, '섹시한', '거친'의 제1개별감성특성들과는 어울리지 않거나 배치될 수 있다. 따라서, 각각의 제1개별감성특성 간 연관도를 설정하고, 이를 기초로 입력된 영상데이터의 제1개별감성특성과 유사하거나 어울리는 제1개별감성특성을 포함하고 배치되는 제1개별감성특성을 포함하지 않도록 추천외형서술데이터를 산출할 수 있다.For example, the first individual emotional characteristics of'cute' match the first individual emotional characteristics of'pure','soft', and'natural', but the first individual emotional characteristics of'sexy' and'rough' It can be out of place or can be deployed. Accordingly, an association degree between each first individual emotional characteristic is established, and based on this, the first individual emotional characteristic similar to or matching the first individual emotional characteristic of the input image data is included, and the arranged first individual emotional characteristic is included. In order not to do so, it is possible to calculate the recommended external description data.

또한, 일 실시예에서, 상기 추천외형서술데이터의 산출은, 상기 서버가 특정한 사용자의 개별외형특성, 제1개별감성특성 또는 제2개별감성특성 각각에 대한 선호 정보를 더 고려하여 산출할 수 있다.In addition, in one embodiment, the calculation of the recommended appearance description data may be calculated by further considering preference information for each of the individual appearance characteristics, the first individual emotion characteristics, or the second individual emotion characteristics of the specific user of the server. .

즉, 일 실시예에서, 서버에 특정한 영상데이터의 외형서술데이터뿐만 아니라 특정한 사용자 각각의 선호도정보가 입력된 경우, 상기 서버는 상기 영상데이터에 대한 추천외형서술데이터를 산출함에 있어서, 사용자 개인의 선호도정보를 고려하여 입력된 사용자별로 적절한 추천외형서술데이터를 산출할 수 있고, 이를 기초로 사용자 개인 맞춤형 추천영상데이터정보를 생성할 수 있다. 즉, 동일한 영상데이터에 대하여 사용자에 따라 추천영상데이터정보가 상이할 수 있다.That is, in one embodiment, when preference information of each specific user as well as external description data of specific image data is input to the server, the server calculates the recommended external description data for the image data, and the user's personal preference. In consideration of the information, appropriate recommendation appearance data can be calculated for each input user, and based on this, personalized personalized recommendation image data information can be generated. That is, recommended image data information may be different according to a user for the same image data.

도 6을 참조하면, 본 발명의 일 실시예에 따른 영상데이터의 추상적특성 획득 방법은, 서버가 키워드에 하나 이상의 제1개별감성특성을 매칭하는 단계(S4400);를 더 포함한다. 즉, 특정 단어에 하나 이상의 제1개별감성특성을 매칭할 수 있다.Referring to FIG. 6, the method for acquiring abstract characteristics of image data according to an embodiment of the present invention further includes a step (S4400) in which the server matches one or more first individual emotion characteristics with keywords; That is, one or more first individual emotional characteristics may be matched to a specific word.

예를 들어, "댄디(Dandy)" 키워드에 '현대적인(Modern)', '단순한(Simple)'의 제1개별감성특성을 매칭하거나, "파티" 키워드에 '섹시한(Sexy)', '사치스러운(Luxury)'의 제1개별감성특성을 매칭할 수 있다.For example, match the first individual sentiment characteristics of'Modern' and'Simple' to the keyword "Dandy", or'Sexy' or'Luxury' to the keyword "Party" Luxe' can match the first individual sentiment characteristics.

또한, 일 실시예에서, 서버에 새로운 키워드가 입력되는 경우, 상기 새로운 키워드와 유사한 기존의 키워드에 매칭된 제1개별감성특성을 기초로, 새로운 키워드에 하나 이상의 제1개별감성특성이 매칭될 수 있다.In addition, in one embodiment, when a new keyword is input to the server, one or more first individual emotion characteristics may be matched to the new keyword based on the first individual emotion characteristic matched to an existing keyword similar to the new keyword. have.

또한, 일 실시예에서, 서버가 사용자 클라이언트로부터 수신한 검색키워드에 대응되는 영상데이터를 상기 사용자 클라이언트에 전송하는 단계(S4500);를 더 포함한다. 즉, 사용자가 영상데이터 검색을 위하여 검색키워드를 입력한 경우, 상기 검색키워드에 대응되는 영상데이터를 추출하여 검색결과로써 사용자 클라이언트에 전송할 수 있다.In addition, in one embodiment, the server transmits the image data corresponding to the search keyword received from the user client to the user client (S4500); further includes. That is, when a user inputs a search keyword to search for image data, image data corresponding to the search keyword may be extracted and transmitted to the user client as a search result.

일 실시예에서, 상기 검색키워드에 대응되는 영상데이터의 추출은, 상기 검색키워드에 매칭되는 대상체 유형정보, 개별외형특성, 제1개별감성특성 또는 제2개별감성특성을 추출하고, 추출된 특성을 포함하는 외형서술데이터의 영상데이터를 추출하는 것일 수 있다.In one embodiment, extraction of image data corresponding to the search keyword extracts object type information, individual appearance characteristics, first individual emotion characteristics, or second individual emotion characteristics that match the search keyword, and extracts the extracted characteristics. It may be to extract the image data of the external descriptive data to include.

예를 들면, 사용자가 "파티에 어울리는 저렴한 브이넥 셔츠"를 검색키워드로 입력한 경우, 상기 검색키워드로부터 대상체 유형정보로 '셔츠', 개별외형특성으로 '브이넥', 제2개별감성특성으로 '저렴한'을 추출하고, "파티" 키워드에 대하여 S4400단계에서 매칭된 제1개별감성특성인 '섹시한', '사치스러운'을 추출할 수 있다. 따라서, 서버는 추출된 특성을 포함하는 외형서술데이터를 갖는 영상데이터를 검색결과로 사용자 클라이언트에 전송할 수 있다.For example, when a user inputs "cheap V-neck shirt suitable for a party" as a search keyword,'shirt' as the object type information from the search keyword,'V-neck' as the individual appearance characteristic, and'cheap' as the second individual emotional characteristic ', and'Sexy' and'Luxurious', which are the first individual emotion characteristics matched in step S4400 with respect to the keyword "party", may be extracted. Accordingly, the server can transmit image data having external descriptive data including the extracted characteristics to the user client as a search result.

다른 예를 들면, 사용자가 "파티"의 검색키워드만 입력한 경우에도, 위와 같이 '섹시한', '사치스러운'의 제1개별감성특성을 추출하여 이를 포함하는 외형서술데이터를 갖는 영상데이터를 사용자 클라이언트에 전송할 수 있다. For another example, even if the user inputs only the search keyword of "party", the user extracts the first individual emotional characteristics of'sexy' and'luxury' as described above, and then uses the image data having external descriptive data including it. It can be sent to the client.

즉, S4400단계에서 키워드에 제1개별감성특성을 매칭함에 따라, 특정 대상체의 유형이나 외형에 대한 정보를 직접적으로 표현하는 검색키워드가 아닌 경우에도, 적절한 영상데이터를 검색결과로 산출할 수 있는 효과가 있다.That is, by matching the first individual emotional characteristics to the keyword in step S4400, even if it is not a search keyword that directly expresses information on the type or appearance of a specific object, it is possible to calculate appropriate image data as a search result. There is.

또한, 일 실시예에서, 상기 검색키워드에 대응되는 영상데이터의 추출 시, 상기 사용자의 개별외형특성, 제1개별감성특성 또는 제2개별감성특성 각각에 대한 선호정보를 더 고려하여 추출할 수 있다. 이 경우, 동일한 검색키워드가 입력되는 경우라도, 검색키워드를 입력하는 사용자에 따라 검색결과가 상이할 수 있다.In addition, in one embodiment, when extracting the image data corresponding to the search keyword, it may be extracted by further considering preference information for each of the user's individual appearance characteristics, first individual emotion characteristics, or second individual emotion characteristics. . In this case, even if the same search keyword is input, the search result may be different depending on the user inputting the search keyword.

도 7을 참조하면, 본 발명의 일 실시예에 따른 영상데이터의 추상적특성 획득 방법은, 상기 서버가 상기 산출된 제1감성특성을 스타일(style) 인식모델(500)에 입력하여, 스타일정보를 산출하는 단계(S4600);를 더 포함한다.Referring to FIG. 7, in the method of acquiring abstract characteristics of image data according to an embodiment of the present invention, the server inputs the calculated first emotional characteristics into a style recognition model 500, thereby inputting style information. And calculating (S4600).

일 실시예예서, 상기 스타일정보는, 패션 등에서 특유한 형태나 방식에 대한 스타일(style), 룩(look) 또는 , T.P.O.(Time, Place, Occasion)에 대한 정보로, 예를 들어, 캐주얼(Casual), 파티(Party), 댄디(Dandy), 걸리쉬(Girlish) 스타일(룩) 등을 포함할 수 있다. 각각의 스타일 유형 또는 정의는 서버에 의하여 설정될 수 있으며, 자유롭게 변경 또는 추가될 수 있다.In one embodiment, the style information is information about a style, look, or TPO (Time, Place, Occasion) for a specific form or method in fashion, for example, casual (Casual). , Party (Party), Dandy (Dandy), Girlish (Girlish) style (look). Each style type or definition can be set by the server, and can be freely changed or added.

일 실시예에서, 상기 스타일 인식모델(500)은, 제1감성특성 공간맵(520)에 복수의 스타일 각각의 영역이 설정됨에 따라, 입력된 제1감성특성(하나 이상의 제1개별감성특성)이 위치하는 영역의 스타일정보를 산출하는 것일 수 있다.In one embodiment, the style recognition model 500, the first sentiment characteristics (one or more first individual sentiment characteristics), as the area of each of a plurality of styles are set in the first emotional characteristic spatial map 520 It may be to calculate the style information of the location.

도 8을 참조하면, 일 실시예에서, 상기 제1감성특성 공간맵(520)은, 도 8(a)와 같이 복수의 제1개별감성특성을 각각의 제1개별감성특성 간의 연관도를 기초로 평면상에 배치한 공간맵을 의미한다. 즉, 각각의 제1개별감성특성이 입력되는 경우, 각각의 제1개별감성특성의 상기 제1감성특성 공간맵 상에서의 위치가 정해질 수 있다.Referring to FIG. 8, in one embodiment, the first emotional characteristic spatial map 520 is based on an association between a plurality of first individual emotional characteristics, each of the first individual emotional characteristics, as shown in FIG. 8(a). Means a spatial map placed on a flat surface. That is, when each first individual emotional characteristic is input, a position on the first emotional characteristic spatial map of each first individual emotional characteristic may be determined.

예를 들어, 입력된 제1감성특성이 "우아한: 2, 실용적인: 1, 경쾌한: 2, 가벼운: 4, 부드러운: 1, 사랑스러운: 3, 여성스러운: 3, 화려한: 1, 섹시한: 2, 섬세한: 2, 시원한: 3, 자연스러운: 1, 순한: 2"으로, 각각의 제1개별감성특성의 점수를 포함하도록 산출된 경우, 도 8(a)와 같이 각각의 제1개별감성특성의 위치 및 점수를 기초로 제1감성특성 공간맵 상에서 점으로 표시(530)될 수 있다.For example, the input first sentiment is "Elegant: 2, Practical: 1, Cheerful: 2, Light: 4, Soft: 1, Lovely: 3, Feminine: 3, Gorgeous: 1, Sexy: 2, Delicate: 2, Cool: 3, Natural: 1, Mild: 2", when calculated to include scores of each first individual emotion characteristic, as shown in FIG. 8(a), the position of each first individual emotional characteristic And a point 530 on the first emotional characteristic spatial map based on the score.

또한, 일 실시예에서, 도 8(b)와 같이 상기 제1감성특성 공간맵에 복수의 스타일 각각의 영역(540)이 설정될 수 있다. 즉, 각각의 스타일에 대한 개별제1감성특성의 연관도를 고려하여 스타일 영역이 미리 설정될 수 있고, 각 스타일 영역은 겹치는 부분을 포함할 수 있다.In addition, in one embodiment, as shown in FIG. 8( b), a region 540 of each of a plurality of styles may be set in the first emotional characteristic spatial map. That is, the style region may be preset in consideration of the degree of association of individual first emotional characteristics for each style, and each style region may include overlapping portions.

즉, 일 실시예에서, 스타일 인식모델(500) 내의 제1감성특성 공간맵(520)에 복수의 스타일 각각의 영역(540)이 설정되어 있고, 특정 영상데이터로부터 산출된 제1감성특성이 상기 스타일 인식모델에 입력됨으로써 각각의 제1개별감성특성이 상기 제1감성특성 공간맵에 표시(530)된 경우, 표시된 제1개별감성특성을 기초로 상기 영상데이터에 대한 스타일정보를 산출할 수 있다.That is, in one embodiment, a plurality of styles of each region 540 is set in the first emotional characteristic spatial map 520 in the style recognition model 500, and the first emotional characteristic calculated from specific image data is the above. When each first individual emotion characteristic is displayed on the first emotion characteristic spatial map by being input to the style recognition model, style information for the image data may be calculated based on the displayed first individual emotion characteristic. .

구체적으로, 도 8(b)를 참조하면, 전술한 예시의 제1감성특성이 입력되고 복수의 스타일 영역이 설정된 제1감성특성 공간맵 상에 표시된 경우, 가장 많은 제1개별감성특성(530)이 위치한 스타일 영역(543)의 스타일인 '로맨틱(Romantic) 스타일'을 스타일정보로 산출할 수 있다.Specifically, referring to FIG. 8(b), when the first emotional characteristic of the above-described example is input and a plurality of style areas are displayed on the set first emotional characteristic spatial map, the most first individual emotional characteristic 530 The'Romantic style', which is the style of the located style area 543, may be calculated as style information.

또한, 일 실시예에서, 복수의 스타일정보를 산출할 수 있으며, 이 경우 각 스타일 영역(540)에 위치한 제1개별감성특성(530)의 개수를 기반으로 우선순위를 설정하여 복수의 스타일정보를 산출할 수 있다.In addition, in one embodiment, a plurality of style information may be calculated, and in this case, a plurality of style information may be set by setting a priority based on the number of first individual emotion characteristics 530 located in each style area 540. Can be calculated.

구체적으로, 전술한 예시에서 복수의 스타일정보를 산출하는 경우, 각 스타일 영역에 위치한 제1개별감성특성의 개수를 기반으로 '로맨틱(Romantic) 스타일(543)', '엘레강스(Elegance) 스타일(544)', '캐주얼(Casual) 스타일(541)' 순으로 우선순위를 설정하여 복수의 스타일정보를 산출할 수 있다.Specifically, in the case of calculating a plurality of style information in the above-described example, based on the number of first individual emotion characteristics located in each style area,'Romantic style 543','Elegance style 544 )'and'Casual (541)' in order of order to set a priority order to calculate a plurality of style information.

일 실시예에서, 산출된 상기 스타일정보는, 전술한 S4300단계에서 추천영상데이터정보를 생성하는 데 이용될 수 있다. 즉, 특정한 영상데이터의 외형서술데이터를 기초로 스타일정보가 산출된 경우, 상기 스타일정보와 동일하거나 유사한 스타일정보를 갖는 영상데이터를 추천영상데이터정보로 생성할 수 있다.In one embodiment, the calculated style information may be used to generate recommended image data information in step S4300 described above. That is, when style information is calculated based on appearance description data of specific image data, image data having the same or similar style information as the style information may be generated as recommended image data information.

또한, 일 실시예에서, 상기 제1감성특성 공간맵 상에 설정되는 영역은, 전술한 스타일 영역뿐만 아니라, 대상체의 외형에 대하여 인지되는 감성적 특성인 제1감성특성과 연관되는 다양한 개념의 영역이 설정될 수 있다.In addition, in one embodiment, the region set on the first emotional characteristic spatial map includes not only the above-described style region, but also regions of various concepts related to the first emotional characteristic, which is the perceived emotional characteristic of the object's appearance. Can be set.

일 실시예에서, 상기 영상데이터가 복수의 프레임을 포함하는 동영상데이터인 경우, 상기 추상적특성 산출단계(S4100)는, 상기 동영상데이터 내의 각각의 프레임에 대해 수행되는 것을 특징으로 할 수 있고, 외형서술데이터 생성단계(S4200)는 각 프레임에 대한 복수의 개별외형특성 및 추상적특성을 순차적으로 나열하여 생성하는 것을 특징으로 할 수 있다.In one embodiment, when the video data is video data including a plurality of frames, the abstract characteristic calculation step (S4100) may be characterized in that it is performed for each frame in the video data, and external appearance The data generation step S4200 may be characterized by sequentially generating and generating a plurality of individual external characteristics and abstract characteristics for each frame.

본 발명의 다른 일실시예에 따른 영상데이터의 추상적특성 획득 서버장치는, 하나 이상의 컴퓨터를 포함하고, 상기 언급된 추상적특성 획득 방법을 수행한다.An apparatus for acquiring abstract characteristics of image data according to another embodiment of the present invention includes at least one computer, and performs the above-mentioned abstract characteristic acquisition method.

도 9를 참조하면, 본 발명의 일 실시예에 따른 영상데이터의 추상적특성 획득 서버장치(10)는, 추상적특성 인식모델(300), 외형서술데이터 생성부(600) 및 데이터베이스(800)를 포함하며, 전술한 추상적특성 획득 방법을 수행한다.Referring to FIG. 9, the server 10 for obtaining abstract characteristics of image data according to an embodiment of the present invention includes an abstract characteristic recognition model 300, an external description data generation unit 600, and a database 800. And performs the above-described abstract characteristic acquisition method.

또한, 다른 실시예에서, 상기 서버장치(10)는 대상체유형 인식모델(100), 외형특성 인식모델(200), 세부유형 인식모델(400), 스타일 인식모델(500) 또는 추천영상데이터 생성부(700) 중 하나 이상을 더 포함할 수 있다.In addition, in another embodiment, the server device 10 may include an object type recognition model 100, an appearance characteristic recognition model 200, a detailed type recognition model 400, a style recognition model 500, or a recommended image data generation unit. One or more of 700 may be further included.

또한, 전술한 본 발명의 일 실시예에 따른 영상데이터의 추상적특성 획득 방법은, 하드웨어인 컴퓨터와 결합되어 실행되기 위해 프로그램(또는 어플리케이션)으로 구현되어 매체에 저장될 수 있다.In addition, the method for obtaining abstract characteristics of image data according to an embodiment of the present invention described above may be implemented as a program (or application) to be executed in combination with a computer that is hardware, and stored in a medium.

상기 전술한 프로그램은, 상기 컴퓨터가 프로그램을 읽어 들여 프로그램으로 구현된 상기 방법들을 실행시키기 위하여, 상기 컴퓨터의 프로세서(CPU)가 상기 컴퓨터의 장치 인터페이스를 통해 읽힐 수 있는 C, C++, JAVA, 기계어 등의 컴퓨터 언어로 코드화된 코드(Code)를 포함할 수 있다. 이러한 코드는 상기 방법들을 실행하는 필요한 기능들을 정의한 함수 등과 관련된 기능적인 코드(Functional Code)를 포함할 수 있고, 상기 기능들을 상기 컴퓨터의 프로세서가 소정의 절차대로 실행시키는데 필요한 실행 절차 관련 제어 코드를 포함할 수 있다. 또한, 이러한 코드는 상기 기능들을 상기 컴퓨터의 프로세서가 실행시키는데 필요한 추가 정보나 미디어가 상기 컴퓨터의 내부 또는 외부 메모리의 어느 위치(주소 번지)에서 참조되어야 하는지에 대한 메모리 참조관련 코드를 더 포함할 수 있다. 또한, 상기 컴퓨터의 프로세서가 상기 기능들을 실행시키기 위하여 원격(Remote)에 있는 어떠한 다른 컴퓨터나 서버(10) 등과 통신이 필요한 경우, 코드는 상기 컴퓨터의 통신 모듈을 이용하여 원격에 있는 어떠한 다른 컴퓨터나 서버(10) 등과 어떻게 통신해야 하는지, 통신 시 어떠한 정보나 미디어를 송수신해야 하는지 등에 대한 통신 관련 코드를 더 포함할 수 있다. The above-described program is C, C++, JAVA, machine language, etc., in which a processor (CPU) of the computer can be read through a device interface of the computer in order for the computer to read the program and execute the methods implemented as a program. It may include a code (Code) coded in the computer language of. Such code may include functional code related to a function or the like that defines necessary functions for executing the above methods, and control code related to an execution procedure necessary for the processor of the computer to execute the functions according to a predetermined procedure. can do. In addition, the code may further include a memory reference-related code as to which location (address address) of the internal or external memory of the computer should be referred to additional information or media necessary for the computer's processor to perform the functions. have. In addition, when the processor of the computer needs to communicate with any other computer or server 10 in the remote in order to execute the functions, the code uses the communication module of the computer to remotely operate any other computer. The server 10 may further include a communication-related code on how to communicate, and what information or media should be transmitted/received during communication.

상기 저장되는 매체는, 레지스터, 캐쉬, 메모리 등과 같이 짧은 순간 동안 데이터를 저장하는 매체가 아니라 반영구적으로 데이터를 저장하며, 기기에 의해 판독(reading)이 가능한 매체를 의미한다. 구체적으로는, 상기 저장되는 매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 플로피디스크, 광 데이터 저장장치 등이 있지만, 이에 제한되지 않는다. 즉, 상기 프로그램은 상기 컴퓨터가 접속할 수 있는 다양한 서버(10) 상의 다양한 기록매체 또는 사용자의 상기 컴퓨터상의 다양한 기록매체에 저장될 수 있다. 또한, 상기 매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어, 분산방식으로 컴퓨터가 읽을 수 있는 코드가 저장될 수 있다.The storage medium refers to a medium that stores data semi-permanently and that can be read by a device, rather than a medium that stores data for a short moment, such as a register, cache, memory, or the like. Specifically, examples of the medium to be stored include, but are not limited to, ROM, RAM, CD-ROM, magnetic tape, floppy disk, and optical data storage device. That is, the program can be stored in various recording media on various servers or various recording media on the user's computer that the computer can access. In addition, the medium is distributed in a computer system connected by a network, so that the computer readable code may be stored in a distributed manner.

이상, 첨부된 도면을 참조로 하여 본 발명의 실시예를 설명하였지만, 본 발명이 속하는 기술분야의 통상의 기술자는 본 발명이 그 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 그러므로, 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며, 제한적이 아닌 것으로 이해해야만 한다.The embodiments of the present invention have been described with reference to the accompanying drawings, but a person skilled in the art to which the present invention pertains may implement the present invention in other specific forms without changing its technical spirit or essential features. You will understand. Therefore, it should be understood that the above-described embodiments are illustrative in all respects and not restrictive.

Claims (13)

서버가 영상데이터에 대하여 산출된 복수의 개별외형특성을 추상적특성 인식모델에 입력하여, 제1감성특성을 포함하는 추상적특성을 산출하는 단계;
상기 서버가 산출된 상기 복수의 개별외형특성 및 상기 추상적특성을 조합하여 외형서술데이터를 생성하는 단계; 및
상기 서버가 특정한 사용자에 대한 개인화 추상적특성을 설정하는 단계를 포함하고,
상기 개별외형특성은, 대상체의 외형을 서술하기 위한 특정한 분류기준인 외형분류기준 내의 다양한 외형특성을 표현하는 것이고,
상기 제1감성특성은, 대상체의 외형을 기반으로 인지되는 특정한 감성적 특성인 복수의 제1개별감성특성을 포함하고,
상기 개인화 추상적특성을 설정하는 단계는,
특정한 제1개별감성특성에 대하여 상기 사용자가 인지하는 정의를 입력받아, 상기 추상적특성 인식모델 상에 설정된 상기 특정한 제1개별감성특성의 정의와 매칭시키는 것을 특징으로 하는, 영상데이터의 추상적특성 획득 방법.
A step of the server inputting a plurality of individual appearance characteristics calculated on the image data into the abstract characteristic recognition model, thereby calculating an abstract characteristic including the first emotional characteristic;
Generating an external descriptive data by combining the plurality of individual external characteristics and the abstract characteristics calculated by the server; And
And the server setting personalized abstract characteristics for a specific user,
The individual external characteristics are to express various external characteristics within the external classification criteria, which are specific classification criteria for describing the external shape of the subject,
The first emotional characteristic includes a plurality of first individual emotional characteristics, which are specific emotional characteristics recognized based on the appearance of the object,
The step of setting the personalized abstract characteristics,
A method for acquiring abstract characteristics of image data, characterized in that, by receiving a definition recognized by the user for a specific first individual emotional characteristic, matching with the definition of the specific first individual emotional characteristic set on the abstract characteristic recognition model .
제1항에 있어서,
상기 개별외형특성은, 외형특성 인식모델 내의 상이한 외형분류기준을 판단하는 복수의 개별특성인식모듈 각각에 상기 영상데이터를 입력하여 산출되는 것을 특징으로 하고,
상기 개별특성인식모듈은, 영상데이터의 특정한 외형분류기준에 포함된 개별외형특성을 산출하는 것인, 영상데이터의 추상적특성 획득 방법.
According to claim 1,
The individual external characteristics are calculated by inputting the image data into each of the plurality of individual characteristic recognition modules for determining different external classification criteria in the external characteristic recognition model,
The individual characteristic recognition module calculates the individual external characteristics included in the specific external classification criteria of the image data.
제1항에 있어서,
상기 외형분류기준은, 특정 유형의 대상체에만 적용되는 특화 외형분류기준 및 모든 유형의 대상체에 적용되는 범용 외형분류기준을 포함하는, 영상데이터의 추상적특성 획득 방법.
According to claim 1,
The appearance classification criteria include a specialized appearance classification criterion applied only to a specific type of object and a general-purpose appearance classification criterion applied to all types of objects.
제1항에 있어서,
상기 추상적특성 인식모델은, 제1감성특성 인식모델을 포함하고,
상기 제1감성특성 인식모델은,
각 개별외형특성마다 복수의 제1개별감성특성 각각에 대한 점수가 설정됨에 따라, 입력된 복수의 개별외형특성에 설정된 각각의 제1개별감성특성에 대한 점수를 합산하여 제1감성특성을 산출하는 것인, 영상데이터의 추상적특성 획득 방법.
According to claim 1,
The abstract characteristic recognition model includes a first emotional characteristic recognition model,
The first emotional characteristics recognition model,
As the scores for each of the plurality of first individual emotional characteristics are set for each individual external characteristic, the first emotional characteristics are calculated by adding up the scores for each of the first individual emotional characteristics set in the input multiple individual external characteristics. The method of obtaining abstract characteristics of image data.
제4항에 있어서,
상기 외형서술데이터 생성단계는,
상기 영상데이터에 대한 복수의 개별외형특성 및 제1감성특성 각각에 대응하는 코드값을 추출하여, 상기 복수의 코드값이 조합된 코드열 형태의 외형서술데이터를 생성하는 것이고,
상기 제1감성특성에 대응하는 코드값은,
상기 제1개별감성특성 각각에 대하여 합산된 점수에 대한 정보를 포함하는 것을 특징으로 하는, 영상데이터의 추상적특성 획득 방법.
The method of claim 4,
The external descriptive data generation step,
By extracting a code value corresponding to each of the plurality of individual appearance characteristics and the first emotional characteristics for the image data, to generate the appearance description data in the form of a code string in which the plurality of code values are combined,
The code value corresponding to the first emotional characteristic,
A method for acquiring abstract characteristics of image data, characterized in that it comprises information on the sum of the scores for each of the first individual emotional characteristics.
삭제delete 제1항에 있어서,
상기 서버가 상기 외형서술데이터에 매칭되는 추천외형서술데이터를 산출하여, 상기 추천외형서술데이터를 포함하는 하나 이상의 영상데이터에 대한 정보인 추천영상데이터정보를 생성하는 단계;를 더 포함하는, 영상데이터의 추상적특성 획득 방법.
According to claim 1,
And generating, by the server, recommendation image data information that is information on one or more image data including the recommendation outline description data by calculating recommendation outline description data matching the outline description data. How to acquire the abstract characteristics of.
제7항에 있어서,
상기 추천영상데이터정보 생성단계는,
상기 서버가 상기 외형서술데이터 및 제1개별감성특성 간 연관도를 기초로 추천외형서술데이터를 산출하여, 추천영상데이터정보를 생성하는 것을 특징으로 하고,
상기 제1개별감성특성 간 연관도는, 각각의 제1개별감성특성 간 유사도 및 비유사도를 포함하는, 영상데이터의 추상적특성 획득 방법.
The method of claim 7,
The recommended image data information generating step,
Characterized in that the server calculates recommended appearance description data based on the correlation between the appearance description data and the first individual emotional characteristics, and generates recommended image data information,
The method of obtaining abstract characteristics of image data, wherein the degree of association between the first individual emotional characteristics includes similarity and dissimilarity between each of the first individual emotional characteristics.
제8항에 있어서,
상기 추천영상데이터정보 생성단계는,
상기 서버가 상기 외형서술데이터, 상기 제1개별감성특성 간 연관도 및 사용자 선호도정보를 기초로 추천외형서술데이터를 산출하여, 추천영상데이터정보를 생성하는 것을 특징으로 하고,
상기 사용자 선호도정보는, 상기 사용자의 제1개별감성특성 각각에 대한 선호 정보인, 영상데이터의 추상적특성 획득 방법.
The method of claim 8,
The recommended image data information generating step,
Characterized in that the server calculates recommended external description data based on the external description data, the correlation between the first individual emotional characteristics, and user preference information, and generates recommended image data information,
The user preference information is a preference information for each of the first individual emotional characteristics of the user, a method for obtaining abstract characteristics of image data.
제1항에 있어서,
상기 서버가 키워드에 하나 이상의 제1개별감성특성을 매칭하는 단계; 및
상기 서버가 사용자 클라이언트로부터 수신한 검색키워드에 매칭된 제1개별감성특성을 추출하여, 상기 제1개별감성특성을 포함하는 영상데이터를 상기 사용자 클라이언트에 전송하는 단계;를 더 포함하는, 영상데이터의 추상적특성 획득 방법.
According to claim 1,
The server matching one or more first individual sentiment characteristics with keywords; And
Further comprising the step of extracting a first individual sentiment characteristic matching the search keyword received from the user client by the server, and transmitting the image data including the first individual sentiment characteristic to the user client. Method of obtaining abstract characteristics.
제1항에 있어서,
상기 서버가 상기 산출된 제1감성특성을 스타일(style) 인식모델에 입력하여, 스타일정보를 산출하는 단계;를 더 포함하고,
상기 스타일 인식모델은,
제1감성특성 공간맵에 복수의 스타일 각각의 영역이 설정됨에 따라, 입력된 제1감성특성이 위치하는 영역의 스타일정보를 산출하는 것이고,
상기 제1감성특성 공간맵은, 복수의 제1개별감성특성을 각각의 제1개별감성특성 간의 연관도를 기초로 평면상에 배치한 공간맵인, 영상데이터의 추상적특성 획득 방법.
According to claim 1,
The server further comprises the step of calculating style information by inputting the calculated first emotional characteristics into a style recognition model.
The style recognition model,
As each area of a plurality of styles is set in the first emotional property spatial map, the style information of the area in which the input first emotional property is located is calculated,
The first emotional characteristic spatial map is a spatial map in which a plurality of first individual emotional characteristics are arranged on a plane based on a correlation between each of the first individual emotional characteristics, and the method for obtaining abstract characteristics of image data.
하나 이상의 컴퓨터를 포함하며, 제1항 내지 제5항, 제7항 내지 제11항 중 어느 한 항의 방법을 실행하는, 영상데이터의 추상적특성 획득 서버장치.A server apparatus comprising at least one computer and executing the method of any one of claims 1 to 5 or 7 to 11. 하드웨어인 컴퓨터와 결합되어, 제1항 내지 제5항, 제7항 내지 제11항 중 어느 한 항의 방법을 실행시키기 위하여 매체에 저장된, 영상데이터의 추상적특성 획득 프로그램.A program for acquiring abstract characteristics of image data stored in a medium to execute the method of any one of claims 1 to 5, 7 to 11, in combination with a computer that is hardware.
KR1020200012943A 2019-06-10 2020-02-04 System, method and program for obtaining abstract data from image data KR102119253B1 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020200065373A KR102355702B1 (en) 2019-06-10 2020-05-29 System, method and program for obtaining abstract data from image data
PCT/KR2020/007426 WO2020251233A1 (en) 2019-06-10 2020-06-09 Method, apparatus, and program for obtaining abstract characteristics of image data

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020190067795 2019-06-10
KR20190067795 2019-06-10

Related Child Applications (1)

Application Number Title Priority Date Filing Date
KR1020200065373A Division KR102355702B1 (en) 2019-06-10 2020-05-29 System, method and program for obtaining abstract data from image data

Publications (1)

Publication Number Publication Date
KR102119253B1 true KR102119253B1 (en) 2020-06-04

Family

ID=70910841

Family Applications (9)

Application Number Title Priority Date Filing Date
KR1020200009164A KR20200141373A (en) 2019-06-10 2020-01-23 System, method and program of constructing dataset for training appearance recognition model
KR1020200009600A KR102115573B1 (en) 2019-06-10 2020-01-28 System, method and program for acquiring user interest based on input image data
KR1020200012942A KR102227896B1 (en) 2019-06-10 2020-02-04 System, method and program for obtaining appearance descriptive data from image data
KR1020200012943A KR102119253B1 (en) 2019-06-10 2020-02-04 System, method and program for obtaining abstract data from image data
KR1020200016533A KR102115574B1 (en) 2019-06-10 2020-02-11 Method, device and program for customizing object design
KR1020200060527A KR102366580B1 (en) 2019-06-10 2020-05-20 System, method and program for acquiring user interest based on input image data
KR1020200060528A KR20200141929A (en) 2019-06-10 2020-05-20 Method, device and program for customizing object design
KR1020200065373A KR102355702B1 (en) 2019-06-10 2020-05-29 System, method and program for obtaining abstract data from image data
KR1020200181898A KR20210002410A (en) 2019-06-10 2020-12-23 System, method and program of constructing dataset for training appearance recognition model

Family Applications Before (3)

Application Number Title Priority Date Filing Date
KR1020200009164A KR20200141373A (en) 2019-06-10 2020-01-23 System, method and program of constructing dataset for training appearance recognition model
KR1020200009600A KR102115573B1 (en) 2019-06-10 2020-01-28 System, method and program for acquiring user interest based on input image data
KR1020200012942A KR102227896B1 (en) 2019-06-10 2020-02-04 System, method and program for obtaining appearance descriptive data from image data

Family Applications After (5)

Application Number Title Priority Date Filing Date
KR1020200016533A KR102115574B1 (en) 2019-06-10 2020-02-11 Method, device and program for customizing object design
KR1020200060527A KR102366580B1 (en) 2019-06-10 2020-05-20 System, method and program for acquiring user interest based on input image data
KR1020200060528A KR20200141929A (en) 2019-06-10 2020-05-20 Method, device and program for customizing object design
KR1020200065373A KR102355702B1 (en) 2019-06-10 2020-05-29 System, method and program for obtaining abstract data from image data
KR1020200181898A KR20210002410A (en) 2019-06-10 2020-12-23 System, method and program of constructing dataset for training appearance recognition model

Country Status (2)

Country Link
KR (9) KR20200141373A (en)
WO (2) WO2020251233A1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020251233A1 (en) * 2019-06-10 2020-12-17 (주)사맛디 Method, apparatus, and program for obtaining abstract characteristics of image data

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102387907B1 (en) * 2020-06-26 2022-04-18 주식회사 이스트엔드 Creators and prosumers participate in the no design clothing design customizing method and system for the same
KR102524049B1 (en) * 2021-02-08 2023-05-24 (주)사맛디 Device and method for recommending apparel for user based on characteristic information
KR102556642B1 (en) 2021-02-10 2023-07-18 한국기술교육대학교 산학협력단 Method of generating data for machine learning training
CN113360477A (en) * 2021-06-21 2021-09-07 四川大学 Classification method for large-scale customized women's leather shoes
CN113807708B (en) * 2021-09-22 2024-03-01 深圳市微琪思服饰有限公司 Distributed clothing flexible production manufacturing platform system

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1183461A (en) * 1997-09-09 1999-03-26 Mitsubishi Electric Corp Article assortment recognition system
KR20110123006A (en) * 2010-05-06 2011-11-14 윤진호 Method and system for recommending products based on preference and presenting recommended products for customers
KR20180133200A (en) 2018-04-24 2018-12-13 김지우 Application program for managing clothes recorded in recording media, system and method for managing clothes using the same

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101231946B1 (en) * 2011-01-03 2013-02-08 김건민 The commodity sales and management system that used a coordination system
KR101925764B1 (en) 2012-08-23 2018-12-05 인터디지탈 패튼 홀딩스, 인크 Operating with multiple schedulers in a wireless system
KR101579617B1 (en) * 2014-04-04 2015-12-22 홍익대학교세종캠퍼스산학협력단 Image converting tool system of 3D printing robot and Driving method thereof
KR20170096971A (en) * 2016-02-17 2017-08-25 옴니어스 주식회사 Method for recommending a product using style feature
KR20180014495A (en) * 2016-08-01 2018-02-09 삼성에스디에스 주식회사 Apparatus and method for recognizing objects
KR102530045B1 (en) * 2016-12-23 2023-05-09 삼성전자주식회사 Image display device and operating method for the same
CN108268539A (en) * 2016-12-31 2018-07-10 上海交通大学 Video matching system based on text analyzing
KR102024818B1 (en) * 2018-04-30 2019-09-24 오드컨셉 주식회사 Method, apparatus and computer program for providing search information from video
KR20200141373A (en) * 2019-06-10 2020-12-18 (주)사맛디 System, method and program of constructing dataset for training appearance recognition model

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1183461A (en) * 1997-09-09 1999-03-26 Mitsubishi Electric Corp Article assortment recognition system
KR20110123006A (en) * 2010-05-06 2011-11-14 윤진호 Method and system for recommending products based on preference and presenting recommended products for customers
KR20180133200A (en) 2018-04-24 2018-12-13 김지우 Application program for managing clothes recorded in recording media, system and method for managing clothes using the same

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
옴니어스 태거 유튜브(https://www.youtube.com/watch?v=bbhjsKRy34o, 2019. 05. 23.) 1부.* *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020251233A1 (en) * 2019-06-10 2020-12-17 (주)사맛디 Method, apparatus, and program for obtaining abstract characteristics of image data

Also Published As

Publication number Publication date
KR20200141373A (en) 2020-12-18
KR20200141384A (en) 2020-12-18
KR102115574B1 (en) 2020-05-27
KR20200141388A (en) 2020-12-18
KR20210002410A (en) 2021-01-08
KR102227896B1 (en) 2021-03-15
WO2020251238A1 (en) 2020-12-17
KR102355702B1 (en) 2022-01-26
WO2020251233A1 (en) 2020-12-17
KR102115573B1 (en) 2020-05-26
KR20200141375A (en) 2020-12-18
KR20200141929A (en) 2020-12-21
KR102366580B1 (en) 2022-02-23

Similar Documents

Publication Publication Date Title
KR102119253B1 (en) System, method and program for obtaining abstract data from image data
CN106560810B (en) Searching using specific attributes found in images
US10789525B2 (en) Modifying at least one attribute of an image with at least one attribute extracted from another image
US10043109B1 (en) Attribute similarity-based search
US10042866B2 (en) Searching untagged images with text-based queries
US10083521B1 (en) Content recommendation based on color match
US8935246B2 (en) Identifying textual terms in response to a visual query
US20180181569A1 (en) Visual category representation with diverse ranking
US11275906B2 (en) Natural language text conversion and method therefor
US10776417B1 (en) Parts-based visual similarity search
US20180232562A1 (en) Profile information identification
CN111767420A (en) Method and device for generating clothing matching data
GB2542891A (en) Modifying at least one attribute of an image with at least one attribute extracted from another image
KR20200141387A (en) System, method and program for searching image data by using deep-learning algorithm
KR102119246B1 (en) System, method and program for searching image data by using deep-learning algorithm
JP2014235723A (en) Information presentation device, method and program
US20220300550A1 (en) Visual Search via Free-Form Visual Feature Selection
EP3982277A1 (en) Image data retrieval method, device, and program using deep learning algorithm
KR102366595B1 (en) System, method and program for obtaining appearance descriptive data from image data
TW202004516A (en) Optimization method for searching exclusive personalized pictures
CN115858941B (en) Search method, search device, electronic equipment and storage medium
KR102524049B1 (en) Device and method for recommending apparel for user based on characteristic information
KR20210109927A (en) System, method and program of constructing dataset for training visual characteristic recognition model
KR20210120203A (en) Method for generating metadata based on web page
Ayoub et al. Demo of the SICOS tool for Social Image Cluster-based Organization and Search

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant