KR102317432B1 - Method, apparatus and program for fashion trend prediction based on integrated analysis of image and text - Google Patents

Method, apparatus and program for fashion trend prediction based on integrated analysis of image and text Download PDF

Info

Publication number
KR102317432B1
KR102317432B1 KR1020190111807A KR20190111807A KR102317432B1 KR 102317432 B1 KR102317432 B1 KR 102317432B1 KR 1020190111807 A KR1020190111807 A KR 1020190111807A KR 20190111807 A KR20190111807 A KR 20190111807A KR 102317432 B1 KR102317432 B1 KR 102317432B1
Authority
KR
South Korea
Prior art keywords
text
information
fashion
image
obtaining
Prior art date
Application number
KR1020190111807A
Other languages
Korean (ko)
Other versions
KR20210030178A (en
Inventor
권수희
Original Assignee
권수희
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 권수희 filed Critical 권수희
Priority to KR1020190111807A priority Critical patent/KR102317432B1/en
Publication of KR20210030178A publication Critical patent/KR20210030178A/en
Application granted granted Critical
Publication of KR102317432B1 publication Critical patent/KR102317432B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/02Marketing; Price estimation or determination; Fundraising
    • G06Q30/0201Market modelling; Market analysis; Collecting market data
    • G06Q30/0202Market predictions or forecasting for commercial activities
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06K9/6201
    • G06K9/6267
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/02Marketing; Price estimation or determination; Fundraising
    • G06Q30/0201Market modelling; Market analysis; Collecting market data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/02Marketing; Price estimation or determination; Fundraising
    • G06Q30/0278Product appraisal

Landscapes

  • Engineering & Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Strategic Management (AREA)
  • Finance (AREA)
  • Development Economics (AREA)
  • Accounting & Taxation (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Economics (AREA)
  • General Business, Economics & Management (AREA)
  • Marketing (AREA)
  • Game Theory and Decision Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Evolutionary Computation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Artificial Intelligence (AREA)
  • Medical Informatics (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

컴퓨터에 의하여 수행되는 방법에 있어서, 온라인 게시물을 획득하는 단계, 상기 게시물에 포함된 이미지를 획득하는 단계, 상기 게시물에 포함된 텍스트를 획득하는 단계, 상기 획득된 이미지를 이용하여, 상기 이미지에 포함된 패션 아이템에 대한 속성정보를 획득하는 단계, 상기 텍스트로부터 상기 이미지에 포함된 패션 아이템에 대한 감성정보를 추출하는 단계 및 상기 속성정보 및 상기 감성정보를 이용하여 패션 트렌드 정보를 획득하는 단계를 포함하는, 이미지 및 텍스트 통합분석에 기반한 패션 트렌드 예측방법이 개시된다.A method performed by a computer, comprising: acquiring an online post; acquiring an image included in the post; acquiring text included in the post; using the acquired image to include in the image Acquiring attribute information on the fashion item that has been used, extracting emotional information about the fashion item included in the image from the text, and acquiring fashion trend information using the attribute information and the emotional information A fashion trend prediction method based on image and text integrated analysis is disclosed.

Description

이미지 및 텍스트 통합분석에 기반한 패션 트렌드 예측방법, 장치 및 프로그램 {METHOD, APPARATUS AND PROGRAM FOR FASHION TREND PREDICTION BASED ON INTEGRATED ANALYSIS OF IMAGE AND TEXT}Fashion trend prediction method, device and program based on integrated image and text analysis {METHOD, APPARATUS AND PROGRAM FOR FASHION TREND PREDICTION BASED ON INTEGRATED ANALYSIS OF IMAGE AND TEXT}

본 발명은 이미지 및 텍스트 통합분석에 기반한 패션 트렌드 예측방법에 관한 것이다. The present invention relates to a fashion trend prediction method based on image and text integrated analysis.

인공지능 기술은 머신러닝(Machine Learning, 기계학습) 기술을 포함하며, 머신러닝 기술 중에서도 특히 영상을 분석하는 데 널리 이용되는 딥러닝(Deep Learning) 기술을 포함한다.Artificial intelligence technology includes machine learning (machine learning) technology, and in particular, deep learning technology, which is widely used for image analysis among machine learning technologies.

딥 러닝은 여러 비선형 변환기법의 조합을 통해 높은 수준의 추상화(abstractions, 다량의 데이터나 복잡한 자료들 속에서 핵심적인 내용 또는 기능을 요약하는 작업)를 시도하는 기계학습(machine learning) 알고리즘의 집합으로 정의된다. 딥 러닝은 큰 틀에서 사람의 사고방식을 컴퓨터에게 가르치는 기계학습의 한 분야로 볼 수 있다. Deep learning is a set of machine learning algorithms that attempt high-level abstractions (summarizing key contents or functions in large amounts of data or complex data) through a combination of several nonlinear transformation methods. Defined. Deep learning can be viewed as a field of machine learning that teaches computers to think in a broad framework.

어떠한 데이터가 있을 때 이를 컴퓨터가 알아들을 수 있는 형태(예를 들어 영상의 경우는 픽셀정보를 열벡터로 표현하는 등)로 표현(representation)하고 이를 학습에 적용하기 위해 많은 연구(어떻게 하면 더 좋은 표현기법을 만들고 또 어떻게 이것들을 학습할 모델을 만들지에 대한)가 진행되고 있다. 이러한 노력의 결과로 다양한 딥 러닝 기법들이 개발되었다. 딥 러닝 기법들로는 심층 신경망(Deep Neural Networks, DNN), 합성곱 신경망(Convolutional deep Neural Networks, CNN), 순환 신경망(Reccurent Neural Network, RNN) 및 심층 신뢰 신경망(Deep Belief Networks, DBN)을 예로 들 수 있다. When there is some data, it is represented in a form that a computer can understand (for example, in the case of an image, pixel information is expressed as a column vector), and many studies (how to better express it) How to build the techniques and how to build a model to learn them) is underway. As a result of these efforts, various deep learning techniques have been developed. Examples of deep learning techniques include Deep Neural Networks (DNN), Convolutional Deep Neural Networks (CNN), Reccurent Neural Network (RNN), and Deep Belief Networks (DBN). have.

심층 신경망(Deep Neural Networks, DNN)은 입력 계층(input layer)과 출력 계층(output layer) 사이에 복수개의 은닉 계층(hidden layer)들로 이뤄진 인공신경망(Artificial Neural Network, ANN)이다.A deep neural network (DNN) is an artificial neural network (ANN) composed of a plurality of hidden layers between an input layer and an output layer.

최근에는 이러한 인공지능 기술이 이미지 분석에 적용되어 이미지에 포함된 객체를 인식하고, 그 속성을 추출하는 데 널리 활용되고 있다. 이에 따라, 인공지능 기술을 이용하여 온라인 게시물들을 분석함으로써 패션 정보를 획득하는 기술들이 개발되고 있으나, 기존의 기술들은 이미지에 기반한 분석에만 그 범위가 제한되는 한계가 있었다.Recently, such artificial intelligence technology has been applied to image analysis and is widely used to recognize objects included in images and to extract their properties. Accordingly, technologies for acquiring fashion information by analyzing online posts using artificial intelligence technology have been developed, but the existing technologies have a limitation in that the scope is limited only to image-based analysis.

본 발명이 해결하고자 하는 과제는 이미지 및 텍스트 통합분석에 기반한 패션 트렌드 예측방법을 제공하는 것이다.An object of the present invention is to provide a fashion trend prediction method based on image and text integrated analysis.

본 발명이 해결하고자 하는 과제들은 이상에서 언급된 과제로 제한되지 않으며, 언급되지 않은 또 다른 과제들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해될 수 있을 것이다.The problems to be solved by the present invention are not limited to the problems mentioned above, and other problems not mentioned will be clearly understood by those skilled in the art from the following description.

상술한 과제를 해결하기 위한 본 발명의 일 면에 따른 이미지 및 텍스트 통합분석에 기반한 패션 트렌드 예측방법은, 온라인 게시물을 획득하는 단계, 상기 게시물에 포함된 이미지를 획득하는 단계, 상기 게시물에 포함된 텍스트를 획득하는 단계, 상기 획득된 이미지를 이용하여, 상기 이미지에 포함된 패션 아이템에 대한 속성정보를 획득하는 단계, 상기 텍스트로부터 상기 이미지에 포함된 패션 아이템에 대한 감성정보를 추출하는 단계 및 상기 속성정보 및 상기 감성정보를 이용하여 패션 트렌드 정보를 획득하는 단계를 포함한다.A fashion trend prediction method based on image and text integrated analysis according to an aspect of the present invention for solving the above-described problems includes the steps of: acquiring an online post; acquiring an image included in the post; acquiring text, acquiring attribute information on a fashion item included in the image by using the acquired image, extracting emotional information about a fashion item included in the image from the text, and the and acquiring fashion trend information by using the attribute information and the emotional information.

또한, 상기 패션 트렌드 정보를 획득하는 단계는, 패션 트렌드 분석을 위한 복수의 온라인 게시물을 획득하는 단계, 상기 복수의 온라인 게시물로부터 획득된 속성정보에 기반하여 하나 이상의 패션 아이템이 언급되는 빈도 - 상기 빈도는 횟수 및 비율 중 적어도 하나를 포함함 - 에 대한 정보를 획득하는 단계, 상기 복수의 온라인 게시물로부터 추출된, 상기 하나 이상의 패션 아이템에 대응하는 감성정보에 기반하여 상기 하나 이상의 패션 아이템에 대한 소비자의 감정 - 상기 감정은 관심도 및 선호도 중 적어도 하나를 포함함 - 에 대한 정보를 획득하는 단계 및 상기 하나 이상의 패션 아이템이 언급되는 빈도 및 상기 하나 이상의 패션 아이템에 대한 소비자의 감정에 기초하여, 패션 트렌드 정보를 생성하는 단계를 포함할 수 있다.In addition, the acquiring of the fashion trend information includes: acquiring a plurality of online posts for analyzing a fashion trend; a frequency of mentioning one or more fashion items based on attribute information obtained from the plurality of online posts - the frequency includes at least one of a number and a rate of - acquiring information about, based on emotional information corresponding to the one or more fashion items extracted from the plurality of online posts, the consumer's response to the one or more fashion items obtaining information on emotion, wherein the emotion includes at least one of interest and preference, and fashion trend information It may include the step of generating

또한, 상기 텍스트를 획득하는 단계는, 상기 게시물에 포함된 본문 텍스트를 획득하는 단계, 상기 게시물에 포함된 댓글 텍스트를 획득하는 단계 및 상기 본문 텍스트로부터 하나 이상의 해시태그된 텍스트를 획득하는 단계를 포함할 수 있다.In addition, the obtaining of the text includes obtaining a body text included in the post, obtaining a comment text included in the post, and obtaining one or more hashtagged texts from the body text can do.

또한, 상기 텍스트를 획득하는 단계는, 상기 획득된 텍스트를 속성정보에 해당하는 텍스트 및 감성정보에 해당하는 텍스트로 분류하는 단계를 더 포함하고, 상기 속성정보를 획득하는 단계는, 상기 속성정보에 해당하는 텍스트로부터 하나 이상의 속성정보를 추출하는 단계, 상기 이미지를 이용하여 획득된 속성정보와, 상기 텍스트로부터 추출된 속성정보를 비교하는 단계 및 상기 비교 결과에 기초하여 상기 이미지에 포함된 패션 아이템에 대한 속성정보를 업데이트하는 단계를 더 포함하고, 상기 감성정보를 추출하는 단계는, 상기 감성정보에 해당하는 텍스트로부터 상기 감성정보를 추출하는 단계를 포함할 수 있다.In addition, the step of obtaining the text further includes the step of classifying the obtained text into text corresponding to the attribution information and text corresponding to the emotion information, and the step of obtaining the attribution information includes: extracting one or more attribute information from the corresponding text; comparing the attribute information obtained using the image with the attribute information extracted from the text; The method may further include updating attribution information about the user, and the step of extracting the emotion information may include extracting the emotion information from the text corresponding to the emotion information.

또한, 상기 분류하는 단계는, 상기 본문 텍스트, 댓글 텍스트 및 해시태그된 텍스트 각각에 대하여, 서로 상이한 속성 가중치 및 감성 가중치를 부여하는 단계 및 상기 본문 텍스트, 댓글 텍스트 및 해시태그된 텍스트 각각에 대하여, 텍스트의 내용 및 각 텍스트에 부여된 가중치를 이용하여 각각의 텍스트를 속성정보에 해당하는 텍스트 및 감성정보에 해당하는 텍스트로 분류하는 단계를 더 포함할 수 있다.In addition, the classifying includes: giving different attribute weights and emotional weights to each of the body text, comment text, and hashtag text; and for each of the body text, comment text and hashtag text, The method may further include classifying each text into text corresponding to attribute information and text corresponding to emotion information by using the content of the text and a weight assigned to each text.

또한, 상기 온라인 게시물에 대한 공감수 - 상기 공감수는 공감유형별 공감수에 대한 정보를 포함함 - 및 댓글수 - 상기 댓글수는 긍정댓글 수 및 부정댓글 수에 대한 정보를 포함함 - 를 획득하는 단계 및 상기 공감수 및 댓글수에 기초하여 상기 온라인 게시물에 대한 가중치를 부여하는 단계를 더 포함하고, 상기 감성정보를 추출하는 단계는, 상기 감성정보가 추출된 텍스트 유형 - 상기 텍스트 유형은, 상기 본문 텍스트, 상기 댓글 텍스트 및 상기 해시태그된 텍스트를 포함함 - 에 따라 추출된 감성정보에 상이한 가중치를 부여하는 단계를 더 포함하고, 상기 패션 트렌드 정보를 획득하는 단계는, 상기 온라인 게시물에 부여된 가중치 및 상기 추출된 감성정보에 부여된 가중치를 고려하여 상기 패션 트렌드 정보를 획득하는 단계를 포함할 수 있다.In addition, the number of sympathy for the online post - the number of sympathy includes information on the number of sympathy for each sympathy type - and the number of comments - the number of comments - the number of comments includes information on the number of positive comments and negative comments - to obtain and giving a weight to the online post based on the number of likes and comments, wherein the extracting of the emotional information includes: a text type from which the emotional information is extracted; The method further comprising the step of assigning different weights to the extracted emotional information according to - including the body text, the comment text, and the hashtag text, wherein the step of obtaining the fashion trend information includes: It may include obtaining the fashion trend information in consideration of the weight and the weight given to the extracted emotional information.

또한, 복수의 온라인 게시물로부터 획득된 속성정보 및 감성정보의 쌍을 포함하는 학습 데이터를 획득하는 단계 및 상기 학습 데이터를 이용하여 인공지능 모델을 학습시키는 단계를 더 포함하고, 상기 인공지능 모델은, 하나 이상의 패션 아이템에 대한 속성정보를 입력받아, 입력된 정보에 대응하는 소비자의 감정 - 상기 감정은 관심도 및 선호도 중 적어도 하나를 포함함 - 에 대한 정보를 출력하는 것을 특징으로 할 수 있다.In addition, the method further includes: acquiring learning data including a pair of attribute information and emotional information obtained from a plurality of online postings; and learning an artificial intelligence model using the learning data, wherein the artificial intelligence model comprises: It may be characterized in that it receives attribute information on one or more fashion items, and outputs information on a consumer's emotion corresponding to the input information, the emotion including at least one of interest and preference.

또한, 복수의 온라인 게시물로부터 획득된 이미지 및 감성정보의 쌍을 포함하는 학습 데이터를 획득하는 단계 및 상기 학습 데이터를 이용하여 인공지능 모델을 학습시키는 단계를 더 포함하고, 상기 인공지능 모델은, 하나 이상의 패션 아이템을 포함하는 이미지를 입력받아, 입력된 이미지에 포함된 하나 이상의 패션 아이템에 대한 소비자의 감정 - 상기 감정은 관심도 및 선호도 중 적어도 하나를 포함함 - 에 대한 정보를 출력하는 것을 특징으로 할 수 있다.In addition, the method further comprises the steps of: acquiring training data including a pair of images and emotional information acquired from a plurality of online posts; and training an AI model using the training data, wherein the AI model is one It is characterized in that receiving an image including more than one fashion item, and outputting information about a consumer's emotion with respect to one or more fashion items included in the input image, wherein the emotion includes at least one of interest and preference. can

상술한 과제를 해결하기 위한 본 발명의 일 면에 따른 이미지 및 텍스트 통합분석에 기반한 패션 트렌드 예측장치는, 하나 이상의 인스트럭션을 저장하는 메모리 및 상기 메모리에 저장된 상기 하나 이상의 인스트럭션을 실행하는 프로세서를 포함하고, 상기 프로세서는 상기 하나 이상의 인스트럭션을 실행함으로써, 개시된 실시 예에 따른 이미지 및 텍스트 통합분석에 기반한 패션 트렌드 예측방법을 수행한다.A fashion trend prediction apparatus based on image and text integrated analysis according to an aspect of the present invention for solving the above-described problems includes a memory for storing one or more instructions and a processor for executing the one or more instructions stored in the memory, and , the processor performs the fashion trend prediction method based on the image and text integrated analysis according to the disclosed embodiment by executing the one or more instructions.

상술한 과제를 해결하기 위한 본 발명의 일 면에 따른 프로그램은, 하드웨어인 컴퓨터와 결합되어, 개시된 실시 예에 따른 이미지 및 텍스트 통합분석에 기반한 패션 트렌드 예측방법을 수행할 수 있도록 컴퓨터에서 독출가능한 기록매체에 저장된다.A program according to an aspect of the present invention for solving the above-described problems is combined with a computer that is hardware, and a computer-readable record to perform a fashion trend prediction method based on an integrated image and text analysis according to the disclosed embodiment stored on the medium.

본 발명의 기타 구체적인 사항들은 상세한 설명 및 도면들에 포함되어 있다.Other specific details of the invention are included in the detailed description and drawings.

개시된 실시 예에 따르면, 온라인 상에서 데이터를 수집하여 패션 아이템과 관련된 기업과 소비자의 의사결정에 도움을 줄 수 있는 트렌드 데이터를 제공할 수 있는 효과가 있다.According to the disclosed embodiment, it is possible to provide trend data that can help companies and consumers make decisions related to fashion items by collecting data online.

본 발명의 효과들은 이상에서 언급된 효과로 제한되지 않으며, 언급되지 않은 또 다른 효과들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해될 수 있을 것이다.Effects of the present invention are not limited to the effects mentioned above, and other effects not mentioned will be clearly understood by those skilled in the art from the following description.

도 1은 일 실시 예에 따른 방법을 도시한 흐름도이다.
도 2는 복수의 이미지를 포함하는 화면의 일 예를 도시한 도면이다.
도 3은 일 실시 예에 따라 온라인 게시물로부터 정보를 획득하는 방법을 설명하기 위한 도면이다.
도 4는 일 실시 예에 따라 다른 온라인 게시물을 탐색하는 방법을 도시한 도면이다.
도 5는 일 실시 예에 따라 복수의 패션 아이템을 포함하는 온라인 게시물의 분석방법을 도시한 도면이다.
도 6은 일 실시 예에 따른 인공지능에 기반한 패션 트렌드 정보 획득방법을 도시한 도면이다.
도 7은 일 실시 예에 따른 인공지능 모델의 학습 및 이를 통한 트렌드 평가방법을 도시한 흐름도이다.
도 8은 일 실시 예에 따라 패션 트렌드를 평가하는 인공지능 모델을 도시한 도면이다.
도 9는 일 실시 예에 따른 관절 좌표에 기반한 이미지 인식방법을 도시한 도면이다.
도 10은 일 실시 예에 따른 다중 레이블링 학습방법을 도시한 도면이다.
도 11은 도 10에 도시된 분석방법을 수행하기 위한 레이블링 화면의 일 예를 도시한 도면이다.
도 12는 일 실시 예에 따른 장치의 구성도이다.
1 is a flowchart illustrating a method according to an embodiment.
2 is a diagram illustrating an example of a screen including a plurality of images.
3 is a diagram for describing a method of acquiring information from an online posting according to an exemplary embodiment.
4 is a diagram illustrating a method of searching for another online post according to an exemplary embodiment.
5 is a diagram illustrating a method of analyzing an online post including a plurality of fashion items according to an exemplary embodiment.
6 is a diagram illustrating a method for acquiring fashion trend information based on artificial intelligence according to an embodiment.
7 is a flowchart illustrating a method of learning an artificial intelligence model and evaluating a trend through it according to an embodiment.
8 is a diagram illustrating an artificial intelligence model for evaluating a fashion trend according to an exemplary embodiment.
9 is a diagram illustrating an image recognition method based on joint coordinates according to an embodiment.
10 is a diagram illustrating a multi-labeling learning method according to an embodiment.
11 is a diagram illustrating an example of a labeling screen for performing the analysis method shown in FIG. 10 .
12 is a block diagram of an apparatus according to an embodiment.

본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나, 본 발명은 이하에서 개시되는 실시예들에 제한되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하고, 본 발명이 속하는 기술 분야의 통상의 기술자에게 본 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. Advantages and features of the present invention and methods of achieving them will become apparent with reference to the embodiments described below in detail in conjunction with the accompanying drawings. However, the present invention is not limited to the embodiments disclosed below, but may be implemented in various different forms, and only these embodiments allow the disclosure of the present invention to be complete, and those of ordinary skill in the art to which the present invention pertains. It is provided to fully understand the scope of the present invention to those skilled in the art, and the present invention is only defined by the scope of the claims.

본 명세서에서 사용된 용어는 실시예들을 설명하기 위한 것이며 본 발명을 제한하고자 하는 것은 아니다. 본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함한다. 명세서에서 사용되는 "포함한다(comprises)" 및/또는 "포함하는(comprising)"은 언급된 구성요소 외에 하나 이상의 다른 구성요소의 존재 또는 추가를 배제하지 않는다. 명세서 전체에 걸쳐 동일한 도면 부호는 동일한 구성 요소를 지칭하며, "및/또는"은 언급된 구성요소들의 각각 및 하나 이상의 모든 조합을 포함한다. 비록 "제1", "제2" 등이 다양한 구성요소들을 서술하기 위해서 사용되나, 이들 구성요소들은 이들 용어에 의해 제한되지 않음은 물론이다. 이들 용어들은 단지 하나의 구성요소를 다른 구성요소와 구별하기 위하여 사용하는 것이다. 따라서, 이하에서 언급되는 제1 구성요소는 본 발명의 기술적 사상 내에서 제2 구성요소일 수도 있음은 물론이다.The terminology used herein is for the purpose of describing the embodiments and is not intended to limit the present invention. As used herein, the singular also includes the plural unless specifically stated otherwise in the phrase. As used herein, “comprises” and/or “comprising” does not exclude the presence or addition of one or more other components in addition to the stated components. Like reference numerals refer to like elements throughout, and "and/or" includes each and every combination of one or more of the recited elements. Although "first", "second", etc. are used to describe various elements, these elements are not limited by these terms, of course. These terms are only used to distinguish one component from another. Accordingly, it goes without saying that the first component mentioned below may be the second component within the spirit of the present invention.

다른 정의가 없다면, 본 명세서에서 사용되는 모든 용어(기술 및 과학적 용어를 포함)는 본 발명이 속하는 기술분야의 통상의 기술자에게 공통적으로 이해될 수 있는 의미로 사용될 수 있을 것이다. 또한, 일반적으로 사용되는 사전에 정의되어 있는 용어들은 명백하게 특별히 정의되어 있지 않는 한 이상적으로 또는 과도하게 해석되지 않는다.Unless otherwise defined, all terms (including technical and scientific terms) used herein will have the meaning commonly understood by those of ordinary skill in the art to which this invention belongs. In addition, terms defined in a commonly used dictionary are not to be interpreted ideally or excessively unless specifically defined explicitly.

명세서에서 사용되는 "부" 또는 “모듈”이라는 용어는 소프트웨어, FPGA 또는 ASIC과 같은 하드웨어 구성요소를 의미하며, "부" 또는 “모듈”은 어떤 역할들을 수행한다. 그렇지만 "부" 또는 “모듈”은 소프트웨어 또는 하드웨어에 한정되는 의미는 아니다. "부" 또는 “모듈”은 어드레싱할 수 있는 저장 매체에 있도록 구성될 수도 있고 하나 또는 그 이상의 프로세서들을 재생시키도록 구성될 수도 있다. 따라서, 일 예로서 "부" 또는 “모듈”은 소프트웨어 구성요소들, 객체지향 소프트웨어 구성요소들, 클래스 구성요소들 및 태스크 구성요소들과 같은 구성요소들과, 프로세스들, 함수들, 속성들, 프로시저들, 서브루틴들, 프로그램 코드의 세그먼트들, 드라이버들, 펌웨어, 마이크로 코드, 회로, 데이터, 데이터베이스, 데이터 구조들, 테이블들, 어레이들 및 변수들을 포함한다. 구성요소들과 "부" 또는 “모듈”들 안에서 제공되는 기능은 더 작은 수의 구성요소들 및 "부" 또는 “모듈”들로 결합되거나 추가적인 구성요소들과 "부" 또는 “모듈”들로 더 분리될 수 있다.As used herein, the term “unit” or “module” refers to a hardware component such as software, FPGA, or ASIC, and “unit” or “module” performs certain roles. However, “part” or “module” is not meant to be limited to software or hardware. A “unit” or “module” may be configured to reside on an addressable storage medium or to reproduce one or more processors. Thus, by way of example, “part” or “module” refers to components such as software components, object-oriented software components, class components and task components, processes, functions, properties, Includes procedures, subroutines, segments of program code, drivers, firmware, microcode, circuitry, data, databases, data structures, tables, arrays and variables. Components and functionality provided within “parts” or “modules” may be combined into a smaller number of components and “parts” or “modules” or as additional components and “parts” or “modules”. can be further separated.

본 명세서에서, 컴퓨터는 적어도 하나의 프로세서를 포함하는 모든 종류의 하드웨어 장치를 의미하는 것이고, 실시 예에 따라 해당 하드웨어 장치에서 동작하는 소프트웨어적 구성도 포괄하는 의미로서 이해될 수 있다. 예를 들어, 컴퓨터는 스마트폰, 태블릿 PC, 데스크톱, 노트북 및 각 장치에서 구동되는 사용자 클라이언트 및 애플리케이션을 모두 포함하는 의미로서 이해될 수 있으며, 또한 이에 제한되는 것은 아니다.In this specification, a computer means all types of hardware devices including at least one processor, and may be understood as encompassing software configurations operating in the corresponding hardware device according to embodiments. For example, a computer may be understood to include, but is not limited to, smart phones, tablet PCs, desktops, notebooks, and user clients and applications running on each device.

이하, 첨부된 도면을 참조하여 본 발명의 실시예를 상세하게 설명한다. Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings.

본 명세서에서 설명되는 각 단계들은 컴퓨터에 의하여 수행되는 것으로 설명되나, 각 단계의 주체는 이에 제한되는 것은 아니며, 실시 예에 따라 각 단계들의 적어도 일부가 서로 다른 장치에서 수행될 수도 있다.Each step described in this specification is described as being performed by a computer, but the subject of each step is not limited thereto, and at least a portion of each step may be performed in different devices according to embodiments.

도 1은 일 실시 예에 따른 방법을 도시한 흐름도이다.1 is a flowchart illustrating a method according to an embodiment.

단계 S110에서, 컴퓨터는 온라인 게시물을 획득한다.In step S110, the computer acquires an online posting.

개시된 실시 예에서, 온라인 게시물의 종류는 제한되지 않으나, 예를 들어 다양한 SNS(Social Network Service)를 통하여 업로드된 게시물들을 의미할 수 있다. 온라인 게시물은 하나 이상의 이미지와 텍스트를 포함할 수 있다.In the disclosed embodiment, the type of online post is not limited, but may mean, for example, posts uploaded through various social network services (SNS). Online posts may contain one or more images and text.

컴퓨터가 온라인 게시물을 획득하는 방법은 제한되지 않으나, 예를 들어 웹 크롤링을 통해 업로드된 게시물들을 수집하는 방법이 이용될 수 있다. 다른 예로, 컴퓨터는 온라인 게시물들이 저장된 데이터베이스를 획득하는 방법을 통하여 온라인 게시물들을 획득할 수도 있다. A method for the computer to acquire online posts is not limited, but for example, a method for collecting uploaded posts through web crawling may be used. As another example, the computer may acquire online posts through a method of acquiring a database in which online posts are stored.

단계 S120에서, 컴퓨터는 상기 게시물에 포함된 이미지를 획득한다.In step S120, the computer acquires the image included in the post.

일 실시 예에서, 컴퓨터는 게시물에 포함된 이미지를 캡쳐하거나, 소스를 통해 이미지를 다운로드할 수 있으며, 컴퓨터가 이미지를 획득하는 방법은 제한되지 않는다. In an embodiment, the computer may capture an image included in the post or download the image through a source, and the method for the computer to acquire the image is not limited.

단계 S130에서, 컴퓨터는 상기 게시물에 포함된 텍스트를 획득한다.In step S130, the computer acquires the text included in the post.

일 실시 예에서, 컴퓨터는 게시물에 포함된 텍스트를 획득하고, 획득된 텍스트를 유형별로 분류할 수 있다.In an embodiment, the computer may acquire text included in a post, and classify the acquired text by type.

또한, 컴퓨터는 획득된 텍스트를 키워드와 불용어로 분류할 수 있으며, 나아가 형태소 분석 등을 포함하는 자연어 처리과정을 수행할 수 있으며, 구체적인 방법은 제한되지 않는다.In addition, the computer may classify the acquired text into keywords and stopwords, and further may perform natural language processing including morphological analysis, and the specific method is not limited.

단계 S140에서, 컴퓨터는 상기 획득된 이미지를 이용하여, 상기 이미지에 포함된 패션 아이템에 대한 속성정보를 획득한다.In step S140, the computer acquires attribute information on the fashion item included in the image by using the acquired image.

개시된 실시 예에서, 패션 아이템은 의상, 액세서리, 신발, 모자, 가방 등 패션과 관련된 소품들을 포함할 수 있으며, 이에 제한되지 않는다.In the disclosed embodiment, the fashion item may include fashion-related props such as clothes, accessories, shoes, hats, and bags, but is not limited thereto.

일 실시 예에서, 컴퓨터는 이미지에 포함된 하나 이상의 패션 아이템을 인식하며, 인식된 패션 아이템의 종류 및 다양한 속성 정보를 획득할 수 있다. 컴퓨터가 이미지에 포함된 패션 아이템을 인식하고, 속성 정보를 획득하는 방법은 제한되지 않으나, 예를 들어 딥 러닝에 기반하여 학습된 이미지 분석 모델을 이용하여 이미지에 포함된 패션 아이템을 인식하고, 해당 패션 아이템의 종류, 소재, 디자인 특성, 디테일 등 다양한 정보들을 추출할 수 있다.In an embodiment, the computer recognizes one or more fashion items included in the image, and may acquire types of recognized fashion items and various attribute information. A method for a computer to recognize a fashion item included in an image and obtain attribute information is not limited, but for example, using an image analysis model learned based on deep learning, recognizes a fashion item included in an image, Various information such as the type, material, design characteristic, and detail of a fashion item can be extracted.

이러한 이미지 분석 모델은 하나 이상의 패션 아이템을 포함하는 이미지들과, 해당 이미지에 대한 레이블링 정보(예를 들어, 이미지에 포함된 패션 아이템의 위치, 패션 아이템의 종류, 소재, 디자인 특성 및 디테일 등에 대한 정보)를 포함하는 학습 데이터에 기반하여 학습될 수 있다. 이미지 분석 모델은 상술한 학습 데이터 및 인공신경망에 기반한 딥 러닝 학습을 통하여 획득될 수 있으나, 이에 제한되는 것은 아니다.The image analysis model includes images including one or more fashion items, and labeling information for the image (eg, information on the location of a fashion item included in the image, the type of fashion item, material, design characteristics and details, etc.) ) may be learned based on learning data including The image analysis model may be obtained through deep learning learning based on the above-described learning data and artificial neural network, but is not limited thereto.

단계 S150에서, 컴퓨터는 상기 텍스트로부터 상기 이미지에 포함된 패션 아이템에 대한 감성정보를 추출한다.In step S150, the computer extracts emotional information about the fashion item included in the image from the text.

온라인 게시물에 이미지와 함께 업로드된 텍스트에는 이미지에 포함된 하나 이상의 패션 아이템에 대한 본인의 감상이나 평가가 포함될 수 있으며, 나아가 해당 온라인 게시물에 달린 댓글정보에는 타인의 감상이나 평가가 포함될 수 있다. 따라서, 개시된 실시 예에서는 텍스트로부터 이미지에 포함된 하나 이상의 패션 아이템에 대한 감성정보를 추출할 수 있다.The text uploaded along with the image in the online post may include one's impressions or evaluations of one or more fashion items included in the image, and furthermore, the comment information on the online post may include the opinions or evaluations of others. Accordingly, in the disclosed embodiment, emotional information about one or more fashion items included in an image may be extracted from text.

일 실시 예에서, 컴퓨터는 텍스트에 포함된 하나 이상의 키워드를 획득할 수 있다. 획득된 키워드는 이미지에 포함된 하나 이상의 패션 아이템에 대한 감상이나 평가에 대한 정보를 포함할 수 있으며, 이는 긍정평가 및 부정평가를 포함할 수 있으나, 이에 제한되는 것은 아니다.In an embodiment, the computer may obtain one or more keywords included in the text. The acquired keyword may include information on appreciation or evaluation of one or more fashion items included in the image, which may include positive evaluation and negative evaluation, but is not limited thereto.

실시 예에 따라서, 텍스트에 포함된 하나 이상의 키워드는 감성정보뿐 아니라 이미지에 포함된 패션 아이템에 대한 속성정보를 또한 포함할 수 있다. 컴퓨터는 텍스트에 포함된 각 키워드를 감성정보 및 속성정보로 분류할 수 있으며, 분류된 키워드를 이용하여 이미지에 포함된 하나 이상의 패션 아이템의 속성정보 및 이에 따른 감성정보를 결정할 수 있다.According to an embodiment, one or more keywords included in the text may include not only emotional information but also attribute information on a fashion item included in an image. The computer may classify each keyword included in the text into emotional information and attribute information, and may determine attribute information of one or more fashion items included in an image and emotional information accordingly by using the classified keyword.

단계 S160에서, 컴퓨터는 상기 속성정보 및 상기 감성정보를 이용하여 패션 트렌드 정보를 획득한다.In step S160, the computer acquires fashion trend information by using the attribute information and the emotional information.

일 실시 예에서, 컴퓨터는 단일 온라인 게시물에 대하여 이에 포함된 패션 아이템의 속성과, 해당 속성의 아이템에 대한 사용자의 감성정보를 획득할 수 있다. 나아가, 컴퓨터는 복수의 온라인 게시물로부터 각각의 온라인 게시물에 포함된 패션 아이템의 종류와, 이에 대한 사용자들의 감성정보를 획득할 수 있다. 이를 통해, 컴퓨터는 패션 트렌드 정보를 획득할 수 있다.In an embodiment, the computer may acquire the attribute of the fashion item included in the single online post and the user's emotional information for the item of the corresponding attribute. Furthermore, the computer may acquire the type of the fashion item included in each online post and emotional information of users about it from the plurality of online posts. Through this, the computer may acquire fashion trend information.

도 2 내지 도 4는 온라인 게시물로부터 패션 트렌드 정보를 획득하는 방법을 도시한 도면이다.2 to 4 are diagrams illustrating a method of acquiring fashion trend information from an online posting.

도 2는 복수의 이미지를 포함하는 화면의 일 예를 도시한 도면이다.2 is a diagram illustrating an example of a screen including a plurality of images.

일 실시 예에서, 컴퓨터는 패션 트렌드 분석을 위한 복수의 온라인 게시물을 획득할 수 있다.In an embodiment, the computer may acquire a plurality of online posts for fashion trend analysis.

도 2를 참조하면, 복수의 이미지를 포함하는 화면(200)이 도시되어 있다. 각각의 이미지는 서로 다른 게시물로 연결되며, 각각의 게시물은 이미지와 텍스트를 포함한다.Referring to FIG. 2 , a screen 200 including a plurality of images is shown. Each image is linked to a different post, and each post contains an image and text.

일 실시 예에서, 컴퓨터는 복수의 온라인 게시물 중 특정 패션 아이템을 포함하는 게시물을 검색할 수 있고, 또한 복수의 온라인 게시물 중 패션 아이템을 포함하지 않는 게시물을 필터링할 수 있다.In an embodiment, the computer may search for a post including a specific fashion item among a plurality of online posts, and may also filter out posts that do not include a fashion item among the plurality of online posts.

일 실시 예에서, 컴퓨터는 복수의 온라인 게시물로부터 획득된 속성정보에 기반하여 하나 이상의 패션 아이템이 언급되는 빈도에 대한 정보를 획득할 수 있다. 개시된 실시 예에서, 빈도는 패션 아이템이 언급되는 횟수 및 비율 중 적어도 하나를 포함하는 개념으로 이해될 수 있다. In an embodiment, the computer may acquire information on the frequency with which one or more fashion items are mentioned based on attribute information obtained from a plurality of online posts. In the disclosed embodiment, the frequency may be understood as a concept including at least one of the number and rate of mention of a fashion item.

또한, 컴퓨터는 복수의 온라인 게시물로부터 추출된, 상기 하나 이상의 패션 아이템에 대응하는 감성정보에 기반하여 상기 하나 이상의 패션 아이템에 대한 소비자의 감정에 대한 정보를 획득할 수 있다.In addition, the computer may acquire information on the consumer's emotions for the one or more fashion items based on emotional information corresponding to the one or more fashion items extracted from a plurality of online postings.

개시된 실시 예에서, 감정은 관심도 및 선호도 중 적어도 하나를 포함할 수 있으나, 이에 제한되는 것은 아니다. 예를 들어, 감정정보는 각 패션 아이템에 대한 사용자의 관심여부 및 선호여부에 대한 정보를 포함할 수 있으며, 이는 긍정 및 부정의 이진화된 정보일 수도 있으며, 관심도 및 선호도를 소정의 범위 내에서 점수화한 정보일 수도 있다.In the disclosed embodiment, the emotion may include at least one of interest and preference, but is not limited thereto. For example, the emotional information may include information on whether the user is interested or not for each fashion item, which may be positive and negative binarized information, and the interest and preference are scored within a predetermined range. It could be one piece of information.

일 실시 예에서, 컴퓨터는 복수의 온라인 게시물에서 상기 하나 이상의 패션 아이템이 언급되는 빈도 및 상기 하나 이상의 패션 아이템에 대한 소비자의 감정에 기초하여, 패션 트렌드 정보를 생성할 수 있다.In an embodiment, the computer may generate fashion trend information based on a frequency in which the one or more fashion items are mentioned in a plurality of online postings and a consumer's feelings for the one or more fashion items.

예를 들어, 최근의 기 설정된 기간 내에 수집 또는 업로드된 복수의 온라인 게시물에서 자주 언급되는 패션 아이템 또는 그 속성은 최근에 사람들이 많이 착용하는 패션 아이템 또는 패션 아이템의 속성인 것으로 판단할 수 있다.For example, it may be determined that a fashion item or a property thereof frequently mentioned in a plurality of online posts collected or uploaded within a recent preset period is a fashion item or a property of a fashion item that people wear a lot recently.

나아가, 각각의 패션 아이템 및 그 속성정보에 대한 사용자들의 감성정보(또는 감정에 대한 정보)에 기초하여, 해당 패션 아이템에 대한 평가정보가 획득될 수 있다.Furthermore, evaluation information on the corresponding fashion item may be obtained based on emotional information (or information on emotion) of users for each fashion item and its attribute information.

예를 들어, 최근의 기 설정된 기간 내에 수집 또는 업로드된 복수의 온라인 게시물에 포함된 이미지로부터 태깅되는 횟수가 많은 패션 아이템은 최근의 패션 트렌드에 해당한다고 생각될 수 있다. 단, 해당 패션 아이템이 포함된 이미지와 함께 게시된 텍스트로부터 해당 패션 아이템에 대한 부정적인 키워드가 많이 수집되는 경우, 해당 아이템을 긍정적인 패션 트렌드로서 기업이나 소비자에게 추천하기는 어려울 수 있다.For example, a fashion item with a high number of times being tagged from images included in a plurality of online posts collected or uploaded within a recent preset period may be considered to correspond to a recent fashion trend. However, if a large number of negative keywords for the corresponding fashion item are collected from the text posted along with the image including the corresponding fashion item, it may be difficult to recommend the item to a company or consumer as a positive fashion trend.

다른 예로, 각각의 패션 아이템이 포함된 이미지와 함께 게시된 텍스트에 기반하여 해당 패션 아이템의 더욱 구체적인 속성정보가 획득될 수 있다. 예를 들어, 이미지만으로는 획득할 수 없었던 해당 패션 아이템의 종류, 소재, 사이즈, 용도, 어울리는 장소나 코디 등 구체적인 정보가 텍스트로부터 수집될 수 있다.As another example, more specific attribute information of a corresponding fashion item may be obtained based on a text posted together with an image including each fashion item. For example, specific information such as the type, material, size, use, matching location or coordination of a corresponding fashion item that could not be obtained with an image alone may be collected from the text.

즉, 컴퓨터는 텍스트로부터 수집되는 정보에 기반하여 이미지로부터 획득되지 않은 정보를 보완하거나, 이미지로부터 획득될 수 없는 정보를 추가적으로 획득할 수 있다.That is, the computer may supplement information not obtained from the image or additionally acquire information that cannot be obtained from the image based on the information collected from the text.

이에 기반하여, 컴퓨터는 더욱 구체적인 조건에 대응하는 패션 트렌드 정보를 생성할 수 있다. 예를 들어, 단순히 특정 기간 혹은 현 시점의 패션 트렌드만을 예측하는 것이 아니고, 성별, 장소, 용도 등 다양한 조건에 기반하여 해당 조건에 맞는 패션 트렌드 정보를 획득할 수 있다.Based on this, the computer may generate fashion trend information corresponding to more specific conditions. For example, rather than simply predicting a fashion trend for a specific period or current time, fashion trend information suitable for the corresponding condition may be obtained based on various conditions such as gender, location, and use.

이를 위하여 컴퓨터는 복수의 온라인 게시물 중 적어도 하나를 선택하여 이에 포함된 이미지 및 텍스트 정보를 획득할 수 있으며, 예를 들어 도 2에 도시된 화면(200)에 포함된 게시물(210)을 선택할 수 있다.To this end, the computer may select at least one of a plurality of online postings to acquire image and text information included therein, for example, may select a posting 210 included in the screen 200 shown in FIG. 2 . .

도 3은 일 실시 예에 따라 온라인 게시물로부터 정보를 획득하는 방법을 설명하기 위한 도면이다.3 is a diagram for describing a method of acquiring information from an online posting according to an exemplary embodiment.

도 3을 참조하면, 온라인 게시물(300)은 이미지(310), 텍스트 정보 및 기타 추가 정보들을 포함할 수 있다.Referring to FIG. 3 , the online post 300 may include an image 310 , text information, and other additional information.

컴퓨터는 온라인 게시물(300)로부터 이미지(310)를 획득할 뿐 아니라, 텍스트를 획득할 수 있으며, 이에 기반하여 다양한 정보들을 획득할 수 있다.The computer may acquire not only the image 310 from the online post 300 but also the text, and may acquire various information based thereon.

일 실시 예에서, 컴퓨터는 게시물(300)에 포함된 본문 텍스트(320)를 획득할 수 있다.In an embodiment, the computer may obtain the body text 320 included in the post 300 .

또한, 컴퓨터는 게시물(300)에 포함된 댓글 텍스트(350)를 획득할 수 있다.Also, the computer may acquire the comment text 350 included in the post 300 .

또한, 컴퓨터는 게시물(300)에 포함된 해시태그된 텍스트(330)를 획득할 수 있다.Also, the computer may obtain the hashtag text 330 included in the post 300 .

일 실시 예에서, 해시태그(#)된 텍스트는 본문 텍스트로부터 추출될 수 있으나, 이에 제한되는 것은 아니다. 실시 예에 따라서, 해시태그된 텍스트는 댓글 텍스트에도 포함될 수 있으며, 이로부터 추출될 수 있다.In an embodiment, the hashtag (#) text may be extracted from the body text, but is not limited thereto. According to an embodiment, the hashtag text may also be included in the comment text, and may be extracted therefrom.

또한, 컴퓨터는 게시물(300)에 포함된 텍스트 중 게시물(300)의 업로드 시점을 나타내는 텍스트(340)를 획득하고, 이에 기반하여 해당 게시물의 업로드 시점을 획득할 수 있다.In addition, the computer may acquire the text 340 indicating the upload time of the post 300 among the texts included in the post 300 , and acquire the upload time of the corresponding post based on this.

또한, 컴퓨터는 게시물(300)에 포함된 텍스트 중 게시물(300)의 공감수를 나타내는 텍스트(360)를 획득하고, 이에 기반하여 해당 게시물의 공감수 정보를 획득할 수 있다.In addition, the computer may acquire the text 360 indicating the number of sympathy for the post 300 among the texts included in the post 300 , and based on this, obtain information on the number of sympathy for the post.

일 실시 예에서, 텍스트는 본문 텍스트(320), 댓글 텍스트(350) 및 해시태그된 텍스트(330)를 포함하는 텍스트 유형에 따라 상이한 가중치가 부여될 수 있다. 즉, 각각의 텍스트로부터 추출된 감성정보에 대하여, 각 텍스트의 유형에 따라 상이한 가중치가 부여될 수 있다.In an embodiment, different weights may be given to text according to text types including body text 320 , comment text 350 , and hashtag text 330 . That is, with respect to the emotional information extracted from each text, different weights may be given according to the type of each text.

예를 들어, 해시태그된 텍스트(330)에 가장 높은 가중치가 부여되며, 본인이 직접 작성한 본문 텍스트(320)에 그 다음의 가중치가 부여되며, 타인이 작성한 댓글 텍스트(350)에 가장 낮은 가중치가 부여될 수 있으나, 이에 제한되는 것은 아니다.For example, the highest weight is given to the hashtag text 330, the next weight is given to the body text 320 written by the user, and the lowest weight is given to the comment text 350 written by others. may be provided, but is not limited thereto.

실시 예에 따라서, 본인의 의견보다 타인의 의견이 더 신뢰도가 높은 것으로 판단하여, 댓글 텍스트(350)에 본문 텍스트(320)보다 높은 가중치가 부여될 수도 있다.According to an embodiment, it is determined that the opinion of another person is more reliable than the opinion of the user, so that the comment text 350 may be given a higher weight than the body text 320 .

일 실시 예에서, 컴퓨터는 게시물(300)에 포함된 업로드 시점(340) 정보에 기초하여 게시물에 대한 필터링 혹은 가중치 부여 등을 수행할 수 있다. 예를 들어, 컴퓨터는 최근 1달간의 온라인 게시물을 수집하여 패션 트렌드 분석을 수행하고자 할 수 있다. 이 경우, 컴퓨터는 게시물(300)의 업로드 시점(340) 정보에 기초하여 게시물(300)에 대한 분석 여부를 결정할 수 있다.In an embodiment, the computer may perform filtering or weighting of the postings based on the upload time 340 information included in the postings 300 . For example, a computer may want to perform fashion trend analysis by collecting online posts from the last month. In this case, the computer may determine whether to analyze the post 300 based on the upload time 340 information of the post 300 .

다른 실시 예에서, 컴퓨터는 게시물(300)의 업로드 시점(340)에 기초하여, 업로드 시점(340)이 현 시점에 가까울수록 상대적으로 높은 가중치를 부여하여 패션 트렌드 분석을 수행할 수도 있다.In another embodiment, based on the upload time 340 of the post 300 , the computer may perform fashion trend analysis by giving a relatively high weight as the upload time 340 is closer to the current time.

일 실시 예에서, 컴퓨터는 게시물(300)의 공감수(360)에 대한 정보를 획득할 수 있다. 개시된 실시 예에서, 공감수는 공감유형별 공감수에 대한 정보를 포함할 수 있다. 예를 들어, 공감유형은 긍정 유형 및 부정 유형을 포함할 수 있으며, 더 구체적으로는 좋아요, 싫어요, 공감, 슬픔, 기쁨, 화남 등을 포함할 수 있으나, 이에 제한되는 것은 아니다.In an embodiment, the computer may obtain information about the number of likes 360 of the post 300 . In the disclosed embodiment, the number of empathy may include information on the number of empathy for each empathy type. For example, the empathy type may include a positive type and a negative type, and more specifically, like, dislike, empathy, sadness, joy, angry, etc., but is not limited thereto.

또한, 컴퓨터는 게시물(300)의 댓글수에 대한 정보를 획득할 수 있다. 또한, 컴퓨터는 긍정댓글 수 및 부정댓글 수에 대한 정보를 함께 획득할 수 있다.Also, the computer may acquire information on the number of comments on the post 300 . In addition, the computer may acquire information about the number of positive comments and the number of negative comments together.

컴퓨터는 게시물(300)에 대한 공감수 및 댓글수 정보에 기초하여 해당 게시물(300)에 대한 가중치를 부여할 수 있다.The computer may assign a weight to the post 300 based on the number of likes and comments for the post 300 .

컴퓨터는 각각의 온라인 게시물에 부여된 가중치와, 온라인 게시물에 포함된 감성정보에 대하여 부여된 가중치를 고려하여 패션 트렌트 정보를 획득할 수 있다.The computer may acquire fashion trend information in consideration of the weight given to each online post and the weight given to the emotional information included in the online post.

예를 들어, 컴퓨터는 특정 게시물(300)의 이미지에 포함된 패션 아이템의 종류 및 구체적인 속성정보를 획득할 수 있다. 컴퓨터는 게시물(300)의 이미지에 포함된 패션 아이템의 종류 및 속성정보에 대하여 기본적으로 1점을 부여할 수 있다. 이에 더하여, 컴퓨터는 게시물(300)에 포함된 텍스트에 기반한 감성정보를 획득하고, 감성정보를 종합하여 패션 아이템에 대한 점수를 산출할 수 있다.For example, the computer may acquire the type and specific attribute information of the fashion item included in the image of the specific post 300 . The computer may give basically 1 point to the type and attribute information of the fashion item included in the image of the post 300 . In addition, the computer may obtain emotional information based on the text included in the post 300 and calculate a score for the fashion item by synthesizing the emotional information.

예를 들어, 감성정보에 포함된 긍정반응과 부정반응 등을 종합하여 패션 아이템에 대한 점수를 산출할 수 있으며, 점수는 -100점에서 +100점 사이의 값으로 산출될 수 있으나, 이에 제한되는 것은 아니다.For example, it is possible to calculate a score for a fashion item by synthesizing the positive and negative responses included in the emotional information, and the score may be calculated as a value between -100 and +100, but is limited thereto. it is not

예를 들어, 패션 아이템에 대한 점수가 70점으로 산출되는 경우, 컴퓨터는 패션 아이템에 부여된 1점에 0.7을 곱하여 0.7점을 획득할 수 있다.For example, when the score for the fashion item is calculated as 70, the computer may obtain 0.7 points by multiplying 1 point given to the fashion item by 0.7.

이에 더하여, 컴퓨터는 해당 게시물(300)에 대한 가중치를 획득할 수 있다. 예를 들어, 해당 게시물(300)이 평균적인 게시물보다 중요한 것으로 판단되는 경우(예를 들어, 긍정반응이 많거나, 공감수 및 댓글수가 많은 경우 등), 1을 초과하는 가중치를, 그렇지 않다면 1보다 작은 가중치를 부여할 수 있다. 예를 들어 게시물(300)에 대하여 1.5의 가중치가 부여되는 경우, 패션 아이템의 최종 점수는 0.7*1.5 = 1.05 가 될 수 있다.In addition, the computer may obtain a weight for the corresponding post 300 . For example, if the post 300 is judged to be more important than the average post (eg, if there are many positive responses, many likes and comments, etc.), a weight greater than 1 is given, otherwise 1 A smaller weight can be given. For example, when a weight of 1.5 is given to the post 300 , the final score of the fashion item may be 0.7*1.5 = 1.05.

컴퓨터는 복수의 온라인 게시물들로부터 각각의 패션 아이템에 대한 점수를 산출하여 합산하고, 합산 결과에 기초하여 각 패션 아이템에 대한 패션 트렌드 점수를 획득할 수 있다.The computer may calculate and add scores for each fashion item from a plurality of online postings, and acquire a fashion trend score for each fashion item based on the summation result.

획득된 패션 트렌드 점수가 높을수록 패션 트렌드에 가까운 아이템인 것으로 판단할 수 있으며, 이를 기업 및 소비자에게 추천할 수 있다.As the obtained fashion trend score is higher, it can be determined that the item is close to a fashion trend, and it can be recommended to businesses and consumers.

일 실시 예에서, 통상적인 패션 트렌드 외에도 특정한 조건에 기반한 패션 트렌드 분석이 수행될 수 있다. 예를 들어, 사용자가 “바닷가에서 입을 수 있는 옷”과 같이 특정한 조건을 부여한 경우, 컴퓨터는 기 획득된 정보(예를 들어, 바닷가에서 입기 좋은 옷인 것으로 기 저장된 옷의 종류들)에 기반하여 이에 대응하는 종류의 옷들을 필터링하거나, 해당 종류의 옷들에 높은 가중치를 부여할 수 있다. 이에 더하여, 컴퓨터는 텍스트 정보를 수집하여 바다와 관련된 키워드가 함께 포함된 이미지들을 수집 및 필터링하거나, 바다와 관련된 키워드가 함께 포함된 이미지의 패션 아이템들에 대하여 높은 가중치를 부여하는 방식으로 조건별 패션 트렌드 검색을 수행할 수도 있다. 마찬가지로, 컴퓨터는 이미지 분석을 통해 바다를 배경으로 촬영된 패션 아이템을 필터링하거나, 이에 높은 가중치를 부여할 수도 있다.In an embodiment, in addition to a general fashion trend, a fashion trend analysis based on a specific condition may be performed. For example, if the user assigns a specific condition such as “clothes that can be worn at the beach”, the computer responds based on previously acquired information (eg, types of clothes that are pre-stored as good clothes to wear at the beach). Corresponding types of clothes may be filtered, or a high weight may be assigned to the corresponding types of clothes. In addition, the computer collects text information and collects and filters images including the keyword related to the sea, or assigns a high weight to fashion items of the image including the keyword related to the sea. You can also perform trend searches. Similarly, the computer may filter the fashion items photographed in the background of the sea through image analysis, or assign a high weight to them.

실시 예에 따라서, 텍스트에 포함된 감성정보에 기반하여 해당 패션 아이템에 대한 마이너스 점수가 부여될 수도 있다. 예를 들어, 패션 아이템에 대해 -50점이 부여되는 경우, 컴퓨터는 해당 패션 아이템에 부여된 기본 1점에 -0.5점을 곱하여 -0.5점을 획득할 수도 있다.According to an embodiment, a negative score may be given to the corresponding fashion item based on the emotional information included in the text. For example, when -50 points are given to a fashion item, the computer may obtain -0.5 points by multiplying the basic 1 point given to the corresponding fashion item by -0.5 points.

개시된 실시 예에 따라 패션 트렌드를 분석하는 방법은 상술한 바와 같은 정량적인 방법에 제한되지 않으며, 이외에도 다양한 패션 트렌드 분석방법이 적용될 수 있다.The method of analyzing a fashion trend according to the disclosed embodiment is not limited to the quantitative method as described above, and various fashion trend analysis methods may be applied in addition.

또한, 감성정보를 통해 상술한 바와 같이 각각의 패션 아이템에 대한 점수를 산출할 수도 있으나, 서로 다른 감성에 대한 감성지수를 획득하는 것 또한 가능하다.In addition, although it is possible to calculate the score for each fashion item as described above through the emotion information, it is also possible to obtain the emotional index for different emotions.

예를 들어, 이미지에 포함된 패션 아이템에 대한 내추럴함, 클래식함, 모던함 등의 속성정보를 텍스트에 포함된 감성정보에 기반하여 판단하거나 보충할 수 있으며, 이외에도 이미지 분석으로는 획득할 수 없는 감성정보(예를 들어, 옷이 멋지다, 예쁘다, 쿨하다, 핫하다, 시크하다 등과 같은 감성정보)를 텍스트에 기반하여 수집하고, 각각의 감성에 대한 감성지수를 산출할 수 있다.For example, attribute information such as natural, classic, and modern for a fashion item included in the image can be judged or supplemented based on the emotional information included in the text. Information (eg, emotional information such as clothes are cool, pretty, cool, hot, chic, etc.) may be collected based on the text, and an emotional index for each emotion may be calculated.

산출된 감성지수는 정량화된 점수로 환산되거나, 각각의 패션 아이템에 대한 정량적 혹은 정성적 평가에 반영될 수 있다.The calculated emotional index may be converted into a quantified score or may be reflected in a quantitative or qualitative evaluation of each fashion item.

또한, 이러한 감성지수는 특정한 조건에 기반한 패션 트렌드 예측을 수행하는 경우, 특정한 감성을 갖는 패션 아이템을 추천하는 데 활용될 수도 있다.In addition, when predicting a fashion trend based on a specific condition, this sentiment index may be used to recommend a fashion item having a specific sensibility.

일 실시 예에서, 컴퓨터는 감성정보에 기반하여 이에 대응하는 패션 아이템에 대하여 높은 가중치가 부여되는 경우, 이와 유사한 다른 패션 아이템과 해당 패션 아이템의 차이점을 분석할 수 있다.In an embodiment, when a high weight is given to a fashion item corresponding thereto based on the emotional information, the computer may analyze a difference between the fashion item and other similar fashion items.

예를 들어, 동일한 셔츠 사진의 경우에도 특정 온라인 게시물이 다른 온라인 게시물보다 많은 공감수 및 댓글수를 가질 수 있으며, 또한 많은 긍정반응을 가질 수 있다.For example, even in the case of the same shirt photo, a certain online post may have more likes and comments than other online posts, and may also have many positive responses.

이 경우, 컴퓨터는 우선 해당 온라인 게시물이 업로드된 채널 및 계정의 특성에 기반하여 그 수치를 일차적으로 보정할 수 있다. 예를 들어, 특정 온라인 게시물이 많은 팔로워를 보유한 인플루언서에 의하여 업로드된 경우, 그렇지 않은 경우에 비해 기본적으로 많은 공감수 및 댓글수를 보유할 수 있다. 이 경우, 공감수 및 댓글수를 다른 온라인 게시물의 팔로워 수에 비례하여 조정할 수도 있고, 해당 인플루언서의 다른 온라인 게시물들의 평균 공감수 및 댓글수를 기준으로 하여 조정할 수도 있다.In this case, the computer may first correct the numerical value based on the characteristics of the channel and account to which the corresponding online post is uploaded. For example, if a specific online post is uploaded by an influencer who has many followers, it may have a lot of likes and comments by default compared to the case where it does not. In this case, the number of likes and comments may be adjusted in proportion to the number of followers of other online posts, or may be adjusted based on the average number of likes and comments of other online posts of the influencer.

조정된 수치를 기준으로 하였을 때에도 특정 온라인 게시물이 다른 온라인 게시물보다 높은 가중치가 부여되는 경우, 컴퓨터는 해당 온라인 게시물에 포함된 패션 아이템을 유사한 다른 패션 아이템들과 비교할 수 있다. When a specific online post is given a higher weight than other online posts even based on the adjusted numerical value, the computer may compare the fashion item included in the corresponding online post with other similar fashion items.

예를 들어, 컴퓨터는 해당 온라인 게시물에 포함된 패션 아이템의 속성정보와, 이와 유사한 다른 패션 아이템들의 속성정보를 비교할 수 있다.For example, the computer may compare attribute information of a fashion item included in the corresponding online post with attribute information of other similar fashion items.

이를 통해, 컴퓨터는 다른 패션 아이템들과 해당 패션 아이템의 속성정보 간의 차이점을 획득할 수 있다. 실시 예에 따라서, 기 획득된 속성정보만으로는 차이점을 찾기 어려울 수 있다. 이 경우, 컴퓨터는 이미지 분석에 기반한 비교를 통해 다른 패션 아이템들과의 차이점을 획득할 수 있다.Through this, the computer may acquire a difference between other fashion items and attribute information of the corresponding fashion item. According to an embodiment, it may be difficult to find a difference using only previously acquired attribute information. In this case, the computer may acquire differences from other fashion items through comparison based on image analysis.

예를 들어, 도 3을 참조하면, 셔츠의 옷깃 끝부분에 검은 포인트가 있는 것이 다른 셔츠와의 차이점인 것으로 판단될 수 있다. 이에 따라, 컴퓨터는 옷깃 끝부분에 포인트를 주는 것이 셔츠에 있어서 사용자들에게 좋은 반응을 얻을 수 있는 패션 트렌드에 해당한다는 정보를 획득할 수 있다.For example, referring to FIG. 3 , it may be determined that a black point at the end of a collar of a shirt is different from other shirts. Accordingly, the computer can acquire information that giving a point to the end of the collar corresponds to a fashion trend that can get a good response from users for a shirt.

이와 같이, 컴퓨터는 패션 트렌드 분석을 통해 기업이나 소비자에게 최근의 패션 트렌드에 해당하는 패션 아이템의 속성정보뿐 아니라, 같은 종류의 패션 아이템 내에서도 온라인 상에서 좋은 반응을 얻은 포인트를 추천하여 제공함으로써, 제품의 생산이나 구매에 도움이 되는 정보를 제공할 수 있다.In this way, the computer recommends and provides not only attribute information of fashion items corresponding to recent fashion trends to companies or consumers through fashion trend analysis, but also points that have received a good response online within the same type of fashion item, We can provide information to help with production or purchasing.

일 실시 예에서, 컴퓨터는 게시물(300)에 포함된 텍스트를 획득함에 있어서, 획득된 텍스트를 속성정보에 해당하는 텍스트 및 감성정보에 해당하는 텍스트로 분류할 수 있다.In an embodiment, when the computer acquires the text included in the post 300 , the computer may classify the acquired text into text corresponding to attribute information and text corresponding to emotion information.

예를 들어, 컴퓨터는 기본적으로 이미지에 기반하여 속성정보를, 텍스트에 기반하여 감성정보를 획득할 수 있으나, 텍스트에는 감성정보뿐 아니라 속성정보가 함께 포함될 수 있다.For example, the computer may basically acquire attribute information based on an image and emotional information based on text, but the text may include not only emotional information but also attribute information.

예를 들어, 도 3을 참조하면 본문 텍스트(320)에는 셔츠의 색상, 사이즈 및 추천 계절에 대한 정보가 기재되어 있고, 해시태그된 텍스트(330)에는 남자셔츠, 남자 와이셔츠, 20대 남자 등의 정보가 기재되어 있다.For example, referring to FIG. 3 , information on the color, size, and recommended season of the shirt is described in the body text 320 , and the hashtag text 330 includes a men's shirt, a men's shirt, a man in his twenties, etc. information is included.

컴퓨터는 텍스트에 포함된 키워드들 중 이러한 속성정보에 해당하는 키워드와, 해당 제품에 대한 감상이나 후기, 기분 등을 포함하는 감성정보에 해당하는 키워드를 분류할 수 있다.The computer may classify keywords corresponding to such attribute information among keywords included in the text and keywords corresponding to emotional information including impressions, reviews, and feelings on the corresponding product.

키워드 분류는 기 설정된 단어 데이터베이스에 기반하여 수행될 수 있으나 이에 제한되지 않으며, 다양한 자연어 분석기법이 활용될 수 있다. 예를 들어, 각각의 키워드에 대한 클러스터링 기반의 속성분석을 통해 키워드 분류가 수행될 수도 있다. 또한, 각각의 클러스터 혹은 데이터베이스에 포함된 키워드들과, 텍스트에 포함된 키워드 간의 유사도에 기반하여 해당 키워드의 속성을 판단할 수도 있다.The keyword classification may be performed based on a preset word database, but is not limited thereto, and various natural language analysis techniques may be used. For example, keyword classification may be performed through clustering-based attribute analysis for each keyword. Also, the attribute of the corresponding keyword may be determined based on the similarity between the keywords included in each cluster or database and the keywords included in the text.

일 실시 예에서, 컴퓨터는 상기 속성정보에 해당하는 텍스트로부터 하나 이상의 속성정보를 추출할 수 있다.In an embodiment, the computer may extract one or more attribute information from the text corresponding to the attribute information.

또한, 컴퓨터는 감성정보에 해당하는 것으로 분류된 텍스트로부터 감성정보를 추출할 수 있다.In addition, the computer may extract emotional information from the text classified as corresponding to the emotional information.

또한, 컴퓨터는 이미지를 이용하여 획득된 속성정보와, 텍스트로부터 추출된 속성정보를 비교하고, 비교 결과에 기초하여 이미지에 포함된 패션 아이템에 대한 속성정보를 업데이트할 수 있다.Also, the computer may compare the attribute information obtained using the image with the attribute information extracted from the text, and update the attribute information on the fashion item included in the image based on the comparison result.

예를 들어, 컴퓨터는 이미지 분석을 통해 획득한 패션 아이템의 속성정보와 텍스트를 통해 획득한 속성정보가 상이한 경우, 이미지 분석을 통해 획득한 속성정보를 정정하거나 일부 수정할 수 있으며, 이미지 분석을 통해 획득된 속성정보와 배타적이지 않은 추가 속성정보가 텍스트로부터 획득되는 경우, 이를 패션 아이템의 속성정보에 추가할 수 있다.For example, when the attribute information of a fashion item obtained through image analysis is different from the attribute information obtained through text, the computer may correct or partially correct the attribute information obtained through image analysis, and may be obtained through image analysis. When the specified attribute information and additional non-exclusive attribute information are obtained from the text, it may be added to the attribute information of the fashion item.

일 실시 예에서, 텍스트에 포함된 속성정보가 반드시 이미지에 포함된 패션 아이템을 지칭하는 것은 아닐 수 있다. 따라서, 컴퓨터는 우선 이미지 분석을 통해 이에 포함된 패션 아이템을 인식하되, 그 정확도를 산출할 수 있다. 예를 들어, 이미지 분석을 통해 패션 아이템이 셔츠인 것으로 90% 이상 정확도로 판단되는 경우, 텍스트에 다른 패션 아이템에 대한 정보가 있더라도 이를 반영하지 않을 수 있다. In an embodiment, the attribute information included in the text may not necessarily refer to the fashion item included in the image. Therefore, the computer first recognizes the fashion item included therein through image analysis, but can calculate the accuracy. For example, if it is determined that the fashion item is a shirt through image analysis with more than 90% accuracy, even if there is information on other fashion items in the text, this may not be reflected.

반면, 이미지 분석을 통해 패션 아이템이 셔츠인 것으로 70% 정확도로 판단되며, 패션 아이템이 티셔츠인 것으로 65% 정확도로 판단되는 경우, 텍스트에 티셔츠와 관련된 키워드가 포함된 경우, 이미지에 포함된 패션 아이템이 티셔츠인 것으로 판단할 수 있다.On the other hand, if the fashion item is determined to be a shirt with 70% accuracy through image analysis, if the fashion item is determined to be a T-shirt with 65% accuracy, if the text contains a keyword related to the T-shirt, the fashion item included in the image You can tell it's this t-shirt.

또한, 컴퓨터는 텍스트에 대한 키워드 분석뿐 아니라 문맥 분석을 통해 각각의 키워드의 역할을 결정할 수 있다. 예를 들어, 이미지에는 셔츠가 포함되어 있으나 텍스트에는 청바지와 관련된 키워드가 포함되어 있는 경우, 컴퓨터는 문맥 분석을 통해 해당 셔츠가 청바지와 함께 입기 좋다는 정보를 획득할 수 있다. 이외에도 텍스트에 포함된 다양한 감성정보 및 속성정보는 키워드 자체뿐 아니라 해당 문장의 맥락을 고려하여 패션 트렌드 분석에 반영될 수 있다.In addition, the computer may determine the role of each keyword through context analysis as well as keyword analysis for text. For example, if the image includes a shirt, but the text includes a keyword related to jeans, the computer may obtain information that the shirt is suitable to be worn with jeans through context analysis. In addition, various emotional information and attribute information included in the text can be reflected in fashion trend analysis by considering the context of the sentence as well as the keyword itself.

예를 들어, 긍정 키워드라 하더라도 반어법 등으로 인해 부정적인 뉘앙스를 가질 수 있으며, 특정 속성 정보가 텍스트에 포함되는 경우에도 이미지와 무관한 내용이 기재되었을 수 있다.For example, even a positive keyword may have a negative nuance due to irony or the like, and even if specific attribute information is included in the text, content unrelated to the image may be described.

이러한 맥락 분석에 이용되는 방법은 제한되지 않으며, 다양한 자연어 처리 및 분석기법이 활용될 수 있다.The method used for this context analysis is not limited, and various natural language processing and analysis techniques may be utilized.

도 4는 일 실시 예에 따라 다른 온라인 게시물을 탐색하는 방법을 도시한 도면이다.4 is a diagram illustrating a method of searching for another online post according to an exemplary embodiment.

상술한 도 2를 통하여 선택된 온라인 게시물(300)을 도 3과 같이 분석한 후, 컴퓨터는 다시 게시물들의 목록(400)에서 다른 온라인 게시물(410)을 선택하여 동일한 방법으로 분석을 수행할 수 있다.After analyzing the online post 300 selected through the above-described FIG. 2 as shown in FIG. 3 , the computer may select another online post 410 from the list of posts 400 and perform the analysis in the same manner.

분석을 수행하는 순서나 분석 대상 게시물을 선택하는 방법은 제한되지 않으며, 상술한 바와 같이 필터링을 통해 분석대상을 걸러내거나, 선택적으로 분석대상을 선택할 수 있다.The order in which the analysis is performed or the method of selecting the post to be analyzed is not limited, and as described above, the analysis target may be filtered through filtering, or the analysis target may be selectively selected.

도 5는 일 실시 예에 따라 복수의 패션 아이템을 포함하는 온라인 게시물의 분석방법을 도시한 도면이다.5 is a diagram illustrating a method of analyzing an online post including a plurality of fashion items according to an exemplary embodiment.

도 5를 참조하면, 온라인 게시물에 포함된 이미지(510) 및 텍스트(520)가 도시되어 있다.Referring to FIG. 5 , an image 510 and text 520 included in an online post are illustrated.

상술한 바와 같이, 컴퓨터는 이미지 분석을 통해 이미지(510)에 포함된 하나 이상의 패션 아이템을 인식하고, 태깅할 수 있다. 도 5에 도시된 바와 같이, 컴퓨터는 이미지(510)에 포함된 상의(512), 하의(514) 및 액세서리(516)를 인식 및 태깅할 수 있다.As described above, the computer may recognize and tag one or more fashion items included in the image 510 through image analysis. As shown in FIG. 5 , the computer may recognize and tag the top 512 , bottom 514 , and accessory 516 included in the image 510 .

또한, 컴퓨터는 인식 및 태깅된 패션 아이템의 종류 및 구체적인 속성정보를 이미지 분석을 통해 획득할 수 있다.In addition, the computer may acquire the type and specific attribute information of the recognized and tagged fashion item through image analysis.

또한, 컴퓨터는 텍스트(520)로부터 감성정보를 추출할 수 있으며, 예를 들어 상술한 바와 같이 키워드 분석을 통해 감성정보에 해당하는 하나 이상의 텍스트 정보를 추출할 수 있으며, 나아가 문맥 분석을 통해 각각의 키워드가 의미하는 바를 더욱 구체적으로 판단할 수 있다.In addition, the computer may extract emotional information from the text 520, for example, may extract one or more text information corresponding to emotional information through keyword analysis as described above, and furthermore, through context analysis, each What the keyword means can be determined more specifically.

일 실시 예에서, 도 5에 도시된 바와 같이 이미지(510)에 복수의 패션 아이템들이 포함될 수 있다. 이 경우, 컴퓨터는 텍스트에 포함된 감성정보가 지칭하는 대상(패션 아이템)을 결정할 수 있다.In an embodiment, as shown in FIG. 5 , a plurality of fashion items may be included in the image 510 . In this case, the computer may determine the object (fashion item) referred to by the emotional information included in the text.

기본적으로, 컴퓨터는 이미지(510)에 포함된 모든 패션 아이템에 대하여 텍스트로부터 획득된 감성정보를 적용할 수 있다. Basically, the computer may apply the emotional information obtained from the text to all fashion items included in the image 510 .

다른 실시 예에서, 컴퓨터는 텍스트로부터 획득된 감성정보를 서로 다른 패션 아이템에 할당할 수 있다. 이 경우, 동일한 감성정보가 복수의 패션 아이템에 할당될 수도 있다.In another embodiment, the computer may allocate the emotional information obtained from the text to different fashion items. In this case, the same emotional information may be allocated to a plurality of fashion items.

예를 들어, 텍스트에 특정 패션 아이템이 명시되는 경우, 텍스트 분석을 통해 해당 패션 아이템에 대한 감상을 포함하는 감성정보를 해당 패션 아이템에 적용할 수 있다.For example, when a specific fashion item is specified in the text, emotional information including an appreciation for the corresponding fashion item may be applied to the corresponding fashion item through text analysis.

다른 예로, 텍스트에 특정 패션 아이템이 명시되지 않더라도, 컴퓨터는 감성정보 분석을 통해 각각의 감성정보가 지칭하는 패션 아이템이 무엇인지 판단할 수 있다.As another example, even if a specific fashion item is not specified in the text, the computer may determine which fashion item each emotional information refers to through analysis of the emotional information.

예를 들어, 컴퓨터는 학습 과정에서 각각의 패션 아이템에 대하여 기 수집된 감성정보를 포함하는 데이터베이스를 획득할 수 있으며, 이에 기반하여 각각의 패션 아이템과 감성정보(예를 들어, 감상이나 수식어 등) 간의 연관성을 판단할 수 있는 모델을 학습시킬 수 있다. For example, the computer may acquire a database including emotional information previously collected for each fashion item in the learning process, and based on this, each fashion item and emotional information (eg, impressions or modifiers, etc.) It is possible to train a model that can determine the association between the two.

모델의 학습에는 머신러닝에 기반한 인공지능 기술이 사용될 수 있으나, 이에 제한되는 것은 아니다.An artificial intelligence technology based on machine learning may be used for learning the model, but is not limited thereto.

이를 통해, 컴퓨터는 각각의 패션 아이템과 기 설정된 기준값 이상의 연관성 점수를 갖는 감성정보를 각각의 패션 아이템에 할당할 수 있으나, 이에 제한되는 것은 아니다.Through this, the computer may allocate emotional information having a correlation score greater than or equal to a preset reference value with each fashion item to each fashion item, but is not limited thereto.

도 6은 일 실시 예에 따른 인공지능에 기반한 패션 트렌드 정보 획득방법을 도시한 도면이다.6 is a diagram illustrating a method for acquiring fashion trend information based on artificial intelligence according to an embodiment.

상술한 바와 같이, 컴퓨터는 복수의 온라인 게시물을 수집하여 이로부터 이미지 및 텍스트 정보를 획득할 수 있다.As described above, the computer may collect a plurality of online postings and obtain image and text information therefrom.

컴퓨터는 인공지능 모델 혹은 기타 분석방법을 이용하여 이미지에 포함된 패션 아이템의 속성정보와 텍스트에 포함된 감성정보를 획득하고, 이를 종합하여 패션 트렌드 정보를 획득할 수 있다.The computer acquires attribute information of a fashion item included in an image and emotional information included in a text by using an artificial intelligence model or other analysis method, and may acquire fashion trend information by synthesizing them.

일 실시 예에서, 컴퓨터는 온라인 게시물에 포함된 이미지와 텍스트 정보를 입력받아, 이에 대응하는 패션 트렌드 정보(예를 들어, 온라인 게시물에 포함된 패션 아이템에 대한 정보 및 해당 패션 아이템에 대한 평가점수)를 출력할 수 있는 인공지능 모델을 학습시킬 수 있다.In an embodiment, the computer receives image and text information included in an online post, and corresponding fashion trend information (eg, information on a fashion item included in the online post and an evaluation score for the corresponding fashion item) It is possible to train an artificial intelligence model that can output

컴퓨터는 해당 인공지능 모델을 이용하여 온라인 게시물들에 포함된 패션 아이템 및 그 평가점수를 수집하고, 이를 종합하여 패션 아이템별 평가점수를 합산하고, 이를 통해 패션 트렌드 정보를 획득할 수도 있다.The computer may use the AI model to collect fashion items and their evaluation scores included in online posts, synthesize them, and add up the evaluation scores for each fashion item, thereby acquiring fashion trend information.

도 7은 일 실시 예에 따른 인공지능 모델의 학습 및 이를 통한 트렌드 평가방법을 도시한 흐름도이다.7 is a flowchart illustrating a method of learning an artificial intelligence model and evaluating a trend through it according to an embodiment.

단계 S710에서, 컴퓨터는 복수의 온라인 게시물로부터 이미지 및 속성정보를 획득할 수 있다.In step S710, the computer may acquire images and attribute information from a plurality of online posts.

단계 S720에서, 컴퓨터는 복수의 온라인 게시물의 텍스트로부터 감성정보를 획득할 수 있다.In step S720, the computer may obtain emotional information from the text of a plurality of online posts.

단계 S730에서, 컴퓨터는 인공지능 모델을 학습시킬 수 있다.In step S730, the computer may train the artificial intelligence model.

일 실시 예에서, 컴퓨터는 온라인 게시물로부터 획득된 속성정보와 감성정보(또는 감성정보에 기반하여 산출된 패션 트렌드 점수)의 쌍을 포함하는 학습 데이터를 획득할 수 있다.In an embodiment, the computer may acquire learning data including a pair of attribute information and emotional information (or a fashion trend score calculated based on emotional information) obtained from online posts.

다른 실시 예에서, 컴퓨터는 온라인 게시물로부터 획득된 이미지와 감성정보(또는 감성정보에 기반하여 산출된 패션 트렌드 점수)의 쌍을 포함하는 학습 데이터를 획득할 수 있다.In another embodiment, the computer may acquire learning data including a pair of an image acquired from an online post and emotional information (or a fashion trend score calculated based on emotional information).

컴퓨터는 획득된 학습 데이터를 이용하여 인공지능 모델을 학습시킬 수 있다.The computer may train the artificial intelligence model using the acquired learning data.

단계 S740에서, 컴퓨터는 학습된 인공지능 모델을 이용하여 이미지 또는 속성정보에 대한 트렌드 평가를 수행할 수 있다.In step S740, the computer may perform trend evaluation on the image or attribute information using the learned artificial intelligence model.

예를 들어, 인공지능 모델이 속성정보와 감성정보의 쌍에 기반하여 학습된 경우, 컴퓨터는 하나 이상의 패션 아이템에 대한 속성정보를 입력받아, 입력된 정보에 대응하는 소비자의 감정(예를 들어, 감정은 관심도 및 선호도 중 적어도 하나를 포함할 수 있다)에 대한 정보를 출력할 수 있다.For example, when an artificial intelligence model is learned based on a pair of attribute information and emotional information, the computer receives attribute information about one or more fashion items, and the consumer's emotions (e.g., The emotion may include at least one of interest and preference).

이 경우, 컴퓨터는 우선 이미지 분석 모델을 이용하여 이미지로부터 패션 아이템의 속성정보를 추출하고, 추출된 속성정보를 인공지능 모델에 입력하여 이에 대응하는 감성정보 혹은 감성정보에 기반하여 산출되는 패션 트렌드 점수를 획득할 수 있다.In this case, the computer first extracts the attribute information of the fashion item from the image using the image analysis model, inputs the extracted attribute information into the artificial intelligence model, and a fashion trend score calculated based on the corresponding emotional information or emotional information can be obtained.

다른 예로, 컴퓨터는 하나 이상의 패션 아이템을 포함하는 이미지를 입력받아, 입력된 이미지에 포함된 하나 이상의 패션 아이템에 대한 소비자의 감정(예를 들어, 감정은 관심도 및 선호도 중 적어도 하나를 포함할 수 있다)에 대한 정보를 출력할 수 있다.As another example, the computer receives an image including one or more fashion items, and the consumer's emotion (eg, the emotion may include at least one of interest and preference) for one or more fashion items included in the input image. ) can be printed.

도 8은 일 실시 예에 따라 패션 트렌드를 평가하는 인공지능 모델을 도시한 도면이다.8 is a diagram illustrating an artificial intelligence model for evaluating a fashion trend according to an exemplary embodiment.

도 8을 참조하면, 도 7과 관련하여 상술한 바와 같이 복수의 온라인 게시물로부터 획득되는 학습 데이터를 이용하여 인공지능 모델을 학습시키고, 이를 통해 학습된 인공지능 모델을 획득하는 방법이 도시되어 있다.Referring to FIG. 8 , as described above with reference to FIG. 7 , a method of learning an artificial intelligence model using learning data obtained from a plurality of online posts and acquiring the learned artificial intelligence model is illustrated.

또한, 컴퓨터는 특정 이미지 또는 속성정보를 획득하며, 이를 학습된 인공지능 모델에 입력함으로써 패션 트렌드 평가정보를 획득할 수 있다.In addition, the computer acquires specific image or attribute information, and can acquire fashion trend evaluation information by inputting it into the learned artificial intelligence model.

예를 들어, 신제품에 대한 패션 트렌드 평가를 수행하고자 하거나, 소비자가 자신이 입은 옷에 대한 패션 트렌드 평가를 받고자 하는 경우, 이를 촬영하여 인공지능 모델에 기반한 평가를 받을 수 있다.For example, if a fashion trend evaluation for a new product is to be performed or a consumer wants to receive a fashion trend evaluation for the clothes they are wearing, it can be photographed and evaluated based on an artificial intelligence model.

컴퓨터는 획득된 이미지 혹은 이로부터 획득된 속성정보를 인공지능 모델에 입력하고, 이에 따른 감성정보 혹은 감성정보에 기반하여 산출되는 패션 트렌드 평가정보를 획득할 수 있다.The computer may input the acquired image or attribute information acquired therefrom into the artificial intelligence model, and thus acquire emotional information or fashion trend evaluation information calculated based on the emotional information.

즉, 컴퓨터는 인공지능 모델을 이용하여 특정한 패션 아이템을 포함하는 이미지를 온라인에 게시하는 경우 이에 대한 사용자들의 평가를 미리 예측할 수 있다.That is, when an image including a specific fashion item is posted online using an artificial intelligence model, the computer can predict the evaluation of users in advance.

이러한 인공지능 모델은 도 1에 도시된 패션 트렌드 예측방법에도 활용될 수 있다. 즉, 컴퓨터는 학습된 인공지능 모델을 이용하여 온라인 게시물들 각각에 대하여 패션 트렌드 평가를 수행하고, 평가 결과를 종합하여 온라인 게시물들에 업로드된 패션 아이템의 종류 및 이에 대한 평가정보를 획득하고, 이를 통하여 패션 트렌드를 판단 혹은 예측할 수 있다.Such an artificial intelligence model may also be utilized in the fashion trend prediction method shown in FIG. 1 . That is, the computer performs fashion trend evaluation on each of the online posts by using the learned artificial intelligence model, and obtains the types of fashion items uploaded to the online posts and evaluation information thereof by synthesizing the evaluation results, and Through this, you can judge or predict fashion trends.

도 9는 일 실시 예에 따른 관절 좌표에 기반한 이미지 인식방법을 도시한 도면이다.9 is a diagram illustrating an image recognition method based on joint coordinates according to an embodiment.

도 9를 참조하면, 서로 다른 패션 아이템을 포함하는 이미지(910, 920 및 930)가 도시되어 있다.Referring to FIG. 9 , images 910 , 920 , and 930 including different fashion items are shown.

일 실시 예에서, 컴퓨터는 이미지 분석에 기반하여 각각의 패션 아이템의 종류를 분석할 수 있으며, 이는 민소매, 반팔 및 긴팔 등과 같은 패션 아이템의 속성정보를 포함할 수 있다.In an embodiment, the computer may analyze the type of each fashion item based on the image analysis, which may include attribute information of the fashion item such as sleeveless, short-sleeved, and long-sleeved.

단, 소매의 길이나 옷의 길이, 크기 등은 일반적인 이미지 분석을 통하여서는 구체적인 판단이 어려울 수 있다. However, it may be difficult to determine the length of sleeves, length of clothes, and size through general image analysis.

따라서, 개시된 실시 예에 따르면 인체의 관절에 기초하여 하나 이상의 포인트를 설정하고, 해당 포인트를 이미지로부터 인식한 후 이를 패션 아이템과 비교하여 패션 아이템에 대하여 더욱 정확한 속성정보를 추출할 수 있다.Accordingly, according to the disclosed embodiment, it is possible to set one or more points based on the joints of the human body, recognize the corresponding points from the image, compare them with the fashion item, and extract more accurate attribute information for the fashion item.

도 9를 참조하면, 중앙에 인체 이미지 및 이에 배치된 복수의 좌표점이 도시되어 있다. 예를 들어, 인체의 머리, 목, 어깨, 허리, 골반, 팔꿈치, 손목, 손바닥, 손가락, 무릎, 발목, 발 등 복수의 포인트에 각각 좌표점이 할당될 수 있으며, 컴퓨터는 이미지를 분석함에 있어서 이미지에 인체가 포함된 것으로 판단되는 경우, 우선적으로 이러한 좌표점을 먼저 인식할 수 있다.Referring to FIG. 9 , a human body image and a plurality of coordinate points disposed thereon are shown in the center. For example, coordinate points may be assigned to a plurality of points, such as a human head, neck, shoulder, waist, pelvis, elbow, wrist, palm, finger, knee, ankle, and foot, respectively, and the computer analyzes the image If it is determined that the human body is included in the , these coordinate points may be recognized first.

예를 들어, 이미지(910)의 경우, 컴퓨터는 인체의 어깨(912) 및 팔꿈치(914)의 좌표점을 인식하고, 이후 패션 아이템이 차지하는 위치 및 영역을 판단할 수 있다.For example, in the case of the image 910, the computer may recognize the coordinate points of the shoulder 912 and the elbow 914 of the human body, and then determine the position and area occupied by the fashion item.

컴퓨터는 패션 아이템이 상의인 것을 판단하되, 해당 패션 아이템이 어깨(912) 및 팔꿈치(914)를 덮지 않는 것을 인식함으로써, 해당 패션 아이템의 소매길이가 0%, 즉 민소매인 것으로 판단할 수 있다.The computer determines that the fashion item is a top, but by recognizing that the fashion item does not cover the shoulder 912 and the elbow 914, it can be determined that the sleeve length of the corresponding fashion item is 0%, that is, sleeveless.

마찬가지로, 컴퓨터는 이미지(920)의 경우, 인체의 어깨(922) 및 팔꿈치(924)의 좌표점을 인식하고, 이후 패션 아이템이 차지하는 위치 및 영역을 판단할 수 있다. Similarly, in the case of the image 920 , the computer may recognize the coordinate points of the shoulder 922 and the elbow 924 of the human body, and then determine the position and area occupied by the fashion item.

컴퓨터는 패션 아이템이 상의인 것을 판단하되, 해당 패션 아이템이 어깨(922)를 덮되 및 팔꿈치(924)를 덮지 않는 것을 인식함으로써, 해당 패션 아이템의 소매길이가 45%, 즉 반팔인 것으로 판단할 수 있다.The computer determines that the fashion item is a top, but by recognizing that the fashion item covers the shoulder 922 and does not cover the elbow 924, it can be determined that the sleeve length of the fashion item is 45%, that is, short sleeves. have.

또한, 컴퓨터는 이미지(930)의 경우, 인체의 어깨(932), 팔꿈치(934) 및 손목(936)의 좌표점을 인식하고, 이후 패션 아이템이 차지하는 위치 및 영역을 판단할 수 있다. Also, in the case of the image 930 , the computer may recognize the coordinate points of the shoulder 932 , the elbow 934 , and the wrist 936 of the human body, and then determine the position and area occupied by the fashion item.

컴퓨터는 패션 아이템이 상의인 것을 판단하되, 해당 패션 아이템이 어깨(932) 및 팔꿈치(934)를 덮되 팔목(936)을 덮지 않는 것을 인식함으로써, 해당 패션 아이템의 소매길이가 80%, 즉 8부인 것으로 판단할 수 있다.The computer determines that the fashion item is a top, but recognizes that the fashion item covers the shoulder 932 and the elbow 934 but does not cover the wrist 936, so that the sleeve length of the fashion item is 80%, that is, 8 parts can be judged as

이외에도 컴퓨터는 다양한 인체의 관절 좌표점의 위치를 인식하고, 해당 좌표점의 위치와 패션 아이템의 위치 및 영역을 비교함으로써, 각각의 패션 아이템에 대한 속성을 더욱 구체적으로 판단할 수 있다.In addition, the computer may recognize the positions of various joint coordinate points of the human body and compare the positions of the coordinate points with the positions and regions of the fashion items to determine the properties of each fashion item in more detail.

도 10은 일 실시 예에 따른 다중 레이블링 학습방법을 도시한 도면이다.10 is a diagram illustrating a multi-labeling learning method according to an embodiment.

도 10을 참조하면, 복수의 패션 아이템과 이를 평가한 속성정보(1010 및 1020)가 도시되어 있다.Referring to FIG. 10 , a plurality of fashion items and attribute information 1010 and 1020 evaluating them are shown.

패션 아이템의 상단에 표시된 속성정보(1010)의 경우, 각각의 패션 아이템에 대하여 하나의 속성을 지정하는 것을 특징으로 한다. 이 경우, 해당 패션 아이템의 특성을 간결하게 파악할 수 있으나, 패션 아이템의 특성을 하나의 속성만으로 지칭하기에는 부정확한 경우들이 있을 수 있다. In the case of the attribute information 1010 displayed on the top of the fashion item, it is characterized in that one attribute is designated for each fashion item. In this case, although the characteristic of the corresponding fashion item can be simply grasped, there may be cases in which it is inaccurate to refer to the characteristic of the fashion item with only one attribute.

따라서, 패션 아이템 하단의 속성정보(1020)와 같이, 각각의 패션 아이템에 대하여 복수의 속성정보 및 각 속성정보의 점수를 제공하는 방식으로 패션 아이템의 속성 분석이 수행될 수 있다.Accordingly, like the attribute information 1020 at the bottom of the fashion item, the attribute analysis of the fashion item may be performed in a manner of providing a plurality of attribute information and a score of each attribute information for each fashion item.

이를 통해, 각 패션 아이템의 대표적인 속성이 무엇인지 판단할 수 있을 뿐 아니라, 이외의 속성들에 대한 점수를 함께 판단할 수 있어, 더욱 세분화된 스타일 분석을 가능케 할 수 있다.Through this, it is possible not only to determine what the typical attributes of each fashion item are, but also to determine the scores for other attributes together, thereby enabling a more detailed style analysis.

예를 들어, “클래식하면서 모던한” 패션 아이템을 찾는 경우, 클래식 점수와 모던 점수가 모두 기 설정된 기준값 이상인 패션 아이템을 찾는 방식으로, 다각적인 스타일 분석을 수행하는 것이 가능하다.For example, when searching for a “classic and modern” fashion item, it is possible to perform multi-faceted style analysis by finding a fashion item having both the classic score and the modern score equal to or greater than a preset reference value.

도 11은 도 10에 도시된 분석방법을 수행하기 위한 레이블링 화면의 일 예를 도시한 도면이다.11 is a diagram illustrating an example of a labeling screen for performing the analysis method shown in FIG. 10 .

도 11을 참조하면, 패션 아이템을 포함하는 이미지(1110) 및 이에 대한 속성정보를 레이블링하기 위한 복수의 속성정보(1120)가 도시되어 있다.Referring to FIG. 11 , an image 1110 including a fashion item and a plurality of attribute information 1120 for labeling the attribute information are shown.

이에 더하여, 레이블링 화면에는 메인 속성(1130)을 선택하는 메뉴와 서브 속성(1140)을 선택하는 메뉴가 포함될 수 있다.In addition, the labeling screen may include a menu for selecting the main attribute 1130 and a menu for selecting the sub attribute 1140 .

일 실시 예에서, 메인 속성(1130)은 복수의 속성정보(1120) 중 택일하고, 서브 속성(1140)은 복수의 속성정보(1120)중 하나 이상을 선택 가능하도록 구성될 수 있으나, 이에 제한되는 것은 아니다.In an embodiment, the main attribute 1130 may be selected from among the plurality of attribute information 1120 , and the sub attribute 1140 may be configured to select one or more of the plurality of attribute information 1120 , but is limited thereto. it is not

이를 통하여 컴퓨터는 패션 아이템에 대한 하나의 메인 속성과 하나 이상의 서브 속성을 획득할 수 있으며, 이에 기반하여 인공지능 모델을 학습시킴으로써 하나의 패션 아이템에 대하여 복수의 속성정보 및 각 속성정보의 점수를 출력할 수 있는 인공지능 모델을 획득할 수 있다.Through this, the computer can acquire one main attribute and one or more sub-attributes for a fashion item, and by learning an artificial intelligence model based on this, a plurality of attribute information and scores of each attribute information are output for one fashion item. It is possible to obtain an artificial intelligence model that can do this.

도 12는 일 실시 예에 따른 장치의 구성도이다.12 is a block diagram of an apparatus according to an embodiment.

프로세서(102)는 하나 이상의 코어(core, 미도시) 및 그래픽 처리부(미도시) 및/또는 다른 구성 요소와 신호를 송수신하는 연결 통로(예를 들어, 버스(bus) 등)를 포함할 수 있다.The processor 102 may include one or more cores (not shown) and a graphic processing unit (not shown) and/or a connection path (eg, a bus, etc.) for transmitting and receiving signals to and from other components. .

일 실시예에 따른 프로세서(102)는 메모리(104)에 저장된 하나 이상의 인스트럭션을 실행함으로써, 도 1 내지 도 11과 관련하여 설명된 방법을 수행한다.The processor 102 according to an embodiment performs the method described with reference to FIGS. 1 to 11 by executing one or more instructions stored in the memory 104 .

한편, 프로세서(102)는 프로세서(102) 내부에서 처리되는 신호(또는, 데이터)를 일시적 및/또는 영구적으로 저장하는 램(RAM: Random Access Memory, 미도시) 및 롬(ROM: Read-Only Memory, 미도시)을 더 포함할 수 있다. 또한, 프로세서(102)는 그래픽 처리부, 램 및 롬 중 적어도 하나를 포함하는 시스템온칩(SoC: system on chip) 형태로 구현될 수 있다. On the other hand, the processor 102 is a RAM (Random Access Memory, not shown) and ROM (Read-Only Memory: ROM) for temporarily and / or permanently storing a signal (or data) processed inside the processor 102. , not shown) may be further included. In addition, the processor 102 may be implemented in the form of a system on chip (SoC) including at least one of a graphic processing unit, a RAM, and a ROM.

메모리(104)에는 프로세서(102)의 처리 및 제어를 위한 프로그램들(하나 이상의 인스트럭션들)을 저장할 수 있다. 메모리(104)에 저장된 프로그램들은 기능에 따라 복수 개의 모듈들로 구분될 수 있다.The memory 104 may store programs (one or more instructions) for processing and controlling the processor 102 . Programs stored in the memory 104 may be divided into a plurality of modules according to functions.

본 발명의 실시예와 관련하여 설명된 방법 또는 알고리즘의 단계들은 하드웨어로 직접 구현되거나, 하드웨어에 의해 실행되는 소프트웨어 모듈로 구현되거나, 또는 이들의 결합에 의해 구현될 수 있다. 소프트웨어 모듈은 RAM(Random Access Memory), ROM(Read Only Memory), EPROM(Erasable Programmable ROM), EEPROM(Electrically Erasable Programmable ROM), 플래시 메모리(Flash Memory), 하드 디스크, 착탈형 디스크, CD-ROM, 또는 본 발명이 속하는 기술 분야에서 잘 알려진 임의의 형태의 컴퓨터 판독가능 기록매체에 상주할 수도 있다.The steps of a method or algorithm described in relation to an embodiment of the present invention may be implemented directly in hardware, as a software module executed by hardware, or by a combination thereof. A software module may contain random access memory (RAM), read only memory (ROM), erasable programmable ROM (EPROM), electrically erasable programmable ROM (EEPROM), flash memory, hard disk, removable disk, CD-ROM, or It may reside in any type of computer-readable recording medium well known in the art to which the present invention pertains.

본 발명의 구성 요소들은 하드웨어인 컴퓨터와 결합되어 실행되기 위해 프로그램(또는 애플리케이션)으로 구현되어 매체에 저장될 수 있다. 본 발명의 구성 요소들은 소프트웨어 프로그래밍 또는 소프트웨어 요소들로 실행될 수 있으며, 이와 유사하게, 실시 예는 데이터 구조, 프로세스들, 루틴들 또는 다른 프로그래밍 구성들의 조합으로 구현되는 다양한 알고리즘을 포함하여, C, C++, 자바(Java), 어셈블러(assembler) 등과 같은 프로그래밍 또는 스크립팅 언어로 구현될 수 있다. 기능적인 측면들은 하나 이상의 프로세서들에서 실행되는 알고리즘으로 구현될 수 있다.The components of the present invention may be implemented as a program (or application) to be executed in combination with a computer, which is hardware, and stored in a medium. Components of the present invention may be implemented as software programming or software components, and similarly, embodiments may include various algorithms implemented as data structures, processes, routines, or combinations of other programming constructs, including C, C++ , Java, assembler, etc. may be implemented in a programming or scripting language. Functional aspects may be implemented in an algorithm running on one or more processors.

이상, 첨부된 도면을 참조로 하여 본 발명의 실시예를 설명하였지만, 본 발명이 속하는 기술분야의 통상의 기술자는 본 발명이 그 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 그러므로, 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며, 제한적이 아닌 것으로 이해해야만 한다. As mentioned above, although embodiments of the present invention have been described with reference to the accompanying drawings, those skilled in the art to which the present invention pertains can realize that the present invention can be embodied in other specific forms without changing its technical spirit or essential features. you will be able to understand Therefore, it should be understood that the embodiments described above are illustrative in all respects and not restrictive.

Claims (10)

컴퓨터에 의하여 수행되는 방법에 있어서,
온라인 게시물을 획득하는 단계;
상기 게시물에 포함된 이미지를 획득하는 단계;
상기 게시물에 포함된 텍스트를 획득하는 단계;
상기 획득된 이미지를 이용하여, 상기 이미지에 포함된 패션 아이템에 대한 속성정보를 획득하는 단계;
상기 텍스트로부터 상기 이미지에 포함된 패션 아이템에 대한 감성정보를 추출하는 단계; 및
상기 속성정보 및 상기 감성정보를 이용하여 패션 트렌드 정보를 획득하는 단계; 를 포함하고,
상기 텍스트를 획득하는 단계는,
상기 게시물에 포함된 본문 텍스트를 획득하는 단계;
상기 게시물에 포함된 댓글 텍스트를 획득하는 단계; 및
상기 본문 텍스트로부터 하나 이상의 해시태그된 텍스트를 획득하는 단계; 를 포함하고,
상기 텍스트를 획득하는 단계는,
상기 획득된 텍스트를 속성정보에 해당하는 텍스트 및 감성정보에 해당하는 텍스트로 분류하는 단계; 를 더 포함하고,
상기 속성정보를 획득하는 단계는,
상기 속성정보에 해당하는 텍스트로부터 하나 이상의 속성정보를 추출하는 단계;
상기 이미지를 이용하여 획득된 속성정보와, 상기 텍스트로부터 추출된 속성정보를 비교하는 단계; 및
상기 비교 결과에 기초하여 상기 이미지에 포함된 패션 아이템에 대한 속성정보를 업데이트하는 단계; 를 더 포함하고,
상기 감성정보를 추출하는 단계는,
상기 감성정보에 해당하는 텍스트로부터 상기 감성정보를 추출하는 단계; 를 포함하고,
상기 속성정보를 획득하는 단계는,
인체의 관절에 기초하여 하나 이상의 포인트를 설정하는 단계;
상기 이미지에 인체가 포함되어 있는지 판단하는 단계;
상기 이미지에 인체가 포함된 경우, 상기 이미지에 포함된 인체에서 상기 포인트에 대응되는 좌표점을 인식하는 단계;
상기 좌표점의 위치에 기초하여 패션 아이템이 차지하는 위치 및 영역을 판단하는 단계; 및
판단된 결과를 기초로 패션 아이템의 속성정보를 추출하는 단계; 를 포함하는,
이미지 및 텍스트 통합분석에 기반한 패션 트렌드 예측방법.
A method performed by a computer comprising:
obtaining online posts;
obtaining an image included in the post;
obtaining text included in the post;
acquiring attribute information on a fashion item included in the image by using the acquired image;
extracting emotional information about a fashion item included in the image from the text; and
obtaining fashion trend information by using the attribute information and the emotional information; including,
Obtaining the text includes:
obtaining a body text included in the post;
obtaining a comment text included in the post; and
obtaining one or more hashtagged texts from the body text; including,
Obtaining the text includes:
classifying the acquired text into text corresponding to attribute information and text corresponding to emotion information; further comprising,
The step of obtaining the attribute information includes:
extracting at least one attribute information from the text corresponding to the attribute information;
comparing attribute information obtained using the image with attribute information extracted from the text; and
updating attribute information on the fashion item included in the image based on the comparison result; further comprising,
The step of extracting the emotional information,
extracting the emotional information from the text corresponding to the emotional information; including,
The step of obtaining the attribute information includes:
setting one or more points based on the joints of the human body;
determining whether a human body is included in the image;
when the human body is included in the image, recognizing a coordinate point corresponding to the point in the human body included in the image;
determining a position and an area occupied by a fashion item based on the position of the coordinate point; and
extracting attribute information of a fashion item based on the determined result; containing,
Fashion trend prediction method based on image and text integrated analysis.
제1 항에 있어서,
상기 패션 트렌드 정보를 획득하는 단계는,
패션 트렌드 분석을 위한 복수의 온라인 게시물을 획득하는 단계;
상기 복수의 온라인 게시물로부터 획득된 속성정보에 기반하여 하나 이상의 패션 아이템이 언급되는 빈도 - 상기 빈도는 횟수 및 비율 중 적어도 하나를 포함함 - 에 대한 정보를 획득하는 단계;
상기 복수의 온라인 게시물로부터 추출된, 상기 하나 이상의 패션 아이템에 대응하는 감성정보에 기반하여 상기 하나 이상의 패션 아이템에 대한 소비자의 감정 - 상기 감정은 관심도 및 선호도 중 적어도 하나를 포함함 - 에 대한 정보를 획득하는 단계; 및
상기 하나 이상의 패션 아이템이 언급되는 빈도 및 상기 하나 이상의 패션 아이템에 대한 소비자의 감정에 기초하여, 패션 트렌드 정보를 생성하는 단계; 를 포함하는,
이미지 및 텍스트 통합분석에 기반한 패션 트렌드 예측방법.
According to claim 1,
The step of obtaining the fashion trend information includes:
acquiring a plurality of online posts for fashion trend analysis;
obtaining information on the frequency at which one or more fashion items are mentioned based on the attribute information obtained from the plurality of online posts, the frequency including at least one of a number and a ratio;
Information on the consumer's emotions toward the one or more fashion items, the emotions including at least one of interest and preference, based on emotional information corresponding to the one or more fashion items, extracted from the plurality of online posts obtaining; and
generating fashion trend information based on a frequency in which the one or more fashion items are mentioned and a consumer's feelings for the one or more fashion items; containing,
Fashion trend prediction method based on image and text integrated analysis.
삭제delete 삭제delete 제1 항에 있어서,
상기 분류하는 단계는,
상기 본문 텍스트, 댓글 텍스트 및 해시태그된 텍스트 각각에 대하여, 서로 상이한 속성 가중치 및 감성 가중치를 부여하는 단계; 및
상기 본문 텍스트, 댓글 텍스트 및 해시태그된 텍스트 각각에 대하여, 텍스트의 내용 및 각 텍스트에 부여된 가중치를 이용하여 각각의 텍스트를 속성정보에 해당하는 텍스트 및 감성정보에 해당하는 텍스트로 분류하는 단계; 를 더 포함하는,
이미지 및 텍스트 통합분석에 기반한 패션 트렌드 예측방법.
According to claim 1,
The classification step is
applying different attribute weights and emotion weights to each of the body text, comment text, and hashtag text; and
classifying each text into text corresponding to attribute information and text corresponding to emotion information by using the content of the text and a weight assigned to each text for each of the body text, the comment text, and the hashtag text; further comprising,
Fashion trend prediction method based on image and text integrated analysis.
제1 항에 있어서,
상기 온라인 게시물에 대한 공감수 - 상기 공감수는 공감유형별 공감수에 대한 정보를 포함함 - 및 댓글수 - 상기 댓글수는 긍정댓글 수 및 부정댓글 수에 대한 정보를 포함함 - 를 획득하는 단계; 및
상기 공감수 및 댓글수에 기초하여 상기 온라인 게시물에 대한 가중치를 부여하는 단계; 를 더 포함하고,
상기 감성정보를 추출하는 단계는,
상기 감성정보가 추출된 텍스트 유형 - 상기 텍스트 유형은, 상기 본문 텍스트, 상기 댓글 텍스트 및 상기 해시태그된 텍스트를 포함함 - 에 따라 추출된 감성정보에 상이한 가중치를 부여하는 단계; 를 더 포함하고,
상기 패션 트렌드 정보를 획득하는 단계는,
상기 온라인 게시물에 부여된 가중치 및 상기 추출된 감성정보에 부여된 가중치를 고려하여 상기 패션 트렌드 정보를 획득하는 단계; 를 포함하는,
이미지 및 텍스트 통합분석에 기반한 패션 트렌드 예측방법.
According to claim 1,
Acquiring the number of sympathy for the online post - the number of sympathy includes information on the number of sympathy for each sympathy type - and the number of comments - the number of comments - the number of comments includes information on the number of positive comments and negative comments; and
assigning a weight to the online post based on the number of likes and comments; further comprising,
The step of extracting the emotional information,
assigning different weights to the extracted emotion information according to the text type from which the emotion information is extracted, wherein the text type includes the body text, the comment text, and the hashtag text; further comprising,
The step of obtaining the fashion trend information includes:
obtaining the fashion trend information in consideration of the weight given to the online post and the weight given to the extracted emotional information; containing,
Fashion trend prediction method based on image and text integrated analysis.
제1 항에 있어서,
복수의 온라인 게시물로부터 획득된 속성정보 및 감성정보의 쌍을 포함하는 학습 데이터를 획득하는 단계; 및
상기 학습 데이터를 이용하여 인공지능 모델을 학습시키는 단계; 를 더 포함하고,
상기 인공지능 모델은,
하나 이상의 패션 아이템에 대한 속성정보를 입력받아, 입력된 정보에 대응하는 소비자의 감정 - 상기 감정은 관심도 및 선호도 중 적어도 하나를 포함함 - 에 대한 정보를 출력하는 것을 특징으로 하는,
이미지 및 텍스트 통합분석에 기반한 패션 트렌드 예측방법.
According to claim 1,
obtaining learning data including a pair of attribute information and emotion information obtained from a plurality of online posts; and
learning an artificial intelligence model using the learning data; further comprising,
The artificial intelligence model is
Characterized in that by receiving attribute information about one or more fashion items, and outputting information on a consumer's emotion corresponding to the input information, the emotion including at least one of interest and preference,
Fashion trend prediction method based on image and text integrated analysis.
제1 항에 있어서,
복수의 온라인 게시물로부터 획득된 이미지 및 감성정보의 쌍을 포함하는 학습 데이터를 획득하는 단계; 및
상기 학습 데이터를 이용하여 인공지능 모델을 학습시키는 단계; 를 더 포함하고,
상기 인공지능 모델은,
하나 이상의 패션 아이템을 포함하는 이미지를 입력받아, 입력된 이미지에 포함된 하나 이상의 패션 아이템에 대한 소비자의 감정 - 상기 감정은 관심도 및 선호도 중 적어도 하나를 포함함 - 에 대한 정보를 출력하는 것을 특징으로 하는,
이미지 및 텍스트 통합분석에 기반한 패션 트렌드 예측방법.
According to claim 1,
obtaining learning data including a pair of images and emotional information obtained from a plurality of online posts; and
learning an artificial intelligence model using the learning data; further comprising,
The artificial intelligence model is
It is characterized in that receiving an image including one or more fashion items, and outputting information about a consumer's emotion toward one or more fashion items included in the input image, wherein the emotion includes at least one of interest and preference. doing,
Fashion trend prediction method based on image and text integrated analysis.
하나 이상의 인스트럭션을 저장하는 메모리; 및
상기 메모리에 저장된 상기 하나 이상의 인스트럭션을 실행하는 프로세서를 포함하고,
상기 프로세서는 상기 하나 이상의 인스트럭션을 실행함으로써,
제1 항의 방법을 수행하는, 장치.
a memory storing one or more instructions; and
a processor executing the one or more instructions stored in the memory;
The processor by executing the one or more instructions,
An apparatus for performing the method of claim 1 .
하드웨어인 컴퓨터와 결합되어, 제1 항의 방법을 수행할 수 있도록 컴퓨터에서 독출가능한 기록매체에 저장된 컴퓨터프로그램.A computer program stored in a computer-readable recording medium in combination with a computer, which is hardware, to perform the method of claim 1.
KR1020190111807A 2019-09-09 2019-09-09 Method, apparatus and program for fashion trend prediction based on integrated analysis of image and text KR102317432B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020190111807A KR102317432B1 (en) 2019-09-09 2019-09-09 Method, apparatus and program for fashion trend prediction based on integrated analysis of image and text

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020190111807A KR102317432B1 (en) 2019-09-09 2019-09-09 Method, apparatus and program for fashion trend prediction based on integrated analysis of image and text

Publications (2)

Publication Number Publication Date
KR20210030178A KR20210030178A (en) 2021-03-17
KR102317432B1 true KR102317432B1 (en) 2021-10-25

Family

ID=75243455

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190111807A KR102317432B1 (en) 2019-09-09 2019-09-09 Method, apparatus and program for fashion trend prediction based on integrated analysis of image and text

Country Status (1)

Country Link
KR (1) KR102317432B1 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102542498B1 (en) 2022-08-19 2023-06-13 신경은 Trendy Fashion Prediction System
KR102575382B1 (en) * 2023-07-04 2023-09-06 주식회사 지원알엔티 AI-based online clothing retail system
KR102583308B1 (en) 2023-02-20 2023-09-27 (주)어반유니온 Service providing apparatus and method for fashion analysis using short-form contents

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102318952B1 (en) * 2021-03-31 2021-10-27 임정현 Artificial intelligence-based recommendation and purchase method, device and system
KR102417157B1 (en) * 2021-08-18 2022-07-06 주식회사 루츠코퍼레이션 Electronic device for selling and design apparel product and method for operating thereof
KR102502575B1 (en) * 2022-01-06 2023-02-21 이현정 Apparatus, method and program for providing product trend prediction service
KR102525624B1 (en) * 2022-11-30 2023-04-26 김유리 Method, device and system for providing a bag that matches a customer's personal color based on artificial intelligence
KR102552856B1 (en) * 2023-03-31 2023-07-06 이나나 Method, device and system for automating creation of content template and extracting keyword for platform service that provide content related to commerce
KR102626945B1 (en) * 2023-07-05 2024-01-18 주식회사 니그나스 Method and apparatus for converting 3d clothing data based on artificial intelligence model

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101888919B1 (en) * 2017-12-18 2018-08-16 주식회사 디너의여왕 Method and Apparatus for Marketing of Advertisement Based on User Influence

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101931624B1 (en) * 2016-12-29 2018-12-21 (주)더아이엠씨 Trend Analyzing Method for Fassion Field and Storage Medium Having the Same
KR102045017B1 (en) * 2018-02-12 2019-11-29 송우상 apparatus and method for generating designs based on images and text

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101888919B1 (en) * 2017-12-18 2018-08-16 주식회사 디너의여왕 Method and Apparatus for Marketing of Advertisement Based on User Influence

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102542498B1 (en) 2022-08-19 2023-06-13 신경은 Trendy Fashion Prediction System
KR102583308B1 (en) 2023-02-20 2023-09-27 (주)어반유니온 Service providing apparatus and method for fashion analysis using short-form contents
KR102575382B1 (en) * 2023-07-04 2023-09-06 주식회사 지원알엔티 AI-based online clothing retail system

Also Published As

Publication number Publication date
KR20210030178A (en) 2021-03-17

Similar Documents

Publication Publication Date Title
KR102317432B1 (en) Method, apparatus and program for fashion trend prediction based on integrated analysis of image and text
Liu et al. Toward AI fashion design: An Attribute-GAN model for clothing match
US11080918B2 (en) Method and system for predicting garment attributes using deep learning
Hsiao et al. Learning the latent" look": Unsupervised discovery of a style-coherent embedding from fashion images
US20200242153A1 (en) Method, apparatus, electronic device and computer readable storage medium for image searching
US11232324B2 (en) Methods and apparatus for recommending collocating dress, electronic devices, and storage media
Tautkute et al. Deepstyle: Multimodal search engine for fashion and interior design
KR102586431B1 (en) Method, apparatus and computer program for extracting property information of fashion item using joint coordinate
US10769524B1 (en) Non-binary gender filter
CN110110181A (en) A kind of garment coordination recommended method based on user styles and scene preference
WO2019011936A1 (en) Method for evaluating an image
Zhao et al. Neo-fashion: A data-driven fashion trend forecasting system using catwalk analysis
De Melo et al. Content-based filtering enhanced by human visual attention applied to clothing recommendation
US11010636B2 (en) Systems and methods for providing personalized product recommendations using deep learning
KR102043440B1 (en) Method and system for coordination searching based on coordination of a plurality of objects in image
US11783408B2 (en) Computer vision based methods and systems of universal fashion ontology fashion rating and recommendation
Sagar et al. Pai-bpr: Personalized outfit recommendation scheme with attribute-wise interpretability
Shimizu et al. Fashion intelligence system: An outfit interpretation utilizing images and rich abstract tags
US10474919B2 (en) Method for determining and displaying products on an electronic display device
CN106951433B (en) Retrieval method and device
JP2014229129A (en) Combination presentation system and computer program
Papadopoulos et al. Attentive hierarchical label sharing for enhanced garment and attribute classification of fashion imagery
US20230022712A1 (en) Method, apparatus, and computer program for recommending fashion product
Lei et al. A new clothing image retrieval algorithm based on sketch component segmentation in mobile visual sensors
Zhang et al. An improved generative adversarial network for translating clothes from the human body to tiled image

Legal Events

Date Code Title Description
AMND Amendment
E601 Decision to refuse application
AMND Amendment
X701 Decision to grant (after re-examination)
GRNT Written decision to grant