KR102203355B1 - System and method extracting experience information according to experience of product - Google Patents

System and method extracting experience information according to experience of product Download PDF

Info

Publication number
KR102203355B1
KR102203355B1 KR1020200084305A KR20200084305A KR102203355B1 KR 102203355 B1 KR102203355 B1 KR 102203355B1 KR 1020200084305 A KR1020200084305 A KR 1020200084305A KR 20200084305 A KR20200084305 A KR 20200084305A KR 102203355 B1 KR102203355 B1 KR 102203355B1
Authority
KR
South Korea
Prior art keywords
information
experience
product
model
beauty
Prior art date
Application number
KR1020200084305A
Other languages
Korean (ko)
Inventor
김종호
Original Assignee
김종호
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 김종호 filed Critical 김종호
Priority to KR1020210000595A priority Critical patent/KR20210094461A/en
Application granted granted Critical
Publication of KR102203355B1 publication Critical patent/KR102203355B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/06Buying, selling or leasing transactions
    • G06Q30/0601Electronic shopping [e-shopping]
    • G06Q30/0631Item recommendations
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/44Detecting, measuring or recording for evaluating the integumentary system, e.g. skin, hair or nails
    • A61B5/441Skin evaluation, e.g. for skin disorder diagnosis
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/26Speech to text systems
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B20/00Signal processing not specific to the method of recording or reproducing; Circuits therefor
    • G11B20/10Digital recording or reproducing
    • AHUMAN NECESSITIES
    • A45HAND OR TRAVELLING ARTICLES
    • A45DHAIRDRESSING OR SHAVING EQUIPMENT; EQUIPMENT FOR COSMETICS OR COSMETIC TREATMENTS, e.g. FOR MANICURING OR PEDICURING
    • A45D44/00Other cosmetic or toiletry articles, e.g. for hairdressers' rooms
    • A45D2044/007Devices for determining the condition of hair or skin or for selecting the appropriate cosmetic or hair treatment

Abstract

According to one embodiment of the present invention, a system for extracting experience information according to experience of a product comprises: a storage unit for storing product group experience data corresponding to consumer experience of an experience product group; a text extraction unit for extracting text information of an experiencer from a voice of the experiencer generated according to experience of an experience target product; a feature information extraction unit for performing pretreatment for the text information extracted in the text extraction unit, and extracting feature information that is an input value for machine learning from the pretreated text information; a reaction information extraction unit for extracting experience reaction information that is classified for each category according to experience of the experience target product by applying the extracted feature information to a first model trained based on the product group experience data; and a control unit for matching experiencer identification information of the experiencer and product identification information for the experience target product with the experience reaction information, and controlling the matched experience reaction information to be stored in the storage unit. According to the present invention, it is possible to accurately realize actual perception of consumers about an experience target product.

Description

상품 체험에 따른 체험정보 추출 시스템 및 방법{System and method extracting experience information according to experience of product}System and method extracting experience information according to experience of product}

본 발명은 상품과 관련한 정보의 제공 기술에 관한 것으로, 보다 상세하게는 상품에 대한 체험정보를 추출하기 위한 기술에 관한 것이다. The present invention relates to a technology for providing information related to a product, and more particularly, to a technology for extracting experience information about a product.

일반적으로 소비자에게 판매되는 상품 즉, 제품 또는 서비스는 평균적인 소비자의 기호나 특성을 감안하여 불특정 다수를 대상으로 상품을 개발하여 판매하고 있다. 그런데, 상품을 소비하는 소비자의 특성은 개개인마다 천차만별이지만, 제조회사 또는 서비스 회사에서 제공되는 상품은 대량생산되어 유통되거나 일률적인 플랫폼으로 제공되는 관계로 소비자별 특성에 맞는 상품이 제공되기 어렵다. 또한, 상품에 대해 소비자의 특성을 반영한다고 하더라도, 제조회사 또는 서비스 회사에서 상품에 대한 소비자의 특성을 정확히 파악하기 어렵다. In general, products sold to consumers, that is, products or services, are developed and sold to an unspecified number of products in consideration of average consumer preferences or characteristics. However, the characteristics of consumers who consume products vary widely from individual to individual, but since products provided by manufacturing companies or service companies are mass-produced and distributed or provided through a uniform platform, it is difficult to provide products tailored to the characteristics of each consumer. In addition, even if a product reflects the characteristics of a consumer, it is difficult for a manufacturing company or a service company to accurately grasp the characteristics of the consumer for the product.

특히, 최근에는 소비자들의 상품에 대한 체험 욕구가 증가하고 있으며, 이러한 체험 욕구에 따른 체험정보들은 회사들이 상품을 개발하는데 있어서 유용한 정보로 활용될 수 있다. 그러나, 이러한 소비자 체험정보를 수집하기가 어려우며, 체험정보를 수집한다 하더라도 파편화된 정보를 수동으로 수집하는 것에 불과하다. In particular, in recent years, consumers' desire to experience products is increasing, and experience information based on such experience needs can be used as useful information for companies to develop products. However, it is difficult to collect such consumer experience information, and even if the experience information is collected, fragmented information is only collected manually.

예를 들어, 뷰티상품(화장품)의 경우에, 소비자는 자신의 피부특성에 맞는 뷰티상품을 구입하여 사용하는 것이 바람직하지만 현실적으로는 소비자 개개인의 특성을 파악하기 어렵고, 또한 대량 생산이라는 유통 체계로 인해 소비자의 개개인의 특성에 최적화된 상품이 개발되지 못하고 있다. 최근에는 뷰티상품 제조회사들은 자사의 제품을 사용하는 소비자들의 체험정보를 수집하기 위해, 체험단을 조직하여 소비자의 체험정보를 수집하거나, 온라인 상에서의 설문 조사 등을 통해 상품 체험정보를 수집하는 시도를 하고 있다.For example, in the case of beauty products (cosmetics), it is desirable for consumers to purchase and use beauty products that match their skin characteristics, but in reality, it is difficult to grasp the characteristics of individual consumers, and due to the distribution system of mass production. Products optimized for the individual characteristics of consumers have not been developed. Recently, beauty product manufacturers have organized experience groups to collect consumer experience information to collect experience information of consumers who use their products, or attempt to collect product experience information through online surveys. Are doing.

그러나, 이렇게 수집되는 소비자의 정보는 지극히 단편적이어서, 해당 상품에 대한 정확한 소비자 체험정보를 제공하지 못하고 있다. 따라서, 회사들은 체험자의 특성에 맞는 상품을 개발하려고 의도하지만, 소비자 체험정보를 수집하지 못함으로 인해 상품에 대한 정확한 개발 방향을 정하지 못하고 있는 실정이다. However, the information of consumers collected in this way is extremely fragmentary, and thus accurate consumer experience information for the product cannot be provided. Therefore, companies intend to develop products that fit the characteristics of the experiencers, but they are not able to determine the exact direction of development for the products due to the inability to collect consumer experience information.

대한민국 공개특허공보 제10-2007-0042289호(공개일 2007년 4월 23일)Korean Patent Application Publication No. 10-2007-0042289 (published on April 23, 2007)

본 발명이 해결하고자 하는 과제는 소비자가 체험한 체험 대상상품(유형의 제품 또는 서비스 상품을 포함)이 속하는 상품군 체험 데이터를 이용하여 상품과 관련한 체험정보 등을 추출할 수 있도록 하는 상품 체험에 따른 체험정보 추출 시스템 및 방법에 관한 것이다.The problem to be solved by the present invention is an experience based on product experience that enables a consumer to extract experience information related to a product by using experience data of a product group to which the experience target product (including tangible product or service product) belongs. It relates to an information extraction system and method.

상기의 기술적 과제를 해결하기 위한 본 발명의 일 실시예에 따른 상품 체험에 따른 체험정보 추출 시스템은 체험 상품군의 소비자 체험에 대응하는 상품군 체험 데이터를 저장하는 저장부; 체험 대상상품의 체험에 따라 생성되는 체험자 음성으로부터 상기 체험자의 텍스트 정보를 추출하는 텍스트 추출부; 상기 텍스트 추출부에서 추출된 텍스트 정보에 대한 전처리를 수행하고, 전처리된 텍스트 정보로부터 머신런닝을 위한 입력값인 특징 정보를 추출하는 특징정보 추출부; 상기 추출된 특징 정보를 상기 상품군 체험 데이터에 기초하여 훈련된 제1 모델에 인가하여, 상기 체험 대상상품의 체험에 따라 카테고리별로 분류된 체험 반응정보를 추출하는 반응정보 추출부; 및 상기 체험자의 체험자 식별정보 및 상기 체험 대상상품에 대한 상품 식별정보를 상기 체험 반응정보와 매칭 처리하고, 매칭 처리된 상기 체험 반응정보를 상기 저장부에 저장하도록 제어하는 제어부를 포함하는 것을 특징으로 한다.The experience information extraction system according to product experience according to an embodiment of the present invention for solving the above technical problem includes: a storage unit for storing product group experience data corresponding to the consumer experience of the experience product group; A text extraction unit for extracting text information of the experienced user from the voice of the experienced user generated according to the experience of the product to be experienced; A feature information extracting unit that performs pre-processing on the text information extracted by the text extracting unit, and extracts feature information, which is an input value for machine running, from the pre-processed text information; A reaction information extracting unit for applying the extracted feature information to the first model trained based on the product group experience data, and extracting experience reaction information classified by category according to the experience of the experience target product; And a control unit for controlling the experience-based identification information of the experienced person and product identification information for the experience target product to be matched with the experience response information, and to store the matched experience response information in the storage unit. do.

상기 체험자 식별정보 또는 상기 상품 식별정보를 인식하는 식별정보 인식부를 더 포함하고, 상기 제어부는 상기 식별정보 인식부의 상기 체험자 식별정보 또는 상기 상품 식별정보의 인식에 응답하여 상기 반응정보 추출부의 동작 개시를 제어하고, 상기 반응정보 추출부에서 추출된 상기 체험 반응정보를 상기 체험자 식별정보 또는 상기 상품 식별정보와 매칭 처리하는 것을 특징으로 한다.Further comprising an identification information recognition unit for recognizing the experience person identification information or the product identification information, wherein the control unit initiates an operation of the reaction information extraction unit in response to the recognition of the experience person identification information or the product identification information of the identification information recognition unit. And matching the experience response information extracted by the response information extraction unit with the experience person identification information or the product identification information.

상기 저장부는, 상기 체험 상품군과 관련한 단어 정보가 자연어 처리 및 체험정보 모델링을 위한 코퍼스로 가공된 상품군 코퍼스정보를 저장하는 것을 특징으로 한다.The storage unit may store product group corpus information in which word information related to the experience product group is processed into a corpus for natural language processing and experience information modeling.

상기 상품군 코퍼스정보는 체험 대상상품들의 브랜드 또는 상품명, 상기 브랜드 또는 상기 상품명을 대표하는 개체명, 상기 체험 대상상품들에서 사용되는 전문 용어, 상기 체험 대상상품들에 포함되는 성분 용어, 상기 체험 대상상품들의 체험에 따른 기능 표현용어, 촉각 표현용어 및 시각 표현용어 중 적어도 하나 이상을 포함하는 것을 특징으로 한다.The product group corpus information includes the brand or product name of the product to be experienced, the name of the entity representing the brand or product name, the terminology used in the product to be experienced, the term of the component included in the product to be experienced, and the product to be experienced. It is characterized by including at least one or more of functional expression terms, tactile expression terms, and visual expression terms according to their experiences.

상기 특징정보 추출부는, 자연어 처리를 위한 자연어 프로그램정보를 이용하여 상기 텍스트 정보를 문장 단위로 분할하고, 상기 분할 문장 각각에 대해 텍스트 전처리를 수행하는 전처리 모듈; 및 상기 텍스트 전처리된 분할 문장에 대해, 정수 인코딩(integer encoding) 벡터, 원핫 인코딩(one-hot encoding) 벡터 및 임베딩(embedding) 벡터 중 어느 하나를 상기 특징 정보로서 산출하는 특징벡터 산출모듈을 포함하는 것을 특징으로 한다.The feature information extracting unit may include a preprocessing module for dividing the text information into sentences by using natural language program information for natural language processing, and performing text preprocessing for each of the divided sentences; And a feature vector calculation module that calculates any one of an integer encoding vector, a one-hot encoding vector, and an embedding vector as the feature information for the text pre-processed split sentence. It features.

상기 특징벡터 산출모듈은, 상기 체험 상품군과 관련한 단어 정보가 자연어 처리 및 체험정보 모델링을 위한 코퍼스로 가공된 상품군 코퍼스정보를 이용하여 상기 임베딩 벡터를 산출하는 것을 특징으로 한다.The feature vector calculation module is characterized in that the embedding vector is calculated by using the product group corpus information in which word information related to the experience product group is processed into a corpus for natural language processing and experience information modeling.

상기 특징벡터 산출모듈은, 상기 전처리 모듈에서 전처리된 단어들을 상기 상품군 코퍼스정보에 의해 모델링된 임베딩 모델의 워드 임베딩 메트릭스에 인가하여 상기 임베딩 벡터를 산출하는 것을 특징으로 한다.The feature vector calculation module calculates the embedding vector by applying words preprocessed in the preprocessing module to a word embedding matrix of an embedding model modeled by the product group corpus information.

상기 제1 모델은, 상기 상품군 체험 데이터에 포함된 훈련 데이터와 테스트 데이터가 상기 상품군 코퍼스정보에 의해 정제된 후, 정제된 상기 훈련 데이터와 상기 테스트 데이터의 적용을 통해 상기 체험 대상상품의 체험에 따른 상기 체험 반응정보를 카테고리별로 분류하도록 모델링된 것을 특징으로 한다.In the first model, after the training data and test data included in the product group experience data are refined by the product group corpus information, the refined training data and the test data are applied according to the experience of the experience target product. It is characterized in that it is modeled to classify the experience response information by category.

상기 제1 모델은, 상기 체험 대상상품의 체험에 따른 기능적 반응정보, 상기 체험 대상상품의 체험에 따른 촉각적 반응정보, 상기 체험 대상상품의 체험에 따른 시각적 반응정보, 상기 체험 대상상품과 다른 상품들 사이의 가치 비교에 따른 상품비교 반응정보, 및 상기 체험 대상상품의 가격에 대한 가격 반응정보 중 적어도 하나 이상의 반응정보 카테고리별로 분류하도록 모델링된 것을 특징으로 한다.The first model includes functional response information according to the experience of the experience target product, tactile response information according to the experience of the experience target product, visual response information according to the experience of the experience target product, and a product different from the experience target product. It is characterized in that the model is modeled to classify by at least one or more reaction information categories among product comparison reaction information according to a value comparison between them and price reaction information for the price of the experience target product.

상기 체험 대상상품이 뷰티상품에 해당하는 경우에, 상기 반응정보 추출부는, 상기 뷰티상품의 체험에 따른 기능적 반응정보, 상기 뷰티상품의 체험에 따른 수분감, 발림성, 유분감, 끈적임 및 잔여감 중 적어도 하나 이상을 포함하는 촉각적 반응정보, 상기 뷰티상품의 체험에 따른 밝음, 화사함, 무거움 및 어두움 중 적어도 하나 이상을 포함하는 시각적 반응정보, 상기 뷰티상품과 다른 뷰티상품들 사이의 가치 비교에 따른 상품비교 반응정보, 및 상기 뷰티상품의 가격에 대한 가격 반응정보 중 적어도 하나 이상의 반응정보 카테고리별로 분류하여 상기 체험 반응정보를 추출하는 것을 특징으로 한다.When the experience target product corresponds to a beauty product, the reaction information extraction unit includes at least one of functional reaction information according to the experience of the beauty product, moisture, application, oil, stickiness, and residual feeling according to the experience of the beauty product. Tactile reaction information including the above, visual reaction information including at least one of brightness, brightness, heaviness, and darkness according to the experience of the beauty product, product comparison based on value comparison between the beauty product and other beauty products It is characterized in that the experiential reaction information is extracted by classifying reaction information and price reaction information for the price of the beauty product according to at least one reaction information category.

상기 반응정보 추출부에 의해 추출된 상기 체험 반응정보의 카테고리별 문장들에 대한 특징 벡터들 각각을 제2 모델에 인가하여, 긍정감성 카테고리, 부정감성 카테고리 및 중립감정 카테고리 중 적어도 하나 이상으로 분류된 체험 감성정보를 추출하는 감성정보 추출부를 더 포함하는 것을 특징으로 한다.Each of the feature vectors of the sentences of the experiential response information extracted by the response information extraction unit for each category is applied to the second model and classified into at least one of a positive emotion category, a negative emotion category, and a neutral emotion category. It characterized in that it further comprises an emotion information extracting unit for extracting the experience emotion information.

상기 제1 모델 또는 상기 제2 모델은, RNN(Recurrent Neural Network) 모델, LSTM(Long Short Term Memory networks) 모델, CNN(Convolution Neural Network) 모델, GRU(Gated Recurrent Unit) 모델, 및 트랜스포머(Transformer) 모델 중 어느 하나의 모델을 사용하는 것을 특징으로 한다.The first model or the second model is a recurrent neural network (RNN) model, a long short term memory networks (LSTM) model, a convolution neural network (CNN) model, a gated recurrent unit (GRU) model, and a transformer It is characterized in that any one of the models is used.

상기 제1 모델 또는 상기 제2 모델은, 상기 심층 신경망 모델의 구성을 위해, 소프트맥스(Softmax) 함수, 하이퍼볼릭 탄젠트(Hyperbolic Tangent) 함수, 시그모이드(Sigmoid) 함수, 렐루(ReLU) 함수 및 리키렐루(Leaky ReLU) 함수 중 어느 하나 이상의 활성화 함수를 사용하되, 상기 시그모이드 함수 또는 상기 하이퍼볼릭 탄젠트 함수를 사용할 경우에는 가중치 초기화를 위해 세이비어 초기화(Xavier Initialization) 방식을 사용하고, 렐루 함수 또는 리키렐루 함수를 사용할 경우에 He 초기화(He initialization) 방식을 사용하는 것을 특징으로 한다.The first model or the second model may include a Softmax function, a Hyperbolic Tangent function, a Sigmoid function, a ReLU function, and a function for constructing the deep neural network model. When using any one or more activation functions among the Leaky ReLU functions, but when the sigmoid function or the hyperbolic tangent function is used, a Xavier Initialization method is used for weight initialization, and a relu function Alternatively, when using the Likirelu function, it is characterized in that the He initialization method is used.

상기 감성정보 추출부는, 상기 체험 반응정보에 속하는 기능적 반응정보, 촉각적 반응정보, 시각적 반응정보, 상품 비교 반응정보 및 가격 반응정보 각각에 대응하는 문장들에 대하여 상기 긍정감성 카테고리, 상기 부정감성 카테고리 및 상기 중립감성 카테고리 중 어느 하나로 분류된 상기 체험 감성정보를 추출하는 것을 특징으로 한다.The emotion information extracting unit includes the positive emotion category and the negative emotion category for sentences corresponding to functional reaction information, tactile reaction information, visual reaction information, product comparison reaction information, and price response information belonging to the experience reaction information. And extracting the experience emotion information classified into any one of the neutral emotion categories.

상기 체험 감성정보에 대하여 상기 긍정감성 카테고리, 상기 부정감성 카테고리 및 상기 중립감성 카테고리 별로 감성점수를 할당하여 상기 체험자의 상기 체험 대상상품에 대한 감응지수를 산출하는 감응지수 산출부를 더 포함하는 것을 특징으로 한다.It characterized in that it further comprises a sensitivity index calculation unit for calculating a sensitivity index for the experience target product by allocating an emotion score for each of the positive emotion category, the negative emotion category and the neutral emotion category with respect to the experience emotion information. do.

상기 산출된 감응지수와 상기 체험자의 다양한 체험 대상상품들에 대한 실제 구매 지수를 이용하여 상기 체험자의 상기 체험 대상상품에 대한 잠재적 구매 가능성을 나타내는 잠재적 구매율을 산출하는 구매율 산출부를 더 포함하는 것을 특징으로 한다.It characterized in that it further comprises a purchase rate calculation unit for calculating a potential purchase rate indicating a potential purchase possibility for the product to be experienced by the experiencer by using the calculated sensitivity index and the actual purchase indices for various products subject to experience by the experiencer. do.

상기 체험 대상상품이 뷰티상품에 해당하는 경우에, 상기 구매율 산출부는, 상기 감응지수 및 상기 실제 구매 지수와 상기 체험자의 피부 타입 및 피부 톤에 따른 상기 뷰티상품의 피부 적합도 지수 중 적어도 하나 이상에 스케일링값을 적용하여 상기 체험자의 상기 뷰티상품에 대한 상기 잠재적 구매율을 산출하는 것을 특징으로 한다.When the experience target product corresponds to a beauty product, the purchase rate calculation unit scales at least one or more of the sensitivity index, the actual purchase index, and the skin suitability index of the beauty product according to the user's skin type and skin tone. A value is applied to calculate the potential purchase rate for the beauty product by the experiencer.

상기 체험 대상상품이 뷰티상품에 해당하는 경우에, 상기 체험자의 신체 부위별 피부를 측정하여, 상기 체험자에 대한 상기 신체 부위별 피부 타입 정보 및 피부 톤 정보 중 적어도 하나 이상을 포함하는 피부 특성정보를 검출하는 피부특성 검출부를 더 포함하고, 상기 제어부는, 상기 피부 특성정보를 상기 체험자 식별정보에 대응하는 상기 체험 반응정보와 매칭 처리하고, 상기 체험 반응정보와 매칭 처리된 상기 피부 특성정보를 상기 저장부에 저장하도록 제어하는 것을 특징으로 한다.When the experience target product corresponds to a beauty product, skin characteristic information including at least one of skin type information and skin tone information for each body part of the experiencer is measured by measuring the skin for each body part of the experiencer. Further comprising a skin characteristic detecting unit to detect, the control unit, the skin characteristic information and the experience response information corresponding to the experience person identification information and processing the matching processing, and the experience response information and the matching processing to store the skin characteristic information It is characterized in that it is controlled to be stored in the unit.

상기 저장부는, 다양한 체험 대상상품들 중 뷰티상품들에 대한 각각의 뷰티 속성정보를 저장하고, 상기 뷰티 속성정보 및 상기 피부 특성정보를 이용해, 상기 체험자의 피부 타입 및 피부 톤에 따른 뷰티상품의 피부 적합도 지수를 산출하는 적합도 산출부를 더 포함하는 것을 특징으로 한다.The storage unit stores beauty attribute information for each beauty product among various experience target products, and uses the beauty attribute information and the skin characteristic information to determine the skin of the beauty product according to the skin type and skin tone of the experiencer. It characterized in that it further comprises a fitness calculator for calculating the fitness index.

상기 적합도 산출부는, 상기 체험자의 검출된 피부 타입정보와 상기 뷰티상품의 뷰티 속성정보 중 피부타입 속성정보를 비교하거나, 상기 체험자의 검출된 피부 톤정보와 상기 뷰티상품의 뷰티 속성정보 중 피부톤 속성정보를 비교하여 상기 피부 적합도 지수를 산출하는 것을 특징으로 한다.The suitability calculation unit may compare the detected skin type information of the experiencer with skin type attribute information of the beauty attribute information of the beauty product, or the skin tone attribute information of the detected skin tone information of the experiencer and the beauty attribute information of the beauty product. It characterized in that to calculate the skin fitness index by comparing.

상기 체험 대상상품이 뷰티상품에 해당하는 경우에, 상기 감응지수와 상기 체험자의 신체 부위별 피부 측정에 따른 피부 특성정보를 사용해 상기 체험자에게 추천되는 상품을 추출하는 추천상품 추출부를 더 포함하는 것을 특징으로 한다.When the experience target product corresponds to a beauty product, further comprising a recommended product extracting unit for extracting a product recommended to the experiencer by using the sensitivity index and skin characteristic information according to skin measurement for each body part of the experiencer. To do.

상기 체험자 식별정보 및 상기 상품 식별정보 중 어느 하나의 키워드 입력에 따라, 상기 체험 반응정보 및 상기 체험 감성정보 중 어느 하나 이상을 출력하는 사용자 인터페이스부를 더 포함하는 것을 특징으로 한다.It characterized in that it further comprises a user interface unit for outputting one or more of the experience reaction information and the experience emotion information according to the input of any one of the keyword of the experience identification information and the product identification information.

상기의 기술적 과제를 해결하기 위한 본 발명의 다른 실시예에 따른 상품 체험에 따른 체험정보 추출방법은 텍스트 추출부가 체험 대상상품의 체험에 따라 생성되는 체험자 음성으로부터 상기 체험자의 텍스트 정보를 추출하는 단계; 특징정보 추출부가 상기 추출된 텍스트 정보에 대한 전처리를 수행하고, 상기 전처리된 텍스트 정보로부터 머신 런닝을 위한 입력값인 특징 정보를 추출하는 단계; 반응정보 추출부가 체험 상품군에 대응하는 상품군 체험 데이터에 기초하여 훈련된 제1 모델에 상기 추출된 특징 정보를 인가하여, 상기 체험 대상상품의 체험에 따라 카테고리별로 분류된 체험 반응정보를 추출하는 단계; 및 제어부가 상기 체험자의 체험자 식별정보 및 상기 체험 대상상품에 대한 상품 식별정보를 상기 체험 반응정보와 매칭 처리하고, 매칭 처리된 상기 체험 반응정보를 저장부에 저장시키는 단계를 포함하는 것을 특징으로 한다.In order to solve the above technical problem, a method for extracting experience information according to a product experience according to another embodiment of the present invention includes: extracting, by a text extraction unit, text information of the experiencer from the experiencer's voice generated according to the experience of the product to be experienced; Performing a pre-processing on the extracted text information by a feature information extraction unit and extracting feature information, which is an input value for machine running, from the pre-processed text information; Applying the extracted feature information to a first model trained on the basis of product group experience data corresponding to the experience product group by a response information extracting unit, and extracting experience response information classified by category according to the experience of the experience target product; And processing, by the control unit, matching the experience response information with the experience response information, and storing the matched experience response information in a storage unit with the experience response information and the product identification information for the experience target product. .

상기 체험자 식별정보 또는 상기 상품 식별정보를 인식하는 단계를 더 포함하고, 상기 체험자 식별정보 및 상기 상품 식별정보의 인식 후에, 상기 텍스트 정보를 추출하는 것을 특징으로 한다.Recognizing the experience person identification information or the product identification information, and extracting the text information after the experience person identification information and the product identification information are recognized.

상기 특징 정보를 추출하는 단계는, 자연어 처리를 위한 자연어 프로그램정보를 이용하여 상기 텍스트 정보를 문장 단위로 분할하는 단계; 상기 분할 문장 각각에 대해 텍스트 전처리를 수행하는 단계; 및 상기 텍스트 전처리된 분할 문장에 대해, 정수 인코딩(integer encoding) 벡터, 원핫 인코딩(one-hot encoding) 벡터 및 임베딩(embedding) 벡터 중 어느 하나를 상기 특징 정보로서 산출하는 단계를 포함하는 것을 특징으로 한다.The extracting of the feature information may include dividing the text information into sentences using natural language program information for natural language processing; Performing text preprocessing for each of the divided sentences; And calculating any one of an integer encoding vector, a one-hot encoding vector, and an embedding vector as the feature information for the text preprocessed segmentation sentence. do.

상기 특징 정보를 산출하는 단계는, 상기 체험 상품군과 관련한 단어 정보가 자연어 처리 및 체험정보 모델링을 위한 코퍼스로 가공된 상품군 코퍼스정보를 이용하여 상기 임베딩 벡터를 산출하는 것을 특징으로 한다.In the calculating of the feature information, the embedding vector is calculated by using the product group corpus information processed into a corpus for natural language processing and experience information modeling in which word information related to the experience product group is used.

상기 특징 정보를 산출하는 단계는, 상기 전처리 모듈에서 전처리된 단어들을 상기 상품군 코퍼스정보에 의해 모델링된 임베딩 모델의 워드 임베딩 메트릭스에 인가하여 상기 임베딩 벡터를 산출하는 것을 특징으로 한다.In the calculating of the feature information, the embedding vector is calculated by applying the words preprocessed in the preprocessing module to the word embedding matrix of the embedding model modeled by the product group corpus information.

상기 상품군 코퍼스정보는 체험 대상상품들의 브랜드 또는 상품명, 상기 브랜드 또는 상기 상품명을 대표하는 개체명, 상기 체험 대상상품들에서 사용되는 전문 용어, 상기 체험 대상상품들에 포함되는 성분 용어, 상기 체험 대상상품들의 체험에 따른 기능 표현용어, 촉각 표현용어 및 시각 표현용어 중 적어도 하나 이상을 포함하는 것을 특징으로 한다.The product group corpus information includes the brand or product name of the product to be experienced, the name of the entity representing the brand or product name, the terminology used in the product to be experienced, the term of the component included in the product to be experienced, and the product to be experienced. It is characterized by including at least one or more of functional expression terms, tactile expression terms, and visual expression terms according to their experiences.

상기 체험 상품군에 속하는 텍스트정보가 자연어 처리 및 체험정보 모델링을 위한 코퍼스로 가공된 상품군 코퍼스정보를 구비하고 있을 때, 상기 제1 모델은, 상기 상품군 체험 데이터에 포함된 훈련 데이터와 테스트 데이터가 상기 상품군 코퍼스 정보에 의해 정제된 후, 정제된 상기 훈련 데이터와 상기 테스트 데이터의 적용을 통해 상기 체험 대상상품의 체험에 따른 상기 체험 반응정보를 카테고리별로 분류하도록 모델링된 것을 특징으로 한다.When the text information belonging to the experience product group includes product group corpus information processed with a corpus for natural language processing and experience information modeling, the first model includes training data and test data included in the product group experience data. After being refined by corpus information, it is modeled to classify the experience response information according to the experience of the experience target product by category by applying the refined training data and the test data.

상기 제1 모델은, 상기 체험 대상상품의 체험에 따른 기능적 반응정보, 상기 체험 대상상품의 체험에 따른 촉각적 반응정보, 상기 체험 대상상품의 체험에 따른 시각적 반응정보, 상기 체험 대상상품과 다른 상품들 사이의 가치 비교에 따른 상품비교 반응정보, 및 상기 체험 대상상품의 가격에 대한 가격 반응정보 중 적어도 하나 이상의 반응정보 카테고리별로 분류하도록 모델링된 것을 특징으로 한다.The first model includes functional response information according to the experience of the experience target product, tactile response information according to the experience of the experience target product, visual response information according to the experience of the experience target product, and a product different from the experience target product. It is characterized in that the model is modeled to classify by at least one or more reaction information categories among product comparison reaction information according to a value comparison between them and price reaction information for the price of the experience target product.

상기 체험 반응정보를 추출하는 단계는, 상기 체험 대상상품이 뷰티상품에 해당하는 경우에, 상기 뷰티상품의 체험에 따른 기능적 반응정보, 상기 뷰티상품의 체험에 따른 수분감, 발림성, 유분감, 끈적임 및 잔여감 중 적어도 하나 이상을 포함하는 촉각적 반응정보, 상기 뷰티상품의 체험에 따른 밝음, 화사함, 무거움 및 어두움 중 적어도 하나 이상을 포함하는 시각적 반응정보, 상기 뷰티상품과 다른 뷰티상품들 사이의 가치 비교에 따른 상품비교 반응정보, 및 상기 뷰티상품의 가격에 대한 가격 반응정보 중 적어도 하나 이상의 반응정보 카테고리별로 분류하여 상기 체험 반응정보를 추출하는 것을 특징으로 한다.The step of extracting the experience response information includes, when the product to be experienced corresponds to a beauty product, functional reaction information according to the experience of the beauty product, moisture, application, oiliness, stickiness and residual according to the experience of the beauty product. Tactile response information including at least one of the senses, visual response information including at least one of brightness, brightness, heaviness, and darkness according to the experience of the beauty product, value comparison between the beauty product and other beauty products According to the product comparison reaction information and the price reaction information for the price of the beauty product according to at least one reaction information category to extract the experience reaction information by classifying.

상기 체험 반응정보의 카테고리별 문장들에 대한 특징벡터들 각각을 제2 모델에 인가하여, 긍정감성 카테고리, 부정감성 카테고리 및 중립감정 카테고리 중 적어도 하나 이상으로 분류된 체험 감성정보를 추출하는 단계를 더 포함하는 것을 특징으로 한다.The step of applying each of the feature vectors for the sentences of each category of the experience response information to the second model, and extracting the experience emotion information classified into at least one of a positive emotion category, a negative emotion category, and a neutral emotion category. It characterized in that it includes.

상기 제1 모델 또는 상기 제2 모델은, RNN(Recurrent Neural Network) 모델, LSTM(Long Short Term Memory networks) 모델, CNN(Convolution Neural Network) 모델, GRU(Gated Recurrent Unit) 모델, 및 트랜스포머(Transformer) 모델 중 어느 하나의 모델을 사용하는 것을 특징으로 한다.The first model or the second model is a recurrent neural network (RNN) model, a long short term memory networks (LSTM) model, a convolution neural network (CNN) model, a gated recurrent unit (GRU) model, and a transformer It is characterized in that any one of the models is used.

상기 제1 모델 또는 상기 제2 모델은, 상기 심층 신경망 모델의 구성을 위해, 소프트맥스(Softmax) 함수, 하이퍼볼릭 탄젠트(Hyperbolic Tangent) 함수, 시그모이드(Sigmoid) 함수, 렐루(ReLU) 함수 및 리키렐루(Leaky ReLU) 함수 중 어느 하나 이상의 활성화 함수를 사용하되, 상기 시그모이드 함수 또는 상기 하이퍼볼릭 탄젠트 함수를 사용할 경우에는 가중치 초기화를 위해 세이비어 초기화(Xavier Initialization) 방식을 사용하고, 렐루 함수 또는 리키렐루 함수를 사용할 경우에 He 초기화(He initialization) 방식을 사용하는 것을 특징으로 한다.The first model or the second model may include a Softmax function, a Hyperbolic Tangent function, a Sigmoid function, a ReLU function, and a function for constructing the deep neural network model. When using any one or more activation functions among the Leaky ReLU functions, but when the sigmoid function or the hyperbolic tangent function is used, a Xavier Initialization method is used for weight initialization, and a relu function Alternatively, when using the Likirelu function, it is characterized in that the He initialization method is used.

상기 체험 감성정보를 추출하는 단계는, 상기 체험 반응정보에 속하는 기능적 반응정보, 촉각적 반응정보, 시각적 반응정보, 상품 비교 반응정보 및 가격 반응정보 각각에 대응하는 문장들에 대하여 상기 긍정감성 카테고리, 상기 부정감성 카테고리 및 상기 중립감성 카테고리 중 어느 하나로 분류된 상기 체험 감성정보를 추출하는 것을 특징으로 한다.The step of extracting the experience emotion information includes the positive emotion category for sentences corresponding to each of functional response information, tactile response information, visual response information, product comparison response information, and price response information belonging to the experience response information, It characterized in that extracting the experience emotional information classified into any one of the negative emotion category and the neutral emotion category.

상기 체험 감성정보에 대해, 상기 긍정감성 카테고리, 상기 부정감성 카테고리 및 상기 중립감성 카테고리 별로 감성점수를 할당하여 상기 체험자의 상기 체험 대상상품에 대한 감응지수를 산출하는 단계를 더 포함하는 것을 특징으로 한다.For the experience emotion information, the step of calculating a sensitivity index of the experience target product by allocating an emotion score for each of the positive emotion category, the negative emotion category, and the neutral emotion category. .

상기 산출된 감응지수와 상기 체험자의 다양한 체험 대상상품들에 대한 실제 구매 지수를 이용하여 상기 체험자의 상기 체험 대상상품에 대한 잠재적 구매 가능성을 나타내는 잠재적 구매율을 산출하는 단계를 더 포함하는 것을 특징으로 한다.It characterized in that it further comprises the step of calculating a potential purchase rate indicating a potential purchase possibility for the product to be experienced by the experiencer by using the calculated sensitivity index and the actual purchase index for various products to be experienced by the experiencer. .

상기 체험 대상상품이 뷰티상품에 해당하는 경우에, 상기 실제 구매 지수 및 상기 산출된 감응지수와 상기 체험자의 피부 타입 및 피부 톤에 따른 상기 뷰티상품의 피부 적합도 지수 중 적어도 하나 이상에 스케일링값을 적용하여 상기 체험자의 상기 뷰티상품에 대한 상기 잠재적 구매율을 산출하는 것을 특징으로 한다.When the experience target product corresponds to a beauty product, a scaling value is applied to at least one of the actual purchase index, the calculated sensitivity index, and the skin suitability index of the beauty product according to the skin type and skin tone of the experiencer. In this way, the potential purchase rate for the beauty product by the experiencer is calculated.

상기 체험 대상상품이 뷰티상품에 해당하는 경우에, 상기 체험자의 신체 부위별 피부를 측정하여, 상기 체험자에 대한 상기 신체 부위별 피부 타입 정보 및 피부 톤 정보 중 적어도 하나 이상을 포함하는 피부 특성정보를 검출하는 단계; 및 상기 피부 특성정보를 상기 체험자 식별정보에 대응하는 상기 체험 반응정보와 매칭 처리하고, 상기 체험 반응정보와 매칭 처리된 상기 피부 특성정보를 상기 저장부에 저장시키는 단계를 더 포함하는 것을 특징으로 한다. When the experience target product corresponds to a beauty product, skin characteristic information including at least one of skin type information and skin tone information for each body part of the experiencer is measured by measuring the skin for each body part of the experiencer. Detecting; And matching and processing the skin characteristic information with the experience response information corresponding to the experienced person identification information, and storing the skin characteristic information matched with the experience response information in the storage unit. .

다양한 체험 대상상품들 중 뷰티상품들에 대한 각각의 뷰티 속성정보 및 상기 피부 특성정보를 이용해, 상기 체험자의 피부 타입 및 피부 톤에 따른 뷰티상품의 피부 적합도 지수를 산출하는 단계를 더 포함하는 것을 특징으로 한다.The method further comprising calculating a skin suitability index of the beauty product according to the skin type and skin tone of the experiencer by using the respective beauty attribute information and the skin characteristic information for the beauty products among various experience target products. To do.

상기 피부 적합도 지수를 산출하는 단계는, 상기 체험자의 검출된 피부 타입정보와 상기 뷰티상품의 뷰티 속성정보 중 피부타입 속성정보를 비교하거나, 상기 체험자의 검출된 피부 톤정보와 상기 뷰티상품의 뷰티 속성정보 중 피부톤 속성정보를 비교하여 상기 피부 적합도 지수를 산출하는 것을 특징으로 한다.The calculating of the skin suitability index may include comparing the detected skin type information of the experienced person with the skin type attribute information of the beauty attribute information of the beauty product, or the detected skin tone information of the experienced person and the beauty attribute of the beauty product. It characterized in that the skin fitness index is calculated by comparing skin tone attribute information among the information.

상기 체험 대상상품이 뷰티상품에 해당하는 경우에, 상기 감응지수와 상기 체험자의 신체 부위별 피부 측정에 따른 피부 특성정보를 사용해 상기 체험자에게 추천되는 상품을 추출하는 단계를 더 포함하는 것을 특징으로 한다.When the experience target product corresponds to a beauty product, extracting a product recommended to the experiencer using the sensitivity index and skin characteristic information according to skin measurement for each body part of the experiencer .

상기 체험자 식별정보 및 상기 상품 식별정보 중 어느 하나의 키워드 입력에 따라, 상기 체험 반응정보 및 상기 체험 감성정보 중 어느 하나 이상을 출력하는 단계를 더 포함하는 것을 특징으로 한다.And outputting at least one of the experience response information and the experience emotion information according to an input of any one of the user identification information and the product identification information.

본 발명에 따르면, 상품에 관한 체험정보의 카테고리별 분류를 위하여 훈련된 모델을 이용하여, 체험자의 체험 대상상품에 대한 체험정보를 추출할 수 있도록 함으로써, 체험 대상상품에 대한 소비자의 실제적인 인식을 정확히 파악할 수 있다. According to the present invention, by using a model trained to classify experience information about products by category, it is possible to extract the experience information about the experience target product of the experienced person, thereby realizing the actual perception of the consumer about the experience target product. I can figure it out exactly.

특히, 체험자로부터 체험 반응정보, 체험 감성정보, 피부 특성정보 등을 추출하고, 추출된 정보를 기초로 감응지수, 피부 적합도 지수, 잠재적 구매율 등에 대한 정보를 추출함으로써, 체험 대상상품과 관련한 정량화되고 유효한 소비자 체험정보를 용이하게 획득할 수 있다.In particular, by extracting experience response information, experience emotion information, skin characteristic information, etc. from the experienced person, and extracting information on the sensitivity index, skin fitness index, and potential purchase rate based on the extracted information, it is quantified and effective in relation to the product to be experienced. Consumer experience information can be easily obtained.

또한, 정량화된 소비자 체험정보를 통해, 체험 대상상품을 제조하거나 개발하는 제조업체 또는 서비스 업체는 해당 체험 대상상품과 관련한 상품군에 대한 정확한 타켓 고객을 설정할 수 있다.In addition, through the quantified consumer experience information, a manufacturer or service company that manufactures or develops an experience target product can set an accurate target customer for a product group related to the experience target product.

도 1은 본 발명에 따른 상품 체험에 따른 체험정보 추출 시스템을 설명하기 위한 네트워크 구성 환경을 예시하는 블록도이다.
도 2는 도 1에 도시된 체험정보 추출 시스템을 설명하기 위한 구성 블록도이다.
도 3은 체험 대상상품군 중 뷰티 상품에 대한 상품군 코퍼스정보를 예시하는 참조도이다.
도 4는 도 2에 도시된 텍스트 추출부에 의해 추출되는 텍스트 정보를 예시하는 참조도이다.
도 5는 도 2에 도시된 특징정보 추출부의 세부 구성요소와 반응정보 추출부 및 감성정보 추출부와의 연결관계를 도시한 구성 블록도이다.
도 6은 RNN 모델로 구현되는 제1 모델의 연산 방식을 도식화한 참조도이다.
도 7은 LSTM 모델로 구현되는 제1 모델의 연산 방식을 도식화한 참조도이다.
도 8은 CNN 모델로 구현되는 제1 모델의 연산 방식을 도식화한 참조도이다.
도 9는 GRU 모델로 구현되는 제1 모델의 연산 방식을 도식화한 참조도이다.
도 10은 트랜스포머 모델로 구현되는 제1 모델의 연산 방식을 도식화한 참조도이다.
도 11은 본 발명에 따른 상품 체험에 따른 체험정보 추출방법을 설명하기 위한 흐름도이다.
도 12는 도 11에 도시된 특징 정보를 추출하는 단계를 설명하기 위한 일 실시예의 흐름도이다.
1 is a block diagram illustrating a network configuration environment for describing a system for extracting experience information according to a product experience according to the present invention.
FIG. 2 is a block diagram illustrating a system for extracting experience information shown in FIG. 1.
3 is a reference diagram exemplifying product group corpus information for beauty products among the product groups subject to experience.
FIG. 4 is a reference diagram illustrating text information extracted by the text extraction unit shown in FIG. 2.
FIG. 5 is a block diagram showing a connection relationship between detailed components of a feature information extracting unit shown in FIG. 2 and a reaction information extracting unit and an emotion information extracting unit.
6 is a reference diagram schematically illustrating an operation method of a first model implemented as an RNN model.
7 is a reference diagram schematically illustrating an operation method of a first model implemented as an LSTM model.
8 is a reference diagram schematically illustrating an operation method of a first model implemented as a CNN model.
9 is a reference diagram schematically illustrating an operation method of a first model implemented as a GRU model.
10 is a reference diagram schematically illustrating an operation method of a first model implemented as a transformer model.
11 is a flowchart illustrating a method of extracting experience information according to product experience according to the present invention.
12 is a flowchart of an embodiment for explaining the step of extracting feature information shown in FIG. 11.

본 발명은 다양한 변경을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시예들을 도면에 예시하고 상세하게 설명하고자 한다. 그러나, 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. 또한, "및", "또는" 이라는 용어는 복수의 관련된 기재된 항목들의 조합 또는 복수의 관련된 기재된 항목들 중의 어느 항목을 포함한다. 또한, 어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "결합되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 결합되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. In the present invention, various modifications may be made and various embodiments may be provided, and specific embodiments will be illustrated in the drawings and described in detail. However, this is not intended to limit the present invention to a specific embodiment, it is to be understood to include all changes, equivalents, and substitutes included in the spirit and scope of the present invention. In addition, the terms "and", "or" include a combination of a plurality of related listed items or any of a plurality of related listed items. In addition, when a component is referred to as being "connected" or "coupled" to another component, it may be directly connected or coupled to the other component, but other components may exist in the middle. It should be understood that there is.

이하, 첨부한 도면들을 참조하여, 본 발명의 바람직한 실시예를 보다 상세하게 설명하고자 한다. Hereinafter, preferred embodiments of the present invention will be described in more detail with reference to the accompanying drawings.

도 1은 본 발명에 따른 상품 체험에 따른 체험정보 추출 시스템(이하, 체험정보 추출시스템이라 칭함)을 설명하기 위한 네트워크 구성 환경을 예시하는 블록도이다. 1 is a block diagram illustrating a network configuration environment for explaining an experience information extraction system (hereinafter referred to as an experience information extraction system) according to a product experience according to the present invention.

도 1을 참조하면, 네트워크 구성환경은 체험정보 추출시스템(10), 통신망(20), 휴대용 단말기(30), 상품 태그(40) 및 외부 단말기(50)를 포함한다.Referring to FIG. 1, the network configuration environment includes an experience information extraction system 10, a communication network 20, a portable terminal 30, a product tag 40, and an external terminal 50.

체험정보 추출시스템(10)은 체험 대상상품에 대한 체험자의 상품 체험정보를 추출하고, 추출된 상품 체험정보를 외부 단말기(40)로 제공한다. 체험 대상상품은 유형의 제품(예를 들어, 전자기기, 가전 기기, 화장품, 뷰티상품 등)일 수도 있고, 무형의 서비스 상품(예를 들어, 식음료 서비스, 피트니스 서비스, 피부미용 서비스 등)일 수도 있다.The experience information extraction system 10 extracts product experience information of an experienced person for an experience target product, and provides the extracted product experience information to the external terminal 40. Experience target products may be tangible products (eg, electronic devices, home appliances, cosmetics, beauty products, etc.) or intangible service products (eg, food and beverage services, fitness services, skin care services, etc.). have.

체험정보 추출시스템(10)은 체험자의 휴대용 단말기(30) 및 체험 대상상품의 상품 태그(40)를 인식하기 위해, 휴대용 단말기(30) 및 상품 태그(40)와 근거리 무선통신을 수행할 수 있고, 또한, 휴대용 단말기(30) 및 외부 단말기(50)와 유선 통신망 또는 무선 통신망으로 연결되어 데이터를 교환할 수 있다. 체험정보 추출시스템(10)에 대한 상세한 설명은 후술한다.The experience information extraction system 10 can perform short-range wireless communication with the portable terminal 30 and the product tag 40 in order to recognize the portable terminal 30 of the experienced person and the product tag 40 of the product to be experienced. In addition, the portable terminal 30 and the external terminal 50 may be connected to a wired communication network or a wireless communication network to exchange data. A detailed description of the experience information extraction system 10 will be described later.

통신망(20)은 체험정보 추출시스템(10)과 휴대용 단말기(30), 상품 태그(40) 및 외부 단말기(50) 사이의 데이터를 송수신을 위한 유선 통신망 또는 무선 통신망을 포함한다. 유선 통신망으로서, 이더넷 통신망 또는 시리얼(USB) 통신망 등을 포함할 수 있다. 이더넷 통신망은 랜선을 이용해 연결할 수 있는 환경이며, 인터넷 상의 서버에 직접 접속해서 API 사용이 가능하며(HTTP client), TCP/UDP 소켓 통신을 할 수도 있다. 시리얼(USB) 통신망은 비동기식 직렬 통신이며, 마이크로 컨트롤러에 다양한 센서를 연결하거나 다른 장치와 통신을 할 때 사용할 수 있다. 무선 통신망은 블루투스(Bluetooth), WiFi(wireless fidelity)와 같은 근거리 무선 통신망이나, WiBro(wireless broadband internet) 또는 WiMax(world interoperability for microwave access)와 같은 휴대인터넷, GSM(global system for mobile communication) 또는 CDMA(code division multiple access)와 같은 2G 이동통신망, WCDMA(wideband code division multiple access) 또는 CDMA2000과 같은 3G 이동통신망, HSDPA(high speed downlink packet access) 또는 HSUPA(high speed uplink packet access)와 같은 3.5G 이동통신망, LTE(long term evolution)망 또는 LTE-Advanced망과 같은 4G 이동통신망, 및 5G 이동통신망 등 서비스를 위한 이동통신망을 포함할 수 있다.The communication network 20 includes a wired communication network or a wireless communication network for transmitting and receiving data between the experience information extraction system 10 and the portable terminal 30, the product tag 40, and the external terminal 50. As a wired communication network, it may include an Ethernet communication network or a serial (USB) communication network. The Ethernet communication network is an environment that can be connected using a LAN line, and API can be used by directly connecting to a server on the Internet (HTTP client), and TCP/UDP socket communication can also be performed. The serial (USB) network is asynchronous serial communication, and can be used to connect various sensors to the microcontroller or communicate with other devices. The wireless communication network is a short-range wireless communication network such as Bluetooth and WiFi (wireless fidelity), a portable Internet such as WiBro (wireless broadband internet) or WiMax (world interoperability for microwave access), a global system for mobile communication (GSM), or CDMA. 2G mobile communication network such as (code division multiple access), wideband code division multiple access (WCDMA) or 3G mobile communication network such as CDMA2000, 3.5G mobile such as high speed downlink packet access (HSDPA) or high speed uplink packet access (HSUPA) A mobile communication network for services such as a communication network, a 4G mobile communication network such as a long term evolution (LTE) network or an LTE-Advanced network, and a 5G mobile communication network may be included.

휴대용 단말기(30)는 체험자가 구비하는 모바일 기기에 해당하는 것으로, 스마트폰, 태블릿 PC, 또는 웨어러블 기기 등을 포함할 수 있다. 휴대용 단말기(30)는 근거리 무선 통신(예를 들어, NFC, 블루투스, WIFI 등)을 위한 통신 모듈을 포함할 수 있다. 또한, 휴대용 단말기(30)는 체험정보 추출시스템(10)에 포함된 리더기 등을 통해 인식될 수 있도록 휴대용 단말기(30) 자체의 기기 식별정보 또는 전화번호정보나 체험 대상상품의 상품 식별정보(예를 들어, 바코드, QR코드 등)를 표시할 수 있다. The portable terminal 30 corresponds to a mobile device provided by an experienced person, and may include a smartphone, a tablet PC, or a wearable device. The portable terminal 30 may include a communication module for short-range wireless communication (eg, NFC, Bluetooth, WIFI, etc.). In addition, the portable terminal 30 is device identification information or phone number information of the portable terminal 30 itself or product identification information of the experience target product so that it can be recognized through a reader included in the experience information extraction system 10. For example, barcodes, QR codes, etc.) can be displayed.

상품 태그(40)는 체험 대상상품들 각각에 부착되는 바코드 태그, QR코드 태그, RFID 태그, NFC 태그 등을 포함한다. 이러한, 상품 태그(40)는 체험 대상상품에 대한 고유의 식별정보와 관련정보 등을 저장할 수 있다. 도 1에서는 하나의 상품 태그(40)가 도시되었지만, 이는 예시적인 것으로 복수개의 상품 태그들이 체험정보 추출시스템(10)에 의해 인식될 수 있다. The product tag 40 includes a barcode tag, a QR code tag, an RFID tag, an NFC tag, etc. attached to each of the products to be experienced. The product tag 40 may store unique identification information and related information about the product to be experienced. Although one product tag 40 is illustrated in FIG. 1, this is exemplary, and a plurality of product tags may be recognized by the experience information extraction system 10.

외부 단말기(50)는 체험 대상상품을 제조하는 제조사 단말기 또는 서비스 제공 단말기에 해당할 수도 있고, 체험 대상상품을 온라인 또는 오프라인 상에서 판매하는 온라인 사업자 단말기 또는 오프라인 사업자 단말기를 포함할 수 있다. 외부 단말기(50)는 체험정보 추출시스템(10)에 상품 체험정보의 요청을 할 수 있고, 체험정보 추출시스템(10)으로부터 전송된 상품 체험정보를 수신 및 저장하고, 이 정보를 상품 제조 또는 판매를 위한 정보로서 활용할 수 있다.The external terminal 50 may correspond to a manufacturer terminal or a service providing terminal that manufactures an experience target product, and may include an online business operator terminal or an offline business operator terminal that sells the experience target product online or offline. The external terminal 50 can make a request for product experience information to the experience information extraction system 10, receive and store product experience information transmitted from the experience information extraction system 10, and use this information to manufacture or sell products. It can be used as information for

도 2는 도 1에 도시된 체험정보 추출시스템(10)을 설명하기 위한 일 실시예의 구성 블록도이다. FIG. 2 is a block diagram illustrating an embodiment of the experience information extraction system 10 shown in FIG. 1.

도 2를 참조하면, 체험정보 추출시스템(10)은 저장부(100), 식별정보 인식부(102), 텍스트 추출부(104), 특징정보 추출부(106), 반응정보 추출부(108), 감성정보 추출부(110), 제어부(112), 감응지수 산출부(114), 피부특성 검출부(116), 적합도 산출부(118), 구매율 산출부(120), 추천상품 추출부(122), 사용자 인터페이스부(124) 및 통신부(126)를 포함할 수 있다.2, the experience information extraction system 10 includes a storage unit 100, an identification information recognition unit 102, a text extraction unit 104, a feature information extraction unit 106, and a response information extraction unit 108 , Emotional information extraction unit 110, control unit 112, sensitivity index calculation unit 114, skin characteristics detection unit 116, fitness calculation unit 118, purchase rate calculation unit 120, recommended product extraction unit 122 , A user interface unit 124 and a communication unit 126 may be included.

저장부(100)는 자연어 처리를 수행하기 위한 자연어 프로그램 정보, 체험 상품군의 소비자 체험에 대응하는 상품군 체험 데이터 또는 상기 체험 상품군과 관련한 단어 정보가 자연어 처리 및 체험정보 모델링을 위해 가공된 상품군 코퍼스정보 등을 저장하고 있다.The storage unit 100 includes information on natural language programs for performing natural language processing, product group experience data corresponding to the consumer experience of the experience product group, or product group corpus information in which word information related to the experience product group is processed for natural language processing and experiential information modeling, etc. Are being saved.

자연어 프로그램 정보는 후술하는 텍스트 전처리를 위한 다양한 프로그램을 포함한다. 예를 들어, 자연어 프로그램 정보는 문장 토큰화 프로그램, 단어 토큰화 프로그램을 포함할 수 있다. 또한, 자연어 프로그램정보는 어간 추출(stemming) 프로그램, 표제어 추출(lemmatiztion) 프로그램, 품사(POS) 태깅 프로그램, 불용어(stop word) 제거 프로그램, 단어 정규화(word normalization) 프로그램, 텍스트 파싱 프로그램, 개체명 인식 프로그램, N-Gram 프로그램, BOW 프로그램 등을 포함할 수 있다. 또한, 자연어 프로그램 정보는 자연어 처리를 위한 패키지 프로그램으로, NLTK, Spacy, KoNLPy 등을 포함할 수 있다. 또한, 자연어 프로그램 정보는 프로그래밍을 위한 패키지로 Numpy, Pandas, Re 등을 포함하고, 또한 시각화 프로그램인 Matplotlib과 웹크롤링에 사용되는 BeautifulSoup, Selenium 등을 포함할 수 있다. 또한, 여기에 기재된 프로그램 이외에 자연어 처리를 위한 다양한 프로그램을 포함할 수 있다.The natural language program information includes various programs for text preprocessing to be described later. For example, the natural language program information may include a sentence tokenization program and a word tokenization program. In addition, natural language program information includes stem extraction program, lemmatiztion program, POS tagging program, stop word removal program, word normalization program, text parsing program, and entity name recognition. It may include a program, an N-Gram program, a BOW program, and the like. In addition, the natural language program information is a package program for processing natural language, and may include NLTK, Spacy, KoNLPy, and the like. In addition, the natural language program information may include Numpy, Pandas, Re, etc. as a package for programming, and may also include Matplotlib, a visualization program, and BeautifulSoup, Selenium, etc. used for web crawling. In addition, various programs for natural language processing may be included in addition to the programs described herein.

상품군 체험 데이터는 체험 상품군에 대한 체험자(소비자)의 체험에 따른 정보를 포함한다. 이러한 상품군 체험 데이터는 텍스트 정보, 동영상 정보, 음성 정보 등을 포함할 수 있다. 이때, 동영상 정보 및 음성 정보는 최종적으로는 텍스트 정보로 변환된 것을 포함한다. 상품군 체험 데이터는 모델링 방식에 따라 레이블이 포함된 정보일 수도 있고, 레이블이 포함되지 않은 정보일 수도 있다. 지도 학습모델에 사용되는 상품군 체험 데이터는 학습에 따른 정답에 해당하는 레이블 정보를 포함할 수 있으며, 비지도 학습모델에 사용되는 상품군 체험 데이터는 정답 즉, 레이블이 없는 학습용 데이터를 포함할 수 있다. 이러한, 상품군 체험 데이터는 인덱스정보, 텍스트정보, 레이블 정보, 생성시간 정보 등으로 세분화된 것일 수 있다.The product group experience data includes information according to the experience of the experienced product group (consumer). The product group experience data may include text information, video information, audio information, and the like. In this case, the video information and the audio information finally include the converted text information. The product group experience data may be information including a label or information not including a label according to a modeling method. Product group experience data used in the supervised learning model may include label information corresponding to a correct answer according to learning, and product group experience data used in the unsupervised learning model may include correct answers, that is, data for learning without a label. The product group experience data may be subdivided into index information, text information, label information, and creation time information.

상품군 체험 데이터는 온라인 상의 다양한 사이트들에서 수집된 것일 수 있으며, 예를 들어, 웹 크롤링 방식에 의해 수집될 수 있다. 여기서, 해당 사이트들은 구글, 네이버, 다음 등과 같은 검색 사이트가 될 수도 있고, 상품군에 따른 판매 사이트의 커뮤니티 사이트, 상품군 별 온라인 카페 사이트, 동영상 공유 사이트(예를 들어, 유튜브) 등에서 수집된 정보일 수 있다.Product group experience data may be collected from various online sites, for example, may be collected by a web crawling method. Here, the sites may be search sites such as Google, Naver, Daum, etc., and may be information collected from community sites of sales sites by product group, online cafe sites by product group, and video sharing sites (for example, YouTube). have.

상품군 코퍼스정보는 체험 대상상품 별로 통용되는 상품군 말뭉치에 해당하는 것으로, 상품군에 대한 언어 규칙을 정의 및 검증하고, 상품군의 문법 교정을 수행하고, 상품군에 대해 빈도 분포, 단어의 동시 발생 등과 같은 통계 분석을 수행할 수 있도록 수집된 말뭉치이다.Product group corpus information corresponds to the corpus of product groups that are commonly used for each experience target product, defines and verifies language rules for product groups, performs grammar correction for product groups, and analyzes statistics such as frequency distribution and simultaneous occurrence of words for product groups. It is a corpus collected to be able to perform.

상품군 코퍼스정보는 상품군 별로 체험 대상상품들의 브랜드 또는 상품명, 브랜드 또는 상품명을 대표하는 개체명, 체험 대상상품들에서 사용되는 전문 용어, 체험 대상상품들에 포함되는 성분 용어, 체험 대상상품들의 체험에 따른 기능 표현용어(기능 표현 은어를 포함), 촉각 표현용어(촉각 표현 은어를 포함) 또는 시각 표현용어(시각 표현 은어를 포함) 등을 포함할 수 있다. 상품군 코퍼스정보는 브랜드 또는 상품명, 전문 용어, 성분 용어, 기능 표현용어, 촉각 표현용어 또는 시각 표현용어 등에 대한 품사(POS) 태깅정보를 포함할 수 있다. 또한, 상품군 코퍼스정보는 기능 표현용어, 촉각 표현용어, 또는 시각 표현용어 등이 자유 형태소, 파생 형태소, 굴절 형태소 등의 형태소 단위로 가공된 것을 포함할 수 있다.Product group corpus information is based on the brand or product name of the product to be experienced, the name of the entity representing the brand or product name, the terminology used in the product to be experienced, the term of the component included in the product to be experienced, and the experience of the product to be experienced. Functional expression terms (including functional expression sweet words), tactile expression terms (including tactile expression sweet words), or visual expression terms (including visual expression sweet words) may be included. The product group corpus information may include POS tagging information for a brand or product name, a technical term, an ingredient term, a functional expression term, a tactile expression term, or a visual expression term. In addition, the product group corpus information may include functional expression terms, tactile expression terms, or visual expression terms processed in morpheme units such as free morphemes, derived morphemes, and refractive morphemes.

예를 들어, 체험 대상상품이 전자기기 상품군(예를 들어, 스마트폰, 태블릿 PC, 노트북, 가정용 전자기기 등)인 경우에, 상품군 코퍼스정보는 다양한 전자기기들의 브랜드, 전자기기들의 상품명, 전자기기들에서 사용되는 전문 용어, 전자기기들의 체험에 따른 기능 표현용어, 촉각 표현용어 또는 시각 표현용어 등을 포함할 수 있다. 또한, 체험 대상상품이 생활용품 상품군(예를 들어, 세제, 치약, 샴푸, 주방용 기구 등)인 경우에, 상품군 코퍼스정보는 다양한 생활용품들의 브랜드, 생활용품들의 상품명, 생활용품들에서 사용되는 전문 용어, 생활용품들의 체험에 따른 기능 표현용어, 촉각 표현용어 또는 시각 표현용어 등을 포함할 수 있다. 또한, 체험 대상상품이 뷰티 상품군(예를 들어, 화장품, 마스크팩, 미용 기기 등)인 경우에, 상품군 코퍼스정보는 다양한 뷰티상품들의 브랜드, 뷰티상품들의 상품명, 뷰티상품들에서 사용되는 전문 용어, 뷰티상품들의 체험에 따른 기능 표현용어, 촉각 표현용어(예를 들어, 발림성, 유분감, 촉촉함 등)와 시각 표현용어(예를 들어, 화사함, 칙칙함, 어두움, 블링블링 등) 등을 포함할 수 있다. For example, if the product to be experienced is an electronic device product group (for example, smartphones, tablet PCs, notebook computers, home electronic devices, etc.), the product group corpus information includes brands of various electronic devices, product names of electronic devices, and electronic devices. Technical terms used in the field, functional expression terms according to experiences of electronic devices, tactile expression terms, visual expression terms, and the like may be included. In addition, if the product to be experienced is a household product product group (for example, detergent, toothpaste, shampoo, kitchen utensils, etc.), the product group corpus information is the brand of various household goods, product names of household goods, and specialty used in household goods. It may include terms, functional expression terms, tactile expression terms, or visual expression terms according to experiences of household products. In addition, when the product to be experienced is a group of beauty products (for example, cosmetics, mask packs, beauty devices, etc.), the product group corpus information includes brands of various beauty products, product names of beauty products, and technical terms used in beauty products, It may include functional expression terms according to the experience of beauty products, tactile expression terms (e.g., spreadability, oiliness, moisture, etc.) and visual expression terms (e.g., brightness, dullness, darkness, bling bling, etc.). .

도 3은 체험 대상상품군 중 뷰티 상품에 대한 상품군 코퍼스정보를 예시하는 참조도이다. 도 3에 도시된 바와 같이, 뷰티 상품에 대한 상품군 코퍼스정보로서, 브랜드 및 상품명에 대한 코퍼스 정보, 비교 조사(품사)와 관련한 코퍼스 정보, 전문용어와 관련한 코퍼스 정보, 촉각 표현 용어와 관련한 코퍼스 정보, 시각 표현 용어와 관련한 코퍼스 정보, 기능 표현 용어와 관련한 코퍼스 정보 등을 포함할 수 있다.3 is a reference diagram exemplifying product group corpus information for beauty products among the product groups subject to experience. As shown in Fig. 3, as product group corpus information for beauty products, corpus information for brands and product names, corpus information related to comparative investigation (part of speech), corpus information related to terminology, corpus information related to tactile expression terms, It may include corpus information related to visual expression terms, corpus information related to functional expression terms, and the like.

또한, 저장부(100)는 각각의 체험 대상상품들에 대한 속성 정보를 저장한다. 예를 들어, 체험 대상상품이 뷰티상품에 해당하는 경우에, 저장부(100)는 뷰티 속성정보로서 뷰티상품에 대한 조성물의 구성 및 비율, 점도, 질감 타입, 내용물 유통시간 등의 정보를 저장한다. 또한, 저장부(100)는 다양한 체험 대상상품들의 체험을 위해 오프라인 매장을 방문하는 상기 체험자의 방문 횟수, 상기 체험자의 구매 횟수 또는 상기 체험자가 오프라인 매장에 머문 시간 등에 대한 산술 연산을 통해 산출된 실제 구매 지수를 저장한다. 또한, 저장부(100)는 신체 부위별 피부 특성에 대응하는 다양한 뷰티 상품군정보를 저장하고 있다.In addition, the storage unit 100 stores attribute information for each experience target product. For example, when an experience target product corresponds to a beauty product, the storage unit 100 stores information such as the composition and ratio of the composition for the beauty product, viscosity, texture type, and content distribution time as beauty attribute information. . In addition, the storage unit 100 is the actual calculated through arithmetic operations on the number of visits of the experiencer visiting the offline store for the experience of various experience target products, the number of purchases of the experiencer, or the time the experiencer stays in the offline store. Save the purchase index. In addition, the storage unit 100 stores various beauty product group information corresponding to skin characteristics for each body part.

또한, 저장부(100)는 체험자에 대한 피부 특성정보를 저장할 수 있으며, 체험 반응정보, 체험 감성정보 등을 포함하는 상품 체험정보를 체험자 식별정보 및 상품 식별정보와 매칭하여 저장할 수 있으며, 감응지수 정보, 피부 적합도 지수 정보, 잠재적 구매율 정보, 추천 상품정보 등을 저장할 수 있다.In addition, the storage unit 100 may store skin characteristic information for the experienced person, and product experience information including experience response information and experience emotion information may be matched with the experience person identification information and product identification information and stored. Information, skin fitness index information, potential purchase rate information, recommended product information, etc. can be stored.

식별정보 인식부(102)는 체험자를 식별하기 위한 체험자 식별정보 또는 체험 대상상품에 대한 상품 식별정보를 인식하고, 인식된 체험자 식별정보 또는 상품 식별정보를 제어부(110)로 전달한다. 이를 위해, 식별정보 인식부(102)는 체험자 인식모듈 및 상품 인식모듈을 포함할 수 있다.The identification information recognition unit 102 recognizes the experience person identification information for identifying the experienced person or the product identification information for the product to be experienced, and transmits the recognized experience person identification information or the product identification information to the control unit 110. To this end, the identification information recognition unit 102 may include an experienced person recognition module and a product recognition module.

체험자 인식모듈은 휴대용 단말기(30)에 표시된 식별정보를 읽어들이기 위한 리더기를 포함할 수 있다. 리더기는 휴대용 단말기(30)의 접근에 따라, 해당 휴대용 단말기(30)의 기기 식별정보를 읽어들이거나, 해당 휴대용 단말기(30) 상에 표시된 기기 식별정보 또는 전화번호정보 등을 읽어들일 수 있다. 또한, 체험자 인식모듈은 체험자의 생체 정보(예를 들어, 체험자의 안면 이미지, 체험자의 지문 등)를 읽어들이기 위한 생체 인식모듈을 포함할 수 있다. The experienced person recognition module may include a reader for reading identification information displayed on the portable terminal 30. The reader may read device identification information of the portable terminal 30 or device identification information or phone number information displayed on the portable terminal 30 according to the approach of the portable terminal 30. In addition, the experiencer recognition module may include a biometric recognition module for reading the experiencer's biometric information (eg, the experiencer's face image, the experiencer's fingerprint, etc.).

상품 인식모듈은 체험 대상상품에 부착되거나 페인팅된 바코드, QR코드 또는 RFID 태그 또는 NFC 태그 등을 읽어들이는 리더기를 포함할 수 있다. 또한, 상품 인식모듈은 휴대용 단말기(30)에 표시된 체험 대상상품의 상품 식별정보를 읽어들이는 것일 수 있다. The product recognition module may include a reader for reading barcodes, QR codes, RFID tags, NFC tags, etc. attached or painted on the product to be experienced. In addition, the product recognition module may read product identification information of an experience target product displayed on the portable terminal 30.

텍스트 추출부(104)는 체험 대상상품의 체험에 따라 생성되는 체험자 음성으로부터 상기 체험자의 텍스트 정보를 추출한다. 이를 위해, 텍스트 추출부(104)는 음성 수집모듈 및 텍스트 변환모듈을 포함할 수 있다.The text extracting unit 104 extracts text information of the experienced user from the voice of the experienced user generated according to the experience of the product to be experienced. To this end, the text extraction unit 104 may include a voice collection module and a text conversion module.

음성 수집모듈은 체험 대상상품의 체험에 따라 체험자가 발화하는 체험자 음성으로부터 체험자의 음성정보를 수집한다. 음성 수집모듈은 이벤트 신호에 따라 체험자 음성의 녹음을 위한 온 및 오프 동작을 수행하며, 온 및 오프 동작에 따라 체험자에 대한 음성정보를 수집한다. 음성 수집모듈은 관리자의 온 버튼 또는 오프 버튼의 조작을 이벤트 신호로 인식할 수 있다. 또한, 음성 수집모듈은 식별정보 인식부(102)의 체험자 식별정보 또는 상품 식별정보의 인식을 위한 동작신호를 음성 녹음의 온 동작을 위한 이벤트 신호로 인식할 수 있다. 온 동작을 위한 이벤트 신호에 따라, 음성 수집모듈은 체험자가 소리내는 음성을 녹음할 수 있다. The voice collection module collects voice information of the experiencer from the voice of the experiencer uttered by the experiencer according to the experience of the product to be experienced. The voice collection module performs on and off operations for recording the voice of the experienced user according to the event signal, and collects voice information on the experienced user according to the on and off motion. The voice collection module may recognize an operator's operation of an on button or an off button as an event signal. In addition, the voice collection module may recognize an operation signal for recognizing an experienced person identification information or product identification information of the identification information recognition unit 102 as an event signal for an ON operation of voice recording. According to the event signal for the ON operation, the voice collection module may record a voice made by the experiencer.

음성 수집모듈은 음성 수집을 위해 마이크 등의 음성 입력기를 포함할 수 있다. 음성 입력기는 녹음모드 또는 음성인식모드에서 마이크로폰(Microphone)에 의해 외부의 음향 신호 특히, 체험자 음성을 입력받아 전기적인 음성 신호로 변환한다. 음성 수집모듈은 음성 신호의 수집 과정에서 발생되는 잡음(noise)을 제거하기 위한 다양한 잡음 제거 알고리즘을 포함할 수 있다.The voice collection module may include a voice input device such as a microphone for voice collection. In the recording mode or the voice recognition mode, the voice input unit receives an external sound signal, in particular, an experienced person's voice by a microphone and converts it into an electric voice signal. The voice collection module may include various noise removal algorithms for removing noise generated in a process of collecting voice signals.

텍스트 변환모듈은 수집된 음성정보를 텍스트정보로 변환한다. 텍스트 변환모듈은 STT(speech to text) 엔진을 이용하여, 음성 정보를 문자정보로 변환한다. 이러한, 텍스트 변환모듈은 머신러닝 알고리즘을 이용하여 음성정보를 텍스트 정보로 변환할 수도 있다. 예를 들어, 구글에서 제공하는 Cloud Speech-to-Text 프로그램은 머신러닝 알고리즘을 이용한 STT(speech to text) 엔진에 해당하는 것으로, 이를 텍스트 변환모듈에 적용할 수 있다. 텍스트 변환모듈에 의해 변환된 텍스트 정보는 문장에 따른 마침표, 느낌표, 물음표 등의 구두점을 포함할 수 있다. The text conversion module converts the collected voice information into text information. The text conversion module converts voice information into text information using a speech to text (STT) engine. Such a text conversion module may convert speech information into text information using a machine learning algorithm. For example, the Cloud Speech-to-Text program provided by Google corresponds to a speech to text (STT) engine using a machine learning algorithm and can be applied to a text conversion module. Text information converted by the text conversion module may include punctuation marks such as periods, exclamation marks, and question marks according to sentences.

도 4는 텍스트 추출부(104)에 의해 추출되는 텍스트 정보를 예시하는 참조도이다. 도 4에서 보는 바와 같이, 뷰티 상품(예를 들어, 파운데이션 상품)에 대한 체험자의 음성이 텍스트 추출부(104)에 의해 수집 및 변환되어 텍스트 정보로 추출된 것을 확인할 수 있다.4 is a reference diagram illustrating text information extracted by the text extraction unit 104. As shown in FIG. 4, it can be seen that the voice of the experiencer for a beauty product (eg, a foundation product) is collected and converted by the text extraction unit 104 and extracted as text information.

특징정보 추출부(106)는 텍스트 추출부(104)에서 추출된 텍스트 정보로부터 머신런닝을 위한 입력값인 특징 정보를 추출한다. 이를 위해, 특징정보 추출부(106)는 전처리 모듈 및 특징벡터 산출모듈을 포함할 수 있다.The feature information extracting unit 106 extracts feature information, which is an input value for machine running, from the text information extracted by the text extracting unit 104. To this end, the feature information extraction unit 106 may include a preprocessing module and a feature vector calculation module.

도 5는 특징정보 추출부(106)의 세부 구성요소와 반응정보 추출부(108) 및 감성정보 추출부(110)와의 연결관계를 도시한 구성 블록도이다. 도 5를 참조하면, 특징정보 추출부(106)의 세부 구성요소로서 전처리 모듈(106-1) 및 특징벡터 산출모듈(106-2)이 도시되어 있다.5 is a block diagram illustrating a connection relationship between detailed components of the feature information extracting unit 106 and the reaction information extracting unit 108 and the emotion information extracting unit 110. Referring to FIG. 5, a preprocessing module 106-1 and a feature vector calculation module 106-2 are shown as detailed components of the feature information extracting unit 106.

전처리 모듈(106-1)은 텍스트 추출부(104)에서 추출된 텍스트 정보를 입력받아서(IN), 자연어 프로그램정보를 이용하여 문장 단위로 분할하고, 분할 문장 각각에 대해 텍스트 전처리를 수행한다. The preprocessing module 106-1 receives the text information extracted by the text extracting unit 104 (IN), divides it into sentences using natural language program information, and performs text preprocessing for each divided sentence.

전처리 모듈(106-1)은 텍스트 정보를 문장 단위로 분할하기 위해, 문장 토큰화(sentences tokenization)를 위한 자연어 프로그램 정보를 사용할 수 있다. 전처리 모듈(106-1)은 문장 토큰화 프로그램으로서 텍스트 정보에 포함된 구두점(예를 들어, 온점)을 근거로 문장을 분할할 수 있다. 또한, 전처리 모듈(106-1)은 전술한 규칙 기반 시스템에 의한 문장 토큰화 방식 이외에, 머신러닝 또는 딥러닝 기술을 이용하여 문장 토큰화를 위한 모델을 구축하고, 이렇게 구축된 모델에 텍스트정보를 인가하여 문장 단위로 분할할 수도 있다.The preprocessing module 106-1 may use natural language program information for sentence tokenization in order to divide text information into sentences. The preprocessing module 106-1 is a sentence tokenization program and may divide a sentence based on punctuation marks (eg, hot points) included in text information. In addition, the pre-processing module 106-1 constructs a model for sentence tokenization using machine learning or deep learning technology, in addition to the sentence tokenization method according to the above-described rule-based system, and stores text information in the constructed model. It can be divided into sentences by authorization.

전처리 모듈(106-1)은 분할된 문장 각각에 대해 문장 식별정보를 할당한다. 분할 문장 각각에 대한 문장 식별정보는 특징벡터 산출모듈(106-2), 반응정보 추출부(108) 및 감성정보 추출부(112)에서 분할 문장을 식별하는데 사용될 수 있다.The preprocessing module 106-1 allocates sentence identification information for each divided sentence. The sentence identification information for each divided sentence may be used to identify the divided sentence in the feature vector calculation module 106-2, the response information extracting unit 108, and the emotion information extracting unit 112.

다음의 표 1은 도 4에 도시된 텍스트 정보가 전처리 모듈(106-1)에 의해 추출된 분할 문장을 예시하는 테이블 정보이다. Table 1 below is table information illustrating divided sentences from which the text information shown in FIG. 4 is extracted by the preprocessing module 106-1.

문장 식별정보Sentence identification information 분할 문장Split sentence 00000000 헤라 블랙 쿠션은 썬크림 따로 안발라도 되겠어요. The Hera Black Cushion can be used without sunscreen. 00010001 저는 약간 홍조가 있는 하얀피부고 평소에 17호 이상을 써요.I have white skin with a little redness, and I usually use No. 17 or higher. 00020002 헤라 블랙쿠션은 색상이 다양하게 나왔더라구요.Hera Black Cushion came in various colors. 00030003 피부타입에 맞게 색상을 다양하게 고를 수 있는 것 같아서 좋네요.It's nice that you can choose a variety of colors to suit your skin type. 00040004 15호 핑크아이보리 사려고 했는데 너무 빨갛다는 후기가 많아서13호 내츄럴 아이보리로 선택했어요.I tried to buy No. 15 Pink Ivory, but there were many reviews that it was too red, so I chose No. 13 Natural Ivory. 00050005 케이스가 참 고급지고, 뭔가 명품화장품스럽지만 더 예쁜거 같기도 하고, 퍼프는 땅땅하고 짱짱한 느낌은 아니고, 엄청 부들부들해서 탕탕 두드리면서 바르는거보다 약간 문지르는(?)게 더 어울리는 퍼프더라구요.The case is very high-quality, it looks like a luxury cosmetic, but it looks pretty, and the puff isn't stuffy and full, and it's so soft that it's a puff that suits you better with a little rubbing (?) than applying it while tapping it. 00060006 13혼데 생각보다 어두운 느낌이고, 파우더가 많이 함유된 것 같아요.13Honde It feels darker than I thought, and it seems to contain a lot of powder. 00070007 뭔가 텁텁한 느낌이고, 가루커피 타고 다마시고 바닥에 가루 남은 느낌.It feels like something ugly, and it feels like it's powdery on the floor after drinking powdered coffee. 00080008 바다에서 일주일을 있었더니 손이 까맣게 타서 13호가 맞지는 않는 것 같은데,색깔은 예쁘게(??) 거듭났네용.After spending a week at the sea, my hand was burned, so it seems that No. 13 doesn't fit, but the color is pretty (??). 00090009 일단 화사한 느낌이나 윤광 물광 그런건 전혀 없고, 약간 에스티로더 더블웨어 바른느낌이라 자연스럽고 내피부같은 느낌은 없어요.First of all, there is no such thing as a bright feeling or gloss, and it feels a bit like Estee Lauder double wear, so it doesn't feel like natural and inner skin. 00100010 구래도 커버력 좋고 기름좔좔 흘러댈 여름에는 좋을 것 같아요.It will have good coverage and it will be good in summer when oil is flowing. 00110011 저는 바다 위라 기초를 제대로 안하고 발랐었는데 뜨는 느낌이 강해서, 이건 좀 기초를 탄탄히 해주고 바르면 좋을 것 같아요.I did not apply the foundation properly on the sea, but the floating feeling is strong, so I think it would be good to apply it after firming the foundation. 00120012 단지, 가격이 쫌 나가는 편이라, 부담되기는 해도, 해외 브랜드에 비하면 양호한 편이죠.However, since the price is on the high side, although it is burdensome, it is good compared to overseas brands. 00130013 아무튼, 다크닝은 없었고 커버력이 제일 맘에 드네용.Anyway, there was no darkening and I like the coverage the most.

표 1을 참조하면, 분할된 문장들에 대해 각각의 문장 식별정보가 할당된 것을 확인할 수 있다. Referring to Table 1, it can be seen that each sentence identification information is allocated to the divided sentences.

전처리 모듈(106-1)은 분할 문장 각각에 대해 상품군 체험 데이터 및/또는 상품군 코퍼스정보를 이용하여 텍스트 전처리 과정을 수행한다.The preprocessing module 106-1 performs a text preprocessing process using product group experience data and/or product group corpus information for each divided sentence.

전처리 모듈(106-1)은 분할 문장들 각각에 대해 단어 토큰화(word tokenization)를 위한 프로그램을 이용하여 단어 토큰화를 수행한다. 전처리 모듈(106-1)은 구두점과 띄어쓰기를 기준으로 단어 토큰화를 수행할 수 있다. 구두점은 온점(.), 컴마(,), 물음표(?), 세미콜론(;), 느낌표(!) 등을 포함할 수 있다. 특히, 한국어는 교착어라는 특징으로 인해, 영어와는 달리 단어에 조사를 포함하고 있으며, 띄어쓰기를 하지 않아도 의미가 통하기 때문에 띄어쓰기도 제대로 이루어지지 않고 있다. 이에 따라, 한국어는 어절이 독립적인 단어로 구성되는 것이 아니라 조사 등이 붙어서 사용되는 언어라는 점에서 일반적인 어절 단위의 분리가 아닌 보다 세분화된 단어 분리가 필요하며, 단어의 가장 작은 단위인 형태소(morpheme) 단위까지 분리해야 한다. The preprocessing module 106-1 performs word tokenization using a program for word tokenization for each of the divided sentences. The preprocessing module 106-1 may perform word tokenization based on punctuation marks and spaces. Punctuation marks may include a dot (.), comma (,), question mark (?), semicolon (;), exclamation point (!), and the like. In particular, because Korean is an agglutinating language, unlike English, it includes a survey in words, and spaces are not properly written because the meaning is communicated even without spaces. Accordingly, Korean is a language in which words are not composed of independent words, but is used with investigations, so it is necessary to separate more subdivided words rather than general word units, and the smallest unit of words, morpheme. ) To the unit.

형태소는 자립 형태소와 의존 형태소로 구분된다. 자립 형태소는 접사, 어미, 조사와 상관없이 자립하여 사용할 수 있는 형태소로서, 그 자체로 단어가 되는 것으로, 체언(명사, 대명사, 수사), 수식언(관형사, 부사), 감탄사 등이 있다. 또한, 의존 형태소는 다른 형태소와 결합하여 사용되는 형태소. 접사, 어미, 조사, 어간를 말한다. The morphemes are divided into independent morphemes and dependent morphemes. Independent morphemes are morphemes that can be used independently regardless of affixes, endings, and investigations, and become words by themselves, such as body language (noun, pronoun, rhetoric), modifier (tubal, adverb), and interjection. In addition, dependent morphemes are morphemes used in combination with other morphemes. It refers to affix, ending, survey, stem.

따라서, 한국어의 경우에는 어절 토큰화가 아니라 형태소 토큰화를 수행해야 적절한 단어 토큰화라 할 수 있다. 이를 위해, 전처리 모듈(106-1)은 문장 내에 포함된 단어들에 대해 상품군 체험 데이터 또는 상품군 코퍼스정보를 참조하여 형태소 토큰화를 수행한다. 예를 들어, 전처리 모듈(106-1)은 상품군 체험 데이터 또는 상품군 코퍼스정보에 포함된 상품군별 체험 대상상품들의 브랜드 또는 상품명, 브랜드 또는 상품명을 대표하는 개체명, 체험 대상상품들에서 사용되는 전문 용어, 체험 대상상품들에 포함되는 성분 용어, 체험 대상상품들의 체험에 따른 기능 표현용어(기능 표현 은어를 포함), 촉각 표현용어(촉각 표현 은어를 포함) 또는 시각 표현용어(시각 표현 은어를 포함) 등을 참조하여 문장 내에 포함되어 있는 각 단어들을 형태소별로 토큰화한다.Therefore, in the case of Korean, morpheme tokenization, not word tokenization, should be performed for proper word tokenization. To this end, the preprocessing module 106-1 performs morpheme tokenization with reference to product group experience data or product group corpus information for words included in a sentence. For example, the preprocessing module 106-1 is the brand or product name of the product group experience data or the product group experience target products included in the product group corpus information, the entity name representing the brand or product name, and the terminology used in the products subject to experience. , Component terms included in the product to be experienced, functional expression terms (including functional expression sweet words), tactile expression terms (including tactile expression sweet words) or visual expression terms (including visual expression sweet words) Each word included in the sentence is tokenized for each morpheme with reference to the like.

전처리 모듈(106-1)은 상품군 체험 데이터 또는 상품군 코퍼스정보를 적용해 형태소 토큰화를 수행할 수 있는 단어 토큰화 프로그램으로서 ProductGroupTokenize을 구축하여 저장하고 있다. ProductGroupTokenize는 텍스트정보 중에 포함된 상품군 코퍼스정보에 대응하는 단어를 기초로 형태소 토큰화를 수행하는 알고리즘을 포함할 수 있다. 전처리 모듈(106-1)은 체험 대상상품에 대한 텍스트정보에 대해 단어 토큰화를 위해, ProductGroupTokenize를 import함으로써, 텍스트 정보인 문장으로부터 각각의 단어들은 형태소별로 분할할 수 있다.The preprocessing module 106-1 constructs and stores ProductGroupTokenize as a word tokenization program capable of performing morpheme tokenization by applying product group experience data or product group corpus information. ProductGroupTokenize may include an algorithm that performs morpheme tokenization based on a word corresponding to the product group corpus information included in the text information. The preprocessing module 106-1 imports ProductGroupTokenize in order to tokenize text information on a product to be experienced, so that each word can be divided into morphemes from text information.

전처리 모듈(106-1)은 단어 정규화 프로그램을 이용하여 단어들에 대해 정규화된 단어들로 변환한다. 단어 정규화(normalization)는 표현 방법이 다른 단어들을 통합시켜서 의미가 같은 단어로 재편집하는 것을 의미한다. 전처리 모듈(106-1)은 단어 정규화를 방식으로 단어에 대한 어간 추출(stemming) 또는 표제어 추출(lemmatiztion)을 할 수 있다. The preprocessing module 106-1 converts words into normalized words using a word normalization program. Word normalization refers to re-editing words with the same meaning by integrating words with different expressions. The preprocessing module 106-1 may perform stem extraction or lemmatiztion for words in a word normalization method.

전처리 모듈(106-1)은 어간 추출(stemming) 프로그램을 이용하여 토큰화된 단어들에 대한 어간을 추출한다. 전처리 모듈(106-1)은 NLTK 또는 KoNLPy의 어간 추출 프로그램을 이용하여 추출할 수 있다. 어간(stem)은 용언(동사, 형용사)을 활용할 때, 원칙적으로 모양이 변하지 않는 부분을 의미한다. 활용에서 어미에 선행하는 부분에 해당한다. 어간 추출은 형태학적 분석을 단순화한 것으로, 정해진 규칙만 보고 단어의 어미를 잘라내는 과정이라 할 수 있다. 어간 추출 알고리즘으로서, 포터 알고리즘(Porter Algorithm), 랭커스터 스태머(Lancaster Stemmer) 알고리즘 등을 사용할 수 있다. The pre-processing module 106-1 extracts stems for tokenized words using a stem extraction (stemming) program. The preprocessing module 106-1 can be extracted using a stem extraction program of NLTK or KoNLPy. Stem refers to a part that, in principle, does not change shape when using a verb (verb, adjective). It corresponds to the part preceding the ending in the application. Stem extraction is a simplified morphological analysis, and it can be said to be a process of cutting out the endings of words by looking at only a set rule. As a stem extraction algorithm, a Porter algorithm, a Lancaster Stemmer algorithm, or the like can be used.

또한, 전처리 모듈(106-1)은 표제어 추출(lemmatiztion) 프로그램을 이용하여 단어들에 대한 표제어를 추출할 수 있다. 표제어(Lemma)는 기본 사전형 단어에 해당한다. 표제어 추출은 단어들이 다른 형태를 가지더라도, 그 뿌리 단어를 찾아서 단어의 개수를 줄이는 기능을 할 수 있다. 전처리 모듈(106-1)은 표제어 추출을 위해 WordNetLemmatizer 알고리즘을 이용할 수 있으며, 이때, 단어의 품사 정보를 참고하여 표제어를 추출할 수 있다. 전처리 모듈(106-1)은 문맥을 고려하여 표제어를 추출하며, 이에 따라 단어의 품사 정보를 보존할 수 있다. In addition, the preprocessing module 106-1 may extract headwords for words using a lemmatiztion program. Lemma is a basic dictionary-type word. Headword extraction can function to reduce the number of words by finding the root word, even if words have different forms. The preprocessing module 106-1 may use the WordNetLemmatizer algorithm to extract the headword, and in this case, may extract the headword by referring to the part of speech information of the word. The preprocessing module 106-1 extracts the headword in consideration of the context, and accordingly, can preserve the part of speech information of the word.

전처리 모듈(106-1)은 품사(POS) 태깅 프로그램을 이용하여, 단어들에 대한 품사를 태깅한다. 품사(POS) 태깅은 단어 토큰화 과정에서 각 단어가 어떤 품사로 쓰였는지를 구분하는 과정이다. 이때, 전처리 모듈(106-1)은 상품군 코퍼스정보에 포함된 품사(POS) 태깅정보를 사용하여 단어들에 대한 품사를 태깅할 수 있다. 전처리 모듈(106-1)은 NLTK에서 Penn Treebank POS Tags 알고리즘을 이용하여 품사 태깅을 할 수 있으며, KoNLPy에서는 Okt(Open Korea Text), Mecab, Komoran, 등의 알고리즘을 이용하여 품사 태깅을 수행할 수 있다. The preprocessing module 106-1 uses a POS tagging program to tag parts of speech for words. POS tagging is the process of classifying what part of speech was used in the word tokenization process. In this case, the preprocessing module 106-1 may tag parts of speech for words using POS tagging information included in the product group corpus information. The preprocessing module 106-1 can perform POS tagging using the Penn Treebank POS Tags algorithm in NLTK, and POS tagging using algorithms such as Okt (Open Korea Text), Mecab, and Komoran in KoNLPy. have.

전처리 모듈(106-1)은 단어들 중에서 불필요한 단어가 포함되어 있는 경우에는 불용어 제거 프로그램을 이용하여 불용어를 제거하는 정제 작업을 수행할 수 있다. 전처리 모듈(106-1)은 토큰화 작업에 방해가 되는 부분들을 배제시키고 토큰화 작업을 수행하기 위해서 토큰화 작업보다 앞서 수행할 수도 있고, 토큰화 작업 이후에도 남아있는 노이즈들을 제거하기 위해 수행될 수도 있다. 정제 작업에서 제거해야하는 노이즈 데이터(noise data)는 자연어가 아니면서 아무 의미도 갖지 않는 글자들(특수 문자 등)을 의미하기도 하지만, 분석하고자 하는 목적에 맞지 않는 불필요 단어들을 노이즈 데이터로서 제거한다. 전처리 모듈(106-1)은 불필요 단어들을 제거하는 방법으로는 불용어 제거와 등장 빈도가 적은 단어, 길이가 짧은 단어들을 제거할 수 있다. The preprocessing module 106-1 may perform a refinement operation of removing stop words using a stop word removal program when unnecessary words are included among words. The preprocessing module 106-1 may be performed prior to the tokenization operation in order to exclude portions that interfere with the tokenization operation and perform the tokenization operation, or may be performed to remove noise remaining after the tokenization operation. have. Noise data to be removed in the refining process may mean letters (special characters, etc.) that are not natural language and have no meaning, but unnecessary words that do not fit the purpose of analysis are removed as noise data. As a method of removing unnecessary words, the preprocessing module 106-1 may remove stopwords, words with a low frequency of appearance, and words with a short length.

전처리 모듈(106-1)은 각 단어들에 대해 개체명 인식 프로그램을 이용하여 개체명을 인식(Named Entity Recognition)할 수 있다. 개체명 인식은 비정형 텍스트에 대해 인명, 단체, 장소, 의학 코드, 시간 표현, 양, 금전적 가치, 퍼센트 등 미리 정의된 분류 체계로 구분시키는 작업이다. 이때, 전처리 모듈(106-1)은 상품군 코퍼스정보에 포함된 개체명 정보를 사용하여 단어들에 대한 개체명을 인식할 수 있다. The preprocessing module 106-1 may recognize the entity name (Named Entity Recognition) for each word using an entity name recognition program. Entity name recognition is the work of classifying unstructured text into predefined classification systems such as people, groups, places, medical codes, time expressions, quantities, monetary values, and percentages. At this time, the preprocessing module 106-1 may recognize the entity names for words by using entity name information included in the product group corpus information.

다음의 표 2는 전처리 모듈(106-1)에 의해 전술한 표 1에서 추출된 분할 문장들에 대해 전처리 결과를 예시하는 테이블 정보이다. Table 2 below is table information illustrating pre-processing results for the divided sentences extracted from Table 1 described above by the pre-processing module 106-1.

문장 식별정보Sentence identification information 분할 문장의 전처리 결과Preprocessing result of split sentences 00000000 '헤라", 블랙쿠션', '썬크림', '따로', '않다', '바르다', '되다' 'Hera','Black Cushion','Sun Cream','Independent','Don't','Right','Become' 00010001 '저', '약간', '홍조', '있다', '하얗다', '피부', '평소', '17호', '이상', '쓰다''Me','Slightly','Redness','There's','White','Skin','Normal','No. 17','Longer','Write' 00020002 '헤라', '블랙쿠션', '색상', '다양하다', '나오다''Hera','Black Cushion','Color','Various','Come out' 00030003 '피부', '타입', '맞다', '색상', '다양하다', '고르다', '있다', '같다',
'좋다'
'Skin','Type','Fit','Color','Various','Choose','There's','Is the same',
'good'
00040004 '15호', '핑크', '아이보리', '사다', '하다', '너무', '빨갛다', '후기', '많다', '13호', '내츄럴', '아이보리', '선택''No. 15','Pink','Ivory','Buy','Has','Too','Red','Late Term','Many','No. 13','Natural','Ivory', 'Select' 00050005 '케이스', '참', 고급', '지다', 지고, '무언가', '명품', '화장품', '스럽다', '더', '예쁘다', '같다', '하다', '퍼프', '땅땅하다', '짱짱하다', '느낌', '아니다', '엄청', '부들부들', '하다', '탕탕', '두드리다', '바르다', '보다', '약간', '문지르다', '더', '어울리다', '퍼프''Case','Cham', Luxury','Jida', Highest,'Something','Luxury','Cosmetics','Is like','More','Pretty','Is like','Has', ' 'Puff','good','awesome','feel','no','great','fluffy','hada','tangtang','tap','right','look', 'Slightly','rubbed','more','matched','puff' 00060006 '13호', '생각', '보다', '어둡다', '느낌', '파우더', '많다', '함유', '것', '같다''No. 13','Think','See','Dark','Feel','Powder','Many','Contain','Thing','Same' 00070007 '무언가', '텁텁하다', '느낌', '가루', '커피', '타다', '마시다', '바닥', '가루', '남다', '느낌''Something','Tough','Feel','Powder','Coffee','Ride','Drink','Bottom','Powder','Leave','Feel' 00080008 '바다', '일주일', '있다', '손', '까맣다', '타다', '13호', '맞다, '않다', '같다', '색깔', '예쁘다', '거듭나다''Sea','One week','There','Hand','Black','Ride','No. 13','Right,'Not','The same','Color','Pretty','Reborn All' 00090009 '일단', '화사하다', '느낌', '윤광', '물광', '그렇다', '전혀', '없다', '약간', '에스티로더', '더블', '웨어', '바르다', '느낌', '자연스럽다', '나', '피부', '같다', '느낌', '없다''Once dan','bright','feel','yoongwang','mulgwang','yes','at all','no','slightly','estee loader','double','wear', 'It's right','feel','natural','me','skin','is the same','feel','nothing' 00100010 '커버력', '좋다', '기름', '좔좔', '흐르다', '여름', '좋다', '같다''Covering power','Good','Oil','Zhuang','Flowing','Summer','Good','Same' 00110011 '저', '바다', '위', '기초', '제대로', '않다', '바르다', '뜨다', '느낌', '강하다', '이것', '좀', '기초', '탄탄하다', '하다', '바르다', '좋다', '것', '같다''Me','sea','above','basic','rightly','don't','right','float','feel','strong','this','some','basic' ','It's solid','do','right','good','thing','is the same' 00120012 '가격', '좀', '나가다', '편', '부담', '되다', '하다', '해외', '브랜드', '비하다', '양호', '편''Price','Some','Go out','Side','Pay','Become','Have','Overseas','Brand','Compare','Good','Pan' 00130013 '다크닝', '없다', '커버력', '제일', '마음', '들다''Darkening','No','Covering Power','First','Heart','Listen'

표 2을 참조하면, 전처리 모듈(106-1)은 분할 문장들 각각에 대해 단어 토큰화(word tokenization), 어간 추출(stemming), 표제어 추출(lemmatiztion), 불용어 제거를 수행한 결과를 도시하고 있으며, 이와 아울러, 품사(POS) 태깅 프로그램을 이용하여, 단어들에 대한 품사를 태깅하거나, 개체명을 인식(Named Entity Recognition)을 수행할 수도 있다. Referring to Table 2, the preprocessing module 106-1 shows a result of performing word tokenization, stem extraction, lemmatiztion, and stopword removal for each of the divided sentences. , In addition, a POS tagging program may be used to tag parts of speech for words or to perform Named Entity Recognition.

특징벡터 산출모듈(106-2)은 분할 문장들의 전처리된 단어들에 대한 특징 벡터를 산출한다. 이를 위해, 특징벡터 산출모듈(106-2)는 상품군 체험 데이터 또는 상품군 코퍼스정보를 이용할 수 있다.The feature vector calculation module 106-2 calculates feature vectors for preprocessed words of divided sentences. To this end, the feature vector calculation module 106-2 may use product group experience data or product group corpus information.

특징 벡터는 정수 인코딩(integer encoding) 벡터, 원핫 인코딩(one-hot encoding) 벡터 또는 단어 임베딩(word embedding)에 의한 임베딩(embedding) 벡터 등을 포함할 수 있다. 정수 인코딩은 빈도수 순으로 정렬한 단어 집합(vocabulary)을 만들고, 빈도수가 높은 순서대로 차례로 낮은 숫자부터 정수를 부여하는 인코딩 방식으로, 이렇게 표현된 벡터를 정수 인코딩 벡터(integer encoding vector)라 한다. 원-핫 인코딩은 단어 집합의 중에서 표현하고 싶은 단어의 인덱스에 1의 값을 부여하고, 다른 인덱스에는 0을 부여하는 단어의 벡터 표현 방식으로, 이렇게 표현된 벡터를 원-핫 벡터(One-hot vector)라 한다. 단어 임베딩은 단어를 밀집 벡터(dense vector)의 형태로 표현하는 것으로, 벡터의 차원을 0과 1만의 값이 아닌 실수값으로 표현하는 방식으로, 이렇게 표현된 벡터를 밀집 벡터 또는 임베딩 벡터라고 한다.The feature vector may include an integer encoding vector, a one-hot encoding vector, or an embedding vector by word embedding. Integer encoding is an encoding method in which a word set (vocabulary) arranged in order of frequency is created and integers are assigned from the lowest number in order of the highest frequency, and a vector expressed in this way is called an integer encoding vector. One-hot encoding is a vector representation of words in which a value of 1 is assigned to the index of the word to be expressed in the word set, and 0 is assigned to the other indices. vector). Word embedding is a method of expressing a word in the form of a dense vector. The dimension of the vector is expressed as a real value instead of 0 and 1, and the expressed vector is called a dense vector or an embedding vector.

특징벡터 산출모듈(106-2)은 전처리된 단어들 각각에 고유한 인덱스를 부여하여 정수 인코딩 벡터를 산출하거나, 전처리된 단어들 각각의 인덱스 위치에 "1"을 부여하여 원핫 인코딩 벡터를 산출할 수 있다. 예를 들어, 특징벡터 산출모듈(106-2)은 전술한 표 2에 도시된 바와 같이, 전처리된 단어들 각각에 대해 정수 인코딩 벡터를 산출하거나, 특징값으로서 "1"을 부여하는 원핫 인코딩 벡터를 산출할 수 있다.The feature vector calculation module 106-2 calculates an integer encoding vector by assigning a unique index to each of the preprocessed words, or calculates a one-hot encoding vector by assigning "1" to the index position of each of the preprocessed words. I can. For example, as shown in Table 2, the feature vector calculation module 106-2 calculates an integer encoding vector for each of the preprocessed words, or a one-hot encoding vector that assigns "1" as a feature value. Can be calculated.

또한, 특징벡터 산출모듈(106-2)은 임베딩 모델에 의해 모델링된 워드 임베딩 메트릭스에 전처리 단어들을 인가하여 임베딩 벡터를 추출할 수 있다. 이를 위해, 특징벡터 산출모듈(106-2)은 체험 대상상품 별로 통용되는 상품군 말뭉치에 해당하는 상품군 코퍼스정보를 임베딩 모델에 인가함으로써, 상품군 말뭉치에 대응하는 워드 임베딩 메트릭스를 모델링할 수 있다. 특징벡터 산출모듈(106-2)은 상품군 코퍼스정보를 임베딩 모델에 인가하기 전에 상품군 코퍼스정보에 대한 전처리 과정을 수행하고, 전처리된 상품군 코퍼스정보에 대한 원핫 인코딩 벡터를 임베딩 모델에 인가하여 워드 임베딩 메트릭스를 모델링할 수 있다. 이때, 특징벡터 산출모듈(106-2)은 임베딩 모델에 의해 모델링되는 워드 임베딩 메트릭스의 연산량을 줄이기 위해, Hierarchical Softmax 방식이나 Negative Sampling 방식을 사용할 수 있다.Also, the feature vector calculation module 106-2 may extract the embedding vector by applying preprocessed words to the word embedding matrix modeled by the embedding model. To this end, the feature vector calculation module 106-2 may model a word embedding matrix corresponding to the product group corpus by applying product group corpus information corresponding to the product group corpus commonly used for each experience target product to the embedding model. The feature vector calculation module 106-2 performs a pre-processing process for the product group corpus information before applying the product group corpus information to the embedding model, and applies the one-hot encoding vector for the pre-processed product group corpus information to the embedding model, and uses the word embedding matrix. Can be modeled. In this case, the feature vector calculation module 106-2 may use a Hierarchical Softmax method or a Negative Sampling method in order to reduce the amount of calculation of the word embedding matrix modeled by the embedding model.

여기서, 임베딩 모델은 Word2Vec 모델, FastText 모델, Glove 모델 등을 포함할 수 있다. Word2Vec 모델은 입력한 말뭉치의 문장에 있는 단어와 인접 단어의 관계를 이용해 단어의 의미를 학습할 수 있다. 연관된 의미의 단어들은 문서 상에서 가까운 곳에 출현할 가능성이 높기 때문에 학습을 반복해 나가는 과정에서 두 단어는 점차 가까운 벡터를 지닐 수 있다. 특징벡터 산출모듈(106-2)은 Word2Vec 모델의 학습 방법으로서 CBOW(Continous Bag Of Words) 방식과 Skip-gram 방식 중 어느 한 방식을 사용할 수 있다. 또한, FastText 모델은 Word2Vec 모델의 개량된 알고리즘으로, 단어를 구성하는 subwords (substrings)의 벡터의 합으로 임베딩 벡터를 표현한다. 이에 따르면, FastText 모델은 오자(typo)가 있는 단어라 할지라도 비슷한 워드 표현(word representation)을 생성하며, 새로운 단어에 대해서도 단어의 형태적 유사성을 고려한 적절한 임베딩 벡터를 생성할 수 있도록 한다. 또한, Glove 모델은 임베딩된 두 단어벡터의 내적이 말뭉치 전체에서의 동시 등장확률 로그값이 되도록 목적함수를 정의함으로써, 임베딩된 단어벡터 간 유사도 측정을 용이하게 하고, 아울러 말뭉치 전체의 통계 정보를 보다 유효하게 반영할 수 있도록 하는 임베딩 모델이다. Here, the embedding model may include a Word2Vec model, a FastText model, and a Glove model. The Word2Vec model can learn the meaning of words by using the relationship between words in the sentence of the input corpus and adjacent words. Words with related meanings are likely to appear close to each other on the document, so in the process of repeating learning, the two words can gradually have a vector that is close. The feature vector calculation module 106-2 may use one of a continuous bag of words (CBOW) method and a skip-gram method as a learning method of the Word2Vec model. In addition, the FastText model is an improved algorithm of the Word2Vec model, which expresses an embedding vector as the sum of vectors of subwords (substrings) constituting a word. According to this, the FastText model generates a similar word representation even for words with typos, and makes it possible to generate an appropriate embedding vector considering the morphological similarity of words for new words. In addition, the Glove model makes it easy to measure the similarity between the embedded word vectors by defining the objective function so that the dot product of the two embedded word vectors becomes the log value of the probability of simultaneous appearance in the entire corpus. It is an embedding model that can be effectively reflected.

워드 임베딩 메트릭스는 상품군 코퍼스정보의 입력에 대하여 k-dimension에 해당하는 밀집 벡터를 출력할 수 있도록 하는 임베딩 모델의 가중치 메트릭스를 의미한다. 특징벡터 산출모듈(106-2)은 표 2에 도시된 바와 같이 전처리 모듈(106-1)에서 전처리된 단어들의 원핫 인코딩 벡터를 임베딩 모델에 의해 모델링된 워드 임베딩 메트릭스에 인가함으로써, 전처리된 단어들에 대응하는 임베딩 벡터를 각각 산출할 수 있다. 이때, 특징벡터 산출모듈(106-2)에 의해 산출되는 임베딩 벡터의 k-dimension은 100 차원 내지 300차원일 수 있다. The word embedding matrix refers to a weight matrix of an embedding model that enables a dense vector corresponding to k-dimension to be output with respect to the input of product group corpus information. As shown in Table 2, the feature vector calculation module 106-2 applies the onehot encoding vector of words preprocessed in the preprocessing module 106-1 to the word embedding matrix modeled by the embedding model, thereby preprocessing words. It is possible to calculate each embedding vector corresponding to. In this case, the k-dimension of the embedding vector calculated by the feature vector calculation module 106-2 may be 100 to 300 dimensions.

또한, 특징벡터 산출모듈(106-2)은 사전학습(Pre-training) 모델을 이용해 전처리 단어들에 대한 임베딩 벡터를 추출할 수 있다. 여기서, 사전학습(Pre-training) 모델은 거대 말뭉치를 이용하여 단어들에 대해 사전에 학습된 모델로서, 이때, 거대 말뭉치에는 상품군 코퍼스정보가 포함될 수도 있다. 이러한, 사전 학습 모델은 예를 들어, BERT(Bidirectional Encoder Representations from Transformers), RoBERTa, DistilBERT, ELMO, XLNet 등의 딥러닝 모델을 포함할 수 있다. In addition, the feature vector calculation module 106-2 may extract embedding vectors for pre-processed words using a pre-training model. Here, the pre-training model is a model that is pre-trained on words using a giant corpus, and in this case, the giant corpus may include product group corpus information. Such a pre-learning model may include, for example, a deep learning model such as Bidirectional Encoder Representations from Transformers (BERT), RoBERTa, DistilBERT, ELMO, and XLNet.

특징벡터 산출모듈(106-2)은 BERT(Bidirectional Encoder Representations from Transformers), RoBERTa, DistilBERT, ELMO, XLNet 등의 딥러닝 모델에 상품군 코퍼스정보가 포함된 거대 말뭉치를 인가하여 단어들에 대한 사전 학습을 수행한다. 그 후, 특징벡터 산출모듈(106-2)은 학습에 의해 훈련된 사전 학습(Pre-training) 모델에 전처리 모듈(106-1)에서 전처리된 단어들을 인가하여 임베딩 벡터를 각각 추출할 수 있다. The feature vector calculation module 106-2 applies a large corpus containing product group corpus information to deep learning models such as BERT (Bidirectional Encoder Representations from Transformers), RoBERTa, DistilBERT, ELMO, XLNet, etc. to perform pre-learning of words. Perform. Thereafter, the feature vector calculation module 106-2 may extract each embedding vector by applying words preprocessed in the preprocessing module 106-1 to the pre-training model trained by learning.

특징벡터 산출모듈(106-2)에서 산출된 특징벡터는 반응정보 추출부(108)의 입력값으로서 사용되며, 이때, 특징벡터의 차원은 반응정보 추출부(108)의 입력값의 크기에 해당한다. 따라서, 특징벡터 산출모듈(106-2)은 반응정보 추출부(108)의 머신러닝 모델 구현에 따라 입력값 크기에 대응하는 특징벡터가 되도록 특징벡터의 차원을 매칭시킬 수 있다.The feature vector calculated by the feature vector calculation module 106-2 is used as an input value of the reaction information extraction unit 108, and the dimension of the feature vector corresponds to the size of the input value of the reaction information extraction unit 108 do. Accordingly, the feature vector calculation module 106-2 may match the dimension of the feature vector to become a feature vector corresponding to the size of the input value according to the machine learning model implementation of the response information extraction unit 108.

반응정보 추출부(108)는 산출된 특징 벡터를 머신러닝 모델 중 제1 모델에 인가하여, 체험 대상상품의 체험에 따라 카테고리별로 분류된 체험 반응정보를 추출한다. 반응정보 추출부(108)의 추출 결과(OUT1)는 제어부(112)로 전달되며, 또한, 감성정보 추출부(110)로 전달될 수 있다.The response information extraction unit 108 applies the calculated feature vector to the first model among the machine learning models, and extracts the experience response information classified by category according to the experience of the experience target product. The extraction result OUT1 of the reaction information extraction unit 108 may be transmitted to the control unit 112 and may also be transmitted to the emotion information extraction unit 110.

반응정보 추출부(108)는 입력층, 은닉층 및 출력층으로 구성된 제1 모델을 포함할 수 있으며, 이러한 제1 모델은 순전파(Forward Propagation)와 역전파(Back Propagation)를 통해 학습된 모델일 수 있다. 순전파(Forward Propagation)는 입력층에서 출력층 방향으로 가중치를 조정하며 연산을 수행하는 과정이며, 역전파(Back Propagation)는 출력층에서 입력층의 방향으로 오차를 반영하여 가중치를 재 조정하는 연산 과정을 의미한다. 여기서, 입력층은 특징벡터가 reshape 함수에 의해 재정렬되어 입력되는 층일 수 있고, 출력층은 입력층에 입력된 특징벡터가 분류되어 체험 반응정보로 출력되는 층이다. 또한, 은닉층이 심층 신경망으로 입력층과 출력층 사이에 배치되어 머신러닝 또는 딥러닝 모델을 형성하는 층일 수 있다. The response information extraction unit 108 may include a   first model composed of   input layer, hidden layer and output layer, and this first model is   learned   model through forward propagation and back propagation. have. Forward propagation is a process of adjusting weights from the input layer to the output layer and performing calculations, and back propagation is a process of re-adjusting the weights by reflecting errors in the direction of the input layer from the output layer. it means. Here, the input layer may be a layer in which feature vectors are rearranged and input by a reshape function, and the output layer is a layer in which feature vectors input to the input layer are classified and output as experience response information. In addition, the hidden layer may be a layer used as a   deep neural network   disposed between the input layer and the output layer to form a machine learning or deep learning model.

제1 모델은 지도 학습모델 또는 비지도 학습모델일 수 있다. 지도 학습모델은 학습을 위해 수집된 빅데이터가 학습에 따른 정답에 해당하는 레이블 정보를 포함하고 있으며, 비지도 학습모델은 레이블이 없이 학습한 모델을 의미한다. 제1 모델이 지도 학습모델 또는 비지도 학습모델로 구축되기 위해서 온라인 상의 다양한 사이트들에서 상품군 체험 데이터가 수집될 수 있다. 여기서, 해당 사이트들은 구글, 네이버, 다음 등과 같은 검색 포탈 사이트가 될 수도 있고, 상품군에 따른 판매 사이트의 커뮤니티 사이트에 해당할 수도 있고, 또한, 해당 상품군 별 온라인 카페 사이트일 수도 있고, 동영상 공유 사이트(유튜브)에서 수집된 음성정보가 텍스트 정보로 변환된 것일 수도 있다. The first model may be a supervised learning model or an unsupervised learning model. The supervised learning model includes label information corresponding to the correct answer according to the big data collected for learning, and the unsupervised learning model refers to a model that is trained without a label. In order to build the first model as a supervised learning model or an unsupervised learning model, product group experience data may be collected from various online sites. Here, the sites may be search portal sites such as Google, Naver, Daum, etc., may correspond to community sites of sales sites according to product groups, and may also be online cafe sites for each product group, or video sharing sites ( Youtube) may be converted to text information.

제1 모델은 모델링을 위해, 수집되는 상품군 체험 데이터를 훈련 데이터, 검증 데이터 및 테스트 데이터로 구분할 수 있다. 훈련 데이터는 제1 모델의 모델링을 위해 훈련하기 위한 데이터이고, 테스트 데이터는 훈련된 제1 모델의 모델링의 정확도 등을 평가하기 위한 데이터이다. 또한, 검증용 데이터는 모델의 성능을 평가하기 위한 용도가 아니라, 모델의 성능을 조정하기 위한 용도이다. 훈련용 데이터로 훈련을 모두 시킨 모델은 검증용 데이터를 사용하여 정확도를 검증하며 하이퍼 파라미터를 튜닝(tuning)한다. 검증이 끝났다면 테스트용 데이터를 가지고 모델의 성능을 평가한다. 만약, 검증 데이터와 테스트 데이터를 나눌 만큼 데이터가 충분하지 않다면 k-폴드 교차 검증 등을 사용할 수도 있다. The first model may divide the collected product group experience data into training data, verification data, and test data for modeling. The training data is data for training to model the first model, and the test data is data for evaluating the accuracy of modeling of the trained first model. In addition, the verification data is not for evaluating the performance of the model, but for adjusting the performance of the model. A model that has been trained with training data verifies accuracy using the verification data and tunes hyperparameters. Once verification is complete, evaluate the model's performance with the test data. If there is not enough data to divide the verification data and test data, k-fold cross verification can be used.

제1 모델은, 모델링에 사용되는 상품군 체험 데이터에 속하는 훈련 데이터와 테스트 데이터가 상기 상품군 코퍼스정보에 의해 정제된 후, 정제된 상기 훈련 데이터와 상기 테스트 데이터의 적용을 통해 상기 체험 대상상품의 체험에 따른 상기 체험 반응정보를 카테고리별로 분류하도록 모델링된 것일 수 있다. In the first model, training data and test data belonging to the product group experience data used for modeling are refined by the product group corpus information, and then the refined training data and the test data are applied to the experience of the experience target product. It may be modeled to classify the experience response information according to each category.

전술한 전처리 모듈(106-1)은 상품군 체험 데이터에 속하는 훈련 데이터와 테스트 데이터에 대해 상품군 코퍼스 정보를 이용하여 정제할 수 있다. 즉, 전처리 모듈(106-1)은 제1 모델을 위한 훈련 데이터와 테스트 데이터에 대해 상품군 코퍼스정보를 적용해 형태소 토큰화를 수행하고, 단어 정규화 프로그램에 의해 어간 추출(stemming) 또는 표제어 추출(lemmatiztion)을 수행하고, 품사(POS) 태깅 프로그램을 이용하여 단어들에 대한 품사 태깅을 수행하며, 단어들 중에서 불필요한 단어가 포함되어 있는 경우에는 불용어를 제거하고, 각 단어들에 대해 개체명 인식 프로그램을 이용하여 개체명을 부여하는 작업을 수행할 수 있다. The above-described preprocessing module 106-1 may refine training data and test data belonging to product group experience data using product group corpus information. That is, the preprocessing module 106-1 performs morpheme tokenization by applying product group corpus information to the training data and test data for the first model, and stems stem extraction (stemming) or headword extraction (lemmatiztion) by a word normalization program. ), and performs part-of-speech tagging for words using a POS tagging program, removes stopwords when unnecessary words are included among words, and executes an entity name recognition program for each word. You can perform the task of assigning an entity name by using.

제1 모델은 체험 대상상품의 체험에 따른 기능적 반응정보, 상기 체험 대상상품의 체험에 따른 촉각적 반응정보, 상기 체험 대상상품의 체험에 따른 시각적 반응정보, 상기 체험 대상상품과 다른 상품들 사이의 가치 비교에 따른 상품비교 반응정보, 및 상기 체험 대상상품의 가격에 대한 가격 반응정보 중 적어도 하나 이상의 반응정보 카테고리별로 분류하도록 모델링된 것일 수 있다. The first model includes functional response information according to the experience of the experience target product, tactile response information according to the experience of the experience target product, visual response information according to the experience of the experience target product, and between the experience target product and other products. It may be modeled to classify by at least one or more reaction information categories among product comparison reaction information according to value comparison and price reaction information for the price of the experience target product.

제1 모델은 체험 대상상품의 체험에 따라 추출되는 체험 반응정보에 대하여, 카테고리별 분류 중 기능적 반응정보로 분류하기 위해 상품군 코퍼스정보의 기능 표현용어를 이용하여 모델링된 것이며, 카테고리별 분류 중 촉각적 반응정보로 분류하기 위해 상품군 코퍼스정보의 촉각 표현용어를 이용하여 모델링된 것이며, 카테고리별 분류 중 시각적 반응정보로 분류하기 위해 상품군 코퍼스정보의 시각 표현용어를 이용하여 모델링된 것일 수 있다. 또한, 제1 모델은 체험 반응정보에 대하여, 카테고리별 분류 중 상품비교 반응정보 또는 가격 반응정보로 분류하기 위해 상품군 코퍼스정보의 전문 용어, 성분 용어, 기능 표현용어, 촉각 표현용어, 시각 표현용어 등을 이용하여 모델링된 것일 수 있다.The first model is modeled using the functional expression terminology of the corpus information of the product group in order to classify the experience response information extracted according to the experience of the experience target product as functional response information among the classifications by category, and In order to classify it as reaction information, it is modeled using the tactile expression terminology of the product group corpus information, and it may be modeled using the visual expression terminology of the product group corpus information to classify it as visual response information among categories. In addition, the first model is to classify experiential response information as product comparison response information or price response information among categories, such as terminology, component terms, functional expression terms, tactile expression terms, visual expression terms, etc. It may be modeled using.

예를 들어, 제1 모델은 체험 대상상품이 전자기기 상품군인 경우에, 상품군 코퍼스정보로서 다양한 전자기기들의 브랜드, 전자기기들의 상품명, 전자기기들의 개체명, 전자기기들에서 사용되는 전문 용어, 전자기기들의 체험에 따른 기능 표현용어, 촉각 표현용어 또는 시각 표현용어 등을 사용하여 모델링된 것일 수 있다. 또한, 체험 대상상품이 생활용품 상품군인 경우에, 제1 모델은 상품군 코퍼스정보로서 다양한 생활용품들의 브랜드, 생활용품들의 상품명, 생활용품들의 개체명, 생활용품들에서 사용되는 전문 용어, 생활용품들의 체험에 따른 기능 표현용어, 촉각 표현용어 또는 시각 표현용어 등을 사용하여 모델링된 것일 수 있다. 또한, 체험 대상상품이 뷰티 상품군인 경우에, 제1 모델은 상품군 코퍼스정보로서 다양한 뷰티상품들의 브랜드, 뷰티상품들의 상품명, 뷰티상품들의 개체명, 뷰티상품들에서 사용되는 전문 용어, 뷰티상품들의 체험에 따른 기능 표현용어, 촉각 표현용어(예를 들어, 발림성, 유분감, 촉촉함 등)와 시각 표현용어(예를 들어, 화사함, 칙칙함, 어두움, 블링블링 등) 등을 사용하여 모델링된 것일 수 있다.For example, in the case where the product to be experienced is an electronic device product group, the first model is the product group corpus information, including brands of various electronic devices, product names of electronic devices, individual names of electronic devices, technical terms used in electronic devices, and electronic devices. It may be modeled using functional expression terms, tactile expression terms, or visual expression terms according to experiences of devices. In addition, when the product to be experienced is a household goods product group, the first model is the product group corpus information, which includes brands of various household goods, product names of household goods, individual names of household goods, terminology used in household goods, and household goods. It may be modeled using functional expression terms, tactile expression terms, or visual expression terms according to experience. In addition, when the product to be experienced is a beauty product group, the first model is the product group corpus information, and the brands of various beauty products, product names of beauty products, individual names of beauty products, terminology used in beauty products, and experience of beauty products It may be modeled using functional expression terms, tactile expression terms (e.g., spreadability, oiliness, moisture, etc.) and visual expression terms (e.g., brightness, dullness, darkness, bling bling, etc.).

제1 모델은 심층 신경망을 이용해 구현될 수 있다. 예를 들어, 제1 모델은 심층 신경망을 포함하는 모델로서 RNN(Recurrent Neural Network) 모델, LSTM(Long Short Term Memory networks) 모델, CNN(Convolution Neural Network) 모델, GRU(Gated Recurrent Unit) 모델, 또는 트랜스포머(Transformer) 모델 등으로 모델링 된 것일 수 있다.The first model can be implemented using a deep neural network. For example, the first model is a model including a deep neural network, a recurrent neural network (RNN) model, a long short term memory networks (LSTM) model, a convolution neural network (CNN) model, a gated recurrent unit (GRU) model, or It may be modeled with a transformer model or the like.

RNN 모델은 은닉층의 노드에서 활성화 함수를 통해 나온 결과값을 출력층 방향으로 전달하면서, 해당 결과값을 다시 은닉층 노드의 다음 계산의 입력으로 전달하는 순환구조를 갖는 심층신경망 모델이다. 도 6은 RNN 모델로 구현되는 제1 모델의 연산 방식을 도식화한 참조도이다. The RNN model is a deep neural network model with a cyclic structure in which the result value from the hidden layer node through the activation function is transferred to the output layer, and the result value is transferred back to the next calculation input of the hidden layer node. 6 is a reference diagram schematically illustrating an operation method of a first model implemented as an RNN model.

RNN 모델로 구현된 제1 모델은 RNN 모델의 입력층으로 특징정보 추출부(106)에서 추출된 특징 벡터(x)가 입력되면, RNN 모델의 출력층을 통해 체험 반응정보(y)를 출력한다. 이러한, 제1 모델은 RNN 모델로 구현할 경우에 관련 정보와 그 정보를 사용하는 지점 사이의 거리가 멀 경우 역전파시에 그래디언트가 점차 줄어 학습능력이 저하될 수 있으므로, 다음의 LSTM 모델로 구현될 수 있다.The first model implemented as an RNN model is an input layer of the RNN model, and when the feature vector (x) extracted by the feature information extraction unit 106 is input, the experience response information (y) is output through the output layer of the RNN model. When the first model is implemented as an RNN model, if the distance between the relevant information and the point where the information is used is long, the gradient gradually decreases during backpropagation and the learning ability may decrease, so the following LSTM model can be implemented. have.

LSTM 모델은 vanishing gradient problem을 해소하기 위해, RNN 모델의 히든 state에 cell-state를 추가한 구조로 중요한 정보만을 선택하여 다음 state에 전달할 수 있는 구조를 갖는다. cell state는 일종의 컨베이어 벨트 역할하기 때문에, state가 꽤 오래 경과하더라도 그래디언트가 비교적 전파가 잘 되게 특성이 있다. 도 7은 LSTM 모델로 구현되는 제1 모델의 연산 방식을 도식화한 참조도이다. In order to solve the vanishing gradient problem, the LSTM model has a structure in which cell-states are added to the hidden state of the RNN model. Only important information can be selected and transferred to the next state. Since the cell state acts as a kind of conveyor belt, even if the state elapses for quite a long time, the gradient is relatively well propagated. 7 is a reference diagram schematically illustrating an operation method of a first model implemented as an LSTM model.

LSTM 모델로 구현된 제1 모델은 각각의 LSTM 블록 내부에 재귀적 구조를 가진 기억소자(MemoryCell)와 입력게이트(Input Gate), 포겟 게이트(Forget Gate), 출력게이트(Output Gate) 3종류의 게이트 유닛들을 포함할 수 있다. LSTM 모델로 구현된 제1 모델의 경우에도 LSTM 모델의 입력층으로 특징 벡터(X)가 입력되면, 기억소자(MemoryCell)와 입력게이트(Input Gate), 포겟 게이트(Forget Gate), 출력게이트(Output Gate)를 거치면서 체험 반응정보를 출력한다. The first model implemented as an LSTM model consists of three types of gates: MemoryCell, Input Gate, Forget Gate, and Output Gate with a recursive structure inside each LSTM block. May contain units. Even in the case of the first model implemented as the LSTM model, when the feature vector (X) is input to the input layer of the LSTM model, the memory cell, input gate, forget gate, and output gate Gate) and outputs experience response information.

CNN 모델은 필터를 이용하여 텍스트를 분류하는 모델이다. 이를 위해, CNN으DMS은 컨볼루션 계층, 풀링 계층 및 풀리 커넥티드 계층으로 구성될 수 있다. 도 8은 CNN 모델로 구현되는 제1 모델의 연산 방식을 도식화한 참조도이다. The CNN model is a model that classifies text using filters. To this end, the CNN DMS may consist of a convolutional layer, a pooling layer, and a fully connected layer. 8 is a reference diagram schematically illustrating an operation method of a first model implemented as a CNN model.

CNN 모델로 구현된 제1 모델의 컨볼류션 계층은 입력값으로부터 유의미한 특성값을 추출하는 층이고, 풀링 계층은 특성값에 대한 서브샘플링(sub-sampling)을 수행하며, 풀리 커넥티드(Fully Connected) 계층은 체험 반응정보를 출력하기 위한 분류기로서 기능한다.The convolutional layer of the first model implemented as a CNN model is a layer that extracts meaningful feature values from input values, and the pooling layer performs sub-sampling on the feature values, and is fully connected. ) The layer functions as a classifier to output experiential reaction information.

GRU 모델은 LSTM의 장기 의존성 문제에 대한 해결책을 유지하면서, 은닉 상태를 업데이트 계산을 줄인 모델이다. 도 9는 GRU 모델로 구현되는 제1 모델의 연산 방식을 도식화한 참조도이다. The GRU model is a model that reduces the computation of updates to the hidden state while maintaining a solution to the long-term dependency problem of LSTM. 9 is a reference diagram schematically illustrating an operation method of a first model implemented as a GRU model.

GRU 모델로 구현된 제1 모델은 LSTM 모델에서는 출력, 입력, 삭제 게이트라는 3개의 게이트 대신에 업데이트 게이트와 리셋 게이트라는 2개의 게이트만을 포함할 수 있다. GRU 모델로 구현된 제1 모델의 경우에도 GRU 모델의 입력층으로 특징 벡터가 입력되면, 업데이트 게이트와 리셋 게이트를 거치면서 출력층을 통해 체험 반응정보를 출력한다. The first model implemented as a GRU model may include only two gates, an update gate and a reset gate, instead of three gates, output, input, and erase gates in the LSTM model. Even in the case of the first model implemented as the GRU model, when a feature vector is input to the input layer of the GRU model, experience reaction information is output through the output layer while passing through the update gate and the reset gate.

트랜스포머 모델은 seq2seq처럼 인코더에서 입력 시퀀스를 입력받고, 디코더에서 출력 시퀀스를 출력하는 인코더-디코더 구조를 갖는 심층신경망 모델이다. 도 10은 트랜스포머 모델로 구현되는 제1 모델의 연산 방식을 도식화한 참조도이다. 이러한 트랜스포머 모델은 인코더와 디코더가 각각 m개가 존재할 수 있다. The transformer model is a deep neural network model that has an encoder-decoder structure that receives an input sequence from an encoder and outputs an output sequence from a decoder, like seq2seq. 10 is a reference diagram schematically illustrating an operation method of a first model implemented as a transformer model. In this transformer model, there may be m encoders and decoders.

트랜스포머 모델은 단어의 위치 정보를 얻기 위해서 각 단어의 임베딩 벡터에 위치 정보들을 더하여 모델의 입력으로 사용하는데, 이를 포지셔널 인코딩(positional encoding)이라고 한다. 트랜스포머 모델은 포지셔널 인코딩정보를 임베딩 벡터와 연산하고, 연산된 값을 인코더의 입력값으로 사용할 수 있다. 트랜스포머 모델을 구성하는 복수개의 인코더들과 디코더들는 각각 어텐션을 사용해 구현된 것일 수 있다. 인코더는 멀티헤드 셀프 어텐션(Multi-Head Self-Attention)과 피드 포워드 신경망 등으로 구성된 것이고, 디코더는 멀티헤드 어텐션(Multi-Head Attention), 마스크드 멀티헤드 셀프 어텐션(Masked Multi-Head Self-Attention) 및 피드 포워드 신경망 등으로 구성된 것이다. The transformer model adds positional information to the embedding vector of each word and uses it as an input of the model to obtain positional information of the word, which is called positional encoding. The transformer model can calculate the positional encoding information with the embedding vector and use the calculated value as an input value of the encoder. A plurality of encoders and decoders constituting the transformer model may be implemented using attention, respectively. The encoder is composed of Multi-Head Self-Attention and a feed forward neural network, and the decoder is Multi-Head Attention, Masked Multi-Head Self-Attention. And a feed forward neural network.

제1 모델이 트랜스포머 모델로 구현될 경우에, 하이퍼파라미터는 다음과 같은 것들을 정의할 수 있다. dmodel는 트랜스포머 모델의 인코더와 디코더에서의 정해진 입력과 출력의 크기를 의미하는 것으로, 256, 512, 1024 등의 값을 가질 수 있으며, 임베딩 벡터의 크기 또한 이러한 값을 갖는다. num_layers는 트랜스포머 모델에서 인코더와 디코더의 층을 의미하는 것으로, 6 내지 12개로 구성될 수 있다. num_heads는 트랜스포머 모델에서 어텐션을 사용할 때, 입력 정보를 여러 개로 분할해서 병렬로 어텐션을 수행하고 결과값을 다시 하나로 합치는 방식을 수행할 때, 병렬 처리의 개수를 의미한다. dff는 트랜스포머 모델 내부에 존재하는 피드 포워드 신경망 즉, 은닉층의 크기를 의미하는 것으로, 1024, 2048 등이 사용될 수 있다. When the first model is implemented as a transformer model, the hyperparameter can define the following. d model means the size of input and output determined by the encoder and decoder of the transformer model, and can have values such as 256, 512, 1024, etc., and the size of the embedding vector also has these values. num_layers means layers of an encoder and a decoder in the transformer model, and may be composed of 6 to 12 layers. When using attention in a transformer model, num_heads refers to the number of parallel processing when performing attention in parallel by dividing input information into several pieces and combining the result values into one. d ff denotes the size of the feed forward neural network, that is, the hidden layer existing inside the transformer model, and 1024, 2048, etc. may be used.

제1 모델은 RNN 모델, LSTM 모델, CNN 모델, GRU 모델, 또는 트랜스포머(Transformer) 모델에서 사용되는 활성화 함수로서 소프트맥스(Softmax) 함수, 하이퍼볼릭 탄젠트(Hyperbolic Tangent) 함수, 시그모이드(Sigmoid) 함수, 렐루(ReLU) 함수 또는 리키렐루(Leaky ReLU) 함수를 사용하여 모델링된 것일 수 있다.The first model is an activation function used in an RNN model, an LSTM model, a CNN model, a GRU model, or a transformer model.Softmax function, Hyperbolic Tangent function, Sigmoid It may be modeled using a function, a ReLU function, or a Leaky ReLU function.

소프트맥스(Softmax) 함수는 분류하고자 하는 클래스가 k개일 때, k차원의 벡터를 입력받아서 모든 벡터 원소의 값을 0과 1사이의 값으로 값을 변경하여 다시 k차원의 벡터를 리턴하는 함수이다. 다음의 수학식 1은 소프트맥스 함수를 나타내는 수식이다.When there are k classes to be classified, the Softmax function is a function that receives k-dimensional vectors, changes the values of all vector elements to values between 0 and 1, and returns k-dimensional vectors again. . Equation 1 below is an equation representing a softmax function.

Figure 112020071115719-pat00001
Figure 112020071115719-pat00001

n차원의 벡터에서 k번째 원소를 ak라 하고, k번째 클래스가 정답일 확률인 yk를 소프트맥스 함수로 정의할 수 있다. In an n-dimensional vector, the k-th element is called a k , and y k , which is the probability that the k-th class is the correct answer, can be defined as a softmax function.

시그모이드(Sigmoid) 함수는 입력값(x))에 대해 출력값을 0 또는 1의 값으로 출력하는 함수를 의미한다. 다음의 수학식 2는 시그모이드 함수를 나타내는 수식이다.The sigmoid function refers to a function that outputs an output value of 0 or 1 for an input value (x)). Equation 2 below is an equation representing the sigmoid function.

Figure 112020071115719-pat00002
Figure 112020071115719-pat00002

시그모이드(Sigmoid) 함수는 역전파 과정에서 0에 가까운 아주 작은 기울기가 곱해지게 되면, 앞단에는 기울기가 잘 전달되지 않게 되는 기울기 소실(Vanishing Gradient) 문제가 발생할 수 있으므로, 이를 대신하여 후술하는 렐루(ReLU) 함수를 사용할 수도 있다. When the sigmoid function is multiplied by a very small slope close to zero in the backpropagation process, a vanishing gradient problem may occur in which the slope is not transmitted well at the front end. You can also use the (ReLU) function.

하이퍼볼릭 탄젠트(Hyperbolic Tangent) 함수는 입력값(x)을 -1과 1사이의 값으로 변환하는 함수이다. 다음의 수학식 3은 하이퍼볼릭 탄젠트 함수를 나타내는 수식이다.The Hyperbolic Tangent function converts the input value (x) into a value between -1 and 1. The following Equation 3 is an equation representing the hyperbolic tangent function.

Figure 112020071115719-pat00003
Figure 112020071115719-pat00003

하이퍼볼릭탄젠트 함수는 시그모이드 함수와는 달리 반환값의 변화폭이 더 크기 때문에, 시그모이드 함수보다는 기울기 소실 문제가 적은 편이다. Unlike the sigmoid function, the hyperbolic tangent function has a larger variation in the return value, so it tends to have fewer gradient loss problems than the sigmoid function.

렐루(ReLU) 함수는 음수를 입력하면 0을 출력하고, 양수(x)를 입력하면 입력값을 그대로 반환한다. 다음의 수학식 4는 렐루 함수를 나타내는 수식이다.The ReLU function outputs 0 when a negative number is input, and returns the input value as it is when a positive number (x) is input. The following Equation 4 is an equation representing a relu function.

Figure 112020071115719-pat00004
Figure 112020071115719-pat00004

렐루 함수는 특정 양수값에 수렴하지 않으므로 심층 신경망에서 시그모이드 함수보다 훨씬 더 유용하며, 연산 속도도 우수하다. Since the relu function does not converge to a specific positive value, it is much more useful than the sigmoid function in deep neural networks, and has excellent computation speed.

리키렐루(Leaky ReLU) 함수는 입력값(x)이 음수일 경우에 0이 아니라 0.001과 같은 매우 작은 수를 반환하는 함수이다. 다음의 수학식 5는 리키렐루 함수를 나타내는 수식이다.The Leaky ReLU function is a function that returns a very small number such as 0.001 instead of 0 when the input value (x) is negative. The following Equation 5 is an equation representing the Likirelu function.

Figure 112020071115719-pat00005
Figure 112020071115719-pat00005

a는 하이퍼파라미터로 Leaky 정도를 결정하며 예를 들어, 0.01의 값을 가질 수 있다. a is a hyperparameter that determines the degree of leaky, and can have a value of 0.01, for example.

제1 모델은 딥러닝 모델로 구축하는 경우에 손실 함수(loss function)로서 평균 제곱 오차(MSE: Mean Squared Error) 함수 또는 크로스 엔트로피(Cross Entropy) 함수 등을 사용할 수 있다.When the first model is constructed as a deep learning model, a mean squared error (MSE) function or a cross entropy function may be used as a loss function.

평균 제곱 오차(MSE: Mean Squared Error) 함수는 연속형 변수를 예측하기 위해 사용될 수 있다. 다음의 수학식 6은 평균 제곱 오차(MSE) 함수를 나타내는 수식이다.The Mean Squared Error (MSE) function can be used to predict a continuous variable. Equation 6 below is an equation representing the mean square error (MSE) function.

Figure 112020071115719-pat00006
Figure 112020071115719-pat00006

yk는 출력값(예측값)을 의미하고, tk는 실제값(정답)을 의미한다.y k means the output value (predicted value), and t k means the actual value (correct answer).

크로스 엔트로피(Cross Entropy) 함수는 정답일 때의 출력값이 전체값이 되도록 하는 함수이다. 다음의 수학식 7은 크로스 엔트로피 함수를 나타내는 수식이다.The Cross Entropy function is a function that makes the output value of the correct answer become the entire value. The following Equation 7 is an equation representing a cross entropy function.

Figure 112020071115719-pat00007
Figure 112020071115719-pat00007

로그의 밑은 자연상수 e이고, tk는 원핫 벡터의 k번째 레이블(정답)을 나타내며, yk는 출력값(확률값)을 나타낸다. The base of the logarithm is the natural constant e, t k represents the k-th label (correct answer) of the one-hot vector, and y k represents the output value (probability value).

또한, 제1 모델은 손실 함수를 최소화하는 학습방법인 옵티마이저(Optimizer)를 수행하게 되는데, 이때, 옵티마이저 방식으로서, 배치 경사 하강법(Batch Gradient Descent), 확률적 경사 하강법(Stochastic Gradient Descent, SGD), 미니 배치 경사 하강법(Mini-Batch Gradient Descent), 모멘텀(Momentum), 아다그라드(Adagrad), 알엠에스프롭(RMSprop), 아담(Adam) 중 어느 하나의 방식을 사용할 수 있다. 특히, 제1 모델은 아담(Adam)을 사용하는 것이 바람직하다.In addition, the first model performs an optimizer, a learning method that minimizes the loss function. In this case, as an optimizer method, batch gradient descent and stochastic gradient descent are performed. , SGD), Mini-Batch Gradient Descent, Momentum, Adagrad, RMSprop, and Adam. In particular, it is preferable to use Adam as the first model.

배치 경사 하강법(Batch Gradient Descent)은 오차(loss)를 구할 때 전체 데이터를 고려하는 것으로, 한 번의 에포크에 모든 매개변수 업데이트를 단 한 번 수행하는 옵티마이저 방식이다. 배치 경사 하강법은 전체 데이터를 고려해서 학습하므로 에포크당 시간이 오래 걸리지만, 글로벌 미니멈을 찾을 수 있는 장점이 있다. 확률적 경사 하강법(Stochastic Gradient Descent, SGD)은 매개변수 값을 조정 시 전체 데이터가 아니라 랜덤으로 선택한 하나의 데이터에 대해서만 계산하는 방법이다. 매개변수의 변경폭이 불안정하고, 때로는 배치 경사 하강법보다 정확도가 낮을 수도 있지만 속도만큼은 배치 경사 하강법보다 빠르다는 장점이 있다. 미니 배치 경사 하강법(Mini-Batch Gradient Descent)은 정해진 양에 대해서만 계산하여 매개 변수의 값을 조정하는 경사 하강법을 의미한다. 미니 배치 경사 하강법은 전체 데이터를 계산하는 것보다 빠르며, SGD보다 안정적이라는 장점이 있다. 모멘텀(Momentum)은 SGD에서 계산된 접선의 기울기에 한 시점(step) 전의 접선의 기울기값을 일정한 비율만큼 반영하는 방식이다. 모멘텀(Momentum)은 로컬 미니멈에 도달하였을 때, 값이 조절되면서 로컬 미니멈에서 탈출하는 효과를 얻을 수도 있다. 아다그라드(Adagrad)는 각 매개변수에 서로 다른 학습률을 적용시키는 방식으로, 변화가 많은 매개변수는 학습률이 작게 설정하고 변화가 적은 매개변수는 학습률을 높게 설정하는 방식이다. 알엠에스프롭(RMSprop)는 학습을 계속 진행한 경우에 나중에는 학습률이 지나치게 떨어지는 아다그라드의 단점을 보완하기 위해, 다른 수식으로 대체하여 이러한 단점을 개선한 방식이다. 아담(Adam)은 알엠에스프롭과 모멘텀 두 가지를 합친 듯한 방법으로, 방향과 학습률 두 가지를 모두 잡기 위한 방법이다. Batch Gradient Descent is an optimizer method that considers the entire data when calculating the loss, and performs all parameter updates once in a single epoch. The batch gradient descent method takes a long time per epoch because it learns by considering the entire data, but it has the advantage of finding a global minimum. Stochastic Gradient Descent (SGD) is a method of calculating only one randomly selected data rather than the entire data when adjusting the parameter value. The parameter variation is unstable, and sometimes the accuracy may be lower than that of the batch gradient descent method, but the speed is faster than the batch gradient descent method. Mini-Batch Gradient Descent refers to a gradient descent method that adjusts the value of a parameter by calculating only for a set amount. The mini-batch gradient descent method has the advantage of being faster than computing the entire data and more stable than SGD. Momentum is a method of reflecting the slope value of the tangent line one step before the slope of the tangent line calculated in SGD by a certain ratio. When the momentum reaches the local minimum, the value is adjusted to get the effect of escaping from the local minimum. In Adagrad, a different learning rate is applied to each parameter, and parameters with many changes are set to have a small learning rate, and parameters with small changes are set to have a high learning rate. RMSprop is a method that improves these shortcomings by replacing them with other formulas in order to compensate for the shortcomings of Adagrad, where the learning rate is too low in the future when learning continues. Adam is a method that seems to combine both RMS prop and momentum, and it is a method to capture both direction and learning rate.

또한, 제1 모델은 드롭아웃 방식이 적용된 모델일 수 있다. 드롭 아웃은 학습 과정에서 신경망의 일부를 사용하지 않는 방법이다. 드롭아웃은 학습 시에 인공 신경망이 특정 뉴런 또는 특정 조합에 너무 의존적이게 되는 것을 방지해주고, 매번 랜덤 선택으로 뉴런들을 사용하지 않으므로 서로 다른 신경망들을 앙상블하여 사용하는 것 같은 효과를 내어 과적합을 방지할 수 있다. 예를 들어, 드롭아웃의 비율을 0.5로 한다면 학습 과정마다 랜덤으로 절반의 뉴런을 사용하지 않고, 절반의 뉴런만을 사용하는 것을 말한다. 제1 모델은 신경망 학습 시에만 드롭 아웃 방식을 사용하고, 예측 시에는 사용하지 않을 수 있다. Also, the first model may be a model to which a dropout method is applied. Dropout is a method of not using parts of a neural network in the learning process. Dropout prevents the artificial neural network from becoming too dependent on a specific neuron or a specific combination during training, and since it does not use neurons with random selection each time, it has the same effect as using different neural networks in an ensemble to prevent overfitting. I can. For example, if the dropout ratio is 0.5, it means that half of the neurons are not used at random for each learning process, but only half of the neurons are used. The first model may use the dropout method only when training a neural network and not use it when predicting.

또한, 제1 모델은 가중치 초기화 방법으로, 세이비어 초기화(Xavier Initialization) 방식 또는 He 초기화(He initialization) 방식을 사용할 수 있다. 세이비어 초기화(Xavier Initialization)는 균등 분포(Uniform Distribution) 또는 정규 분포(Normal distribution)로 초기화 할 때 두 가지 경우로 나뉘며, 이전 층의 뉴런 개수와 다음 층의 뉴런 개수를 이용한다. 세이비어 초기화는 여러 층의 기울기 분산 사이에 균형을 맞춰서 특정 층이 너무 주목을 받거나 다른 층이 뒤쳐지는 것을 방지한다. He 초기화(He initialization)는 세이비어 초기화와 유사하게 정규 분포와 균등 분포 두 가지 경우로 나뉜다. 다만, He 초기화는 세이비어 초기화와 다르게 다음 층의 뉴런의 수를 반영하지 않는다. In addition, the first model is a weight initialization method, and may use an Xavier Initialization method or a He initialization method. Xavier Initialization is divided into two cases when initializing with Uniform Distribution or Normal distribution, and uses the number of neurons in the previous layer and the number of neurons in the next layer. Savior initialization balances the gradient variances of multiple layers to prevent certain layers from getting too much attention or from lagging behind others. He initialization, similar to Savior initialization, is divided into two cases: normal distribution and uniform distribution. However, unlike Savior initialization, He initialization does not reflect the number of neurons in the next layer.

제1 모델은 시그모이드 함수나 하이퍼볼릭 탄젠트 함수와 같은 S자 형태인 활성화 함수를 사용할 경우에는 세이비어 초기화 방식을 사용할 수 있으며, 렐루 함수 또는 리키렐루 함수 등을 활성화 함수로 사용할 경우에는 He 초기화 방식을 사용할 수 있다. In the first model, when using an S-shaped activation function such as a sigmoid function or a hyperbolic tangent function, a savior initialization method can be used, and when using a relu function or a lichirelu function as an activation function, he initializes. Method can be used.

반응정보 추출부(108)는 체험 대상상품이 뷰티상품에 해당하는 경우에, 전술한 제1 모델을 이용하여, 뷰티상품의 체험에 따른 기능적 반응정보, 뷰티상품의 체험에 따른 촉각적 반응정보, 시각적 반응정보, 상기 뷰티상품과 다른 뷰티상품들 사이의 가치 비교에 따른 상품비교 반응정보, 및 상기 뷰티상품의 가격에 대한 상기 가격 반응정보 등으로 분류된 체험 반응정보를 추출할 수 있다. When the experience target product corresponds to a beauty product, the reaction information extraction unit 108 uses the above-described first model to provide functional reaction information according to the experience of a beauty product, tactile reaction information according to the experience of the beauty product, Experience reaction information classified into visual reaction information, product comparison reaction information according to a value comparison between the beauty product and other beauty products, and the price reaction information on the price of the beauty product may be extracted.

촉각적 반응정보는 수분감, 발림성, 유분감, 끈적임 또는 잔여감 등을 포함하는 뷰티상품 체험정보이고, 시각적 반응정보는 밝음, 화사함, 무거움 또는 어두움 등을 포함하는 뷰티상품 체험정보이다. The tactile response information is beauty product experience information including moisture, application, oil, stickiness or residual sensation, and the visual response information is beauty product experience information including brightness, brightness, heaviness, or darkness.

발림성은 피부에 저항감 없이 고르게 발라지는 정도에 대한 반응정보를 의미하고, 수분감은 피부에서 느끼는 촉촉한 정도에 대한 반응정보를 의미한다. 또한, 잔여감은 뷰티상품이 피부에 남아있는 정도에 대한 반응정보를 의미하고, 유분감은 피부에 느껴지는 기름성분에 대한 반응정보를 의미한다. 또한, 상품비교 반응정보는 복수의 체험대상 뷰티상품들에 대해 체험자가 느끼는 촉각적, 시각적 가치 판단에 따른 반응정보를 의미한다. Applicability refers to reaction information on the degree to which the skin is applied evenly without any resistance, and moisture refers to reaction information on the degree of moisture felt on the skin. In addition, the residual sensation refers to reaction information on the degree to which the beauty product remains on the skin, and the oil sensation refers to the reaction information on the oil component felt on the skin. In addition, the product comparison reaction information refers to reaction information according to the tactile and visual value judgment that the experiencer feels for a plurality of experience target beauty products.

예를 들어, 텍스트 추출부(104)에서 도 4에 도시된 바와 같은 뷰티 상품에 대한 텍스트 정보를 추출하고, 특정정보 추출부(106)에서 이에 대응하는 특징정보를 산출하여 반응정보 추출부(108)에 입력되었다면, 반응정보 추출부(108)는 제1 모델을 이용하여, 뷰티 상품에 대한 텍스트 정보로부터 다음과 같은 기능적 반응정보, 촉각적 반응정보, 시각적 반응정보, 상품비교 반응정보, 또는 가격 반응정보 등의 체험 반응정보를 추출할 수 있다. 즉, 반응정보 추출부(108)는 표 1에서 문장 식별정보 0000, 0003, 0013으로 인덱스되는 분할 문장 각각에 대해 기능적 반응정보로 분류하여 추출하고, 문장 식별정보 0001, 0002, 0006, 0008로 인덱스되는 분할 문장 각각에 대해 시각적 반응정보로 분류하여 추출하고, 문장 식별정보 0007, 0010, 0011로 인덱스되는 분할 문장 각각에 대해 촉각적 반응정보로 분류하여 추출하고, 문장 식별정보 0004, 0005, 0009로 인덱스되는 분할 문장 각각에 대해 상품비교 반응정보로 분류하여 추출하고, 문장 식별정보 0012로 인덱스되는 분할 문장에 대해 가격 반응정보로 분류하여 추출할 수 있다.For example, the text extracting unit 104 extracts text information on the beauty product as shown in FIG. 4, and the specific information extracting unit 106 calculates feature information corresponding thereto, and the response information extracting unit 108 ), the reaction information extraction unit 108 uses the first model, and the following functional reaction information, tactile reaction information, visual reaction information, product comparison reaction information, or price Experience reaction information such as reaction information can be extracted. That is, the response information extraction unit 108 classifies and extracts each of the divided sentences indexed as sentence identification information 0000, 0003, and 0013 in Table 1 as functional response information, and indexes them with sentence identification information 0001, 0002, 0006, and 0008. Each divided sentence is classified and extracted as visual response information, and each divided sentence indexed with sentence identification information 0007, 0010, and 0011 is classified and extracted as tactile response information, and sentence identification information is divided into 0004, 0005, 0009. Each of the indexed split sentences may be classified and extracted as product comparison response information, and the split sentences indexed with sentence identification information 0012 may be classified and extracted as price response information.

감성정보 추출부(110)는 반응정보 추출부(108)에 의해 추출된 상기 체험 반응정보의 카테고리별 문장들에 대한 특징벡터들 각각을 머신러닝 모델 중 제2 모델에 인가하여, 긍정감성 카테고리, 부정감성 카테고리 및 중립감정 카테고리 중 적어도 하나 이상으로 분류된 체험 감성정보를 추출한다. 감성정보 추출부(108)의 추출 결과(OUT2)는 제어부(112)로 전달된다.The emotion information extraction unit 110 applies each of the feature vectors for the sentences of each category of the experiential response information extracted by the response information extraction unit 108 to a second model of the machine learning model, Experience emotional information classified into at least one or more of negative emotion categories and neutral emotion categories is extracted. The extraction result OUT2 of the emotion information extraction unit 108 is transmitted to the control unit 112.

긍정감성 카테고리에 해당하는 체험 감성정보는 추출된 체험 반응정보가 소비자의 호감을 표현하는 감성정보를 의미하고, 부정감성 카테고리에 해당하는 체험 감성정보는 추출된 체험 반응정보가 소비자의 불쾌감을 표현하는 감성정보를 의미하고, 중립감성 카테고리에 해당하는 체험 감성정보는 추출된 체험 반응정보가 소비자의 무반응을 표현하는 감성정보를 의미한다. Experience-sensitive information corresponding to the positive emotional category means emotional information in which the extracted experiential reaction information expresses the consumer's liking, and the experiential emotional information corresponding to the negative emotional information indicates that the extracted experiential reaction information expresses the consumer's discomfort. It means emotional information, and the experiential emotional information corresponding to the neutral emotional category means emotional information in which the extracted experiential reaction information expresses the non-response of the consumer.

제2 모델은 상품군 체험 데이터에 포함된 훈련 데이터와 테스트 데이터가 NLTK 코퍼스 정보 또는 KoNLPy 코퍼스 정보에 의해 정제된 후, 정제된 상기 훈련 데이터와 상기 테스트 데이터의 적용을 통해 상기 체험 반응정보에 대응하는 카테고리별 문장들을 상기 긍정감성 카테고리, 상기 부정감성 카테고리 및 상기 중립감성 카테고리 별로 분류하도록 모델링된 것일 수 있다.The second model is a category corresponding to the experience response information through application of the refined training data and the test data after the training data and test data included in the product group experience data are refined by NLTK corpus information or KoNLPy corpus information. It may be modeled to classify each sentence according to the positive emotion category, the negative emotion category, and the neutral emotion category.

상품군 체험 데이터에 포함된 훈련 데이터와 테스트 데이터가 영문 데이터인 경우에는, 해당 영문 데이터는 NLTK 코퍼스 정보를 이용하여 문장 분할, 단어 분할 및 텍스트 전처리 등의 정제 과정이 수행된 것일 수 있다. 또한, 상품군 체험 데이터에 포함된 훈련 데이터와 테스트 데이터가 국문 데이터인 경우에는, 해당 국문 데이터는 KoNLPy 코퍼스 정보를 이용하여 문장 분할, 단어 분할, 및 텍스트 전처리 과정 등의 정제 과정이 수행된 것일 수 있다. 여기서, 텍스트 전처리는 전술한 바와 같이, 어간 추출, 표제어 추출, 품사 태깅, 불용어 제거, 개체명 인식 등을 포함할 수 있다. When training data and test data included in the product group experience data are English data, the corresponding English data may be refined processes such as sentence segmentation, word segmentation, and text pre-processing using NLTK corpus information. In addition, when the training data and test data included in the product group experience data are Korean data, the Korean data may be refined processes such as sentence division, word division, and text pre-processing using KoNLPy corpus information. . Here, the text preprocessing may include stem extraction, headword extraction, part-of-speech tagging, stop word removal, and entity name recognition, as described above.

NLTK 코퍼스 정보 또는 KoNLPy 코퍼스 정보에 의해 정제된 훈련 데이터와 테스트 데이터가 모델링 대상이 되는 제2 모델에 적용되어, 일정 배치(Batch) 크기로 이터레이션(iteration)을 수행하고, 이를 일정 횟수 이상의 에포크(epoch)를 수행함으로써, 체험 반응정보에 대응하는 카테고리별 문장들을 긍정감성 카테고리, 부정감성 카테고리 및 중립감성 카테고리 별로 분류하도록 모델링될 수 있다.Training data and test data refined by NLTK corpus information or KoNLPy corpus information are applied to the second model to be modeled, and iteration is performed at a certain batch size, and this is epoch ( epoch), the sentences for each category corresponding to the experience response information may be modeled to be classified into a positive emotion category, a negative emotion category, and a neutral emotion category.

감성정보 추출부(110)는 입력층, 은닉층 및 출력층으로 구성된 제2 모델을 포함할 수 있으며, 입력층은 특징벡터가 reshape 함수에 의해 재정렬되어 입력되는 층일 수 있고, 출력층은 입력층에 입력된 특징벡터가 분류되어 체험 감성정보로 출력되는 층이다. 또한, 은닉층이 심층 신경망으로 입력층과 출력층 사이에 배치되어 머신러닝 또는 딥러닝 모델을 형성하는 층일 수 있다. The emotion information extraction unit 110 may include a second model composed of a   input layer, a hidden layer and an output layer, and the input layer may be a layer in which feature vectors are rearranged and input by a reshape function, and the output layer is input to the input layer. It is a layer in which feature vectors are classified and output as experience emotional information. In addition, the hidden layer may be a layer used as a   deep neural network   disposed between the input layer and the output layer to form a machine learning or deep learning model.

제2 모델의 모델링을 위해, 수집된 상품군 체험 데이터를 훈련 데이터, 검증 데이터 및 테스트 데이터로 구분할 수 있다. 제2 모델은, 모델링에 사용되는 상품군 체험 데이터에 속하는 훈련 데이터와 테스트 데이터가 상기 상품군 코퍼스정보에 의해 정제된 후, 정제된 상기 훈련 데이터와 상기 테스트 데이터의 적용을 통해 상기 체험 대상상품의 체험에 따른 상기 체험 감성정보를 카테고리별로 분류하도록 모델링된 것일 수 있다.For modeling the second model, the collected product group experience data may be divided into training data, verification data, and test data. In the second model, training data and test data belonging to the product group experience data used for modeling are refined by the product group corpus information, and then the refined training data and the test data are applied to the experience of the experience target product. It may be modeled to classify the experience emotional information according to each category.

제2 모델은 심층 신경망을 이용해 구현될 수 있다. 예를 들어, 제2 모델은 심층 신경망을 포함하는 모델로서 RNN 모델, LSTM 모델, CNN 모델, GRU 모델, 또는 트랜스포머 모델 등으로 모델링 된 것일 수 있다.The second model can be implemented using a deep neural network. For example, the second model is a model including a deep neural network and may be modeled as an RNN model, an LSTM model, a CNN model, a GRU model, or a transformer model.

RNN 모델로 구현된 제2 모델은 RNN 모델의 입력층으로 특징정보 추출부(106)에서 추출된 특징 벡터가 입력되면, RNN 모델의 출력층을 통해 체험 감성정보를 출력한다. 또한, LSTM 모델로 구현된 제2 모델은 LSTM 모델의 입력층으로 특징 벡터가 입력되면, 기억소자(MemoryCell)와 입력게이트(Input Gate), 포겟 게이트(Forget Gate), 출력게이트(Output Gate)를 거치면서 체험 감성정보를 출력한다. 또한, CNN 모델로 구현된 제2 모델의 컨볼류션 계층의 입력값으로 특징벡터가 입력되면, 풀링 계층을 통해 서브샘플링(sub-sampling)을 수행하고, 풀리 커넥티드(Fully Connected) 계층을 통해 체험 감성정보를 출력한다. 또한, GRU 모델로 구현된 제2 모델은 입력층으로 특징 벡터가 입력되면, 업데이트 게이트와 리셋 게이트를 거치면서 출력층을 통해 체험 감성정보를 출력한다. 또한, 트랜스포머 모델로 구현된 제2 모델은 복수개의 인코더와 디코더의 은닉층을 거치면서 최종적으로 체험 감성정보를 출력한다. The second model implemented as the RNN model is an input layer of the RNN model, and when the feature vector extracted by the feature information extraction unit 106 is input, the experience emotional information is output through the output layer of the RNN model. In addition, in the second model implemented as an LSTM model, when a feature vector is input to the input layer of the LSTM model, a memory cell, an input gate, a forget gate, and an output gate are connected. It outputs the emotional information of the experience while passing through it. In addition, when a feature vector is input as an input value of the convolution layer of the second model implemented as a CNN model, sub-sampling is performed through the pooling layer, and the fully connected layer is used. Outputs experience-sensitive information. In addition, in the second model implemented as the GRU model, when a feature vector is input to the input layer, experience emotion information is output through the output layer while passing through an update gate and a reset gate. In addition, the second model implemented as a transformer model passes through the hidden layers of a plurality of encoders and decoders, and finally outputs experience-sensitive information.

제2 모델은 심층 신경망의 활성화 함수로서 소프트맥스(Softmax) 함수, 하이퍼볼릭 탄젠트(Hyperbolic Tangent) 함수, 시그모이드(Sigmoid) 함수, 렐루(ReLU) 함수 또는 리키렐루(Leaky ReLU) 함수를 사용하여 모델링된 것일 수 있다. 또한, 제2 모델은 딥러닝 모델로 구축하는 경우에 손실 함수(loss function)로서 평균 제곱 오차(MSE: Mean Squared Error) 함수 또는 크로스 엔트로피(Cross Entropy) 함수 등을 사용할 수 있다.The second model uses the Softmax function, Hyperbolic Tangent function, Sigmoid function, ReLU function, or Leaky ReLU function as the activation function of the deep neural network. It may be modeled. In addition, when the second model is constructed as a deep learning model, a mean squared error (MSE) function or a cross entropy function may be used as a loss function.

또한, 제2 모델은 손실 함수를 최소화하는 학습방법인 옵티마이저(Optimizer)를 수행을 위해, 배치 경사 하강법(Batch Gradient Descent), 확률적 경사 하강법(Stochastic Gradient Descent, SGD), 미니 배치 경사 하강법(Mini-Batch Gradient Descent), 모멘텀(Momentum), 아다그라드(Adagrad), 알엠에스프롭(RMSprop), 아담(Adam) 중 어느 하나의 방식을 사용할 수 있다.In addition, the second model is a batch gradient descent method, stochastic gradient descent (SGD), and a mini-batch gradient to perform the optimizer, a learning method that minimizes the loss function. Any one of the methods of descent (Mini-Batch Gradient Descent), Momentum, Adagrad, RMSprop, and Adam can be used.

또한, 제2 모델은 드롭아웃 방식이 적용된 모델일 수 있으며, 가중치 초기화 방법으로, 세이비어 초기화(Xavier Initialization) 방식 또는 He 초기화(He initialization) 방식을 사용할 수 있다. 제2 모델의 경우에도 시그모이드 함수나 하이퍼볼릭 탄젠트 함수와 같은 S자 형태인 활성화 함수를 사용할 경우에는 세이비어 초기화 방식을 사용할 수 있으며, 렐루 함수 또는 리키렐루 함수 등을 활성화 함수로 사용할 경우에는 He 초기화 방식을 사용할 수 있다. In addition, the second model may be a model to which a dropout method is applied, and as a weight initialization method, an Xavier Initialization method or a He initialization method may be used. Even in the case of the second model, when an S-shaped activation function such as a sigmoid function or a hyperbolic tangent function is used, the savior initialization method can be used. He initialization method can be used.

감성정보 추출부(110)는 전술한 바와 같이 모델링된 제2 모델을 사용하여, 체험 반응정보에 속하는 기능적 반응정보, 촉각적 반응정보, 시각적 반응정보, 상품 비교 반응정보 또는 가격 반응정보 각각에 대응하는 문장들에 대하여 긍정감성 카테고리, 부정감성 카테고리 및 중립감성 카테고리 중 어느 하나로 분류된 체험 감성정보를 추출할 수 있다.Using the second model modeled as described above, the emotional information extraction unit 110 responds to each of functional reaction information, tactile reaction information, visual reaction information, product comparison reaction information, or price reaction information belonging to the experience reaction information. With respect to the sentences, it is possible to extract experiential emotional information classified into any one of a positive emotion category, a negative emotion category, and a neutral emotion category.

즉, 체험 반응정보가 기능적 반응정보인 경우에, 감성정보 추출부(110)는 기능적 반응정보의 문장에 대응하는 특징벡터를 제2 모델에 인가하여, 해당 기능적 반응정보가 긍정감성 카테고리, 부정감성 카테고리 또는 중립감성 카테고리 중 어느 카테고리에 해당하는지를 분류하고, 분류된 체험 감성정보를 추출할 수 있다. 또한, 체험 반응정보가 촉각적 반응정보인 경우에, 감성정보 추출부(110)는 촉각적 반응정보의 문장에 대응하는 특징벡터를 제2 모델에 인가하여, 해당 촉각적 반응정보가 긍정감성 카테고리, 부정감성 카테고리 또는 중립감성 카테고리 중 어느 카테고리에 해당하는지를 분류하고, 분류된 체험 감성정보를 추출할 수 있다. 또한, 체험 반응정보가 시각적 반응정보인 경우에, 감성정보 추출부(110)는 시각적 반응정보의 문장에 대응하는 특징벡터를 제2 모델에 인가하여, 해당 시각적 반응정보가 긍정감성 카테고리, 부정감성 카테고리 또는 중립감성 카테고리 중 어느 카테고리에 해당하는지를 분류하고, 분류된 체험 감성정보를 추출할 수 있다. 또한, 체험 반응정보가 상품비교 반응정보인 경우에, 감성정보 추출부(110)는 상품비교 반응정보의 문장에 대응하는 특징벡터를 제2 모델에 인가하여, 해당 상품비교 반응정보가 긍정감성 카테고리, 부정감성 카테고리 또는 중립감성 카테고리 중 어느 카테고리에 해당하는지를 분류하고, 분류된 체험 감성정보를 추출할 수 있다. 또한, 체험 반응정보가 가격 반응정보인 경우에, 감성정보 추출부(110)는 가격 반응정보의 문장에 대응하는 특징벡터를 제2 모델에 인가하여, 해당 가격 반응정보가 긍정감성 카테고리, 부정감성 카테고리 또는 중립감성 카테고리 중 어느 카테고리에 해당하는지를 분류하고, 분류된 체험 감성정보를 추출할 수 있다. That is, when the experiential response information is functional response information, the emotion information extraction unit 110 applies a feature vector corresponding to the sentence of the functional response information to the second model, so that the corresponding functional response information is a positive emotion category and a negative emotion. It is possible to classify whether a category corresponds to a category or a neutral emotion category, and extract the classified experience emotion information. In addition, when the experience response information is tactile response information, the emotion information extraction unit 110 applies a feature vector corresponding to the sentence of the tactile response information to the second model, so that the corresponding tactile response information is a positive emotion category. , Negative emotion category or neutral emotion category, and the classified experience emotion information may be extracted. In addition, when the experiential response information is visual response information, the emotion information extraction unit 110 applies a feature vector corresponding to the sentence of the visual response information to the second model, so that the corresponding visual response information is a positive emotion category and a negative emotion. It is possible to classify whether a category corresponds to a category or a neutral emotion category, and extract the classified experience emotion information. In addition, when the experience response information is product comparison response information, the emotion information extraction unit 110 applies a feature vector corresponding to the sentence of the product comparison response information to the second model, so that the product comparison response information is a positive emotion category. , Negative emotion category or neutral emotion category, and the classified experience emotion information may be extracted. In addition, when the experience response information is price response information, the emotion information extraction unit 110 applies a feature vector corresponding to the sentence of the price response information to the second model, so that the price response information is a positive emotion category and a negative emotion. It is possible to classify whether a category corresponds to a category or a neutral emotion category, and extract the classified experience emotion information.

감성정보 추출부(110)는 체험 대상상품이 뷰티상품에 해당하는 경우에, 상기 뷰티상품의 체험에 따른 체험 반응정보로부터 체험 감성정보를 추출할 수 있다. 감성정보 추출부(110)는 뷰티상품의 체험에 따른 기능적 반응정보를 추출할 수 있다. 또한, 감성정보 추출부(110)는 촉각적 반응정보에 해당하는 수분감, 발림성, 유분감, 끈적임 또는 잔여감 등에 대해 긍정, 부정 또는 중립 중 어느 하나의 감성 카테고리로 분류된 체험 감성정보를 추출할 수 있다. 또한, 감성정보 추출부(110)는 시각적 반응정보에 해당하는 밝음, 화사함, 무거움 또는 어두움 등에 대해 긍정, 부정 또는 중립 중 어느 하나의 감성 카테고리로 분류된 체험 감성정보를 추출할 수 있다. 또한, 감성정보 추출부(110)는 상품비교 반응정보 또는 가격 반응정보에 대해 긍정, 부정 또는 중립 중 어느 하나의 감성 카테고리로 분류된 체험 감성정보를 추출할 수 있다.When the experience target product corresponds to a beauty product, the emotion information extraction unit 110 may extract experience emotion information from experience reaction information according to the experience of the beauty product. The emotion information extraction unit 110 may extract functional reaction information according to the experience of a beauty product. In addition, the emotion information extraction unit 110 can extract the experience emotion information classified into any one of positive, negative, or neutral emotion categories for moisture, application, oil, stickiness, or residual feeling corresponding to tactile reaction information. have. In addition, the emotion information extraction unit 110 may extract the experience emotion information classified into any one of positive, negative, or neutral emotion categories with respect to brightness, brightness, heaviness, or darkness corresponding to the visual response information. In addition, the emotion information extraction unit 110 may extract the experience emotion information classified into any one of positive, negative, or neutral emotion categories for product comparison reaction information or price reaction information.

예를 들어, 반응정보 추출부(108)에서 도 4에 도시된 텍스트 정보에 대한 체험 반응정보를 추출하였다면, 감성정보 추출부(108)는 기능적 반응정보로 분류된 문장 식별정보 0000, 0003 또는 0013인 문장들 각각의 특징벡터를 제2 모델에 인가하여, 해당 문장들 각각에 대해 긍정감성 카테고리, 부정감성 카테고리 또는 중립감성 카테고리 중 어느 카테고리에 해당하는지를 각각 분류한 체험 감성정보를 추출할 수 있다. 또한, 감성정보 추출부(108)는 시각적 반응정보로 분류된 문장 식별정보 0001, 0002, 0006 또는 0008인 문장들 각각의 특징벡터를 제2 모델에 인가하여, 해당 문장들 각각의 감성 카테고리가 분류된 체험 감성정보를 추출할 수 있다. 또한, 감성정보 추출부(108)는 촉각적 반응정보로 분류된 문장 식별정보 0007, 0010 또는 0011인 문장들 각각의 특징벡터를 제2 모델에 인가하여, 해당 문장들 각각의 감성 카테고리가 분류된 체험 감성정보를 추출할 수 있다. 또한, 감성정보 추출부(108)는 상품비교 반응정보로 분류된 문장 식별정보 0004, 0005 또는 0009인 문장들 각각의 특징벡터를 제2 모델에 인가하여, 해당 문장들 각각의 감성 카테고리가 분류된 체험 감성정보를 추출할 수 있다. 또한, 감성정보 추출부(108)는 가격 반응정보로 분류된 문장 식별정보 0012인 문장의 특징벡터를 제2 모델에 인가하여, 해당 문장의 감성 카테고리가 분류된 체험 감성정보를 추출할 수 있다.For example, if the response information extraction unit 108 extracts the experience response information for the text information shown in FIG. 4, the emotion information extraction unit 108 is the sentence identification information 0000, 0003 or 0013 classified as functional response information. By applying the feature vector of each of the human sentences to the second model, experience emotional information obtained by classifying each of the positive emotion category, the negative emotion category, or the neutral emotion category for each of the corresponding sentences may be extracted. In addition, the sentiment information extracting unit 108 applies the feature vector of each sentence of sentence identification information 0001, 0002, 0006 or 0008 classified as visual response information to the second model, so that the sentiment category of each of the sentences is classified. Experienced emotional information can be extracted. In addition, the sentiment information extraction unit 108 applies the feature vector of each sentence of sentence identification information 0007, 0010 or 0011 classified as tactile response information to the second model, so that the sentiment category of each of the sentences is classified. Experience emotional information can be extracted. In addition, the sentiment information extraction unit 108 applies a feature vector of each sentence of sentence identification information 0004, 0005, or 0009 classified as product comparison reaction information to the second model, so that the sentiment category of each of the sentences is classified. Experience emotional information can be extracted. In addition, the sentiment information extraction unit 108 may apply a feature vector of a sentence, which is sentence identification information 0012 classified as price response information, to the second model, and extract experience sentiment information in which the sentiment category of the sentence is classified.

제어부(112)는 사용자 입력에 의한 제어 명령 신호, 외부 명령 신호 또는 이벤트 신호 등에 따라, 저장부(100), 식별정보 인식부(102), 텍스트 추출부(104), 특징정보 추출부(106), 반응정보 추출부(108), 감성정보 추출부(110), 감응지수 산출부(114), 피부특성 검출부(116), 적합도 산출부(118), 구매율 산출부(120), 추천상품 추출부(122), 사용자 인터페이스부(124) 또는 통신부(126) 등의 동작을 제어한다. The control unit 112 includes a storage unit 100, an identification information recognition unit 102, a text extraction unit 104, and a feature information extraction unit 106 according to a control command signal, an external command signal, or an event signal by a user input. , Response information extraction unit 108, emotion information extraction unit 110, sensitivity index calculation unit 114, skin characteristic detection unit 116, fitness calculation unit 118, purchase rate calculation unit 120, recommended product extraction unit (122), the operation of the user interface unit 124 or the communication unit 126 is controlled.

이를 위해, 제어부(112)는 적어도 일부가 소프트웨어, 펌웨어, 하드웨어, 또는 이들 중 적어도 둘 이상의 조합으로 구현될 수 있다. 제어부(112)는 예를 들면, 프로세서에 의해 구현될 수 있으며, 하나 이상의 기능을 수행하기 위한 프로그램, 루틴, 명령어 세트 (sets of instructions) 또는 프로세스 등을 포함할 수 있다.To this end, at least a part of the control unit 112 may be implemented in software, firmware, hardware, or a combination of at least two or more of them. The control unit 112 may be implemented by, for example, a processor, and may include a program, routine, sets of instructions, or processes for performing one or more functions.

제어부(112)는 체험자의 체험자 식별정보 또는 체험 대상상품에 대한 상품 식별정보를 체험 반응정보 또는 체험 감성정보와 매칭하여 저장부(100)에 저장하도록 제어한다. 체험자 식별정보는 체험자를 특정할 수 있는 정보로서, 체험자로부터 제공받은 체험자 등록정보일 수도 있고, 체험자의 휴대용 단말기(30)에 대응하는 전화번호정보 또는 기기식별정보일 수도 있고, 체험자의 생체정보(예를 들어, 체험자의 안면 이미지, 체험자의 지문 등)일 수도 있다. 또한, 상품 식별정보는 체험 대상상품에 부착되거나 페인팅된 바코드, QR코드, RFID 태그 또는 NFC 태그 등으로부터 읽어들이는 정보일 수 있다. The controller 112 controls to match the experiential person identification information or product identification information for the experience target product with the experience reaction information or the experience emotion information and store them in the storage unit 100. The experienced person identification information is information that can identify the experienced person, and may be the experience person registration information provided from the experience person, phone number information or device identification information corresponding to the experience person's portable terminal 30, or the experience person's biometric information ( For example, it may be an experiencer's facial image, an experiencer's fingerprint, etc.). In addition, the product identification information may be information read from a barcode, a QR code, an RFID tag, an NFC tag, etc. attached or painted on the product to be experienced.

제어부(112)는 식별정보 인식부(102)에서 체험자 식별정보 또는 상품 식별정보를 인식하면, 이에 응답하여 텍스트 추출부(104)의 동작 개시를 제어하고, 특징정보 추출부(106), 반응정보 추출부(108), 및 감성정보 추출부(110)를 제어하여 체험 반응정보 또는 체험 감성정보를 체험자 식별정보 또는 상품 식별정보와 매칭하여 저장하도록 한다. When the identification information recognition unit 102 recognizes the experienced person identification information or product identification information, the control unit 112 controls the start of the operation of the text extraction unit 104 in response thereto, and the feature information extraction unit 106, reaction information The extraction unit 108 and the emotion information extraction unit 110 are controlled to match and store the experience response information or the experience emotion information with the experience person identification information or product identification information.

예를 들어, 식별정보 인식부(102)가 체험자의 휴대용 단말기(30)의 기기 식별정보 또는 전화번호정보 등을 읽어들이거나, 체험자의 생체 정보를 읽어들이거나, 상품 식별정보를 읽어들인 후에, 인식된 기기 식별정보, 전화번호정보, 생체 정보 또는 상품 식별정보를 제어부(112)로 전달하면, 제어부(112)는 이에 응답하여 텍스트 추출부(104)에서 텍스트를 추출하도록 하기 위한 동작개시 제어신호를 텍스트 추출부(104)로 전달한다. 그 후, 텍스트 추출부(104)가 전술한 바와 같이, 체험자에 대한 음성정보로부터 텍스트 정보를 추출하고, 추출된 텍스트 정보에 근거하여 특징정보 추출부(106), 반응정보 추출부(108) 또는 감성정보 추출부(110)를 통해 체험 반응정보 또는 체험 감성정보가 추출되면, 제어부(112)는 추출된 체험 반응정보 또는 체험 감성정보를 기기 식별정보, 전화번호정보, 생체 정보 또는 상품 식별정보와 매칭 처리하고, 매칭 처리된 체험 반응정보 또는 체험 감성정보를 저장부(100)에 저장하도록 한다. 이에 따라, 저장부(100)는 기기 식별정보, 전화번호정보, 생체 정보 또는 상품 식별정보와 매칭된 체험 반응정보 또는 체험 감성정보를 저장한다. 체험 반응정보 또는 체험 감성정보가 체험자 식별정보 및 상품 식별정보와 매칭되어 저장된다는 것은 체험자에 의해 체험된 다양한 체험 대상상품들에 대한 정보들이 매핑되어 저장됨을 의미한다. For example, after the identification information recognition unit 102 reads device identification information or phone number information, etc. of the portable terminal 30 of the experiencer, reads biometric information of the experiencer, or reads product identification information, When the recognized device identification information, phone number information, biometric information, or product identification information is transmitted to the control unit 112, the control unit 112 responds to this, and an operation start control signal for extracting the text from the text extraction unit 104 Is transferred to the text extraction unit 104. Thereafter, as described above, the text extraction unit 104 extracts text information from the voice information on the experienced person, and based on the extracted text information, the feature information extraction unit 106, the response information extraction unit 108, or When the experience reaction information or the experience emotion information is extracted through the emotion information extraction unit 110, the control unit 112 converts the extracted experience response information or the experience emotion information to device identification information, phone number information, biometric information, or product identification information. Matching is performed, and the matched experience response information or experience emotion information is stored in the storage unit 100. Accordingly, the storage unit 100 stores device identification information, phone number information, biometric information, or experience response information or experience emotion information matched with product identification information. The fact that the experience response information or the experience emotion information is matched and stored with the experience person identification information and the product identification information means that information on various experience target products experienced by the experience person is mapped and stored.

감응지수 산출부(114)는 체험 감성정보 각각의 카테고리 별로 감성점수를 할당하여 상기 체험자의 상기 체험 대상상품에 대한 감응지수를 산출한다. 감응지수 산출부(114)는 체험 감성정보에 대해, 상기 긍정감성 카테고리, 상기 부정감성 카테고리 및 상기 중립감성 카테고리 별로 감성점수를 할당하고, 체험 감성정보에 속하는 감성 단어의 출현 빈도수에 따른 가중치를 감성점수에 반영하여 상기 체험자의 상기 체험 대상상품에 대한 감응지수를 산출할 수 있다.The sensitivity index calculation unit 114 calculates a sensitivity index for the experience target product by allocating an emotion score for each category of the experience emotion information. The emotion index calculation unit 114 allocates an emotion score for each of the positive emotion category, the negative emotion category, and the neutral emotion category for the experience emotion information, and senses a weight according to the frequency of appearance of emotion words belonging to the experience emotion information. By reflecting in the score, a sensitivity index for the experience target product of the experiencer may be calculated.

다음의 표 3은 체험 반응정보 및 체험 감성정보의 카테고리별로 할당된 감성점수를 예시하는 표이다. 표 3에 기재된 바와 같은 감성점수를 예시적인 것이며, 필요에 따라 조정될 수 있다.Table 3 below is a table illustrating the emotional scores allocated for each category of experience response information and experience emotional information. The emotional score as described in Table 3 is exemplary, and can be adjusted as necessary.

긍정감성Positive emotion 중립감성 Neutrality 부정감성Negative emotion 기능적 반응정보Functional reaction information 55 22 -5-5 촉각적 반응정보Tactile reaction information 55 22 -5-5 시각적 반응정보Visual reaction information 55 22 -5-5 상품비교 반응정보Product comparison reaction information 66 33 -6-6 가격 반응정보Price response information 88 33 -8-8

한편, 감성점수에 적용되는 가중치는 긍정감성 단어, 부정감성 단어 또는 중립감성 단어의 출현 빈도를 근거로 설정될 수 있다. 감응지수 산출부(114)는 긍정감성 단어, 부정감성 단어 또는 중립감성 단어의 출현 빈도를 산출하기 위해, 자연어 처리 알고리즘인 BoW(Bag of Words) 알고리즘을 사용할 수 있다. BoW 알고리즘은 적용 대상이 되는 단어들의 순서는 전혀 고려하지 않고, 단어들의 출현 빈도(frequency)를 산출하여 텍스트 데이터를 수치화하는 알고리즘이다. Meanwhile, the weight applied to the emotional score may be set based on the frequency of occurrence of positive emotional words, negative emotional words, or neutral emotional words. The sensitivity index calculation unit 114 may use a BoW (Bag of Words) algorithm, which is a natural language processing algorithm, in order to calculate the frequency of occurrence of positive emotion words, negative emotion words, or neutral emotion words. The BoW algorithm is an algorithm that quantifies text data by calculating the frequency of occurrence of words without considering the order of words to be applied.

감응지수 산출부(114)는 긍정감성 카테고리, 부정감성 카테고리 또는 중립감성 카테고리 별로 분류된 체험 감성정보에 대응하는 텍스트정보 각각에 대해 BoW 알고리즘을 이용하여 고유한 정수 인덱스를 부여하고, 각 인덱스의 위치에 단어 토큰의 등장 횟수를 기록하여 단어 출현 빈도수를 산출할 수 있다. 그 후, 감응지수 산출부(108)는 산출된 단어 출현 빈도수가 높을수록 높게 설정된 가중치를 해당 감성점수에 반영하고, 출현 빈도수가 낮을수록 낮게 설정된 가중치를 해당 감성점수에 반영한다. 예를 들어, 감응지수 산출부(114)는 각각의 감성점수에 가중치를 곱하고, 가중치가 곱해진 각각의 감성점수들을 합산 및 평균하여 상기 체험자의 상기 체험 대상상품에 대한 감응지수를 산출할 수 있다.The sensitivity index calculation unit 114 assigns a unique integer index to each text information corresponding to the experience emotion information classified by positive emotion category, negative emotion category, or neutral emotion category using the BoW algorithm, and positions each index. By recording the number of occurrences of the word token in, the frequency of occurrence of the word can be calculated. Thereafter, the sensitivity index calculation unit 108 reflects the weight set higher to the emotional score as the calculated frequency of occurrence of the word is higher, and reflects the weight set lower as the frequency of appearance to the corresponding emotional score. For example, the sensitivity index calculation unit 114 may calculate a sensitivity index for the experience target product of the experiencer by multiplying each emotion score by a weight, and summing and averaging each emotion score multiplied by the weight. .

다음의 표 4는 단어 출현 빈도수에 따라 미리 설정되어 저장된 가중치의 설정값을 예시하는 표이다.Table 4 below is a table exemplifying setting values of weights that are preset and stored according to the frequency of word appearance.

빈도수Frequency 1One 22 33 44 5이상5 or more 가중치weight 1One 22 44 66 88

이에 따라, 동일한 긍정감성, 부정감성 또는 중립감성이라 하더라도 해당 단어의 출연 빈도수에 따라 긍정감성, 부정감성 또는 중립감성의 강도가 구별될 수 있다. Accordingly, even with the same positive feeling, negative feeling, or neutral feeling, the intensity of positive feeling, negative feeling, or neutral feeling can be distinguished according to the frequency of appearance of the word.

예를 들어, 체험자가 체험한 특정의 체험 대상상품과 관련하여, 기능적 반응정보에 대해서는 긍정의 체험 감성정보(S1)가 추출되고, 촉각적 반응정보에 대해서는 중립의 체험 감성정보(S2)가 추출되고, 시각적 반응정보에 대해서는 부정의 체험 감성정보(S3)가 추출되고, 상품비교 반응정보에 대해서는 중립의 체험 감성정보(S4)가 추출되고, 가격 반응정보에 대해서는 긍정의 체험 감성정보(S5)가 추출되었다고 가정한다. 또한, 감응지수 산출부(114)가 BoW 알고리즘을 이용하여 각 체험 감성정보에 대하여 산출한 출현 빈도수의 값이 다음과 같다고 가정한다. 예를 들어, S1에 대응하는 긍정 단어의 출현 빈도수가 2이고, S2에 대응하는 중립 단어의 출현 빈도수가 1이고, S3에 대응하는 부정 단어의 출현 빈도수가 3이고, S4에 대응하는 중립 단어의 출현 빈도수가 2이고, S5에 대응하는 긍정 단어의 출현 빈도수가 3이라 가정한다. 이에 따르면, 감응지수 산출부(114)는 각각의 체험 감성정보에 따른 감성점수와 가중치의 곱셈에 따른 합산값은 (5*2) + (2*1) + (-5*3) + (3*2) + (8*3) = 27의 값을 산출할 수 있다. 감응지수 산출부(114)는 산출된 합산값을 체험 감성정보의 카테고리 숫자에 해당하는 5로 나누어줌으로써, 27/5 = 5.4라는 감응지수를 산출할 수 있다. For example, in relation to a specific experience target product experienced by the experiencer, positive experience sensibility information (S1) is extracted for functional response information, and neutral experience sensibility information (S2) is extracted for tactile response information. For visual response information, negative experience emotion information (S3) is extracted, neutral experience emotion information (S4) is extracted for product comparison reaction information, and positive experience emotion information (S5) for price response information. Is assumed to have been extracted. In addition, it is assumed that the value of the appearance frequency calculated by the sensitivity index calculation unit 114 for each experience emotional information using the BoW algorithm is as follows. For example, the number of occurrences of the positive word corresponding to S1 is 2, the number of occurrences of the neutral word corresponding to S2 is 1, the number of occurrences of the negative word corresponding to S3 is 3, and the number of occurrences of the neutral word corresponding to S4. It is assumed that the frequency of appearance is 2 and the frequency of appearance of the positive word corresponding to S5 is 3. According to this, the sensitivity index calculation unit 114 is the sum value according to the multiplication of the emotional score and the weight according to each experience emotional information is (5 * 2) + (2 * 1) + (-5 * 3) + (3) *2) + (8*3) = 27 can be calculated. The sensitivity index calculation unit 114 may calculate a sensitivity index of 27/5 = 5.4 by dividing the calculated sum value by 5 corresponding to the number of categories of the experience emotion information.

피부특성 검출부(116)는 상기 체험 대상상품이 뷰티상품에 해당하는 경우에, 상기 체험자의 신체 부위별 피부 상태를 측정하여, 상기 체험자에 대한 상기 신체 부위별 피부 타입 정보 및 피부 톤 정보 중 적어도 하나 이상을 포함하는 피부 특성정보를 검출한다. When the experience target product corresponds to a beauty product, the skin characteristic detection unit 116 measures the skin condition for each body part of the experiencer, and at least one of skin type information and skin tone information for each body part of the experiencer Detects skin characteristic information including abnormalities.

피부특성 검출부(116)은 체험자에 대한 피부 타입으로서, 건성, 중성, 지방성, 복합성 등 다양한 피부 타입 중 어느 하나를 검출할 수 있으며, 또한 체험자에 대한 피부 색상을 나타내는 피부 톤 정보를 검출할 수 있다. The skin characteristic detection unit 116 may detect any one of various skin types such as dry, neutral, fatty, and complex as a skin type for the experienced person, and may also detect skin tone information indicating the skin color of the experienced person. .

또한, 피부특성 검출부(116)는 체험자가 신체 부위별로 체험하는 상기 뷰티상품에 대한 체험 상태정보를 검출할 수 있다. 체험 상태정보는 체험자가 뷰티상품을 피부에 도포함으로써, 피부 표면에서 변화된 상태를 표시하는 정보이다. 피부특성 검출부(116)는 신체 부위별로 도포된 뷰티상품에 대한 체험상태 색상정보, 체험상태 보습정보, 체험상태 탄력정보 등을 검출한다.In addition, the skin characteristic detection unit 116 may detect the experience state information on the beauty product experienced by the experienced person for each body part. The experience status information is information indicating a changed status on the skin surface by the experiencer applying a beauty product to the skin. The skin characteristic detection unit 116 detects experience state color information, experience state moisturizing information, experience state elasticity information, and the like for beauty products applied for each body part.

피부특성 검출부(116)는 얼굴이나 팔 등 신체 부위별 피부를 정밀 촬영하기 위하여 본체의 내부에 카메라가 내장되며, 전면에는 영상을 볼 수 있는 모니터가 형성되고, 후방으로 신체의 일부를 삽입할 수 있는 구조를 포함한다. 여기서, 카메라는 하나 이상의 렌즈, 이미지 센서, ISP (image signal processor), 또는 플래쉬(flash)(예: LED 또는 xenon lamp) 등을 포함할 수 있다. 렌즈는 디지털 줌이 가능한 렌즈를 사용할 수 있으며, 플래쉬는 일반모드, 색소모드 및 피지모드에 따라 각각 일반 광, 편광, 자외선을 조명할 수 있다. 일반 광 모드에서는 피부 상태, 모공, 주름, 각질 등의 상태를 알 수 있고, 편광 모드에서는 색소침착, 기미, 잡티 등을 알 수 있으며, 자외선 모드에서는 피지, 모공, 트러블, 여드름 등을 알 수 있다. 이미지 센서는 렌즈로부터 결상된 영상을 신호처리한다. 이미지 센서는 CCD(Charge Coupled Device), CMOS 등을 포함할 수 있다. ISP는 이미지 센서에서 감지한 영상 신호에 대해 이미지 밝기 조절, 색상 보간, 색상 보정, 색 공간 변환 등의 기능을 수행할 수 있다. The skin characteristic detection unit 116 has a built-in camera inside the body in order to precisely photograph the skin for each body part such as face or arm, and a monitor for viewing an image is formed on the front side, and a part of the body can be inserted in the rear. It includes a structure that is there. Here, the camera may include one or more lenses, an image sensor, an image signal processor (ISP), or a flash (eg, an LED or xenon lamp). As for the lens, a lens capable of digital zoom can be used, and the flash can illuminate normal light, polarized light, and ultraviolet rays according to the normal mode, pigment mode, and sebum mode, respectively. In the normal light mode, you can see the condition of the skin, pores, wrinkles, dead skin cells, etc., in the polarization mode, you can see pigmentation, spots, blemishes, etc., and in the ultraviolet mode, you can see sebum, pores, troubles, and acne. . The image sensor processes the image formed from the lens. The image sensor may include a Charge Coupled Device (CCD), CMOS, or the like. The ISP can perform functions such as image brightness adjustment, color interpolation, color correction, and color space conversion on the image signal detected by the image sensor.

또한, 피부특성 검출부(116)는 본체의 후방에는 신체 중 얼굴을 삽입했을 때 각기 턱 부분과 이마 부분을 받쳐주도록 형성되는 턱받침대와 이마 받침대가 각각 구비되고, 상기 본체의 내부에는 각각 전방과 후방을 구분하고, 카메라의 렌즈부분이 통과하는 렌즈홀과, 후레쉬의 빛이 통과하는 후레쉬홀이 형성되는 격벽과, 상기 격벽의 후방에 형성되는 수 개의 UV 램프와, 하부에는 일정 간격으로 형성되는 교차편광필터와 평행편광필터 등을 포함할 수 있다.In addition, the skin characteristic detection unit 116 is provided with a chin rest and a forehead rest respectively formed to support the chin and forehead when the face of the body is inserted at the rear of the body. And a partition wall in which a lens hole through which the lens portion of the camera passes, a flash hole through which the flash light passes, and several UV lamps formed at the rear of the partition wall, and an intersection formed at regular intervals in the lower part It may include a polarization filter and a parallel polarization filter.

또한, 피부특성 검출부(116)는 코너 미터(Corneometer), 하이드로미터(Hydrometer), 피지측정기(Sebumeter), 피부pH측정기(Skin pH meter), 피부온도 측정기(Skin Thermometer), 경피부 수분손실 측정기(Tewanmeter), 멜라닌 측정기(Mexameter), 탄력성 측정기(Reviscometer) 등을 포함함으로써, 뷰티상품이 도포된 피부 보습 상태, 피부 탄력도, 피부 착색도 등을 검출한다. 또한, 피부특성 검출부(116)는 뷰티상품이 도포된 피부의 곡률 및 표면 상태를 검출하며, 얼굴에 도포된 뷰티상품의 곡면 측정, 뷰티상품이 도포된 윤부(limbus)의 특성 등에 대한 상태를 검출할 수도 있다. 또한, 피부특성 검출부(116)는 체험자의 피부에 대한 주름이나 모공의 경우에는 얼굴 모사판을 통해 수집되는 피부 색상 정보를 이미지 분석 프로그램을 이용하여 피부주름의 상태를 검출할 수 있다. In addition, the skin characteristic detection unit 116 includes a corner meter, a hydrometer, a sebum meter, a skin pH meter, a skin temperature meter, a transdermal moisture loss meter ( Tewanmeter), a melanin measuring instrument (Mexameter), an elasticity measuring instrument (Reviscometer), etc. are included to detect the skin moisturizing state, skin elasticity, and skin pigmentation to which the beauty product is applied. In addition, the skin characteristic detection unit 116 detects the curvature and surface condition of the skin to which the beauty product is applied, and detects the condition of the curved surface of the beauty product applied to the face, and the characteristics of the limbus to which the beauty product is applied. You may. In addition, in the case of wrinkles or pores on the skin of the experiencer, the skin characteristic detection unit 116 may detect the condition of the skin wrinkles using the image analysis program using skin color information collected through the face replica.

피부특성 검출부(116)에서 체험자에 대한 피부 특성정보를 검출하고, 검출결과를 제어부(112)에 전달하면, 제어부(112)는 피부 특성정보를 체험자 식별정보에 대응하는 체험 반응정보 또는 체험 감성정보와 매칭 처리하고, 매칭 처리된 피부 특성정보를 저장부(100)에 저장하도록 제어하며, 제어부(112)의 제어에 따라 체험 반응정보 또는 체험 감성정보와와 매칭된 피부 특성정보가 저장부(100)에 저장된다.When the skin characteristic detection unit 116 detects skin characteristic information for the experienced person and transmits the detection result to the control unit 112, the control unit 112 transmits the skin characteristic information to the experience reaction information or experience emotion information corresponding to the user identification information. Matching process with and control to store the matched skin characteristic information in the storage unit 100, and under the control of the control unit 112, the experience reaction information or the skin characteristic information matched with the experience emotion information is stored in the storage unit 100 ).

적합도 산출부(118)는 체험 대상상품이 뷰티상품인 경우에, 뷰티 속성정보 및 피부 특성정보를 이용해, 체험자의 피부 타입 및 피부 톤에 따른 뷰티상품의 피부 적합도 지수를 산출한다. 뷰티 속성정보는 뷰티상품들에 대한 상품 성분정보, 기능정보 등에 해당하는 것으로 저장부(100)에 미리 저장되어 있다.When the product to be experienced is a beauty product, the suitability calculation unit 118 calculates a skin suitability index of the beauty product according to the experiencer's skin type and skin tone, using beauty attribute information and skin characteristic information. The beauty attribute information corresponds to product component information, function information, etc. for beauty products and is previously stored in the storage unit 100.

적합도 산출부(118)는 체험자의 검출된 피부 타입정보와 상기 뷰티상품의 뷰티 속성정보 중 피부타입 속성정보를 비교하거나, 상기 체험자의 검출된 피부톤 정보와 상기 뷰티상품의 뷰티 속성정보 중 피부톤 속성정보를 비교하여 상기 피부 적합도 정보를 산출한다. 예를 들어, 적합도 산출부(118)는 뷰티상품에 대한 상기 체험자의 피부 타입에 따른 피부표면 상태값과 체험대상이 되는 뷰티상품의 성분정보 중 피부표면 기준값 사이의 피부표면 오차값 이용해, 체험 대상이 된 뷰티 상품에 대한 체험자의 피부 적합도 지수를 산출할 수 있다. 또한, 적합도 산출부(118)는 상기 체험대상 뷰티상품에 대한 상기 체험자의 피부 톤에 따른 피부발색 상태값과 상기 체험대상 뷰티상품의 성분정보 중 피부발색 기준값 사이의 피부발색 오차값을 이용해, 체험 대상이 된 뷰티 상품에 대한 피부 적합도 지수를 산출할 수 있다. 또한, 적합도 산출부(118)는 체험대상 뷰티상품에 대한 피부표면 오차값과 피부발색 오차값의 평균값을 체험자의 피부 적합도 지수로서 산출할 수 있다. 이때, 피부 적합도 지수가 낮을 수록 체험자의 체험대상 뷰티상품에 대한 적합도가 높다고 판단할 수 있다.The suitability calculation unit 118 compares the detected skin type information of the experiencer with the skin type attribute information of the beauty attribute information of the beauty product, or the skin tone attribute information of the detected skin tone information of the experiencer and the beauty attribute information of the beauty product. By comparing the skin fitness information is calculated. For example, the fitness calculation unit 118 uses the skin surface error value between the skin surface condition value according to the skin type of the experiencer for the beauty product and the skin surface reference value among the component information of the beauty product to be experienced. For this beauty product, the skin fit index of the experienced person can be calculated. In addition, the suitability calculation unit 118 uses a skin color error value between a skin color state value according to the skin tone of the experiencer for the experience target beauty product and a skin color reference value among component information of the experience target beauty product, The skin fit index can be calculated for the target beauty product. In addition, the fitness calculation unit 118 may calculate an average value of the skin surface error value and the skin color error value for the experience target beauty product as the skin fitness index of the experiencer. At this time, it can be determined that the lower the skin fitness index is, the higher the suitability of the experiencer to the beauty product to be experienced.

구매율 산출부(120)는 체험자의 체험 대상상품에 대한 잠재적 구매 기능성으로 정의되는 잠재적 구매율을 산출한다. 구매율 산출부(120)는 감응지수 산출부(114)에서 산출된 감응지수와 실제 구매 지수에 가중치를 적용하여 잠재적 구매율을 산출할 수 있다. 여기서, 실제 구매 지수는 다양한 체험 대상상품들의 체험을 위해 오프라인 매장을 방문하는 상기 체험자의 방문 횟수, 상기 체험자의 구매 횟수 및 상기 체험자의 구매 상품 중 어느 하나 이상의 조합에 따른 산술 연산을 통해 산출된 값으로 저장부(100)에 미리 저장된 것일 수 있다.The purchase rate calculation unit 120 calculates a potential purchase rate defined as a potential purchase functionality for an experience target product by an experienced person. The purchase rate calculation unit 120 may calculate a potential purchase rate by applying a weight to the response index calculated by the response index calculation unit 114 and the actual purchase index. Here, the actual purchase index is a value calculated through an arithmetic operation according to a combination of any one or more of the number of visits of the experiencer visiting the offline store for the experience of various experience target products, the number of purchases of the experiencer, and the purchase product of the experiencer It may be stored in advance in the storage unit 100.

또한, 구매율 산출부(120)는 체험 대상상품이 뷰티상품에 해당하는 경우에, 감응지수 산출부(114)에서 산출된 감응지수와 적합도 산출부(118)에서 산출된 체험자의 해당 뷰티상품에 대한 피부 적합도 지수 중 적어도 하나 이상에 스케일링값을 적용하여 잠재적 구매율을 산출할 수 있다. 여기서, 스케일링값은 감응지수 또는 피부 적합도 지수를 역수로 치환시키는 값 또는 역수로 치환시키는 값에 가중치가 부여된 값일 수 있다. In addition, when the product to be experienced corresponds to a beauty product, the purchase rate calculation unit 120 provides a response index calculated by the sensitivity index calculation unit 114 and the corresponding beauty product of the experienced person calculated by the fitness level calculation unit 118. A potential purchase rate may be calculated by applying a scaling value to at least one of the skin fitness indices. Here, the scaling value may be a value to which a sensitivity index or a skin fitness index is replaced with an reciprocal number, or a value to which a weight is assigned to a value substituted by an reciprocal number.

또한, 구매율 산출부(120)는 저장부(100)에 저장된 실제 구매 지수에 스케일링값을 적용하고, 스케일링된 실제 구매 지수와 스케일링된 감응지수 또는 피부 적합도 지수를 서로 산술 연산하여 잠재적 구매율을 산출할 수 있다. 예를 들어, 구매율 산출부(120)는 피부 적합도 지수에 피부 적합도 지수를 역수로 치환하기 위한 스케일링값을 곱하고, 곱해진 값에 스케일링된 실제 구매 지수 및 감응지수를 더하고, 더해진 값을 백분율로 변환함으로써, 체험자가 체험한 뷰티상품에 대한 잠재적 구매율을 산출할 수 있다. 산출된 잠재적 구매율은 해당 체험자의 해당 체험 대상상품에 대한 구매 의향 정도를 파악할 수 있는 데이터로 활용될 수 있다. In addition, the purchase rate calculation unit 120 applies a scaling value to the actual purchase index stored in the storage unit 100, and calculates the potential purchase rate by arithmetically calculating the scaled actual purchase index and the scaled sensitivity index or skin fitness index. I can. For example, the purchase rate calculation unit 120 multiplies the skin fitness index by a scaling value for substituting the skin fitness index with an inverse number, adds the scaled actual purchase index and the sensitivity index to the multiplied value, and converts the added value into a percentage. By doing so, it is possible to calculate the potential purchase rate for the beauty product experienced by the experienced person. The calculated potential purchase rate can be used as data that can determine the degree of purchase intention of a corresponding experience target product.

추천상품 추출부(122)는 상기 체험 대상상품이 뷰티상품에 해당하는 경우에, 상기 감응지수와 상기 체험자의 신체 부위별 피부 측정에 따른 피부 특성정보를 사용해 상기 체험자에게 추천되는 상품을 추출한다.When the experience target product corresponds to a beauty product, the recommended product extraction unit 122 extracts a product recommended to the experiencer using the sensitivity index and skin characteristic information according to skin measurement for each body part of the experiencer.

추천상품 추출부(122)는 산출된 감응지수가 일정 임계치 이상인가를 판단한다. 산출된 감응지수가 일정 임계치 이상인 경우에, 추천상품 추출부(122)는 저장부(100)에 저장된 신체 부위별 피부 특성에 대응하는 다양한 뷰티 상품군정보 중에서, 일정 임계치 이상인 감응지수의 뷰티상품이 속하는 신체 부위별 뷰티 상품군을 추출할 수 있다. 그 후, 추천상품 추출부(122)는 추출된 신체부위별 뷰티상품군 중에서 피부특성 검출부(116)에서 검출된 피부 특성정보에 매칭되는 뷰티상품들을 추출할 수 있다.The recommended product extraction unit 122 determines whether the calculated sensitivity index is equal to or greater than a predetermined threshold. When the calculated sensitivity index is greater than or equal to a certain threshold, the recommended product extracting unit 122 includes information on a variety of beauty products corresponding to skin characteristics for each body part stored in the storage unit 100, to which beauty products having a sensitivity index equal to or greater than a certain threshold belong. You can extract beauty product groups by body part. After that, the recommended product extraction unit 122 may extract beauty products matching the skin characteristic information detected by the skin characteristic detection unit 116 from the extracted beauty product group for each body part.

사용자 인터페이스부(124)는 체험자 식별정보 및 상품 식별정보 중 어느 하나의 키워드 입력에 따라, 체험 반응정보, 체험 감성정보, 감응지수, 피부 특성정보, 피부 적합도 정보 또는 잠재적 구매율 정보 등을 출력한다. The user interface unit 124 outputs experience response information, experience sensibility information, sensitivity index, skin characteristic information, skin suitability information, or potential purchase rate information, etc. according to input of any one of a keyword among experienced person identification information and product identification information.

사용자 인터페이스부(124)는 체험자 식별정보 또는 상품 식별정보 등을 입력받기 위해, 키패드, 조그 셔틀, 터치 스크린, 입력 버튼 등의 입력 모듈을 포함할 수 있다. 이러한 사용자 인터페이스부(124)는 시스템의 일측에 배치될 수 있다. 또한, 사용자 인터페이스부(124)는 제어부(112)의 제어에 따른 각 구성 요소의 동작 결과에 해당하는 체험 반응정보, 체험 감성정보, 감응지수, 피부 특성정보, 피부 적합도 정보 또는 잠재적 구매율 정보 등을 출력할 수 있다. 사용자 인터페이스부(124)는 각 구성 요소의 동작 상태를 영상 또는 음성으로 출력하기 위해, 디스플레이 모듈 또는 오디오 출력 모듈을 포함할 수 있다.The user interface unit 124 may include an input module such as a keypad, a jog shuttle, a touch screen, and an input button in order to receive user identification information or product identification information. The user interface unit 124 may be disposed on one side of the system. In addition, the user interface unit 124 provides experience response information, experience sensitivity information, sensitivity index, skin characteristic information, skin suitability information, or potential purchase rate information corresponding to the operation result of each component under the control of the controller 112. Can be printed. The user interface unit 124 may include a display module or an audio output module to output the operation state of each component in an image or audio format.

또한,사용자 인터페이스부(124)는 피부 특성정보의 출력을 위해, 카메라모듈에서 촬영된 영상 데이터를 표시하는 모듈 또는 영상 표시와 관련한 장치 관리 모듈을 포함할 수 있다. 예를 들어, 사용자 인터페이스부(124)는 기준치 이상의 농도를 가지는 픽셀의 계조값들, 밀도, 면적, 선형성을 포함하는 해석 데이터를 기초로 피부 주름, 기미 등을 포함하는 피부 노화에 대응하는 특징점들을 검출할 수 있다. 사용자 인터페이스부(124)는 SIFT(Scale Invariant Feature Transform) 알고리즘을 고속화시킨 SURF(Speeded-Up Robust features) 알고리즘과 같은 특징점 추출 알고리즘을 이용하여 영상 데이터로부터 특징점을 추출할 수 있다. 또한, 사용자 인터페이스부(124)는 피부 노화에 대응하는 특징점들의 분포에 따라 피부에 대한 스트레칭 방향을 안내하는 스트레칭 방향 이미지를 생성할 수 있다. 또한, 사용자 인터페이스부(124)는 카메라모듈에서 촬영된 영상 데이터를 그레이 스케일 영상으로 변환하거나 소정의 기준값에 따른 정규화(Normalization) 처리를 수행하며, 영상 데이터에 대한 각종 노이즈(Noise)를 제거하는 영상 처리를 수행할 수 있다. 또한, 사용자 인터페이스부(124)는 영상 데이터로부터 빛의 주요 파장(dominant wavelength)을 나타내는 색상(Hue) 파라미터값, 빛의 강도(intensity) 또는 진폭(amplitude)을 나타내는 명도(Brightness) 파라미터값, 또는 빛의 순도(purity) 또는 대역폭(band width)을 나타내는 채도(Saturation) 파라미터값을 포함하는 영상 파라미터값을 추출할 수 있다. 또한, 사용자 인터페이스부(124)는 임펄스 노이즈(impulse noise) 제거 필터를 이용하여 영상 데이터 중의 잡음을 제거할 수 있으며, 잡음이 제거된 영상 데이터에 대해 샤프닝 공간 필터(sharpening spacial filter)를 이용하여 잡음 제거에 따른 손실 에지(edge)를 보강할 수 있도록 한다.In addition, the user interface unit 124 may include a module for displaying image data captured by a camera module or a device management module related to image display for outputting skin characteristic information. For example, the user interface unit 124 determines feature points corresponding to skin aging, including skin wrinkles and spots, based on analysis data including grayscale values, density, area, and linearity of pixels having a density equal to or greater than a reference value. Can be detected. The user interface unit 124 may extract feature points from image data by using a feature point extraction algorithm such as a speeded-up robust features (SURF) algorithm in which a Scale Invariant Feature Transform (SIFT) algorithm is accelerated. In addition, the user interface unit 124 may generate a stretching direction image guiding the stretching direction of the skin according to the distribution of feature points corresponding to skin aging. In addition, the user interface unit 124 converts the image data captured by the camera module into a gray scale image or performs normalization processing according to a predetermined reference value, and removes various noises from the image data. Treatment can be carried out. In addition, the user interface unit 124 is a hue parameter value representing the dominant wavelength of light from the image data, a brightness parameter value representing the intensity or amplitude of light, or An image parameter value including a saturation parameter value indicating the purity or bandwidth of light may be extracted. In addition, the user interface unit 124 may remove noise in image data using an impulse noise removal filter, and noise in the image data from which noise is removed using a sharpening spacial filter. It is possible to reinforce the edge of loss due to removal.

사용자 인터페이스부(124)는 얼굴의 각 부분(예를 들어, 이마 부분, 목 부분, 턱밑 부분, 미간 부분, 눈밑 부분, 코와 입 주변 부분 등)별로 구분하여 피부 영상을 관리 및 표시할 수 있다. 즉, 사용자 인터페이스부(124)는 피부영상 어플리케이션의 구동에 따라 얼굴의 각 부분에 대한 피부 노화 위치에 대응하는 특징점들로부터 해당 얼굴의 각 부분에 대한 피부 노화 정보(예를 들어, 피부 나이, 노화 정도 그래프)를 생성 및 저장하고, 사용자의 요청에 따라 얼굴의 각 부분에 대한 피부 노화 정보를 표시할 수 있다. The user interface unit 124 may manage and display a skin image by dividing each part of the face (for example, a forehead part, a neck part, a chin part, a glabellar part, a part under the eyes, a part around the nose and mouth, etc.) . That is, the user interface unit 124 receives skin aging information for each part of the face (eg, skin age, aging) from feature points corresponding to the skin aging position of each part of the face as the skin image application is driven. Degree graph) can be created and stored, and skin aging information for each part of the face can be displayed at the request of the user.

통신부(126)는 체험자가 체험한 체험 대상상품에 대한 체험정보를 외부 단말기로 전송한다. 예를 들어, 통신부(126)는 체험 반응정보, 체험 감성정보, 감응지수, 피부 특성정보, 피부 적합도 정보 또는 잠재적 구매율 정보 등을 체험 대상상품의 제조사 단말기 또는 체험 대상상품의 온라인 판매자 단말기 등으로 전송할 수 있다. 이를 위해, 통신부(126)는 제조사 단말기 또는 온라인 판매자 단말기와 유선 통신망 또는 무선 통신망을 통해서 연결될 수 있으며, 유선 통신 프로토콜 또는 무선 통신 프로토콜을 지원하는 통신 모듈들을 포함할 수 있다. The communication unit 126 transmits the experience information on the experience target product experienced by the experienced person to an external terminal. For example, the communication unit 126 transmits experience response information, experience emotion information, sensitivity index, skin characteristic information, skin suitability information, or potential purchase rate information to the manufacturer terminal of the product to be experienced or the online seller terminal of the product to be experienced. I can. To this end, the communication unit 126 may be connected to a manufacturer terminal or an online seller terminal through a wired communication network or a wireless communication network, and may include communication modules supporting a wired communication protocol or a wireless communication protocol.

도 11은 본 발명에 따른 상품 체험에 따른 체험정보 추출방법을 설명하기 위한 흐름도이다. 11 is a flowchart illustrating a method of extracting experience information according to product experience according to the present invention.

먼저, 체험정보 추출시스템은 체험자를 식별하기 위한 체험자 식별정보 또는 체험 대상상품에 대한 상품 식별정보를 인식할 수 있다(S1000 단계). 체험정보 추출시스템은 휴대용 단말기의 접근에 따라, 해당 휴대용 단말기의 기기 식별정보를 읽어들이거나, 해당 휴대용 단말기 상에 표시된 기기 식별정보 또는 전화번호정보 등을 읽어들여서 해당 정보를 인식할 수 있다. 또한, 체험정보 추출시스템은 체험자의 생체 정보(예를 들어, 체험자의 안면 이미지, 체험자의 지문 등)를 읽어들여서 해당 정보를 인식할 수 있다. 또한, 체험정보 추출시스템은 체험 대상상품에 부착되거나 페인팅된 바코드, QR코드 또는 RFID 태그 또는 NFC 태그 등을 읽어들이거나, 휴대용 단말기에 표시된 체험 대상상품의 상품 식별정보를 읽어들여서 해당 정보를 인식할 수 있다. First, the experience information extraction system may recognize the experience person identification information for identifying the experience person or product identification information for the experience target product (step S1000). The experience information extraction system may recognize the information by reading device identification information of the portable terminal or reading device identification information or phone number information displayed on the portable terminal according to the access of the portable terminal. In addition, the experience information extraction system may recognize the information by reading biometric information of the experiencer (eg, a face image of the experiencer, a fingerprint of the experiencer, etc.). In addition, the experience information extraction system can read barcodes, QR codes, RFID tags, NFC tags, etc. attached or painted on the product to be experienced, or read product identification information of the product to be experienced displayed on a portable terminal to recognize the information. I can.

S1000 단계 후에, 체험 대상상품이 뷰티상품인 경우에, 체험정보 추출시스템은 체험자의 신체 부위별 피부를 측정하여, 상기 체험자에 대한 상기 신체 부위별 피부 타입 정보 또는 피부 톤 정보에 관한 피부 특성정보를 검출할 수 있다(S1002 단계).After step S1000, if the experience target product is a beauty product, the experience information extraction system measures the skin for each body part of the experiencer, and obtains skin characteristic information for the skin type information or skin tone information for the experiencer. It can be detected (step S1002).

체험정보 추출시스템은 체험자에 대한 피부 타입으로서, 건성, 중성, 지방성, 복합성 등 다양한 피부 타입 중 어느 하나를 검출할 수 있으며, 또한 체험자에 대한 피부 색상을 나타내는 피부 톤 정보를 검출할 수 있다. 또한, 체험정보 추출시스템은 체험자가 신체 부위별로 체험하는 상기 뷰티상품에 대한 체험 상태정보를 검출할 수 있다. 체험 상태정보는 체험자가 뷰티상품을 피부에 도포함으로써, 피부 표면에서 변화된 상태를 표시하는 정보이며, 체험상태 색상정보, 체험상태 보습정보, 체험상태 탄력정보 등을 포함한다. 또한, 체험정보 추출시스템은 뷰티상품이 도포된 피부의 곡률 및 표면 상태를 검출하며, 얼굴에 도포된 뷰티상품의 곡면 측정, 뷰티상품이 도포된 윤부(limbus)의 특성 등에 대한 상태를 검출할 수도 있다. 또한, 체험정보 추출시스템은 체험자의 피부에 대한 주름이나 모공의 경우에는 얼굴 모사판을 통해 수집되는 피부 색상 정보를 이미지 분석 프로그램을 이용하여 피부주름의 상태를 검출할 수 있다. The experience information extraction system can detect any one of a variety of skin types such as dry, neutral, fat, and complex as a skin type for the experienced person, and can also detect skin tone information indicating the skin color of the experienced person. In addition, the experience information extraction system may detect experience state information about the beauty product experienced by the experienced person for each body part. The experience state information is information indicating a state changed on the skin surface by the experiencer applying a beauty product to the skin, and includes experience state color information, experience state moisturizing information, and experience state elasticity information. In addition, the experience information extraction system detects the curvature and surface condition of the skin on which the beauty product has been applied, and can also detect the condition of the curve of the beauty product applied to the face, and the characteristics of the limbus on which the beauty product has been applied. have. In addition, the experience information extraction system may detect the condition of skin wrinkles using an image analysis program using skin color information collected through a face replica plate in the case of wrinkles or pores on the skin of the experiencer.

체험정보 추출시스템은 피부 특성정보를 체험자 식별정보에 대응하는 체험 반응정보와 매칭 처리하고, 상기 체험 반응정보와 매칭 처리된 상기 피부 특성정보를 저장한다.The experience information extraction system matches and processes skin characteristic information with experience response information corresponding to the experience person identification information, and stores the skin characteristic information matched with the experience response information.

S1002 단계 후에, 체험정보 추출시스템은 다양한 체험 대상상품들 중 뷰티상품들에 대한 각각의 뷰티 속성정보 및 상기 피부 특성정보를 이용해, 상기 체험자의 피부 타입 및 피부 톤에 따른 뷰티상품의 피부 적합도 지수를 산출할 수 있다(S1004 단계). After step S1002, the experience information extraction system calculates the skin suitability index of the beauty product according to the skin type and skin tone of the experiencer, using the beauty attribute information and the skin characteristic information for each beauty product among various experience target products. It can be calculated (step S1004).

체험정보 추출시스템은 상기 체험자의 검출된 피부 타입정보와 상기 뷰티상품의 뷰티 속성정보 중 피부타입 속성정보를 비교하거나, 상기 체험자의 검출된 피부 톤정보와 상기 뷰티상품의 뷰티 속성정보 중 피부톤 속성정보를 비교하여 상기 피부 적합도 지수를 산출할 수 있다.The experience information extraction system compares the detected skin type information of the experiencer with the skin type attribute information of the beauty attribute information of the beauty product, or the skin tone attribute information of the detected skin tone information of the experiencer and the beauty attribute information of the beauty product. By comparing the skin fitness index can be calculated.

체험정보 추출시스템은 뷰티상품에 대한 상기 체험자의 피부 타입에 따른 피부표면 상태값과 체험대상이 되는 뷰티상품의 성분정보 중 피부표면 기준값 사이의 피부표면 오차값 이용해, 체험 대상이 된 뷰티 상품에 대한 체험자의 피부 적합도 지수를 산출할 수 있다. 또한, 체험정보 추출시스템은 상기 체험대상 뷰티상품에 대한 상기 체험자의 피부 톤에 따른 피부발색 상태값과 상기 체험대상 뷰티상품의 성분정보 중 피부발색 기준값 사이의 피부발색 오차값을 이용해, 체험 대상이 된 뷰티 상품에 대한 피부 적합도 지수를 산출할 수 있다. 또한, 체험정보 추출시스템은 체험대상 뷰티상품에 대한 피부표면 오차값과 피부발색 오차값의 평균값을 체험자의 피부 적합도 지수로서 산출할 수 있다. The experience information extraction system uses the skin surface condition value according to the experiencer's skin type for the beauty product and the skin surface error value between the skin surface reference value among the component information of the beauty product to be experienced. The index of fitness for the skin of the experienced person can be calculated. In addition, the experience information extraction system uses a skin color error value between a skin color condition value according to the skin tone of the experiencer for the experience target beauty product and a skin color reference value among the component information of the experience target beauty product, The skin fit index can be calculated for the beauty product. In addition, the experience information extraction system can calculate the average value of the skin surface error value and the skin color error value for the beauty product to be experienced as an index of skin fitness of the experiencer.

체험정보 추출시스템은 산출된 피부 적합도 지수를 체험자 식별정보에 대응하는 체험 반응정보와 매칭 처리하고, 상기 체험 반응정보와 매칭 처리된 상기 피부 적합도 지수를 저장한다.The experience information extraction system matches the calculated skin fitness index with the experience response information corresponding to the experienced person identification information, and stores the skin fitness index matched with the experience response information.

S1004 단계 후에, 체험정보 추출시스템은 체험 대상상품의 체험에 따라 생성되는 체험자 음성으로부터 상기 체험자의 텍스트 정보를 추출할 수 있다(S1006 단계). After step S1004, the experience information extraction system may extract text information of the experiencer from the experiencer's voice generated according to the experience of the experience target product (step S1006).

체험정보 추출시스템은 이벤트 신호에 따라 체험자 음성의 녹음을 위한 온 및 오프 동작을 수행하며, 온 및 오프 동작에 따라 체험자에 대한 음성정보를 수집한다. 체험정보 추출시스템은 체험자 식별정보 또는 상품 식별정보의 인식을 위한 동작신호를 음성 녹음의 온 동작을 위한 이벤트 신호로 인식할 수 있다. 체험정보 추출시스템은 음성 신호의 수집 과정에서 발생되는 잡음(noise)을 제거하기 위한 다양한 잡음 제거 알고리즘을 통해 선명한 음성정보를 수집할 수 있다.The experience information extraction system performs on and off operations for recording the voice of the experienced user according to the event signal, and collects voice information on the experience user according to the on and off operations. The experience information extraction system may recognize a motion signal for recognizing an experienced person identification information or product identification information as an event signal for an on-motion of voice recording. The experience information extraction system can collect clear speech information through various noise removal algorithms to remove noise generated in the process of collecting speech signals.

체험정보 추출시스템은 수집된 음성정보를 STT 엔진을 이용하여, 문자정보로 변환한다. 체험정보 추출시스템은 머신러닝 알고리즘을 이용하여 음성정보를 텍스트 정보로 변환할 수도 있다. The experience information extraction system converts the collected voice information into text information using the STT engine. The experience information extraction system may convert voice information into text information using a machine learning algorithm.

S1006 단계 후에, 체험정보 추출시스템은 상기 추출된 텍스트 정보에 대한 전처리를 수행하고, 상기 전처리된 텍스트 정보로부터 머신런닝 모델의 입력값인 특징 정보를 추출할 수 있다(S1008 단계). After step S1006, the experience information extraction system may perform pre-processing on the extracted text information, and extract feature information, which is an input value of a machine running model, from the pre-processed text information (step S1008).

도 12는 도 11에 도시된 특징 정보를 추출하는 단계(S1008)를 설명하기 위한 일 실시예의 흐름도이다.FIG. 12 is a flowchart of an embodiment for explaining the step of extracting feature information shown in FIG. 11 (S1008 ).

먼저, 체험정보 추출시스템은 자연어 처리를 위한 자연어 프로그램정보를 이용하여 상기 텍스트 정보를 문장 단위로 분할할 수 있다(S1100 단계). First, the experience information extraction system may divide the text information into sentences by using natural language program information for natural language processing (step S1100).

체험정보 추출시스템은 텍스트 정보를 문장 단위로 분할하기 위해, 문장 토큰화를 위한 자연어 프로그램 정보를 사용할 수 있다. 체험정보 추출시스템은 문장 토큰화 프로그램으로서 텍스트 정보에 포함된 구두점(예를 들어, 온점)을 근거로 문장을 분할할 수 있다. 또한, 체험정보 추출시스템은 전술한 규칙 기반 시스템에 의한 문장 토큰화 방식 이외에, 머신러닝 또는 딥러닝 기술을 이용하여 문장 토큰화를 위한 모델을 구축하고, 이렇게 구축된 모델에 텍스트정보를 인가하여 문장 단위로 분할할 수도 있다. 체험정보 추출시스템은 분할된 문장 각각에 대해 문장 식별정보를 할당한다. 분할 문장 각각에 대한 문장 식별정보는 분할 문장을 식별하는데 사용될 수 있다.The experiential information extraction system can use natural language program information for sentence tokenization in order to divide text information into sentences. The experiential information extraction system is a sentence tokenization program and can divide sentences based on punctuation marks (eg, hot points) included in text information. In addition, the experiential information extraction system constructs a model for sentence tokenization using machine learning or deep learning technology, in addition to the sentence tokenization method according to the above-described rule-based system, and applies text information to the constructed model. It can also be divided into units. The experience information extraction system allocates sentence identification information for each divided sentence. Sentence identification information for each divided sentence may be used to identify the divided sentence.

S1100 단계 후에, 체험정보 추출시스템은 상기 분할 문장 각각에 대해 텍스트 전처리를 수행할 수 있다(S1102 단계). After step S1100, the experience information extraction system may perform text pre-processing for each of the divided sentences (step S1102).

체험정보 추출시스템은 분할 문장 각각에 대해 상품군 체험 데이터 및/또는 상품군 코퍼스정보를 이용하여 텍스트 전처리 과정을 수행한다. 체험정보 추출시스템은 분할 문장들 각각에 대해 단어 토큰화를 위한 프로그램을 이용하여 단어 토큰화를 수행한다. 체험정보 추출시스템은 구두점과 띄어쓰기를 기준으로 단어 토큰화를 수행할 수 있다. The experience information extraction system performs a text pre-processing process for each divided sentence using product group experience data and/or product group corpus information. The experiential information extraction system performs word tokenization using a program for word tokenization for each of the divided sentences. The experiential information extraction system can perform word tokenization based on punctuation marks and spaces.

체험정보 추출시스템은 문장 내에 포함된 단어들에 대해 상품군 체험 데이터 또는 상품군 코퍼스정보를 참조하여 형태소 토큰화를 수행할 수 있다. 예를 들어, 체험정보 추출시스템은 상품군 체험 데이터 또는 상품군 코퍼스정보에 포함된 상품군별 체험 대상상품들의 브랜드 또는 상품명, 브랜드 또는 상품명을 대표하는 개체명, 체험 대상상품들에서 사용되는 전문 용어, 체험 대상상품들에 포함되는 성분 용어, 체험 대상상품들의 체험에 따른 기능 표현용어(기능 표현 은어를 포함), 촉각 표현용어(촉각 표현 은어를 포함) 또는 시각 표현용어(시각 표현 은어를 포함) 등을 참조하여 문장 내에 포함되어 있는 각 단어들을 형태소별로 토큰화할 수 있다.The experience information extraction system may perform morpheme tokenization for words included in a sentence by referring to product group experience data or product group corpus information. For example, the experience information extraction system is the brand or product name of the product group experience data or the product group experience target products included in the product group corpus information, the entity name representing the brand or product name, the terminology used in the products subject to experience, and the experience target. Refer to component terms included in products, functional expression terms (including functional expression sweet words), tactile expression terms (including tactile expression sweet words) or visual expression terms (including visual expression sweet words) according to the experiences of the products to be experienced. Thus, each word included in the sentence can be tokenized for each morpheme.

체험정보 추출시스템은 단어 정규화 프로그램을 이용하여 단어들에 대해 정규화된 단어들로 변환한다. 체험정보 추출시스템은 단어 정규화를 방식으로 단어에 대한 어간 추출 또는 표제어 추출을 할 수 있다. The experiential information extraction system converts words into normalized words using a word normalization program. The experiential information extraction system can extract stems or headwords for words in a word normalization method.

체험정보 추출시스템은 어간 추출 프로그램을 이용하여 토큰화된 단어들에 대한 어간을 추출한다. 체험정보 추출시스템은 NLTK 또는 KoNLPy의 어간 추출 프로그램을 이용하여 추출할 수 있다. 체험정보 추출시스템은 어간 추출 알고리즘으로서, 포터 알고리즘, 랭커스터 스태머 알고리즘 등을 사용할 수 있다. The experiential information extraction system uses a stem extraction program to extract stems for tokenized words. The experience information extraction system can be extracted using the stem extraction program of NLTK or KoNLPy. The experiential information extraction system can use a porter algorithm, a Lancaster stammer algorithm, and the like as a stem extraction algorithm.

또한, 체험정보 추출시스템은 표제어 추출 프로그램을 이용하여 단어들에 대한 표제어를 추출할 수 있다. 체험정보 추출시스템은 표제어 추출을 위해 WordNetLemmatizer 알고리즘을 이용할 수 있으며, 이때, 단어의 품사 정보를 참고하여 표제어를 추출할 수 있다. 체험정보 추출시스템은 문맥을 고려하여 표제어를 추출하며, 이에 따라 단어의 품사 정보를 보존할 수 있다. In addition, the experience information extraction system may extract headwords for words using a headword extraction program. The experiential information extraction system can use the WordNetLemmatizer algorithm to extract the headword, and at this time, the headword can be extracted by referring to the part of speech information of the word. The experience information extraction system extracts the headword in consideration of the context, and accordingly, can preserve the part-of-speech information of the word.

체험정보 추출시스템은 품사(POS) 태깅 프로그램을 이용하여, 단어들에 대한 품사를 태깅한다. 이때, 체험정보 추출시스템은 상품군 코퍼스정보에 포함된 품사(POS) 태깅정보를 사용하여 단어들에 대한 품사를 태깅할 수 있다. 체험정보 추출시스템은 NLTK에서 Penn Treebank POS Tags 알고리즘을 이용하여 품사 태깅을 할 수 있으며, KoNLPy에서는 Okt, Mecab, Komoran, 등의 알고리즘을 이용하여 품사 태깅을 수행할 수 있다. The experience information extraction system uses a POS tagging program to tag parts of speech for words. In this case, the experience information extraction system may tag parts of speech for words by using POS tagging information included in the product group corpus information. The experience information extraction system can perform part-of-speech tagging using the Penn Treebank POS Tags algorithm in NLTK, and part-of-speech tagging using algorithms such as Okt, Mecab, and Komoran in KoNLPy.

체험정보 추출시스템은 단어들 중에서 불필요한 단어가 포함되어 있는 경우에는 불용어 제거 프로그램을 이용하여 불용어를 제거하는 정제 작업을 수행할 수 있다. 체험정보 추출시스템은 토큰화 작업에 방해가 되는 부분들을 배제시키고 토큰화 작업을 수행하기 위해서 토큰화 작업보다 앞서 수행할 수도 있고, 토큰화 작업 이후에도 남아있는 노이즈들을 제거하기 위해 수행될 수도 있다. The experiential information extraction system may perform a refinement operation of removing stop words using a stop word removal program when unnecessary words are included among words. The experiential information extraction system may be performed prior to the tokenization operation in order to exclude parts that interfere with the tokenization operation and perform the tokenization operation, or may be performed to remove the noise remaining after the tokenization operation.

체험정보 추출시스템은 각 단어들에 대해 개체명 인식 프로그램을 이용하여 개체명을 인식할 수 있다. 이때, 체험정보 추출시스템은 상품군 코퍼스정보에 포함된 개체명 정보를 사용하여 단어들에 대한 개체명을 인식할 수 있다. The experiential information extraction system can recognize the entity name for each word using the entity name recognition program. At this time, the experience information extraction system may recognize entity names for words using entity name information included in the product group corpus information.

S1102 단계 후에, 체험정보 추출시스템은 텍스트 전처리된 분할 문장으로부터 정수 인코딩 벡터, 원핫 인코딩 벡터 및 임베딩 벡터 중 어느 하나의 특징 벡터를 산출할 수 있다(S1104 단계). After step S1102, the experience information extraction system may calculate any one of an integer encoding vector, a one-hot encoding vector, and an embedding vector from the text pre-processed split sentence (step S1104).

체험정보 추출시스템은 전처리된 단어들 각각에 고유한 인덱스를 부여하여 정수 인코딩을 수행하거나, 전처리된 단어들의 인덱스의 위치에 "1"을 부여하는 원핫 인코딩을 수행하여 원핫 인코딩 벡터를 산출할 수 있다.The experiential information extraction system can perform integer encoding by assigning a unique index to each of the preprocessed words, or can calculate a one-hot encoding vector by performing one-hot encoding that assigns "1" to the index position of the preprocessed words. .

또한, 체험정보 추출시스템은 임베딩 모델에 의해 모델링된 워드 임베딩 메트릭스로부터 전처리 단어들에 대한 임베딩 벡터를 추출할 수 있다. 이를 위해, 체험정보 추출시스템은 체험 대상상품 별로 통용되는 상품군 말뭉치에 해당하는 상품군 코퍼스정보에 대해 임베딩 모델에 인가함으로써, 상품군 말뭉치에 대응하는 워드 임베딩 메트릭스를 모델링할 수 있다. 이러한, 상품군 코퍼스정보는 체험 대상상품들의 브랜드 또는 상품명, 상기 브랜드 또는 상기 상품명을 대표하는 개체명, 상기 체험 대상상품들에서 사용되는 전문 용어, 상기 체험 대상상품들에 포함되는 성분 용어, 상기 체험 대상상품들의 체험에 따른 기능 표현용어, 촉각 표현용어 및 시각 표현용어 등을 포함할 수 있다. In addition, the experience information extraction system may extract embedding vectors for pre-processed words from the word embedding matrix modeled by the embedding model. To this end, the experience information extraction system may model a word embedding matrix corresponding to the product group corpus by applying the product group corpus information corresponding to the product group corpus commonly used for each experience target product to the embedding model. The product group corpus information includes the brand or product name of the experience target products, the entity name representing the brand or the product name, the terminology used in the experience target products, the component terms included in the experience target products, and the experience target It may include functional expression terms, tactile expression terms, and visual expression terms according to product experiences.

이때, 체험정보 추출시스템은 상품군 코퍼스정보를 임베딩 모델에 인가하기 전에 상품군 코퍼스정보에 대한 전처리 과정을 수행하고, 전처리된 상품군 코퍼스정보에 대한 원핫 인코딩 벡터를 임베딩 모델에 인가하여 워드 임베딩 메트릭스를 모델링할 수 있다. 여기서, 임베딩 모델은 Word2Vec 모델, FastText 모델, Glove 모델 등을 포함할 수 있다. At this time, the experiential information extraction system performs a pre-processing process on the product group corpus information before applying the product group corpus information to the embedding model, and applies the one-hot encoding vector for the pre-processed product group corpus information to the embedding model to model the word embedding matrix. I can. Here, the embedding model may include a Word2Vec model, a FastText model, and a Glove model.

워드 임베딩 메트릭스는 상품군 코퍼스정보의 입력에 대하여 k-dimension에 해당하는 밀집 벡터를 출력할 수 있도록 하는 임베딩 모델의 가중치 메트릭스를 의미한다. 체험정보 추출시스템은 전처리된 단어들의 원핫 인코딩 벡터를 임베딩 모델에 의해 모델링된 워드 임베딩 메트릭스에 인가함으로써, 전처리된 단어들에 대응하는 임베딩 벡터를 각각 산출할 수 있다. The word embedding matrix refers to a weight matrix of an embedding model that enables a dense vector corresponding to k-dimension to be output with respect to the input of product group corpus information. The experience information extraction system may calculate each embedding vector corresponding to the preprocessed words by applying a one-hot encoding vector of the preprocessed words to the word embedding matrix modeled by the embedding model.

또한, 체험정보 추출시스템은 사전학습 모델을 이용해 전처리 단어들에 대한 임베딩 벡터를 추출할 수 있다. 여기서, 사전학습 모델은 거대 말뭉치를 이용하여 단어들에 대해 사전에 학습된 모델로서, 이때, 거대 말뭉치에는 상품군 코퍼스정보가 포함될 수도 있다. 이러한, 사전 학습 모델은 예를 들어, BERT, RoBERTa, DistilBERT, ELMO, XLNet 등의 딥러닝 모델을 포함할 수 있다. 체험정보 추출시스템은 BERT, RoBERTa, DistilBERT, ELMO, XLNet 등의 딥러닝 모델에 상품군 코퍼스정보가 포함된 거대 말뭉치를 인가하여 단어들에 대한 사전 학습을 수행한다. 그 후, 체험정보 추출시스템은 학습에 의해 훈련된 사전 학습 모델에 전처리 단어들을 인가하여 임베딩 벡터를 각각 추출할 수 있다. In addition, the experiential information extraction system may extract embedding vectors for preprocessed words using a pre-learning model. Here, the pre-learning model is a model that has been pre-trained on words using a giant corpus, and at this time, the giant corpus may include product group corpus information. Such a pre-learning model may include, for example, a deep learning model such as BERT, RoBERTa, DistilBERT, ELMO, or XLNet. The experiential information extraction system performs pre-learning on words by applying a huge corpus containing product group corpus information to deep learning models such as BERT, RoBERTa, DistilBERT, ELMO, and XLNet. Thereafter, the experience information extraction system may extract each embedding vector by applying preprocessed words to the pre-learning model trained by learning.

체험정보 추출시스템은 추출된 특징 벡터가 체험 반응정보 또는 체험 감성정보의 추출을 위한 머신러닝 모델의 입력값으로 사용될 수 있도록 특징벡터의 차원을 매칭시킬 수 있다.The experience information extraction system may match the dimension of the feature vector so that the extracted feature vector can be used as an input value of a machine learning model for extracting experience response information or experience emotion information.

한편, S1008 단계 후에, 체험정보 추출시스템은 체험 상품군에 대응하는 상품군 체험 데이터에 기초하여 훈련된 제1 모델에 상기 추출된 특징 정보를 인가하여, 상기 체험 대상상품의 체험에 따라 카테고리별로 분류된 체험 반응정보를 추출할 수 있다(S1010 단계). Meanwhile, after step S1008, the experience information extraction system applies the extracted feature information to the first model trained based on product group experience data corresponding to the experience product group, and experiences classified by category according to the experience of the experience target product. The reaction information can be extracted (S1010 step).

체험정보 추출시스템은 입력층, 은닉층 및 출력층으로 구성된 제1 모델을 포함할 수 있다. 입력층은 특징벡터가 reshape 함수에 의해 재정렬되어 입력되는 층일 수 있고, 출력층은 입력층에 입력된 특징벡터가 분류되어 체험 반응정보로 출력되는 층이다. 또한, 은닉층이 심층 신경망으로 입력층과 출력층 사이에 배치되어 머신러닝 또는 딥러닝 모델을 형성하는 층일 수 있다. The experience information extraction system may include a first model composed of an input layer, a hidden layer, and an output layer. The input layer may be a layer in which feature vectors are rearranged and input by a reshape function, and the output layer is a layer in which feature vectors input to the input layer are classified and output as experience response information. In addition, the hidden layer may be a layer used as a   deep neural network   disposed between the input layer and the output layer to form a machine learning or deep learning model.

제1 모델이 지도 학습 모델 또는 비지도 학습 모델로 구축되기 위해서 온라인 상의 다양한 사이트들에서 상품군 체험 데이터가 수집될 수 있다. 제1 모델은 모델링을 위해, 수집되는 상품군 체험 데이터를 훈련 데이터, 검증 데이터 및 테스트 데이터로 구분할 수 있다. 제1 모델은, 모델링에 사용되는 상품군 체험 데이터에 속하는 훈련 데이터와 테스트 데이터가 상기 상품군 코퍼스정보에 의해 정제된 후, 정제된 상기 훈련 데이터와 상기 테스트 데이터의 적용을 통해 상기 체험 대상상품의 체험에 따른 상기 체험 반응정보를 카테고리별로 분류하도록 모델링된 것일 수 있다. Product group experience data may be collected from various online sites in order to establish the first model as a supervised learning model or an unsupervised learning model. The first model may divide the collected product group experience data into training data, verification data, and test data for modeling. In the first model, training data and test data belonging to the product group experience data used for modeling are refined by the product group corpus information, and then the refined training data and the test data are applied to the experience of the experience target product. It may be modeled to classify the experience response information according to each category.

체험정보 추출시스템은 상품군 체험 데이터에 속하는 훈련 데이터와 테스트 데이터에 대해 상품군 코퍼스 정보를 이용하여 정제할 수 있다. 즉, 체험정보 추출시스템은 제1 모델을 위한 훈련 데이터와 테스트 데이터에 대해 상품군 코퍼스정보를 적용해 형태소 토큰화를 수행하고, 단어 정규화 프로그램에 의해 어간 추출 또는 표제어 추출을 수행하고, 품사 태깅 프로그램을 이용하여 단어들에 대한 품사 태깅을 수행하며, 단어들 중에서 불필요한 단어가 포함되어 있는 경우에는 불용어를 제거하고, 각 단어들에 대해 개체명 인식 프로그램을 이용하여 개체명을 부여하는 작업을 수행할 수 있다. The experience information extraction system can refine training data and test data belonging to product group experience data using product group corpus information. That is, the experiential information extraction system applies product group corpus information to the training data and test data for the first model to perform morpheme tokenization, and performs stem extraction or headword extraction by a word normalization program, and a part-of-speech tagging program. Part of speech tagging is performed on words by using this method, and when unnecessary words are included in the words, stop words are removed, and an entity name can be assigned to each word using an entity name recognition program. have.

제1 모델은 체험 대상상품의 체험에 따른 기능적 반응정보, 상기 체험 대상상품의 체험에 따른 촉각적 반응정보, 상기 체험 대상상품의 체험에 따른 시각적 반응정보, 상기 체험 대상상품과 다른 상품들 사이의 가치 비교에 따른 상품비교 반응정보, 및 상기 체험 대상상품의 가격에 대한 가격 반응정보 중 적어도 하나 이상의 반응정보 카테고리별로 분류하도록 모델링된 것일 수 있다. The first model includes functional response information according to the experience of the experience target product, tactile response information according to the experience of the experience target product, visual response information according to the experience of the experience target product, and between the experience target product and other products. It may be modeled to classify by at least one or more reaction information categories among product comparison reaction information according to value comparison and price reaction information for the price of the experience target product.

제1 모델은 체험 대상상품의 체험에 따라 추출되는 체험 반응정보에 대하여, 카테고리별 분류 중 기능적 반응정보로 분류하기 위해 상품군 코퍼스정보의 기능 표현용어를 이용하여 모델링된 것이며, 카테고리별 분류 중 촉각적 반응정보로 분류하기 위해 상품군 코퍼스정보의 촉각 표현용어를 이용하여 모델링된 것이며, 카테고리별 분류 중 시각적 반응정보로 분류하기 위해 상품군 코퍼스정보의 시각 표현용어를 이용하여 모델링된 것일 수 있다. 또한, 제1 모델은 체험 반응정보에 대하여, 카테고리별 분류 중 상품비교 반응정보 또는 가격 반응정보로 분류하기 위해 상품군 코퍼스정보의 전문 용어, 성분 용어, 기능 표현용어, 촉각 표현용어, 시각 표현용어 등을 이용하여 모델링된 것일 수 있다.The first model is modeled using the functional expression terminology of the corpus information of the product group in order to classify the experience response information extracted according to the experience of the experience target product as functional response information among the classifications by category, and In order to classify it as reaction information, it is modeled using the tactile expression terminology of the product group corpus information, and it may be modeled using the visual expression terminology of the product group corpus information to classify it as visual response information among categories. In addition, the first model is to classify experiential response information as product comparison response information or price response information among categories, such as terminology, component terms, functional expression terms, tactile expression terms, visual expression terms, etc. It may be modeled using.

예를 들어, 체험 대상상품이 뷰티 상품군인 경우에, 제1 모델은 상품군 코퍼스정보로서 다양한 뷰티상품들의 브랜드, 뷰티상품들의 상품명, 뷰티상품들의 개체명, 뷰티상품들에서 사용되는 전문 용어, 뷰티상품들의 체험에 따른 기능 표현용어, 촉각 표현용어(예를 들어, 발림성, 유분감, 촉촉함 등)와 시각 표현용어(예를 들어, 화사함, 칙칙함, 어두움, 블링블링 등) 등을 사용하여 모델링된 것일 수 있다.For example, if the product to be experienced is a beauty product group, the first model is the product group corpus information, and the brands of various beauty products, product names of beauty products, individual names of beauty products, terminology used in beauty products, beauty products It may have been modeled using functional expression terms, tactile expression terms (e.g. spreadability, oiliness, moisture, etc.) and visual expression terms (e.g., brightness, dullness, darkness, bling bling, etc.) according to their experiences. have.

제1 모델은 심층 신경망을 이용해 구현될 수 있다. 예를 들어, 제1 모델은 심층 신경망을 포함하는 모델로서 RNN 모델, LSTM 모델, CNN 모델, GRU 모델, 또는 트랜스포머 모델 등으로 모델링 된 것일 수 있다.The first model can be implemented using a deep neural network. For example, the first model is a model including a deep neural network and may be modeled as an RNN model, an LSTM model, a CNN model, a GRU model, or a transformer model.

제1 모델은 RNN 모델, LSTM 모델, CNN 모델, GRU 모델, 또는 트랜스포머 모델에서 사용되는 활성화 함수로서 소프트맥스 함수, 하이퍼볼릭 탄젠트 함수, 시그모이드 함수, 렐루 함수 또는 리키렐루 함수를 사용하여 모델링된 것일 수 있다. The first model is an activation function used in an RNN model, LSTM model, CNN model, GRU model, or transformer model, which is modeled using a softmax function, a hyperbolic tangent function, a sigmoid function, a relu function, or a lichirelu function. Can be.

제1 모델은 딥러닝 모델로 구축하는 경우에 손실 함수로서 평균 제곱 오차(MSE) 함수 또는 크로스 엔트로피 함수 등을 사용할 수 있다.When the first model is constructed as a deep learning model, a mean square error (MSE) function or a cross entropy function may be used as a loss function.

또한, 제1 모델은 손실 함수를 최소화하는 학습방법인 옵티마이저를 수행하게 되는데, 이때, 옵티마이저 방식으로서, 배치 경사 하강법, 확률적 경사 하강법(SGD), 미니 배치 경사 하강법, 모멘텀, 아다그라드, 알엠에스프롭, 또는 아담 중 어느 하나의 방식을 사용할 수 있다. 특히, 제1 모델은 아담을 사용하는 것이 바람직할 수 있다.In addition, the first model performs an optimizer, which is a learning method that minimizes the loss function. In this case, as the optimizer method, the batch gradient descent method, the stochastic gradient descent method (SGD), the mini-batch gradient descent method, the momentum, Any one of Adagrad, RMS prop, or Adam can be used. In particular, it may be desirable to use Adam as the first model.

또한, 제1 모델은 드롭아웃 방식이 적용된 모델일 수 있다. 제1 모델은 신경망 학습 시에만 드롭 아웃 방식을 사용하고, 예측 시에는 사용하지 않을 수 있다. Also, the first model may be a model to which a dropout method is applied. The first model may use the dropout method only when training a neural network and not use it when predicting.

또한, 제1 모델은 가중치 초기화 방법으로, 세이비어 초기화 방식 또는 He 초기화 방식을 사용할 수 있다. 이때, 제1 모델은 시그모이드 함수나 하이퍼볼릭 탄젠트 함수와 같은 S자 형태인 활성화 함수를 사용할 경우에는 세이비어 초기화 방식을 사용할 수 있으며, 렐루 함수 또는 리키렐루 함수 등을 활성화 함수로 사용할 경우에는 He 초기화 방식을 사용할 수 있다. In addition, the first model is a weight initialization method, and may use a savior initialization method or a He initialization method. At this time, the first model can use a savior initialization method when using an S-shaped activation function such as a sigmoid function or a hyperbolic tangent function, and when using a relu function or a requirelu function as an activation function, He initialization method can be used.

체험정보 추출시스템은 체험 대상상품이 뷰티상품에 해당하는 경우에, 전술한 제1 모델을 이용하여, 상기 뷰티상품의 체험에 따른 기능적 반응정보, 뷰티상품의 체험에 따른 촉각적 반응정보, 시각적 반응정보, 상기 뷰티상품과 다른 뷰티상품들 사이의 가치 비교에 따른 상품비교 반응정보, 및 상기 뷰티상품의 가격에 대한 상기 가격 반응정보 등으로 분류된 체험 반응정보를 추출할 수 있다. 촉각적 반응정보는 수분감, 발림성, 유분감, 끈적임 또는 잔여감 등을 포함하는 뷰티상품 체험정보이고, 시각적 반응정보는 밝음, 화사함, 무거움 또는 어두움 등을 포함하는 뷰티상품 체험정보이다. 또한, 상품비교 반응정보는 복수의 체험대상 뷰티상품들에 대해 체험자가 느끼는 촉각적, 시각적 가치 판단에 따른 반응정보를 의미한다. The experience information extraction system uses the above-described first model when the product to be experienced corresponds to a beauty product, functional reaction information according to the experience of the beauty product, tactile reaction information according to the experience of the beauty product, and visual reaction. Experience reaction information classified into information, product comparison reaction information according to a value comparison between the beauty product and other beauty products, and the price response information on the price of the beauty product may be extracted. The tactile response information is beauty product experience information including moisture, application, oil, stickiness or residual sensation, and the visual response information is beauty product experience information including brightness, brightness, heaviness, or darkness. In addition, the product comparison reaction information refers to reaction information according to the tactile and visual value judgment that the experiencer feels for a plurality of experience target beauty products.

체험정보 추출시스템은 추출된 체험 반응정보를 체험자의 체험자 식별정보 또는 체험 대상상품에 대한 상품 식별정보와 매칭 처리하고, 매칭 처리된 상기 체험 반응정보를 저장한다.The experiential information extraction system matches the extracted experiential response information with the experiential identification information of the experiential person or product identification information for an experiential product, and stores the matching experiential response information.

S1010 단계 후에, 체험정보 추출시스템은 상기 체험 반응정보의 카테고리별 문장들에 대한 특징벡터들 각각을 제2 모델에 인가하여, 긍정감성 카테고리, 부정감성 카테고리 및 중립감정 카테고리 중 적어도 하나 이상으로 분류된 체험 감성정보를 추출할 수 있다(S1012 단계). After step S1010, the experience information extraction system applies each of the feature vectors for sentences for each category of the experience response information to the second model, and is classified into at least one of a positive emotion category, a negative emotion category, and a neutral emotion category. Experience emotional information can be extracted (step S1012).

여기서, 제2 모델은 상품군 체험 데이터에 포함된 훈련 데이터와 테스트 데이터가 NLTK 코퍼스 정보 또는 KoNLPy 코퍼스 정보에 의해 정제된 후, 정제된 상기 훈련 데이터와 상기 테스트 데이터의 적용을 통해 상기 체험 반응정보에 대응하는 카테고리별 문장들을 상기 긍정감성 카테고리, 상기 부정감성 카테고리 및 상기 중립감성 카테고리 별로 분류하도록 모델링된 것일 수 있다.Here, the second model corresponds to the experience response information through application of the refined training data and test data after the training data and test data included in the product group experience data are refined by NLTK Corpus information or KoNLPy Corpus information. It may be modeled to classify sentences for each category into the positive emotion category, the negative emotion category, and the neutral emotion category.

상품군 체험 데이터에 포함된 훈련 데이터와 테스트 데이터가 영문 데이터인 경우에는, 해당 영문 데이터는 NLTK 코퍼스 정보를 이용하여 문장 분할, 단어 분할 및 텍스트 전처리 등의 정제 과정이 수행된 것일 수 있다. 또한, 상품군 체험 데이터에 포함된 훈련 데이터와 테스트 데이터가 국문 데이터인 경우에는, 해당 국문 데이터는 KoNLPy 코퍼스 정보를 이용하여 문장 분할, 단어 분할, 및 텍스트 전처리 과정 등의 정제 과정이 수행된 것일 수 있다. 여기서, 텍스트 전처리는 전술한 바와 같이, 어간 추출, 표제어 추출, 품사 태깅, 불용어 제거, 개체명 인식 등을 포함할 수 있다. When training data and test data included in the product group experience data are English data, the corresponding English data may be refined processes such as sentence segmentation, word segmentation, and text pre-processing using NLTK corpus information. In addition, when the training data and test data included in the product group experience data are Korean data, the Korean data may be refined processes such as sentence division, word division, and text pre-processing using KoNLPy corpus information. . Here, the text preprocessing may include stem extraction, headword extraction, part-of-speech tagging, stop word removal, and entity name recognition, as described above.

체험정보 추출시스템은 입력층, 은닉층 및 출력층으로 구성된 제2 모델을 포함할 수 있으며, 입력층은 특징벡터가 reshape 함수에 의해 재정렬되어 입력되는 층일 수 있고, 출력층은 입력층에 입력된 특징벡터가 분류되어 체험 감성정보로 출력되는 층이다. 또한, 은닉층이 심층 신경망으로 입력층과 출력층 사이에 배치되어 머신러닝 또는 딥러닝 모델을 형성하는 층일 수 있다. The experience information extraction system may include a second model composed of an input layer, a hidden layer, and an output layer, and the input layer may be a layer in which feature vectors are rearranged by a reshape function, and the output layer is a feature vector input to the input layer. It is a layer that is classified and output as experience-sensitive information. In addition, the hidden layer may be a layer used as a   deep neural network   disposed between the input layer and the output layer to form a machine learning or deep learning model.

제2 모델의 모델링을 위해, 수집된 상품군 체험 데이터를 훈련 데이터, 검증 데이터 및 테스트 데이터로 구분할 수 있다. 제2 모델은, 모델링에 사용되는 상품군 체험 데이터에 속하는 훈련 데이터와 테스트 데이터가 상기 상품군 코퍼스정보에 의해 정제된 후, 정제된 상기 훈련 데이터와 상기 테스트 데이터의 적용을 통해 상기 체험 대상상품의 체험에 따른 상기 체험 감성정보를 카테고리별로 분류하도록 모델링된 것일 수 있다.For modeling the second model, the collected product group experience data may be divided into training data, verification data, and test data. In the second model, training data and test data belonging to the product group experience data used for modeling are refined by the product group corpus information, and then the refined training data and the test data are applied to the experience of the experience target product. It may be modeled to classify the experience emotional information according to each category.

제2 모델은 심층 신경망을 이용해 구현될 수 있다. 예를 들어, 제2 모델은 심층 신경망을 포함하는 모델로서 RNN 모델, LSTM 모델, CNN 모델, GRU 모델, 또는 트랜스포머 모델 등으로 모델링 된 것일 수 있다.The second model can be implemented using a deep neural network. For example, the second model is a model including a deep neural network and may be modeled as an RNN model, an LSTM model, a CNN model, a GRU model, or a transformer model.

제2 모델은 심층 신경망의 활성화 함수로서 소프트맥스 함수, 하이퍼볼릭 탄젠트 함수, 시그모이드 함수, 렐루 함수 또는 리키렐루 함수를 사용하여 모델링된 것일 수 있다. 또한, 제2 모델은 딥러닝 모델로 구축하는 경우에 손실 함수로서 평균 제곱 오차(MSE) 함수 또는 크로스 엔트로피 함수 등을 사용할 수 있다.The second model may be modeled using a softmax function, a hyperbolic tangent function, a sigmoid function, a relu function, or a lichirelu function as an activation function of the deep neural network. In addition, when the second model is constructed as a deep learning model, a mean square error (MSE) function or a cross entropy function may be used as a loss function.

또한, 제2 모델은 손실 함수를 최소화하는 학습방법인 옵티마이저를 수행을 위해, 배치 경사 하강법, 확률적 경사 하강법(SGD), 미니 배치 경사 하강법, 모멘텀, 아다그라드, 알엠에스프롭, 또는 아담 중 어느 하나의 방식을 사용할 수 있다.In addition, the second model is a batch gradient descent method, a stochastic gradient descent method (SGD), a mini-batch gradient descent method, a momentum, Adagrad, RMS prop, in order to perform the optimizer, a learning method that minimizes the loss function. Or you can use either of Adam's methods.

또한, 제2 모델은 드롭아웃 방식이 적용된 모델일 수 있으며, 가중치 초기화 방법으로, 세이비어 초기화 방식 또는 He 초기화 방식을 사용할 수 있다. 제2 모델의 경우에도 시그모이드 함수나 하이퍼볼릭 탄젠트 함수와 같은 S자 형태인 활성화 함수를 사용할 경우에는 세이비어 초기화 방식을 사용할 수 있으며, 렐루 함수 또는 리키렐루 함수 등을 활성화 함수로 사용할 경우에는 He 초기화 방식을 사용할 수 있다. In addition, the second model may be a model to which a dropout method is applied, and as a weight initialization method, a savior initialization method or a He initialization method may be used. Even in the case of the second model, when an S-shaped activation function such as a sigmoid function or a hyperbolic tangent function is used, the savior initialization method can be used. He initialization method can be used.

체험정보 추출시스템은 제2 모델을 사용하여, 체험 반응정보에 속하는 기능적 반응정보, 촉각적 반응정보, 시각적 반응정보, 상품 비교 반응정보 또는 가격 반응정보 각각에 대응하는 문장들에 대하여 긍정감성 카테고리, 부정감성 카테고리 및 중립감성 카테고리 중 어느 하나로 분류된 체험 감성정보를 추출할 수 있다.Using the second model, the experience information extraction system uses a positive emotion category for sentences corresponding to functional reaction information, tactile reaction information, visual reaction information, product comparison reaction information, or price reaction information belonging to the experience reaction information. Experience sentiment information classified into either negative emotion category or neutral emotion category may be extracted.

예를 들어, 체험정보 추출시스템은 체험 대상상품이 뷰티상품에 해당하는 경우에, 상기 뷰티상품의 체험에 따른 체험 반응정보로부터 체험 감성정보를 추출할 수 있다. 체험정보 추출시스템은 촉각적 반응정보에 해당하는 수분감, 발림성, 유분감, 끈적임 또는 잔여감 등에 대해 긍정, 부정 또는 중립 중 어느 하나의 감성 카테고리로 분류된 체험 감성정보를 추출할 수 있다. 또한, 체험정보 추출시스템은 시각적 반응정보에 해당하는 밝음, 화사함, 무거움 또는 어두움 등에 대해 긍정, 부정 또는 중립 중 어느 하나의 감성 카테고리로 분류된 체험 감성정보를 추출할 수 있다. 또한, 체험정보 추출시스템은 상품비교 반응정보 또는 가격 반응정보에 대해 긍정, 부정 또는 중립 중 어느 하나의 감성 카테고리로 분류된 체험 감성정보를 추출할 수 있다.For example, when an experience target product corresponds to a beauty product, the experience information extraction system may extract experience emotion information from experience reaction information according to the experience of the beauty product. The experiential information extraction system can extract experiential emotional information classified into any one of positive, negative, or neutral emotional categories for moisture, spreadability, oiliness, stickiness, or residual feeling corresponding to tactile response information. In addition, the experience information extraction system may extract the experience emotional information classified into one of positive, negative, or neutral emotional categories for light, bright, heavy, or dark corresponding to the visual response information. In addition, the experience information extraction system may extract the experience emotion information classified into any one emotion category of positive, negative, or neutral for product comparison reaction information or price reaction information.

S1012 단계 후에, 체험정보 추출시스템은 상기 체험 감성정보에 대해, 상기 긍정감성 카테고리, 상기 부정감성 카테고리 및 상기 중립감성 카테고리 별로 감성점수를 할당하여 상기 체험자의 상기 체험 대상상품에 대한 감응지수를 산출할 수 있다(S1014 단계). After step S1012, the experience information extraction system calculates a sensitivity index for the experience target product by allocating an emotion score for each of the positive emotion category, the negative emotion category, and the neutral emotion category for the experience emotion information. Can (step S1014).

감성점수에 적용되는 가중치는 긍정감성 단어, 부정감성 단어 또는 중립감성 단어의 출현 빈도를 근거로 설정될 수 있다. 체험정보 추출시스템은 긍정감성 카테고리, 부정감성 카테고리 또는 중립감성 카테고리 별로 분류된 체험 감성정보에 대응하는 텍스트정보 각각에 대해 BoW 알고리즘을 이용하여 고유한 정수 인덱스를 부여하고, 각 인덱스의 위치에 단어 토큰의 등장 횟수를 기록하여 단어 출현 빈도수를 산출할 수 있다. 그 후, 체험정보 추출시스템은 산출된 단어 출현 빈도수가 높을수록 높게 설정된 가중치를 해당 감성점수에 반영하고, 출현 빈도수가 낮을수록 낮게 설정된 가중치를 해당 감성점수에 반영한다. 이에 따라, 동일한 긍정감성, 부정감성 또는 중립감성이라 하더라도 해당 단어의 출연 빈도수에 따라 긍정감성, 부정감성 또는 중립감성의 강도가 구별될 수 있다.The weight applied to the emotion score may be set based on the frequency of occurrence of positive emotion words, negative emotion words, or neutral emotion words. The experience information extraction system assigns a unique integer index using the BoW algorithm for each text information corresponding to the experience emotion information classified by positive emotion category, negative emotion category, or neutral emotion category, and a word token at the position of each index. By recording the number of occurrences of the word, the frequency of occurrence of the word can be calculated. Thereafter, the experiential information extraction system reflects the weight set higher to the emotional score as the calculated frequency of occurrence of the word is higher, and reflects the weight set lower as the frequency of appearance to the corresponding emotional score. Accordingly, even with the same positive feeling, negative feeling, or neutral feeling, the intensity of positive feeling, negative feeling, or neutral feeling can be distinguished according to the frequency of appearance of the word.

S1014 단계 후에, 체험정보 추출시스템은 상기 산출된 감응지수와 상기 체험자의 다양한 체험 대상상품들에 대한 실제 구매 지수를 이용하여 상기 체험자의 상기 체험 대상상품에 대한 잠재적 구매 가능성을 나타내는 잠재적 구매율을 산출할 수 있다(S1016 단계). After step S1014, the experience information extraction system calculates a potential purchase rate representing the potential purchase possibility of the experience target product by the experiencer using the calculated sensitivity index and the actual purchase index for the various experience target products of the experiencer. Can (S1016 step).

체험정보 추출시스템은 체험 대상상품이 뷰티상품에 해당하는 경우에, 산출된 감응지수와 뷰티상품에 대한 피부 적합도 지수 중 적어도 하나 이상에 스케일링값을 적용하여 잠재적 구매율을 산출할 수 있다. 여기서, 스케일링값은 감응지수 또는 피부 적합도 지수를 역수로 치환시키는 값 또는 역수로 치환시키는 값에 가중치가 부여된 값일 수 있다. The experience information extraction system may calculate a potential purchase rate by applying a scaling value to at least one or more of the calculated sensitivity index and the skin suitability index for the beauty product when the product to be experienced corresponds to a beauty product. Here, the scaling value may be a value to which a sensitivity index or a skin fitness index is replaced with an reciprocal number, or a value to which a weight is assigned to a value substituted by an reciprocal number.

체험정보 추출시스템은 체험자의 방문 횟수, 상기 체험자의 구매 횟수 및 상기 체험자의 구매 상품 중 어느 하나 이상의 조합에 따른 산술 연산을 통해 산출된 값인 실제 구매 지수에 스케일링값을 적용하고, 스케일링된 실제 구매 지수와 스케일링된 감응지수 또는 피부 적합도 지수를 서로 산술 연산하여 잠재적 구매율을 산출할 수 있다. The experience information extraction system applies a scaling value to the actual purchase index, which is a value calculated through an arithmetic operation according to a combination of one or more of the number of visits of the experiencer, the number of purchases of the experiencer, and the purchase product of the experiencer, and the scaled actual purchase index The potential purchase rate can be calculated by arithmetically calculating and scaled sensitivity index or skin fitness index with each other.

또한, 체험정보 추출시스템은 상기 체험 대상상품이 뷰티상품에 해당하는 경우에, 상기 감응지수와 상기 체험자의 신체 부위별 피부 측정에 따른 피부 특성정보를 사용해 상기 체험자에게 추천되는 상품을 추출할 수 있다. In addition, when the experience target product corresponds to a beauty product, the experience information extraction system may extract a product recommended to the experiencer using the sensitivity index and skin characteristic information according to skin measurement for each body part of the experiencer. .

체험정보 추출시스템은 산출된 감응지수가 일정 임계치 이상인가를 판단한다. 체험정보 추출시스템은 산출된 감응지수가 일정 임계치 이상인 경우에, 신체 부위별 피부 특성에 대응하는 다양한 뷰티 상품군정보 중에서, 일정 임계치 이상인 감응지수의 뷰티상품이 속하는 신체 부위별 뷰티 상품군을 추출할 수 있다. 그 후, 체험정보 추출시스템은 추출된 신체 부위별 뷰티상품군 중에서 이전에 추출된 피부 특성정보에 매칭되는 뷰티상품들을 추출할 수 있다.The experience information extraction system determines whether the calculated response index is above a certain threshold. The experience information extraction system may extract beauty product groups for each body part to which beauty products with a sensitivity index greater than or equal to a certain threshold from among various beauty product group information corresponding to skin characteristics for each body part, when the calculated sensitivity index is above a certain threshold. . Thereafter, the experience information extraction system may extract beauty products matching the previously extracted skin characteristic information from among the extracted beauty product groups for each body part.

S1016 단계 후에, 체험정보 추출시스템은 상기 체험자 식별정보 및 상기 상품 식별정보 중 어느 하나의 키워드 입력에 따라, 상기 체험 반응정보 및 상기 체험 감성정보 중 어느 하나 이상을 출력할 수 있다(S1016 단계). After step S1016, the experience information extraction system may output one or more of the experience reaction information and the experience emotion information according to input of any one of the experience person identification information and the product identification information (step S1016).

체험정보 추출시스템은 체험자 식별정보 또는 상품 식별정보 등을 입력받기 위해, 키패드, 조그 셔틀, 터치 스크린, 입력 버튼 등의 입력 모듈을 포함할 수 있다. 또한, 체험정보 추출시스템은 각 구성 요소의 동작 결과에 해당하는 체험 반응정보, 체험 감성정보, 감응지수, 피부 특성정보, 피부 적합도 정보 또는 잠재적 구매율 정보 등을 출력할 수 있다. The experience information extraction system may include an input module such as a keypad, a jog shuttle, a touch screen, and an input button in order to receive the user identification information or product identification information. In addition, the experience information extraction system may output experience response information, experience emotion information, sensitivity index, skin characteristic information, skin suitability information, or potential purchase rate information corresponding to the operation result of each component.

또한, 체험정보 추출시스템은 피부 특성정보의 출력을 위해, 카메라모듈에서 촬영된 영상 데이터를 표시하는 모듈 또는 영상 표시와 관련한 장치 관리 모듈을 포함할 수 있다. 예를 들어, 체험정보 추출시스템은 기준치 이상의 농도를 가지는 픽셀의 계조값들, 밀도, 면적, 선형성을 포함하는 해석 데이터를 기초로 피부 주름, 기미 등을 포함하는 피부 노화에 대응하는 특징점들을 검출할 수 있다. 체험정보 추출시스템은 SIFT(Scale Invariant Feature Transform) 알고리즘을 고속화시킨 SURF(Speeded-Up Robust features) 알고리즘과 같은 특징점 추출 알고리즘을 이용하여 영상 데이터로부터 특징점을 추출할 수 있다. In addition, the experience information extraction system may include a module that displays image data captured by a camera module or a device management module related to image display to output skin characteristic information. For example, the experience information extraction system detects feature points corresponding to skin aging, including skin wrinkles and blemishes, based on analysis data including grayscale values, density, area, and linearity of pixels having a density higher than a reference value. I can. The experiential information extraction system can extract feature points from image data using feature point extraction algorithms such as the Speeded-Up Robust features (SURF) algorithm that accelerates the Scale Invariant Feature Transform (SIFT) algorithm.

또한, 체험정보 추출시스템은 카메라모듈에서 촬영된 영상 데이터를 그레이 스케일 영상으로 변환하거나 소정의 기준값에 따른 정규화(Normalization) 처리를 수행하며, 영상 데이터에 대한 각종 노이즈(Noise)를 제거하는 영상 처리를 수행할 수 있다. 또한, 체험정보 추출시스템은 임펄스 노이즈(impulse noise) 제거 필터를 이용하여 영상 데이터 중의 잡음을 제거할 수 있으며, 잡음이 제거된 영상 데이터에 대해 샤프닝 공간 필터(sharpening spacial filter)를 이용하여 잡음 제거에 따른 손실 에지(edge)를 보강할 수 있도록 한다.In addition, the experience information extraction system converts the image data captured by the camera module into gray scale images or performs normalization processing according to a predetermined reference value, and performs image processing to remove various noises from the image data. Can be done. In addition, the experience information extraction system can remove noise in image data using an impulse noise removal filter, and a sharpening spatial filter is used to remove noise from image data from which noise is removed. It is possible to reinforce the resulting loss edge.

또한, 체험정보 추출시스템은 얼굴의 각 부분(예를 들어, 이마 부분, 목 부분, 턱밑 부분, 미간 부분, 눈밑 부분, 코와 입 주변 부분 등)별로 구분하여 피부 영상을 관리 및 표시할 수 있다. 즉, 체험정보 추출시스템은 피부영상 어플리케이션의 구동에 따라 얼굴의 각 부분에 대한 피부 노화 위치에 대응하는 특징점들로부터 해당 얼굴의 각 부분에 대한 피부 노화 정보(예를 들어, 피부 나이, 노화 정도 그래프)를 생성 및 저장하고, 사용자의 요청에 따라 얼굴의 각 부분에 대한 피부 노화 정보를 표시할 수 있다. In addition, the experience information extraction system can manage and display skin images by dividing each part of the face (for example, forehead, neck, under the chin, glabellar, under the eyes, and around the nose and mouth). . In other words, the experience information extraction system uses skin aging information for each part of the face (e.g., skin age, aging graph) from feature points corresponding to skin aging positions for each part of the face as the skin image application is driven. ) Can be created and stored, and skin aging information for each part of the face can be displayed at the request of the user.

전술한 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 실시예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.The above-described method may be implemented in the form of program instructions that can be executed through various computer means and recorded in a computer-readable medium. The computer-readable medium may include program instructions, data files, data structures, and the like alone or in combination. The program instructions recorded on the medium may be specially designed and configured for the embodiment, or may be known and usable to those skilled in computer software. Examples of computer-readable recording media include magnetic media such as hard disks, floppy disks, and magnetic tapes, optical media such as CD-ROMs and DVDs, and magnetic media such as floptical disks. -A hardware device specially configured to store and execute program instructions such as magneto-optical media, and ROM, RAM, flash memory, and the like. Examples of program instructions include not only machine language codes such as those produced by a compiler but also high-level language codes that can be executed by a computer using an interpreter or the like. The hardware device described above may be configured to operate as one or more software modules to perform the operation of the embodiment, and vice versa.

체험정보의 추출을 위한 소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상장치(virtual equipment), 컴퓨터 저장 매체 또는 장치, 또는 전송되는 신호 파(signal wave)에 영구적으로, 또는 일시적으로 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.Software for extracting experience information may include a computer program, code, instruction, or a combination of one or more of them, and configure the processing device to operate as desired, or independently or combined It is possible to collectively command the processing unit. Software and/or data may be interpreted by a processing device or to provide instructions or data to a processing device, of any type of machine, component, physical device, virtual equipment, computer storage medium or device. , Or may be permanently or temporarily embodyed in a transmitted signal wave. The software may be distributed over networked computer systems and stored or executed in a distributed manner. Software and data may be stored on one or more computer-readable recording media.

이상과 같이 실시예들이 비록 한정된 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기를 기초로 다양한 기술적 수정 및 변형을 적용할 수 있다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.As described above, although the embodiments have been described by the limited drawings, a person of ordinary skill in the art can apply various technical modifications and variations based on the above. For example, the described techniques are performed in a different order from the described method, and/or components such as a system, structure, device, circuit, etc. described are combined or combined in a form different from the described method, or other components Alternatively, even if substituted or substituted by an equivalent, an appropriate result can be achieved.

전술한 바와 같이, 본 발명의 명세서에 개시된 실시예들은 본 발명을 한정하는 것이 아니다. 본 발명의 범위는 아래의 특허청구범위에 의해 해석되어야 하며, 그와 균등한 범위 내에 있는 모든 기술도 본 발명의 범위에 포함되는 것으로 해석해야 할 것이다.As described above, the embodiments disclosed in the specification of the present invention do not limit the present invention. The scope of the present invention should be interpreted by the following claims, and all technologies within the scope equivalent thereto should be interpreted as being included in the scope of the present invention.

10: 체험정보 추출시스템
20: 통신망
30: 휴대용 단말기
40: 상품 태그
50: 외부 단말기
100: 저장부
102: 식별정보 인식부
104: 텍스트 추출부
106: 특징정보 추출부
108: 반응정보 추출부
110: 감성정보 추출부
112: 제어부
114: 감응지수 산출부
116: 피부특성 검출부
118: 적합도 산출부
120: 구매율 산출부
122: 추천상품 추출부
124: 사용자 인터페이스부
126: 통신부
10: 물류 서비스 시스템
100: 사용자 단말기
110: 단말 통신부
120: 단말 메모리
130: 단말 프로세서
200: 물류 서버
210: 물류 통신부
10: Experience information extraction system
20: communication network
30: portable terminal
40: product tag
50: external terminal
100: storage
102: identification information recognition unit
104: text extraction unit
106: feature information extraction unit
108: reaction information extraction unit
110: emotional information extraction unit
112: control unit
114: response index calculation unit
116: skin characteristic detection unit
118: goodness-of-fit calculation unit
120: purchase rate calculation unit
122: recommended product extraction unit
124: user interface unit
126: Ministry of Communications
10: logistics service system
100: user terminal
110: terminal communication unit
120: terminal memory
130: terminal processor
200: logistics server
210: Ministry of Logistics and Communication

Claims (37)

체험 대상상품의 체험에 따라 생성된 텍스트 정보의 전처리를 수행하고, 전처리된 텍스트 정보로부터 머신런닝을 위한 입력값인 특징 정보를 추출하는 특징정보 추출부;
상기 추출된 특징 정보를 소비자 체험에 따른 상품군 체험 데이터에 기초하여 훈련된 제1 모델에 인가하여, 상기 체험 대상상품의 체험에 따라 카테고리별로 분류된 체험 반응정보를 추출하는 반응정보 추출부;
상기 반응정보 추출부에 의해 추출된 상기 체험 반응정보의 카테고리별 문장들에 대한 각각의 특징 정보를 제2 모델에 인가하여 체험 감성정보를 추출하는 감성정보 추출부; 및
체험자의 체험자 식별정보 및 상기 체험 대상상품에 대한 상품 식별정보를 상기 체험 반응정보 또는 상기 체험 감성정보와 매칭 처리하고, 매칭 처리된 상기 체험 반응정보 또는 상기 체험 감성정보를 저장부에 저장하도록 제어하는 제어부를 포함하고,
상기 특징정보 추출부는,
상기 텍스트정보의 분할 문장들 각각에 대한 문장 식별정보를 할당하고,
상기 반응정보 추출부는,
상기 제1 모델을 이용하여, 상기 문장 식별정보에 대응하는 분할 문장들 각각에 대해, 상기 체험 대상상품의 체험에 따른 기능적 반응정보, 촉각적 반응정보, 시각적 반응정보, 상품비교 반응정보 및 가격 반응정보 중 적어도 하나 이상을 포함하는 상기 체험 반응정보를 추출하고,
상기 감성정보 추출부는,
상기 제2 모델을 이용하여, 상기 문장 식별정보에 대응하는 상기 체험 반응정보를 긍정감성 카테고리, 부정감성 카테고리 및 중립감성 카테고리 중 적어도 하나 이상으로 분류하는 것을 특징으로 하는 상품 체험에 따른 체험정보 추출시스템.
A feature information extraction unit that performs pre-processing of text information generated according to the experience of the experience target product, and extracts feature information, which is an input value for machine running, from the pre-processed text information;
A reaction information extracting unit that applies the extracted feature information to a first model trained based on product group experience data according to a consumer experience, and extracts experience reaction information classified by category according to the experience of the experience target product;
A sentiment information extracting unit for extracting experience sentiment information by applying the feature information of each category of sentences of the experience response information extracted by the reaction information extracting unit to a second model; And
Matching the experience response information or the experience emotion information with the experience response information or the experience emotion information, and controlling to store the matched experience response information or the experience emotion information in a storage unit Including a control unit,
The feature information extraction unit,
Allocating sentence identification information for each of the divided sentences of the text information,
The reaction information extraction unit,
Using the first model, for each of the divided sentences corresponding to the sentence identification information, functional reaction information, tactile reaction information, visual reaction information, product comparison reaction information, and price reaction according to the experience of the experience target product Extracting the experience response information including at least one of the information,
The emotion information extraction unit,
Using the second model, experience information extraction system according to product experience, characterized in that the experience response information corresponding to the sentence identification information is classified into at least one of a positive emotion category, a negative emotion category, and a neutral emotion category. .
청구항 1에 있어서,
상기 체험자 식별정보 또는 상기 상품 식별정보를 인식하는 식별정보 인식부를 더 포함하고,
상기 제어부는 상기 식별정보 인식부의 상기 체험자 식별정보 또는 상기 상품 식별정보의 인식에 응답하여 상기 반응정보 추출부의 동작 개시를 제어하고,
상기 반응정보 추출부에서 추출된 상기 체험 반응정보를 상기 체험자 식별정보 또는 상기 상품 식별정보와 매칭 처리하는 것을 특징으로 하는 상품 체험에 따른 체험정보 추출시스템.
The method according to claim 1,
Further comprising an identification information recognition unit for recognizing the user identification information or the product identification information,
The control unit controls the start of the operation of the reaction information extraction unit in response to recognition of the experience identification information or the product identification information of the identification information recognition unit,
Experience information extraction system according to product experience, characterized in that matching the experience response information extracted by the reaction information extraction unit with the experience person identification information or the product identification information.
청구항 1에 있어서,
상기 체험 대상상품의 체험에 따라 생성되는 체험자 음성으로부터 상기 체험자의 상기 텍스트 정보를 추출하는 텍스트 추출부를 더 포함하는 것을 특징으로 하는 상품 체험에 따른 체험정보 추출시스템.
The method according to claim 1,
And a text extracting unit for extracting the text information of the experienced user from the voice of the experienced user generated according to the experience of the experience target product.
삭제delete 청구항 1에 있어서,
상기 특징정보 추출부는,
자연어 처리를 위한 자연어 프로그램정보를 이용하여 상기 텍스트 정보를 문장 단위로 분할하고, 상기 분할 문장 각각에 대해 텍스트 전처리를 수행하는 전처리 모듈; 및
상기 텍스트 전처리된 분할 문장으로부터 정수 인코딩(integer encoding) 벡터, 원핫 인코딩(one-hot encoding) 벡터 및 임베딩(embedding) 벡터 중 어느 하나의 특징 벡터를 산출하는 특징벡터 산출모듈을 포함하는 것을 특징으로 하는 상품 체험에 따른 체험정보 추출시스템.
The method according to claim 1,
The feature information extraction unit,
A pre-processing module for dividing the text information into sentences by using natural language program information for natural language processing, and performing text pre-processing for each of the divided sentences; And
And a feature vector calculation module that calculates any one feature vector of an integer encoding vector, a one-hot encoding vector, and an embedding vector from the text pre-processed split sentence. Experience information extraction system according to product experience.
청구항 5에 있어서,
상기 특징벡터 산출모듈은,
체험 상품군과 관련한 단어 정보가 자연어 처리 및 체험정보 모델링을 위한 코퍼스로 가공된 상품군 코퍼스정보를 이용하여 상기 임베딩 벡터를 산출하는 것을 특징으로 하는 상품 체험에 따른 체험정보 추출시스템.
The method of claim 5,
The feature vector calculation module,
Experience information extraction system according to product experience, characterized in that the embedding vector is calculated using the product group corpus information processed by the corpus for natural language processing and experience information modeling of word information related to the experience product group.
청구항 6에 있어서,
상기 제1 모델은,
상기 상품군 체험 데이터에 포함된 훈련 데이터와 테스트 데이터가 상기 상품군 코퍼스정보에 의해 정제된 후, 정제된 상기 훈련 데이터와 상기 테스트 데이터의 적용을 통해 상기 체험 대상상품의 체험에 따른 상기 체험 반응정보를 카테고리별로 분류하도록 모델링된 것을 특징으로 하는 상품 체험에 따른 체험정보 추출시스템.
The method of claim 6,
The first model,
After the training data and test data included in the product group experience data are refined by the product group corpus information, the experience response information according to the experience of the experience target product is categorized through application of the refined training data and the test data. Experience information extraction system according to product experience, characterized in that modeled to classify by category.
삭제delete 청구항 1에 있어서,
상기 체험 대상상품이 뷰티상품에 해당하는 경우에,
상기 반응정보 추출부는,
상기 뷰티상품의 체험에 따른 기능적 반응정보, 상기 뷰티상품의 체험에 따른 수분감, 발림성, 유분감, 끈적임 및 잔여감 중 적어도 하나 이상을 포함하는 촉각적 반응정보, 상기 뷰티상품의 체험에 따른 밝음, 화사함, 무거움 및 어두움 중 적어도 하나 이상을 포함하는 시각적 반응정보, 상기 뷰티상품과 다른 뷰티상품들 사이의 가치 비교에 따른 상품비교 반응정보, 및 상기 뷰티상품의 가격에 대한 가격 반응정보 중 적어도 하나 이상의 반응정보 카테고리별로 분류하여 상기 체험 반응정보를 추출하는 것을 특징으로 하는 상품 체험에 따른 체험정보 추출시스템.
The method according to claim 1,
If the above experience target product is a beauty product,
The reaction information extraction unit,
Functional reaction information according to the experience of the beauty product, tactile reaction information including at least one of at least one of moisture, application, oil, stickiness, and residual sensation according to the experience of the beauty product, brightness and brightness according to the experience of the beauty product , At least one reaction of visual reaction information including at least one of heaviness and darkness, product comparison reaction information according to value comparison between the beauty product and other beauty products, and price reaction information on the price of the beauty product Experience information extraction system according to product experience, characterized in that classification by information category and extracting the experience response information.
삭제delete 청구항 1에 있어서,
상기 제1 모델 또는 상기 제2 모델은,
RNN(Recurrent Neural Network) 모델, LSTM(Long Short Term Memory networks) 모델, CNN(Convolution Neural Network) 모델, GRU(Gated Recurrent Unit) 모델, 및 트랜스포머(Transformer) 모델 중 어느 하나의 모델을 사용하되,
심층 신경망 모델의 구성을 위해, 소프트맥스(Softmax) 함수, 하이퍼볼릭 탄젠트(Hyperbolic Tangent) 함수, 시그모이드(Sigmoid) 함수, 렐루(ReLU) 함수 및 리키렐루(Leaky ReLU) 함수 중 어느 하나 이상의 활성화 함수를 사용하는 것을 특징으로 하는 상품 체험에 따른 체험정보 추출시스템.
The method according to claim 1,
The first model or the second model,
Use any one of a recurrent neural network (RNN) model, a long short term memory networks (LSTM) model, a convolution neural network (CNN) model, a gated recurrent unit (GRU) model, and a transformer model,
To construct a deep neural network model, activate at least one of the Softmax function, Hyperbolic Tangent function, Sigmoid function, ReLU function, and Leaky ReLU function. Experience information extraction system according to product experience, characterized in that using a function.
삭제delete 청구항 1에 있어서,
상기 체험 감성정보에 대하여 상기 긍정감성 카테고리, 상기 부정감성 카테고리 및 상기 중립감성 카테고리 별로 감성점수를 할당하여 상기 체험자의 상기 체험 대상상품에 대한 감응지수를 산출하는 감응지수 산출부를 더 포함하는 것을 특징으로 하는 상품 체험에 따른 체험정보 추출시스템.
The method according to claim 1,
It characterized in that it further comprises a sensitivity index calculation unit for calculating a sensitivity index for the experience target product by allocating an emotion score for each of the positive emotion category, the negative emotion category and the neutral emotion category with respect to the experience emotion information. Experience information extraction system according to product experience.
청구항 13에 있어서,
상기 산출된 감응지수와 상기 체험자의 다양한 체험 대상상품들에 대한 실제 구매 지수를 이용하여 상기 체험자의 상기 체험 대상상품에 대한 잠재적 구매 가능성을 나타내는 잠재적 구매율을 산출하는 구매율 산출부를 더 포함하는 것을 특징으로 하는 상품 체험에 따른 체험정보 추출시스템.
The method of claim 13,
It characterized in that it further comprises a purchase rate calculation unit for calculating a potential purchase rate indicating a potential purchase possibility for the product to be experienced by the experiencer by using the calculated sensitivity index and the actual purchase indices for various products subject to experience by the experiencer. Experience information extraction system according to product experience.
청구항 14에 있어서,
상기 체험 대상상품이 뷰티상품에 해당하는 경우에,
상기 구매율 산출부는,
상기 감응지수 및 상기 실제 구매 지수와 상기 체험자의 피부 타입 및 피부 톤에 따른 상기 뷰티상품의 피부 적합도 지수 중 적어도 하나 이상에 스케일링값을 적용하여 상기 체험자의 상기 뷰티상품에 대한 상기 잠재적 구매율을 산출하는 것을 특징으로 하는 상품 체험에 따른 체험정보 추출시스템.
The method of claim 14,
If the above experience target product is a beauty product,
The purchase rate calculation unit,
Applying a scaling value to at least one of the sensitivity index, the actual purchase index, and the skin suitability index of the beauty product according to the skin type and skin tone of the experiencer to calculate the potential purchase rate for the beauty product of the experiencer Experience information extraction system according to product experience, characterized in that.
청구항 1에 있어서,
상기 체험 대상상품이 뷰티상품에 해당하는 경우에,
상기 체험자의 신체 부위별 피부를 측정하여, 상기 체험자에 대한 상기 신체 부위별 피부 타입 정보 및 피부 톤 정보 중 적어도 하나 이상을 포함하는 피부 특성정보를 검출하는 피부특성 검출부를 더 포함하고,
상기 제어부는,
상기 피부 특성정보를 상기 체험자 식별정보에 대응하는 상기 체험 반응정보와 매칭 처리하고, 상기 체험 반응정보와 매칭 처리된 상기 피부 특성정보를 상기 저장부에 저장하도록 제어하는 것을 특징으로 하는 상품 체험에 따른 체험정보 추출시스템.
The method according to claim 1,
If the above experience target product is a beauty product,
Further comprising a skin characteristic detection unit for measuring the skin of each body part of the experiencer, and detecting skin characteristic information including at least one of skin type information and skin tone information for each body part of the experiencer,
The control unit,
According to a product experience, characterized in that the skin characteristic information is matched with the experience response information corresponding to the experience person identification information, and the skin characteristic information matched with the experience response information is stored in the storage unit. Experience information extraction system.
청구항 16에 있어서,
상기 저장부는, 다양한 체험 대상상품들 중 뷰티상품들에 대한 각각의 뷰티 속성정보를 저장하고,
상기 뷰티 속성정보 및 상기 피부 특성정보를 이용해, 상기 체험자의 피부 타입 및 피부 톤에 따른 뷰티상품의 피부 적합도 지수를 산출하는 적합도 산출부를 더 포함하는 것을 특징으로 하는 상품 체험에 따른 체험정보 추출시스템.
The method of claim 16,
The storage unit stores beauty attribute information for beauty products among various experience target products,
The system for extracting experience information according to product experience, further comprising a fitness calculation unit for calculating a skin fitness index of the beauty product according to the skin type and skin tone of the experiencer, using the beauty attribute information and the skin characteristic information.
청구항 17에 있어서,
상기 적합도 산출부는,
상기 체험자의 검출된 피부 타입정보와 상기 뷰티상품의 뷰티 속성정보 중 피부타입 속성정보를 비교하거나, 상기 체험자의 검출된 피부 톤정보와 상기 뷰티상품의 뷰티 속성정보 중 피부톤 속성정보를 비교하여 상기 피부 적합도 지수를 산출하는 것을 특징으로 하는 상품 체험에 따른 체험정보 추출시스템.
The method of claim 17,
The suitability calculation unit,
The skin type attribute information of the experiencer's detected skin type information and the beauty attribute information of the beauty product are compared, or the skin tone attribute information of the experiencer's detected skin tone information and the beauty attribute information of the beauty product is compared Experience information extraction system according to product experience, characterized in that calculating a fitness index.
청구항 13에 있어서,
상기 체험 대상상품이 뷰티상품에 해당하는 경우에,
상기 감응지수와 상기 체험자의 신체 부위별 피부 측정에 따른 피부 특성정보를 사용해 상기 체험자에게 추천되는 상품을 추출하는 추천상품 추출부를 더 포함하는 것을 특징으로 하는 상품 체험에 따른 체험정보 추출시스템.
The method of claim 13,
If the above experience target product is a beauty product,
And a recommended product extracting unit for extracting a product recommended to the experienced user by using the sensitivity index and skin characteristic information according to the skin measurement for each body part of the experiencer.
상품 체험에 따른 체험정보 추출시스템에서 수행되는 상품 체험에 따른 체험정보 추출방법에 있어서,
특징정보 추출부가 체험 대상상품의 체험에 따라 생성된 텍스트 정보의 전처리를 수행하고, 상기 전처리된 텍스트 정보로부터 머신 런닝을 위한 입력값인 특징 정보를 추출하는 단계;
반응정보 추출부가 소비자 체험에 따른 상품군 체험 데이터에 기초하여 훈련된 제1 모델에 상기 추출된 특징 정보를 인가하여, 상기 체험 대상상품의 체험에 따라 카테고리별로 분류된 체험 반응정보를 추출하는 단계;
감성정보 추출부가 추출된 상기 체험 반응정보의 카테고리별 문장들에 대한 각각의 특징 정보를 제2 모델에 인가하여 체험 감성정보를 추출하는 단계; 및
제어부가 체험자의 체험자 식별정보 및 상기 체험 대상상품에 대한 상품 식별정보를 상기 체험 반응정보 또는 상기 체험 감성정보와 매칭 처리하고, 매칭 처리된 상기 체험 반응정보 또는 상기 체험 감성정보를 저장부에 저장시키는 단계를 포함하고,
상기 특징정보를 추출하는 단계는,
상기 텍스트정보의 분할 문장들 각각에 대한 문장 식별정보를 할당하고,
상기 체험 반응정보를 추출하는 단계는,
상기 제1 모델을 이용하여, 상기 문장 식별정보에 대응하는 분할 문장들 각각에 대해, 상기 체험 대상상품의 체험에 따른 기능적 반응정보, 촉각적 반응정보, 시각적 반응정보, 상품비교 반응정보 및 가격 반응정보 중 적어도 하나 이상을 포함하는 상기 체험 반응정보를 추출하고,
상기 체험 감성정보를 추출하는 단계는,
상기 제2 모델을 이용하여, 상기 문장 식별정보에 대응하는 상기 체험 반응정보를 긍정감성 카테고리, 부정감성 카테고리 및 중립감성 카테고리 중 적어도 하나 이상으로 분류하는 것을 특징으로 하는 상품 체험에 따른 체험정보 추출방법.
In the experience information extraction method according to product experience performed by the experience information extraction system according to product experience,
Performing, by a feature information extracting unit, pre-processing of text information generated according to an experience of an experience target product, and extracting feature information, which is an input value for machine running, from the pre-processed text information;
Extracting, by a response information extracting unit, the extracted feature information to a first model trained based on product group experience data according to consumer experience, and extracting experience response information classified by category according to the experience of the experience target product;
Extracting experiential emotional information by applying the feature information for each category of the experiential response information extracted by the emotional information extracting unit to a second model; And
The control unit matches the experience response information or the experience emotion information with the experience response information or the experience emotion information, and stores the matched experience response information or the experience emotion information in a storage unit. Including steps,
Extracting the feature information,
Allocating sentence identification information for each of the divided sentences of the text information,
Extracting the experience response information,
Using the first model, for each of the divided sentences corresponding to the sentence identification information, functional reaction information, tactile reaction information, visual reaction information, product comparison reaction information, and price reaction according to the experience of the experience target product Extracting the experience response information including at least one of the information,
Extracting the experience emotional information,
Using the second model, the experience response information corresponding to the sentence identification information is classified into at least one of a positive emotion category, a negative emotion category, and a neutral emotion category. .
청구항 20에 있어서,
식별정보 인식부가 상기 체험자 식별정보 또는 상기 상품 식별정보를 인식하는 단계를 더 포함하고,
상기 체험자 식별정보 및 상기 상품 식별정보의 인식 후에, 상기 특징정보 추출부가 상기 특징 정보를 추출하는 것을 특징으로 하는 상품 체험에 따른 체험정보 추출방법.
The method of claim 20,
The identification information recognition unit further comprises the step of recognizing the user identification information or the product identification information,
After recognizing the user identification information and the product identification information, the characteristic information extraction unit extracts the characteristic information.
청구항 20에 있어서,
상기 특징 정보를 추출하는 단계는,
자연어 처리를 위한 자연어 프로그램정보를 이용하여 상기 텍스트 정보를 문장 단위로 분할하는 단계;
상기 분할 문장 각각에 대해 텍스트 전처리를 수행하는 단계; 및
상기 텍스트 전처리된 분할 문장으로부터 정수 인코딩(integer encoding) 벡터, 원핫 인코딩(one-hot encoding) 벡터 및 임베딩(embedding) 벡터 중 어느 하나의 특징 벡터를 산출하는 단계를 포함하는 것을 특징으로 하는 상품 체험에 따른 체험정보 추출방법.
The method of claim 20,
Extracting the feature information,
Dividing the text information into sentences by using natural language program information for natural language processing;
Performing text preprocessing for each of the divided sentences; And
And calculating a feature vector of any one of an integer encoding vector, a one-hot encoding vector, and an embedding vector from the text preprocessed split sentence. Method of extracting experience information according to.
청구항 22에 있어서,
상기 특징 벡터를 산출하는 단계는,
체험 상품군과 관련한 단어 정보가 자연어 처리 및 체험정보 모델링을 위한 코퍼스로 가공된 상품군 코퍼스정보를 이용하여 상기 임베딩 벡터를 산출하는 것을 특징으로 하는 상품 체험에 따른 체험정보 추출방법.
The method of claim 22,
The step of calculating the feature vector,
A method of extracting experience information according to product experience, characterized in that the embedding vector is calculated by using the product group corpus information processed by the corpus for natural language processing and experience information modeling of word information related to the experience product group.
삭제delete 청구항 23 있어서,
상기 제1 모델은,
상기 상품군 체험 데이터에 포함된 훈련 데이터와 테스트 데이터가 상기 상품군 코퍼스 정보에 의해 정제된 후, 정제된 상기 훈련 데이터와 상기 테스트 데이터의 적용을 통해 상기 체험 대상상품의 체험에 따른 상기 체험 반응정보를 카테고리별로 분류하도록 모델링된 것을 특징으로 하는 상품 체험에 따른 체험정보 추출방법.
The method of claim 23,
The first model,
After training data and test data included in the product group experience data are refined by the product group corpus information, the experience response information according to the experience of the experience target product is categorized through application of the refined training data and the test data. A method of extracting experience information according to product experience, characterized in that modeled to classify each.
청구항 20 있어서,
텍스트 추출부가 상기 체험 대상상품의 체험에 따라 생성되는 체험자 음성으로부터 상기 체험자의 상기 텍스트 정보를 추출하는 단계를 더 포함하고,
상기 텍스트 정보의 추출 후에, 상기 특징정보 추출부가 상기 특징 정보를 추출하는 것을 특징으로 하는 상품 체험에 따른 체험정보 추출방법.
The method of claim 20,
The text extracting unit further comprises the step of extracting the text information of the experienced person from the voice of the experienced person generated according to the experience of the experience target product,
After extracting the text information, the feature information extracting unit extracts the feature information.
청구항 20에 있어서,
상기 체험 반응정보를 추출하는 단계는,
상기 체험 대상상품이 뷰티상품에 해당하는 경우에, 상기 뷰티상품의 체험에 따른 기능적 반응정보, 상기 뷰티상품의 체험에 따른 수분감, 발림성, 유분감, 끈적임 및 잔여감 중 적어도 하나 이상을 포함하는 촉각적 반응정보, 상기 뷰티상품의 체험에 따른 밝음, 화사함, 무거움 및 어두움 중 적어도 하나 이상을 포함하는 시각적 반응정보, 상기 뷰티상품과 다른 뷰티상품들 사이의 가치 비교에 따른 상품비교 반응정보, 및 상기 뷰티상품의 가격에 대한 가격 반응정보 중 적어도 하나 이상의 반응정보 카테고리별로 분류하여 상기 체험 반응정보를 추출하는 것을 특징으로 하는 상품 체험에 따른 체험정보 추출방법.
The method of claim 20,
Extracting the experience response information,
When the product to be experienced is a beauty product, functional reaction information according to the experience of the beauty product, a sense of moisture according to the experience of the beauty product, a tactile sense including at least one of a feeling of application, oil, stickiness, and residual feeling Response information, visual response information including at least one of brightness, brightness, heaviness, and darkness according to the experience of the beauty product, product comparison reaction information according to value comparison between the beauty product and other beauty products, and the beauty A method of extracting experience information according to product experience, characterized in that the experience response information is extracted by classifying by at least one or more reaction information categories among price response information on the price of a product.
삭제delete 청구항 20에 있어서,
상기 제1 모델 또는 상기 제2 모델은,
RNN(Recurrent Neural Network) 모델, LSTM(Long Short Term Memory networks) 모델, CNN(Convolution Neural Network) 모델, GRU(Gated Recurrent Unit) 모델, 및 트랜스포머(Transformer) 모델 중 어느 하나의 모델을 사용하되,
심층 신경망 모델의 구성을 위해, 소프트맥스(Softmax) 함수, 하이퍼볼릭 탄젠트(Hyperbolic Tangent) 함수, 시그모이드(Sigmoid) 함수, 렐루(ReLU) 함수 및 리키렐루(Leaky ReLU) 함수 중 어느 하나 이상의 활성화 함수를 사용하는 것을 특징으로 하는 상품 체험에 따른 체험정보 추출방법.
The method of claim 20,
The first model or the second model,
Use any one of a recurrent neural network (RNN) model, a long short term memory networks (LSTM) model, a convolution neural network (CNN) model, a gated recurrent unit (GRU) model, and a transformer model,
To construct a deep neural network model, activate at least one of the Softmax function, Hyperbolic Tangent function, Sigmoid function, ReLU function, and Leaky ReLU function. A method of extracting experience information according to product experience, characterized by using a function.
삭제delete 청구항 20에 있어서,
감응지수 산출부가 상기 체험 감성정보에 대해, 상기 긍정감성 카테고리, 상기 부정감성 카테고리 및 상기 중립감성 카테고리 별로 감성점수를 할당하여 상기 체험자의 상기 체험 대상상품에 대한 감응지수를 산출하는 단계를 더 포함하는 것을 특징으로 하는 상품 체험에 따른 체험정보 추출방법.
The method of claim 20,
The step of calculating a sensitivity index for the experience target product of the experiencer by allocating an emotion score for each of the positive emotion category, the negative emotion category, and the neutral emotion category for the experience emotion information. Experience information extraction method according to product experience, characterized in that.
청구항 31에 있어서,
구매율 산출부가 상기 산출된 감응지수와 상기 체험자의 다양한 체험 대상상품들에 대한 실제 구매 지수를 이용하여 상기 체험자의 상기 체험 대상상품에 대한 잠재적 구매 가능성을 나타내는 잠재적 구매율을 산출하는 단계를 더 포함하는 것을 특징으로 하는 상품 체험에 따른 체험정보 추출방법.
The method of claim 31,
Further comprising the step of calculating, by a purchase rate calculation unit, a potential purchase rate representing a potential purchase possibility for the product to be experienced by the experiencer using the calculated response index and the actual purchase index for the various products to be experienced by the experiencer. A method of extracting experience information according to product experience as a feature.
청구항 32에 있어서,
상기 체험 대상상품이 뷰티상품에 해당하는 경우에,
상기 실제 구매 지수 및 상기 산출된 감응지수와 상기 체험자의 피부 타입 및 피부 톤에 따른 상기 뷰티상품의 피부 적합도 지수 중 적어도 하나 이상에 스케일링값을 적용하여 상기 체험자의 상기 뷰티상품에 대한 상기 잠재적 구매율을 산출하는 것을 특징으로 하는 상품 체험에 따른 체험정보 추출방법.
The method of claim 32,
If the above experience target product is a beauty product,
Applying a scaling value to at least one of the actual purchase index, the calculated sensitivity index, and the skin suitability index of the beauty product according to the skin type and skin tone of the experiencer to determine the potential purchase rate of the beauty product of the experiencer Experience information extraction method according to product experience, characterized in that to calculate.
청구항 20에 있어서,
상기 체험 대상상품이 뷰티상품에 해당하는 경우에,
피부특성 검출부가 상기 체험자의 신체 부위별 피부를 측정하여, 상기 체험자에 대한 상기 신체 부위별 피부 타입 정보 및 피부 톤 정보 중 적어도 하나 이상을 포함하는 피부 특성정보를 검출하는 단계; 및
상기 제어부가 상기 피부 특성정보를 상기 체험자 식별정보에 대응하는 상기 체험 반응정보와 매칭 처리하고, 상기 체험 반응정보와 매칭 처리된 상기 피부 특성정보를 상기 저장부에 저장시키는 단계를 더 포함하는 것을 특징으로 하는 상품 체험에 따른 체험정보 추출방법.
The method of claim 20,
If the above experience target product is a beauty product,
Detecting skin characteristic information including at least one of skin type information and skin tone information for each body part of the experiencer by measuring, by a skin characteristic detection unit, the skin for each body part of the experiencer; And
The control unit further comprises the step of matching and processing the skin characteristic information with the experience response information corresponding to the experienced person identification information, and storing the skin characteristic information matched with the experience response information in the storage unit. Method of extracting experience information according to product experience.
청구항 34에 있어서,
적합도 산출부가 다양한 체험 대상상품들 중 뷰티상품들에 대한 각각의 뷰티 속성정보 및 상기 피부 특성정보를 이용해, 상기 체험자의 피부 타입 및 피부 톤에 따른 뷰티상품의 피부 적합도 지수를 산출하는 단계를 더 포함하는 것을 특징으로 하는 상품 체험에 따른 체험정보 추출방법.
The method of claim 34,
Further comprising the step of calculating, by the fitness calculation unit, the skin fitness index of the beauty product according to the skin type and skin tone of the experiencer, using the beauty attribute information and the skin characteristic information for each of the beauty products among various experience target products. Experience information extraction method according to product experience, characterized in that.
청구항 35에 있어서,
상기 피부 적합도 지수를 산출하는 단계는,
상기 체험자의 검출된 피부 타입정보와 상기 뷰티상품의 뷰티 속성정보 중 피부타입 속성정보를 비교하거나, 상기 체험자의 검출된 피부 톤정보와 상기 뷰티상품의 뷰티 속성정보 중 피부톤 속성정보를 비교하여 상기 피부 적합도 지수를 산출하는 것을 특징으로 하는 상품 체험에 따른 체험정보 추출방법.
The method of claim 35,
The step of calculating the skin fitness index,
The skin type attribute information of the experiencer's detected skin type information and the beauty attribute information of the beauty product are compared, or the skin tone attribute information of the experiencer's detected skin tone information and the beauty attribute information of the beauty product is compared Experience information extraction method according to product experience, characterized in that calculating a fitness index.
청구항 31에 있어서,
상기 체험 대상상품이 뷰티상품에 해당하는 경우에,
추천상품 추출부가 상기 감응지수와 상기 체험자의 신체 부위별 피부 측정에 따른 피부 특성정보를 사용해 상기 체험자에게 추천되는 상품을 추출하는 단계를 더 포함하는 것을 특징으로 하는 상품 체험에 따른 체험정보 추출방법.
The method of claim 31,
If the above experience target product is a beauty product,
And extracting, by the recommended product extraction unit, a product recommended to the experiencer using the sensitivity index and skin characteristic information according to skin measurement for each body part of the experiencer.
KR1020200084305A 2020-01-21 2020-07-08 System and method extracting experience information according to experience of product KR102203355B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020210000595A KR20210094461A (en) 2020-01-21 2021-01-05 System and method extracting information according to experience of product

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR20200007695 2020-01-21
KR1020200007695 2020-01-21

Related Child Applications (1)

Application Number Title Priority Date Filing Date
KR1020210000595A Division KR20210094461A (en) 2020-01-21 2021-01-05 System and method extracting information according to experience of product

Publications (1)

Publication Number Publication Date
KR102203355B1 true KR102203355B1 (en) 2021-01-18

Family

ID=74236836

Family Applications (2)

Application Number Title Priority Date Filing Date
KR1020200084305A KR102203355B1 (en) 2020-01-21 2020-07-08 System and method extracting experience information according to experience of product
KR1020210000595A KR20210094461A (en) 2020-01-21 2021-01-05 System and method extracting information according to experience of product

Family Applications After (1)

Application Number Title Priority Date Filing Date
KR1020210000595A KR20210094461A (en) 2020-01-21 2021-01-05 System and method extracting information according to experience of product

Country Status (1)

Country Link
KR (2) KR102203355B1 (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102334404B1 (en) * 2021-04-07 2021-12-03 오브젠 주식회사 Merchandise recommendation server and control method thereof
KR102383458B1 (en) * 2021-08-17 2022-04-11 주식회사 아이스크림에듀 Active artificial intelligence tutoring system that support management of learning outcome
KR102387665B1 (en) * 2021-01-20 2022-04-15 연세대학교 산학협력단 Disaster Information Screening System and Screen Metood to analyze disaster message information on social media using disaster weights
KR102430775B1 (en) * 2022-02-07 2022-08-10 주식회사 알파브라더스 Integrated test platform system for providing marketability, usability and technicality tests about business model and the operating method thereof
KR20220147299A (en) * 2021-04-27 2022-11-03 한양대학교 산학협력단 User review analysis device by artificial intelligence and method thereof
KR20230025102A (en) * 2021-08-13 2023-02-21 유한회사 글로벌에스씨 Method and Apparatus for Smart Law Precedent Search Technology and an Integrated Law Service Technology Based on Machine Learning

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20240016816A (en) * 2022-07-29 2024-02-06 주식회사 마블러스 System and method for analyzing states of users in metaverse

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20060051447A (en) * 2004-09-24 2006-05-19 이상수 The method and system of advertising perfumes and cosmetics by providing the sample
KR20070042289A (en) 2005-10-18 2007-04-23 주식회사 세르쎄코스메틱스 System for selling ware using experience and control method
KR20120064296A (en) * 2010-12-09 2012-06-19 호서대학교 산학협력단 System and method for providing information using search of appreciative criticism
KR20160121867A (en) * 2015-04-13 2016-10-21 주식회사 에이치이알 Method for Beauty Curation Commerce
KR101907348B1 (en) * 2018-02-26 2018-10-11 주식회사 케이뱅크은행 Apparatus and Method for Realizing Goods on Spatial-Tangible
KR20190083143A (en) * 2018-01-03 2019-07-11 세종대학교산학협력단 Sensory evaluation method and apparatus
KR102020756B1 (en) * 2018-10-23 2019-11-04 주식회사 리나소프트 Method for Analyzing Reviews Using Machine Leaning

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20060051447A (en) * 2004-09-24 2006-05-19 이상수 The method and system of advertising perfumes and cosmetics by providing the sample
KR20070042289A (en) 2005-10-18 2007-04-23 주식회사 세르쎄코스메틱스 System for selling ware using experience and control method
KR20120064296A (en) * 2010-12-09 2012-06-19 호서대학교 산학협력단 System and method for providing information using search of appreciative criticism
KR20160121867A (en) * 2015-04-13 2016-10-21 주식회사 에이치이알 Method for Beauty Curation Commerce
KR20190083143A (en) * 2018-01-03 2019-07-11 세종대학교산학협력단 Sensory evaluation method and apparatus
KR101907348B1 (en) * 2018-02-26 2018-10-11 주식회사 케이뱅크은행 Apparatus and Method for Realizing Goods on Spatial-Tangible
KR102020756B1 (en) * 2018-10-23 2019-11-04 주식회사 리나소프트 Method for Analyzing Reviews Using Machine Leaning

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102387665B1 (en) * 2021-01-20 2022-04-15 연세대학교 산학협력단 Disaster Information Screening System and Screen Metood to analyze disaster message information on social media using disaster weights
KR102334404B1 (en) * 2021-04-07 2021-12-03 오브젠 주식회사 Merchandise recommendation server and control method thereof
KR20220147299A (en) * 2021-04-27 2022-11-03 한양대학교 산학협력단 User review analysis device by artificial intelligence and method thereof
KR102575603B1 (en) * 2021-04-27 2023-09-06 한양대학교 산학협력단 User review analysis device by artificial intelligence and method thereof
KR20230025102A (en) * 2021-08-13 2023-02-21 유한회사 글로벌에스씨 Method and Apparatus for Smart Law Precedent Search Technology and an Integrated Law Service Technology Based on Machine Learning
KR102559806B1 (en) * 2021-08-13 2023-07-27 유한회사 글로벌에스씨 Method and Apparatus for Smart Law Precedent Search Technology and an Integrated Law Service Technology Based on Machine Learning
KR102383458B1 (en) * 2021-08-17 2022-04-11 주식회사 아이스크림에듀 Active artificial intelligence tutoring system that support management of learning outcome
KR102430775B1 (en) * 2022-02-07 2022-08-10 주식회사 알파브라더스 Integrated test platform system for providing marketability, usability and technicality tests about business model and the operating method thereof
KR102543094B1 (en) * 2022-02-07 2023-06-13 주식회사 알파브라더스 Integrated test platform system for providing marketability, usability and technicality tests based on minimally viable product about business model and the operating method thereof
KR102544104B1 (en) * 2022-02-07 2023-06-16 주식회사 알파브라더스 Integrated test platform system for providing marketability, usability and technicality tests about business model using artificial neural network and the operating method thereof

Also Published As

Publication number Publication date
KR20210094461A (en) 2021-07-29

Similar Documents

Publication Publication Date Title
KR102203355B1 (en) System and method extracting experience information according to experience of product
CN111246256B (en) Video recommendation method based on multi-mode video content and multi-task learning
Chen et al. Learning to rank features for recommendation over multiple categories
KR102619221B1 (en) Machine-implemented facial health and beauty aids
CN109310196A (en) Makeup auxiliary device and cosmetic auxiliary method
KR20230025906A (en) Systems and methods for improved facial attribute classification and its use
KR102271063B1 (en) Method for performing virtual fitting, apparatus and system thereof
US20230116487A1 (en) Determining Skin Complexion and Characteristics
CA3199439A1 (en) Digital imaging and learning systems and methods for analyzing pixel data of an image of a hair region of a user's head to generate one or more user-specific recommendations
KR20230029486A (en) Method and apparatus for providing a service for recommending costomized cosmetics to user based on the user's skin characteristics and cosmetic use information of other users belonging to an environment similar to the user
Sharma et al. Comparative analysis of CycleGAN and AttentionGAN on face aging application
CN117152566A (en) Classification model training method, model, classification method and product
CN110675312B (en) Image data processing method, device, computer equipment and storage medium
US20230385903A1 (en) System and method for intelligent context-based personalized beauty product recommendation and matching at retail environments
CN112053205A (en) Product recommendation method and device through robot emotion recognition
KR20200107488A (en) Virtual makeup composition processing method
KR20220051564A (en) Method and system for providing of user customized cosmetic based on artivicial intelligence
CN113744012A (en) Information processing method, device and storage medium
KR20200107486A (en) Virtual makeup composition processing apparatus
KR20200107482A (en) Virtual makeup composition processing apparatus
US20240029330A1 (en) Apparatus and method for generating a virtual avatar
Alzahrani Artificial Intelligence Applied to Facial Image Analysis and Feature Measurement
Segers The efficacy of the eigenvector approach to south african sign language identification
Deore Enriching Song Recommendation Through Facial Expression Using Deep Learning.
Akbari et al. Discerning advisor: an intelligent advertising system for clothes considering skin color

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
A107 Divisional application of patent
GRNT Written decision to grant