KR102575603B1 - User review analysis device by artificial intelligence and method thereof - Google Patents

User review analysis device by artificial intelligence and method thereof Download PDF

Info

Publication number
KR102575603B1
KR102575603B1 KR1020210054251A KR20210054251A KR102575603B1 KR 102575603 B1 KR102575603 B1 KR 102575603B1 KR 1020210054251 A KR1020210054251 A KR 1020210054251A KR 20210054251 A KR20210054251 A KR 20210054251A KR 102575603 B1 KR102575603 B1 KR 102575603B1
Authority
KR
South Korea
Prior art keywords
information
layer
review
analysis device
memory
Prior art date
Application number
KR1020210054251A
Other languages
Korean (ko)
Other versions
KR20220147299A (en
Inventor
김종우
전민진
이하정
황지원
최재훈
유영재
Original Assignee
한양대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한양대학교 산학협력단 filed Critical 한양대학교 산학협력단
Priority to KR1020210054251A priority Critical patent/KR102575603B1/en
Publication of KR20220147299A publication Critical patent/KR20220147299A/en
Application granted granted Critical
Publication of KR102575603B1 publication Critical patent/KR102575603B1/en

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/02Marketing; Price estimation or determination; Fundraising
    • G06Q30/0278Product appraisal
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/258Heading extraction; Automatic titling; Numbering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Business, Economics & Management (AREA)
  • General Physics & Mathematics (AREA)
  • Finance (AREA)
  • Accounting & Taxation (AREA)
  • Strategic Management (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • Development Economics (AREA)
  • Software Systems (AREA)
  • Mathematical Physics (AREA)
  • Computing Systems (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Health & Medical Sciences (AREA)
  • Game Theory and Decision Science (AREA)
  • Medical Informatics (AREA)
  • Economics (AREA)
  • Marketing (AREA)
  • General Business, Economics & Management (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Machine Translation (AREA)

Abstract

본 발명은 임의의 제품 또는 서비스에 대한 사용자의 리뷰를 분석하는 장치 및 그 방법에 대한 것으로서, 보다 상세하게는 인공지능(Artificial Intelligence, AI)을 이용하여 사용자 리뷰를 자동 분석하는 장치 및 그 방법에 대한 것이다. 본 발명의 일 실시예에 따른 리뷰 분석 장치는, 프로세서 및 프로세서에 연결되고, 인공지능 알고리즘 및 리뷰데이터를 저장하는 메모리를 포함하며, 메모리는 프로세서에 의해 실행 가능한, 레이블된 학습데이터를 미리 설정된 임베딩(embedding) 방법으로 임베딩하고, 임베딩 결과를 미리 설정된 제1 레이어로 입력한 결과 및 임베딩 결과를 미리 설정된 제2 레이어로 입력한 결과를 이용하여 인공지능 알고리즘을 학습시키고, 학습된 인공지능 알고리즘을 이용하여 리뷰데이터를 미리 설정된 차원에 따라 분류하는 프로그램 명령어들을 저장할 수 있다. 본 발명에 따르면, 인공지능을 이용하여 사용자들이 직접 작성한 리뷰를 다차원적으로 자동 분석할 수 있으므로, 다차원으로 분석된 결과를 통해, 일반 사용자들은 제품 또는 서비스 이용 여부를 쉽게 결정할 수 있고, 판매자들은 자신의 제품 또는 서비스에 대한 객관적인 정보를 얻을 수 있다. The present invention relates to an apparatus and method for analyzing a user's review of a product or service, and more particularly, to an apparatus and method for automatically analyzing user reviews using artificial intelligence (AI). it is about A review analysis device according to an embodiment of the present invention includes a processor and a memory connected to the processor and storing an artificial intelligence algorithm and review data, wherein the memory includes preset embedding of labeled learning data executable by the processor. Embedding by the embedding method, and learning the artificial intelligence algorithm using the result of inputting the embedding result into the first layer set in advance and the result of inputting the embedding result into the second layer set in advance, and using the learned artificial intelligence algorithm Thus, program instructions for classifying review data according to preset dimensions may be stored. According to the present invention, reviews written by users can be automatically multi-dimensionally analyzed using artificial intelligence, so that general users can easily decide whether to use a product or service through multi-dimensional analysis results, and sellers can easily decide whether to use a product or service. You can obtain objective information about your product or service.

Description

인공지능을 이용한 사용자 리뷰 분석 장치 및 그 방법{USER REVIEW ANALYSIS DEVICE BY ARTIFICIAL INTELLIGENCE AND METHOD THEREOF}User review analysis device and method using artificial intelligence {USER REVIEW ANALYSIS DEVICE BY ARTIFICIAL INTELLIGENCE AND METHOD THEREOF}

본 발명은 임의의 제품 또는 서비스에 대한 사용자의 리뷰를 분석하는 장치 및 그 방법에 대한 것으로서, 보다 상세하게는 인공지능(Artificial Intelligence, AI)을 이용하여 사용자 리뷰를 자동 분석하는 장치 및 그 방법에 대한 것이다. The present invention relates to an apparatus and method for analyzing a user's review of a product or service, and more particularly, to an apparatus and method for automatically analyzing user reviews using artificial intelligence (AI). it is about

인공지능(Artificial Intelligence, AI) 시스템은 인간 수준의 지능을 구현하는 컴퓨터 시스템이며, 기존 Rule 기반 스마트 시스템과 달리 기계가 스스로 학습하고 판단하며 똑똑해지는 시스템이다. 인공지능 시스템은 사용할수록 인식률이 향상되고 사용자 취향을 보다 정확하게 이해할 수 있게 되어, 기존 Rule 기반 스마트 시스템은 점차 딥러닝 기반 인공지능 시스템으로 대체되고 있다.An artificial intelligence (AI) system is a computer system that implements human-level intelligence, and unlike existing rule-based smart systems, machines learn, judge, and become smarter on their own. The more AI systems are used, the higher the recognition rate and the more accurate understanding of user preferences. Existing rule-based smart systems are gradually being replaced by deep learning-based AI systems.

인공지능 기술은 기계학습(딥러닝) 및 기계학습을 활용한 요소 기술들로 구성된다. 기계학습은 입력 데이터들의 특징을 스스로 분류/학습하는 알고리즘 기술이며, 요소기술은 딥러닝 등의 기계학습 알고리즘을 활용하여 인간 두뇌의 인지, 판단 등의 기능을 모사하는 기술로서, 언어적 이해, 추론/예측, 지식 표현 등의 기술 분야로 구성된다.Artificial intelligence technology consists of machine learning (deep learning) and element technologies using machine learning. Machine learning is an algorithm technology that classifies/learns the characteristics of input data by itself, and element technology is a technology that uses machine learning algorithms such as deep learning to mimic the functions of the human brain, such as cognition and judgment. /It consists of technical fields such as prediction and knowledge expression.

인공지능 기술이 응용되는 다양한 분야는 다음과 같다. 언어적 이해는 인간의 언어/문자를 인식하고 응용/처리하는 기술로서, 자연어 처리, 기계 번역, 대화시스템, 질의 응답, 음성 인식/합성 등을 포함한다. 추론 예측은 정보를 판단하여 논리적으로 추론하고 예측하는 기술로서, 지식/확률 기반 추론, 최적화 예측, 선호 기반 계획, 추천 등을 포함한다. 지식 표현은 인간의 경험정보를 지식데이터로 자동화 처리하는 기술로서, 지식 구축(데이터 생성/분류), 지식 관리(데이터 활용) 등을 포함한다The various fields where artificial intelligence technology is applied are as follows. Linguistic understanding is a technology for recognizing and applying/processing human language/characters, including natural language processing, machine translation, dialogue systems, question and answering, voice recognition/synthesis, and the like. Inference prediction is a technique of reasoning and predicting logically by judging information, and includes knowledge/probability-based reasoning, optimization prediction, preference-based planning, and recommendation. Knowledge expression is a technology that automatically processes human experience information into knowledge data, and includes knowledge construction (data creation/classification) and knowledge management (data utilization).

한편, 기술의 발전으로 연결성이 중요해진 시대에, 상품과 서비스의 정보를 탐색하는 과정은 소비자의 구매 경로에서 더욱 중요해지고 있다. 이에 사용자가 제품 또는 서비스를 이용한 후 작성하는 텍스트(이하, '리뷰(REVIEW)'라 칭함) 속 감성을 분석하는 기술이 발전해왔다. 하지만, 현재의 리뷰 분석 기술은 "별점(사용자가 제품 또는 서비스에 직접적으로 부여하는 점수)"과 같은 통합된 지표 만을 제공하거나, 리뷰에 대한 단일 차원 분석만이 이뤄지고 있다. On the other hand, in an era where connectivity has become important due to technological development, the process of searching for information on products and services is becoming more important in the consumer's purchase path. Accordingly, a technology for analyzing emotions in a text (hereinafter referred to as 'review') written by a user after using a product or service has been developed. However, the current review analysis technology provides only integrated indicators such as "star ratings (scores directly given by users to products or services)" or only single-dimensional analysis of reviews is performed.

본 발명은 인공지능을 이용하여 사용자의 리뷰를 다차원적으로 분석할 수 있는 사용자 리뷰 분석 장치 및 그 방법을 제공하고자 한다. An object of the present invention is to provide a user review analysis device and method capable of multi-dimensionally analyzing user reviews using artificial intelligence.

본 발명의 일 실시예에 따르면, 프로세서; 및 상기 프로세서에 연결되고, 인공지능 알고리즘 및 리뷰데이터를 저장하는 메모리;를 포함하며, 상기 메모리는 상기 프로세서에 의해 실행 가능한, 레이블된 학습데이터를 미리 설정된 임베딩(embedding) 방법으로 임베딩하고, 상기 임베딩 결과를 미리 설정된 제1 레이어로 입력한 결과 및 상기 임베딩 결과를 미리 설정된 제2 레이어로 입력한 결과를 이용하여 상기 인공지능 알고리즘을 학습시키고, 학습된 상기 인공지능 알고리즘을 이용하여 상기 리뷰데이터를 미리 설정된 차원에 따라 분류하는 프로그램 명령어들을 저장하는, 리뷰 분석 장치가 개시된다. According to one embodiment of the invention, a processor; and a memory connected to the processor and storing an artificial intelligence algorithm and review data, wherein the memory embeds labeled learning data executable by the processor in a preset embedding method, and the embedding The artificial intelligence algorithm is trained using the result of inputting the result to the first layer set in advance and the result of inputting the embedding result to the second layer set in advance, and the review data is stored in advance using the learned artificial intelligence algorithm. A review analysis apparatus for storing program instructions classified according to a set dimension is disclosed.

실시예에 따라, 상기 레이블된 학습데이터는 복수의 전처리데이터를 포함하고, 상기 전처리데이터는 텍스트정보, 차원정보 및 품질정보를 포함하며, 상기 차원정보는 미리 설정된 n개의 품질 관련 항목 중 어느 하나일 수 있다. According to an embodiment, the labeled learning data includes a plurality of preprocessed data, the preprocessed data includes text information, dimension information, and quality information, and the dimension information may be any one of n preset quality-related items. can

실시예에 따라, 상기 임베딩 방법은, BERT(Bidirectional Encoder Representations from Transformers)이고, 상기 임베딩 결과는, 상기 BERT의 인코딩 출력에 포함된 복수의 출력 정보에 상응할 수 있다. According to embodiments, the embedding method may be BERT (Bidirectional Encoder Representations from Transformers), and the embedding result may correspond to a plurality of pieces of output information included in the encoding output of the BERT.

실시예에 따라, 상기 메모리는, 상기 복수의 출력 정보 중 CLS 토큰에 대한 인코딩 출력 정보를 상기 제1 레이어에 입력하여 제1 처리정보를 생성하는 프로그램 명령어들을 저장하되, 상기 제1`레이어는 선형 레이어에 상응할 수 있다. According to an embodiment, the memory stores program instructions for generating first processing information by inputting encoding output information for a CLS token among the plurality of output information to the first layer, wherein the first layer is linear. may correspond to a layer.

실시예에 따라, 상기 메모리는, 상기 제1 처리정보를 미리 설정된 제1 함수로 디코딩하여 제1-1 처리정보를 생성하는 프로그램 명령어들을 저장할 수 있다. Depending on the embodiment, the memory may store program instructions for generating the 1-1 processing information by decoding the first processing information with a preset first function.

실시예에 따라, 상기 제1 함수는 소프트맥스(SOFTMAX) 함수에 상응할 수 있다. Depending on embodiments, the first function may correspond to a softmax function.

실시예에 따라, 상기 메모리는, 상기 제1-1 처리정보를 미리 설정된 제1 손실함수(Loss function)에 입력하여 제1 손실값 생성하고, 상기 제1 손실값을 이용하여 상기 인공지능 알고리즘을 학습시키는 프로그램 명령어들을 저장할 수 있다. According to an embodiment, the memory generates a first loss value by inputting the 1-1 processing information to a preset first loss function, and uses the first loss value to calculate the artificial intelligence algorithm. Program commands to be learned can be stored.

실시예에 따라, 상기 메모리는, 상기 복수의 출력 정보 전부를 상기 제2 레이어에 입력하여 제2 처리정보를 생성하는 프로그램 명령어들을 저장하되, 상기 제2`레이어는 CNN 알고리즘에 상응할 수 있다. According to an embodiment, the memory stores program instructions for generating second processing information by inputting all of the plurality of output information to the second layer, and the second layer may correspond to a CNN algorithm.

실시예에 따라, 상기 메모리는, 상기 제2 처리정보를 미리 설정된 제2 함수로 디코딩하여 제2-1 처리정보를 생성하는 프로그램 명령어들을 저장할 수 있다. Depending on the embodiment, the memory may store program instructions for generating the 2-1 processing information by decoding the second processing information with a preset second function.

실시예에 따라, 상기 제2 함수는 소프트맥스(SOFTMAX) 함수에 상응할 수 있다. Depending on embodiments, the second function may correspond to a SOFTMAX function.

실시예에 따라, 상기 메모리는, 상기 제2-1 처리정보를 미리 설정된 제2 손실함수(Loss function)에 입력하여 제2 손실값 생성하고, 상기 제1 손실값 및 상기 제2 손실값을 이용하여 상기 인공지능 알고리즘을 학습시키는 프로그램 명령어들을 저장할 수 있다. According to an embodiment, the memory generates a second loss value by inputting the 2-1 processing information to a preset second loss function, and uses the first loss value and the second loss value. It is possible to store program instructions for learning the artificial intelligence algorithm.

실시예에 따라, 상기 메모리는, 상기 제1 손실값 및 상기 제2 손실값을 합산한 값이 최소값이 되도록 상기 인공지능 알고리즘을 학습시키는 프로그램 명령어들을 저장할 수 있다. According to an embodiment, the memory may store program instructions for learning the artificial intelligence algorithm such that a sum of the first loss value and the second loss value becomes a minimum value.

실시예에 따라, 상기 메모리는, 상기 복수의 출력 정보 중 텍스트정보에 상응하는 인코딩 출력 정보를 상기 제1 레이어에 입력하여 제3 처리정보를 생성하는 프로그램 명령어들을 저장하되, 상기 제1 레이어는 선형 레이어에 상응할 수 있다. According to an embodiment, the memory stores program instructions for generating third processing information by inputting encoding output information corresponding to text information among the plurality of output information to the first layer, wherein the first layer is linear. may correspond to a layer.

실시예에 따라, 상기 메모리는, 상기 제3 처리정보를 미리 설정된 제3 함수로 디코딩하여 제3-1 처리정보를 생성하는 프로그램 명령어들을 저장할 수 있다. Depending on the embodiment, the memory may store program instructions for generating the 3-1 processing information by decoding the third processing information with a preset third function.

실시예에 따라, 상기 제3 함수는 CRF(Conditional Random Fields) 또는 소프트맥스(SOFTMAX) 함수 중 어느 하나에 상응할 수 있다. Depending on embodiments, the third function may correspond to either a conditional random fields (CRF) function or a softmax (SOFTMAX) function.

실시예에 따라, 상기 메모리는, 상기 제3-1 처리정보를 미리 설정된 제3 손실함수(Loss function)에 입력하여 제3 손실값 생성하고, 상기 제3 손실값을 이용하여 상기 인공지능 알고리즘을 학습시키는 프로그램 명령어들을 저장할 수 있다. According to an embodiment, the memory generates a third loss value by inputting the 3-1 processing information to a preset third loss function, and uses the third loss value to calculate the artificial intelligence algorithm. Program commands to be learned can be stored.

본 발명에 따르면, 인공지능을 이용하여 사용자들이 직접 작성한 리뷰를 다차원적으로 자동 분석할 수 있으므로, 다차원으로 분석된 결과를 통해, 일반 사용자들은 제품 또는 서비스 이용 여부를 쉽게 결정할 수 있고, 판매자들은 자신의 제품 또는 서비스에 대한 객관적인 정보를 얻을 수 있다. According to the present invention, reviews written by users can be automatically multi-dimensionally analyzed using artificial intelligence, so that general users can easily decide whether to use a product or service through multi-dimensional analysis results, and sellers can easily decide whether to use a product or service. You can obtain objective information about your product or service.

본 발명의 상세한 설명에서 인용되는 도면을 보다 충분히 이해하기 위하여 각 도면의 간단한 설명이 제공된다.
도 1은 본 발명의 일 실시예에 따른 리뷰 분석 장치에 대한 블록 구성도이다.
도 2는 본 발명의 일 실시예에 따른 리뷰 분석 장치의 동작을 설명하기 위한 동작 흐름도이다.
도 3은 본 발명의 일 실시예에 따른 학습데이터를 설명하기 위해 예시한 도면이다.
도 4는 본 발명의 일 실시예에 따른 인공지능의 예시 및 인공지능을 학습시키는 과정을 설명하기 위한 도면이다.
도 5 및 도 6은 본 발명의 일 실시예에 따른 인공지능이 복수의 리뷰를 분석한 결과를 예시한 도면이다.
도 7은 본 발명의 일 실시예에 따른 리뷰 분석 동작에 대한 순서도이다.
In order to more fully understand the drawings cited in the detailed description of the present invention, a brief description of each drawing is provided.
1 is a block diagram of a review analysis apparatus according to an embodiment of the present invention.
2 is an operation flowchart for explaining the operation of the review analysis apparatus according to an embodiment of the present invention.
3 is a diagram exemplified to explain learning data according to an embodiment of the present invention.
4 is a diagram for explaining an example of artificial intelligence and a process of learning artificial intelligence according to an embodiment of the present invention.
5 and 6 are diagrams illustrating results obtained by analyzing a plurality of reviews by artificial intelligence according to an embodiment of the present invention.
7 is a flowchart of a review analysis operation according to an embodiment of the present invention.

본 발명의 기술적 사상에 따른 예시적인 실시예들은 당해 기술 분야에서 통상의 지식을 가진 자에게 본 발명의 기술적 사상을 더욱 완전하게 설명하기 위하여 제공되는 것으로, 아래의 실시예들은 여러 가지 다른 형태로 변형될 수 있으며, 본 발명의 기술적 사상의 범위가 아래의 실시예들로 한정되는 것은 아니다. 오히려, 이들 실시예들은 본 개시를 더욱 충실하고 완전하게 하며 당업자에게 본 발명의 기술적 사상을 완전하게 전달하기 위하여 제공되는 것이다.Exemplary embodiments according to the technical spirit of the present invention are provided to more completely explain the technical spirit of the present invention to those skilled in the art, and the following embodiments are modified in various forms. It can be, the scope of the technical spirit of the present invention is not limited to the following embodiments. Rather, these embodiments are provided so that this disclosure will be thorough and complete, and will fully convey the spirit of the invention to those skilled in the art.

본 명세서에서 제1, 제2 등의 용어가 다양한 부재, 영역, 층들, 부위 및/또는 구성 요소들을 설명하기 위하여 사용되지만, 이들 부재, 부품, 영역, 층들, 부위 및/또는 구성 요소들은 이들 용어에 의해 한정되어서는 안 됨은 자명하다. 이들 용어는 특정 순서나 상하, 또는 우열을 의미하지 않으며, 하나의 부재, 영역, 부위, 또는 구성 요소를 다른 부재, 영역, 부위 또는 구성 요소와 구별하기 위하여만 사용된다. 따라서, 이하 상술할 제1 부재, 영역, 부위 또는 구성 요소는 본 발명의 기술적 사상의 가르침으로부터 벗어나지 않고서도 제2 부재, 영역, 부위 또는 구성 요소를 지칭할 수 있다. 예를 들면, 본 발명의 권리 범위로부터 이탈되지 않은 채 제1 구성 요소는 제2 구성 요소로 명명될 수 있고, 유사하게 제2 구성 요소도 제1 구성 요소로 명명될 수 있다.Although the terms first, second, etc. are used in this specification to describe various members, regions, layers, regions and/or components, these members, parts, regions, layers, regions and/or components refer to these terms. It is self-evident that it should not be limited by These terms do not imply any particular order, top or bottom, or superiority or inferiority, and are used only to distinguish one member, region, region, or component from another member, region, region, or component. Accordingly, a first member, region, region, or component described in detail below may refer to a second member, region, region, or component without departing from the teachings of the technical idea of the present invention. For example, a first element may be termed a second element, and similarly, the second element may also be termed a first element, without departing from the scope of the present invention.

달리 정의되지 않는 한, 여기에 사용되는 모든 용어들은 기술 용어와 과학 용어를 포함하여 본 발명의 개념이 속하는 기술 분야에서 통상의 지식을 가진 자가 공통적으로 이해하고 있는 바와 동일한 의미를 지닌다. 또한, 통상적으로 사용되는, 사전에 정의된 바와 같은 용어들은 관련되는 기술의 맥락에서 이들이 의미하는 바와 일관되는 의미를 갖는 것으로 해석되어야 하며, 여기에 명시적으로 정의하지 않는 한 과도하게 형식적인 의미로 해석되어서는 아니 될 것이다.Unless defined otherwise, all terms used herein, including technical terms and scientific terms, have the same meaning as commonly understood by a person of ordinary skill in the art to which the concept of the present invention belongs. In addition, commonly used terms as defined in the dictionary should be interpreted as having a meaning consistent with what they mean in the context of the technology to which they relate, and in an overly formal sense unless explicitly defined herein. will not be interpreted.

여기에서 사용된 '및/또는' 용어는 언급된 부재들의 각각 및 하나 이상의 모든 조합을 포함한다.The term 'and/or' as used herein includes each and every combination of one or more of the recited elements.

이하에서는 첨부한 도면들을 참조하여 본 발명의 기술적 사상에 의한 실시예들에 대해 상세히 설명한다.Hereinafter, embodiments according to the technical idea of the present invention will be described in detail with reference to the accompanying drawings.

도 1은 본 발명의 일 실시예에 따른 리뷰 분석 장치에 대한 블록 구성도이다. 1 is a block diagram of a review analysis apparatus according to an embodiment of the present invention.

도 1을 참조하면, 본 발명의 일 실시예에 따른 리뷰분석장치(100)는 모뎀(MODEM, 110), 프로세서(PROCESSOR, 120) 및 메모리(MEMORY, 130)를 포함할 수 있다. Referring to FIG. 1 , a review analysis device 100 according to an embodiment of the present invention may include a modem 110, a processor 120, and a memory 130.

모뎀(110)은 다른 외부 장치(미도시)들과 전기적으로 연결되어 상호 통신이 이뤄지도록 하는 통신 모뎀일 수 있다. 특히 모뎀(110)은 이들 외부 장치들로부터 수신된 데이터를 프로세서(120)로 출력할 수 있고, 프로세서(120)는 이들 데이터를 메모리(130)에 저장시킬 수 있다. 예를 들어, 모뎀(110)은 인터넷(internet)을 통해 연결된 각종 서버(예를 들어, portal site server 등)에서 크롤링(Crawling)된 데이터를 프로세서(120)로 출력할 수 있다. The modem 110 may be a communication modem that is electrically connected to other external devices (not shown) to enable mutual communication. In particular, the modem 110 may output data received from these external devices to the processor 120, and the processor 120 may store these data in the memory 130. For example, the modem 110 may output crawled data to the processor 120 from various servers (eg, portal site servers, etc.) connected through the Internet.

이하, 각종 서버에서 크롤링 또는 다운로드된 데이터 중, 메모리(130)에 저장된 '인공지능 알고리즘'을 학습시키는데 사용되는 데이터를 "학습용데이터"라 칭하고, 학습된 인공지능 알고리즘을 통해 임의의 제품 또는 서비스의 '차원별 품질'을 측정하기 위해 사용되는 데이터를 "리뷰데이터"라 구분하여 호칭한다. 학습용데이터 및/또는 리뷰데이터는 한 명 이상의 사용자가 인터넷 상의 서버에 업로드한 텍스트 데이터(Text data)에 상응할 수 있다.Hereinafter, among data crawled or downloaded from various servers, the data used to learn the 'artificial intelligence algorithm' stored in the memory 130 is referred to as "learning data", and through the learned artificial intelligence algorithm, any product or service The data used to measure 'quality by dimension' is called "review data". The training data and/or the review data may correspond to text data uploaded by one or more users to a server on the Internet.

메모리(130)는 리뷰분석장치(100)의 동작을 위한 각종 정보 및 프로그램 명령어들이 저장되는 구성으로서, 하드 디스크(Hard Disk), SSD(Solid State Drive) 등과 같은 기억장치일 수 있다. 특히 메모리(130)는 프로세서(120)의 제어에 의해 모뎀(110)에서 입력되는 하나 이상의 학습용데이터 및/또는 리뷰데이터를 저장할 수 있다. 또한, 메모리(130)는 프로세서(120)에 의해 실행 가능한 '리뷰 분석 방법'을 실행시키기 위한 인공지능(Artificial Intelligent) 알고리즘과 같은 프로그램 명령어들을 저장할 수 있다. The memory 130 is a component in which various information and program commands for the operation of the review analysis device 100 are stored, and may be a storage device such as a hard disk or a solid state drive (SSD). In particular, the memory 130 may store one or more learning data and/or review data input from the modem 110 under the control of the processor 120 . In addition, the memory 130 may store program instructions such as an artificial intelligence algorithm for executing a 'review analysis method' executable by the processor 120 .

프로세서(120)는 메모리(130)에 저장된 정보 및 프로그램 명령어들을 이용하여 학습용데이터 및/또는 리뷰데이터를 처리하고, 임의의 제품 및/또는 서비스의 차원별 품질에 상응하는 우울감을 측정할 수 있다. The processor 120 may process learning data and/or review data using information and program instructions stored in the memory 130, and measure depression corresponding to the quality of a product and/or service by dimension.

여기서, '차원'이란 임의의 제품 또는 서비스의 품질을 다방면에서 측정하기 위한 개별 요소를 의미할 수 있다. 예를 들어, 임의의 식당에 상응하는 차원은 다음과 같은 항복들을 포함하도록 설정될 수 있다. Here, 'dimension' may mean an individual element for measuring the quality of a product or service in various aspects. For example, a dimension corresponding to an arbitrary restaurant could be set to include the following items.

- 가격 - Price

- 맛 - taste

- 친절한 정도 - Kindness level

- 청결한 정도 - degree of cleanliness

- 분위기 - atmosphere

또한, '품질'은 단계별로 설정되거나, 긍정/부정/중립 등으로 설정될 수 있다. 이하, 도 2 내지 도 4를 참조하여 프로세서(120)의 동작에 대해 구체적으로 설명한다. In addition, 'quality' may be set in stages or set to positive/negative/neutral. Hereinafter, the operation of the processor 120 will be described in detail with reference to FIGS. 2 to 4 .

도 2는 본 발명의 일 실시예에 따른 리뷰 분석 장치의 동작을 설명하기 위한 동작 흐름도이고, 도 3은 본 발명의 일 실시예에 따른 학습데이터를 설명하기 위해 예시한 도면이며, 도 4는 본 발명의 일 실시예에 따른 인공지능의 예시 및 인공지능을 학습시키는 과정을 설명하기 위한 도면이다. Figure 2 is an operation flow chart for explaining the operation of the review analysis device according to an embodiment of the present invention, Figure 3 is a diagram exemplified for explaining learning data according to an embodiment of the present invention, Figure 4 is this It is a diagram for explaining an example of artificial intelligence and a process of learning artificial intelligence according to an embodiment of the invention.

도 2에는, 본 발명의 일 실시예에 따른 리뷰분석장치(100)의 프로세서(120)가 학습용데이터를 전처리하여 전처리데이터를 생성하고, 전처리데이터를 이용하여 인공지능 알고리즘을 학습시키고, 학습된 인공지능 알고리즘을 이용하여 제품 또는 서비스의 차원별 품질을 측정하기 위한 동작 흐름이 도시된다. 이하에서 설명될 동작들은 프로세서(120)가 메모리(130)에 저장된 프로그램 명령어들을 실행시켜 발생되는 동작들일 수 있으나, 이해와 설명의 편의를 위하여 프로세서(120)가 수행하는 것으로 설명한다. 2, the processor 120 of the review analysis device 100 according to an embodiment of the present invention preprocesses learning data to generate preprocessed data, uses the preprocessed data to learn an artificial intelligence algorithm, and learns artificial intelligence. An operational flow for measuring dimensionally quality of a product or service using an intelligent algorithm is shown. Operations to be described below may be operations generated by the processor 120 executing program instructions stored in the memory 130, but will be described as being performed by the processor 120 for convenience of understanding and description.

먼저, 프로세서(120)는 학습용데이터를 수집(Learning Data Gathering)하고, 전처리할 수 있다(210 및 220). 예를 들어, 프로세서(120)는 인터넷(Internet) 서버에 업로드된 임의의 제품 또는 서비스에 대한 리뷰들을 크롤링하여 학습용데이터를 수집한 뒤, 메모리(130)에 저장된 프로그램 명령어들을 이용하여 모뎀(110)을 통하여 입력된 복수의 학습용데이터들이 전처리되도록 할 수 있다. 여기서 전처리는 다음과 같은 동작 중 하나 이상 일 수 있다. First, the processor 120 may collect and pre-process learning data (210 and 220). For example, the processor 120 collects learning data by crawling reviews of any product or service uploaded to an Internet server, and then uses program instructions stored in the memory 130 to send the modem 110 A plurality of input learning data may be pre-processed through. Here, the preprocessing may be one or more of the following operations.

(1) 학습용데이터에 상응하는 차원정보가 부여되는 동작(1) Operation in which dimension information corresponding to learning data is given

(2) 부여된 차원에 상응하는 품질정보가 부여되는 동작(2) Operation in which quality information corresponding to the assigned dimension is assigned

(3) 학습용데이터가 복수의 문장으로 구성된 경우, 각 문장 별로 구분되는 동작 (3) When the data for learning is composed of multiple sentences, the operation classified for each sentence

학습용데이터를 전처리하는 동작은 프로세서(120)의 프로그램 명령어 실행에 따라 자동으로 수행되거나, 관리자의 리뷰 분석 장치(100) 조작에 따라 수동으로 수행될 수도 있다.The operation of pre-processing the learning data may be performed automatically according to the execution of program instructions by the processor 120 or manually according to the manager's manipulation of the review analysis device 100 .

도 3에는 하나의 학습용데이터를 이용하여 레이블된 복수의 전처리데이터가 생성되는 경우가 예시된다. 3 illustrates a case in which a plurality of labeled preprocessing data is generated using one training data.

도 3을 참조하면, 단일의 학습용데이터는 다음과 같다. Referring to Figure 3, a single learning data is as follows.

"음식이 좋았고, 식당도 깔끔하고 적절했다.""The food was good, the restaurant was clean and adequate."

전처리데이터는 텍스트정보, 차원정보 및/또는 품질정보를 포함할 수 있다. 여기서 텍스트정보는 학습용데이터에 포함된 텍스트에 상응하는 정보일 수 있다. 학습용데이터에 복수의 문장이 포함된 경우, 전처리데이터는 복수의 텍스트정보를 포함할 수도 있다(여기서의 텍스트정보는 단문 텍스트에 상응할 수 있음). 또한, 차원정보는 당해 학습용데이터에 미리 설정된 차원에 대한 정보로서, 전처리데이터는 복수의 차원 중 어느 하나를 포함할 수 있다. 또한, 품질정보는 차원에 상응하는 품질에 대한 정보일 수 있다. Pre-processing data may include text information, dimension information, and/or quality information. Here, the text information may be information corresponding to text included in the learning data. When a plurality of sentences are included in the training data, the preprocessing data may include a plurality of text information (here, the text information may correspond to short text). In addition, the dimension information is information about a dimension preset in the learning data, and the preprocessing data may include any one of a plurality of dimensions. Also, the quality information may be information about quality corresponding to a dimension.

따라서, 당해 학습용데이터는 다음과 같은 구성을 포함하도록 전처리될 수 있다. Therefore, the learning data may be preprocessed to include the following configuration.

(1) 정답정보 (Yes=1 or No=0)(1) Answer information (Yes=1 or No=0)

(2) 텍스트정보 (음식이 좋았고, 식당도 깜끔하고 적절했다)(2) Text information (the food was good, the restaurant was neat and appropriate)

(3) 차원정보 (식당_일반, 음식_퀄리티, 식당_가격, 분위기_일반 등)(3) Dimensional information (restaurant_general, food_quality, restaurant_price, atmosphere_general, etc.)

(4) 품질정보(긍정, 부정 또는 중립)(4) Quality information (positive, negative or neutral)

(5) 타겟정보(도 3의 예시에서, 음식, 식당, 분위기 등)(5) target information (in the example of FIG. 3, food, restaurant, atmosphere, etc.)

도 3에 예시된 바와 같이 전처리데이터는 텍스트정보, 복수의 차원정보 중 어느 하나, 각 차원별 품질정보, 차원에 상응하는 타겟정보, 그리고 정답정보를 포함할 수 있다. As illustrated in FIG. 3 , the preprocessing data may include text information, one of a plurality of dimension information, quality information for each dimension, target information corresponding to the dimension, and correct answer information.

따라서, 프로세서(120)는 전처리데이터를 이용하여 메모리(130)에 저장된 인공지능 알고리즘을 지도학습(Supervised Learning)시킬 수 있다(Artificial Intelligent Modelling, 230).Accordingly, the processor 120 may perform supervised learning of the artificial intelligence algorithm stored in the memory 130 using the preprocessing data (Artificial Intelligent Modeling, 230).

이때, 인공지능 알고리즘은 다음과 같은 프로그램 명령어들을 포함하는 것을 의미할 수 있다. In this case, the artificial intelligence algorithm may mean including the following program commands.

(1) 전처리데이터를 미리 설정된 임베딩(embedding) 방법으로 임베딩할 수 있는 언어 분석 관련 프로그램(예를 들어, BERT, Bidirectional Encoder Representations from Transformers)(이하, '임베딩 프로그램'으로 칭함). (1) A program related to language analysis (for example, BERT, Bidirectional Encoder Representations from Transformers) capable of embedding preprocessing data in a preset embedding method (hereinafter referred to as 'embedding program').

(2) 임베딩 프로그램에서 임베딩된 결과를 미리 설정된 방법에 따라 처리하는 제1 레이어(예를 들어, 선형 레이어, Linear Layer) 및/또는 제2 레이어(예를 들어, CNN layer, Convolutional Neural Layer).(2) A first layer (eg, a linear layer, linear layer) and/or a second layer (eg, a CNN layer, a convolutional neural layer) that processes a result embedded in an embedding program according to a preset method.

(3) 제1 레이어 및/또는 제2 레이어에서 처리된 결과를 이용하여 손실값을 생성하는 하나 이상의 손실함수(3) one or more loss functions for generating loss values using results processed in the first layer and/or the second layer

(4) 손실값이 최소가 되도록 임베딩 프로그램, 제1 레이어, 제2 레이어 등을 학습시키는 프로그램 명령어(4) Program instructions for learning the embedding program, the first layer, the second layer, etc. so that the loss value is minimized

도 4를 참조하면, 임베딩 프로그램이 BERT이고, 제1 레이어가 선형레이어이고, 제2 레이어가 CNN 레이어인 경우의 인공지능 알고리즘이 예시된다. 이하 인공지능 알고리즘이 전처리데이터를 통해 학습되는 동작에 대해 설명한다. Referring to FIG. 4, an artificial intelligence algorithm in the case where the embedding program is BERT, the first layer is a linear layer, and the second layer is a CNN layer is exemplified. Hereinafter, an operation that an artificial intelligence algorithm learns through preprocessing data will be described.

먼저, 전처리데이터는 임베딩 프로그램인 BERT에 상응하도록 다음과 같은 형식으로 토큰화 처리(Tokenization)될 수 있다. First, preprocessing data can be tokenized in the following format to correspond to BERT, an embedding program.

"[CLS] 텍스트정보 [SEP] 차원정보 감성정보 [SEP]""[CLS] text information [SEP] dimension information sentiment information [SEP]"

또한, 전처리데이터는 BERT에 의해 임베딩(인코딩, Encoding)될 수 있다. BERT에 의해 임베딩된 결과(이하, '임베딩 결과'라 칭함)는 BERT의 인코딩 출력에 포함된 복수의 토큰 정보에 상응할 수 있다. BERT의 인코딩 출력(410)은 토큰화된 전처리데이터의 마지막 히든 스테이트(hidden state)에 상응하는 것으로서, 다음과 같은 정보를 포함할 수 있다. In addition, preprocessing data can be embedded (encoded) by BERT. A result embedded by BERT (hereinafter referred to as 'embedding result') may correspond to a plurality of token information included in the encoding output of BERT. The encoding output 410 of BERT corresponds to the last hidden state of tokenized preprocessing data and may include the following information.

- T[CLS](420): BERT의 CLS 토큰에 대한 인코딩 출력 정보 - T[CLS] (420): encoding output information for the CLS token of BERT

- T[1] 내지 T[n](430): 텍스트 정보에 포함된 n개의 단어 각각에 대한 인코딩 출력 정보(단, n은 자연수임)- T[1] to T[n] 430: encoding output information for each of the n words included in the text information (where n is a natural number)

- T[sep],1 내지 T[sep], m: 텍스트 정보에 m개의 문장이 포함된 경우, SEP 토큰에 대한 인코딩 출력 정보(단, m은 자연수임)(도 4에서는 m=2)- T[sep],1 to T[sep], m: When m sentences are included in the text information, encoding output information for the SEP token (provided that m is a natural number) (m=2 in FIG. 4)

프로세서(120)는 메모리(130)에 저장된 프로그램 명령어들을 실행하여, 임베딩 결과가 미리 설정된 제1 레이어(440) 및 제2 레이어(450)에 의해 처리되도록 할 수 있다. 여기서, 제1 레이어는 선형 레이어(linear layer)에 상응할 수 있고, 제2 레이어는 CNN(Convolutional Neural Network) 알고리즘에 상응할 수 있다. The processor 120 may execute program instructions stored in the memory 130 so that the embedding result is processed by the first layer 440 and the second layer 450 which are set in advance. Here, the first layer may correspond to a linear layer, and the second layer may correspond to a convolutional neural network (CNN) algorithm.

임베딩 결과, 즉 BERT의 인코딩 출력에 포함된 복수의 출력 정보(410) 중 T[CLS](420)는 제1 레이어(440)에 입력될 수 있다. 제1 레이어(440)는 'T[CLS](420)'를 처리하여 제1 처리정보를 생성할 수 있다. 예를 들어, 제1 레이어(440)는 풀러(Pooler) 및 선형 레이어를 포함할 수 있다. 'T[CLS] (420)'는 풀러(Pooler)에서 풀링(pooling, 예를 들어, MAX pooling)처리된 후, 선형 레이어(Linear Layer)에서 선형 처리되어 제1 벡터값(이하, '제1 처리정보'라 칭함)으로 출력될 수 있다. 제1 레이어(440)의 동작은 BERT 임베딩 이후의 공개된 동작과 대동소이하므로 이에 대한 구체적인 설명은 생략한다. An embedding result, that is, T[CLS] 420 among a plurality of pieces of output information 410 included in the encoding output of BERT may be input to the first layer 440 . The first layer 440 may generate first processing information by processing 'T[CLS] 420 '. For example, the first layer 440 may include a pooler and a linear layer. 'T[CLS] 420' is processed by pooling (eg, MAX pooling) in a pooler, and then linearly processed in a linear layer to obtain a first vector value (hereinafter, 'first referred to as 'processing information'). Since the operation of the first layer 440 is almost the same as the published operation after BERT embedding, a detailed description thereof will be omitted.

또한, 임베딩 결과, 즉 BERT의 인코딩 출력에 포함된 복수의 출력 정보(410) 전부는 제2 레이어(450)에 입력될 수 있다. 제2 레이어(450)는 '복수의 출력 정보 전부(410)'를 처리하여 제2 처리정보를 생성할 수 있다. 예를 들어, 제2 레이어(450)는 CNN(Convolutional Neural Network) 알고리즘에 상응하는 레이어로서, Convolutional 2D Layer 및 Adaptive Average Pooler를 포함할 수 있다. '복수의 출력 정보 전부(410)'는 Convolutional 2D Layer 및 Adaptive Average Pooler를 통해 처리되어 제2 벡터값(이하, '제2 처리정보'라 칭함)으로 출력될 수 있다. 제2 레이어(450)의 동작은 CNN 알고리즘과 관련하여 이미 공개된 동작에 상응하므로 이에 대한 구체적인 설명은 생략한다. In addition, the embedding result, that is, all of the plurality of pieces of output information 410 included in the encoding output of BERT may be input to the second layer 450 . The second layer 450 may generate second processing information by processing 'all of the plurality of output information 410'. For example, the second layer 450 is a layer corresponding to a convolutional neural network (CNN) algorithm and may include a convolutional 2D layer and an adaptive average pooler. 'All of the plurality of output information 410' may be processed through a convolutional 2D layer and an adaptive average pooler and output as a second vector value (hereinafter referred to as 'second processing information'). Since the operation of the second layer 450 corresponds to a previously disclosed operation in relation to the CNN algorithm, a detailed description thereof will be omitted.

한편, 임베딩 결과, 즉 BERT의 인코딩 출력에 포함된 복수의 출력 정보(410) 중 T[1] 내지 T[n](430)는 제1 레이어(440)에 입력될 수 있고, 제1 레이어(440)는 ' T[1] 내지 T[n](430)'를 처리하여 제3 벡터값(이하, '제3 처리정보'라 칭함)을 생성할 수 있다. Meanwhile, the embedding result, that is, among the plurality of output information 410 included in the encoding output of BERT, T[1] to T[n] 430 may be input to the first layer 440, and the first layer ( 440) may generate a third vector value (hereinafter referred to as 'third processing information') by processing 'T[1] to T[n] 430'.

또한, 제1 처리정보 내지 제3 처리정보는 모두 동일한 크기의 벡터값일 수 있다. 즉, 제1 레이어(440) 및 제2 레이어(450)는 동일한 크기의 벡터값이 출력되도록 형성될 수 있다. In addition, all of the first processing information to the third processing information may be vector values having the same size. That is, the first layer 440 and the second layer 450 may be formed such that vector values having the same size are output.

프로세서(120)는 메모리(130)에 저장된 프로그램 명령어들을 실행하여, 제1 처리정보 내지 제3 처리정보가 미리 설정된 함수들에 의해 디코딩되도록 할 수 있다. The processor 120 may execute program instructions stored in the memory 130 to decode the first through third processing information using preset functions.

예를 들어, 제1 처리정보는 제1 함수(460)에서 디코딩될 수 있다. 여기서, 제1 함수(460)는 소프트맥스에 상응할 수 있다. 이하, 제1 함수(460)에서 출력된 값을 제1-1 처리정보라 칭한다. 또한, 제2 처리정보는 제2 함수(470)에서 디코딩될 수 있다. 여기서, 제2 함수(470)도 소프트맥스에 상응할 수 있다. 이하, 제2 함수(470)에서 출력된 값을 제2-1 처리정보라 칭한다. 또한, 제3 처리정보는 제3 함수(480)에서 디코딩될 수 있다. 여기서, 제3 함수(480)는 소프트맥스 또는 CRF(Conditional Random Field)에 상응할 수 있다. 제3 함수(480)에서 출력된 값을 제3-1 처리정보라 칭한다.For example, the first processing information may be decoded in the first function 460 . Here, the first function 460 may correspond to softmax. Hereinafter, the value output from the first function 460 is referred to as 1-1 processing information. Also, the second processing information may be decoded in the second function 470. Here, the second function 470 may also correspond to softmax. Hereinafter, the value output from the second function 470 is referred to as 2-1 processing information. Also, the third processing information may be decoded in the third function 480 . Here, the third function 480 may correspond to softmax or conditional random field (CRF). The value output from the third function 480 is referred to as 3-1 processing information.

프로세서(120)는 메모리(130)에 저장된 프로그램 명령어들을 실행하여, 제1-1 처리정보 내지 제3-1 처리정보가 미리 설정된 손실함수(Loss function, 490, 492 및 495)에 의해 처리되어 제1 손실값 내지 제3 손실값이 생성되도록 할 수 있다. 손실함수는 실제값과 예측값의 차이를 수치화해주는 함수로서, 공개된 함수와 대동소이할 수 있다. The processor 120 executes program instructions stored in the memory 130, and processing information 1-1 to 3-1 processing information is processed by a preset loss function (Loss function, 490, 492 and 495), A first loss value to a third loss value may be generated. The loss function is a function that quantifies the difference between the actual value and the predicted value, and may be the same as the public function.

예를 들어, 제1-1 처리정보는 제1 손실함수(490)에서 처리되어 제1 손실값으로 출력될 수 있다. 또한, 제2-1 처리정보는 제2 손실함수(492)에서 처리되어 제2 손실값으로 출력될 수 있다. 제3-1 처리정보는 제3 손실함수(495)에서 처리되어 제3 손실값으로 출력될 수 있다.For example, the 1-1 processing information may be processed in the first loss function 490 and output as a first loss value. In addition, the 2-1 processing information may be processed in the second loss function 492 and output as a second loss value. The 3-1 processing information may be processed in the third loss function 495 and output as a third loss value.

프로세서(120)는 메모리(130)에 저장된 프로그램 명령어들을 실행하여, 제1 손실값 내지 제3 손실값이 인공지능 알고리즘 학습에 이용되도록 할 수 있다. 이때, 제1 손실값과 제2 손실값을 합산되어 인공지능 알고리즘 학습에 이용될 수 있다. 즉, 인공지능 알고리즘은 '제1 손실값과 제2 손실값이 합산된 값'과 '제3 손실값'이 각각 최소가 되도록 학습할 수 있는 것이다. The processor 120 may execute program instructions stored in the memory 130 so that the first loss value to the third loss value are used for learning the artificial intelligence algorithm. In this case, the first loss value and the second loss value may be added and used for learning the artificial intelligence algorithm. That is, the artificial intelligence algorithm can learn to minimize the 'value obtained by adding the first loss value and the second loss value' and the 'third loss value', respectively.

상술한 바와 같이, 프로세서(120)는 메모리(130)에 저장된 '학습용데이터'를 이용하여 인공지능 알고리즘이 학습되도록 프로그램 명령어들을 실행시킬 수 있다. 이하, 프로세서(120)가 메모리(130)에 저장된 인공지능 알고리즘을 실행시켜 리뷰데이터를 차원별로 자동 구분하는 리뷰 분석 동작(240)에 대해 설명한다. As described above, the processor 120 may execute program instructions so that the artificial intelligence algorithm is learned using the 'learning data' stored in the memory 130. Hereinafter, a review analysis operation 240 in which the processor 120 automatically classifies review data by dimension by executing an artificial intelligence algorithm stored in the memory 130 will be described.

도 5 및 도 6은 본 발명의 일 실시예에 따른 인공지능이 복수의 리뷰를 분석한 결과를 예시한 도면이다. 5 and 6 are diagrams illustrating results obtained by analyzing a plurality of reviews by artificial intelligence according to an embodiment of the present invention.

프로세서(120)는 메모리(130)에 저장된 리뷰데이터를 도 1 내지 도 4를 참조하여 설명한 학습된 인공지능 알고리즘에 입력하여 도 5에 예시된 결과를 자동으로 도출할 수 있다. 즉, "재방문 하고 싶은 이 식당만의 분위기가 있다"는 리뷰데이터에 대해서는 "분위기_일반"에 상응하는 차원정보 및 "positive"에 상응하는 품질정보를 도출할 수 있고, "식당이 너무 좁아 언제나 45분에서 1시간 정도 기다려야 하지만, 음식을 입에 넣는 순간 다 보상받는다"는 리뷰데이터에 대해서는 "음식_퀄러티"에 상응하는 차원정보 및 "긍정(positive)"에 상응하는 품질정보를 도출할 수 있다. The processor 120 may automatically derive the result illustrated in FIG. 5 by inputting the review data stored in the memory 130 to the learned artificial intelligence algorithm described with reference to FIGS. 1 to 4 . In other words, for the review data that "there is an atmosphere unique to this restaurant that I want to revisit," dimension information corresponding to "atmosphere_general" and quality information corresponding to "positive" can be derived, and "the restaurant is too narrow." You always have to wait for 45 minutes to an hour, but you get rewarded the moment you put the food in your mouth. can

또한, 도 6에 예시된 바와 같이, 프로세서(120)는 리뷰데이터를 학습된 인공지능 알고리즘에 입력하여 도 6에 예시된 바와 같은 임의의 제품/서비스에 대한 차원별 품질 그래프 및 관련 키워드를 도출할 수 있다. 도 6은 인터넷 포털 사이트(www.naver.com) 서버에서 임의의 2개 식당을 선정해 리뷰데이터를 확보한 후, 이를 인공지능 알고리즘에 입력하여 분류한 결과를 그래프로 나타낸 것이다. 이때, 프로세서(120)는 도출된 차원별 품질에 대해 점수화하여 그래프를 도출할 수 있다. 예를 들어, 프로세서(120)는 다음과 같은 공식에 의해 차원별 품질을 점수화할 수 있을 것이다. In addition, as illustrated in FIG. 6, the processor 120 inputs the review data into the learned artificial intelligence algorithm to derive a quality graph by dimension and related keywords for any product/service as illustrated in FIG. 6. can 6 is a graph showing the result of selecting two random restaurants from the Internet portal site ( www.naver.com ) server, obtaining review data, and then inputting them into an artificial intelligence algorithm and classifying them. In this case, the processor 120 may derive a graph by scoring the derived quality for each dimension. For example, the processor 120 may score quality per dimension by the following formula.

점수(Score) = [긍정 리뷰 개수-부정 리뷰 개수] / 전체 리뷰 개수Score = [number of positive reviews - number of negative reviews] / total number of reviews

이후, 프로세서(120)는 차원별로 점수화된 정보를 이용하여 도 6에 예시된 바와 같은 그래프를 도출할 수 있을 것이다. Thereafter, the processor 120 may derive a graph as illustrated in FIG. 6 using the information scored for each dimension.

도 7은 본 발명의 일 실시예에 따른 리뷰 분석 동작에 대한 순서도이다. 7 is a flowchart of a review analysis operation according to an embodiment of the present invention.

도 7에는 도 1 내지 도 6을 참조하여 설명한 리뷰분석장치(100)의 동작이 동작 순서에 따라 도시되어 있다. 도 7에 도시된 각 단계에서 수행되는 동작들은 이미 상세하게 설명하였으므로, 이에 대한 구체적인 설명은 생략한다. 7 shows operations of the review and analysis apparatus 100 described with reference to FIGS. 1 to 6 according to an operation sequence. Since operations performed in each step shown in FIG. 7 have already been described in detail, a detailed description thereof will be omitted.

상술한 바와 같이, 본원발명에 따르면, 인공지능을 이용하여 사용자들이 직접 작성한 리뷰를 다차원적으로 자동 분석할 수 있으므로, 다차원으로 분석된 결과를 통해, 일반 사용자들은 제품 또는 서비스 이용 여부를 쉽게 결정할 수 있고, 판매자들은 자신의 제품 또는 서비스에 대한 객관적인 정보를 얻을 수 있음이 자명하다. As described above, according to the present invention, since reviews written by users can be automatically analyzed in multiple dimensions using artificial intelligence, general users can easily determine whether to use a product or service through the multi-dimensional analysis result. It is obvious that sellers can obtain objective information about their products or services.

이상, 본 발명을 바람직한 실시 예를 들어 상세하게 설명하였으나, 본 발명은 상기 실시 예에 한정되지 않고, 본 발명의 기술적 사상 및 범위 내에서 당 분야에서 통상의 지식을 가진 자에 의하여 여러가지 변형 및 변경이 가능하다. In the above, the present invention has been described in detail with preferred embodiments, but the present invention is not limited to the above embodiments, and various modifications and changes are made by those skilled in the art within the technical spirit and scope of the present invention. this is possible

100 : 리뷰분석장치
110 : 모뎀
120 : 프로세서
130 : 메모리
100: review analysis device
110: modem
120: processor
130: memory

Claims (16)

프로세서; 및
상기 프로세서에 연결되고, 인공지능 알고리즘 및 리뷰데이터를 저장하는 메모리;
를 포함하며,
상기 메모리는 상기 프로세서에 의해 실행 가능한,
레이블된 학습데이터를 미리 설정된 임베딩(embedding) 방법으로 임베딩하고, 상기 임베딩 결과를 미리 설정된 제1 레이어로 입력한 결과 및 상기 임베딩 결과를 미리 설정된 제2 레이어로 입력한 결과를 이용하여 학습된 상기 인공지능 알고리즘을 이용하여 상기 리뷰데이터를 미리 설정된 차원에 따라 분류하는 프로그램 명령어들을 저장하되,
상기 레이블된 학습데이터는 복수의 전처리데이터를 포함하고,
상기 전처리데이터는 텍스트정보, 차원정보 및 품질정보를 포함하고,
상기 차원정보는 미리 설정된 n개의 품질 관련 항목 중 어느 하나이고,
상기 임베딩 방법은 BERT(Bidirectional Encoder Representations from Transformers)이고,
상기 임베딩 결과는 상기 BERT의 인코딩 출력에 포함된 복수의 출력 정보에 상응하고,
상기 인공지능 알고리즘은 상기 복수의 출력 정보 중 CLS 토큰에 대한 인코딩 출력 정보를 상기 제1 레이어에 입력한 결과, 상기 복수의 출력 정보 전부를 상기 제2 레이어에 입력한 결과 및 상기 복수의 출력 정보 중 텍스트정보에 상응하는 인코딩 출력 정보를 상기 제1 레이어에 입력한 결과를 이용하여 학습된 것인, 리뷰 분석 장치.
processor; and
a memory connected to the processor and storing artificial intelligence algorithms and review data;
Including,
The memory is executable by the processor,
The artificial learning learned using a result of embedding labeled learning data in a preset embedding method and inputting the embedding result into a preset first layer and inputting the embedding result into a preset second layer Store program instructions for classifying the review data according to preset dimensions using an intelligent algorithm;
The labeled training data includes a plurality of preprocessing data,
The preprocessing data includes text information, dimension information and quality information,
The dimension information is any one of n preset quality-related items,
The embedding method is BERT (Bidirectional Encoder Representations from Transformers),
The embedding result corresponds to a plurality of output information included in the encoding output of the BERT,
The artificial intelligence algorithm is a result of inputting encoding output information for a CLS token from among the plurality of output information to the first layer, a result of inputting all of the plurality of output information to the second layer, and a result of inputting all of the plurality of output information to the second layer. A review analysis device that is learned using a result of inputting encoding output information corresponding to text information to the first layer.
삭제delete 삭제delete 제1항에 있어서,
상기 메모리는,
상기 CLS 토큰에 대한 인코딩 출력 정보를 상기 제1 레이어에 입력하여 제1 처리정보를 생성하는 프로그램 명령어들을 저장하되,
상기 제1 레이어는 선형 레이어에 상응하는, 리뷰 분석 장치.
According to claim 1,
the memory,
Store program instructions for generating first processing information by inputting encoding output information for the CLS token to the first layer;
The first layer corresponds to a linear layer, review analysis device.
제4항에 있어서,
상기 메모리는,
상기 제1 처리정보를 미리 설정된 제1 함수로 디코딩하여 제1-1 처리정보를 생성하는 프로그램 명령어들을 저장하는, 리뷰 분석 장치.
According to claim 4,
the memory,
A review analysis device for storing program instructions for generating 1-1 processing information by decoding the first processing information with a preset first function.
제5항에 있어서,
상기 제1 함수는 소프트맥스(SOFTMAX) 함수에 상응하는, 리뷰 분석 장치.
According to claim 5,
The first function corresponds to a softmax (SOFTMAX) function, review analysis device.
제5항에 있어서,
상기 메모리는,
상기 제1-1 처리정보를 미리 설정된 제1 손실함수(Loss function)에 입력하여 제1 손실값 생성하고, 상기 제1 손실값을 이용하여 상기 인공지능 알고리즘을 학습시키는 프로그램 명령어들을 저장하는, 리뷰 분석 장치
According to claim 5,
the memory,
A review of generating a first loss value by inputting the 1-1 processing information into a preset first loss function and storing program instructions for learning the artificial intelligence algorithm using the first loss value analysis device
제7항에 있어서,
상기 메모리는,
상기 복수의 출력 정보 전부를 상기 제2 레이어에 입력하여 제2 처리정보를 생성하는 프로그램 명령어들을 저장하되,
상기 제2 레이어는 CNN 알고리즘에 상응하는, 리뷰 분석 장치.
According to claim 7,
the memory,
Store program instructions for generating second processing information by inputting all of the plurality of output information to the second layer;
The second layer corresponds to the CNN algorithm, review analysis device.
제8항에 있어서,
상기 메모리는,
상기 제2 처리정보를 미리 설정된 제2 함수로 디코딩하여 제2-1 처리정보를 생성하는 프로그램 명령어들을 저장하는, 리뷰 분석 장치.
According to claim 8,
the memory,
A review analysis device for storing program instructions for generating 2-1 processing information by decoding the second processing information with a preset second function.
제9항에 있어서,
상기 제2 함수는 소프트맥스(SOFTMAX) 함수에 상응하는, 리뷰 분석 장치.
According to claim 9,
The second function corresponds to a softmax (SOFTMAX) function, review analysis device.
제9항에 있어서,
상기 메모리는,
상기 제2-1 처리정보를 미리 설정된 제2 손실함수(Loss function)에 입력하여 제2 손실값 생성하고, 상기 제1 손실값 및 상기 제2 손실값을 이용하여 상기 인공지능 알고리즘을 학습시키는 프로그램 명령어들을 저장하는, 리뷰 분석 장치
According to claim 9,
the memory,
A program for generating a second loss value by inputting the 2-1 processing information into a preset second loss function, and learning the artificial intelligence algorithm using the first loss value and the second loss value Review analysis device, storing instructions
제11항에 있어서,
상기 메모리는,
상기 제1 손실값 및 상기 제2 손실값을 합산한 값이 최소값이 되도록 상기 인공지능 알고리즘을 학습시키는 프로그램 명령어들을 저장하는, 리뷰 분석 장치.
According to claim 11,
the memory,
A review analysis device for storing program instructions for learning the artificial intelligence algorithm so that a sum of the first loss value and the second loss value becomes a minimum value.
제12항에 있어서,
상기 메모리는,
상기 복수의 출력 정보 중 텍스트정보에 상응하는 인코딩 출력 정보를 상기 제1 레이어에 입력하여 제3 처리정보를 생성하는 프로그램 명령어들을 저장하되,
상기 제1 레이어는 선형 레이어에 상응하는, 리뷰 분석 장치.
According to claim 12,
the memory,
Store program instructions for generating third processing information by inputting encoding output information corresponding to text information among the plurality of output information to the first layer,
The first layer corresponds to a linear layer, review analysis device.
제13항에 있어서,
상기 메모리는,
상기 제3 처리정보를 미리 설정된 제3 함수로 디코딩하여 제3-1 처리정보를 생성하는 프로그램 명령어들을 저장하는, 리뷰 분석 장치.
According to claim 13,
the memory,
A review analysis device for storing program instructions for generating 3-1 processing information by decoding the third processing information with a preset third function.
제14항에 있어서,
상기 제3 함수는 CRF(Conditional Random Fields) 또는 소프트맥스(SOFTMAX) 함수 중 어느 하나에 상응하는, 리뷰 분석 장치.
According to claim 14,
The third function corresponds to any one of CRF (Conditional Random Fields) or Softmax (SOFTMAX) function, review analysis device.
제14항에 있어서,
상기 메모리는,
상기 제3-1 처리정보를 미리 설정된 제3 손실함수(Loss function)에 입력하여 제3 손실값 생성하고, 상기 제3 손실값을 이용하여 상기 인공지능 알고리즘을 학습시키는 프로그램 명령어들을 저장하는, 리뷰 분석 장치.
According to claim 14,
the memory,
A review of generating a third loss value by inputting the 3-1 processing information into a preset third loss function and storing program instructions for learning the artificial intelligence algorithm using the third loss value analysis device.
KR1020210054251A 2021-04-27 2021-04-27 User review analysis device by artificial intelligence and method thereof KR102575603B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020210054251A KR102575603B1 (en) 2021-04-27 2021-04-27 User review analysis device by artificial intelligence and method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210054251A KR102575603B1 (en) 2021-04-27 2021-04-27 User review analysis device by artificial intelligence and method thereof

Publications (2)

Publication Number Publication Date
KR20220147299A KR20220147299A (en) 2022-11-03
KR102575603B1 true KR102575603B1 (en) 2023-09-06

Family

ID=84040695

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210054251A KR102575603B1 (en) 2021-04-27 2021-04-27 User review analysis device by artificial intelligence and method thereof

Country Status (1)

Country Link
KR (1) KR102575603B1 (en)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102203355B1 (en) * 2020-01-21 2021-01-18 김종호 System and method extracting experience information according to experience of product

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102203355B1 (en) * 2020-01-21 2021-01-18 김종호 System and method extracting experience information according to experience of product

Also Published As

Publication number Publication date
KR20220147299A (en) 2022-11-03

Similar Documents

Publication Publication Date Title
Paschen et al. Artificial intelligence (AI) and its implications for market knowledge in B2B marketing
CN110175227B (en) Dialogue auxiliary system based on team learning and hierarchical reasoning
CN111177325B (en) Method and system for automatically generating answers
CN113094475B (en) Dialog intention recognition system and method based on context attention flow
CN112799747A (en) Intelligent assistant evaluation and recommendation method, system, terminal and readable storage medium
CN114722839B (en) Man-machine cooperative dialogue interaction system and method
CN111325571B (en) Automatic generation method, device and system for commodity comment labels for multitask learning
CN109034203A (en) Training, expression recommended method, device, equipment and the medium of expression recommended models
CN111324738B (en) Method and system for determining text label
CN112100375A (en) Text information generation method and device, storage medium and equipment
CN116579339A (en) Task execution method and optimization task execution method
Saha et al. Towards sentiment aided dialogue policy learning for multi-intent conversations using hierarchical reinforcement learning
Tiwari et al. A dynamic goal adapted task oriented dialogue agent
CN112395887A (en) Dialogue response method, dialogue response device, computer equipment and storage medium
CN113435182A (en) Method, device and equipment for detecting conflict of classification labels in natural language processing
US11715291B2 (en) Establishment of general-purpose artificial intelligence system
Dihingia et al. Chatbot implementation in customer service industry through deep neural networks
CN116882450A (en) Question-answering model editing method and device, electronic equipment and storage medium
KR102575603B1 (en) User review analysis device by artificial intelligence and method thereof
Alberola et al. Artificial Vision and Language Processing for Robotics: Create end-to-end systems that can power robots with artificial vision and deep learning techniques
CN113869034B (en) Aspect emotion classification method based on reinforced dependency graph
US20230252418A1 (en) Apparatus for classifying candidates to postings and a method for its use
Raundale et al. Dialog prediction in institute admission: A deep learning way
Lamons et al. Python Deep Learning Projects: 9 projects demystifying neural network and deep learning models for building intelligent systems
Jabeen The use of AI in marketing: Its impact and future

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right