KR102222637B1 - Apparatus for analysis of emotion between users, interactive agent system using the same, terminal apparatus for analysis of emotion between users and method of the same - Google Patents

Apparatus for analysis of emotion between users, interactive agent system using the same, terminal apparatus for analysis of emotion between users and method of the same Download PDF

Info

Publication number
KR102222637B1
KR102222637B1 KR1020180172625A KR20180172625A KR102222637B1 KR 102222637 B1 KR102222637 B1 KR 102222637B1 KR 1020180172625 A KR1020180172625 A KR 1020180172625A KR 20180172625 A KR20180172625 A KR 20180172625A KR 102222637 B1 KR102222637 B1 KR 102222637B1
Authority
KR
South Korea
Prior art keywords
terminal device
emotion
morpheme
text
sentiment
Prior art date
Application number
KR1020180172625A
Other languages
Korean (ko)
Other versions
KR20200082232A (en
Inventor
권오병
배수진
구국원
Original Assignee
경희대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 경희대학교 산학협력단 filed Critical 경희대학교 산학협력단
Priority to KR1020180172625A priority Critical patent/KR102222637B1/en
Publication of KR20200082232A publication Critical patent/KR20200082232A/en
Application granted granted Critical
Publication of KR102222637B1 publication Critical patent/KR102222637B1/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • A61B5/165Evaluating the state of mind, e.g. depression, anxiety
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/74Details of notification to user or communication with user or patient ; user input means
    • A61B5/742Details of notification to user or communication with user or patient ; user input means using visual displays
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics

Abstract

감성 분석 장치, 이를 포함하는 대화형 에이전트 시스템, 감성 분석을 수행하기 위한 단말 장치 및 감성 분석 방법에 관한 것으로, 감성 분석 장치는 제1 단말 장치 및 제2 단말 장치 상호 간에 전송되는 적어도 하나의 텍스트를 획득하는 통신부 및 상기 적어도 하나의 텍스트의 형태소를 분석하고, 감성 사전 데이터베이스를 기반으로 분석된 상기 형태소에 대응하는 감성 분석 결과를 획득하고, 상기 감성 분석 결과를 이용하여 상기 제1 단말 장치의 사용자에 대한 상기 제2 단말 장치의 사용자의 대한 종합적 감성 분석 결과를 획득하는 프로세서를 포함할 수 있다.It relates to an emotion analysis device, an interactive agent system including the same, a terminal device for performing emotion analysis, and an emotion analysis method, wherein the emotion analysis device includes at least one text transmitted between a first terminal device and a second terminal device. Analyzing the obtained communication unit and the morpheme of the at least one text, obtaining a sentiment analysis result corresponding to the analyzed morpheme based on the sentiment dictionary database, and using the sentiment analysis result to the user of the first terminal device It may include a processor that obtains a result of a comprehensive sentiment analysis of the user of the second terminal device.

Description

감성 분석 장치, 이를 포함하는 대화형 에이전트 시스템, 감성 분석을 수행하기 위한 단말 장치 및 감성 분석 방법{APPARATUS FOR ANALYSIS OF EMOTION BETWEEN USERS, INTERACTIVE AGENT SYSTEM USING THE SAME, TERMINAL APPARATUS FOR ANALYSIS OF EMOTION BETWEEN USERS AND METHOD OF THE SAME}Emotion analysis device, interactive agent system including the same, terminal device for performing emotion analysis, and emotion analysis method {APPARATUS FOR ANALYSIS OF EMOTION BETWEEN USERS, INTERACTIVE AGENT SYSTEM USING THE SAME, TERMINAL APPARATUS FOR ANALYSIS OF EMOTION BETWEEN USERS AND METHOD OF THE SAME}

감성 분석 장치, 이를 포함하는 대화형 에이전트 시스템, 이를 수행하기 위한 단말 장치 및 감성 분석 방법에 관한 것이다.The present invention relates to an emotion analysis device, an interactive agent system including the same, a terminal device for performing the same, and an emotion analysis method.

데스크톱 컴퓨터나 랩톱 컴퓨터의 발전에 따라 이들 장치 간에 메시지를 송수신할 수 있는 인스턴트 메시지 서비스가 개발되었다. 이들 인스턴트 메시지 서비스는 스마트 폰 등과 같은 휴대용 단말 장치의 성장에 따라 이들 인스턴트 메시지 서비스 역시 급격히 성장 및 발전하고 있다.With the advancement of desktop computers and laptop computers, instant messaging services have been developed that can send and receive messages between these devices. These instant message services are also rapidly growing and developing with the growth of portable terminal devices such as smart phones.

최근에는 이런 인스턴트 메시지 서비스를 기반으로 하는 다양한 기술이 도입되고 있다. 이러한 기술 중 일례로 챗봇(chatbot, 채터봇, 토크봇 등으로도 지칭 가능하다)이 있다. 챗봇은, 기호, 문자, 도형, 화상 및/또는 음성 등을 기반으로 인간(사용자)와 대화를 수행할 수 있도록 설계된 컴퓨터 프로그램 또는 이를 수행하기 위한 장치나 시스템으로, 개인 비서 서비스나 금융사 등 각종 기업의 고객 응대 서비스 등에서 이용되고 있다.Recently, various technologies based on such instant message service have been introduced. One example of these technologies is a chatbot (which can also be referred to as chatbot, chatterbot, talkbot, etc.). Chatbots are computer programs designed to conduct conversations with humans (users) based on symbols, texts, figures, images and/or voices, or devices or systems for performing them. Various companies such as personal assistant services and financial companies It is used in customer service services of

상술한 바와 같은 챗봇 서비스는 메시지를 생성하고 생성한 메시지를 이용하여 사용자와의 대화를 수행한다는 점에서 대화 상대방(즉, 사용자)의 태도, 의견 또는 감성 등을 분석할 필요가 존재한다. 이와 같이 통상적인 텍스트로부터 텍스트의 발화자 등의 태도, 의견 또는 감성 등을 분석하는 방법을 감성 분석이라고 한다.Since the chatbot service as described above generates a message and performs a conversation with a user using the generated message, there is a need to analyze the attitude, opinion, or emotion of the conversation partner (ie, the user). In this way, a method of analyzing the attitude, opinion, or emotion of the speaker of the text from the ordinary text is called sentiment analysis.

대인 관계 상황을 기반으로 효과적으로 우수한 성능으로 감성 추론 및 분석을 수행할 수 있는 감성 분석 장치, 이를 포함하는 대화형 에이전트 시스템, 이를 수행하기 위한 단말 장치 및 감성 분석 방법을 제공하는 것을 해결하고자 하는 과제로 한다.As a task to solve the problem of providing a sentiment analysis device capable of effectively performing emotional inference and analysis with excellent performance based on the interpersonal situation, an interactive agent system including the same, a terminal device for performing this, and a method for analyzing emotions. do.

상술한 과제를 해결하기 위하여 감성 분석 장치, 이를 포함하는 대화형 에이전트 시스템, 이를 수행하기 위한 단말 장치 및 감성 분석 방법이 제공된다.In order to solve the above-described problem, an emotion analysis device, an interactive agent system including the same, a terminal device for performing the same, and an emotion analysis method are provided.

감성 분석 장치는, 제1 단말 장치 및 제2 단말 장치 상호 간에 전송되는 적어도 하나의 텍스트를 획득하는 통신부 및 상기 적어도 하나의 텍스트의 형태소를 분석하고, 감성 사전 데이터베이스를 기반으로 분석된 상기 형태소에 대응하는 감성 분석 결과를 획득하고, 상기 감성 분석 결과를 이용하여 상기 제1 단말 장치의 사용자에 대한 상기 제2 단말 장치의 사용자의 대한 종합적 감성 분석 결과를 획득하는 프로세서를 포함할 수 있다.The emotion analysis device includes a communication unit that obtains at least one text transmitted between the first terminal device and the second terminal device, and analyzes the morpheme of the at least one text, and corresponds to the morpheme analyzed based on the emotion dictionary database. And a processor that obtains a result of the sentiment analysis and obtains a result of a comprehensive sentiment analysis of the user of the second terminal device with respect to the user of the first terminal device by using the sentiment analysis result.

상기 프로세서는, 분석된 상기 형태소를 이용하여 상기 적어도 하나의 텍스트 자체에 대한 텍스트 정보를 획득하고, 상기 텍스트 정보를 더 이용하여 상기 종합적 감성 분석 결과를 획득할 수 있다.The processor may obtain text information on the at least one text itself by using the analyzed morpheme, and obtain the comprehensive sentiment analysis result by further using the text information.

상기 텍스트 정보는, 형태소의 개수, 존칭어의 사용 여부, 사용된 존칭어, 기호의 사용 여부, 사용된 기호, 이모티콘의 사용 여부 및 사용된 이모티콘 중 적어도 하나를 포함할 수 있다.The text information may include at least one of the number of morphemes, whether or not to use honorable words, used honorable words, whether or not to use symbols, used symbols, whether or not to use emoticons, and used emoticons.

상기 프로세서는, 상기 제1 단말 장치 및 상기 제2 단말 장치 사이의 상호 대화에 관한 상황 정보를 획득하고, 상기 상황 정보를 더 이용하여 상기 종합적 감성 분석 결과를 획득할 수 있다.The processor may acquire context information regarding a mutual conversation between the first terminal device and the second terminal device, and further obtain the comprehensive sentiment analysis result by using the context information.

상기 상황 정보는, 제1 단말 장치 및 제2 단말 장치 중 적어도 하나의 사용자의 성별 및 연령 중 적어도 하나, 제1 단말 장치 및 제2 단말 장치 각각의 사용자의 관계, 텍스트 전송 시간, 텍스트 전송 날짜, 텍스트 전송 요일 중 적어도 하나를 포함할 수 있다.The context information may include at least one of the sex and age of at least one of the first terminal device and the second terminal device, the relationship between the users of the first terminal device and the second terminal device, a text transmission time, a text transmission date, It may include at least one of the text transmission days.

상기 감성 사전 데이터베이스는, 텍스트 기반 감성 사전 데이터베이스를 포함하고 상기 프로세서는, 상기 텍스트 기반 감성 사전 데이터베이스를 열람하여 상기 감성 사전 데이터베이스에 상기 형태소 또는 상기 형태소에 대응하는 정보의 존재 여부를 판단하고, 만약 상기 텍스트 기반 감성 사전 데이터베이스에 상기 형태소 또는 상기 형태소에 대응하는 정보가 존재하면, 상기 형태소에 대응하는 제1 감성 값을 추출할 수 있다.The emotion dictionary database includes a text-based emotion dictionary database, and the processor reads the text-based emotion dictionary database to determine whether the morpheme or information corresponding to the morpheme exists in the emotion dictionary database, and if the If the morpheme or information corresponding to the morpheme exists in the text-based emotion dictionary database, a first emotion value corresponding to the morpheme may be extracted.

상기 감성 사전 데이터베이스는, 상황 기반 감성 사전 데이터베이스를 더 포함하고, 상기 프로세서는, 상기 상황 기반 감성 사전 데이터베이스를 더 열람하고, 상기 감성 사전 데이터베이스에 상기 형태소 또는 상기 형태소에 대응하는 정보의 존재 여부를 더 판단하고, 만약 상기 상황 기반 감성 사전 데이터베이스에 상기 형태소 또는 상기 형태소에 대응하는 정보가 존재하면, 상기 형태소에 대응하는 제2 감성 값을 더 추출하되, 상기 상황 기반 감성 사전 데이터베이스는 대인 관계 상황에서 높은 빈도를 갖는 단어를 포함할 수 있다.The emotion dictionary database further includes a context-based emotion dictionary database, and the processor further browses the context-based emotion dictionary database, and further determines whether the morpheme or information corresponding to the morpheme exists in the emotion dictionary database. And, if the morpheme or information corresponding to the morpheme exists in the context-based emotion dictionary database, a second emotion value corresponding to the morpheme is further extracted, and the context-based emotion dictionary database is high in interpersonal relationship situations. It may include words with a frequency.

상기 프로세서는, 상기 텍스트가 이모티콘을 포함하는지 판단하고, 만약 상기 텍스트가 이모티콘을 포함하는지 판단하는 경우, 이모티콘 감성 사전 데이터베이스를 더 열람하고, 상기 이모티콘 감성 사전 데이터베이스에 상기 이모티콘에 대응하는 정보의 존재 여부를 더 판단하고, 만약 상기 이모티콘 감성 사전 데이터베이스에 상기 이모티콘에 대응하는 정보가 존재하면, 상기 형태소에 대응하는 제3 감성 값을 더 추출할 수 있다.The processor determines whether the text includes an emoticon, and when determining whether the text includes an emoticon, further browses an emoticon emotion dictionary database, and whether information corresponding to the emoticon exists in the emoticon emotion dictionary database Is further determined, and if information corresponding to the emoticon exists in the emoticon emotion dictionary database, a third emotion value corresponding to the morpheme may be further extracted.

상기 프로세서는, 상기 종합적 감성 분석 결과를 상기 제1 단말 장치 및 상기 제2 단말 장치 중 적어도 하나에 전달할 수 있다.The processor may transmit the result of the comprehensive sentiment analysis to at least one of the first terminal device and the second terminal device.

상기 종합적 감성 분석 결과는, 긍정적 감성, 부정적 감성 및 중립적 감성 중 적어도 하나를 포함할 수 있다.The comprehensive emotion analysis result may include at least one of a positive emotion, a negative emotion, and a neutral emotion.

상기 종합적 감성 분석 결과는, 상기 긍정적 감성, 부정적 감성 및 중립적 감성 중 적어도 하나에 대한 시계열적 분석 결과를 포함할 수 있다.The comprehensive emotion analysis result may include a time-series analysis result of at least one of the positive emotion, negative emotion, and neutral emotion.

상기 종합적 감성 분석 결과는, 상기 제1 사용자 및 상기 제2 사용자 중 적어도 하나에 의해 미리 설정된 기간 내에서의 시계열적 분석 결과를 포함할 수 있다.The comprehensive sentiment analysis result may include a time series analysis result within a preset period by at least one of the first user and the second user.

상기 종합적 감성 분석 결과는, 상기 제2 단말 장치의 사용자에 대한 상기 제1 단말 장치의 사용자의 감성 분석 결과를 포함할 수 있다.The comprehensive sentiment analysis result may include a user's sentiment analysis result of the first terminal device with respect to the user of the second terminal device.

감성 분석 방법은, 제1 단말 장치 및 제2 단말 장치 상호 간에 적어도 하나의 텍스트가 전송되는 단계, 상기 적어도 하나의 텍스트를 획득하는 단계, 상기 적어도 하나의 텍스트의 형태소를 분석하는 단계, 감성 사전 데이터베이스를 기반으로 분석된 상기 형태소에 대응하는 감성 분석 결과를 획득하는 단계 및 상기 감성 분석 결과를 이용하여 상기 제1 단말 장치의 사용자에 대한 상기 제2 단말 장치의 사용자의 대한 종합적 감성 분석 결과를 획득하는 단계를 포함할 수 있다.The sentiment analysis method includes: transmitting at least one text between a first terminal device and a second terminal device, obtaining the at least one text, analyzing the morpheme of the at least one text, and an emotion dictionary database Acquiring a sentiment analysis result corresponding to the morpheme analyzed based on and obtaining a comprehensive sentiment analysis result of the user of the second terminal device with respect to the user of the first terminal device using the sentiment analysis result It may include steps.

감성 분석 방법은, 상기 종합적 감성 분석 결과 획득을 위하여, 분석된 상기 형태소를 이용하여 상기 적어도 하나의 텍스트 자체에 대한 텍스트 정보를 획득하는 단계를 더 포함할 수 있다.The sentiment analysis method may further include acquiring text information on the at least one text itself by using the analyzed morpheme in order to obtain the comprehensive sentiment analysis result.

상기 텍스트 정보는, 형태소의 개수, 존칭어의 사용 여부, 사용된 존칭어, 기호의 사용 여부, 사용된 기호, 이모티콘의 사용 여부 및 사용된 이모티콘 중 적어도 하나를 포함할 수 있다.The text information may include at least one of the number of morphemes, whether or not to use honorable words, used honorable words, whether or not to use symbols, used symbols, whether or not to use emoticons, and used emoticons.

감성 분석 방법은, 상기 종합적 감성 분석 결과를 획득을 위하여, 상기 제1 단말 장치 및 상기 제2 단말 장치 사이의 상호 대화에 관한 상황 정보를 획득하는 단계를 더 포함할 수 있다.The sentiment analysis method may further include acquiring context information regarding a mutual conversation between the first terminal device and the second terminal device in order to obtain the comprehensive sentiment analysis result.

상기 상황 정보는, 제1 단말 장치 및 제2 단말 장치 중 적어도 하나의 사용자의 성별 및 연령 중 적어도 하나, 제1 단말 장치 및 제2 단말 장치 각각의 사용자의 관계, 텍스트 전송 시간, 텍스트 전송 날짜, 텍스트 전송 요일 중 적어도 하나를 포함할 수 있다.The context information may include at least one of the sex and age of at least one of the first terminal device and the second terminal device, the relationship between the users of the first terminal device and the second terminal device, a text transmission time, a text transmission date, It may include at least one of the text transmission days.

상기 감성 사전 데이터베이스를 기반으로 분석된 상기 형태소에 대응하는 감성 분석 결과를 획득하는 단계는, 상기 텍스트 기반 감성 사전 데이터베이스를 열람하는 단계, 상기 텍스트 기반 감성 사전 데이터베이스에 상기 형태소 또는 상기 형태소에 대응하는 정보의 존재 여부를 판단하는 단계 및 만약 텍스트 기반 상기 감성 사전 데이터베이스에 상기 형태소 또는 상기 형태소에 대응하는 정보가 존재하면, 상기 형태소에 대응하는 제1 감성 값을 추출하는 단계를 포함할 수 있다.The obtaining of the sentiment analysis result corresponding to the morpheme analyzed based on the sentiment dictionary database includes: browsing the text-based sentiment dictionary database, information corresponding to the morpheme or the morpheme in the text-based sentiment dictionary database Determining whether there is a presence or not, and if information corresponding to the morpheme or the morpheme exists in the text-based emotion dictionary database, extracting a first emotion value corresponding to the morpheme.

상기 감성 사전 데이터베이스를 기반으로 분석된 상기 형태소에 대응하는 감성 분석 결과를 획득하는 단계는, 상황 기반 감성 사전 데이터베이스를 더 열람하는 단계, 상기 감성 사전 데이터베이스에 상기 형태소 또는 상기 형태소에 대응하는 정보의 존재 여부를 더 판단하는 단계 및 만약 상기 상황 기반 감성 사전 데이터베이스에 상기 형태소 또는 상기 형태소에 대응하는 정보가 존재하면, 상기 형태소에 대응하는 제2 감성 값을 더 추출하는 단계를 포함하되, 상기 상황 기반 감성 사전 데이터베이스는 대인 관계 상황에서 높은 빈도를 갖는 단어로 구축된 것일 수 있다.The obtaining of the emotion analysis result corresponding to the morpheme analyzed based on the emotion dictionary database includes further browsing a context-based emotion dictionary database, and the presence of information corresponding to the morpheme or the morpheme in the emotion dictionary database Further determining whether or not, and if there is information corresponding to the morpheme or the morpheme in the context-based emotion dictionary database, further extracting a second emotion value corresponding to the morpheme, wherein the context-based emotion dictionary database The dictionary database may be constructed with words having a high frequency in an interpersonal relationship.

상기 감성 사전 데이터베이스를 기반으로 분석된 상기 형태소에 대응하는 감성 분석 결과를 획득하는 단계는, 상기 텍스트가 이모티콘을 포함하는지 판단하는 단계, 만약 상기 텍스트가 이모티콘을 포함하는지 판단하는 경우, 이모티콘 감성 사전 데이터베이스를 더 열람하는 단계, 상기 이모티콘 감성 사전 데이터베이스에 상기 이모티콘에 대응하는 정보의 존재 여부를 더 판단하는 단계 및 만약 상기 이모티콘 감성 사전 데이터베이스에 상기 이모티콘에 대응하는 정보가 존재하면, 상기 형태소에 대응하는 제3 감성 값을 더 추출하는 단계를 포함할 수 있다.The obtaining of the sentiment analysis result corresponding to the morpheme analyzed based on the sentiment dictionary database includes: determining whether the text includes an emoticon, and if determining whether the text includes an emoticon, an emoticon sentiment dictionary database Further browsing, further determining whether information corresponding to the emoticon exists in the emoticon emotion dictionary database, and if information corresponding to the emoticon exists in the emoticon emotion dictionary database, a first corresponding to the morpheme 3 It may include the step of further extracting the emotional value.

감성 분석 방법은, 상기 종합적 감성 분석 결과를 상기 제1 단말 장치 및 상기 제2 단말 장치 중 적어도 하나에 전달하는 단계를 더 포함할 수 있다.The sentiment analysis method may further include transmitting the result of the comprehensive sentiment analysis to at least one of the first terminal device and the second terminal device.

상기 종합적 감성 분석 결과는, 긍정적 감성, 부정적 감성 및 중립적 감성 중 적어도 하나를 포함할 수 있다.The comprehensive emotion analysis result may include at least one of a positive emotion, a negative emotion, and a neutral emotion.

상기 종합적 감성 분석 결과는, 상기 긍정적 감성, 부정적 감성 및 중립적 감성 중 적어도 하나에 대한 시계열적 분석 결과를 포함할 수 있다.The comprehensive emotion analysis result may include a time-series analysis result of at least one of the positive emotion, negative emotion, and neutral emotion.

상기 종합적 감성 분석 결과는, 상기 제1 사용자 및 상기 제2 사용자 중 적어도 하나에 의해 미리 설정된 기간 내에서의 시계열적 분석 결과를 포함할 수 있다.The comprehensive sentiment analysis result may include a time series analysis result within a preset period by at least one of the first user and the second user.

상기 종합적 감성 분석 결과는, 상기 제2 단말 장치의 사용자에 대한 상기 제1 단말 장치의 사용자의 감성 분석 결과를 포함할 수 있다.The comprehensive sentiment analysis result may include a user's sentiment analysis result of the first terminal device with respect to the user of the second terminal device.

대화형 에이전트 시스템은, 제1 단말 장치, 상기 제1 단말 장치와 적어도 하나의 텍스트를 상호 송수신하는 제2 단말 장치 및 상기 제1 단말 장치 및 상기 제2 단말 장치 사이에서 송수신되는 적어도 하나의 텍스트의 형태소를 분석하고, 감성 사전 데이터베이스를 기반으로 상기 형태소에 대응하는 감성 분석 결과를 획득하고, 상기 감성 분석 결과를 이용하여 총체적 감성 분석을 수행함으로써, 상기 제1 단말 장치의 사용자 및 상기 제1 단말 장치의 사용자 중 적어도 하나의 감성 상태 판단 결과를 획득하는 감성 분석 서비스 장치를 포함할 수 있다.The interactive agent system includes: a first terminal device, a second terminal device for mutually transmitting and receiving at least one text with the first terminal device, and at least one text transmitted and received between the first terminal device and the second terminal device. By analyzing morphemes, acquiring a sentiment analysis result corresponding to the morpheme based on the sentiment dictionary database, and performing a total sentiment analysis using the sentiment analysis result, the user of the first terminal device and the first terminal device It may include an emotion analysis service device that obtains a result of determining the emotion state of at least one of the users of.

단말 장치는, 제1 텍스트를 입력받는 입력부, 상기 제1 텍스트를 다른 단말 장치로 전송하고, 상기 다른 단말 장치로부터 제2 텍스트를 수신하는 통신부, 상기 제1 텍스트 및 상기 제2 텍스트 중 적어도 하나의 형태소를 분석하고, 감성 사전 데이터베이스를 기반으로 분석된 상기 형태소에 대응하는 감성 분석 결과를 획득하고, 상기 감성 분석 결과를 이용하여 상기 다른 단말 장치의 사용자의 대한 종합적 감성 분석 결과를 획득하는 프로세서 및 상기 종합적 감성 분석 결과를 출력하는 출력부를 포함할 수 있다.The terminal device includes: an input unit for receiving a first text, a communication unit for transmitting the first text to another terminal device and receiving a second text from the other terminal device, and at least one of the first text and the second text. A processor that analyzes morphemes, obtains an emotion analysis result corresponding to the morpheme analyzed based on an emotion dictionary database, and obtains a comprehensive emotion analysis result of a user of the other terminal device using the emotion analysis result, and the It may include an output unit that outputs a result of comprehensive emotion analysis.

상술한 감성 분석 장치, 이를 포함하는 대화형 에이전트 시스템, 이를 수행하기 위한 단말 장치 및 감성 분석 방법에 의하면, 대인 관계 상황의 데이터 기반의 감성 분석을 보다 효과적으로 적절하게 수행할 수 있게 된다. According to the above-described emotion analysis device, an interactive agent system including the same, a terminal device for performing the same, and an emotion analysis method, it is possible to more effectively and appropriately perform a data-based emotion analysis of an interpersonal relationship situation.

상술한 감성 분석 장치, 이를 포함하는 대화형 에이전트 시스템, 이를 수행하기 위한 단말 장치 및 감성 분석 방법에 의하면, 대인 관계에 대한 상황을 기반으로 감성을 분석하되, 메신저 또는 소셜 네트워크 상에서의 개개인의 활동 결과에서 확인되는 여러 상황 정보들과 대화의 내용 등을 종합적으로 반영하여 감성 분석을 수행할 수 있게 되며, 이를 통해 도출된 분석 결과(감성 상태 등)을 기반으로 관계 친화형 서비스를 구축할 수 있게 된다.According to the above-described emotion analysis device, the interactive agent system including the same, the terminal device for performing the same, and the emotion analysis method, the emotion is analyzed based on the situation of the interpersonal relationship, but the result of the individual's activity on the messenger or social network. It is possible to perform sentiment analysis by comprehensively reflecting various situational information and conversation contents, etc., which are identified in the program, and a relationship-friendly service can be built based on the analysis results (emotional status, etc.) derived through this. .

상술한 감성 분석 장치, 이를 포함하는 대화형 에이전트 시스템, 이를 수행하기 위한 단말 장치 및 감성 분석 방법에 의하면, 하나의 사용자의 감성 상태 또는 복수의 사용자 간의 감성 상태를 기반으로 사용자(들)에게 적합한 서비스를 제공할 수 있게 되며, 이에 따라 사용자(들)의 만족도를 향상시킬 수 있게 되는 효과도 얻을 수 있다.According to the above-described emotion analysis device, the interactive agent system including the same, the terminal device for performing the same, and the emotion analysis method, a service suitable for the user(s) based on the emotional state of one user or the emotional state between a plurality of users. Is able to be provided, and accordingly, an effect of improving the satisfaction of the user(s) can be obtained.

상술한 감성 분석 장치, 이를 포함하는 대화형 에이전트 시스템, 이를 수행하기 위한 단말 장치 및 감성 분석 방법에 의하면, 소셜 네트워크 시스템이나 메신저 프로그램을 통해 일 방향 또는 쌍방향 대화가 진행되는 경우, 상대방 또는 상황에 따른 감성 상태에 부합되는 단어, 문장, 화상(예를 들어, 이모티콘 등) 및/또는 사운드 등을 적절하게 추천할 수 있게 된다.According to the above-described emotion analysis device, the interactive agent system including the same, the terminal device for performing the same, and the emotion analysis method, when a one-way or two-way conversation proceeds through a social network system or a messenger program, Words, sentences, images (eg, emoticons, etc.) and/or sounds that match the emotional state can be appropriately recommended.

상술한 감성 분석 장치, 이를 포함하는 대화형 에이전트 시스템, 이를 수행하기 위한 단말 장치 및 감성 분석 방법에 의하면, 고객 응대나 개인 비서 서비스 등을 위해 챗봇을 사용하는 경우, 챗봇이 분석된 사용자의 감성 상태를 기반으로 사용자 및 상황에 보다 부합되는 메시지를 생성할 수 있도록 할 수 있으며 이에 따라 챗봇 이용자의 고객 만족도를 향상시킬 수 있게 된다.According to the above-described emotion analysis device, the interactive agent system including the same, the terminal device for performing the same, and the emotion analysis method, when a chatbot is used for customer service or personal assistant service, the emotional state of the user analyzed by the chatbot. Based on, it is possible to create a message that is more suitable to the user and the situation, and accordingly, the customer satisfaction of the chatbot user can be improved.

상술한 감성 분석 장치, 이를 포함하는 대화형 에이전트 시스템, 이를 수행하기 위한 단말 장치 및 감성 분석 방법은, 기업이나 공공기관에서 대화 상대방의 감성을 분석하기 위해서도 이용 가능하다.The above-described emotion analysis device, an interactive agent system including the same, a terminal device for performing the same, and an emotion analysis method can also be used in a company or public institution to analyze the emotion of a conversation partner.

도 1은 대화형 에이전트 시스템의 일 실시예에 대한 도면이다.
도 2는 감성 분석 장치의 일 실시예에 대한 블록도이다.
도 3은 프로세서 및 저장부의 일 실시예에 대한 블록도이다.
도 4는 정의된 변수의 일 실시예를 설명하기 위한 도면이다.
도 5는 채팅 화면의 일 실시예에 대한 도면이다.
도 6은 감성 값의 연산을 위한 수식의 일 실시예를 도시한 도면이다.
도 7은 감성 단어 분류 색인 결과의 일례를 설명하기 위한 도면이다.
도 8은 누적된 데이터의 일례에 대한 도표이다.
도 9는 감성 분석 결과에 따라 획득 가능한 여러 상태의 일례를 설명하기 위한 도면이다.
도 10은 감성 분석 결과를 채팅 화면에 나타나는 일 실시예를 도시한 도면이다.
도 11은 인물 중심의 감성 분석 결과 제공 화면의 일 실시예를 도시한 도면이다.
도 12는 시계열 중심의 감성 분석 결과 제공 화면의 일 실시예를 도시한 도면이다.
도 13은 단말 장치의 일 실시예에 대한 도면이다.
도 14는 감성 분석 방법의 일 실시예에 대한 흐름도이다.
도 15는 감성 분석 방법의 개시 과정의 일 실시예에 대한 보다 상세한 흐름도이다.
도 16은 감성 사전 기반으로 감성 값을 획득하는 과정의 일 실시예에 대한 제1 흐름도이다.
도 17은 감성 사전 기반으로 감성 값을 획득하는 과정의 일 실시예에 대한 제2 흐름도이다.
도 18은 감성 분석 결과 정보의 제공 방법의 일 실시예에 대한 흐름도이다.
1 is a diagram of an embodiment of an interactive agent system.
2 is a block diagram of an apparatus for analyzing emotions according to an embodiment.
3 is a block diagram of an embodiment of a processor and a storage unit.
4 is a diagram for describing an embodiment of a defined variable.
5 is a diagram for an embodiment of a chat screen.
6 is a diagram illustrating an embodiment of an equation for calculating an emotion value.
7 is a diagram for explaining an example of a result of an emotional word classification index.
8 is a chart of an example of accumulated data.
9 is a diagram for explaining an example of various states that can be obtained according to a result of an emotion analysis.
FIG. 10 is a diagram illustrating an exemplary embodiment in which emotion analysis results are displayed on a chat screen.
11 is a diagram illustrating an embodiment of a screen for providing a result of a person-centered emotion analysis.
12 is a diagram illustrating an embodiment of a screen for providing a result of a sentiment analysis centered on a time series.
13 is a diagram for an embodiment of a terminal device.
14 is a flowchart of an embodiment of a method for analyzing emotions.
15 is a more detailed flowchart of an embodiment of a process of initiating an emotion analysis method.
16 is a first flowchart of an embodiment of a process of acquiring an emotion value based on an emotion dictionary.
17 is a second flowchart of an embodiment of a process of acquiring an emotion value based on an emotion dictionary.
18 is a flowchart of an embodiment of a method for providing information on a result of an emotion analysis.

이하 명세서 전체에서 동일 참조 부호는 특별한 사정이 없는 한 동일 구성요소를 지칭한다. 이하에서 사용되는 '부'가 부가된 용어는, 소프트웨어 또는 하드웨어로 구현될 수 있으며, 실시예에 따라 '부'가 하나의 부품으로 구현되거나, 하나의 '부'가 복수의 부품들로 구현되는 것도 가능하다.In the following specification, the same reference numerals refer to the same elements unless otherwise specified. The term "unit" used below may be implemented as software or hardware, and according to the embodiment, the term "unit" is implemented as one part, or one "unit" is implemented as a plurality of parts. It is also possible.

명세서 전체에서 어떤 부분이 다른 부분과 연결되어 있다고 할 때, 이는 어떤 부분과 다른 부분에 따라서 물리적 연결을 의미할 수도 있고, 또는 전기적으로 연결된 것을 의미할 수도 있다.When a part is said to be connected to another part throughout the specification, it may mean a physical connection depending on the part and another part, or it may mean that it is electrically connected.

또한, 어떤 부분이 다른 부분을 포함한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 부분 이외의 또 다른 부분을 제외하는 것이 아니며, 설계자의 선택에 따라서 또 다른 부분을 더 포함할 수 있음을 의미한다.In addition, when a part includes another part, this does not exclude another part other than the other part unless specifically stated to the contrary, and it means that another part may be further included according to the designer's choice. do.

제 1 이나 제 2 등의 용어는 하나의 부분을 다른 부분으로부터 구별하기 위해 사용되는 것으로, 특별한 기재가 없는 이상 이들이 순차적인 표현을 의미하는 것은 아니다.Terms such as first or second are used to distinguish one part from another, and unless otherwise specified, they do not mean sequential expressions.

단수의 표현은 문맥상 명백하게 예외가 있지 않는 한, 복수의 표현을 포함할 수 있다.Singular expressions may include plural expressions, unless the context clearly has exceptions.

이하 도 1 내지 도 12를 참조하여 감성 분석 장치, 이를 포함하는 대화형 에이전트 시스템 및 단말 장치의 일 실시예에 대해서 설명하도록 한다.Hereinafter, an embodiment of an emotion analysis apparatus, an interactive agent system including the same, and a terminal device will be described with reference to FIGS. 1 to 12.

도 1은 대화형 에이전트 시스템의 일 실시예에 대한 도면이다.1 is a diagram of an embodiment of an interactive agent system.

도 1에 도시된 바에 의하면, 대화형 에이전트 시스템(1)은, 네트워크(9)를 통해 상호 통신 가능한 복수의 단말 장치(90)와, 감성 분석 장치(100)를 포함할 수 있다.As shown in FIG. 1, the interactive agent system 1 may include a plurality of terminal devices 90 capable of communicating with each other through a network 9 and an emotion analysis device 100.

네트워크(9)는, 유선 통신 네트워크, 무선 통신 네트워크 또는 이들의 조합을 포함할 수 있다. 여기서, 유선 통신 네트워크는, 케이블을 이용하여 구축된 것일 수 있으며, 케이블은, 예를 들어, 페어 케이블, 동축 케이블, 광섬유 케이블 또는 이더넷 케이블 등을 이용하여 구현된 것일 수 있다. 무선 통신 네트워크는 근거리 통신 네트워크 및 원거리 통신 네트워크 중 적어도 하나를 이용하여 구현된 것일 수 있다. 여기서, 근거리 통신 네트워크는, 예를 들어, 와이 파이(Wi-Fi), 지그비(zigbee), 블루투스(Bluetooth), 와이파이 다이렉트(Wi-Fi Direct), 저전력 블루투스(Bluetooth Low Energy), 캔(CAN) 통신 또는 엔에프씨(NFC, Near Field Communication) 등을 이용하여 구현된 것일 수 있다. 원거리 통신 네트워크는, 유선 통신 네트워크예를 들어, 3GPP, 3GPP2 또는 와이맥스 계열 등의 이동 통신 표준을 기반으로 구현된 것일 수 있다.The network 9 may include a wired communication network, a wireless communication network, or a combination thereof. Here, the wired communication network may be constructed using a cable, and the cable may be implemented using, for example, a pair cable, a coaxial cable, an optical fiber cable or an Ethernet cable. The wireless communication network may be implemented using at least one of a short-range communication network and a long-distance communication network. Here, the short-range communication network is, for example, Wi-Fi, Zigbee, Bluetooth, Wi-Fi Direct, Bluetooth Low Energy, CAN It may be implemented using communication or NFC (Near Field Communication). The telecommunication network may be implemented based on a mobile communication standard such as a wired communication network, for example, 3GPP, 3GPP2, or WiMAX series.

단말 장치(90)는 복수의 단말 장치, 예를 들어 제1 단말 장치(10) 및 제2 단말 장치(20)를 포함할 수 있다. 도 1에는 두 개의 단말 장치(10, 20)만이 도시되어 있으나, 단말 장치(90)의 개수는 이에 한정되지 않는다. 실시예에 따라서, 대화형 에이전트 시스템(1)은 셋 또는 그 이상의 단말 장치(미도시)를 더 포함할 수도 있다.The terminal device 90 may include a plurality of terminal devices, for example, a first terminal device 10 and a second terminal device 20. Although only two terminal devices 10 and 20 are shown in FIG. 1, the number of terminal devices 90 is not limited thereto. Depending on the embodiment, the interactive agent system 1 may further include three or more terminal devices (not shown).

복수의 단말 장치(90), 예를 들어 제1 단말 장치(10) 및 제2 단말 장치(20)는, 소정의 메시지를 송수신할 수 있도록 마련된다. 여기서, 메시지는 텍스트(기호, 문자, 숫자, 유니코드 등에서 정의된 도형 또는 이들 중 적어도 둘의 조합 등을 포함할 수 있다) 및/또는 화상 등을 포함할 수 있다. 여기서 화상은 정지 화상 및 동화상 중 적어도 하나를 포함할 수 있으며, 정지 화상 및 동화상 중 적어도 하나는, 예를 들어, 이모티콘을 포함할 수 있다.The plurality of terminal devices 90, for example, the first terminal device 10 and the second terminal device 20, are provided to transmit and receive predetermined messages. Here, the message may include text (symbols, letters, numbers, figures defined in Unicode, etc., or a combination of at least two of them) and/or images. Here, the image may include at least one of a still image and a moving image, and at least one of the still image and the moving image may include, for example, an emoticon.

제1 단말 장치(10)는 사용자로부터 텍스트 및/또는 화상 등을 입력 받거나 및/또는 제2 단말 장치(20)로부터 전송된 텍스트 및/또는 화상을 수신하여 시각적 및/또는 청각적으로 출력할 수 있도록 마련된다. 제2 단말 장치(20)도 이와 동일하게 제1 단말 장치(10)로 텍스트 및/또는 화상을 송수신하거나 수신한 텍스트 및/또는 화상을 시각적 및/또는 청각적으로 출력할 수 있도록 마련된다.The first terminal device 10 may receive text and/or images from a user and/or receive text and/or images transmitted from the second terminal device 20 and output them visually and/or audibly. Is prepared to be. Similarly, the second terminal device 20 is provided to transmit/receive text and/or image to the first terminal device 10 or to visually and/or audibly output the received text and/or image.

단말 장치(90), 즉 제1 단말 장치(10) 및 제2 단말 장치(20)는, 예를 들어, 셀룰러 폰, 스마트 폰, 태블릿 피씨, 디지털 텔레비전, 셋톱 박스, 데스크톱 컴퓨터, 랩톱 컴퓨터, 내비게이션 장치, 개인용 디지털 보조기(PDA, Personal Digital Assistant), 휴대용 게임기, 두부 장착형 디스플레이(HMD, Head Mounted Display) 장치나 스마트 시계 등과 같은 웨어러블 장치, 음향 재생 장치(예를 들어, 인공지능 스피커 등) 및 이외 부호의 입력 및 수정이 가능한 다양한 장치 중 적어도 하나를 포함할 수 있다.The terminal device 90, that is, the first terminal device 10 and the second terminal device 20, is, for example, a cellular phone, a smart phone, a tablet PC, a digital television, a set-top box, a desktop computer, a laptop computer, and a navigation system. Devices, personal digital assistants (PDAs), portable game consoles, head mounted display (HMD, Head Mounted Display) devices, wearable devices such as smart watches, sound reproduction devices (for example, artificial intelligence speakers, etc.), and others It may include at least one of various devices capable of inputting and modifying a sign.

감성 분석 장치(100)는 단말 장치(90) 사이에서 전송되는 메시지를 기반으로 감성 분석을 수행할 수 있다. 구체적으로, 감성 분석 장치(100)는 제1 단말 장치(10)에서 제2 단말 장치(20)로 전송되는 메시지 및/또는 제2 단말 장치(20)에서 제1 단말 장치(10)로 전송되는 메시지를 기반으로, 어느 하나의 단말 장치(10, 20)의 사용자에 대한 다른 단말 장치(20, 10)의 사용자에 대한 감성/감성을 분석하여 판단할 수 있다. 보다 구체적으로 예를 들어, 감성 분석 장치(100)는 제1 단말 장치(10)의 사용자에 대한 제2 단말 장치(20)의 사용자의 감성을 판단하거나, 및/또는 제2 단말 장치(20)의 사용자에 대한 제1 단말 장치(10)의 사용자의 감성을 판단할 수 있도록 마련된다. 이에 대한 상세한 내용은 후술한다.The sentiment analysis device 100 may perform sentiment analysis based on a message transmitted between the terminal devices 90. Specifically, the sentiment analysis apparatus 100 includes a message transmitted from the first terminal device 10 to the second terminal device 20 and/or the message transmitted from the second terminal device 20 to the first terminal device 10. Based on the message, the user of one terminal device 10 or 20 may be determined by analyzing the emotion/sensibility of the user of the other terminal device 20 or 10. More specifically, for example, the emotion analysis apparatus 100 determines the user's emotion of the second terminal device 20 with respect to the user of the first terminal device 10 and/or the second terminal device 20 It is provided to determine the user's sensibility of the first terminal device 10 for the user of. Details about this will be described later.

메시지 처리 장치(80)가 부재한 경우, 감성 분석 장치(100)는 메시지 처리 장치(80)의 기능도 함께 수행하도록 마련된 것일 수도 있다. 다시 말해서, 감성 분석 장치(100)는 메시지 처리 장치(80)와 일체형으로 구현될 수도 있다.When the message processing device 80 is absent, the sentiment analysis device 100 may be provided to perform the function of the message processing device 80 as well. In other words, the sentiment analysis device 100 may be implemented integrally with the message processing device 80.

감성 분석 장치(100)는, 서버 장치 등과 같은 컴퓨팅 장치(100A, 100B)를 이용하여 구현 가능하며, 실시예에 따라서 하나의 컴퓨팅 장치(예를 들어, 100A)를 이용하여 구현될 수도 있고, 또는 둘 이상의 컴퓨팅 장치(100A, 100B)를 이용하여 구현될 수도 있다. 감성 분석 장치(100)를 둘 이상의 컴퓨팅 장치(100A, 100B)를 이용하여 구현하는 경우, 둘 이상의 컴퓨팅 장치(100A, 100B)는 내부적으로 별도로 마련된 네트워크 및/또는 외부의 네트워크(9)를 통하여 상호 데이터를 송수신하도록 연결된 것일 수도 있다.The sentiment analysis device 100 may be implemented using computing devices 100A and 100B such as a server device, and may be implemented using one computing device (eg, 100A) according to embodiments, or It may be implemented using two or more computing devices 100A and 100B. When implementing the sentiment analysis device 100 using two or more computing devices 100A, 100B, the two or more computing devices 100A, 100B are mutually provided through an internally separate network and/or an external network 9. It may be connected to transmit and receive data.

실시예에 따라서, 대화형 에이전트 시스템(1)은, 복수의 단말 장치(90) 및 감성 분석 장치(100)와 네트워크(9)를 통해 통신 가능하게 연결되는 메시지 처리 장치(80)를 더 포함할 수도 있다. 메시지 처리 장치(80)는, 단말 장치(90), 일례로 제1 단말 장치(10) 및 제2 단말 장치(20) 사이의 메시지의 전송, 암호화, 압축 및/또는 저장 등을 처리할 수 있도록 마련된다. 예를 들어, 메시지 처리 장치(80)는, 서버 장치 등과 같은 적어도 하나의 컴퓨팅 장치를 이용하여 구현될 수 있다.According to an embodiment, the interactive agent system 1 further includes a plurality of terminal devices 90 and a message processing device 80 that is communicatively connected to the sentiment analysis device 100 and the network 9. May be. The message processing device 80 can process the transmission, encryption, compression, and/or storage of messages between the terminal device 90, for example, the first terminal device 10 and the second terminal device 20. It is prepared. For example, the message processing device 80 may be implemented using at least one computing device such as a server device.

도 2는 감성 분석 장치의 일 실시예에 대한 블록도이고, 도 3은 프로세서 및 저장부의 일 실시예에 대한 블록도이다.FIG. 2 is a block diagram of an apparatus for analyzing emotions according to an exemplary embodiment, and FIG. 3 is a block diagram of an exemplary embodiment of a processor and a storage unit.

도 2에 도시된 바와 의하면, 감성 분석 장치(100)는, 일 실시예에 있어서, 통신부(110), 저장부(120) 및 프로세서(130)를 포함할 수 있다. 통신부(110), 저장부(120) 및 프로세서(130)는 상호 케이블 및/또는 금속선 등을 통해 상호 간에 전기적 신호를 전달함으로써 소정의 데이터를 송수신할 수 있도록 마련된다. 도 2는 감성 분석 장치(100)가 통신부(110), 저장부(120) 및 프로세서(130)만이 포함하는 일 실시예만을 도시하고 있으나, 감성 분석 장치(100)는 오직 이들만 포함하는 것은 아니다. 실시예에 따라서, 감성 분석 장치(100)는, 입력부나 출력부 등을 더 포함하는 것도 가능하다.As shown in FIG. 2, the sentiment analysis apparatus 100 may include a communication unit 110, a storage unit 120, and a processor 130, according to an exemplary embodiment. The communication unit 110, the storage unit 120, and the processor 130 are provided to transmit and receive predetermined data by transmitting electrical signals to each other through a mutual cable and/or a metal wire. FIG. 2 shows only one embodiment in which the emotion analysis apparatus 100 includes only the communication unit 110, the storage unit 120, and the processor 130, but the emotion analysis apparatus 100 does not include only these. . Depending on the embodiment, the emotion analysis apparatus 100 may further include an input unit or an output unit.

통신부(110)는, 복수의 단말 장치(90), 일례로 제1 단말 장치(10) 및 제2 단말 장치(20) 상호 간에 전달되는 메시지를 수신할 수 있다. 즉, 통신부(110)는 제1 단말 장치(10)로부터 제2 단말 장치(20)로 전달되는 모든 또는 일부의 메시지와, 제2 단말 장치(20)로부터 제1 단말 장치(10)로 전달되는 모든 또는 일부의 메시지를 수신하여 획득할 수 있다. 통신부(110)가 수신한 메시지는 저장부(120) 및 프로세서(130) 중 적어도 하나로 전달된다.The communication unit 110 may receive a message transmitted between a plurality of terminal devices 90, for example, the first terminal device 10 and the second terminal device 20. That is, the communication unit 110 includes all or some of the messages transmitted from the first terminal device 10 to the second terminal device 20 and the second terminal device 20 to the first terminal device 10. It can be obtained by receiving all or some of the messages. The message received by the communication unit 110 is transmitted to at least one of the storage unit 120 and the processor 130.

통신부(110)는, 네트워크(9)에 접속 가능한 소정의 통신 모듈을 이용하여 구현 가능하며, 예를 들어, 통신 칩, 통신 케이블 연결 단자 및/또는 안테나 등을 포함하여 구현될 수 있다.The communication unit 110 may be implemented using a predetermined communication module that can be connected to the network 9, and may include, for example, a communication chip, a communication cable connection terminal, and/or an antenna.

저장부(120)는 감성 분석 장치(100)의 동작에 필요한 각종 데이터나 애플리케이션을 일시적 또는 비일시적으로 저장할 수 있도록 마련된다. 일 실시예에 따르면, 저장부(120)는, 도 3에 도시된 바와 같이 텍스트 기반 감성 사전 데이터베이스(121), 상황 기반 감성 사전 데이터베이스(122) 및 이모티콘 감성 사전 데이터베이스(123) 중 적어도 하나를 저장할 수도 있다. 또한, 저장부(120)는 프로세서(130)로부터 전달된 적어도 하나의 감성 값(124)을 저장할 수도 있고, 및/또는 프로세서(130)가 획득한 최종적인 분석 결과(129)를 저장할 수도 있다. 뿐만 아니라, 저장부(120)는 프로세서(130)의 동작에 필요한 적어도 하나의 애플리케이션(미도시, 일례로, 상황 정보 추출, 형태소 분석, 텍스트 정보 획득, 감성 분석 및/또는 종합 분석을 위해 설계된 적어도 하나의 프로그램 등)을 저장할 수도 있다. 여기서, 저장부(120)에 저장된 애플리케이션은, 설계자에 의해 미리 작성되어 저장부(120)에 저장된 것일 수도 있고, 또는 감성 분석 장치(100)가 통신부(110) 및 유무선 통신 네트워크(9)를 통해 접속 가능한 전자 소프트웨어 유통망을 통하여 획득 또는 갱신되는 것일 수도 있다.The storage unit 120 is provided to temporarily or non-temporarily store various data or applications required for the operation of the emotion analysis apparatus 100. According to an embodiment, the storage unit 120 stores at least one of a text-based emotion dictionary database 121, a context-based emotion dictionary database 122, and an emoticon emotion dictionary database 123, as shown in FIG. 3. May be. In addition, the storage unit 120 may store at least one emotion value 124 transmitted from the processor 130 and/or may store the final analysis result 129 obtained by the processor 130. In addition, the storage unit 120 is at least one application required for the operation of the processor 130 (not shown, for example, at least designed for context information extraction, morpheme analysis, text information acquisition, sentiment analysis and/or comprehensive analysis). You can also save one program, etc.). Here, the application stored in the storage unit 120 may be previously created by the designer and stored in the storage unit 120, or the sentiment analysis device 100 may be transmitted through the communication unit 110 and the wired/wireless communication network 9 It may be acquired or updated through an accessible electronic software distribution network.

저장부(120)는, 예를 들어, 주기억장치 및 보조기억장치 중 적어도 하나를 포함할 수 있다. 주기억장치는 롬(ROM) 및/또는 램(RAM)과 같은 반도체 저장 매체를 이용하여 구현된 것일 수 있다. 롬은, 예를 들어, 통상적인 롬, 이프롬(EPROM), 이이프롬(EEPROM) 및/또는 마스크롬(MASK-ROM) 등을 포함할 수 있다. 램은 예를 들어, 디램(DRAM) 및/또는 에스램(SRAM) 등을 포함할 수 있다. 보조기억장치는, 플래시 메모리 장치, SD(Secure Digital) 카드, 솔리드 스테이트 드라이브(SSD, Solid State Drive), 하드 디스크 드라이브(HDD, Hard Disc Drive), 자기 드럼, 컴팩트 디스크(CD), 디브이디(DVD) 또는 레이저 디스크 등과 같은 광 기록 매체(optical media), 자기 테이프, 광자기 디스크 및/또는 플로피 디스크 등과 같이 데이터를 영구적 또는 반영구적으로 저장 가능한 적어도 하나의 저장 매체를 이용하여 구현될 수 있다.The storage unit 120 may include, for example, at least one of a main memory device and an auxiliary memory device. The main memory device may be implemented using a semiconductor storage medium such as ROM and/or RAM. The ROM may include, for example, a conventional ROM, EPROM, EEPROM, and/or MASK-ROM. The RAM may include, for example, DRAM and/or SRAM. Auxiliary storage devices include flash memory devices, SD (Secure Digital) cards, solid state drives (SSDs, Solid State Drives), hard disk drives (HDDs, Hard Disc Drives), magnetic drums, compact disks (CDs), DVDs ) Or an optical media such as a laser disk, a magnetic tape, a magneto-optical disk, and/or a floppy disk, and at least one storage medium capable of permanently or semi-permanently storing data.

프로세서(130)는, 감성 분석 장치(100)의 동작에 필요한 적어도 하나의 연산, 판단, 처리 및/또는 제어 동작 등을 수행할 수 있다. 이 경우, 프로세서(130)는 저장부(120)에 저장된 애플리케이션을 구동시켜 상술한 동작을 수행할 수도 있다.The processor 130 may perform at least one operation, determination, processing, and/or control operation required for the operation of the emotion analysis apparatus 100. In this case, the processor 130 may perform the above-described operation by driving the application stored in the storage unit 120.

프로세서(130)는, 예를 들어, 적어도 하나의 중앙 처리 장치(CPU, Central Processing Unit), 마이크로 컨트롤러 유닛(MCU, Micro Controller Unit), 마이컴(Micom, Micro Processor), 애플리케이션 프로세서(AP, Application Processor), 전자 제어 유닛(ECU, Electronic Controlling Unit) 및/또는 각종 연산 처리 및 제어 신호의 생성이 가능한 다른 전자 장치 등을 포함할 수 있다. 이들 장치는 예를 들어 하나 또는 둘 이상의 반도체 칩 및 관련 부품을 이용하여 구현 가능하다.The processor 130 is, for example, at least one central processing unit (CPU, Central Processing Unit), a microcontroller unit (MCU, Micro Controller Unit), a Micom (Micro Processor), an application processor (AP, Application Processor). ), an electronic control unit (ECU), and/or other electronic devices capable of processing various operations and generating control signals. These devices can be implemented using, for example, one or more semiconductor chips and related components.

도 3에 도시된 바에 의하면, 프로세서(130)는 상황 정보 추출부(131), 형태소 분석부(132), 텍스트 정보 획득부(133), 감성 분석부(134), 종합 분석부(135) 및 분석 결과 처리부(136)를 포함할 수도 있다. 상황 정보 추출부(131), 형태소 분석부(132), 텍스트 정보 획득부(133), 감성 분석부(134), 종합 분석부(135) 및 분석 결과 처리부(136)는 논리적으로 구분되는 것일 수도 있고, 물리적으로 구분되는 것일 수도 있다. 실시예에 따라서, 이들 부분(131 내지 136) 중 적어도 하나는 생략되는 것도 가능하다. 예를 들어, 프로세서(130)는 분석 결과 처리부(136)를 포함하지 않을 수도 있다.3, the processor 130 includes a context information extraction unit 131, a morpheme analysis unit 132, a text information acquisition unit 133, an emotion analysis unit 134, a comprehensive analysis unit 135, and It may also include an analysis result processing unit 136. The context information extraction unit 131, the morpheme analysis unit 132, the text information acquisition unit 133, the emotion analysis unit 134, the comprehensive analysis unit 135, and the analysis result processing unit 136 may be logically divided. Yes, it may be physically distinct. Depending on the embodiment, at least one of these portions 131 to 136 may be omitted. For example, the processor 130 may not include the analysis result processor 136.

상황 정보 추출부(131)는, 상황에 대한 정보를 추출할 수 있다. 보다 구체적으로는 상황 정보 추출부(131)는 제1 단말 장치(10) 및 제2 단말 장치(20) 사이에 메시지에 따라서 제1 단말 장치(10) 및 제2 단말 장치(20)의 사용자 중 적어도 하나에 대한 상황 정보를 추출할 수 있다.The context information extraction unit 131 may extract information on a situation. More specifically, the context information extracting unit 131 is a user of the first terminal device 10 and the second terminal device 20 according to a message between the first terminal device 10 and the second terminal device 20. At least one context information can be extracted.

일 실시예에 의하면, 상황 정보 추출부(131)는 제1 단말 장치(10) 및 제2 단말 장치(20) 각각에 설치된 소정의 애플리케이션(예를 들어, 메시지 애플리케이션)이 구동되고, 2인 이상의 사용자가 이를 통해 메시지를 입력한 경우, 이에 응하여 상황 분석을 개시하도록 설계될 수도 있다.According to an embodiment, the context information extraction unit 131 runs a predetermined application (eg, a message application) installed on each of the first terminal device 10 and the second terminal device 20, and When a user inputs a message through this, it may be designed to initiate context analysis in response.

일 실시예에 의하면, 상황 정보 추출부(131)는, 관계 친화형 정보를 분석할 수 있다. 여기서, 관계 친화형 정보는, 인구 동태적 정보, 심리 동태적 정보 및/또는 문장 입력 시간 정보 등을 포함할 수 있다. 다시 말해서, 상황 정보 추출부(131)는 메시지에 내포되거나 부가된 정보를 기반으로, 가족 관계, 성격 및/또는 상호 간의 친밀감 등과 같은 정보를 획득하여 상황 정보를 결정할 수도 있다. 이를 위해 상황 정보 추출부(131)는 메시지 정보 분석기를 이용할 수도 있다.According to an embodiment, the context information extracting unit 131 may analyze relationship-friendly information. Here, the relationship-friendly information may include demographic dynamic information, psychodynamic information, and/or sentence input time information. In other words, the context information extraction unit 131 may determine context information by acquiring information such as family relations, personality, and/or mutual intimacy based on information contained or added to the message. To this end, the context information extraction unit 131 may use a message information analyzer.

도 4는 정의된 변수의 일 실시예를 설명하기 위한 도면이다.4 is a diagram for describing an embodiment of a defined variable.

보다 구체적으로 예를 들어, 상황 정보 추출부(131)는, 도 4에 도시된 바와 같이 사용자 프로파일(user profile)이나 사용자 맥락(user context)을 추출할 수 있다. 여기서, 사용자 프로파일은, 사용자의 특성 등에 대한 정보를 포함할 수 있으며, 예를 들어, 제1 단말 장치(10)의 사용자의 성별이나 나이, 제2 단말 장치(20)의 사용자의 성별이나 나이 및/또는 제1 단말 장치(10) 및 제2 단말 장치(20) 각각의 사용자 사이의 관계 등을 포함할 수 있다. 또한, 필요에 따라서, 사용자 프로파일은, 제1 단말 장치(10) 및 제2 단말 장치(20) 각각의 사용자가 동성인지 또는 이성인지 여부 등에 대한 정보도 포함할 수 있다. 사용자 맥락은, 사용자의 주변 환경이나 사회, 문화적 맥락 등을 포함할 수 있으며, 예를 들어, 메시지를 전송한 시점 등을 포함할 수 있다. 보다 구체적으로 사용자 맥락은, 도 4에 도시된 바와 같이, 메시지의 전송 시간, 메시지 전송 시각의 특수 여부(예를 들어, 메시지 전송 시각이 심야 또는 새벽인지 여부 등), 메시지의 전송 요일, 메시지의 전송 날자 및/또는 메시지의 전송 빈도 등을 포함할 수 있다.More specifically, for example, the context information extracting unit 131 may extract a user profile or a user context as illustrated in FIG. 4. Here, the user profile may include information on the characteristics of the user, for example, the gender or age of the user of the first terminal device 10, the gender or age of the user of the second terminal device 20, and / Or the relationship between the users of each of the first terminal device 10 and the second terminal device 20 may be included. In addition, if necessary, the user profile may also include information on whether each user of the first terminal device 10 and the second terminal device 20 is the same sex or the opposite sex. The user context may include a user's surrounding environment, social or cultural context, and the like, and may include, for example, a time point at which a message was transmitted. More specifically, the user context is, as shown in FIG. 4, the transmission time of the message, whether the message transmission time is special (for example, whether the message transmission time is late at night or early morning, etc.), the day of the message transmission, and the message It may include a transmission date and/or a transmission frequency of a message.

상황 정보 추출부(131)는 상황 정보의 추출을 위해서 제1 단말 장치(10) 및 제2 단말 장치(20) 각각에 저장된 정보를 이용하거나, 및/또는 제1 단말 장치(10) 및 제2 단말 장치(20) 사이의 메시지 통신을 중개하는 장치(일례로 메시지 처리 장치(80))에 저장된 정보를 이용할 수도 있다. 또한, 상황 정보 추출부(131)는 제1 단말 장치(10) 및 제2 단말 장치(20) 상호 간에 송수신되는 메시지의 전부 또는 일부를 이용하여 상황 정보의 추출하는 것도 가능하다.The context information extraction unit 131 uses information stored in each of the first terminal device 10 and the second terminal device 20 to extract the context information, and/or the first terminal device 10 and the second terminal device. Information stored in a device (for example, a message processing device 80) that mediates message communication between the terminal devices 20 may be used. In addition, the context information extraction unit 131 may extract context information using all or part of messages transmitted and received between the first terminal device 10 and the second terminal device 20.

상황 정보 추출부(131)가 추출한 상황 정보는, 종합 분석부(135)로 전달될 수 있다.The context information extracted by the context information extraction unit 131 may be transmitted to the comprehensive analysis unit 135.

형태소 분석부(132)는 제1 단말 장치(10) 및 제2 단말 장치(20) 상호 간에 송수신되는 메시지의 전부 또는 일부로부터 형태소를 분석하여 획득할 수 있다. 형태소 분석부(132)는 상황 정보 추출부(131)의 동작과 동시에 또는 순차적으로 동작을 수행할 수 있다. The morpheme analysis unit 132 may analyze and obtain morphemes from all or part of messages transmitted and received between the first terminal device 10 and the second terminal device 20. The morpheme analysis unit 132 may perform an operation simultaneously or sequentially with the operation of the context information extraction unit 131.

일 실시예에 의하면, 형태소 분석부(132) 역시 제1 단말 장치(10) 및 제2 단말 장치(20) 각각이 소정의 애플리케이션을 구동시키고, 2인 이상의 사용자가 소정의 애플리케이션을 통하여 메시지를 입력한 경우에 한하여 형태소 분석을 개시하는 것도 가능하다.According to an embodiment, the morpheme analysis unit 132 also drives a predetermined application by each of the first terminal device 10 and the second terminal device 20, and two or more users input a message through the predetermined application. It is also possible to initiate morphological analysis in only one case.

도 5는 채팅 화면의 일 실시예에 대한 도면이다.5 is a diagram for an embodiment of a chat screen.

예를 들어, 제1 단말 장치(10)의 사용자는, 도 4에 도시된 바와 같이, 제1 단말 장치(10)의 입력부(도 13의 11-1 등)를 통해서, 적어도 하나의 메시지(T11 내지 T13)를 입력할 수 있다. 입력된 메시지(T11 내지 T13)는 네트워크(9)를 통하여 제2 단말 장치(20)로 전달된다. 입력된 메시지(T11 내지 T13)는 제1 단말 장치(10)의 출력부, 일례로 디스플레이(19M)에 표시될 수도 있다. 제2 단말 장치(20)의 사용자는 메시지(T11 내지 T13)의 수신에 응하여 적어도 하나의 응답 메시지(T21, T22)를 제2 단말 장치(20)의 입력부(미도시)를 통해 입력할 수 있으며, 응답 메시지(T21, T22)는 네트워크(9)를 통해 제1 단말 장치(10)로 전달된다. 응답 메시지(T21, T22)도 디스플레이(19M)에 순차적으로 표시될 수도 있다.For example, the user of the first terminal device 10, as shown in FIG. 4, through the input unit (11-1 in FIG. 13, etc.) of the first terminal device 10, at least one message (T11). To T13) can be entered. The input messages T11 to T13 are transmitted to the second terminal device 20 through the network 9. The input messages T11 to T13 may be displayed on the output unit of the first terminal device 10, for example, on the display 19M. The user of the second terminal device 20 may input at least one response message (T21, T22) through the input unit (not shown) of the second terminal device 20 in response to the reception of the messages T11 to T13. , The response messages T21 and T22 are transmitted to the first terminal device 10 through the network 9. Response messages T21 and T22 may also be sequentially displayed on the display 19M.

이와 같이 형태소 분석부(132)는 제1 단말 장치(10) 및 제2 단말 장치(20) 상호 간에 전달되는 메시지(T11 내지 T13, T21, T22)를 획득할 수 있다. 이 경우, 형태소 분석부(132)는, 실시예에 따라서, 통신부(110)를 통해서 각각의 단말 장치(10, 20)로부터 메시지(T11 내지 T13, T21, T22)를 직접 획득할 수도 있고, 및/또는 제1 단말 장치(10) 및 제2 단말 장치(20) 사이의 메시지 통신을 중개하는 장치(일례로 메시지 처리 장치(80))로부터 메시지(T11 내지 T13, T21, T22)를 수신하여 획득할 수도 있다.In this way, the morpheme analysis unit 132 may obtain messages T11 to T13, T21, and T22 transmitted between the first terminal device 10 and the second terminal device 20. In this case, the morpheme analysis unit 132 may directly obtain the messages T11 to T13, T21, T22 from each of the terminal devices 10 and 20 through the communication unit 110, according to an embodiment, and / Or obtained by receiving a message (T11 to T13, T21, T22) from a device that mediates message communication between the first terminal device 10 and the second terminal device 20 (for example, the message processing device 80) You may.

형태소 분석부(132)는, 획득한 메시지(T11 내지 T13, T21, T22)로부터 형태소를 분석하여 추출할 수 있다. 형태소는 더 이상 분해 불가능한 의미를 갖는 가장 작은 말의 단위를 의미한다. 형태소 분석부(132)는 사용자가 입력한 메시지의 각 어절로부터 자립 형태소나 의존 형태소 등을 분석, 분류 및 추출하여 획득할 수 있다. 실시예에 따라서, 전달되는 메시지(T11 내지 T13, T21, T22)가 음성의 형태인 경우, 형태소 분석부(132)는 메시지(T11 내지 T13, T21, T22)를 텍스트의 형태로 먼저 변환한 후, 변환된 텍스트로부터 형태소를 추출할 수도 있다. 또한, 만약 획득한 메시지(T11 내지 T13, T21, T22)가 화상(예를 들어, 정지 화상 또는 동화상)을 포함하는 경우라면, 형태소 분석부(132)는, 화상에 대해선 형태소 분석을 수행하지 않고, 화상이라는 정보를 부가할 수도 있다.The morpheme analysis unit 132 may analyze and extract morphemes from the acquired messages T11 to T13, T21, and T22. A morpheme refers to the smallest unit of speech that has a meaning that cannot be decomposed any more. The morpheme analysis unit 132 may analyze, classify, and extract and obtain an independent morpheme or a dependent morpheme from each word of a message input by the user. According to an embodiment, when the transmitted messages (T11 to T13, T21, T22) are in the form of voice, the morpheme analysis unit 132 first converts the messages (T11 to T13, T21, T22) to the form of text, and then , You can also extract morphemes from the converted text. In addition, if the acquired messages (T11 to T13, T21, T22) include an image (for example, a still image or a moving image), the morpheme analysis unit 132 does not perform morpheme analysis on the image. , It is also possible to add information such as an image.

형태소 분석부(132)가 분석하여 추출한 형태소는 텍스트 정보 획득부(133) 및 감성 분석부(134) 중 적어도 하나로 전달될 수 있다.The morphemes analyzed and extracted by the morpheme analysis unit 132 may be transmitted to at least one of the text information acquisition unit 133 and the emotion analysis unit 134.

텍스트 정보 획득부(133)는, 형태소 분석 결과를 기반으로 텍스트에 대한 정보를 획득할 수 있다. 예를 들어, 도 4에 도시된 바와 같이, 텍스트 정보 획득부(133)는 메시지 내의 어절 수, 메시지 내의 형태소 수, 메시지 내에서의 이모티콘 등의 사용 여부 및 사용 횟수, 감성어의 존재 여부, 긍정어의 개수, 부정어의 개수, 존칭어의 사용 여부 및 사용한 존칭어, 기호의 사용 여부 및 사용한 기호(예를 들어, 마일드(mild) 기호 횟수, 터치(touch) 기호 횟수 등) 및/또는 특별한 화상의 포함 여부 등에 대한 정보를 추출할 수 있다.The text information acquisition unit 133 may acquire information on text based on a result of morpheme analysis. For example, as shown in FIG. 4, the text information acquisition unit 133 includes the number of words in the message, the number of morphemes in the message, whether or not the emoticon is used in the message, the number of times of use, the presence of emotional words, and affirmations. The number of words, the number of negative words, the use of honorable titles and the use of honorable titles, the use of symbols and the symbols used (e.g., the number of mild symbols, the number of touch symbols, etc.) and/or the inclusion of special images. Information on whether or not can be extracted.

텍스트 정보 획득부(133)가 획득한 텍스트에 대한 정보는 종합 분석부(135)로 전달될 수 있다.Information on the text acquired by the text information acquisition unit 133 may be transmitted to the comprehensive analysis unit 135.

감성 분석부(134)는 형태소 분석부(132)가 추출한 형태소를 수신하고 수신한 형태소를 기반으로 감성 분석을 수행할 수 있다.The emotion analysis unit 134 may receive the morpheme extracted by the morpheme analysis unit 132 and perform emotion analysis based on the received morpheme.

일 실시예에 의하면, 감성 분석부(134)는 저장부(120)에 저장된, 텍스트 기반 감성 사전 데이터베이스(121), 상황 기반 감성 사전 데이터베이스(122) 및 이모티콘 감성 사전 데이터베이스(123) 중 적어도 하나를 이용하여 감성 분석을 수행할 수 있다. According to an embodiment, the emotion analysis unit 134 may select at least one of the text-based emotion dictionary database 121, the context-based emotion dictionary database 122, and the emoticon emotion dictionary database 123 stored in the storage unit 120. Can be used to perform sentiment analysis.

구체적으로, 감성 분석부(134)는 텍스트 기반 감성 사전 데이터베이스(121)을 기반으로 감성 값을 추출할 수 있다. 텍스트 기반 감성 사전 데이터베이스(121)은 특정한 단어에 대한 감성을 수치적으로 나타낸 데이터들의 집합이다. 감성 분석부(134)는 텍스트 기반 감성 사전 데이터베이스(121)의 단어나 형태소를, 추출한 단어나 형태소와 비교하고, 비교 결과에 따라서 메시지 내의 문장 각각으로부터 기본 감성어를 검출할 수 있다. 기본 감성어는 기본 긍정어 및 기본 부정어를 포함할 수도 있다.Specifically, the emotion analysis unit 134 may extract an emotion value based on the text-based emotion dictionary database 121. The text-based emotion dictionary database 121 is a set of data numerically representing emotions for a specific word. The sentiment analysis unit 134 may compare a word or morpheme of the text-based emotion dictionary database 121 with the extracted word or morpheme, and detect a basic sentiment word from each sentence in the message according to the comparison result. The basic sentiment words may include basic positive words and basic negative words.

도 6은 감성 값의 연산을 위한 수식의 일 실시예를 도시한 도면이다.6 is a diagram illustrating an embodiment of an equation for calculating an emotion value.

이와 같이 기본 감성어가 검출되면, 감성 분석부(134)는 감성 값을 연산할 수 있다. 예를 들어, 감성 분석부(134)는, 도 6에 도시된 바와 같이 수식을 기반으로 감성 값을 연산할 수 있다. 예를 들어, 감성 분석부(134)는 긍정어 하나에 +1을 대응시키고, 부정어 하나에 -1을 대응시킨 후, 이들 각각에 대응하는 값의 총합을 각각 연산하고, 연산된 총합을 합산하고, 합산된 값을 모든 감성어의 개수의 제곱근으로 나뉘어 기본 감성어에 대응하는 감성 값(제1 감성 값)을 결정할 수도 있다.When the basic sentiment word is detected in this way, the sentiment analysis unit 134 may calculate a sentiment value. For example, the emotion analysis unit 134 may calculate an emotion value based on an equation as illustrated in FIG. 6. For example, the sentiment analysis unit 134 associates +1 to one positive word and -1 to one negative word, then calculates the sum of values corresponding to each of them, and sums the calculated sum. , The summed value may be divided by the square root of the number of all sentiment words to determine the sentiment value (first sentiment value) corresponding to the basic sentiment word.

도 7은 감성 단어 분류 색인 결과의 일례를 설명하기 위한 도면이다.7 is a diagram for explaining an example of a result of an emotional word classification index.

또한, 감성 분석부(134)는 상황 기반 감성 사전 데이터베이스(122)을 기반으로 대인 관계 상황 고빈도 감성어에 대응하는 감성 값을 추출할 수 있다. 상황 기반 감성 사전 데이터베이스(122)는 대인 관계 상황 고빈도 감성어(들)로 이루어진 데이터 집단을 의미한다. 대인 관계 상황 고빈도 감성어는, 메시지 프로그램 등을 통한 대화 상황에서 높은 빈도로 등장하는 감성어를 의미하며, 형태소 등의 형태로 정의된 것일 수 있다. 대인 관계 상황 고빈도 감성어(들)는, 감성 분석에 있어서, 특별한 감성 유무를 분석하기 위한 기준으로 이용될 수 있다. 감성 분석부(134)는 상황 기반 감성 사전 데이터베이스(122)의 단어나 형태소를, 추출한 단어나 형태소와 비교하고, 이를 기반으로 메시지(대화문)에 대인 관계 상황 고빈도 감성어가 존재하는지 여부를 판단할 수 있다. In addition, the sentiment analysis unit 134 may extract a sentiment value corresponding to a high frequency sentiment word in an interpersonal relationship based on the context-based sentiment dictionary database 122. The context-based emotion dictionary database 122 refers to a data group consisting of high frequency emotional word(s) in an interpersonal relationship situation. Interpersonal Context High-frequency sentiment words mean sentiment words that appear at high frequency in conversation situations through message programs, etc., and may be defined in the form of morphemes, etc. Interpersonal situation The high frequency emotional word(s) may be used as a criterion for analyzing the presence or absence of a special emotion in the emotion analysis. The sentiment analysis unit 134 compares the words or morphemes of the context-based emotion dictionary database 122 with the extracted words or morphemes, and determines whether or not a high-frequency emotional word exists in a message (conversation sentence) based on this. I can.

이 경우, 감성 분석부(134)는 메시지들 내에 대인 관계 상황 고빈도 감성어의 존재하는지 여부에 따라 참값(True) 또는 거짓 값(false)를 리턴할 수 있다. 또한, 감성 분석부(134)는 메시지 내에서 고빈도 긍정어 및 고빈도 부정어를 별도로 기록할 수도 있다. 고빈도 긍정어는, 대인 관계 상황 고빈도 감성어 중에서 높은 빈도로 발생되는 긍정어를 포함하고, 고빈도 부정어는 대인 관계 상황 고빈도 감성어 중에서 높은 빈도로 발생되는 부정어를 포함한다. 여기서, 대인 관계 상황 고빈도 긍정어와 부정어는 설계자 또는 사용자의 임의적 선택에 따라 다양하게 정의 가능하다. 예를 들어, 설계자는 각각 38개의 대인 관계 상황 고빈도 긍정어와 부정어를 정의할 수 있다. 이 경우, 대인 관계 상황 고빈도 감성어의 총 개수는 76개가 된다.In this case, the sentiment analysis unit 134 may return a true value or a false value according to whether or not there is an interpersonal relationship situation high frequency sentiment word in the messages. In addition, the sentiment analysis unit 134 may separately record a high frequency positive word and a high frequency negative word in the message. High-frequency positive words include positive words that occur with a high frequency among high-frequency sentiment words in interpersonal situations, and high-frequency negative words include negative words that occur with a high frequency among high-frequency emotional words in an interpersonal relationship. Here, the high frequency positive words and negative words in the interpersonal relationship situation can be variously defined according to the designer's or the user's arbitrary selection. For example, the designer can define 38 high-frequency positive and negative words for each interpersonal situation. In this case, the total number of high-frequency sentiment words in the interpersonal relationship is 76.

각 38개의 대인 관계 상황 고빈도 긍정어와 부정어가 정의된 경우에 있어서, 감성 분석부(134)는, 도 6에 도시된 바와 같이, 다양한 긍정어 및 다양한 부정어를 검출하고 이들을 계수하여 빈도를 연산할 수 있다. 보다 상세하게는 감성 분석부(134)는, [좋-], [가능], [재미있-] 및 [^^] 등과 같은 긍정어를 검출하고, 이들 각각의 긍정어가 메시지 내에서 출현한 빈도를 계수할 수 있다. 예를 들어, [좋-], [가능], [재미있-] 및 [^^]는 순차적으로 619, 136, 103 및 980회 등장한 것으로 계수될 수 있으며, 전체 메시지 내의 문장 숫자가 33161개인 경우, 이들의 빈도는 각각 0.018667, 0.004101, 0.003106 및 0.029553으로 연산될 수 있다. 또한, 감성 분석부(134)는 [힘들-], [문제], [고민] 및 [ㅠ] 등과 같은 부정어를 검출하고, 이들 각각의 부정어가 메시지 내에서 출현한 빈도를 계수할 수도 있다. 예를 들어, [힘들-], [문제], [고민] 및 [ㅠ]는 각각 98, 91, 62, 1897회로 계수될 수 있으며, 이들의 빈도는 각각 0.002955, 0.002744, 0.001870 및 0.057206으로 결정될 수 있다. When each 38 interpersonal relationship situations high frequency positive words and negative words are defined, the emotion analysis unit 134, as shown in FIG. 6, detects various positive words and various negative words, and calculates the frequency by counting them. I can. In more detail, the emotion analysis unit 134 detects affirmative words such as [good-], [possible], [interesting-], and [^^], and the frequency of each of these positive words appearing in the message. Can be counted. For example, [good-], [possible], [interesting-] and [^^] can be counted as appearing 619, 136, 103, and 980 times in sequence, and if the number of sentences in the entire message is 33161 , Their frequencies can be calculated as 0.018667, 0.004101, 0.003106 and 0.029553, respectively. In addition, the sentiment analysis unit 134 may detect negative words such as [Strengths-], [problems], [worries], and [ㅠ], and count the frequency of each negative word appearing in the message. For example, [Strengths-], [Problems], [Troubles], and [T] can be counted as 98, 91, 62, and 1897, respectively, and their frequencies can be determined as 0.002955, 0.002744, 0.001870, and 0.057206, respectively. have.

감성 분석부(134)는 감성어(즉, 고빈도 긍정어 및 고빈도 부정어)가 검출되면, 도 6에 도시된 바와 같은 수학식을 이용하여 감성 값을 계산할 수 있다. 상세하게는, 감성 분석부(134)는 도 7에 도시된 바와 같이 긍정어 하나에 대응하는 감성 값을 +1로 정의하고, 부정어 하나에 대응하는 감성 값을 -1로 정의한다. 이들 긍정어에 대응하는 감성 값의 총합 및 부정어에 대응하는 감성 값의 총합을 각각 연산한 후 이들 총합 합산한다. 순차적으로 이들 총합의 합산 결과를, 모든 감성어의 개수(즉, 긍정어의 개수 및 부정어의 개수의 합)의 루트 값으로 나눈다. 이에 따라 대인 관계 상황 고빈도 감성어에 대응하는 감성 값이 결정될 수 있다.When a sentiment analysis unit 134 detects a sentiment word (ie, a high frequency positive word and a high frequency negative word), the sentiment value may be calculated using an equation as illustrated in FIG. 6. In detail, as shown in FIG. 7, the emotion analysis unit 134 defines an emotion value corresponding to one positive word as +1, and defines an emotion value corresponding to one negative word as -1. The sum of emotion values corresponding to these positive words and the sum of emotion values corresponding to negative words are respectively calculated and then summed. The summation result of these sums is sequentially divided by the root value of the number of all sentiment words (that is, the sum of the number of positive words and the number of negative words). Accordingly, a sentiment value corresponding to a high frequency sentiment word in an interpersonal relationship may be determined.

한편, 감성 분석부(134)는 상황 기반 감성 사전 데이터베이스(122)의 열람 결과, 상황 기반 감성 사전 데이터베이스(122)로부터 대인 관계 상황 고빈도 감성어(들)이 검출되지 않는 경우라면, 대인 관계 상황 고빈도 감성어에 대응하는 감성 값은 결정하지 않을 수 있다.On the other hand, the emotion analysis unit 134 is a result of the browsing of the context-based emotion dictionary database 122, if the interpersonal relationship situation high frequency emotional word(s) is not detected from the context-based emotion dictionary database 122, the interpersonal relationship situation The sentiment value corresponding to the high frequency sentiment word may not be determined.

또한, 감성 분석부(134)는, 메시지 내에 이모티콘이 존재하는 경우, 이모티콘 감성 사전 데이터베이스(123)를 열람하여 감성 값을 결정할 수 있다. 상술한 바와 동일하게 부정적인 이모티콘의 경우 음의 값을 대응시킨 후 그들의 합산을 연산하고, 긍정적인 이모티콘의 경우 양의 값을 대응시킨 후 그들의 합산을 연산하고, 각각의 합산을 더한 후, 이를 이모티콘의 총 개수의 제곱근으로 나누어 이모티콘에 대응하는 감성 값을 획득할 수도 있다. 물론 메시지 내에 이모티콘이 존재하지 않는 경우, 감성 분석부(132)는 이모티콘에 대응하는 감성 값을 획득하지 않을 수 있다.In addition, when an emoticon exists in the message, the emotion analysis unit 134 may read the emoticon emotion dictionary database 123 to determine an emotion value. As described above, in the case of negative emoticons, a negative value is matched and their sum is calculated. In the case of a positive emoticon, a positive value is matched and their sum is calculated. It is also possible to obtain an emotion value corresponding to the emoticon by dividing it by the square root of the total number. Of course, if the emoticon does not exist in the message, the emotion analysis unit 132 may not obtain an emotion value corresponding to the emoticon.

감성 분석부(134)에 의해 기본 감성어에 대응하는 감성 값, 대인 관계 상황 고빈도 감성어에 대응하는 감성 값 및 이모티콘에 대응하는 감성 값 중 적어도 하나가 획득되면, 기본 감성어에 대응하는 감성 값, 대인 관계 상황 고빈도 감성어에 대응하는 감성 값 및 이모티콘에 대응하는 감성 값 중 적어도 하나는 종합 분석부(135)로 전달될 수 있다. 실시예에 따라서, 감성 분석부(134)에 의해 연산된 감성 값들은 저장부(120)로 전달될 수 있으며, 저장부(120)는 이들 감성 값(124)을 일시적 또는 비일시적으로 저장될 수도 있다.When at least one of an emotion value corresponding to a basic emotional word, an emotional value corresponding to a high frequency emotional word in an interpersonal relationship, and an emotional value corresponding to an emoticon is obtained by the emotion analysis unit 134, the emotion corresponding to the basic emotional word is obtained. At least one of a value, an emotion value corresponding to a high frequency emotional word in an interpersonal relationship, and an emotion value corresponding to an emoticon may be transmitted to the comprehensive analysis unit 135. Depending on the embodiment, the emotion values calculated by the emotion analysis unit 134 may be transferred to the storage unit 120, and the storage unit 120 may temporarily or non-temporarily store these emotion values 124. have.

도 8은 누적된 데이터의 일례에 대한 도표이다. 8 is a chart of an example of accumulated data.

종합 분석부(135)는, 상황 정보 추출부(131)가 획득한 상황에 대한 정보, 텍스트 정보 획득부(133)가 획득한 텍스트에 대한 정보 및 감성 분석부(134)에 의해 획득된 감성 값(들) 중 적어도 하나를 기반으로 총체적 상황 기반 감성 분석을 수행할 수 있다.The comprehensive analysis unit 135 includes information on the situation acquired by the context information extraction unit 131, information on the text acquired by the text information acquisition unit 133, and an emotion value acquired by the emotion analysis unit 134 A total context-based sentiment analysis may be performed based on at least one of (s).

예를 들어, 종합 분석부(135)는 도 8에 도시된 바와 같이 상황 정보 추출부(131), 텍스트 정보 획득부(133) 및 감성 분석부(134)에서 전달한 적어도 하나의 데이터를 조합하여 감성 분석 테이블(135a)을 구축할 수 있다. 감성 분석 테이블(135a)은 상술한 각종 정보, 예를 들어, 제1 단말 장치(10)의 사용자에 대한 정보, 제2 단말 장치(20)의 사용자와 의 관계에 대한 정보, 텍스트 내용, 텍스트의 어절이나 형태소 숫자, 사용된 감탄사, 이모티콘 사용 여부, 마일드 기호나 터치 기호의 개수, 감성 분석 결과 및/또는 메시지 전송 시간 등을 포함하여 구축된 것일 수 있다. 구축된 테이블(135a) 역시 저장부(120)에 일시적 또는 비일시적으로 저장 가능하다.For example, the comprehensive analysis unit 135 combines at least one data transmitted from the context information extraction unit 131, the text information acquisition unit 133, and the emotion analysis unit 134 as shown in FIG. The analysis table 135a can be built. The sentiment analysis table 135a includes the above-described various types of information, for example, information on the user of the first terminal device 10, information on the relationship with the user of the second terminal device 20, text content, and text. It may be constructed by including a word or morpheme number, an exclamation point used, whether or not an emoticon is used, the number of mild or touch symbols, an emotional analysis result, and/or a message transmission time. The built table 135a can also be temporarily or non-temporarily stored in the storage unit 120.

종합 분석부(135)는, 일 실시예에 있어서, 기계 학습을 기반으로 상황 기반 감성 분석을 수행할 수도 있다. 여기서, 기계 학습은, 예를 들어, 다층 퍼셉트론(MLN), 심층 신경망(DNN), 콘볼루션 신경망(CNN), 순환 신경망(RNN), 콘볼루션 순환 신경망(CRNN), 심층 신뢰 신경망(DBN) 및 심층 Q-네트워크(Deep Q-Networks) 중 적어도 하나의 알고리즘을 이용하여 구현 가능하다. 종합 분석부(135)는, 상술한 감성 분석 테이블(135a)을 소정의 기계 학습 알고리즘에 적용함으로써, 상황이나 관계 기반의 감성 상태 판단 알고리즘을 학습시키고, 이를 이용하여 제1 단말 장치(10)의 사용자에 대한 제2 단말 장치(20)의 사용자의 감성 및/또는 제2 단말 장치(20)의 사용자에 대한 제1 단말 장치(10)의 사용자의 감성을 결정할 수 있다.In one embodiment, the comprehensive analysis unit 135 may perform context-based sentiment analysis based on machine learning. Here, machine learning is, for example, a multilayer perceptron (MLN), a deep neural network (DNN), a convolutional neural network (CNN), a recurrent neural network (RNN), a convolutional recurrent neural network (CRNN), a deep trust neural network (DBN), and It can be implemented using at least one algorithm among Deep Q-Networks. The comprehensive analysis unit 135 learns an emotional state determination algorithm based on a situation or relationship by applying the above-described emotion analysis table 135a to a predetermined machine learning algorithm, and uses this to learn the emotion state determination algorithm of the first terminal device 10. The user's emotion of the second terminal device 20 toward the user and/or the user's emotion of the first terminal device 10 toward the user of the second terminal device 20 may be determined.

도 9는 감성 분석 결과에 따라 획득 가능한 여러 상태의 일례를 설명하기 위한 도면이다.9 is a diagram for explaining an example of various states that can be obtained according to a result of an emotion analysis.

이에 따라, 종합 분석부(135)는, 감성 상태를 결정할 수 있다. 예를 들어, 도 9에 도시된 바와 같이, 종합 분석부(135)는 제1 단말 장치(10) 및 제2 단말 장치(20)의 사용자 각각의 감성 상태를 9개의 감성 상태(129)로 구분하여 결정할 수 있으며, 보다 구체적으로는 제1 단말 장치(10)의 사용자 및 제2 단말 장치(20)의 사용자 각각의 감성 상태를, 긍정-긍정, 긍정-중립, 긍정-부정, 중립-긍정, 중립-중립, 중립-부정, 부정-긍정, 부정-중립 및 부정-부정 중 어느 하나로 결정할 수 있다.Accordingly, the comprehensive analysis unit 135 may determine the emotional state. For example, as shown in FIG. 9, the comprehensive analysis unit 135 divides the emotional states of each of the users of the first terminal device 10 and the second terminal device 20 into nine emotional states 129. And more specifically, the emotional state of each of the user of the first terminal device 10 and the user of the second terminal device 20, positive-positive, positive-neutral, positive-negative, neutral-positive, It can be determined as neutral-neutral, neutral-negative, negative-positive, negative-neutral, and negative-negative.

종합 분석부(135)의 판단 결과(129)는 저장부(120)로 전달되어, 일시적 또는 비일시적으로 저장될 수 있다.The determination result 129 of the comprehensive analysis unit 135 may be transmitted to the storage unit 120 and may be temporarily or non-temporarily stored.

분석 결과 처리부(136)는 종합 분석부(135)의 판단 결과(129)를 기반으로 감성 분석 결과를 사용자에게 제공하도록 하거나 및/또는 이를 기반으로 통계적 분석을 더 수행하고 통계적 분석 결과를 사용자에게 제공하도록 할 수 있다.The analysis result processing unit 136 provides the emotional analysis result to the user based on the determination result 129 of the comprehensive analysis unit 135 and/or further performs statistical analysis based on this and provides the statistical analysis result to the user. You can do it.

도 10은 감성 분석 결과를 채팅 화면에 나타나는 일 실시예를 도시한 도면이다.FIG. 10 is a diagram illustrating an exemplary embodiment in which emotion analysis results are displayed on a chat screen.

예를 들어, 도 10에 도시된 바와 같이, 제1 단말 장치(10)로부터 제2 단말 장치(20)로 메시지(T11 내지 T13)가 전송될 때마다 프로세서(130)의 상황 정보 추출부(131), 형태소 분석부(132), 텍스트 정보 획득부(133), 감성 분석부(134), 종합 분석부(135) 및 분석 결과 처리부(136)가 동작하여 각 메시지(T11 내지 T13)에 대한 감성이 분석될 수 있다. 감성 상태가 분석되면, 분석 결과 처리부(136)는 이를 기반으로 각 메시지(T11 내지 T13)에 대한 감성의 분석 결과(감성 상태 등, E11 내지 E13)가 디스플레이(19M) 상에 표시되도록 제어할 수 있다. 예를 들어, 각 메시지(T11 내지 T13)의 하단이나 측면에 각 메시지(T11 내지 T13)에 대응하는 분석 결과(E11 내지 E13)가 기호, 문자, 도형 및/또는 화상(정지 화상 또는 동화상을 포함할 수 있으며, 이모티콘을 포함할 수도 있다) 등의 형태로 표시될 수 있다.For example, as shown in FIG. 10, each time a message (T11 to T13) is transmitted from the first terminal device 10 to the second terminal device 20, the context information extraction unit 131 of the processor 130 ), the morpheme analysis unit 132, the text information acquisition unit 133, the emotion analysis unit 134, the comprehensive analysis unit 135, and the analysis result processing unit 136 operate, and the emotions for each message (T11 to T13) Can be analyzed. When the emotional state is analyzed, the analysis result processing unit 136 can control the emotional analysis result (e.g., emotional state, E11 to E13) for each message (T11 to T13) to be displayed on the display 19M based on this. have. For example, analysis results (E11 to E13) corresponding to each message (T11 to T13) at the bottom or side of each message (T11 to T13) are symbols, characters, figures, and/or images (including still images or moving images). It can be done, and it can also include an emoticon).

또한, 반대로 제2 단말 장치(20)로부터 제1 단말 장치(10)로 메시지(T21, T22)가 전송될 때마다 이들(131 내지 136)은 동일하게 동작하여 각 메시지(T21, T22)에 대한 감성 분석 결과가 도출될 수도 있으며, 이에 따른 감성 분석 결과(E21, E22) 역시 기호, 문자, 도형 및/또는 화상 등의 형태로 디스플레이(19M)에 표시될 수 있다.In addition, on the contrary, whenever a message (T21, T22) is transmitted from the second terminal device 20 to the first terminal device 10, the messages 131 to 136 operate in the same manner. A result of the sentiment analysis may be derived, and the result of the sentiment analysis (E21, E22) may also be displayed on the display 19M in the form of symbols, characters, figures, and/or images.

이에 따라서 제1 단말 장치(10)의 사용자 또는 제2 단말 장치(20)의 사용자는 전달되는 메시지(T11 내지 T13, T21, T22)에 대응하는 감성 상태를 용이하게 파악할 수 있게 된다.Accordingly, the user of the first terminal device 10 or the user of the second terminal device 20 can easily grasp the emotional state corresponding to the transmitted messages T11 to T13, T21, and T22.

도 11은 인물 중심의 감성 분석 결과 제공 화면의 일 실시예를 도시한 도면이다.11 is a diagram illustrating an embodiment of a screen for providing a result of a person-centered emotion analysis.

일 실시예에 의하면, 분석 결과 처리부(136)는, 도 8의 테이블(135a) 등을 기반으로 통계적 처리를 수행하여, 도 11에 도시된 바와 같이, 어느 하나의 사용자(일례로 제2 단말 장치(20)의 사용자)에 대한 다른 하나의 사용자(일례로 제1 단말 장치(10)의 사용자)의 감성 상태에 대한 분석 결과(G1, 즉, 인물 중심의 감성 분석 결과)를 제1 단말 장치(10) 및 제2 단말 장치(20) 중 적어도 하나에 표시할 수 있다. 예를 들어, 분석 결과 처리부(136)는 제1 단말 장치(10) 및 제2 단말 장치(20) 사이의 메시지를 기반으로 전체적인 메시지에서 긍정적으로 판단된 부분의 비율과, 부정적으로 판단된 부분의 비율과, 중립적으로 판단된 부분의 비율을 표시할 수 있다. 이 경우, 분석 결과 처리부(136)는 긍정적으로 판단된 부분의 비율과, 부정적으로 판단된 부분의 비율과, 중립적으로 판단된 부분의 비율을 도 11에 도시된 바와 같이 그래프(G1, 원형 그래프, 막대형 그래프, 선형 그래프, 방사형 그래프 및/또는 입체 그래프 등을 포함할 수 있다)의 형태로 표시할 수도 있다.According to an embodiment, the analysis result processing unit 136 performs statistical processing based on the table 135a of FIG. 8, etc., and as shown in FIG. The analysis result of the emotional state of another user (for example, the user of the first terminal device 10) with respect to the user of 20 (G1, that is, the result of analyzing a person-centered emotion) is obtained from the first terminal device ( 10) and the second terminal device 20. For example, the analysis result processing unit 136 is based on the message between the first terminal device 10 and the second terminal device 20, the ratio of the portion determined to be positive and the portion determined to be negative in the overall message. The ratio and the ratio of the part judged to be neutral can be displayed. In this case, the analysis result processing unit 136 graphs the ratio of the positively determined part, the negatively determined part, and the neutrally determined part as shown in FIG. It can also be displayed in the form of a bar graph, a linear graph, a radial graph, and/or a three-dimensional graph).

이 경우, 분석 결과 처리부(136)는, 미리 정의된 설정을 기반으로 분석 결과를 표시할 수도 있다. 예를 들어, 분석 결과 처리부(136)는, 사용자에 의해 미리 정의된 기간(예를 들어, 2개월) 동안에 송수신된 메시지를 기반으로 수행된 분석 결과를 표시하도록 할 수도 있다. 실시예에 따라서, 분석 결과 처리부(136)는, 사용자에 의해 미리 정의된 기간이 부재하는 경우, 디폴트로 설정된 기간(예를 들어, 1개월) 동안 송수신된 메시지를 기반으로 하는 분석 결과를 표시할 수도 있다.In this case, the analysis result processing unit 136 may display the analysis result based on a predefined setting. For example, the analysis result processing unit 136 may display an analysis result performed based on a message transmitted and received during a predetermined period (eg, 2 months) by a user. According to an embodiment, the analysis result processing unit 136 may display an analysis result based on messages transmitted and received during a period set as default (eg, 1 month) when there is no period predefined by the user. May be.

도 12는 시계열 중심의 감성 분석 결과 제공 화면의 일 실시예를 도시한 도면이다.12 is a diagram illustrating an embodiment of a screen for providing a result of a sentiment analysis centered on a time series.

다른 실시예에 의하면, 분석 결과 처리부(136)는, 장시간 동안 누적된 데이터를 기반으로 통계적 처리를 수행하고, 도 12에 도시된 바와 같이 시계열 중심으로 감성 분석 결과(G2)를 제1 단말 장치(10) 및 제2 단말 장치(20) 중 적어도 하나에 표시할 수도 있다. 이에 따라 제1 단말 장치(10)의 사용자 및 제2 단말 장치(20)의 사용자 중 적어도 하나는, 시계열 중심의 감성 분석 결과(G2)를 제공받을 수 있게 된다. 예를 들어, 분석 결과 처리부(136)는, 메시지로부터 분석된 감성(긍정적 감성, 중립적 감성 및 부정적 감성 중 적어도 하나)의 정도나 개수를 시간적으로 순서로 배치하고 이를 선형 그래프 형태로 표현하여 시간에 따른 감성의 변화를 화면(19M) 상에 표시할 수도 있다.According to another embodiment, the analysis result processing unit 136 performs statistical processing based on data accumulated for a long period of time, and transmits the sentiment analysis result G2 based on a time series as shown in FIG. 12. 10) and may be displayed on at least one of the second terminal device 20. Accordingly, at least one of the user of the first terminal device 10 and the user of the second terminal device 20 may be provided with the emotion analysis result G2 centered on the time series. For example, the analysis result processing unit 136 arranges the degree or number of emotions (at least one of positive emotions, neutral emotions, and negative emotions) analyzed from the message in temporal order and expresses them in the form of a linear graph. The change of the emotion according to the result may be displayed on the screen 19M.

이 경우에도, 분석 결과 처리부(136)는, 미리 정의된 설정을 기반으로 시계열 중심으로 감성 분석 결과(S2)를 표시할 수도 있다. 예를 들어, 분석 결과 처리부(136)는, 사용자에 의해 미리 정의된 기간(예를 들어, 2개월)이나 설계자에 의해 임의적으로 설정된 디폴트 기간(예를 들어, 1개월) 동안 송수신된 메시지를 이용하여 감성 분석한 결과를 시계열로 표시할 수도 있다. Even in this case, the analysis result processing unit 136 may display the sentiment analysis result S2 centered on a time series based on a predefined setting. For example, the analysis result processing unit 136 uses messages transmitted and received during a period predefined by the user (eg, 2 months) or a default period set arbitrarily by the designer (eg, 1 month). Thus, the results of sentiment analysis can also be displayed in a time series.

이상 감성 분석 장치(100) 또는 단말 장치(90)에 의해 감성 분석이 수행되는 일 실시예에 대해 설명하였으나, 감성 분석 장치(100) 또는 단말 장치(10 내지 30)의 동작은 상술한 실시예에 한정되는 것은 아니다. 예를 들어, 감성 분석 장치(100)의 동작의 전부 또는 일부는, 다른 장치(예를 들어, 단말 장치(10 내지 30))에 의해 수행되는 것도 가능하다. 구체적으로 예를 들어, 도 3에는 상황 정보 추출, 형태소 분석, 텍스트 정보 분석, 감성 분석 및 종합적인 분석 모두가 감성 분석 장치(100)의 프로세서(130)에 의해 수행되는 실시예에 대해 도시되어 있으나, 상황 정보 추출, 형태소 분석, 텍스트 정보 분석, 감성 분석 및 종합적인 분석 중 일부(예를 들어, 상황 정보 추출이나 형태소 분석 등)는 단말 장치(90; 10, 20)에 의해 처리되도록 설계하는 것도 가능하다.As described above, an embodiment in which the emotion analysis is performed by the emotion analysis device 100 or the terminal device 90 has been described, but the operation of the emotion analysis device 100 or the terminal devices 10 to 30 is described above. It is not limited. For example, all or part of the operation of the emotion analysis apparatus 100 may be performed by another apparatus (for example, the terminal apparatuses 10 to 30). Specifically, for example, FIG. 3 illustrates an embodiment in which all of context information extraction, morpheme analysis, text information analysis, emotion analysis, and comprehensive analysis are performed by the processor 130 of the emotion analysis apparatus 100. , Context information extraction, morpheme analysis, text information analysis, sentiment analysis, and some of the comprehensive analysis (for example, context information extraction or morpheme analysis, etc.) are designed to be processed by the terminal devices 90; 10, 20. It is possible.

이하 감성 분석 장치의 동작을 수행하는 단말 장치의 일 실시예에 대해 설명하도록 한다.Hereinafter, an embodiment of a terminal device that performs an operation of the emotion analysis device will be described.

도 13은 단말 장치의 일 실시예에 대한 도면이다.13 is a diagram for an embodiment of a terminal device.

상술한 감성 분석 장치는 오직 단말 장치(30)만을 이용하여도 구현 가능하다. 이 경우, 단말 장치(30)는, 예를 들어, 셀룰러 폰, 스마트 폰, 태블릿 피씨, 디지털 텔레비전, 셋톱 박스, 데스크톱 컴퓨터, 랩톱 컴퓨터, 내비게이션 장치, 개인용 디지털 보조기, 휴대용 게임기, 웨어러블 장치, 음향 재생 장치 및 이외 부호의 입력 및 수정이 가능한 다양한 장치 중 적어도 하나를 포함할 수 있다.The above-described emotion analysis device can be implemented by using only the terminal device 30. In this case, the terminal device 30 is, for example, a cellular phone, a smart phone, a tablet PC, a digital television, a set-top box, a desktop computer, a laptop computer, a navigation device, a personal digital assistant, a portable game device, a wearable device, and sound reproduction. It may include at least one of a device and a variety of devices capable of inputting and modifying other codes.

도 13에 도시된 바를 참조하면, 단말 장치(30)는 일 실시예에 있어서, 입력부(31-1), 출력부(31-2), 통신부(31-3), 저장부(32) 및 프로세서(35)를 포함할 수 있다.13, the terminal device 30 is an input unit 31-1, an output unit 31-2, a communication unit 31-3, a storage unit 32, and a processor in one embodiment. (35) may be included.

입력부(31-1)는, 다른 단말 장치(미도시)로 전송될 메시지를 사용자로부터 입력받을 수 있다. 구체적으로 입력부(31-1)는, 사용자로부터 메시지를 수신하고, 수신한 메시지를 소정의 형태(예를 들어, 텍스트나 화상의 형태)로 프로세서(35) 및/또는 통신부(31-3)로 전달할 수 있다. 입력부(31-1)는, 예를 들어, 키보드 장치, 마우스 장치, 마이크로 폰, 터치 스크린의 터치 감지 센서, 스마트 펜, 스마트 패드, 터치 패드, 동작 인식 센서, 광학 인식 센서, 데이터 입력 단자 및/또는 이외 사용자로부터 데이터를 입력 받을 수 있는 다양한 장치 등을 포함할 수 있다. The input unit 31-1 may receive a message from a user to be transmitted to another terminal device (not shown). Specifically, the input unit 31-1 receives a message from the user, and transmits the received message to the processor 35 and/or the communication unit 31-3 in a predetermined form (for example, in the form of text or image). I can deliver. The input unit 31-1 is, for example, a keyboard device, a mouse device, a microphone, a touch detection sensor of a touch screen, a smart pen, a smart pad, a touch pad, a motion recognition sensor, an optical recognition sensor, a data input terminal, and/or Alternatively, it may include various devices that can receive data from other users.

출력부(31-2)는 단말 장치(30)의 동작 결과 생성된 각종 정보나 데이터 등을, 문자, 화상(정지 화상이나 동화상 등), 음향, 음성 및/또는 이외 다양한 방법을 통하여 외부로 출력할 수 있다. 예를 들어, 출력부(31-2)는 단말 장치(30)가 수신한 메시지 및/또는 프로세서(35)에 의해 획득된 감성 분석 결과를 문자나 음성의 형태로 출력할 수 있다. 출력부(31-2)는, 예를 들어, 디스플레이 패널, 발광 장치, 인쇄 장치 및/또는 스피커 장치 등을 통해 구현될 수 있다.The output unit 31-2 outputs various types of information or data generated as a result of the operation of the terminal device 30 to the outside through text, images (still images, moving images, etc.), sound, audio, and/or other various methods. can do. For example, the output unit 31-2 may output a message received by the terminal device 30 and/or an emotional analysis result obtained by the processor 35 in the form of text or voice. The output unit 31-2 may be implemented through, for example, a display panel, a light emitting device, a printing device, and/or a speaker device.

통신부(31-3)는, 네트워크(9)에 접속해서, 다른 단말 장치에 사용자의 메시지를 송신하거나 및/또는 다른 단말 장치로부터 소정의 메시지를 수신할 수 있다. 통신부(31-3)에 의해 수신된 메시지는 프로세서(35)로 전달될 수 있다. 또한, 실시예에 따라서, 통신부(31-3)에 의해 전송되는 메시지도 프로세서(35)로 전달될 수도 있다.The communication unit 31-3 can connect to the network 9 and transmit a user's message to another terminal device and/or receive a predetermined message from another terminal device. The message received by the communication unit 31-3 may be delivered to the processor 35. In addition, depending on the embodiment, a message transmitted by the communication unit 31-3 may also be delivered to the processor 35.

저장부(32)는 단말 장치(30)의 동작에 필요한 애플리케이션이나 데이터 등을 일시적 또는 비일시적으로 저장할 수 있다. 저장부(32)는, 상술한 감성 분석 장치(100)의 저장부(120)와 동일하게 주기억장치 및 보조기억장치 중 적어도 하나를 포함할 수 있으며, 예를 들어, 반도체 메모리 장치나 자기 디스크 저장 장치 등을 이용하여 구현될 수 있다. 또한, 저장부(32)는, 도 3에 도시된 바와 같이 텍스트 기반 감성 사전 데이터베이스(121), 상황 기반 감성 사전 데이터베이스(122) 및 이모티콘 감성 사전 데이터베이스(123) 중 적어도 하나를 저장할 수도 있다. The storage unit 32 may temporarily or non-temporarily store an application or data necessary for the operation of the terminal device 30. The storage unit 32 may include at least one of a main memory device and an auxiliary memory device, similar to the storage unit 120 of the emotion analysis device 100 described above, and, for example, a semiconductor memory device or a magnetic disk storage device. It can be implemented using a device or the like. In addition, the storage unit 32 may store at least one of a text-based emotion dictionary database 121, a context-based emotion dictionary database 122, and an emoticon emotion dictionary database 123, as illustrated in FIG. 3.

프로세서(35)는, 단말 장치(30)의 동작에 필요한 적어도 하나의 연산, 판단, 처리 및/또는 제어 동작 등을 수행할 수 있으며, 필요에 따라서 저장부(32)의 애플리케이션을 구동시켜 이와 같은 동작을 처리할 수도 있다. 프로세서(35)는, 상술한 바와 같이, 중앙 처리 장치나 애플리케이션 프로세서 등을 이용하여 구현 가능하다.The processor 35 may perform at least one operation, determination, processing, and/or control operation necessary for the operation of the terminal device 30, and if necessary, the application of the storage unit 32 is driven to perform such an operation. You can also handle the action. As described above, the processor 35 can be implemented using a central processing unit or an application processor.

일 실시예에 의하면, 단말 장치(30)의 프로세서(35)는, 감성 분석 장치(100)의 프로세서(130)와 동일하게 감성 분석 결과를 획득하도록 마련된 것일 수 있다. 구체적으로 단말 장치(30)의 프로세서(35)는, 도 3 내지 도 12를 참조하여 설명한 바와 동일한 방법을 이용하여 또는 일부 변형된 방법을 이용하여, 상황에 대한 정보를 추출하고, 메시지의 전부 또는 일부로부터 형태소를 분석하여 획득하고, 형태소 분석 결과를 기반으로 텍스트에 대한 정보를 획득하고, 감성 분석을 수행하여 감성 값(예를 들어, 기본 감성어에 대응하는 감성 값, 대인 관계 상황 고빈도 감성어에 대응하는 감성 값 및 이모티콘에 대응하는 감성 값 중 적어도 하나)을 추출하고, 및/또는 상황에 대한 정보, 텍스트에 대한 정보 및 감성 값(들) 중 적어도 하나를 기반으로 총체적 상황 기반 감성 분석을 수행할 수도 있다. 이 경우, 프로세서(35)는 감성 분석을 수행하기 위해, 저장부(32)에 저장된 텍스트 기반 감성 사전 데이터베이스, 상황 기반 감성 사전 데이터베이스 및 이모티콘 감성 사전 데이터베이스 중 적어도 하나를 이용하는 것도 가능하다. 프로세서(35)의 구체적인 구조, 기능 및 동작은 이미 자세히 설명한 바 있으므로, 이하 생략하도록 한다.According to an exemplary embodiment, the processor 35 of the terminal device 30 may be provided to obtain an emotion analysis result in the same manner as the processor 130 of the emotion analysis device 100. Specifically, the processor 35 of the terminal device 30 extracts information on the situation using the same method as described with reference to FIGS. 3 to 12 or a partially modified method, and extracts all or all of the message. Emotional values (e.g., emotional values corresponding to basic emotional words, interpersonal situations, high frequency sensitivity) by analyzing morphemes from some parts, acquiring information on text based on the results of morpheme analysis, and performing sentiment analysis Extracting at least one of an emotion value corresponding to a word and an emotion value corresponding to an emoticon), and/or analyzing a total context-based emotion based on at least one of information on a situation, information on text, and emotion value(s) You can also do In this case, the processor 35 may use at least one of a text-based emotion dictionary database, a context-based emotion dictionary database, and an emoticon emotion dictionary database stored in the storage unit 32 to perform emotion analysis. Since the detailed structure, function, and operation of the processor 35 have already been described in detail, it will be omitted below.

이하 도 14 내지 도 18을 참조하여 감성 분석 방법의 일 실시예에 대해서 설명하도록 한다.Hereinafter, an embodiment of an emotion analysis method will be described with reference to FIGS. 14 to 18.

도 14는 감성 분석 방법의 일 실시예에 대한 흐름도이다.14 is a flowchart of an embodiment of a method for analyzing emotions.

도 14에 도시된 바에 따르면, 감성 분석 방법은 일 실시예에 있어서, 상황 정보 획득 단계(151), 텍스트 정보 획득 단계(152), 감성 사전 기반의 감성 분석 수행 단계(153) 및 획득한 데이터 기반의 종합적 분석 수행 및 결과 획득 단계(154)를 포함할 수 있으며, 또한 획득한 결과로부터 감성 정보 가공 처리 및 제공 단계(155)를 더 포함할 수 있다.As shown in FIG. 14, in one embodiment, the emotion analysis method includes a context information acquisition step 151, text information acquisition step 152, a sentiment dictionary-based emotion analysis step 153, and acquired data. It may include a comprehensive analysis and result acquisition step 154 of, and may further include a step 155 of processing and providing emotional information from the obtained result.

여기서 텍스트 정보 획득 단계(152) 및 감성 사전 기반의 감성 분석 수행 단계(153) 중 적어도 하나는, 상황 정보 획득 단계(151)와 동시에 수행될 수도 있고, 동 단계(151)에 선행하여 수행될 수도 있으며, 또는 동 단계(152)에 후행하여 수행될 수도 있다. 예를 들어, 상황 정보 획득 단계(151)와 텍스트 정보 획득 단계(152)는 대략 동시에 수행되고, 감성 사전 기반의 감성 분석 수행 단계(153)는 상황 정보 획득 단계(151)에 후행하여 수행될 수도 있다.Here, at least one of the text information acquisition step 152 and the emotion dictionary-based sentiment analysis step 153 may be performed simultaneously with the context information acquisition step 151, or may be performed prior to the same step 151. Alternatively, it may be performed after step 152. For example, the context information acquisition step 151 and the text information acquisition step 152 are performed approximately at the same time, and the emotion analysis performing step 153 based on the emotion dictionary may be performed after the context information acquisition step 151 have.

상황 정보 획득 단계(151), 텍스트 정보 획득 단계(152), 감성 사전 기반의 감성 분석 수행 단계(153), 획득한 데이터 기반의 종합적 분석 수행 및 결과 획득 단계(154) 및 감성 정보 가공 처리 및 제공 단계(155)는, 각각 단말 장치 및 단말 장치에 연결된 감성 분석 장치 중 적어도 하나에 의해 수행 가능하다. 구체적으로 상술한 단계(151 내지 155)는 모두 단말 장치에 의해 수행될 수도 있고 또는 감성 분석 장치에 의해 수행될 수도 있다. 또한, 상술한 단계(151 내지 155) 중 어느 일부는 단말 장치에 의해 수행되고, 다른 일부는 감성 분석 장치에 의해 수행될 수도 있다. 보다 상세하게 예를 들어, 감성 분석 장치는 상황 정보 획득 단계(151), 텍스트 정보 획득 단계(152), 감성 사전 기반의 감성 분석 수행 단계(153), 획득한 데이터 기반의 종합적 분석 수행 및 결과 획득 단계(154)을 수행하고, 단말 장치는 감성 정보 가공 처리 및 제공 단계(155)를 수행하도록 설계되는 것도 가능하다.Context information acquisition step 151, text information acquisition step 152, sentiment dictionary-based sentiment analysis step 153, acquired data-based comprehensive analysis and result acquisition step 154 and sentiment information processing and provision Step 155 may be performed by at least one of a terminal device and an emotion analysis device connected to the terminal device, respectively. Specifically, all of the steps 151 to 155 described above may be performed by a terminal device or an emotion analysis device. In addition, some of the above-described steps 151 to 155 may be performed by the terminal device, and other parts may be performed by the emotion analysis device. In more detail, for example, the sentiment analysis device includes a situation information acquisition step 151, text information acquisition step 152, a sentiment dictionary-based sentiment analysis step 153, a comprehensive analysis based on the acquired data, and a result acquisition. It is also possible that step 154 is performed, and the terminal device is designed to perform emotional information processing and providing step 155.

도 15는 감성 분석 방법의 개시 과정의 일 실시예에 대한 보다 상세한 흐름도이다.15 is a more detailed flowchart of an embodiment of a process of initiating an emotion analysis method.

상세하게는 도 15에 도시된 바와 같이, 복수의 단말 장치 중 적어도 하나의 애플리케이션(예를 들어, 메시지 전송 애플리케이션) 또는 복수의 단말 장치 모두의 애플리케이션이 구동되고(160), 사용자는 애플리케이션을 이용하여 텍스트를 입력할 수 있다(161).In detail, as shown in FIG. 15, at least one application (eg, a message transmission application) among a plurality of terminal devices or an application of all of the plurality of terminal devices is driven (160), and the user uses the application. Text can be entered (161).

만약 2인 이상의 사용자가 애플리케이션을 이용하여 텍스트를 입력하였는지 여부를 판단하고(162), 만약 2인 이상의 사용자가 텍스트를 입력한 경우라면(162의 예) 상황 정보의 획득이 개시된다(163). 또한, 이와 더불어 텍스트 정보 획득이나 감성 분석을 위한 형태소 분석도 개시될 수 있다.If two or more users input text using the application (162), if two or more users input text (example of 162), acquisition of context information is started (163). In addition, morpheme analysis for acquiring text information or emotional analysis may also be initiated.

상황 정보의 획득의 개시에 응하여, 복수의 단말 장치 중 적어도 하나에 관한 상황 정보가 단말 장치 및/또는 감성 분석 장치에 의해 획득된다(151). 상황 정보의 획득은 먼저 복수의 단말 장치 사이에 메시지의 전송이 개시된 경우(예를 들어, 채팅이 수행되는 경우)에 수행될 수도 있다. In response to the start of obtaining the context information, context information on at least one of the plurality of terminal devices is acquired by the terminal device and/or the emotion analysis device (151). The acquisition of context information may be performed when transmission of a message is first started between a plurality of terminal devices (eg, when chatting is performed).

보다 구체적으로 상황 정보의 획득은, 인구 동태적 정보, 심리 동태적 정보 및/또는 문장 입력 시간 정보 등을 분석함으로써 수행될 수도 있다. 보다 구체적으로 상황 정보는, 복수의 단말 장치 중 적어도 하나의 사용자의 프로파일이나 또는 사용자 맥락 등을 추출하여 획득될 수도 있다. 구체적으로 각각의 사용자의 성별이나 나이, 사용자 사이의 관계, 동성/이성 여부, 사용자의 메시지 전송 시점 등에 대한 정보 등이 획득될 수 있다. 상황 정보의 추출 및 획득은 각 단말 장치에 저장된 정보를 이용하거나 또는 이들 단말 장치의 메시지 전송을 처리하는 장치로부터 획득 가능한 정보를 기반으로 수행될 수 있다.More specifically, the acquisition of context information may be performed by analyzing demographic information, psychodynamic information, and/or sentence input time information. More specifically, the context information may be obtained by extracting a profile or a user context of at least one user among a plurality of terminal devices. Specifically, information about the sex or age of each user, a relationship between users, whether they are of the same sex/reason, and when a user transmits a message may be obtained. The extraction and acquisition of context information may be performed using information stored in each terminal device or based on information obtainable from a device that processes message transmission of these terminal devices.

또한, 복수의 단말 장치 사이에서 전송된 적어도 하나의 메시지를 기반으로 텍스트 정보가 획득될 수 있다(152). 이 경우, 텍스트 정보의 획득을 위해서, 먼저 적어도 하나의 메시지에 대한 형태소 분석이 수행될 수 있다(도 16의 171 등). 형태소가 적어도 하나의 메시지로부터 추출되면, 이를 기반으로 메시지(일례로 텍스트)에 대한 정보가 획득된다. 구체적으로는 메시지 내의 어절 수, 메시지 내의 형태소 수, 메시지 내에서의 이모티콘 등의 사용 여부 및 사용 횟수, 감성어의 존재 여부, 긍정어의 개수, 부정어의 개수, 존칭어의 사용 여부 및 사용한 존칭어, 기호의 사용 여부 및 사용한 기호(예를 들어, 마일드(mild) 기호 횟수, 터치(touch) 기호 횟수 등) 및/또는 특별한 화상의 포함 여부 등에 대한 정보가 획득될 수 있게 된다.In addition, text information may be obtained based on at least one message transmitted between a plurality of terminal devices (152 ). In this case, in order to obtain text information, a morpheme analysis may be performed on at least one message first (171 of FIG. 16, etc.). When the morpheme is extracted from at least one message, information about the message (for example, text) is obtained based on this. Specifically, the number of words in the message, the number of morphemes in the message, the use and the number of emoticons, etc. in the message, the presence of sentiment words, the number of positive words, the number of negative words, the use of honorable words and the used honorific words, symbols It is possible to obtain information on whether to use or not and whether or not a special image is included and/or a used symbol (eg, the number of mild symbols, the number of touch symbols, etc.).

형태소 분석이 수행되면, 형태 분석 결과를 기반으로 감성 분석이 수행된다(153). 감성 분석의 수행은 적어도 하나의 감성 사전 데이터베이스를 이용하여 수행 가능하다. When the morpheme analysis is performed, the sentiment analysis is performed based on the result of the morphology analysis (153). The emotion analysis can be performed using at least one emotion dictionary database.

구체적으로 감성 분석은, 텍스트 기반 감성 사전 데이터베이스를 이용하여 수행될 수도 있고, 상황 기반 감성 사전 데이터베이스를 이용하여 수행될 수도 있다. 또한, 메시지가 이모티콘을 포함하는 경우에는 이모티콘 감성 사전 데이터베이스를 이용하여 감성 수행을 할 수도 있다. 감성 분석 결과에 따라서, 기본 감성어에 대응하는 감성 값, 대인 관계 상황 고빈도 감성어에 대응하는 감성 값 및/또는 이모티콘에 대응하는 감성 값이 획득될 수 있다.Specifically, the emotion analysis may be performed using a text-based emotion dictionary database, or may be performed using a context-based emotion dictionary database. In addition, when the message includes an emoticon, the emotion may be performed using an emoticon emotion dictionary database. According to the sentiment analysis result, a sentiment value corresponding to a basic sentiment word, a sentiment value corresponding to a high frequency sentiment word in an interpersonal relationship situation, and/or a sentiment value corresponding to an emoticon may be obtained.

도 16은 감성 사전 기반으로 감성 값을 획득하는 과정의 일 실시예에 대한 제1 흐름도이다.16 is a first flowchart of an embodiment of a process of acquiring an emotion value based on an emotion dictionary.

보다 구체적으로 먼저 형태소 분석 및 추출이 수행되면(171), 기본적인 감성 사전 데이터베이스(다시 말해서, 텍스트 기반 감성 사전 데이터베이스)를 열람하여(172), 분석 및 추출된 형태소가 텍스트 기반 감성 사전 데이터베이스에 존재하는지 여부가 판단된다(173).More specifically, if morpheme analysis and extraction are performed first (171), the basic emotion dictionary database (that is, text-based emotion dictionary database) is searched (172), and whether the analyzed and extracted morphemes exist in the text-based emotion dictionary database. Whether or not it is determined (173).

만약 형태소에 대응하는 어휘(단어나 형태소)가 텍스트 기반 감성 사전 데이터베이스에 존재하는 경우(173의 예), 이를 기반으로 제1 감성 값(기본 감성어에 대응하는 감성 값)이 결정된다(174). 제1 감성 값의 결정은 도 6에 도시된 수식을 이용하여 수행될 수도 있다. 만약 형태소에 대응하는 어휘가 텍스트 기반 감성 사전 데이터베이스에 존재하지 않으면(173의 아니오), 제1 감성 값의 획득은 수행되지 않을 수도 있다.If a vocabulary (word or morpheme) corresponding to a morpheme exists in the text-based emotion dictionary database (example of 173), a first emotion value (sensibility value corresponding to the basic emotion word) is determined based on this (174). . The determination of the first emotion value may be performed using the equation shown in FIG. 6. If the vocabulary corresponding to the morpheme does not exist in the text-based emotion dictionary database (No in 173), the acquisition of the first emotion value may not be performed.

또한, 상황 기반 감성 사전 데이터베이스가 열람되며(175), 분석 및 추출된 형태소가 상황 기반 감성 사전 데이터베이스에 존재하는지 여부도 판단된다(176).In addition, the context-based emotion dictionary database is viewed (175), and it is determined whether or not the analyzed and extracted morphemes exist in the context-based emotion dictionary database (176).

만약 형태소에 대응하는 어휘(단어나 형태소)가 상황 기반 감성 사전 데이터베이스에 존재하는 경우(176의 예), 이를 기반으로 제2 감성 값(대인 관계 상황 고빈도 감성어에 대응하는 감성 값)이 결정된다(177). 제2 감성 값의 결정 역시 도 6에 도시된 수식을 이용하여 수행될 수도 있다. 다시 말해서, 긍정어 하나에 대응하는 감성 값을 +1로 정의하고, 부정어 하나에 대응하는 감성 값을 -1로 정의한 후, 이들 긍정어에 대응하는 감성 값 및 부정어에 대응하는 감성 값을 각각의 총합을 연산하고, 총합의 합산 값을 구한 후, 이를 모든 감성어의 개수의 루트 값으로 나뉘어 제2 감성 값이 결정될 수 있다. 만약 형태소에 대응하는 어휘(단어나 형태소)가 상황 기반 감성 사전 데이터베이스에 존재하지 않는 경우라면(176의 아니오), 제1 감성 값의 획득은 수행되지 않을 수 있다.If vocabulary (words or morphemes) corresponding to morphemes exists in the context-based emotion dictionary database (example of 176), a second emotional value (sensibility value corresponding to high-frequency emotional words in interpersonal relationship situations) is determined based on this. Becomes (177). The determination of the second emotion value may also be performed using the equation shown in FIG. 6. In other words, after defining an emotion value corresponding to one positive word as +1, and defining an emotion value corresponding to one negative word as -1, the emotion value corresponding to these positive words and the emotion value corresponding to negative words are respectively After calculating the sum, calculating the sum of the sum, and dividing it by the root value of the number of all sentiment words, the second sentiment value may be determined. If the vocabulary (word or morpheme) corresponding to the morpheme does not exist in the context-based emotion dictionary database (No in 176), the acquisition of the first emotion value may not be performed.

메시지 내에 이모티콘이 존재하는지 여부가 판단된다(178). 이모티콘의 존재 여부 판단 단계(178)는, 추출된 형태소가 텍스트 기반 감성 사전 데이터베이스로부터 검출되지 않는 경우(173의 아니오), 이에 응하여 수행되도록 설계될 수도 있다.Whether or not an emoticon exists in the message is determined (178). The step 178 of determining whether the emoticon is present may be designed to be performed in response to the case where the extracted morpheme is not detected from the text-based emotion dictionary database (No in 173).

도 17은 감성 사전 기반으로 감성 값을 획득하는 과정의 일 실시예에 대한 제2 흐름도이다.17 is a second flowchart of an embodiment of a process of acquiring an emotion value based on an emotion dictionary.

만약 이모티콘이 메시지에 존재한다면(178의 예), 이모티콘 감성 사전이 열람될 수 있다(179). 만약 이모티콘 감성 사전으로부터 메시지에서 추출된 이모티콘에 대응하는 데이터(즉, 이모티콘 등)가 검출된다면(179의 예), 제3 감성 값(이모티콘에 대응하는 감성 값)이 획득될 수 있다(181). 반대로 만약 이모티콘 감성 사전으로부터 메시지에서 추출된 이모티콘에 대응하는 데이터가 검출되지 않는다면(179의 아니오), 제3 감성 값은 결정되지 않는다.If the emoticon exists in the message (example of 178), the emoticon emotion dictionary may be viewed (179). If data corresponding to the emoticon extracted from the message (ie, emoticon, etc.) is detected from the emoticon emotion dictionary (example of 179), a third emotion value (sensibility value corresponding to the emoticon) may be obtained (181). Conversely, if data corresponding to the emoticon extracted from the message from the emoticon emotion dictionary is not detected (No in 179), the third emotion value is not determined.

순차적으로, 도 14에 도시된 바와 같이, 획득한 데이터를 기반으로 종합적인 분석이 수행될 수 있다(154). 구체적으로 상황 정보 획득 단계(151)에서 획득된 상황 정보와, 텍스트 정보 획득 단계(152)에서 획득된 텍스트에 대한 정보와, 감성사전 기반의 감성 분석 수행 단계(153)에서 획득된 감성 값(예를 들어, 제1 감성 값, 제2 감성 값 및 제3 감성 값 중 적어도 하나)을 이용하여 종합적인 감성 분석이 수행된다. 일 실시예에 의하면, 기 획득한 상황 정보, 기 획득한 텍스트에 대한 정보 및 감성 값을 조합하여 소정의 테이블이 구축될 수도 있으며, 이와 같은 테이블을 기반으로 종합적인 감성 분석이 수행될 수도 있다.Sequentially, as shown in FIG. 14, a comprehensive analysis may be performed based on the acquired data (154). Specifically, the context information acquired in the context information acquisition step 151, the text information acquired in the text information acquisition step 152, and the sentiment value acquired in the sentiment analysis step 153 based on the sentiment dictionary (e.g. For example, a comprehensive emotion analysis is performed using at least one of a first emotion value, a second emotion value, and a third emotion value). According to an embodiment, a predetermined table may be constructed by combining previously acquired context information, previously acquired text information, and sentiment values, and a comprehensive sentiment analysis may be performed based on such a table.

감성 분석 수행에 따라 감성 분석 결과가 획득된다. 감성 분석 결과는 복수의 단말 장치의 사용자 중 어느 하나의 단말 장치의 사용자에 대한 다른 하나의 단말 장치의 사용자에 대한 감성을 포함할 수 있으며, 또한 이와 반대로 다른 하나의 단말 장치의 사용자에 대한 어느 하나의 단말 장치의 사용자의 감성을 포함할 수도 있다.The sentiment analysis result is obtained as the sentiment analysis is performed. The sentiment analysis result may include the emotion of the user of the other terminal device to the user of any one of the users of the plurality of terminal devices, and, conversely, any one of the user of the other terminal device. It may also include the sensibility of the user of the terminal device of.

감성 분석 결과가 획득되면, 감성 정보는 사용자에게 다양한 형태로 제공될 수 있다. 사용자에게 제공되지 전에 감성 정보는 가공될 수도 있다. 예를 들어, 감성 정보는 인물 기준으로 또는 시계열 기준으로 통계적 처리된 후 사용자에게 제공될 수 있다.When the emotion analysis result is obtained, the emotion information may be provided to the user in various forms. Emotional information may be processed before it is provided to the user. For example, the emotional information may be statistically processed on a person basis or a time series basis and then provided to a user.

도 18은 감성 분석 결과 정보의 제공 방법의 일 실시예에 대한 흐름도이다.18 is a flowchart of an embodiment of a method for providing information on a result of an emotion analysis.

도 18에 도시된 바에 의하면, 사용자가 감성 분석 결과에 대한 정보 제공을 요청하면, 단말 장치 및/또는 감성 분석 장치는, 사용자의 요청에 응하여 먼저 누적된 정보를 확인할 수 있다(181).As illustrated in FIG. 18, when a user requests to provide information on a result of emotion analysis, the terminal device and/or the emotion analysis device may first check the accumulated information in response to the user's request (181).

만약 누적된 정보가 저장부 등에 존재하면(182의 예), 사용자가 특별한 기간을 설정할 것을 요청하였는지 여부가 판단된다(183). 만약 특별한 기간 설정이 부재하다면, 미리 정의된 디폴트 정보(예를 들어, 검색 기준 최근 1개월간 정보)가 사용자에게 제공될 수 있다(185)If the accumulated information exists in the storage unit or the like (YES in 182), it is determined whether the user has requested to set a special period (183). If there is no special period setting, predefined default information (eg, information for the last month of the search criteria) may be provided to the user (185).

사용자가 특별한 기간을 설정할 것을 요청한 경우라면(184의 예), 사용자의 요청에 따라서 기간이 설정된다(186).If the user requests to set a special period (YES in 184), the period is set according to the user's request (186).

순차적으로 사용자가 인물 중심의 정보(일례로 인물 중심으로 도시된 그래프나 수치 등)을 요청하였는지 여부가 판단되고(187), 만약 사용자가 인물 중심의 정보 제공을 요청한 경우라면(188의 예), 인물 중심의 정보를 단말 장치 또는 감성 분석 장치의 디스플레이 등에 표시하여 사용자에게 제공한다(188).It is sequentially determined whether the user has requested person-centered information (for example, a graph or figures shown centering on the person) (187), and if the user requests to provide person-centered information (example of 188), The person-centered information is displayed on a display of a terminal device or an emotion analysis device and provided to the user (188).

만약 사용자가 인물 중심의 정보 제공을 요청하지 않은 경우라면(187의 아니오), 시계열 중심의 정보(시계열 중심으로 도시된 그래프나 이와 관련된 수치 등)를 단말 장치 또는 감성 분석 장치의 디스플레이 등에 표시하여 사용자에게 제공한다(189).If the user does not request to provide person-centered information (No in 187), the user by displaying time-series-oriented information (a graph or figures related to the time-series-centered graph) on the display of the terminal device or the emotion analysis device, etc. (189).

한편, 단말 장치 또는 감성 분석 장치의 디스플레이 등에 인물 중심의 정보가 표시되고 있는 경우라고 하더라도(188), 만약 사용자가 시계열 중심의 정보의 제공을 요청하면(190), 시계열 중심의 정보를 단말 장치 또는 감성 분석 장치의 디스플레이 등에 표시하여 사용자에게 제공한다(189).On the other hand, even if the person-centered information is displayed on the display of the terminal device or the emotion analysis device (188), if the user requests the provision of time-series-oriented information (190), the time-series-oriented information is transferred to the terminal device or It is displayed on the display of the emotion analysis device and provided to the user (189).

사용자가 기간 설정을 변경하고자 한다면(191), 사용자가 요청한 바에 따라서 기간을 변경하여 다시 설정하고(186), 순차적으로 인물 중심의 정보 또는 시계열 중심의 정보를 사용자에게 제공한다(187 내지 189)If the user wants to change the period setting (191), the period is changed and reset according to the user's request (186), and the person-oriented information or time-series-oriented information is sequentially provided to the user (187 to 189).

사용자가 감성 정보의 확인을 종료하면(192의 예), 정보의 제공은 종료된다.When the user finishes checking the emotional information (YES in 192), the provision of the information is terminated.

상술한 실시예에 따른 감성 분석 방법은, 컴퓨터 장치에 의해 구동될 수 있는 프로그램의 형태로 구현될 수 있다. 여기서 프로그램은, 프로그램 명령, 데이터 파일 및 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 프로그램은 기계어 코드나 고급 언어 코드를 이용하여 설계 및 제작된 것일 수 있다. 프로그램은 상술한 감성 분석 방법을 구현하기 위하여 특별히 설계된 것일 수도 있고, 컴퓨터 소프트웨어 분야에서 통상의 기술자에게 기 공지되어 사용 가능한 각종 함수나 정의를 이용하여 구현된 것일 수도 있다. 또한, 여기서, 컴퓨터 장치는, 프로그램의 기능을 실현 가능하게 하는 프로세서나 메모리 등을 포함하여 구현된 것일 수 있으며, 필요에 따라 통신 장치를 더 포함할 수도 있다.The emotion analysis method according to the above-described embodiment may be implemented in the form of a program that can be driven by a computer device. Here, the program may include a program command, a data file, a data structure, or the like alone or in combination. The program may be designed and produced using machine code or high-level language code. The program may be specially designed to implement the above-described emotion analysis method, or may be implemented using various functions or definitions previously known to and available to a person skilled in the computer software field. In addition, here, the computer device may be implemented including a processor or a memory that enables the function of a program to be realized, and may further include a communication device if necessary.

상술한 감성 분석 방법을 구현하기 위한 프로그램은, 컴퓨터에 의해 판독 가능한 기록 매체에 기록될 수 있다. 컴퓨터에 의해 판독 가능한 기록 매체는, 예를 들어, 하드 디스크나 플로피 디스크와 같은 자기 디스크 저장 매체, 자기 테이프, 콤팩트 디스크나 디브이디와 같은 광 기록 매체, 플롭티컬 디스크와 같은 자기-광 기록 매체 및 롬, 램 또는 플래시 메모리 등과 같은 반도체 저장 장치 등 컴퓨터 등의 호출에 따라 실행되는 특정 프로그램을 저장 가능한 다양한 종류의 하드웨어 장치를 포함할 수 있다. A program for implementing the above-described emotion analysis method may be recorded in a computer-readable recording medium. The computer-readable recording medium includes, for example, a magnetic disk storage medium such as a hard disk or a floppy disk, a magnetic tape, an optical recording medium such as a compact disk or a DVD, a magnetic-optical recording medium such as a floppy disk, and a ROM. , A semiconductor storage device such as RAM or flash memory, etc., may include various types of hardware devices capable of storing a specific program executed in response to a call from a computer or the like.

이상 감성 분석 장치, 이를 포함하는 대화형 에이전트 시스템, 이를 수행하기 위한 단말 장치 및 감성 분석 방법의 여러 실시예에 대해 설명하였으나, 감성 분석 장치, 이를 포함하는 대화형 에이전트 시스템, 이를 수행하기 위한 단말 장치 및 감성 분석 방법은 오직 상술한 실시예에 한정되는 것은 아니다. 해당 기술 분야에서 통상의 지식을 가진 자가 상술한 실시예를 기초로 수정 및 변형하여 구현 가능한 다양한 장치나 방법 역시 상술한 감성 분석 장치, 이를 포함하는 대화형 에이전트 시스템, 이를 수행하기 위한 단말 장치 및 감성 분석 방법의 일례가 될 수 있다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성 요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나 다른 구성 요소 또는 균등물에 의하여 대치되거나 또는 치환되더라도 상술한 감성 분석 장치, 이를 포함하는 대화형 에이전트 시스템, 이를 수행하기 위한 단말 장치 및 감성 분석 방법의 일 실시예가 될 수 있다.Although various embodiments of the abnormal emotion analysis device, an interactive agent system including the same, a terminal device for performing the same, and an emotion analysis method have been described, an emotion analysis device, an interactive agent system including the same, and a terminal device for performing the same And the emotion analysis method is not limited only to the above-described embodiment. Various devices or methods that can be implemented by modifying and modifying based on the above-described embodiment by a person having ordinary knowledge in the relevant technical field also include the above-described emotion analysis device, an interactive agent system including the same, a terminal device for performing the same, and a sensitivity. It can be an example of an analysis method. For example, the described techniques are performed in an order different from the described method, and/or components such as systems, structures, devices, and circuits described are combined or combined in a form different from the described method, or other components or Even if it is replaced or replaced by an equivalent, it may be an embodiment of the above-described emotion analysis device, an interactive agent system including the same, a terminal device for performing the same, and an emotion analysis method.

10: 제1 단말 장치 20: 제2 단말 장치
100: 감성 분석 장치
10: first terminal device 20: second terminal device
100: sentiment analysis device

Claims (28)

제1 단말 장치 및 제2 단말 장치 상호 간에 전송되는 적어도 하나의 텍스트를 획득하는 통신부; 및
상기 적어도 하나의 텍스트의 형태소를 분석하고, 감성 사전 데이터베이스를 기반으로 분석된 상기 형태소에 대응하는 감성 분석 결과를 획득하고, 상기 감성 분석 결과를 이용하여 상기 제1 단말 장치의 사용자에 대한 상기 제2 단말 장치의 사용자의 대한 종합적 감성 분석 결과를 획득하는 프로세서;를 포함하고,
상기 프로세서는, 상기 제1 단말 장치 및 상기 제2 단말 장치 사이의 상호 대화에 관한 상황 정보를 획득하고, 메시지에 내포되거나 부가된 정보를 기반으로 한 상기 상황 정보를 더 이용하여 상기 종합적 감성 분석 결과를 획득하며,
상기 상황 정보는, 제1 단말 장치 및 제2 단말 장치 중 적어도 하나의 사용자의 성별 및 연령 중 적어도 하나, 제1 단말 장치 및 제2 단말 장치 각각의 사용자의 관계, 텍스트 전송 시간, 텍스트 전송 날짜, 텍스트 전송 요일 중 적어도 하나를 포함하는 감성 분석 장치.
A communication unit that obtains at least one text transmitted between the first terminal device and the second terminal device; And
Analyzing the morpheme of the at least one text, acquiring a sentiment analysis result corresponding to the analyzed morpheme based on the sentiment dictionary database, and using the sentiment analysis result to the second user of the first terminal device Including; a processor for obtaining a result of the comprehensive sentiment analysis of the user of the terminal device,
The processor obtains context information on a mutual conversation between the first terminal device and the second terminal device, and further uses the context information based on information contained in or added to the message to obtain the comprehensive sentiment analysis result. Is obtained,
The context information may include at least one of the sex and age of at least one of the first terminal device and the second terminal device, the relationship between the users of the first terminal device and the second terminal device, a text transmission time, a text transmission date, Sentiment analysis device including at least one of the text transmission days.
제1항에 있어서,
상기 프로세서는, 분석된 상기 형태소를 이용하여 상기 적어도 하나의 텍스트 자체에 대한 텍스트 정보를 획득하고, 상기 텍스트 정보를 더 이용하여 상기 종합적 감성 분석 결과를 획득하는 감성 분석 장치.
The method of claim 1,
The processor obtains text information on the at least one text itself by using the analyzed morpheme, and further obtains the comprehensive emotion analysis result by using the text information.
제2항에 있어서,
상기 텍스트 정보는, 형태소의 개수, 존칭어의 사용 여부, 사용된 존칭어, 기호의 사용 여부, 사용된 기호, 이모티콘의 사용 여부 및 사용된 이모티콘 중 적어도 하나를 포함하는 감성 분석 장치.
The method of claim 2,
The text information includes at least one of the number of morphemes, whether honorable words are used, used honorific words, whether symbols are used, symbols used, whether emoticons are used, and used emoticons.
삭제delete 삭제delete 제1항에 있어서,
상기 감성 사전 데이터베이스는, 텍스트 기반 감성 사전 데이터베이스를 포함하고,
상기 프로세서는,
상기 텍스트 기반 감성 사전 데이터베이스를 열람하여 상기 감성 사전 데이터베이스에 상기 형태소 또는 상기 형태소에 대응하는 정보의 존재 여부를 판단하고,
만약 상기 텍스트 기반 감성 사전 데이터베이스에 상기 형태소 또는 상기 형태소에 대응하는 정보가 존재하면, 상기 형태소에 대응하는 감성 값을 추출하는 감성 분석 장치.
The method of claim 1,
The emotion dictionary database includes a text-based emotion dictionary database,
The processor,
Viewing the text-based emotion dictionary database to determine whether the morpheme or information corresponding to the morpheme exists in the emotion dictionary database,
If there is information corresponding to the morpheme or the morpheme in the text-based emotion dictionary database, the emotion analysis device extracts an emotion value corresponding to the morpheme.
제6항에 있어서,
상기 감성 사전 데이터베이스는, 상황 기반 감성 사전 데이터베이스를 더 포함하고,
상기 프로세서는,
상기 상황 기반 감성 사전 데이터베이스를 더 열람하고, 상기 감성 사전 데이터베이스에 상기 형태소 또는 상기 형태소에 대응하는 정보의 존재 여부를 더 판단하고,
만약 상기 상황 기반 감성 사전 데이터베이스에 상기 형태소 또는 상기 형태소에 대응하는 정보가 존재하면, 상기 형태소에 대응하는 제2 감성 값을 더 추출하되,
상기 상황 기반 감성 사전 데이터베이스는 대인 관계 상황에서 높은 빈도를 갖는 단어를 포함하는 감성 분석 장치.
The method of claim 6,
The emotion dictionary database further includes a context-based emotion dictionary database,
The processor,
Further browsing the context-based emotion dictionary database, further determining whether the morpheme or information corresponding to the morpheme exists in the emotion dictionary database,
If the morpheme or information corresponding to the morpheme exists in the context-based emotion dictionary database, a second emotion value corresponding to the morpheme is further extracted,
The context-based emotion dictionary database includes a word having a high frequency in an interpersonal relationship situation.
제1항에 있어서,
상기 프로세서는,
상기 텍스트가 이모티콘을 포함하는지 판단하고,
만약 상기 텍스트가 이모티콘을 포함하는지 판단하는 경우, 이모티콘 감성 사전 데이터베이스를 더 열람하고, 상기 이모티콘 감성 사전 데이터베이스에 상기 이모티콘에 대응하는 정보의 존재 여부를 더 판단하고,
만약 상기 이모티콘 감성 사전 데이터베이스에 상기 이모티콘에 대응하는 정보가 존재하면, 상기 형태소에 대응하는 제3 감성 값을 더 추출하는 감성 분석 장치.
The method of claim 1,
The processor,
Determine whether the text includes an emoticon,
If it is determined whether the text includes an emoticon, further browsing an emoticon emotion dictionary database, further determining whether information corresponding to the emoticon exists in the emoticon emotion dictionary database,
If information corresponding to the emoticon exists in the emoticon emotion dictionary database, the emotion analysis device further extracts a third emotion value corresponding to the morpheme.
제1항에 있어서,
상기 프로세서는, 상기 종합적 감성 분석 결과를 상기 제1 단말 장치 및 상기 제2 단말 장치 중 적어도 하나에 전달하는 감성 분석 장치.
The method of claim 1,
The processor transmits the comprehensive emotion analysis result to at least one of the first terminal device and the second terminal device.
제9항에 있어서,
상기 종합적 감성 분석 결과는, 긍정적 감성, 부정적 감성 및 중립적 감성 중 적어도 하나를 포함하는 감성 분석 장치.
The method of claim 9,
The overall sentiment analysis result includes at least one of a positive sentiment, a negative sentiment, and a neutral sentiment.
제10항에 있어서,
상기 종합적 감성 분석 결과는, 상기 긍정적 감성, 부정적 감성 및 중립적 감성 중 적어도 하나에 대한 시계열적 분석 결과를 포함하는 감성 분석 장치.
The method of claim 10,
The overall sentiment analysis result includes a time-series analysis result of at least one of the positive sentiment, negative sentiment, and neutral sentiment.
제11항에 있어서,
상기 종합적 감성 분석 결과는, 상기 제1 단말장치의 사용자 및 상기 제2 단말장치의 사용자 중 적어도 하나에 의해 미리 설정된 기간 내에서의 시계열적 분석 결과를 포함하는 감성 분석 장치.
The method of claim 11,
The overall sentiment analysis result includes a time-series analysis result within a preset period by at least one of a user of the first terminal device and a user of the second terminal device.
제9항에 있어서,
상기 종합적 감성 분석 결과는, 상기 제2 단말 장치의 사용자에 대한 상기 제1 단말 장치의 사용자의 감성 분석 결과를 포함하는 감성 분석 장치.
The method of claim 9,
The overall sentiment analysis result includes a sentiment analysis result of the user of the first terminal device with respect to the user of the second terminal device.
감정분석장치에 의해 수행되는 감정분석방법으로서,
제1 단말 장치 및 제2 단말 장치 상호 간에 적어도 하나의 텍스트가 전송되는 단계;
상기 적어도 하나의 텍스트를 획득하는 단계;
상기 적어도 하나의 텍스트의 형태소를 분석하는 단계;
감성 사전 데이터베이스를 기반으로 분석된 상기 형태소에 대응하는 감성 분석 결과를 획득하는 단계;
상기 감성 분석 결과를 이용하여 상기 제1 단말 장치의 사용자에 대한 상기 제2 단말 장치의 사용자의 대한 종합적 감성 분석 결과를 획득하는 단계를 포함하며,
상기 종합적 감성 분석 결과를 획득을 위하여, 상기 제1 단말 장치 및 상기 제2 단말 장치 사이의 상호 대화에 관한 상황 정보를 획득하는 단계;를 더 포함하고,
메시지에 내포되거나 부가된 정보를 기반으로 한 상기 상황 정보는, 제1 단말 장치 및 제2 단말 장치 중 적어도 하나의 사용자의 성별 및 연령 중 적어도 하나, 제1 단말 장치 및 제2 단말 장치 각각의 사용자의 관계, 텍스트 전송 시간, 텍스트 전송 날짜, 텍스트 전송 요일 중 적어도 하나를 포함하는 감성 분석 방법.
As an emotion analysis method performed by an emotion analysis device,
Transmitting at least one text between the first terminal device and the second terminal device;
Obtaining the at least one text;
Analyzing the morpheme of the at least one text;
Obtaining an emotion analysis result corresponding to the morpheme analyzed based on the emotion dictionary database;
And acquiring a result of a comprehensive sentiment analysis result of the user of the second terminal device with respect to the user of the first terminal device by using the sentiment analysis result,
In order to obtain the result of the comprehensive sentiment analysis, the step of acquiring context information on a mutual conversation between the first terminal device and the second terminal device; further comprising,
The context information based on information contained in or added to the message may include at least one of the gender and age of at least one of the first terminal device and the second terminal device, and a user of each of the first terminal device and the second terminal device. The sentiment analysis method including at least one of the relationship of, text transmission time, text transmission date, and text transmission day.
제14항에 있어서,
상기 종합적 감성 분석 결과 획득을 위하여, 분석된 상기 형태소를 이용하여 상기 적어도 하나의 텍스트 자체에 대한 텍스트 정보를 획득하는 단계;를 더 포함하는 감성 분석 방법.
The method of claim 14,
In order to obtain the result of the comprehensive sentiment analysis, the step of obtaining text information on the at least one text itself by using the analyzed morpheme.
제15항에 있어서,
상기 텍스트 정보는, 형태소의 개수, 존칭어의 사용 여부, 사용된 존칭어, 기호의 사용 여부, 사용된 기호, 이모티콘의 사용 여부 및 사용된 이모티콘 중 적어도 하나를 포함하는 감성 분석 방법.
The method of claim 15,
The text information includes at least one of the number of morphemes, whether honorable words are used, used honorific words, whether symbols are used, symbols used, whether emoticons are used, and used emoticons.
삭제delete 삭제delete 제14항에 있어서,
상기 감성 사전 데이터베이스를 기반으로 분석된 상기 형태소에 대응하는 감성 분석 결과를 획득하는 단계는,
텍스트 기반 감성 사전 데이터베이스를 열람하는 단계;
상기 텍스트 기반 감성 사전 데이터베이스에 상기 형태소 또는 상기 형태소에 대응하는 정보의 존재 여부를 판단하는 단계; 및
만약 상기 텍스트 기반 감성 사전 데이터베이스에 상기 형태소 또는 상기 형태소에 대응하는 정보가 존재하면, 상기 형태소에 대응하는 제1 감성 값을 추출하는 단계;를 포함하는 감성 분석 방법.
The method of claim 14,
The step of obtaining an emotion analysis result corresponding to the morpheme analyzed based on the emotion dictionary database,
Reading a text-based emotion dictionary database;
Determining whether the morpheme or information corresponding to the morpheme exists in the text-based emotion dictionary database; And
And if information corresponding to the morpheme or the morpheme exists in the text-based emotion dictionary database, extracting a first emotion value corresponding to the morpheme.
제19항에 있어서,
상기 감성 사전 데이터베이스를 기반으로 분석된 상기 형태소에 대응하는 감성 분석 결과를 획득하는 단계는,
상황 기반 감성 사전 데이터베이스를 더 열람하는 단계;
상기 감성 사전 데이터베이스에 상기 형태소 또는 상기 형태소에 대응하는 정보의 존재 여부를 더 판단하는 단계; 및
만약 상기 상황 기반 감성 사전 데이터베이스에 상기 형태소 또는 상기 형태소에 대응하는 정보가 존재하면, 상기 형태소에 대응하는 제2 감성 값을 더 추출하는 단계;를 포함하되,
상기 상황 기반 감성 사전 데이터베이스는 대인 관계 상황에서 높은 빈도를 갖는 단어로 구축된 것인 감성 분석 방법.
The method of claim 19,
The step of obtaining an emotion analysis result corresponding to the morpheme analyzed based on the emotion dictionary database,
Further browsing the context-based emotion dictionary database;
Further determining whether the morpheme or information corresponding to the morpheme exists in the emotion dictionary database; And
If there is information corresponding to the morpheme or the morpheme in the context-based emotion dictionary database, further extracting a second emotion value corresponding to the morpheme; Including,
The context-based emotion dictionary database is constructed with words having a high frequency in an interpersonal relationship situation.
제14항에 있어서,
상기 감성 사전 데이터베이스를 기반으로 분석된 상기 형태소에 대응하는 감성 분석 결과를 획득하는 단계는,
상기 텍스트가 이모티콘을 포함하는지 판단하는 단계;
만약 상기 텍스트가 이모티콘을 포함하는지 판단하는 경우, 이모티콘 감성 사전 데이터베이스를 더 열람하는 단계;
상기 이모티콘 감성 사전 데이터베이스에 상기 이모티콘에 대응하는 정보의 존재 여부를 더 판단하는 단계; 및
만약 상기 이모티콘 감성 사전 데이터베이스에 상기 이모티콘에 대응하는 정보가 존재하면, 상기 형태소에 대응하는 제3 감성 값을 더 추출하는 단계;를 포함하는 감성 분석 방법.
The method of claim 14,
The step of obtaining an emotion analysis result corresponding to the morpheme analyzed based on the emotion dictionary database,
Determining whether the text includes an emoticon;
If it is determined whether the text includes an emoticon, further reading an emoticon emotion dictionary database;
Further determining whether information corresponding to the emoticon exists in the emoticon emotion dictionary database; And
And if information corresponding to the emoticon exists in the emoticon emotion dictionary database, further extracting a third emotion value corresponding to the morpheme.
제14항에 있어서,
상기 종합적 감성 분석 결과를 상기 제1 단말 장치 및 상기 제2 단말 장치 중 적어도 하나에 전달하는 단계;를 더 포함하는 감성 분석 방법.
The method of claim 14,
Transmitting the comprehensive sentiment analysis result to at least one of the first terminal device and the second terminal device; The sentiment analysis method further comprising.
제22항에 있어서,
상기 종합적 감성 분석 결과는, 긍정적 감성, 부정적 감성 및 중립적 감성 중 적어도 하나를 포함하는 감성 분석 방법.
The method of claim 22,
The overall sentiment analysis result includes at least one of a positive sentiment, a negative sentiment, and a neutral sentiment.
제23항에 있어서,
상기 종합적 감성 분석 결과는, 상기 긍정적 감성, 부정적 감성 및 중립적 감성 중 적어도 하나에 대한 시계열적 분석 결과를 포함하는 감성 분석 방법.
The method of claim 23,
The overall sentiment analysis result includes a time-series analysis result of at least one of the positive sentiment, negative sentiment, and neutral sentiment.
제24항에 있어서,
상기 종합적 감성 분석 결과는, 상기 제1 사용자 및 상기 제2 사용자 중 적어도 하나에 의해 미리 설정된 기간 내에서의 시계열적 분석 결과를 포함하는 감성 분석 방법.
The method of claim 24,
The overall sentiment analysis result includes a time-series analysis result within a preset period by at least one of the first user and the second user.
제22항에 있어서,
상기 종합적 감성 분석 결과는, 상기 제2 단말 장치의 사용자에 대한 상기 제1 단말 장치의 사용자의 감성 분석 결과를 포함하는 감성 분석 방법.
The method of claim 22,
The overall sentiment analysis result includes a sentiment analysis result of the user of the first terminal device with respect to the user of the second terminal device.
제1 단말 장치;
상기 제1 단말 장치와 적어도 하나의 텍스트를 상호 송수신하는 제2 단말 장치;
상기 제1 단말 장치 및 상기 제2 단말 장치 사이에서 송수신되는 적어도 하나의 텍스트의 형태소를 분석하고, 감성 사전 데이터베이스를 기반으로 상기 형태소에 대응하는 감성 분석 결과를 획득하고, 상기 감성 분석 결과를 이용하여 총체적 감성 분석을 수행함으로써, 상기 제1 단말 장치의 사용자 및 상기 제1 단말 장치의 사용자 중 적어도 하나의 감성 상태 판단 결과를 획득하는 감성 분석 서비스 장치;를 포함하고,
상기 감성 분석 서비스 장치는 상기 제1 단말 장치 및 상기 제2 단말 장치 사이의 상호 대화에 관한 상황 정보를 획득하고, 메시지에 내포되거나 부가된 정보를 기반으로 한 상기 상황 정보를 더 이용하여 상기 종합적 감성 분석 결과를 획득하는 프로세서를 포함하며,
상기 상황 정보는, 제1 단말 장치 및 제2 단말 장치 중 적어도 하나의 사용자의 성별 및 연령 중 적어도 하나, 제1 단말 장치 및 제2 단말 장치 각각의 사용자의 관계, 텍스트 전송 시간, 텍스트 전송 날짜, 텍스트 전송 요일 중 적어도 하나를 포함하는 대화형 에이전트 시스템.
A first terminal device;
A second terminal device for mutually transmitting and receiving at least one text with the first terminal device;
Analyzing the morpheme of at least one text transmitted and received between the first terminal device and the second terminal device, obtaining a sentiment analysis result corresponding to the morpheme based on the sentiment dictionary database, and using the sentiment analysis result Including; a sentiment analysis service device for acquiring an emotional state determination result of at least one of a user of the first terminal device and a user of the first terminal device by performing a total sentiment analysis,
The sentiment analysis service device acquires context information about a mutual conversation between the first terminal device and the second terminal device, and further uses the context information based on information contained in or added to the message to provide the comprehensive sentiment. Including a processor for obtaining an analysis result,
The context information may include at least one of the sex and age of at least one of the first terminal device and the second terminal device, the relationship between the users of the first terminal device and the second terminal device, a text transmission time, a text transmission date, Interactive agent system including at least one of the text transmission days.
삭제delete
KR1020180172625A 2018-12-28 2018-12-28 Apparatus for analysis of emotion between users, interactive agent system using the same, terminal apparatus for analysis of emotion between users and method of the same KR102222637B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020180172625A KR102222637B1 (en) 2018-12-28 2018-12-28 Apparatus for analysis of emotion between users, interactive agent system using the same, terminal apparatus for analysis of emotion between users and method of the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020180172625A KR102222637B1 (en) 2018-12-28 2018-12-28 Apparatus for analysis of emotion between users, interactive agent system using the same, terminal apparatus for analysis of emotion between users and method of the same

Publications (2)

Publication Number Publication Date
KR20200082232A KR20200082232A (en) 2020-07-08
KR102222637B1 true KR102222637B1 (en) 2021-03-03

Family

ID=71600382

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180172625A KR102222637B1 (en) 2018-12-28 2018-12-28 Apparatus for analysis of emotion between users, interactive agent system using the same, terminal apparatus for analysis of emotion between users and method of the same

Country Status (1)

Country Link
KR (1) KR102222637B1 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102510023B1 (en) * 2021-01-21 2023-03-15 (주)알에프캠프 Method and computer program to determine user's mental state by using user's behavioral data or input data
CN113450793A (en) * 2021-06-25 2021-09-28 平安科技(深圳)有限公司 User emotion analysis method and device, computer readable storage medium and server

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101634086B1 (en) * 2015-01-19 2016-07-08 주식회사 엔씨소프트 Method and computer system of analyzing communication situation based on emotion information

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101448228B1 (en) * 2013-02-12 2014-10-10 이주양 Apparatus and Method for social data analysis
KR101713258B1 (en) * 2015-05-19 2017-03-09 트윈워드 주식회사 Apparatus and method for providing psychology status information from writing

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101634086B1 (en) * 2015-01-19 2016-07-08 주식회사 엔씨소프트 Method and computer system of analyzing communication situation based on emotion information

Also Published As

Publication number Publication date
KR20200082232A (en) 2020-07-08

Similar Documents

Publication Publication Date Title
US11315546B2 (en) Computerized system and method for formatted transcription of multimedia content
RU2699399C2 (en) System and method for detecting orphan utterances
US11769492B2 (en) Voice conversation analysis method and apparatus using artificial intelligence
US20190272269A1 (en) Method and system of classification in a natural language user interface
JP2022551788A (en) Generate proactive content for ancillary systems
CN110869969A (en) Virtual assistant for generating personalized responses within a communication session
CN115668371A (en) Classifying auditory and visual conferencing data to infer importance of user utterances
CN111428010B (en) Man-machine intelligent question-answering method and device
KR102100214B1 (en) Method and appratus for analysing sales conversation based on voice recognition
TW201606750A (en) Speech recognition using a foreign word grammar
US10592609B1 (en) Human emotion detection
US20220148576A1 (en) Electronic device and control method
US9922644B2 (en) Analysis of professional-client interactions
JP2012113542A (en) Device and method for emotion estimation, program and recording medium for the same
US20240020458A1 (en) Text formatter
KR102222637B1 (en) Apparatus for analysis of emotion between users, interactive agent system using the same, terminal apparatus for analysis of emotion between users and method of the same
Kharb et al. Embedding intelligence through cognitive services
CN110245334B (en) Method and device for outputting information
US9747891B1 (en) Name pronunciation recommendation
KR102226427B1 (en) Apparatus for determining title of user, system including the same, terminal and method for the same
US10282417B2 (en) Conversational list management
KR20210009266A (en) Method and appratus for analysing sales conversation based on voice recognition
US10877964B2 (en) Methods and systems to facilitate the generation of responses to verbal queries
CN114171063A (en) Real-time telephone traffic customer emotion analysis assisting method and system
CN114360544A (en) Voice recognition method and device, electronic equipment and storage medium

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant