KR102222637B1 - Apparatus for analysis of emotion between users, interactive agent system using the same, terminal apparatus for analysis of emotion between users and method of the same - Google Patents
Apparatus for analysis of emotion between users, interactive agent system using the same, terminal apparatus for analysis of emotion between users and method of the same Download PDFInfo
- Publication number
- KR102222637B1 KR102222637B1 KR1020180172625A KR20180172625A KR102222637B1 KR 102222637 B1 KR102222637 B1 KR 102222637B1 KR 1020180172625 A KR1020180172625 A KR 1020180172625A KR 20180172625 A KR20180172625 A KR 20180172625A KR 102222637 B1 KR102222637 B1 KR 102222637B1
- Authority
- KR
- South Korea
- Prior art keywords
- terminal device
- emotion
- morpheme
- text
- sentiment
- Prior art date
Links
Images
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/16—Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
- A61B5/165—Evaluating the state of mind, e.g. depression, anxiety
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/74—Details of notification to user or communication with user or patient ; user input means
- A61B5/742—Details of notification to user or communication with user or patient ; user input means using visual displays
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H50/00—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
Abstract
감성 분석 장치, 이를 포함하는 대화형 에이전트 시스템, 감성 분석을 수행하기 위한 단말 장치 및 감성 분석 방법에 관한 것으로, 감성 분석 장치는 제1 단말 장치 및 제2 단말 장치 상호 간에 전송되는 적어도 하나의 텍스트를 획득하는 통신부 및 상기 적어도 하나의 텍스트의 형태소를 분석하고, 감성 사전 데이터베이스를 기반으로 분석된 상기 형태소에 대응하는 감성 분석 결과를 획득하고, 상기 감성 분석 결과를 이용하여 상기 제1 단말 장치의 사용자에 대한 상기 제2 단말 장치의 사용자의 대한 종합적 감성 분석 결과를 획득하는 프로세서를 포함할 수 있다.It relates to an emotion analysis device, an interactive agent system including the same, a terminal device for performing emotion analysis, and an emotion analysis method, wherein the emotion analysis device includes at least one text transmitted between a first terminal device and a second terminal device. Analyzing the obtained communication unit and the morpheme of the at least one text, obtaining a sentiment analysis result corresponding to the analyzed morpheme based on the sentiment dictionary database, and using the sentiment analysis result to the user of the first terminal device It may include a processor that obtains a result of a comprehensive sentiment analysis of the user of the second terminal device.
Description
감성 분석 장치, 이를 포함하는 대화형 에이전트 시스템, 이를 수행하기 위한 단말 장치 및 감성 분석 방법에 관한 것이다.The present invention relates to an emotion analysis device, an interactive agent system including the same, a terminal device for performing the same, and an emotion analysis method.
데스크톱 컴퓨터나 랩톱 컴퓨터의 발전에 따라 이들 장치 간에 메시지를 송수신할 수 있는 인스턴트 메시지 서비스가 개발되었다. 이들 인스턴트 메시지 서비스는 스마트 폰 등과 같은 휴대용 단말 장치의 성장에 따라 이들 인스턴트 메시지 서비스 역시 급격히 성장 및 발전하고 있다.With the advancement of desktop computers and laptop computers, instant messaging services have been developed that can send and receive messages between these devices. These instant message services are also rapidly growing and developing with the growth of portable terminal devices such as smart phones.
최근에는 이런 인스턴트 메시지 서비스를 기반으로 하는 다양한 기술이 도입되고 있다. 이러한 기술 중 일례로 챗봇(chatbot, 채터봇, 토크봇 등으로도 지칭 가능하다)이 있다. 챗봇은, 기호, 문자, 도형, 화상 및/또는 음성 등을 기반으로 인간(사용자)와 대화를 수행할 수 있도록 설계된 컴퓨터 프로그램 또는 이를 수행하기 위한 장치나 시스템으로, 개인 비서 서비스나 금융사 등 각종 기업의 고객 응대 서비스 등에서 이용되고 있다.Recently, various technologies based on such instant message service have been introduced. One example of these technologies is a chatbot (which can also be referred to as chatbot, chatterbot, talkbot, etc.). Chatbots are computer programs designed to conduct conversations with humans (users) based on symbols, texts, figures, images and/or voices, or devices or systems for performing them. Various companies such as personal assistant services and financial companies It is used in customer service services of
상술한 바와 같은 챗봇 서비스는 메시지를 생성하고 생성한 메시지를 이용하여 사용자와의 대화를 수행한다는 점에서 대화 상대방(즉, 사용자)의 태도, 의견 또는 감성 등을 분석할 필요가 존재한다. 이와 같이 통상적인 텍스트로부터 텍스트의 발화자 등의 태도, 의견 또는 감성 등을 분석하는 방법을 감성 분석이라고 한다.Since the chatbot service as described above generates a message and performs a conversation with a user using the generated message, there is a need to analyze the attitude, opinion, or emotion of the conversation partner (ie, the user). In this way, a method of analyzing the attitude, opinion, or emotion of the speaker of the text from the ordinary text is called sentiment analysis.
대인 관계 상황을 기반으로 효과적으로 우수한 성능으로 감성 추론 및 분석을 수행할 수 있는 감성 분석 장치, 이를 포함하는 대화형 에이전트 시스템, 이를 수행하기 위한 단말 장치 및 감성 분석 방법을 제공하는 것을 해결하고자 하는 과제로 한다.As a task to solve the problem of providing a sentiment analysis device capable of effectively performing emotional inference and analysis with excellent performance based on the interpersonal situation, an interactive agent system including the same, a terminal device for performing this, and a method for analyzing emotions. do.
상술한 과제를 해결하기 위하여 감성 분석 장치, 이를 포함하는 대화형 에이전트 시스템, 이를 수행하기 위한 단말 장치 및 감성 분석 방법이 제공된다.In order to solve the above-described problem, an emotion analysis device, an interactive agent system including the same, a terminal device for performing the same, and an emotion analysis method are provided.
감성 분석 장치는, 제1 단말 장치 및 제2 단말 장치 상호 간에 전송되는 적어도 하나의 텍스트를 획득하는 통신부 및 상기 적어도 하나의 텍스트의 형태소를 분석하고, 감성 사전 데이터베이스를 기반으로 분석된 상기 형태소에 대응하는 감성 분석 결과를 획득하고, 상기 감성 분석 결과를 이용하여 상기 제1 단말 장치의 사용자에 대한 상기 제2 단말 장치의 사용자의 대한 종합적 감성 분석 결과를 획득하는 프로세서를 포함할 수 있다.The emotion analysis device includes a communication unit that obtains at least one text transmitted between the first terminal device and the second terminal device, and analyzes the morpheme of the at least one text, and corresponds to the morpheme analyzed based on the emotion dictionary database. And a processor that obtains a result of the sentiment analysis and obtains a result of a comprehensive sentiment analysis of the user of the second terminal device with respect to the user of the first terminal device by using the sentiment analysis result.
상기 프로세서는, 분석된 상기 형태소를 이용하여 상기 적어도 하나의 텍스트 자체에 대한 텍스트 정보를 획득하고, 상기 텍스트 정보를 더 이용하여 상기 종합적 감성 분석 결과를 획득할 수 있다.The processor may obtain text information on the at least one text itself by using the analyzed morpheme, and obtain the comprehensive sentiment analysis result by further using the text information.
상기 텍스트 정보는, 형태소의 개수, 존칭어의 사용 여부, 사용된 존칭어, 기호의 사용 여부, 사용된 기호, 이모티콘의 사용 여부 및 사용된 이모티콘 중 적어도 하나를 포함할 수 있다.The text information may include at least one of the number of morphemes, whether or not to use honorable words, used honorable words, whether or not to use symbols, used symbols, whether or not to use emoticons, and used emoticons.
상기 프로세서는, 상기 제1 단말 장치 및 상기 제2 단말 장치 사이의 상호 대화에 관한 상황 정보를 획득하고, 상기 상황 정보를 더 이용하여 상기 종합적 감성 분석 결과를 획득할 수 있다.The processor may acquire context information regarding a mutual conversation between the first terminal device and the second terminal device, and further obtain the comprehensive sentiment analysis result by using the context information.
상기 상황 정보는, 제1 단말 장치 및 제2 단말 장치 중 적어도 하나의 사용자의 성별 및 연령 중 적어도 하나, 제1 단말 장치 및 제2 단말 장치 각각의 사용자의 관계, 텍스트 전송 시간, 텍스트 전송 날짜, 텍스트 전송 요일 중 적어도 하나를 포함할 수 있다.The context information may include at least one of the sex and age of at least one of the first terminal device and the second terminal device, the relationship between the users of the first terminal device and the second terminal device, a text transmission time, a text transmission date, It may include at least one of the text transmission days.
상기 감성 사전 데이터베이스는, 텍스트 기반 감성 사전 데이터베이스를 포함하고 상기 프로세서는, 상기 텍스트 기반 감성 사전 데이터베이스를 열람하여 상기 감성 사전 데이터베이스에 상기 형태소 또는 상기 형태소에 대응하는 정보의 존재 여부를 판단하고, 만약 상기 텍스트 기반 감성 사전 데이터베이스에 상기 형태소 또는 상기 형태소에 대응하는 정보가 존재하면, 상기 형태소에 대응하는 제1 감성 값을 추출할 수 있다.The emotion dictionary database includes a text-based emotion dictionary database, and the processor reads the text-based emotion dictionary database to determine whether the morpheme or information corresponding to the morpheme exists in the emotion dictionary database, and if the If the morpheme or information corresponding to the morpheme exists in the text-based emotion dictionary database, a first emotion value corresponding to the morpheme may be extracted.
상기 감성 사전 데이터베이스는, 상황 기반 감성 사전 데이터베이스를 더 포함하고, 상기 프로세서는, 상기 상황 기반 감성 사전 데이터베이스를 더 열람하고, 상기 감성 사전 데이터베이스에 상기 형태소 또는 상기 형태소에 대응하는 정보의 존재 여부를 더 판단하고, 만약 상기 상황 기반 감성 사전 데이터베이스에 상기 형태소 또는 상기 형태소에 대응하는 정보가 존재하면, 상기 형태소에 대응하는 제2 감성 값을 더 추출하되, 상기 상황 기반 감성 사전 데이터베이스는 대인 관계 상황에서 높은 빈도를 갖는 단어를 포함할 수 있다.The emotion dictionary database further includes a context-based emotion dictionary database, and the processor further browses the context-based emotion dictionary database, and further determines whether the morpheme or information corresponding to the morpheme exists in the emotion dictionary database. And, if the morpheme or information corresponding to the morpheme exists in the context-based emotion dictionary database, a second emotion value corresponding to the morpheme is further extracted, and the context-based emotion dictionary database is high in interpersonal relationship situations. It may include words with a frequency.
상기 프로세서는, 상기 텍스트가 이모티콘을 포함하는지 판단하고, 만약 상기 텍스트가 이모티콘을 포함하는지 판단하는 경우, 이모티콘 감성 사전 데이터베이스를 더 열람하고, 상기 이모티콘 감성 사전 데이터베이스에 상기 이모티콘에 대응하는 정보의 존재 여부를 더 판단하고, 만약 상기 이모티콘 감성 사전 데이터베이스에 상기 이모티콘에 대응하는 정보가 존재하면, 상기 형태소에 대응하는 제3 감성 값을 더 추출할 수 있다.The processor determines whether the text includes an emoticon, and when determining whether the text includes an emoticon, further browses an emoticon emotion dictionary database, and whether information corresponding to the emoticon exists in the emoticon emotion dictionary database Is further determined, and if information corresponding to the emoticon exists in the emoticon emotion dictionary database, a third emotion value corresponding to the morpheme may be further extracted.
상기 프로세서는, 상기 종합적 감성 분석 결과를 상기 제1 단말 장치 및 상기 제2 단말 장치 중 적어도 하나에 전달할 수 있다.The processor may transmit the result of the comprehensive sentiment analysis to at least one of the first terminal device and the second terminal device.
상기 종합적 감성 분석 결과는, 긍정적 감성, 부정적 감성 및 중립적 감성 중 적어도 하나를 포함할 수 있다.The comprehensive emotion analysis result may include at least one of a positive emotion, a negative emotion, and a neutral emotion.
상기 종합적 감성 분석 결과는, 상기 긍정적 감성, 부정적 감성 및 중립적 감성 중 적어도 하나에 대한 시계열적 분석 결과를 포함할 수 있다.The comprehensive emotion analysis result may include a time-series analysis result of at least one of the positive emotion, negative emotion, and neutral emotion.
상기 종합적 감성 분석 결과는, 상기 제1 사용자 및 상기 제2 사용자 중 적어도 하나에 의해 미리 설정된 기간 내에서의 시계열적 분석 결과를 포함할 수 있다.The comprehensive sentiment analysis result may include a time series analysis result within a preset period by at least one of the first user and the second user.
상기 종합적 감성 분석 결과는, 상기 제2 단말 장치의 사용자에 대한 상기 제1 단말 장치의 사용자의 감성 분석 결과를 포함할 수 있다.The comprehensive sentiment analysis result may include a user's sentiment analysis result of the first terminal device with respect to the user of the second terminal device.
감성 분석 방법은, 제1 단말 장치 및 제2 단말 장치 상호 간에 적어도 하나의 텍스트가 전송되는 단계, 상기 적어도 하나의 텍스트를 획득하는 단계, 상기 적어도 하나의 텍스트의 형태소를 분석하는 단계, 감성 사전 데이터베이스를 기반으로 분석된 상기 형태소에 대응하는 감성 분석 결과를 획득하는 단계 및 상기 감성 분석 결과를 이용하여 상기 제1 단말 장치의 사용자에 대한 상기 제2 단말 장치의 사용자의 대한 종합적 감성 분석 결과를 획득하는 단계를 포함할 수 있다.The sentiment analysis method includes: transmitting at least one text between a first terminal device and a second terminal device, obtaining the at least one text, analyzing the morpheme of the at least one text, and an emotion dictionary database Acquiring a sentiment analysis result corresponding to the morpheme analyzed based on and obtaining a comprehensive sentiment analysis result of the user of the second terminal device with respect to the user of the first terminal device using the sentiment analysis result It may include steps.
감성 분석 방법은, 상기 종합적 감성 분석 결과 획득을 위하여, 분석된 상기 형태소를 이용하여 상기 적어도 하나의 텍스트 자체에 대한 텍스트 정보를 획득하는 단계를 더 포함할 수 있다.The sentiment analysis method may further include acquiring text information on the at least one text itself by using the analyzed morpheme in order to obtain the comprehensive sentiment analysis result.
상기 텍스트 정보는, 형태소의 개수, 존칭어의 사용 여부, 사용된 존칭어, 기호의 사용 여부, 사용된 기호, 이모티콘의 사용 여부 및 사용된 이모티콘 중 적어도 하나를 포함할 수 있다.The text information may include at least one of the number of morphemes, whether or not to use honorable words, used honorable words, whether or not to use symbols, used symbols, whether or not to use emoticons, and used emoticons.
감성 분석 방법은, 상기 종합적 감성 분석 결과를 획득을 위하여, 상기 제1 단말 장치 및 상기 제2 단말 장치 사이의 상호 대화에 관한 상황 정보를 획득하는 단계를 더 포함할 수 있다.The sentiment analysis method may further include acquiring context information regarding a mutual conversation between the first terminal device and the second terminal device in order to obtain the comprehensive sentiment analysis result.
상기 상황 정보는, 제1 단말 장치 및 제2 단말 장치 중 적어도 하나의 사용자의 성별 및 연령 중 적어도 하나, 제1 단말 장치 및 제2 단말 장치 각각의 사용자의 관계, 텍스트 전송 시간, 텍스트 전송 날짜, 텍스트 전송 요일 중 적어도 하나를 포함할 수 있다.The context information may include at least one of the sex and age of at least one of the first terminal device and the second terminal device, the relationship between the users of the first terminal device and the second terminal device, a text transmission time, a text transmission date, It may include at least one of the text transmission days.
상기 감성 사전 데이터베이스를 기반으로 분석된 상기 형태소에 대응하는 감성 분석 결과를 획득하는 단계는, 상기 텍스트 기반 감성 사전 데이터베이스를 열람하는 단계, 상기 텍스트 기반 감성 사전 데이터베이스에 상기 형태소 또는 상기 형태소에 대응하는 정보의 존재 여부를 판단하는 단계 및 만약 텍스트 기반 상기 감성 사전 데이터베이스에 상기 형태소 또는 상기 형태소에 대응하는 정보가 존재하면, 상기 형태소에 대응하는 제1 감성 값을 추출하는 단계를 포함할 수 있다.The obtaining of the sentiment analysis result corresponding to the morpheme analyzed based on the sentiment dictionary database includes: browsing the text-based sentiment dictionary database, information corresponding to the morpheme or the morpheme in the text-based sentiment dictionary database Determining whether there is a presence or not, and if information corresponding to the morpheme or the morpheme exists in the text-based emotion dictionary database, extracting a first emotion value corresponding to the morpheme.
상기 감성 사전 데이터베이스를 기반으로 분석된 상기 형태소에 대응하는 감성 분석 결과를 획득하는 단계는, 상황 기반 감성 사전 데이터베이스를 더 열람하는 단계, 상기 감성 사전 데이터베이스에 상기 형태소 또는 상기 형태소에 대응하는 정보의 존재 여부를 더 판단하는 단계 및 만약 상기 상황 기반 감성 사전 데이터베이스에 상기 형태소 또는 상기 형태소에 대응하는 정보가 존재하면, 상기 형태소에 대응하는 제2 감성 값을 더 추출하는 단계를 포함하되, 상기 상황 기반 감성 사전 데이터베이스는 대인 관계 상황에서 높은 빈도를 갖는 단어로 구축된 것일 수 있다.The obtaining of the emotion analysis result corresponding to the morpheme analyzed based on the emotion dictionary database includes further browsing a context-based emotion dictionary database, and the presence of information corresponding to the morpheme or the morpheme in the emotion dictionary database Further determining whether or not, and if there is information corresponding to the morpheme or the morpheme in the context-based emotion dictionary database, further extracting a second emotion value corresponding to the morpheme, wherein the context-based emotion dictionary database The dictionary database may be constructed with words having a high frequency in an interpersonal relationship.
상기 감성 사전 데이터베이스를 기반으로 분석된 상기 형태소에 대응하는 감성 분석 결과를 획득하는 단계는, 상기 텍스트가 이모티콘을 포함하는지 판단하는 단계, 만약 상기 텍스트가 이모티콘을 포함하는지 판단하는 경우, 이모티콘 감성 사전 데이터베이스를 더 열람하는 단계, 상기 이모티콘 감성 사전 데이터베이스에 상기 이모티콘에 대응하는 정보의 존재 여부를 더 판단하는 단계 및 만약 상기 이모티콘 감성 사전 데이터베이스에 상기 이모티콘에 대응하는 정보가 존재하면, 상기 형태소에 대응하는 제3 감성 값을 더 추출하는 단계를 포함할 수 있다.The obtaining of the sentiment analysis result corresponding to the morpheme analyzed based on the sentiment dictionary database includes: determining whether the text includes an emoticon, and if determining whether the text includes an emoticon, an emoticon sentiment dictionary database Further browsing, further determining whether information corresponding to the emoticon exists in the emoticon emotion dictionary database, and if information corresponding to the emoticon exists in the emoticon emotion dictionary database, a first corresponding to the
감성 분석 방법은, 상기 종합적 감성 분석 결과를 상기 제1 단말 장치 및 상기 제2 단말 장치 중 적어도 하나에 전달하는 단계를 더 포함할 수 있다.The sentiment analysis method may further include transmitting the result of the comprehensive sentiment analysis to at least one of the first terminal device and the second terminal device.
상기 종합적 감성 분석 결과는, 긍정적 감성, 부정적 감성 및 중립적 감성 중 적어도 하나를 포함할 수 있다.The comprehensive emotion analysis result may include at least one of a positive emotion, a negative emotion, and a neutral emotion.
상기 종합적 감성 분석 결과는, 상기 긍정적 감성, 부정적 감성 및 중립적 감성 중 적어도 하나에 대한 시계열적 분석 결과를 포함할 수 있다.The comprehensive emotion analysis result may include a time-series analysis result of at least one of the positive emotion, negative emotion, and neutral emotion.
상기 종합적 감성 분석 결과는, 상기 제1 사용자 및 상기 제2 사용자 중 적어도 하나에 의해 미리 설정된 기간 내에서의 시계열적 분석 결과를 포함할 수 있다.The comprehensive sentiment analysis result may include a time series analysis result within a preset period by at least one of the first user and the second user.
상기 종합적 감성 분석 결과는, 상기 제2 단말 장치의 사용자에 대한 상기 제1 단말 장치의 사용자의 감성 분석 결과를 포함할 수 있다.The comprehensive sentiment analysis result may include a user's sentiment analysis result of the first terminal device with respect to the user of the second terminal device.
대화형 에이전트 시스템은, 제1 단말 장치, 상기 제1 단말 장치와 적어도 하나의 텍스트를 상호 송수신하는 제2 단말 장치 및 상기 제1 단말 장치 및 상기 제2 단말 장치 사이에서 송수신되는 적어도 하나의 텍스트의 형태소를 분석하고, 감성 사전 데이터베이스를 기반으로 상기 형태소에 대응하는 감성 분석 결과를 획득하고, 상기 감성 분석 결과를 이용하여 총체적 감성 분석을 수행함으로써, 상기 제1 단말 장치의 사용자 및 상기 제1 단말 장치의 사용자 중 적어도 하나의 감성 상태 판단 결과를 획득하는 감성 분석 서비스 장치를 포함할 수 있다.The interactive agent system includes: a first terminal device, a second terminal device for mutually transmitting and receiving at least one text with the first terminal device, and at least one text transmitted and received between the first terminal device and the second terminal device. By analyzing morphemes, acquiring a sentiment analysis result corresponding to the morpheme based on the sentiment dictionary database, and performing a total sentiment analysis using the sentiment analysis result, the user of the first terminal device and the first terminal device It may include an emotion analysis service device that obtains a result of determining the emotion state of at least one of the users of.
단말 장치는, 제1 텍스트를 입력받는 입력부, 상기 제1 텍스트를 다른 단말 장치로 전송하고, 상기 다른 단말 장치로부터 제2 텍스트를 수신하는 통신부, 상기 제1 텍스트 및 상기 제2 텍스트 중 적어도 하나의 형태소를 분석하고, 감성 사전 데이터베이스를 기반으로 분석된 상기 형태소에 대응하는 감성 분석 결과를 획득하고, 상기 감성 분석 결과를 이용하여 상기 다른 단말 장치의 사용자의 대한 종합적 감성 분석 결과를 획득하는 프로세서 및 상기 종합적 감성 분석 결과를 출력하는 출력부를 포함할 수 있다.The terminal device includes: an input unit for receiving a first text, a communication unit for transmitting the first text to another terminal device and receiving a second text from the other terminal device, and at least one of the first text and the second text. A processor that analyzes morphemes, obtains an emotion analysis result corresponding to the morpheme analyzed based on an emotion dictionary database, and obtains a comprehensive emotion analysis result of a user of the other terminal device using the emotion analysis result, and the It may include an output unit that outputs a result of comprehensive emotion analysis.
상술한 감성 분석 장치, 이를 포함하는 대화형 에이전트 시스템, 이를 수행하기 위한 단말 장치 및 감성 분석 방법에 의하면, 대인 관계 상황의 데이터 기반의 감성 분석을 보다 효과적으로 적절하게 수행할 수 있게 된다. According to the above-described emotion analysis device, an interactive agent system including the same, a terminal device for performing the same, and an emotion analysis method, it is possible to more effectively and appropriately perform a data-based emotion analysis of an interpersonal relationship situation.
상술한 감성 분석 장치, 이를 포함하는 대화형 에이전트 시스템, 이를 수행하기 위한 단말 장치 및 감성 분석 방법에 의하면, 대인 관계에 대한 상황을 기반으로 감성을 분석하되, 메신저 또는 소셜 네트워크 상에서의 개개인의 활동 결과에서 확인되는 여러 상황 정보들과 대화의 내용 등을 종합적으로 반영하여 감성 분석을 수행할 수 있게 되며, 이를 통해 도출된 분석 결과(감성 상태 등)을 기반으로 관계 친화형 서비스를 구축할 수 있게 된다.According to the above-described emotion analysis device, the interactive agent system including the same, the terminal device for performing the same, and the emotion analysis method, the emotion is analyzed based on the situation of the interpersonal relationship, but the result of the individual's activity on the messenger or social network. It is possible to perform sentiment analysis by comprehensively reflecting various situational information and conversation contents, etc., which are identified in the program, and a relationship-friendly service can be built based on the analysis results (emotional status, etc.) derived through this. .
상술한 감성 분석 장치, 이를 포함하는 대화형 에이전트 시스템, 이를 수행하기 위한 단말 장치 및 감성 분석 방법에 의하면, 하나의 사용자의 감성 상태 또는 복수의 사용자 간의 감성 상태를 기반으로 사용자(들)에게 적합한 서비스를 제공할 수 있게 되며, 이에 따라 사용자(들)의 만족도를 향상시킬 수 있게 되는 효과도 얻을 수 있다.According to the above-described emotion analysis device, the interactive agent system including the same, the terminal device for performing the same, and the emotion analysis method, a service suitable for the user(s) based on the emotional state of one user or the emotional state between a plurality of users. Is able to be provided, and accordingly, an effect of improving the satisfaction of the user(s) can be obtained.
상술한 감성 분석 장치, 이를 포함하는 대화형 에이전트 시스템, 이를 수행하기 위한 단말 장치 및 감성 분석 방법에 의하면, 소셜 네트워크 시스템이나 메신저 프로그램을 통해 일 방향 또는 쌍방향 대화가 진행되는 경우, 상대방 또는 상황에 따른 감성 상태에 부합되는 단어, 문장, 화상(예를 들어, 이모티콘 등) 및/또는 사운드 등을 적절하게 추천할 수 있게 된다.According to the above-described emotion analysis device, the interactive agent system including the same, the terminal device for performing the same, and the emotion analysis method, when a one-way or two-way conversation proceeds through a social network system or a messenger program, Words, sentences, images (eg, emoticons, etc.) and/or sounds that match the emotional state can be appropriately recommended.
상술한 감성 분석 장치, 이를 포함하는 대화형 에이전트 시스템, 이를 수행하기 위한 단말 장치 및 감성 분석 방법에 의하면, 고객 응대나 개인 비서 서비스 등을 위해 챗봇을 사용하는 경우, 챗봇이 분석된 사용자의 감성 상태를 기반으로 사용자 및 상황에 보다 부합되는 메시지를 생성할 수 있도록 할 수 있으며 이에 따라 챗봇 이용자의 고객 만족도를 향상시킬 수 있게 된다.According to the above-described emotion analysis device, the interactive agent system including the same, the terminal device for performing the same, and the emotion analysis method, when a chatbot is used for customer service or personal assistant service, the emotional state of the user analyzed by the chatbot. Based on, it is possible to create a message that is more suitable to the user and the situation, and accordingly, the customer satisfaction of the chatbot user can be improved.
상술한 감성 분석 장치, 이를 포함하는 대화형 에이전트 시스템, 이를 수행하기 위한 단말 장치 및 감성 분석 방법은, 기업이나 공공기관에서 대화 상대방의 감성을 분석하기 위해서도 이용 가능하다.The above-described emotion analysis device, an interactive agent system including the same, a terminal device for performing the same, and an emotion analysis method can also be used in a company or public institution to analyze the emotion of a conversation partner.
도 1은 대화형 에이전트 시스템의 일 실시예에 대한 도면이다.
도 2는 감성 분석 장치의 일 실시예에 대한 블록도이다.
도 3은 프로세서 및 저장부의 일 실시예에 대한 블록도이다.
도 4는 정의된 변수의 일 실시예를 설명하기 위한 도면이다.
도 5는 채팅 화면의 일 실시예에 대한 도면이다.
도 6은 감성 값의 연산을 위한 수식의 일 실시예를 도시한 도면이다.
도 7은 감성 단어 분류 색인 결과의 일례를 설명하기 위한 도면이다.
도 8은 누적된 데이터의 일례에 대한 도표이다.
도 9는 감성 분석 결과에 따라 획득 가능한 여러 상태의 일례를 설명하기 위한 도면이다.
도 10은 감성 분석 결과를 채팅 화면에 나타나는 일 실시예를 도시한 도면이다.
도 11은 인물 중심의 감성 분석 결과 제공 화면의 일 실시예를 도시한 도면이다.
도 12는 시계열 중심의 감성 분석 결과 제공 화면의 일 실시예를 도시한 도면이다.
도 13은 단말 장치의 일 실시예에 대한 도면이다.
도 14는 감성 분석 방법의 일 실시예에 대한 흐름도이다.
도 15는 감성 분석 방법의 개시 과정의 일 실시예에 대한 보다 상세한 흐름도이다.
도 16은 감성 사전 기반으로 감성 값을 획득하는 과정의 일 실시예에 대한 제1 흐름도이다.
도 17은 감성 사전 기반으로 감성 값을 획득하는 과정의 일 실시예에 대한 제2 흐름도이다.
도 18은 감성 분석 결과 정보의 제공 방법의 일 실시예에 대한 흐름도이다.1 is a diagram of an embodiment of an interactive agent system.
2 is a block diagram of an apparatus for analyzing emotions according to an embodiment.
3 is a block diagram of an embodiment of a processor and a storage unit.
4 is a diagram for describing an embodiment of a defined variable.
5 is a diagram for an embodiment of a chat screen.
6 is a diagram illustrating an embodiment of an equation for calculating an emotion value.
7 is a diagram for explaining an example of a result of an emotional word classification index.
8 is a chart of an example of accumulated data.
9 is a diagram for explaining an example of various states that can be obtained according to a result of an emotion analysis.
FIG. 10 is a diagram illustrating an exemplary embodiment in which emotion analysis results are displayed on a chat screen.
11 is a diagram illustrating an embodiment of a screen for providing a result of a person-centered emotion analysis.
12 is a diagram illustrating an embodiment of a screen for providing a result of a sentiment analysis centered on a time series.
13 is a diagram for an embodiment of a terminal device.
14 is a flowchart of an embodiment of a method for analyzing emotions.
15 is a more detailed flowchart of an embodiment of a process of initiating an emotion analysis method.
16 is a first flowchart of an embodiment of a process of acquiring an emotion value based on an emotion dictionary.
17 is a second flowchart of an embodiment of a process of acquiring an emotion value based on an emotion dictionary.
18 is a flowchart of an embodiment of a method for providing information on a result of an emotion analysis.
이하 명세서 전체에서 동일 참조 부호는 특별한 사정이 없는 한 동일 구성요소를 지칭한다. 이하에서 사용되는 '부'가 부가된 용어는, 소프트웨어 또는 하드웨어로 구현될 수 있으며, 실시예에 따라 '부'가 하나의 부품으로 구현되거나, 하나의 '부'가 복수의 부품들로 구현되는 것도 가능하다.In the following specification, the same reference numerals refer to the same elements unless otherwise specified. The term "unit" used below may be implemented as software or hardware, and according to the embodiment, the term "unit" is implemented as one part, or one "unit" is implemented as a plurality of parts. It is also possible.
명세서 전체에서 어떤 부분이 다른 부분과 연결되어 있다고 할 때, 이는 어떤 부분과 다른 부분에 따라서 물리적 연결을 의미할 수도 있고, 또는 전기적으로 연결된 것을 의미할 수도 있다.When a part is said to be connected to another part throughout the specification, it may mean a physical connection depending on the part and another part, or it may mean that it is electrically connected.
또한, 어떤 부분이 다른 부분을 포함한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 부분 이외의 또 다른 부분을 제외하는 것이 아니며, 설계자의 선택에 따라서 또 다른 부분을 더 포함할 수 있음을 의미한다.In addition, when a part includes another part, this does not exclude another part other than the other part unless specifically stated to the contrary, and it means that another part may be further included according to the designer's choice. do.
제 1 이나 제 2 등의 용어는 하나의 부분을 다른 부분으로부터 구별하기 위해 사용되는 것으로, 특별한 기재가 없는 이상 이들이 순차적인 표현을 의미하는 것은 아니다.Terms such as first or second are used to distinguish one part from another, and unless otherwise specified, they do not mean sequential expressions.
단수의 표현은 문맥상 명백하게 예외가 있지 않는 한, 복수의 표현을 포함할 수 있다.Singular expressions may include plural expressions, unless the context clearly has exceptions.
이하 도 1 내지 도 12를 참조하여 감성 분석 장치, 이를 포함하는 대화형 에이전트 시스템 및 단말 장치의 일 실시예에 대해서 설명하도록 한다.Hereinafter, an embodiment of an emotion analysis apparatus, an interactive agent system including the same, and a terminal device will be described with reference to FIGS. 1 to 12.
도 1은 대화형 에이전트 시스템의 일 실시예에 대한 도면이다.1 is a diagram of an embodiment of an interactive agent system.
도 1에 도시된 바에 의하면, 대화형 에이전트 시스템(1)은, 네트워크(9)를 통해 상호 통신 가능한 복수의 단말 장치(90)와, 감성 분석 장치(100)를 포함할 수 있다.As shown in FIG. 1, the
네트워크(9)는, 유선 통신 네트워크, 무선 통신 네트워크 또는 이들의 조합을 포함할 수 있다. 여기서, 유선 통신 네트워크는, 케이블을 이용하여 구축된 것일 수 있으며, 케이블은, 예를 들어, 페어 케이블, 동축 케이블, 광섬유 케이블 또는 이더넷 케이블 등을 이용하여 구현된 것일 수 있다. 무선 통신 네트워크는 근거리 통신 네트워크 및 원거리 통신 네트워크 중 적어도 하나를 이용하여 구현된 것일 수 있다. 여기서, 근거리 통신 네트워크는, 예를 들어, 와이 파이(Wi-Fi), 지그비(zigbee), 블루투스(Bluetooth), 와이파이 다이렉트(Wi-Fi Direct), 저전력 블루투스(Bluetooth Low Energy), 캔(CAN) 통신 또는 엔에프씨(NFC, Near Field Communication) 등을 이용하여 구현된 것일 수 있다. 원거리 통신 네트워크는, 유선 통신 네트워크예를 들어, 3GPP, 3GPP2 또는 와이맥스 계열 등의 이동 통신 표준을 기반으로 구현된 것일 수 있다.The
단말 장치(90)는 복수의 단말 장치, 예를 들어 제1 단말 장치(10) 및 제2 단말 장치(20)를 포함할 수 있다. 도 1에는 두 개의 단말 장치(10, 20)만이 도시되어 있으나, 단말 장치(90)의 개수는 이에 한정되지 않는다. 실시예에 따라서, 대화형 에이전트 시스템(1)은 셋 또는 그 이상의 단말 장치(미도시)를 더 포함할 수도 있다.The
복수의 단말 장치(90), 예를 들어 제1 단말 장치(10) 및 제2 단말 장치(20)는, 소정의 메시지를 송수신할 수 있도록 마련된다. 여기서, 메시지는 텍스트(기호, 문자, 숫자, 유니코드 등에서 정의된 도형 또는 이들 중 적어도 둘의 조합 등을 포함할 수 있다) 및/또는 화상 등을 포함할 수 있다. 여기서 화상은 정지 화상 및 동화상 중 적어도 하나를 포함할 수 있으며, 정지 화상 및 동화상 중 적어도 하나는, 예를 들어, 이모티콘을 포함할 수 있다.The plurality of
제1 단말 장치(10)는 사용자로부터 텍스트 및/또는 화상 등을 입력 받거나 및/또는 제2 단말 장치(20)로부터 전송된 텍스트 및/또는 화상을 수신하여 시각적 및/또는 청각적으로 출력할 수 있도록 마련된다. 제2 단말 장치(20)도 이와 동일하게 제1 단말 장치(10)로 텍스트 및/또는 화상을 송수신하거나 수신한 텍스트 및/또는 화상을 시각적 및/또는 청각적으로 출력할 수 있도록 마련된다.The first
단말 장치(90), 즉 제1 단말 장치(10) 및 제2 단말 장치(20)는, 예를 들어, 셀룰러 폰, 스마트 폰, 태블릿 피씨, 디지털 텔레비전, 셋톱 박스, 데스크톱 컴퓨터, 랩톱 컴퓨터, 내비게이션 장치, 개인용 디지털 보조기(PDA, Personal Digital Assistant), 휴대용 게임기, 두부 장착형 디스플레이(HMD, Head Mounted Display) 장치나 스마트 시계 등과 같은 웨어러블 장치, 음향 재생 장치(예를 들어, 인공지능 스피커 등) 및 이외 부호의 입력 및 수정이 가능한 다양한 장치 중 적어도 하나를 포함할 수 있다.The
감성 분석 장치(100)는 단말 장치(90) 사이에서 전송되는 메시지를 기반으로 감성 분석을 수행할 수 있다. 구체적으로, 감성 분석 장치(100)는 제1 단말 장치(10)에서 제2 단말 장치(20)로 전송되는 메시지 및/또는 제2 단말 장치(20)에서 제1 단말 장치(10)로 전송되는 메시지를 기반으로, 어느 하나의 단말 장치(10, 20)의 사용자에 대한 다른 단말 장치(20, 10)의 사용자에 대한 감성/감성을 분석하여 판단할 수 있다. 보다 구체적으로 예를 들어, 감성 분석 장치(100)는 제1 단말 장치(10)의 사용자에 대한 제2 단말 장치(20)의 사용자의 감성을 판단하거나, 및/또는 제2 단말 장치(20)의 사용자에 대한 제1 단말 장치(10)의 사용자의 감성을 판단할 수 있도록 마련된다. 이에 대한 상세한 내용은 후술한다.The
메시지 처리 장치(80)가 부재한 경우, 감성 분석 장치(100)는 메시지 처리 장치(80)의 기능도 함께 수행하도록 마련된 것일 수도 있다. 다시 말해서, 감성 분석 장치(100)는 메시지 처리 장치(80)와 일체형으로 구현될 수도 있다.When the
감성 분석 장치(100)는, 서버 장치 등과 같은 컴퓨팅 장치(100A, 100B)를 이용하여 구현 가능하며, 실시예에 따라서 하나의 컴퓨팅 장치(예를 들어, 100A)를 이용하여 구현될 수도 있고, 또는 둘 이상의 컴퓨팅 장치(100A, 100B)를 이용하여 구현될 수도 있다. 감성 분석 장치(100)를 둘 이상의 컴퓨팅 장치(100A, 100B)를 이용하여 구현하는 경우, 둘 이상의 컴퓨팅 장치(100A, 100B)는 내부적으로 별도로 마련된 네트워크 및/또는 외부의 네트워크(9)를 통하여 상호 데이터를 송수신하도록 연결된 것일 수도 있다.The
실시예에 따라서, 대화형 에이전트 시스템(1)은, 복수의 단말 장치(90) 및 감성 분석 장치(100)와 네트워크(9)를 통해 통신 가능하게 연결되는 메시지 처리 장치(80)를 더 포함할 수도 있다. 메시지 처리 장치(80)는, 단말 장치(90), 일례로 제1 단말 장치(10) 및 제2 단말 장치(20) 사이의 메시지의 전송, 암호화, 압축 및/또는 저장 등을 처리할 수 있도록 마련된다. 예를 들어, 메시지 처리 장치(80)는, 서버 장치 등과 같은 적어도 하나의 컴퓨팅 장치를 이용하여 구현될 수 있다.According to an embodiment, the
도 2는 감성 분석 장치의 일 실시예에 대한 블록도이고, 도 3은 프로세서 및 저장부의 일 실시예에 대한 블록도이다.FIG. 2 is a block diagram of an apparatus for analyzing emotions according to an exemplary embodiment, and FIG. 3 is a block diagram of an exemplary embodiment of a processor and a storage unit.
도 2에 도시된 바와 의하면, 감성 분석 장치(100)는, 일 실시예에 있어서, 통신부(110), 저장부(120) 및 프로세서(130)를 포함할 수 있다. 통신부(110), 저장부(120) 및 프로세서(130)는 상호 케이블 및/또는 금속선 등을 통해 상호 간에 전기적 신호를 전달함으로써 소정의 데이터를 송수신할 수 있도록 마련된다. 도 2는 감성 분석 장치(100)가 통신부(110), 저장부(120) 및 프로세서(130)만이 포함하는 일 실시예만을 도시하고 있으나, 감성 분석 장치(100)는 오직 이들만 포함하는 것은 아니다. 실시예에 따라서, 감성 분석 장치(100)는, 입력부나 출력부 등을 더 포함하는 것도 가능하다.As shown in FIG. 2, the
통신부(110)는, 복수의 단말 장치(90), 일례로 제1 단말 장치(10) 및 제2 단말 장치(20) 상호 간에 전달되는 메시지를 수신할 수 있다. 즉, 통신부(110)는 제1 단말 장치(10)로부터 제2 단말 장치(20)로 전달되는 모든 또는 일부의 메시지와, 제2 단말 장치(20)로부터 제1 단말 장치(10)로 전달되는 모든 또는 일부의 메시지를 수신하여 획득할 수 있다. 통신부(110)가 수신한 메시지는 저장부(120) 및 프로세서(130) 중 적어도 하나로 전달된다.The communication unit 110 may receive a message transmitted between a plurality of
통신부(110)는, 네트워크(9)에 접속 가능한 소정의 통신 모듈을 이용하여 구현 가능하며, 예를 들어, 통신 칩, 통신 케이블 연결 단자 및/또는 안테나 등을 포함하여 구현될 수 있다.The communication unit 110 may be implemented using a predetermined communication module that can be connected to the
저장부(120)는 감성 분석 장치(100)의 동작에 필요한 각종 데이터나 애플리케이션을 일시적 또는 비일시적으로 저장할 수 있도록 마련된다. 일 실시예에 따르면, 저장부(120)는, 도 3에 도시된 바와 같이 텍스트 기반 감성 사전 데이터베이스(121), 상황 기반 감성 사전 데이터베이스(122) 및 이모티콘 감성 사전 데이터베이스(123) 중 적어도 하나를 저장할 수도 있다. 또한, 저장부(120)는 프로세서(130)로부터 전달된 적어도 하나의 감성 값(124)을 저장할 수도 있고, 및/또는 프로세서(130)가 획득한 최종적인 분석 결과(129)를 저장할 수도 있다. 뿐만 아니라, 저장부(120)는 프로세서(130)의 동작에 필요한 적어도 하나의 애플리케이션(미도시, 일례로, 상황 정보 추출, 형태소 분석, 텍스트 정보 획득, 감성 분석 및/또는 종합 분석을 위해 설계된 적어도 하나의 프로그램 등)을 저장할 수도 있다. 여기서, 저장부(120)에 저장된 애플리케이션은, 설계자에 의해 미리 작성되어 저장부(120)에 저장된 것일 수도 있고, 또는 감성 분석 장치(100)가 통신부(110) 및 유무선 통신 네트워크(9)를 통해 접속 가능한 전자 소프트웨어 유통망을 통하여 획득 또는 갱신되는 것일 수도 있다.The
저장부(120)는, 예를 들어, 주기억장치 및 보조기억장치 중 적어도 하나를 포함할 수 있다. 주기억장치는 롬(ROM) 및/또는 램(RAM)과 같은 반도체 저장 매체를 이용하여 구현된 것일 수 있다. 롬은, 예를 들어, 통상적인 롬, 이프롬(EPROM), 이이프롬(EEPROM) 및/또는 마스크롬(MASK-ROM) 등을 포함할 수 있다. 램은 예를 들어, 디램(DRAM) 및/또는 에스램(SRAM) 등을 포함할 수 있다. 보조기억장치는, 플래시 메모리 장치, SD(Secure Digital) 카드, 솔리드 스테이트 드라이브(SSD, Solid State Drive), 하드 디스크 드라이브(HDD, Hard Disc Drive), 자기 드럼, 컴팩트 디스크(CD), 디브이디(DVD) 또는 레이저 디스크 등과 같은 광 기록 매체(optical media), 자기 테이프, 광자기 디스크 및/또는 플로피 디스크 등과 같이 데이터를 영구적 또는 반영구적으로 저장 가능한 적어도 하나의 저장 매체를 이용하여 구현될 수 있다.The
프로세서(130)는, 감성 분석 장치(100)의 동작에 필요한 적어도 하나의 연산, 판단, 처리 및/또는 제어 동작 등을 수행할 수 있다. 이 경우, 프로세서(130)는 저장부(120)에 저장된 애플리케이션을 구동시켜 상술한 동작을 수행할 수도 있다.The processor 130 may perform at least one operation, determination, processing, and/or control operation required for the operation of the
프로세서(130)는, 예를 들어, 적어도 하나의 중앙 처리 장치(CPU, Central Processing Unit), 마이크로 컨트롤러 유닛(MCU, Micro Controller Unit), 마이컴(Micom, Micro Processor), 애플리케이션 프로세서(AP, Application Processor), 전자 제어 유닛(ECU, Electronic Controlling Unit) 및/또는 각종 연산 처리 및 제어 신호의 생성이 가능한 다른 전자 장치 등을 포함할 수 있다. 이들 장치는 예를 들어 하나 또는 둘 이상의 반도체 칩 및 관련 부품을 이용하여 구현 가능하다.The processor 130 is, for example, at least one central processing unit (CPU, Central Processing Unit), a microcontroller unit (MCU, Micro Controller Unit), a Micom (Micro Processor), an application processor (AP, Application Processor). ), an electronic control unit (ECU), and/or other electronic devices capable of processing various operations and generating control signals. These devices can be implemented using, for example, one or more semiconductor chips and related components.
도 3에 도시된 바에 의하면, 프로세서(130)는 상황 정보 추출부(131), 형태소 분석부(132), 텍스트 정보 획득부(133), 감성 분석부(134), 종합 분석부(135) 및 분석 결과 처리부(136)를 포함할 수도 있다. 상황 정보 추출부(131), 형태소 분석부(132), 텍스트 정보 획득부(133), 감성 분석부(134), 종합 분석부(135) 및 분석 결과 처리부(136)는 논리적으로 구분되는 것일 수도 있고, 물리적으로 구분되는 것일 수도 있다. 실시예에 따라서, 이들 부분(131 내지 136) 중 적어도 하나는 생략되는 것도 가능하다. 예를 들어, 프로세서(130)는 분석 결과 처리부(136)를 포함하지 않을 수도 있다.3, the processor 130 includes a context
상황 정보 추출부(131)는, 상황에 대한 정보를 추출할 수 있다. 보다 구체적으로는 상황 정보 추출부(131)는 제1 단말 장치(10) 및 제2 단말 장치(20) 사이에 메시지에 따라서 제1 단말 장치(10) 및 제2 단말 장치(20)의 사용자 중 적어도 하나에 대한 상황 정보를 추출할 수 있다.The context
일 실시예에 의하면, 상황 정보 추출부(131)는 제1 단말 장치(10) 및 제2 단말 장치(20) 각각에 설치된 소정의 애플리케이션(예를 들어, 메시지 애플리케이션)이 구동되고, 2인 이상의 사용자가 이를 통해 메시지를 입력한 경우, 이에 응하여 상황 분석을 개시하도록 설계될 수도 있다.According to an embodiment, the context
일 실시예에 의하면, 상황 정보 추출부(131)는, 관계 친화형 정보를 분석할 수 있다. 여기서, 관계 친화형 정보는, 인구 동태적 정보, 심리 동태적 정보 및/또는 문장 입력 시간 정보 등을 포함할 수 있다. 다시 말해서, 상황 정보 추출부(131)는 메시지에 내포되거나 부가된 정보를 기반으로, 가족 관계, 성격 및/또는 상호 간의 친밀감 등과 같은 정보를 획득하여 상황 정보를 결정할 수도 있다. 이를 위해 상황 정보 추출부(131)는 메시지 정보 분석기를 이용할 수도 있다.According to an embodiment, the context
도 4는 정의된 변수의 일 실시예를 설명하기 위한 도면이다.4 is a diagram for describing an embodiment of a defined variable.
보다 구체적으로 예를 들어, 상황 정보 추출부(131)는, 도 4에 도시된 바와 같이 사용자 프로파일(user profile)이나 사용자 맥락(user context)을 추출할 수 있다. 여기서, 사용자 프로파일은, 사용자의 특성 등에 대한 정보를 포함할 수 있으며, 예를 들어, 제1 단말 장치(10)의 사용자의 성별이나 나이, 제2 단말 장치(20)의 사용자의 성별이나 나이 및/또는 제1 단말 장치(10) 및 제2 단말 장치(20) 각각의 사용자 사이의 관계 등을 포함할 수 있다. 또한, 필요에 따라서, 사용자 프로파일은, 제1 단말 장치(10) 및 제2 단말 장치(20) 각각의 사용자가 동성인지 또는 이성인지 여부 등에 대한 정보도 포함할 수 있다. 사용자 맥락은, 사용자의 주변 환경이나 사회, 문화적 맥락 등을 포함할 수 있으며, 예를 들어, 메시지를 전송한 시점 등을 포함할 수 있다. 보다 구체적으로 사용자 맥락은, 도 4에 도시된 바와 같이, 메시지의 전송 시간, 메시지 전송 시각의 특수 여부(예를 들어, 메시지 전송 시각이 심야 또는 새벽인지 여부 등), 메시지의 전송 요일, 메시지의 전송 날자 및/또는 메시지의 전송 빈도 등을 포함할 수 있다.More specifically, for example, the context
상황 정보 추출부(131)는 상황 정보의 추출을 위해서 제1 단말 장치(10) 및 제2 단말 장치(20) 각각에 저장된 정보를 이용하거나, 및/또는 제1 단말 장치(10) 및 제2 단말 장치(20) 사이의 메시지 통신을 중개하는 장치(일례로 메시지 처리 장치(80))에 저장된 정보를 이용할 수도 있다. 또한, 상황 정보 추출부(131)는 제1 단말 장치(10) 및 제2 단말 장치(20) 상호 간에 송수신되는 메시지의 전부 또는 일부를 이용하여 상황 정보의 추출하는 것도 가능하다.The context
상황 정보 추출부(131)가 추출한 상황 정보는, 종합 분석부(135)로 전달될 수 있다.The context information extracted by the context
형태소 분석부(132)는 제1 단말 장치(10) 및 제2 단말 장치(20) 상호 간에 송수신되는 메시지의 전부 또는 일부로부터 형태소를 분석하여 획득할 수 있다. 형태소 분석부(132)는 상황 정보 추출부(131)의 동작과 동시에 또는 순차적으로 동작을 수행할 수 있다. The
일 실시예에 의하면, 형태소 분석부(132) 역시 제1 단말 장치(10) 및 제2 단말 장치(20) 각각이 소정의 애플리케이션을 구동시키고, 2인 이상의 사용자가 소정의 애플리케이션을 통하여 메시지를 입력한 경우에 한하여 형태소 분석을 개시하는 것도 가능하다.According to an embodiment, the
도 5는 채팅 화면의 일 실시예에 대한 도면이다.5 is a diagram for an embodiment of a chat screen.
예를 들어, 제1 단말 장치(10)의 사용자는, 도 4에 도시된 바와 같이, 제1 단말 장치(10)의 입력부(도 13의 11-1 등)를 통해서, 적어도 하나의 메시지(T11 내지 T13)를 입력할 수 있다. 입력된 메시지(T11 내지 T13)는 네트워크(9)를 통하여 제2 단말 장치(20)로 전달된다. 입력된 메시지(T11 내지 T13)는 제1 단말 장치(10)의 출력부, 일례로 디스플레이(19M)에 표시될 수도 있다. 제2 단말 장치(20)의 사용자는 메시지(T11 내지 T13)의 수신에 응하여 적어도 하나의 응답 메시지(T21, T22)를 제2 단말 장치(20)의 입력부(미도시)를 통해 입력할 수 있으며, 응답 메시지(T21, T22)는 네트워크(9)를 통해 제1 단말 장치(10)로 전달된다. 응답 메시지(T21, T22)도 디스플레이(19M)에 순차적으로 표시될 수도 있다.For example, the user of the first
이와 같이 형태소 분석부(132)는 제1 단말 장치(10) 및 제2 단말 장치(20) 상호 간에 전달되는 메시지(T11 내지 T13, T21, T22)를 획득할 수 있다. 이 경우, 형태소 분석부(132)는, 실시예에 따라서, 통신부(110)를 통해서 각각의 단말 장치(10, 20)로부터 메시지(T11 내지 T13, T21, T22)를 직접 획득할 수도 있고, 및/또는 제1 단말 장치(10) 및 제2 단말 장치(20) 사이의 메시지 통신을 중개하는 장치(일례로 메시지 처리 장치(80))로부터 메시지(T11 내지 T13, T21, T22)를 수신하여 획득할 수도 있다.In this way, the
형태소 분석부(132)는, 획득한 메시지(T11 내지 T13, T21, T22)로부터 형태소를 분석하여 추출할 수 있다. 형태소는 더 이상 분해 불가능한 의미를 갖는 가장 작은 말의 단위를 의미한다. 형태소 분석부(132)는 사용자가 입력한 메시지의 각 어절로부터 자립 형태소나 의존 형태소 등을 분석, 분류 및 추출하여 획득할 수 있다. 실시예에 따라서, 전달되는 메시지(T11 내지 T13, T21, T22)가 음성의 형태인 경우, 형태소 분석부(132)는 메시지(T11 내지 T13, T21, T22)를 텍스트의 형태로 먼저 변환한 후, 변환된 텍스트로부터 형태소를 추출할 수도 있다. 또한, 만약 획득한 메시지(T11 내지 T13, T21, T22)가 화상(예를 들어, 정지 화상 또는 동화상)을 포함하는 경우라면, 형태소 분석부(132)는, 화상에 대해선 형태소 분석을 수행하지 않고, 화상이라는 정보를 부가할 수도 있다.The
형태소 분석부(132)가 분석하여 추출한 형태소는 텍스트 정보 획득부(133) 및 감성 분석부(134) 중 적어도 하나로 전달될 수 있다.The morphemes analyzed and extracted by the
텍스트 정보 획득부(133)는, 형태소 분석 결과를 기반으로 텍스트에 대한 정보를 획득할 수 있다. 예를 들어, 도 4에 도시된 바와 같이, 텍스트 정보 획득부(133)는 메시지 내의 어절 수, 메시지 내의 형태소 수, 메시지 내에서의 이모티콘 등의 사용 여부 및 사용 횟수, 감성어의 존재 여부, 긍정어의 개수, 부정어의 개수, 존칭어의 사용 여부 및 사용한 존칭어, 기호의 사용 여부 및 사용한 기호(예를 들어, 마일드(mild) 기호 횟수, 터치(touch) 기호 횟수 등) 및/또는 특별한 화상의 포함 여부 등에 대한 정보를 추출할 수 있다.The text
텍스트 정보 획득부(133)가 획득한 텍스트에 대한 정보는 종합 분석부(135)로 전달될 수 있다.Information on the text acquired by the text
감성 분석부(134)는 형태소 분석부(132)가 추출한 형태소를 수신하고 수신한 형태소를 기반으로 감성 분석을 수행할 수 있다.The
일 실시예에 의하면, 감성 분석부(134)는 저장부(120)에 저장된, 텍스트 기반 감성 사전 데이터베이스(121), 상황 기반 감성 사전 데이터베이스(122) 및 이모티콘 감성 사전 데이터베이스(123) 중 적어도 하나를 이용하여 감성 분석을 수행할 수 있다. According to an embodiment, the
구체적으로, 감성 분석부(134)는 텍스트 기반 감성 사전 데이터베이스(121)을 기반으로 감성 값을 추출할 수 있다. 텍스트 기반 감성 사전 데이터베이스(121)은 특정한 단어에 대한 감성을 수치적으로 나타낸 데이터들의 집합이다. 감성 분석부(134)는 텍스트 기반 감성 사전 데이터베이스(121)의 단어나 형태소를, 추출한 단어나 형태소와 비교하고, 비교 결과에 따라서 메시지 내의 문장 각각으로부터 기본 감성어를 검출할 수 있다. 기본 감성어는 기본 긍정어 및 기본 부정어를 포함할 수도 있다.Specifically, the
도 6은 감성 값의 연산을 위한 수식의 일 실시예를 도시한 도면이다.6 is a diagram illustrating an embodiment of an equation for calculating an emotion value.
이와 같이 기본 감성어가 검출되면, 감성 분석부(134)는 감성 값을 연산할 수 있다. 예를 들어, 감성 분석부(134)는, 도 6에 도시된 바와 같이 수식을 기반으로 감성 값을 연산할 수 있다. 예를 들어, 감성 분석부(134)는 긍정어 하나에 +1을 대응시키고, 부정어 하나에 -1을 대응시킨 후, 이들 각각에 대응하는 값의 총합을 각각 연산하고, 연산된 총합을 합산하고, 합산된 값을 모든 감성어의 개수의 제곱근으로 나뉘어 기본 감성어에 대응하는 감성 값(제1 감성 값)을 결정할 수도 있다.When the basic sentiment word is detected in this way, the
도 7은 감성 단어 분류 색인 결과의 일례를 설명하기 위한 도면이다.7 is a diagram for explaining an example of a result of an emotional word classification index.
또한, 감성 분석부(134)는 상황 기반 감성 사전 데이터베이스(122)을 기반으로 대인 관계 상황 고빈도 감성어에 대응하는 감성 값을 추출할 수 있다. 상황 기반 감성 사전 데이터베이스(122)는 대인 관계 상황 고빈도 감성어(들)로 이루어진 데이터 집단을 의미한다. 대인 관계 상황 고빈도 감성어는, 메시지 프로그램 등을 통한 대화 상황에서 높은 빈도로 등장하는 감성어를 의미하며, 형태소 등의 형태로 정의된 것일 수 있다. 대인 관계 상황 고빈도 감성어(들)는, 감성 분석에 있어서, 특별한 감성 유무를 분석하기 위한 기준으로 이용될 수 있다. 감성 분석부(134)는 상황 기반 감성 사전 데이터베이스(122)의 단어나 형태소를, 추출한 단어나 형태소와 비교하고, 이를 기반으로 메시지(대화문)에 대인 관계 상황 고빈도 감성어가 존재하는지 여부를 판단할 수 있다. In addition, the
이 경우, 감성 분석부(134)는 메시지들 내에 대인 관계 상황 고빈도 감성어의 존재하는지 여부에 따라 참값(True) 또는 거짓 값(false)를 리턴할 수 있다. 또한, 감성 분석부(134)는 메시지 내에서 고빈도 긍정어 및 고빈도 부정어를 별도로 기록할 수도 있다. 고빈도 긍정어는, 대인 관계 상황 고빈도 감성어 중에서 높은 빈도로 발생되는 긍정어를 포함하고, 고빈도 부정어는 대인 관계 상황 고빈도 감성어 중에서 높은 빈도로 발생되는 부정어를 포함한다. 여기서, 대인 관계 상황 고빈도 긍정어와 부정어는 설계자 또는 사용자의 임의적 선택에 따라 다양하게 정의 가능하다. 예를 들어, 설계자는 각각 38개의 대인 관계 상황 고빈도 긍정어와 부정어를 정의할 수 있다. 이 경우, 대인 관계 상황 고빈도 감성어의 총 개수는 76개가 된다.In this case, the
각 38개의 대인 관계 상황 고빈도 긍정어와 부정어가 정의된 경우에 있어서, 감성 분석부(134)는, 도 6에 도시된 바와 같이, 다양한 긍정어 및 다양한 부정어를 검출하고 이들을 계수하여 빈도를 연산할 수 있다. 보다 상세하게는 감성 분석부(134)는, [좋-], [가능], [재미있-] 및 [^^] 등과 같은 긍정어를 검출하고, 이들 각각의 긍정어가 메시지 내에서 출현한 빈도를 계수할 수 있다. 예를 들어, [좋-], [가능], [재미있-] 및 [^^]는 순차적으로 619, 136, 103 및 980회 등장한 것으로 계수될 수 있으며, 전체 메시지 내의 문장 숫자가 33161개인 경우, 이들의 빈도는 각각 0.018667, 0.004101, 0.003106 및 0.029553으로 연산될 수 있다. 또한, 감성 분석부(134)는 [힘들-], [문제], [고민] 및 [ㅠ] 등과 같은 부정어를 검출하고, 이들 각각의 부정어가 메시지 내에서 출현한 빈도를 계수할 수도 있다. 예를 들어, [힘들-], [문제], [고민] 및 [ㅠ]는 각각 98, 91, 62, 1897회로 계수될 수 있으며, 이들의 빈도는 각각 0.002955, 0.002744, 0.001870 및 0.057206으로 결정될 수 있다. When each 38 interpersonal relationship situations high frequency positive words and negative words are defined, the
감성 분석부(134)는 감성어(즉, 고빈도 긍정어 및 고빈도 부정어)가 검출되면, 도 6에 도시된 바와 같은 수학식을 이용하여 감성 값을 계산할 수 있다. 상세하게는, 감성 분석부(134)는 도 7에 도시된 바와 같이 긍정어 하나에 대응하는 감성 값을 +1로 정의하고, 부정어 하나에 대응하는 감성 값을 -1로 정의한다. 이들 긍정어에 대응하는 감성 값의 총합 및 부정어에 대응하는 감성 값의 총합을 각각 연산한 후 이들 총합 합산한다. 순차적으로 이들 총합의 합산 결과를, 모든 감성어의 개수(즉, 긍정어의 개수 및 부정어의 개수의 합)의 루트 값으로 나눈다. 이에 따라 대인 관계 상황 고빈도 감성어에 대응하는 감성 값이 결정될 수 있다.When a
한편, 감성 분석부(134)는 상황 기반 감성 사전 데이터베이스(122)의 열람 결과, 상황 기반 감성 사전 데이터베이스(122)로부터 대인 관계 상황 고빈도 감성어(들)이 검출되지 않는 경우라면, 대인 관계 상황 고빈도 감성어에 대응하는 감성 값은 결정하지 않을 수 있다.On the other hand, the
또한, 감성 분석부(134)는, 메시지 내에 이모티콘이 존재하는 경우, 이모티콘 감성 사전 데이터베이스(123)를 열람하여 감성 값을 결정할 수 있다. 상술한 바와 동일하게 부정적인 이모티콘의 경우 음의 값을 대응시킨 후 그들의 합산을 연산하고, 긍정적인 이모티콘의 경우 양의 값을 대응시킨 후 그들의 합산을 연산하고, 각각의 합산을 더한 후, 이를 이모티콘의 총 개수의 제곱근으로 나누어 이모티콘에 대응하는 감성 값을 획득할 수도 있다. 물론 메시지 내에 이모티콘이 존재하지 않는 경우, 감성 분석부(132)는 이모티콘에 대응하는 감성 값을 획득하지 않을 수 있다.In addition, when an emoticon exists in the message, the
감성 분석부(134)에 의해 기본 감성어에 대응하는 감성 값, 대인 관계 상황 고빈도 감성어에 대응하는 감성 값 및 이모티콘에 대응하는 감성 값 중 적어도 하나가 획득되면, 기본 감성어에 대응하는 감성 값, 대인 관계 상황 고빈도 감성어에 대응하는 감성 값 및 이모티콘에 대응하는 감성 값 중 적어도 하나는 종합 분석부(135)로 전달될 수 있다. 실시예에 따라서, 감성 분석부(134)에 의해 연산된 감성 값들은 저장부(120)로 전달될 수 있으며, 저장부(120)는 이들 감성 값(124)을 일시적 또는 비일시적으로 저장될 수도 있다.When at least one of an emotion value corresponding to a basic emotional word, an emotional value corresponding to a high frequency emotional word in an interpersonal relationship, and an emotional value corresponding to an emoticon is obtained by the
도 8은 누적된 데이터의 일례에 대한 도표이다. 8 is a chart of an example of accumulated data.
종합 분석부(135)는, 상황 정보 추출부(131)가 획득한 상황에 대한 정보, 텍스트 정보 획득부(133)가 획득한 텍스트에 대한 정보 및 감성 분석부(134)에 의해 획득된 감성 값(들) 중 적어도 하나를 기반으로 총체적 상황 기반 감성 분석을 수행할 수 있다.The
예를 들어, 종합 분석부(135)는 도 8에 도시된 바와 같이 상황 정보 추출부(131), 텍스트 정보 획득부(133) 및 감성 분석부(134)에서 전달한 적어도 하나의 데이터를 조합하여 감성 분석 테이블(135a)을 구축할 수 있다. 감성 분석 테이블(135a)은 상술한 각종 정보, 예를 들어, 제1 단말 장치(10)의 사용자에 대한 정보, 제2 단말 장치(20)의 사용자와 의 관계에 대한 정보, 텍스트 내용, 텍스트의 어절이나 형태소 숫자, 사용된 감탄사, 이모티콘 사용 여부, 마일드 기호나 터치 기호의 개수, 감성 분석 결과 및/또는 메시지 전송 시간 등을 포함하여 구축된 것일 수 있다. 구축된 테이블(135a) 역시 저장부(120)에 일시적 또는 비일시적으로 저장 가능하다.For example, the
종합 분석부(135)는, 일 실시예에 있어서, 기계 학습을 기반으로 상황 기반 감성 분석을 수행할 수도 있다. 여기서, 기계 학습은, 예를 들어, 다층 퍼셉트론(MLN), 심층 신경망(DNN), 콘볼루션 신경망(CNN), 순환 신경망(RNN), 콘볼루션 순환 신경망(CRNN), 심층 신뢰 신경망(DBN) 및 심층 Q-네트워크(Deep Q-Networks) 중 적어도 하나의 알고리즘을 이용하여 구현 가능하다. 종합 분석부(135)는, 상술한 감성 분석 테이블(135a)을 소정의 기계 학습 알고리즘에 적용함으로써, 상황이나 관계 기반의 감성 상태 판단 알고리즘을 학습시키고, 이를 이용하여 제1 단말 장치(10)의 사용자에 대한 제2 단말 장치(20)의 사용자의 감성 및/또는 제2 단말 장치(20)의 사용자에 대한 제1 단말 장치(10)의 사용자의 감성을 결정할 수 있다.In one embodiment, the
도 9는 감성 분석 결과에 따라 획득 가능한 여러 상태의 일례를 설명하기 위한 도면이다.9 is a diagram for explaining an example of various states that can be obtained according to a result of an emotion analysis.
이에 따라, 종합 분석부(135)는, 감성 상태를 결정할 수 있다. 예를 들어, 도 9에 도시된 바와 같이, 종합 분석부(135)는 제1 단말 장치(10) 및 제2 단말 장치(20)의 사용자 각각의 감성 상태를 9개의 감성 상태(129)로 구분하여 결정할 수 있으며, 보다 구체적으로는 제1 단말 장치(10)의 사용자 및 제2 단말 장치(20)의 사용자 각각의 감성 상태를, 긍정-긍정, 긍정-중립, 긍정-부정, 중립-긍정, 중립-중립, 중립-부정, 부정-긍정, 부정-중립 및 부정-부정 중 어느 하나로 결정할 수 있다.Accordingly, the
종합 분석부(135)의 판단 결과(129)는 저장부(120)로 전달되어, 일시적 또는 비일시적으로 저장될 수 있다.The determination result 129 of the
분석 결과 처리부(136)는 종합 분석부(135)의 판단 결과(129)를 기반으로 감성 분석 결과를 사용자에게 제공하도록 하거나 및/또는 이를 기반으로 통계적 분석을 더 수행하고 통계적 분석 결과를 사용자에게 제공하도록 할 수 있다.The analysis
도 10은 감성 분석 결과를 채팅 화면에 나타나는 일 실시예를 도시한 도면이다.FIG. 10 is a diagram illustrating an exemplary embodiment in which emotion analysis results are displayed on a chat screen.
예를 들어, 도 10에 도시된 바와 같이, 제1 단말 장치(10)로부터 제2 단말 장치(20)로 메시지(T11 내지 T13)가 전송될 때마다 프로세서(130)의 상황 정보 추출부(131), 형태소 분석부(132), 텍스트 정보 획득부(133), 감성 분석부(134), 종합 분석부(135) 및 분석 결과 처리부(136)가 동작하여 각 메시지(T11 내지 T13)에 대한 감성이 분석될 수 있다. 감성 상태가 분석되면, 분석 결과 처리부(136)는 이를 기반으로 각 메시지(T11 내지 T13)에 대한 감성의 분석 결과(감성 상태 등, E11 내지 E13)가 디스플레이(19M) 상에 표시되도록 제어할 수 있다. 예를 들어, 각 메시지(T11 내지 T13)의 하단이나 측면에 각 메시지(T11 내지 T13)에 대응하는 분석 결과(E11 내지 E13)가 기호, 문자, 도형 및/또는 화상(정지 화상 또는 동화상을 포함할 수 있으며, 이모티콘을 포함할 수도 있다) 등의 형태로 표시될 수 있다.For example, as shown in FIG. 10, each time a message (T11 to T13) is transmitted from the first
또한, 반대로 제2 단말 장치(20)로부터 제1 단말 장치(10)로 메시지(T21, T22)가 전송될 때마다 이들(131 내지 136)은 동일하게 동작하여 각 메시지(T21, T22)에 대한 감성 분석 결과가 도출될 수도 있으며, 이에 따른 감성 분석 결과(E21, E22) 역시 기호, 문자, 도형 및/또는 화상 등의 형태로 디스플레이(19M)에 표시될 수 있다.In addition, on the contrary, whenever a message (T21, T22) is transmitted from the second
이에 따라서 제1 단말 장치(10)의 사용자 또는 제2 단말 장치(20)의 사용자는 전달되는 메시지(T11 내지 T13, T21, T22)에 대응하는 감성 상태를 용이하게 파악할 수 있게 된다.Accordingly, the user of the first
도 11은 인물 중심의 감성 분석 결과 제공 화면의 일 실시예를 도시한 도면이다.11 is a diagram illustrating an embodiment of a screen for providing a result of a person-centered emotion analysis.
일 실시예에 의하면, 분석 결과 처리부(136)는, 도 8의 테이블(135a) 등을 기반으로 통계적 처리를 수행하여, 도 11에 도시된 바와 같이, 어느 하나의 사용자(일례로 제2 단말 장치(20)의 사용자)에 대한 다른 하나의 사용자(일례로 제1 단말 장치(10)의 사용자)의 감성 상태에 대한 분석 결과(G1, 즉, 인물 중심의 감성 분석 결과)를 제1 단말 장치(10) 및 제2 단말 장치(20) 중 적어도 하나에 표시할 수 있다. 예를 들어, 분석 결과 처리부(136)는 제1 단말 장치(10) 및 제2 단말 장치(20) 사이의 메시지를 기반으로 전체적인 메시지에서 긍정적으로 판단된 부분의 비율과, 부정적으로 판단된 부분의 비율과, 중립적으로 판단된 부분의 비율을 표시할 수 있다. 이 경우, 분석 결과 처리부(136)는 긍정적으로 판단된 부분의 비율과, 부정적으로 판단된 부분의 비율과, 중립적으로 판단된 부분의 비율을 도 11에 도시된 바와 같이 그래프(G1, 원형 그래프, 막대형 그래프, 선형 그래프, 방사형 그래프 및/또는 입체 그래프 등을 포함할 수 있다)의 형태로 표시할 수도 있다.According to an embodiment, the analysis
이 경우, 분석 결과 처리부(136)는, 미리 정의된 설정을 기반으로 분석 결과를 표시할 수도 있다. 예를 들어, 분석 결과 처리부(136)는, 사용자에 의해 미리 정의된 기간(예를 들어, 2개월) 동안에 송수신된 메시지를 기반으로 수행된 분석 결과를 표시하도록 할 수도 있다. 실시예에 따라서, 분석 결과 처리부(136)는, 사용자에 의해 미리 정의된 기간이 부재하는 경우, 디폴트로 설정된 기간(예를 들어, 1개월) 동안 송수신된 메시지를 기반으로 하는 분석 결과를 표시할 수도 있다.In this case, the analysis
도 12는 시계열 중심의 감성 분석 결과 제공 화면의 일 실시예를 도시한 도면이다.12 is a diagram illustrating an embodiment of a screen for providing a result of a sentiment analysis centered on a time series.
다른 실시예에 의하면, 분석 결과 처리부(136)는, 장시간 동안 누적된 데이터를 기반으로 통계적 처리를 수행하고, 도 12에 도시된 바와 같이 시계열 중심으로 감성 분석 결과(G2)를 제1 단말 장치(10) 및 제2 단말 장치(20) 중 적어도 하나에 표시할 수도 있다. 이에 따라 제1 단말 장치(10)의 사용자 및 제2 단말 장치(20)의 사용자 중 적어도 하나는, 시계열 중심의 감성 분석 결과(G2)를 제공받을 수 있게 된다. 예를 들어, 분석 결과 처리부(136)는, 메시지로부터 분석된 감성(긍정적 감성, 중립적 감성 및 부정적 감성 중 적어도 하나)의 정도나 개수를 시간적으로 순서로 배치하고 이를 선형 그래프 형태로 표현하여 시간에 따른 감성의 변화를 화면(19M) 상에 표시할 수도 있다.According to another embodiment, the analysis
이 경우에도, 분석 결과 처리부(136)는, 미리 정의된 설정을 기반으로 시계열 중심으로 감성 분석 결과(S2)를 표시할 수도 있다. 예를 들어, 분석 결과 처리부(136)는, 사용자에 의해 미리 정의된 기간(예를 들어, 2개월)이나 설계자에 의해 임의적으로 설정된 디폴트 기간(예를 들어, 1개월) 동안 송수신된 메시지를 이용하여 감성 분석한 결과를 시계열로 표시할 수도 있다. Even in this case, the analysis
이상 감성 분석 장치(100) 또는 단말 장치(90)에 의해 감성 분석이 수행되는 일 실시예에 대해 설명하였으나, 감성 분석 장치(100) 또는 단말 장치(10 내지 30)의 동작은 상술한 실시예에 한정되는 것은 아니다. 예를 들어, 감성 분석 장치(100)의 동작의 전부 또는 일부는, 다른 장치(예를 들어, 단말 장치(10 내지 30))에 의해 수행되는 것도 가능하다. 구체적으로 예를 들어, 도 3에는 상황 정보 추출, 형태소 분석, 텍스트 정보 분석, 감성 분석 및 종합적인 분석 모두가 감성 분석 장치(100)의 프로세서(130)에 의해 수행되는 실시예에 대해 도시되어 있으나, 상황 정보 추출, 형태소 분석, 텍스트 정보 분석, 감성 분석 및 종합적인 분석 중 일부(예를 들어, 상황 정보 추출이나 형태소 분석 등)는 단말 장치(90; 10, 20)에 의해 처리되도록 설계하는 것도 가능하다.As described above, an embodiment in which the emotion analysis is performed by the
이하 감성 분석 장치의 동작을 수행하는 단말 장치의 일 실시예에 대해 설명하도록 한다.Hereinafter, an embodiment of a terminal device that performs an operation of the emotion analysis device will be described.
도 13은 단말 장치의 일 실시예에 대한 도면이다.13 is a diagram for an embodiment of a terminal device.
상술한 감성 분석 장치는 오직 단말 장치(30)만을 이용하여도 구현 가능하다. 이 경우, 단말 장치(30)는, 예를 들어, 셀룰러 폰, 스마트 폰, 태블릿 피씨, 디지털 텔레비전, 셋톱 박스, 데스크톱 컴퓨터, 랩톱 컴퓨터, 내비게이션 장치, 개인용 디지털 보조기, 휴대용 게임기, 웨어러블 장치, 음향 재생 장치 및 이외 부호의 입력 및 수정이 가능한 다양한 장치 중 적어도 하나를 포함할 수 있다.The above-described emotion analysis device can be implemented by using only the
도 13에 도시된 바를 참조하면, 단말 장치(30)는 일 실시예에 있어서, 입력부(31-1), 출력부(31-2), 통신부(31-3), 저장부(32) 및 프로세서(35)를 포함할 수 있다.13, the
입력부(31-1)는, 다른 단말 장치(미도시)로 전송될 메시지를 사용자로부터 입력받을 수 있다. 구체적으로 입력부(31-1)는, 사용자로부터 메시지를 수신하고, 수신한 메시지를 소정의 형태(예를 들어, 텍스트나 화상의 형태)로 프로세서(35) 및/또는 통신부(31-3)로 전달할 수 있다. 입력부(31-1)는, 예를 들어, 키보드 장치, 마우스 장치, 마이크로 폰, 터치 스크린의 터치 감지 센서, 스마트 펜, 스마트 패드, 터치 패드, 동작 인식 센서, 광학 인식 센서, 데이터 입력 단자 및/또는 이외 사용자로부터 데이터를 입력 받을 수 있는 다양한 장치 등을 포함할 수 있다. The input unit 31-1 may receive a message from a user to be transmitted to another terminal device (not shown). Specifically, the input unit 31-1 receives a message from the user, and transmits the received message to the
출력부(31-2)는 단말 장치(30)의 동작 결과 생성된 각종 정보나 데이터 등을, 문자, 화상(정지 화상이나 동화상 등), 음향, 음성 및/또는 이외 다양한 방법을 통하여 외부로 출력할 수 있다. 예를 들어, 출력부(31-2)는 단말 장치(30)가 수신한 메시지 및/또는 프로세서(35)에 의해 획득된 감성 분석 결과를 문자나 음성의 형태로 출력할 수 있다. 출력부(31-2)는, 예를 들어, 디스플레이 패널, 발광 장치, 인쇄 장치 및/또는 스피커 장치 등을 통해 구현될 수 있다.The output unit 31-2 outputs various types of information or data generated as a result of the operation of the
통신부(31-3)는, 네트워크(9)에 접속해서, 다른 단말 장치에 사용자의 메시지를 송신하거나 및/또는 다른 단말 장치로부터 소정의 메시지를 수신할 수 있다. 통신부(31-3)에 의해 수신된 메시지는 프로세서(35)로 전달될 수 있다. 또한, 실시예에 따라서, 통신부(31-3)에 의해 전송되는 메시지도 프로세서(35)로 전달될 수도 있다.The communication unit 31-3 can connect to the
저장부(32)는 단말 장치(30)의 동작에 필요한 애플리케이션이나 데이터 등을 일시적 또는 비일시적으로 저장할 수 있다. 저장부(32)는, 상술한 감성 분석 장치(100)의 저장부(120)와 동일하게 주기억장치 및 보조기억장치 중 적어도 하나를 포함할 수 있으며, 예를 들어, 반도체 메모리 장치나 자기 디스크 저장 장치 등을 이용하여 구현될 수 있다. 또한, 저장부(32)는, 도 3에 도시된 바와 같이 텍스트 기반 감성 사전 데이터베이스(121), 상황 기반 감성 사전 데이터베이스(122) 및 이모티콘 감성 사전 데이터베이스(123) 중 적어도 하나를 저장할 수도 있다. The
프로세서(35)는, 단말 장치(30)의 동작에 필요한 적어도 하나의 연산, 판단, 처리 및/또는 제어 동작 등을 수행할 수 있으며, 필요에 따라서 저장부(32)의 애플리케이션을 구동시켜 이와 같은 동작을 처리할 수도 있다. 프로세서(35)는, 상술한 바와 같이, 중앙 처리 장치나 애플리케이션 프로세서 등을 이용하여 구현 가능하다.The
일 실시예에 의하면, 단말 장치(30)의 프로세서(35)는, 감성 분석 장치(100)의 프로세서(130)와 동일하게 감성 분석 결과를 획득하도록 마련된 것일 수 있다. 구체적으로 단말 장치(30)의 프로세서(35)는, 도 3 내지 도 12를 참조하여 설명한 바와 동일한 방법을 이용하여 또는 일부 변형된 방법을 이용하여, 상황에 대한 정보를 추출하고, 메시지의 전부 또는 일부로부터 형태소를 분석하여 획득하고, 형태소 분석 결과를 기반으로 텍스트에 대한 정보를 획득하고, 감성 분석을 수행하여 감성 값(예를 들어, 기본 감성어에 대응하는 감성 값, 대인 관계 상황 고빈도 감성어에 대응하는 감성 값 및 이모티콘에 대응하는 감성 값 중 적어도 하나)을 추출하고, 및/또는 상황에 대한 정보, 텍스트에 대한 정보 및 감성 값(들) 중 적어도 하나를 기반으로 총체적 상황 기반 감성 분석을 수행할 수도 있다. 이 경우, 프로세서(35)는 감성 분석을 수행하기 위해, 저장부(32)에 저장된 텍스트 기반 감성 사전 데이터베이스, 상황 기반 감성 사전 데이터베이스 및 이모티콘 감성 사전 데이터베이스 중 적어도 하나를 이용하는 것도 가능하다. 프로세서(35)의 구체적인 구조, 기능 및 동작은 이미 자세히 설명한 바 있으므로, 이하 생략하도록 한다.According to an exemplary embodiment, the
이하 도 14 내지 도 18을 참조하여 감성 분석 방법의 일 실시예에 대해서 설명하도록 한다.Hereinafter, an embodiment of an emotion analysis method will be described with reference to FIGS. 14 to 18.
도 14는 감성 분석 방법의 일 실시예에 대한 흐름도이다.14 is a flowchart of an embodiment of a method for analyzing emotions.
도 14에 도시된 바에 따르면, 감성 분석 방법은 일 실시예에 있어서, 상황 정보 획득 단계(151), 텍스트 정보 획득 단계(152), 감성 사전 기반의 감성 분석 수행 단계(153) 및 획득한 데이터 기반의 종합적 분석 수행 및 결과 획득 단계(154)를 포함할 수 있으며, 또한 획득한 결과로부터 감성 정보 가공 처리 및 제공 단계(155)를 더 포함할 수 있다.As shown in FIG. 14, in one embodiment, the emotion analysis method includes a context
여기서 텍스트 정보 획득 단계(152) 및 감성 사전 기반의 감성 분석 수행 단계(153) 중 적어도 하나는, 상황 정보 획득 단계(151)와 동시에 수행될 수도 있고, 동 단계(151)에 선행하여 수행될 수도 있으며, 또는 동 단계(152)에 후행하여 수행될 수도 있다. 예를 들어, 상황 정보 획득 단계(151)와 텍스트 정보 획득 단계(152)는 대략 동시에 수행되고, 감성 사전 기반의 감성 분석 수행 단계(153)는 상황 정보 획득 단계(151)에 후행하여 수행될 수도 있다.Here, at least one of the text
상황 정보 획득 단계(151), 텍스트 정보 획득 단계(152), 감성 사전 기반의 감성 분석 수행 단계(153), 획득한 데이터 기반의 종합적 분석 수행 및 결과 획득 단계(154) 및 감성 정보 가공 처리 및 제공 단계(155)는, 각각 단말 장치 및 단말 장치에 연결된 감성 분석 장치 중 적어도 하나에 의해 수행 가능하다. 구체적으로 상술한 단계(151 내지 155)는 모두 단말 장치에 의해 수행될 수도 있고 또는 감성 분석 장치에 의해 수행될 수도 있다. 또한, 상술한 단계(151 내지 155) 중 어느 일부는 단말 장치에 의해 수행되고, 다른 일부는 감성 분석 장치에 의해 수행될 수도 있다. 보다 상세하게 예를 들어, 감성 분석 장치는 상황 정보 획득 단계(151), 텍스트 정보 획득 단계(152), 감성 사전 기반의 감성 분석 수행 단계(153), 획득한 데이터 기반의 종합적 분석 수행 및 결과 획득 단계(154)을 수행하고, 단말 장치는 감성 정보 가공 처리 및 제공 단계(155)를 수행하도록 설계되는 것도 가능하다.Context
도 15는 감성 분석 방법의 개시 과정의 일 실시예에 대한 보다 상세한 흐름도이다.15 is a more detailed flowchart of an embodiment of a process of initiating an emotion analysis method.
상세하게는 도 15에 도시된 바와 같이, 복수의 단말 장치 중 적어도 하나의 애플리케이션(예를 들어, 메시지 전송 애플리케이션) 또는 복수의 단말 장치 모두의 애플리케이션이 구동되고(160), 사용자는 애플리케이션을 이용하여 텍스트를 입력할 수 있다(161).In detail, as shown in FIG. 15, at least one application (eg, a message transmission application) among a plurality of terminal devices or an application of all of the plurality of terminal devices is driven (160), and the user uses the application. Text can be entered (161).
만약 2인 이상의 사용자가 애플리케이션을 이용하여 텍스트를 입력하였는지 여부를 판단하고(162), 만약 2인 이상의 사용자가 텍스트를 입력한 경우라면(162의 예) 상황 정보의 획득이 개시된다(163). 또한, 이와 더불어 텍스트 정보 획득이나 감성 분석을 위한 형태소 분석도 개시될 수 있다.If two or more users input text using the application (162), if two or more users input text (example of 162), acquisition of context information is started (163). In addition, morpheme analysis for acquiring text information or emotional analysis may also be initiated.
상황 정보의 획득의 개시에 응하여, 복수의 단말 장치 중 적어도 하나에 관한 상황 정보가 단말 장치 및/또는 감성 분석 장치에 의해 획득된다(151). 상황 정보의 획득은 먼저 복수의 단말 장치 사이에 메시지의 전송이 개시된 경우(예를 들어, 채팅이 수행되는 경우)에 수행될 수도 있다. In response to the start of obtaining the context information, context information on at least one of the plurality of terminal devices is acquired by the terminal device and/or the emotion analysis device (151). The acquisition of context information may be performed when transmission of a message is first started between a plurality of terminal devices (eg, when chatting is performed).
보다 구체적으로 상황 정보의 획득은, 인구 동태적 정보, 심리 동태적 정보 및/또는 문장 입력 시간 정보 등을 분석함으로써 수행될 수도 있다. 보다 구체적으로 상황 정보는, 복수의 단말 장치 중 적어도 하나의 사용자의 프로파일이나 또는 사용자 맥락 등을 추출하여 획득될 수도 있다. 구체적으로 각각의 사용자의 성별이나 나이, 사용자 사이의 관계, 동성/이성 여부, 사용자의 메시지 전송 시점 등에 대한 정보 등이 획득될 수 있다. 상황 정보의 추출 및 획득은 각 단말 장치에 저장된 정보를 이용하거나 또는 이들 단말 장치의 메시지 전송을 처리하는 장치로부터 획득 가능한 정보를 기반으로 수행될 수 있다.More specifically, the acquisition of context information may be performed by analyzing demographic information, psychodynamic information, and/or sentence input time information. More specifically, the context information may be obtained by extracting a profile or a user context of at least one user among a plurality of terminal devices. Specifically, information about the sex or age of each user, a relationship between users, whether they are of the same sex/reason, and when a user transmits a message may be obtained. The extraction and acquisition of context information may be performed using information stored in each terminal device or based on information obtainable from a device that processes message transmission of these terminal devices.
또한, 복수의 단말 장치 사이에서 전송된 적어도 하나의 메시지를 기반으로 텍스트 정보가 획득될 수 있다(152). 이 경우, 텍스트 정보의 획득을 위해서, 먼저 적어도 하나의 메시지에 대한 형태소 분석이 수행될 수 있다(도 16의 171 등). 형태소가 적어도 하나의 메시지로부터 추출되면, 이를 기반으로 메시지(일례로 텍스트)에 대한 정보가 획득된다. 구체적으로는 메시지 내의 어절 수, 메시지 내의 형태소 수, 메시지 내에서의 이모티콘 등의 사용 여부 및 사용 횟수, 감성어의 존재 여부, 긍정어의 개수, 부정어의 개수, 존칭어의 사용 여부 및 사용한 존칭어, 기호의 사용 여부 및 사용한 기호(예를 들어, 마일드(mild) 기호 횟수, 터치(touch) 기호 횟수 등) 및/또는 특별한 화상의 포함 여부 등에 대한 정보가 획득될 수 있게 된다.In addition, text information may be obtained based on at least one message transmitted between a plurality of terminal devices (152 ). In this case, in order to obtain text information, a morpheme analysis may be performed on at least one message first (171 of FIG. 16, etc.). When the morpheme is extracted from at least one message, information about the message (for example, text) is obtained based on this. Specifically, the number of words in the message, the number of morphemes in the message, the use and the number of emoticons, etc. in the message, the presence of sentiment words, the number of positive words, the number of negative words, the use of honorable words and the used honorific words, symbols It is possible to obtain information on whether to use or not and whether or not a special image is included and/or a used symbol (eg, the number of mild symbols, the number of touch symbols, etc.).
형태소 분석이 수행되면, 형태 분석 결과를 기반으로 감성 분석이 수행된다(153). 감성 분석의 수행은 적어도 하나의 감성 사전 데이터베이스를 이용하여 수행 가능하다. When the morpheme analysis is performed, the sentiment analysis is performed based on the result of the morphology analysis (153). The emotion analysis can be performed using at least one emotion dictionary database.
구체적으로 감성 분석은, 텍스트 기반 감성 사전 데이터베이스를 이용하여 수행될 수도 있고, 상황 기반 감성 사전 데이터베이스를 이용하여 수행될 수도 있다. 또한, 메시지가 이모티콘을 포함하는 경우에는 이모티콘 감성 사전 데이터베이스를 이용하여 감성 수행을 할 수도 있다. 감성 분석 결과에 따라서, 기본 감성어에 대응하는 감성 값, 대인 관계 상황 고빈도 감성어에 대응하는 감성 값 및/또는 이모티콘에 대응하는 감성 값이 획득될 수 있다.Specifically, the emotion analysis may be performed using a text-based emotion dictionary database, or may be performed using a context-based emotion dictionary database. In addition, when the message includes an emoticon, the emotion may be performed using an emoticon emotion dictionary database. According to the sentiment analysis result, a sentiment value corresponding to a basic sentiment word, a sentiment value corresponding to a high frequency sentiment word in an interpersonal relationship situation, and/or a sentiment value corresponding to an emoticon may be obtained.
도 16은 감성 사전 기반으로 감성 값을 획득하는 과정의 일 실시예에 대한 제1 흐름도이다.16 is a first flowchart of an embodiment of a process of acquiring an emotion value based on an emotion dictionary.
보다 구체적으로 먼저 형태소 분석 및 추출이 수행되면(171), 기본적인 감성 사전 데이터베이스(다시 말해서, 텍스트 기반 감성 사전 데이터베이스)를 열람하여(172), 분석 및 추출된 형태소가 텍스트 기반 감성 사전 데이터베이스에 존재하는지 여부가 판단된다(173).More specifically, if morpheme analysis and extraction are performed first (171), the basic emotion dictionary database (that is, text-based emotion dictionary database) is searched (172), and whether the analyzed and extracted morphemes exist in the text-based emotion dictionary database. Whether or not it is determined (173).
만약 형태소에 대응하는 어휘(단어나 형태소)가 텍스트 기반 감성 사전 데이터베이스에 존재하는 경우(173의 예), 이를 기반으로 제1 감성 값(기본 감성어에 대응하는 감성 값)이 결정된다(174). 제1 감성 값의 결정은 도 6에 도시된 수식을 이용하여 수행될 수도 있다. 만약 형태소에 대응하는 어휘가 텍스트 기반 감성 사전 데이터베이스에 존재하지 않으면(173의 아니오), 제1 감성 값의 획득은 수행되지 않을 수도 있다.If a vocabulary (word or morpheme) corresponding to a morpheme exists in the text-based emotion dictionary database (example of 173), a first emotion value (sensibility value corresponding to the basic emotion word) is determined based on this (174). . The determination of the first emotion value may be performed using the equation shown in FIG. 6. If the vocabulary corresponding to the morpheme does not exist in the text-based emotion dictionary database (No in 173), the acquisition of the first emotion value may not be performed.
또한, 상황 기반 감성 사전 데이터베이스가 열람되며(175), 분석 및 추출된 형태소가 상황 기반 감성 사전 데이터베이스에 존재하는지 여부도 판단된다(176).In addition, the context-based emotion dictionary database is viewed (175), and it is determined whether or not the analyzed and extracted morphemes exist in the context-based emotion dictionary database (176).
만약 형태소에 대응하는 어휘(단어나 형태소)가 상황 기반 감성 사전 데이터베이스에 존재하는 경우(176의 예), 이를 기반으로 제2 감성 값(대인 관계 상황 고빈도 감성어에 대응하는 감성 값)이 결정된다(177). 제2 감성 값의 결정 역시 도 6에 도시된 수식을 이용하여 수행될 수도 있다. 다시 말해서, 긍정어 하나에 대응하는 감성 값을 +1로 정의하고, 부정어 하나에 대응하는 감성 값을 -1로 정의한 후, 이들 긍정어에 대응하는 감성 값 및 부정어에 대응하는 감성 값을 각각의 총합을 연산하고, 총합의 합산 값을 구한 후, 이를 모든 감성어의 개수의 루트 값으로 나뉘어 제2 감성 값이 결정될 수 있다. 만약 형태소에 대응하는 어휘(단어나 형태소)가 상황 기반 감성 사전 데이터베이스에 존재하지 않는 경우라면(176의 아니오), 제1 감성 값의 획득은 수행되지 않을 수 있다.If vocabulary (words or morphemes) corresponding to morphemes exists in the context-based emotion dictionary database (example of 176), a second emotional value (sensibility value corresponding to high-frequency emotional words in interpersonal relationship situations) is determined based on this. Becomes (177). The determination of the second emotion value may also be performed using the equation shown in FIG. 6. In other words, after defining an emotion value corresponding to one positive word as +1, and defining an emotion value corresponding to one negative word as -1, the emotion value corresponding to these positive words and the emotion value corresponding to negative words are respectively After calculating the sum, calculating the sum of the sum, and dividing it by the root value of the number of all sentiment words, the second sentiment value may be determined. If the vocabulary (word or morpheme) corresponding to the morpheme does not exist in the context-based emotion dictionary database (No in 176), the acquisition of the first emotion value may not be performed.
메시지 내에 이모티콘이 존재하는지 여부가 판단된다(178). 이모티콘의 존재 여부 판단 단계(178)는, 추출된 형태소가 텍스트 기반 감성 사전 데이터베이스로부터 검출되지 않는 경우(173의 아니오), 이에 응하여 수행되도록 설계될 수도 있다.Whether or not an emoticon exists in the message is determined (178). The
도 17은 감성 사전 기반으로 감성 값을 획득하는 과정의 일 실시예에 대한 제2 흐름도이다.17 is a second flowchart of an embodiment of a process of acquiring an emotion value based on an emotion dictionary.
만약 이모티콘이 메시지에 존재한다면(178의 예), 이모티콘 감성 사전이 열람될 수 있다(179). 만약 이모티콘 감성 사전으로부터 메시지에서 추출된 이모티콘에 대응하는 데이터(즉, 이모티콘 등)가 검출된다면(179의 예), 제3 감성 값(이모티콘에 대응하는 감성 값)이 획득될 수 있다(181). 반대로 만약 이모티콘 감성 사전으로부터 메시지에서 추출된 이모티콘에 대응하는 데이터가 검출되지 않는다면(179의 아니오), 제3 감성 값은 결정되지 않는다.If the emoticon exists in the message (example of 178), the emoticon emotion dictionary may be viewed (179). If data corresponding to the emoticon extracted from the message (ie, emoticon, etc.) is detected from the emoticon emotion dictionary (example of 179), a third emotion value (sensibility value corresponding to the emoticon) may be obtained (181). Conversely, if data corresponding to the emoticon extracted from the message from the emoticon emotion dictionary is not detected (No in 179), the third emotion value is not determined.
순차적으로, 도 14에 도시된 바와 같이, 획득한 데이터를 기반으로 종합적인 분석이 수행될 수 있다(154). 구체적으로 상황 정보 획득 단계(151)에서 획득된 상황 정보와, 텍스트 정보 획득 단계(152)에서 획득된 텍스트에 대한 정보와, 감성사전 기반의 감성 분석 수행 단계(153)에서 획득된 감성 값(예를 들어, 제1 감성 값, 제2 감성 값 및 제3 감성 값 중 적어도 하나)을 이용하여 종합적인 감성 분석이 수행된다. 일 실시예에 의하면, 기 획득한 상황 정보, 기 획득한 텍스트에 대한 정보 및 감성 값을 조합하여 소정의 테이블이 구축될 수도 있으며, 이와 같은 테이블을 기반으로 종합적인 감성 분석이 수행될 수도 있다.Sequentially, as shown in FIG. 14, a comprehensive analysis may be performed based on the acquired data (154). Specifically, the context information acquired in the context
감성 분석 수행에 따라 감성 분석 결과가 획득된다. 감성 분석 결과는 복수의 단말 장치의 사용자 중 어느 하나의 단말 장치의 사용자에 대한 다른 하나의 단말 장치의 사용자에 대한 감성을 포함할 수 있으며, 또한 이와 반대로 다른 하나의 단말 장치의 사용자에 대한 어느 하나의 단말 장치의 사용자의 감성을 포함할 수도 있다.The sentiment analysis result is obtained as the sentiment analysis is performed. The sentiment analysis result may include the emotion of the user of the other terminal device to the user of any one of the users of the plurality of terminal devices, and, conversely, any one of the user of the other terminal device. It may also include the sensibility of the user of the terminal device of.
감성 분석 결과가 획득되면, 감성 정보는 사용자에게 다양한 형태로 제공될 수 있다. 사용자에게 제공되지 전에 감성 정보는 가공될 수도 있다. 예를 들어, 감성 정보는 인물 기준으로 또는 시계열 기준으로 통계적 처리된 후 사용자에게 제공될 수 있다.When the emotion analysis result is obtained, the emotion information may be provided to the user in various forms. Emotional information may be processed before it is provided to the user. For example, the emotional information may be statistically processed on a person basis or a time series basis and then provided to a user.
도 18은 감성 분석 결과 정보의 제공 방법의 일 실시예에 대한 흐름도이다.18 is a flowchart of an embodiment of a method for providing information on a result of an emotion analysis.
도 18에 도시된 바에 의하면, 사용자가 감성 분석 결과에 대한 정보 제공을 요청하면, 단말 장치 및/또는 감성 분석 장치는, 사용자의 요청에 응하여 먼저 누적된 정보를 확인할 수 있다(181).As illustrated in FIG. 18, when a user requests to provide information on a result of emotion analysis, the terminal device and/or the emotion analysis device may first check the accumulated information in response to the user's request (181).
만약 누적된 정보가 저장부 등에 존재하면(182의 예), 사용자가 특별한 기간을 설정할 것을 요청하였는지 여부가 판단된다(183). 만약 특별한 기간 설정이 부재하다면, 미리 정의된 디폴트 정보(예를 들어, 검색 기준 최근 1개월간 정보)가 사용자에게 제공될 수 있다(185)If the accumulated information exists in the storage unit or the like (YES in 182), it is determined whether the user has requested to set a special period (183). If there is no special period setting, predefined default information (eg, information for the last month of the search criteria) may be provided to the user (185).
사용자가 특별한 기간을 설정할 것을 요청한 경우라면(184의 예), 사용자의 요청에 따라서 기간이 설정된다(186).If the user requests to set a special period (YES in 184), the period is set according to the user's request (186).
순차적으로 사용자가 인물 중심의 정보(일례로 인물 중심으로 도시된 그래프나 수치 등)을 요청하였는지 여부가 판단되고(187), 만약 사용자가 인물 중심의 정보 제공을 요청한 경우라면(188의 예), 인물 중심의 정보를 단말 장치 또는 감성 분석 장치의 디스플레이 등에 표시하여 사용자에게 제공한다(188).It is sequentially determined whether the user has requested person-centered information (for example, a graph or figures shown centering on the person) (187), and if the user requests to provide person-centered information (example of 188), The person-centered information is displayed on a display of a terminal device or an emotion analysis device and provided to the user (188).
만약 사용자가 인물 중심의 정보 제공을 요청하지 않은 경우라면(187의 아니오), 시계열 중심의 정보(시계열 중심으로 도시된 그래프나 이와 관련된 수치 등)를 단말 장치 또는 감성 분석 장치의 디스플레이 등에 표시하여 사용자에게 제공한다(189).If the user does not request to provide person-centered information (No in 187), the user by displaying time-series-oriented information (a graph or figures related to the time-series-centered graph) on the display of the terminal device or the emotion analysis device, etc. (189).
한편, 단말 장치 또는 감성 분석 장치의 디스플레이 등에 인물 중심의 정보가 표시되고 있는 경우라고 하더라도(188), 만약 사용자가 시계열 중심의 정보의 제공을 요청하면(190), 시계열 중심의 정보를 단말 장치 또는 감성 분석 장치의 디스플레이 등에 표시하여 사용자에게 제공한다(189).On the other hand, even if the person-centered information is displayed on the display of the terminal device or the emotion analysis device (188), if the user requests the provision of time-series-oriented information (190), the time-series-oriented information is transferred to the terminal device or It is displayed on the display of the emotion analysis device and provided to the user (189).
사용자가 기간 설정을 변경하고자 한다면(191), 사용자가 요청한 바에 따라서 기간을 변경하여 다시 설정하고(186), 순차적으로 인물 중심의 정보 또는 시계열 중심의 정보를 사용자에게 제공한다(187 내지 189)If the user wants to change the period setting (191), the period is changed and reset according to the user's request (186), and the person-oriented information or time-series-oriented information is sequentially provided to the user (187 to 189).
사용자가 감성 정보의 확인을 종료하면(192의 예), 정보의 제공은 종료된다.When the user finishes checking the emotional information (YES in 192), the provision of the information is terminated.
상술한 실시예에 따른 감성 분석 방법은, 컴퓨터 장치에 의해 구동될 수 있는 프로그램의 형태로 구현될 수 있다. 여기서 프로그램은, 프로그램 명령, 데이터 파일 및 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 프로그램은 기계어 코드나 고급 언어 코드를 이용하여 설계 및 제작된 것일 수 있다. 프로그램은 상술한 감성 분석 방법을 구현하기 위하여 특별히 설계된 것일 수도 있고, 컴퓨터 소프트웨어 분야에서 통상의 기술자에게 기 공지되어 사용 가능한 각종 함수나 정의를 이용하여 구현된 것일 수도 있다. 또한, 여기서, 컴퓨터 장치는, 프로그램의 기능을 실현 가능하게 하는 프로세서나 메모리 등을 포함하여 구현된 것일 수 있으며, 필요에 따라 통신 장치를 더 포함할 수도 있다.The emotion analysis method according to the above-described embodiment may be implemented in the form of a program that can be driven by a computer device. Here, the program may include a program command, a data file, a data structure, or the like alone or in combination. The program may be designed and produced using machine code or high-level language code. The program may be specially designed to implement the above-described emotion analysis method, or may be implemented using various functions or definitions previously known to and available to a person skilled in the computer software field. In addition, here, the computer device may be implemented including a processor or a memory that enables the function of a program to be realized, and may further include a communication device if necessary.
상술한 감성 분석 방법을 구현하기 위한 프로그램은, 컴퓨터에 의해 판독 가능한 기록 매체에 기록될 수 있다. 컴퓨터에 의해 판독 가능한 기록 매체는, 예를 들어, 하드 디스크나 플로피 디스크와 같은 자기 디스크 저장 매체, 자기 테이프, 콤팩트 디스크나 디브이디와 같은 광 기록 매체, 플롭티컬 디스크와 같은 자기-광 기록 매체 및 롬, 램 또는 플래시 메모리 등과 같은 반도체 저장 장치 등 컴퓨터 등의 호출에 따라 실행되는 특정 프로그램을 저장 가능한 다양한 종류의 하드웨어 장치를 포함할 수 있다. A program for implementing the above-described emotion analysis method may be recorded in a computer-readable recording medium. The computer-readable recording medium includes, for example, a magnetic disk storage medium such as a hard disk or a floppy disk, a magnetic tape, an optical recording medium such as a compact disk or a DVD, a magnetic-optical recording medium such as a floppy disk, and a ROM. , A semiconductor storage device such as RAM or flash memory, etc., may include various types of hardware devices capable of storing a specific program executed in response to a call from a computer or the like.
이상 감성 분석 장치, 이를 포함하는 대화형 에이전트 시스템, 이를 수행하기 위한 단말 장치 및 감성 분석 방법의 여러 실시예에 대해 설명하였으나, 감성 분석 장치, 이를 포함하는 대화형 에이전트 시스템, 이를 수행하기 위한 단말 장치 및 감성 분석 방법은 오직 상술한 실시예에 한정되는 것은 아니다. 해당 기술 분야에서 통상의 지식을 가진 자가 상술한 실시예를 기초로 수정 및 변형하여 구현 가능한 다양한 장치나 방법 역시 상술한 감성 분석 장치, 이를 포함하는 대화형 에이전트 시스템, 이를 수행하기 위한 단말 장치 및 감성 분석 방법의 일례가 될 수 있다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성 요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나 다른 구성 요소 또는 균등물에 의하여 대치되거나 또는 치환되더라도 상술한 감성 분석 장치, 이를 포함하는 대화형 에이전트 시스템, 이를 수행하기 위한 단말 장치 및 감성 분석 방법의 일 실시예가 될 수 있다.Although various embodiments of the abnormal emotion analysis device, an interactive agent system including the same, a terminal device for performing the same, and an emotion analysis method have been described, an emotion analysis device, an interactive agent system including the same, and a terminal device for performing the same And the emotion analysis method is not limited only to the above-described embodiment. Various devices or methods that can be implemented by modifying and modifying based on the above-described embodiment by a person having ordinary knowledge in the relevant technical field also include the above-described emotion analysis device, an interactive agent system including the same, a terminal device for performing the same, and a sensitivity. It can be an example of an analysis method. For example, the described techniques are performed in an order different from the described method, and/or components such as systems, structures, devices, and circuits described are combined or combined in a form different from the described method, or other components or Even if it is replaced or replaced by an equivalent, it may be an embodiment of the above-described emotion analysis device, an interactive agent system including the same, a terminal device for performing the same, and an emotion analysis method.
10: 제1 단말 장치 20: 제2 단말 장치
100: 감성 분석 장치10: first terminal device 20: second terminal device
100: sentiment analysis device
Claims (28)
상기 적어도 하나의 텍스트의 형태소를 분석하고, 감성 사전 데이터베이스를 기반으로 분석된 상기 형태소에 대응하는 감성 분석 결과를 획득하고, 상기 감성 분석 결과를 이용하여 상기 제1 단말 장치의 사용자에 대한 상기 제2 단말 장치의 사용자의 대한 종합적 감성 분석 결과를 획득하는 프로세서;를 포함하고,
상기 프로세서는, 상기 제1 단말 장치 및 상기 제2 단말 장치 사이의 상호 대화에 관한 상황 정보를 획득하고, 메시지에 내포되거나 부가된 정보를 기반으로 한 상기 상황 정보를 더 이용하여 상기 종합적 감성 분석 결과를 획득하며,
상기 상황 정보는, 제1 단말 장치 및 제2 단말 장치 중 적어도 하나의 사용자의 성별 및 연령 중 적어도 하나, 제1 단말 장치 및 제2 단말 장치 각각의 사용자의 관계, 텍스트 전송 시간, 텍스트 전송 날짜, 텍스트 전송 요일 중 적어도 하나를 포함하는 감성 분석 장치.A communication unit that obtains at least one text transmitted between the first terminal device and the second terminal device; And
Analyzing the morpheme of the at least one text, acquiring a sentiment analysis result corresponding to the analyzed morpheme based on the sentiment dictionary database, and using the sentiment analysis result to the second user of the first terminal device Including; a processor for obtaining a result of the comprehensive sentiment analysis of the user of the terminal device,
The processor obtains context information on a mutual conversation between the first terminal device and the second terminal device, and further uses the context information based on information contained in or added to the message to obtain the comprehensive sentiment analysis result. Is obtained,
The context information may include at least one of the sex and age of at least one of the first terminal device and the second terminal device, the relationship between the users of the first terminal device and the second terminal device, a text transmission time, a text transmission date, Sentiment analysis device including at least one of the text transmission days.
상기 프로세서는, 분석된 상기 형태소를 이용하여 상기 적어도 하나의 텍스트 자체에 대한 텍스트 정보를 획득하고, 상기 텍스트 정보를 더 이용하여 상기 종합적 감성 분석 결과를 획득하는 감성 분석 장치.The method of claim 1,
The processor obtains text information on the at least one text itself by using the analyzed morpheme, and further obtains the comprehensive emotion analysis result by using the text information.
상기 텍스트 정보는, 형태소의 개수, 존칭어의 사용 여부, 사용된 존칭어, 기호의 사용 여부, 사용된 기호, 이모티콘의 사용 여부 및 사용된 이모티콘 중 적어도 하나를 포함하는 감성 분석 장치.The method of claim 2,
The text information includes at least one of the number of morphemes, whether honorable words are used, used honorific words, whether symbols are used, symbols used, whether emoticons are used, and used emoticons.
상기 감성 사전 데이터베이스는, 텍스트 기반 감성 사전 데이터베이스를 포함하고,
상기 프로세서는,
상기 텍스트 기반 감성 사전 데이터베이스를 열람하여 상기 감성 사전 데이터베이스에 상기 형태소 또는 상기 형태소에 대응하는 정보의 존재 여부를 판단하고,
만약 상기 텍스트 기반 감성 사전 데이터베이스에 상기 형태소 또는 상기 형태소에 대응하는 정보가 존재하면, 상기 형태소에 대응하는 감성 값을 추출하는 감성 분석 장치.The method of claim 1,
The emotion dictionary database includes a text-based emotion dictionary database,
The processor,
Viewing the text-based emotion dictionary database to determine whether the morpheme or information corresponding to the morpheme exists in the emotion dictionary database,
If there is information corresponding to the morpheme or the morpheme in the text-based emotion dictionary database, the emotion analysis device extracts an emotion value corresponding to the morpheme.
상기 감성 사전 데이터베이스는, 상황 기반 감성 사전 데이터베이스를 더 포함하고,
상기 프로세서는,
상기 상황 기반 감성 사전 데이터베이스를 더 열람하고, 상기 감성 사전 데이터베이스에 상기 형태소 또는 상기 형태소에 대응하는 정보의 존재 여부를 더 판단하고,
만약 상기 상황 기반 감성 사전 데이터베이스에 상기 형태소 또는 상기 형태소에 대응하는 정보가 존재하면, 상기 형태소에 대응하는 제2 감성 값을 더 추출하되,
상기 상황 기반 감성 사전 데이터베이스는 대인 관계 상황에서 높은 빈도를 갖는 단어를 포함하는 감성 분석 장치.The method of claim 6,
The emotion dictionary database further includes a context-based emotion dictionary database,
The processor,
Further browsing the context-based emotion dictionary database, further determining whether the morpheme or information corresponding to the morpheme exists in the emotion dictionary database,
If the morpheme or information corresponding to the morpheme exists in the context-based emotion dictionary database, a second emotion value corresponding to the morpheme is further extracted,
The context-based emotion dictionary database includes a word having a high frequency in an interpersonal relationship situation.
상기 프로세서는,
상기 텍스트가 이모티콘을 포함하는지 판단하고,
만약 상기 텍스트가 이모티콘을 포함하는지 판단하는 경우, 이모티콘 감성 사전 데이터베이스를 더 열람하고, 상기 이모티콘 감성 사전 데이터베이스에 상기 이모티콘에 대응하는 정보의 존재 여부를 더 판단하고,
만약 상기 이모티콘 감성 사전 데이터베이스에 상기 이모티콘에 대응하는 정보가 존재하면, 상기 형태소에 대응하는 제3 감성 값을 더 추출하는 감성 분석 장치.The method of claim 1,
The processor,
Determine whether the text includes an emoticon,
If it is determined whether the text includes an emoticon, further browsing an emoticon emotion dictionary database, further determining whether information corresponding to the emoticon exists in the emoticon emotion dictionary database,
If information corresponding to the emoticon exists in the emoticon emotion dictionary database, the emotion analysis device further extracts a third emotion value corresponding to the morpheme.
상기 프로세서는, 상기 종합적 감성 분석 결과를 상기 제1 단말 장치 및 상기 제2 단말 장치 중 적어도 하나에 전달하는 감성 분석 장치.The method of claim 1,
The processor transmits the comprehensive emotion analysis result to at least one of the first terminal device and the second terminal device.
상기 종합적 감성 분석 결과는, 긍정적 감성, 부정적 감성 및 중립적 감성 중 적어도 하나를 포함하는 감성 분석 장치.The method of claim 9,
The overall sentiment analysis result includes at least one of a positive sentiment, a negative sentiment, and a neutral sentiment.
상기 종합적 감성 분석 결과는, 상기 긍정적 감성, 부정적 감성 및 중립적 감성 중 적어도 하나에 대한 시계열적 분석 결과를 포함하는 감성 분석 장치.The method of claim 10,
The overall sentiment analysis result includes a time-series analysis result of at least one of the positive sentiment, negative sentiment, and neutral sentiment.
상기 종합적 감성 분석 결과는, 상기 제1 단말장치의 사용자 및 상기 제2 단말장치의 사용자 중 적어도 하나에 의해 미리 설정된 기간 내에서의 시계열적 분석 결과를 포함하는 감성 분석 장치.The method of claim 11,
The overall sentiment analysis result includes a time-series analysis result within a preset period by at least one of a user of the first terminal device and a user of the second terminal device.
상기 종합적 감성 분석 결과는, 상기 제2 단말 장치의 사용자에 대한 상기 제1 단말 장치의 사용자의 감성 분석 결과를 포함하는 감성 분석 장치.The method of claim 9,
The overall sentiment analysis result includes a sentiment analysis result of the user of the first terminal device with respect to the user of the second terminal device.
제1 단말 장치 및 제2 단말 장치 상호 간에 적어도 하나의 텍스트가 전송되는 단계;
상기 적어도 하나의 텍스트를 획득하는 단계;
상기 적어도 하나의 텍스트의 형태소를 분석하는 단계;
감성 사전 데이터베이스를 기반으로 분석된 상기 형태소에 대응하는 감성 분석 결과를 획득하는 단계;
상기 감성 분석 결과를 이용하여 상기 제1 단말 장치의 사용자에 대한 상기 제2 단말 장치의 사용자의 대한 종합적 감성 분석 결과를 획득하는 단계를 포함하며,
상기 종합적 감성 분석 결과를 획득을 위하여, 상기 제1 단말 장치 및 상기 제2 단말 장치 사이의 상호 대화에 관한 상황 정보를 획득하는 단계;를 더 포함하고,
메시지에 내포되거나 부가된 정보를 기반으로 한 상기 상황 정보는, 제1 단말 장치 및 제2 단말 장치 중 적어도 하나의 사용자의 성별 및 연령 중 적어도 하나, 제1 단말 장치 및 제2 단말 장치 각각의 사용자의 관계, 텍스트 전송 시간, 텍스트 전송 날짜, 텍스트 전송 요일 중 적어도 하나를 포함하는 감성 분석 방법.As an emotion analysis method performed by an emotion analysis device,
Transmitting at least one text between the first terminal device and the second terminal device;
Obtaining the at least one text;
Analyzing the morpheme of the at least one text;
Obtaining an emotion analysis result corresponding to the morpheme analyzed based on the emotion dictionary database;
And acquiring a result of a comprehensive sentiment analysis result of the user of the second terminal device with respect to the user of the first terminal device by using the sentiment analysis result,
In order to obtain the result of the comprehensive sentiment analysis, the step of acquiring context information on a mutual conversation between the first terminal device and the second terminal device; further comprising,
The context information based on information contained in or added to the message may include at least one of the gender and age of at least one of the first terminal device and the second terminal device, and a user of each of the first terminal device and the second terminal device. The sentiment analysis method including at least one of the relationship of, text transmission time, text transmission date, and text transmission day.
상기 종합적 감성 분석 결과 획득을 위하여, 분석된 상기 형태소를 이용하여 상기 적어도 하나의 텍스트 자체에 대한 텍스트 정보를 획득하는 단계;를 더 포함하는 감성 분석 방법.The method of claim 14,
In order to obtain the result of the comprehensive sentiment analysis, the step of obtaining text information on the at least one text itself by using the analyzed morpheme.
상기 텍스트 정보는, 형태소의 개수, 존칭어의 사용 여부, 사용된 존칭어, 기호의 사용 여부, 사용된 기호, 이모티콘의 사용 여부 및 사용된 이모티콘 중 적어도 하나를 포함하는 감성 분석 방법.The method of claim 15,
The text information includes at least one of the number of morphemes, whether honorable words are used, used honorific words, whether symbols are used, symbols used, whether emoticons are used, and used emoticons.
상기 감성 사전 데이터베이스를 기반으로 분석된 상기 형태소에 대응하는 감성 분석 결과를 획득하는 단계는,
텍스트 기반 감성 사전 데이터베이스를 열람하는 단계;
상기 텍스트 기반 감성 사전 데이터베이스에 상기 형태소 또는 상기 형태소에 대응하는 정보의 존재 여부를 판단하는 단계; 및
만약 상기 텍스트 기반 감성 사전 데이터베이스에 상기 형태소 또는 상기 형태소에 대응하는 정보가 존재하면, 상기 형태소에 대응하는 제1 감성 값을 추출하는 단계;를 포함하는 감성 분석 방법.The method of claim 14,
The step of obtaining an emotion analysis result corresponding to the morpheme analyzed based on the emotion dictionary database,
Reading a text-based emotion dictionary database;
Determining whether the morpheme or information corresponding to the morpheme exists in the text-based emotion dictionary database; And
And if information corresponding to the morpheme or the morpheme exists in the text-based emotion dictionary database, extracting a first emotion value corresponding to the morpheme.
상기 감성 사전 데이터베이스를 기반으로 분석된 상기 형태소에 대응하는 감성 분석 결과를 획득하는 단계는,
상황 기반 감성 사전 데이터베이스를 더 열람하는 단계;
상기 감성 사전 데이터베이스에 상기 형태소 또는 상기 형태소에 대응하는 정보의 존재 여부를 더 판단하는 단계; 및
만약 상기 상황 기반 감성 사전 데이터베이스에 상기 형태소 또는 상기 형태소에 대응하는 정보가 존재하면, 상기 형태소에 대응하는 제2 감성 값을 더 추출하는 단계;를 포함하되,
상기 상황 기반 감성 사전 데이터베이스는 대인 관계 상황에서 높은 빈도를 갖는 단어로 구축된 것인 감성 분석 방법.The method of claim 19,
The step of obtaining an emotion analysis result corresponding to the morpheme analyzed based on the emotion dictionary database,
Further browsing the context-based emotion dictionary database;
Further determining whether the morpheme or information corresponding to the morpheme exists in the emotion dictionary database; And
If there is information corresponding to the morpheme or the morpheme in the context-based emotion dictionary database, further extracting a second emotion value corresponding to the morpheme; Including,
The context-based emotion dictionary database is constructed with words having a high frequency in an interpersonal relationship situation.
상기 감성 사전 데이터베이스를 기반으로 분석된 상기 형태소에 대응하는 감성 분석 결과를 획득하는 단계는,
상기 텍스트가 이모티콘을 포함하는지 판단하는 단계;
만약 상기 텍스트가 이모티콘을 포함하는지 판단하는 경우, 이모티콘 감성 사전 데이터베이스를 더 열람하는 단계;
상기 이모티콘 감성 사전 데이터베이스에 상기 이모티콘에 대응하는 정보의 존재 여부를 더 판단하는 단계; 및
만약 상기 이모티콘 감성 사전 데이터베이스에 상기 이모티콘에 대응하는 정보가 존재하면, 상기 형태소에 대응하는 제3 감성 값을 더 추출하는 단계;를 포함하는 감성 분석 방법.The method of claim 14,
The step of obtaining an emotion analysis result corresponding to the morpheme analyzed based on the emotion dictionary database,
Determining whether the text includes an emoticon;
If it is determined whether the text includes an emoticon, further reading an emoticon emotion dictionary database;
Further determining whether information corresponding to the emoticon exists in the emoticon emotion dictionary database; And
And if information corresponding to the emoticon exists in the emoticon emotion dictionary database, further extracting a third emotion value corresponding to the morpheme.
상기 종합적 감성 분석 결과를 상기 제1 단말 장치 및 상기 제2 단말 장치 중 적어도 하나에 전달하는 단계;를 더 포함하는 감성 분석 방법.The method of claim 14,
Transmitting the comprehensive sentiment analysis result to at least one of the first terminal device and the second terminal device; The sentiment analysis method further comprising.
상기 종합적 감성 분석 결과는, 긍정적 감성, 부정적 감성 및 중립적 감성 중 적어도 하나를 포함하는 감성 분석 방법.The method of claim 22,
The overall sentiment analysis result includes at least one of a positive sentiment, a negative sentiment, and a neutral sentiment.
상기 종합적 감성 분석 결과는, 상기 긍정적 감성, 부정적 감성 및 중립적 감성 중 적어도 하나에 대한 시계열적 분석 결과를 포함하는 감성 분석 방법.The method of claim 23,
The overall sentiment analysis result includes a time-series analysis result of at least one of the positive sentiment, negative sentiment, and neutral sentiment.
상기 종합적 감성 분석 결과는, 상기 제1 사용자 및 상기 제2 사용자 중 적어도 하나에 의해 미리 설정된 기간 내에서의 시계열적 분석 결과를 포함하는 감성 분석 방법.The method of claim 24,
The overall sentiment analysis result includes a time-series analysis result within a preset period by at least one of the first user and the second user.
상기 종합적 감성 분석 결과는, 상기 제2 단말 장치의 사용자에 대한 상기 제1 단말 장치의 사용자의 감성 분석 결과를 포함하는 감성 분석 방법.The method of claim 22,
The overall sentiment analysis result includes a sentiment analysis result of the user of the first terminal device with respect to the user of the second terminal device.
상기 제1 단말 장치와 적어도 하나의 텍스트를 상호 송수신하는 제2 단말 장치;
상기 제1 단말 장치 및 상기 제2 단말 장치 사이에서 송수신되는 적어도 하나의 텍스트의 형태소를 분석하고, 감성 사전 데이터베이스를 기반으로 상기 형태소에 대응하는 감성 분석 결과를 획득하고, 상기 감성 분석 결과를 이용하여 총체적 감성 분석을 수행함으로써, 상기 제1 단말 장치의 사용자 및 상기 제1 단말 장치의 사용자 중 적어도 하나의 감성 상태 판단 결과를 획득하는 감성 분석 서비스 장치;를 포함하고,
상기 감성 분석 서비스 장치는 상기 제1 단말 장치 및 상기 제2 단말 장치 사이의 상호 대화에 관한 상황 정보를 획득하고, 메시지에 내포되거나 부가된 정보를 기반으로 한 상기 상황 정보를 더 이용하여 상기 종합적 감성 분석 결과를 획득하는 프로세서를 포함하며,
상기 상황 정보는, 제1 단말 장치 및 제2 단말 장치 중 적어도 하나의 사용자의 성별 및 연령 중 적어도 하나, 제1 단말 장치 및 제2 단말 장치 각각의 사용자의 관계, 텍스트 전송 시간, 텍스트 전송 날짜, 텍스트 전송 요일 중 적어도 하나를 포함하는 대화형 에이전트 시스템.A first terminal device;
A second terminal device for mutually transmitting and receiving at least one text with the first terminal device;
Analyzing the morpheme of at least one text transmitted and received between the first terminal device and the second terminal device, obtaining a sentiment analysis result corresponding to the morpheme based on the sentiment dictionary database, and using the sentiment analysis result Including; a sentiment analysis service device for acquiring an emotional state determination result of at least one of a user of the first terminal device and a user of the first terminal device by performing a total sentiment analysis,
The sentiment analysis service device acquires context information about a mutual conversation between the first terminal device and the second terminal device, and further uses the context information based on information contained in or added to the message to provide the comprehensive sentiment. Including a processor for obtaining an analysis result,
The context information may include at least one of the sex and age of at least one of the first terminal device and the second terminal device, the relationship between the users of the first terminal device and the second terminal device, a text transmission time, a text transmission date, Interactive agent system including at least one of the text transmission days.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020180172625A KR102222637B1 (en) | 2018-12-28 | 2018-12-28 | Apparatus for analysis of emotion between users, interactive agent system using the same, terminal apparatus for analysis of emotion between users and method of the same |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020180172625A KR102222637B1 (en) | 2018-12-28 | 2018-12-28 | Apparatus for analysis of emotion between users, interactive agent system using the same, terminal apparatus for analysis of emotion between users and method of the same |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20200082232A KR20200082232A (en) | 2020-07-08 |
KR102222637B1 true KR102222637B1 (en) | 2021-03-03 |
Family
ID=71600382
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020180172625A KR102222637B1 (en) | 2018-12-28 | 2018-12-28 | Apparatus for analysis of emotion between users, interactive agent system using the same, terminal apparatus for analysis of emotion between users and method of the same |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102222637B1 (en) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102510023B1 (en) * | 2021-01-21 | 2023-03-15 | (주)알에프캠프 | Method and computer program to determine user's mental state by using user's behavioral data or input data |
CN113450793A (en) * | 2021-06-25 | 2021-09-28 | 平安科技(深圳)有限公司 | User emotion analysis method and device, computer readable storage medium and server |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101634086B1 (en) * | 2015-01-19 | 2016-07-08 | 주식회사 엔씨소프트 | Method and computer system of analyzing communication situation based on emotion information |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101448228B1 (en) * | 2013-02-12 | 2014-10-10 | 이주양 | Apparatus and Method for social data analysis |
KR101713258B1 (en) * | 2015-05-19 | 2017-03-09 | 트윈워드 주식회사 | Apparatus and method for providing psychology status information from writing |
-
2018
- 2018-12-28 KR KR1020180172625A patent/KR102222637B1/en active IP Right Grant
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101634086B1 (en) * | 2015-01-19 | 2016-07-08 | 주식회사 엔씨소프트 | Method and computer system of analyzing communication situation based on emotion information |
Also Published As
Publication number | Publication date |
---|---|
KR20200082232A (en) | 2020-07-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11315546B2 (en) | Computerized system and method for formatted transcription of multimedia content | |
RU2699399C2 (en) | System and method for detecting orphan utterances | |
US11769492B2 (en) | Voice conversation analysis method and apparatus using artificial intelligence | |
US20190272269A1 (en) | Method and system of classification in a natural language user interface | |
JP2022551788A (en) | Generate proactive content for ancillary systems | |
CN110869969A (en) | Virtual assistant for generating personalized responses within a communication session | |
CN115668371A (en) | Classifying auditory and visual conferencing data to infer importance of user utterances | |
CN111428010B (en) | Man-machine intelligent question-answering method and device | |
KR102100214B1 (en) | Method and appratus for analysing sales conversation based on voice recognition | |
TW201606750A (en) | Speech recognition using a foreign word grammar | |
US10592609B1 (en) | Human emotion detection | |
US20220148576A1 (en) | Electronic device and control method | |
US9922644B2 (en) | Analysis of professional-client interactions | |
JP2012113542A (en) | Device and method for emotion estimation, program and recording medium for the same | |
US20240020458A1 (en) | Text formatter | |
KR102222637B1 (en) | Apparatus for analysis of emotion between users, interactive agent system using the same, terminal apparatus for analysis of emotion between users and method of the same | |
Kharb et al. | Embedding intelligence through cognitive services | |
CN110245334B (en) | Method and device for outputting information | |
US9747891B1 (en) | Name pronunciation recommendation | |
KR102226427B1 (en) | Apparatus for determining title of user, system including the same, terminal and method for the same | |
US10282417B2 (en) | Conversational list management | |
KR20210009266A (en) | Method and appratus for analysing sales conversation based on voice recognition | |
US10877964B2 (en) | Methods and systems to facilitate the generation of responses to verbal queries | |
CN114171063A (en) | Real-time telephone traffic customer emotion analysis assisting method and system | |
CN114360544A (en) | Voice recognition method and device, electronic equipment and storage medium |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |