KR20200082232A - 감성 분석 장치, 이를 포함하는 대화형 에이전트 시스템, 감성 분석을 수행하기 위한 단말 장치 및 감성 분석 방법 - Google Patents

감성 분석 장치, 이를 포함하는 대화형 에이전트 시스템, 감성 분석을 수행하기 위한 단말 장치 및 감성 분석 방법 Download PDF

Info

Publication number
KR20200082232A
KR20200082232A KR1020180172625A KR20180172625A KR20200082232A KR 20200082232 A KR20200082232 A KR 20200082232A KR 1020180172625 A KR1020180172625 A KR 1020180172625A KR 20180172625 A KR20180172625 A KR 20180172625A KR 20200082232 A KR20200082232 A KR 20200082232A
Authority
KR
South Korea
Prior art keywords
terminal device
emotional
analysis
text
morpheme
Prior art date
Application number
KR1020180172625A
Other languages
English (en)
Other versions
KR102222637B1 (ko
Inventor
권오병
배수진
구국원
Original Assignee
경희대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 경희대학교 산학협력단 filed Critical 경희대학교 산학협력단
Priority to KR1020180172625A priority Critical patent/KR102222637B1/ko
Publication of KR20200082232A publication Critical patent/KR20200082232A/ko
Application granted granted Critical
Publication of KR102222637B1 publication Critical patent/KR102222637B1/ko

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • A61B5/165Evaluating the state of mind, e.g. depression, anxiety
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/74Details of notification to user or communication with user or patient ; user input means
    • A61B5/742Details of notification to user or communication with user or patient ; user input means using visual displays
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Public Health (AREA)
  • Medical Informatics (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Pathology (AREA)
  • Animal Behavior & Ethology (AREA)
  • Veterinary Medicine (AREA)
  • Physics & Mathematics (AREA)
  • Biophysics (AREA)
  • Psychiatry (AREA)
  • Surgery (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Molecular Biology (AREA)
  • Educational Technology (AREA)
  • Hospice & Palliative Care (AREA)
  • Developmental Disabilities (AREA)
  • Child & Adolescent Psychology (AREA)
  • Psychology (AREA)
  • Social Psychology (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • Epidemiology (AREA)
  • Primary Health Care (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

감성 분석 장치, 이를 포함하는 대화형 에이전트 시스템, 감성 분석을 수행하기 위한 단말 장치 및 감성 분석 방법에 관한 것으로, 감성 분석 장치는 제1 단말 장치 및 제2 단말 장치 상호 간에 전송되는 적어도 하나의 텍스트를 획득하는 통신부 및 상기 적어도 하나의 텍스트의 형태소를 분석하고, 감성 사전 데이터베이스를 기반으로 분석된 상기 형태소에 대응하는 감성 분석 결과를 획득하고, 상기 감성 분석 결과를 이용하여 상기 제1 단말 장치의 사용자에 대한 상기 제2 단말 장치의 사용자의 대한 종합적 감성 분석 결과를 획득하는 프로세서를 포함할 수 있다.

Description

감성 분석 장치, 이를 포함하는 대화형 에이전트 시스템, 감성 분석을 수행하기 위한 단말 장치 및 감성 분석 방법{APPARATUS FOR ANALYSIS OF EMOTION BETWEEN USERS, INTERACTIVE AGENT SYSTEM USING THE SAME, TERMINAL APPARATUS FOR ANALYSIS OF EMOTION BETWEEN USERS AND METHOD OF THE SAME}
감성 분석 장치, 이를 포함하는 대화형 에이전트 시스템, 이를 수행하기 위한 단말 장치 및 감성 분석 방법에 관한 것이다.
데스크톱 컴퓨터나 랩톱 컴퓨터의 발전에 따라 이들 장치 간에 메시지를 송수신할 수 있는 인스턴트 메시지 서비스가 개발되었다. 이들 인스턴트 메시지 서비스는 스마트 폰 등과 같은 휴대용 단말 장치의 성장에 따라 이들 인스턴트 메시지 서비스 역시 급격히 성장 및 발전하고 있다.
최근에는 이런 인스턴트 메시지 서비스를 기반으로 하는 다양한 기술이 도입되고 있다. 이러한 기술 중 일례로 챗봇(chatbot, 채터봇, 토크봇 등으로도 지칭 가능하다)이 있다. 챗봇은, 기호, 문자, 도형, 화상 및/또는 음성 등을 기반으로 인간(사용자)와 대화를 수행할 수 있도록 설계된 컴퓨터 프로그램 또는 이를 수행하기 위한 장치나 시스템으로, 개인 비서 서비스나 금융사 등 각종 기업의 고객 응대 서비스 등에서 이용되고 있다.
상술한 바와 같은 챗봇 서비스는 메시지를 생성하고 생성한 메시지를 이용하여 사용자와의 대화를 수행한다는 점에서 대화 상대방(즉, 사용자)의 태도, 의견 또는 감성 등을 분석할 필요가 존재한다. 이와 같이 통상적인 텍스트로부터 텍스트의 발화자 등의 태도, 의견 또는 감성 등을 분석하는 방법을 감성 분석이라고 한다.
대인 관계 상황을 기반으로 효과적으로 우수한 성능으로 감성 추론 및 분석을 수행할 수 있는 감성 분석 장치, 이를 포함하는 대화형 에이전트 시스템, 이를 수행하기 위한 단말 장치 및 감성 분석 방법을 제공하는 것을 해결하고자 하는 과제로 한다.
상술한 과제를 해결하기 위하여 감성 분석 장치, 이를 포함하는 대화형 에이전트 시스템, 이를 수행하기 위한 단말 장치 및 감성 분석 방법이 제공된다.
감성 분석 장치는, 제1 단말 장치 및 제2 단말 장치 상호 간에 전송되는 적어도 하나의 텍스트를 획득하는 통신부 및 상기 적어도 하나의 텍스트의 형태소를 분석하고, 감성 사전 데이터베이스를 기반으로 분석된 상기 형태소에 대응하는 감성 분석 결과를 획득하고, 상기 감성 분석 결과를 이용하여 상기 제1 단말 장치의 사용자에 대한 상기 제2 단말 장치의 사용자의 대한 종합적 감성 분석 결과를 획득하는 프로세서를 포함할 수 있다.
상기 프로세서는, 분석된 상기 형태소를 이용하여 상기 적어도 하나의 텍스트 자체에 대한 텍스트 정보를 획득하고, 상기 텍스트 정보를 더 이용하여 상기 종합적 감성 분석 결과를 획득할 수 있다.
상기 텍스트 정보는, 형태소의 개수, 존칭어의 사용 여부, 사용된 존칭어, 기호의 사용 여부, 사용된 기호, 이모티콘의 사용 여부 및 사용된 이모티콘 중 적어도 하나를 포함할 수 있다.
상기 프로세서는, 상기 제1 단말 장치 및 상기 제2 단말 장치 사이의 상호 대화에 관한 상황 정보를 획득하고, 상기 상황 정보를 더 이용하여 상기 종합적 감성 분석 결과를 획득할 수 있다.
상기 상황 정보는, 제1 단말 장치 및 제2 단말 장치 중 적어도 하나의 사용자의 성별 및 연령 중 적어도 하나, 제1 단말 장치 및 제2 단말 장치 각각의 사용자의 관계, 텍스트 전송 시간, 텍스트 전송 날짜, 텍스트 전송 요일 중 적어도 하나를 포함할 수 있다.
상기 감성 사전 데이터베이스는, 텍스트 기반 감성 사전 데이터베이스를 포함하고 상기 프로세서는, 상기 텍스트 기반 감성 사전 데이터베이스를 열람하여 상기 감성 사전 데이터베이스에 상기 형태소 또는 상기 형태소에 대응하는 정보의 존재 여부를 판단하고, 만약 상기 텍스트 기반 감성 사전 데이터베이스에 상기 형태소 또는 상기 형태소에 대응하는 정보가 존재하면, 상기 형태소에 대응하는 제1 감성 값을 추출할 수 있다.
상기 감성 사전 데이터베이스는, 상황 기반 감성 사전 데이터베이스를 더 포함하고, 상기 프로세서는, 상기 상황 기반 감성 사전 데이터베이스를 더 열람하고, 상기 감성 사전 데이터베이스에 상기 형태소 또는 상기 형태소에 대응하는 정보의 존재 여부를 더 판단하고, 만약 상기 상황 기반 감성 사전 데이터베이스에 상기 형태소 또는 상기 형태소에 대응하는 정보가 존재하면, 상기 형태소에 대응하는 제2 감성 값을 더 추출하되, 상기 상황 기반 감성 사전 데이터베이스는 대인 관계 상황에서 높은 빈도를 갖는 단어를 포함할 수 있다.
상기 프로세서는, 상기 텍스트가 이모티콘을 포함하는지 판단하고, 만약 상기 텍스트가 이모티콘을 포함하는지 판단하는 경우, 이모티콘 감성 사전 데이터베이스를 더 열람하고, 상기 이모티콘 감성 사전 데이터베이스에 상기 이모티콘에 대응하는 정보의 존재 여부를 더 판단하고, 만약 상기 이모티콘 감성 사전 데이터베이스에 상기 이모티콘에 대응하는 정보가 존재하면, 상기 형태소에 대응하는 제3 감성 값을 더 추출할 수 있다.
상기 프로세서는, 상기 종합적 감성 분석 결과를 상기 제1 단말 장치 및 상기 제2 단말 장치 중 적어도 하나에 전달할 수 있다.
상기 종합적 감성 분석 결과는, 긍정적 감성, 부정적 감성 및 중립적 감성 중 적어도 하나를 포함할 수 있다.
상기 종합적 감성 분석 결과는, 상기 긍정적 감성, 부정적 감성 및 중립적 감성 중 적어도 하나에 대한 시계열적 분석 결과를 포함할 수 있다.
상기 종합적 감성 분석 결과는, 상기 제1 사용자 및 상기 제2 사용자 중 적어도 하나에 의해 미리 설정된 기간 내에서의 시계열적 분석 결과를 포함할 수 있다.
상기 종합적 감성 분석 결과는, 상기 제2 단말 장치의 사용자에 대한 상기 제1 단말 장치의 사용자의 감성 분석 결과를 포함할 수 있다.
감성 분석 방법은, 제1 단말 장치 및 제2 단말 장치 상호 간에 적어도 하나의 텍스트가 전송되는 단계, 상기 적어도 하나의 텍스트를 획득하는 단계, 상기 적어도 하나의 텍스트의 형태소를 분석하는 단계, 감성 사전 데이터베이스를 기반으로 분석된 상기 형태소에 대응하는 감성 분석 결과를 획득하는 단계 및 상기 감성 분석 결과를 이용하여 상기 제1 단말 장치의 사용자에 대한 상기 제2 단말 장치의 사용자의 대한 종합적 감성 분석 결과를 획득하는 단계를 포함할 수 있다.
감성 분석 방법은, 상기 종합적 감성 분석 결과 획득을 위하여, 분석된 상기 형태소를 이용하여 상기 적어도 하나의 텍스트 자체에 대한 텍스트 정보를 획득하는 단계를 더 포함할 수 있다.
상기 텍스트 정보는, 형태소의 개수, 존칭어의 사용 여부, 사용된 존칭어, 기호의 사용 여부, 사용된 기호, 이모티콘의 사용 여부 및 사용된 이모티콘 중 적어도 하나를 포함할 수 있다.
감성 분석 방법은, 상기 종합적 감성 분석 결과를 획득을 위하여, 상기 제1 단말 장치 및 상기 제2 단말 장치 사이의 상호 대화에 관한 상황 정보를 획득하는 단계를 더 포함할 수 있다.
상기 상황 정보는, 제1 단말 장치 및 제2 단말 장치 중 적어도 하나의 사용자의 성별 및 연령 중 적어도 하나, 제1 단말 장치 및 제2 단말 장치 각각의 사용자의 관계, 텍스트 전송 시간, 텍스트 전송 날짜, 텍스트 전송 요일 중 적어도 하나를 포함할 수 있다.
상기 감성 사전 데이터베이스를 기반으로 분석된 상기 형태소에 대응하는 감성 분석 결과를 획득하는 단계는, 상기 텍스트 기반 감성 사전 데이터베이스를 열람하는 단계, 상기 텍스트 기반 감성 사전 데이터베이스에 상기 형태소 또는 상기 형태소에 대응하는 정보의 존재 여부를 판단하는 단계 및 만약 텍스트 기반 상기 감성 사전 데이터베이스에 상기 형태소 또는 상기 형태소에 대응하는 정보가 존재하면, 상기 형태소에 대응하는 제1 감성 값을 추출하는 단계를 포함할 수 있다.
상기 감성 사전 데이터베이스를 기반으로 분석된 상기 형태소에 대응하는 감성 분석 결과를 획득하는 단계는, 상황 기반 감성 사전 데이터베이스를 더 열람하는 단계, 상기 감성 사전 데이터베이스에 상기 형태소 또는 상기 형태소에 대응하는 정보의 존재 여부를 더 판단하는 단계 및 만약 상기 상황 기반 감성 사전 데이터베이스에 상기 형태소 또는 상기 형태소에 대응하는 정보가 존재하면, 상기 형태소에 대응하는 제2 감성 값을 더 추출하는 단계를 포함하되, 상기 상황 기반 감성 사전 데이터베이스는 대인 관계 상황에서 높은 빈도를 갖는 단어로 구축된 것일 수 있다.
상기 감성 사전 데이터베이스를 기반으로 분석된 상기 형태소에 대응하는 감성 분석 결과를 획득하는 단계는, 상기 텍스트가 이모티콘을 포함하는지 판단하는 단계, 만약 상기 텍스트가 이모티콘을 포함하는지 판단하는 경우, 이모티콘 감성 사전 데이터베이스를 더 열람하는 단계, 상기 이모티콘 감성 사전 데이터베이스에 상기 이모티콘에 대응하는 정보의 존재 여부를 더 판단하는 단계 및 만약 상기 이모티콘 감성 사전 데이터베이스에 상기 이모티콘에 대응하는 정보가 존재하면, 상기 형태소에 대응하는 제3 감성 값을 더 추출하는 단계를 포함할 수 있다.
감성 분석 방법은, 상기 종합적 감성 분석 결과를 상기 제1 단말 장치 및 상기 제2 단말 장치 중 적어도 하나에 전달하는 단계를 더 포함할 수 있다.
상기 종합적 감성 분석 결과는, 긍정적 감성, 부정적 감성 및 중립적 감성 중 적어도 하나를 포함할 수 있다.
상기 종합적 감성 분석 결과는, 상기 긍정적 감성, 부정적 감성 및 중립적 감성 중 적어도 하나에 대한 시계열적 분석 결과를 포함할 수 있다.
상기 종합적 감성 분석 결과는, 상기 제1 사용자 및 상기 제2 사용자 중 적어도 하나에 의해 미리 설정된 기간 내에서의 시계열적 분석 결과를 포함할 수 있다.
상기 종합적 감성 분석 결과는, 상기 제2 단말 장치의 사용자에 대한 상기 제1 단말 장치의 사용자의 감성 분석 결과를 포함할 수 있다.
대화형 에이전트 시스템은, 제1 단말 장치, 상기 제1 단말 장치와 적어도 하나의 텍스트를 상호 송수신하는 제2 단말 장치 및 상기 제1 단말 장치 및 상기 제2 단말 장치 사이에서 송수신되는 적어도 하나의 텍스트의 형태소를 분석하고, 감성 사전 데이터베이스를 기반으로 상기 형태소에 대응하는 감성 분석 결과를 획득하고, 상기 감성 분석 결과를 이용하여 총체적 감성 분석을 수행함으로써, 상기 제1 단말 장치의 사용자 및 상기 제1 단말 장치의 사용자 중 적어도 하나의 감성 상태 판단 결과를 획득하는 감성 분석 서비스 장치를 포함할 수 있다.
단말 장치는, 제1 텍스트를 입력받는 입력부, 상기 제1 텍스트를 다른 단말 장치로 전송하고, 상기 다른 단말 장치로부터 제2 텍스트를 수신하는 통신부, 상기 제1 텍스트 및 상기 제2 텍스트 중 적어도 하나의 형태소를 분석하고, 감성 사전 데이터베이스를 기반으로 분석된 상기 형태소에 대응하는 감성 분석 결과를 획득하고, 상기 감성 분석 결과를 이용하여 상기 다른 단말 장치의 사용자의 대한 종합적 감성 분석 결과를 획득하는 프로세서 및 상기 종합적 감성 분석 결과를 출력하는 출력부를 포함할 수 있다.
상술한 감성 분석 장치, 이를 포함하는 대화형 에이전트 시스템, 이를 수행하기 위한 단말 장치 및 감성 분석 방법에 의하면, 대인 관계 상황의 데이터 기반의 감성 분석을 보다 효과적으로 적절하게 수행할 수 있게 된다.
상술한 감성 분석 장치, 이를 포함하는 대화형 에이전트 시스템, 이를 수행하기 위한 단말 장치 및 감성 분석 방법에 의하면, 대인 관계에 대한 상황을 기반으로 감성을 분석하되, 메신저 또는 소셜 네트워크 상에서의 개개인의 활동 결과에서 확인되는 여러 상황 정보들과 대화의 내용 등을 종합적으로 반영하여 감성 분석을 수행할 수 있게 되며, 이를 통해 도출된 분석 결과(감성 상태 등)을 기반으로 관계 친화형 서비스를 구축할 수 있게 된다.
상술한 감성 분석 장치, 이를 포함하는 대화형 에이전트 시스템, 이를 수행하기 위한 단말 장치 및 감성 분석 방법에 의하면, 하나의 사용자의 감성 상태 또는 복수의 사용자 간의 감성 상태를 기반으로 사용자(들)에게 적합한 서비스를 제공할 수 있게 되며, 이에 따라 사용자(들)의 만족도를 향상시킬 수 있게 되는 효과도 얻을 수 있다.
상술한 감성 분석 장치, 이를 포함하는 대화형 에이전트 시스템, 이를 수행하기 위한 단말 장치 및 감성 분석 방법에 의하면, 소셜 네트워크 시스템이나 메신저 프로그램을 통해 일 방향 또는 쌍방향 대화가 진행되는 경우, 상대방 또는 상황에 따른 감성 상태에 부합되는 단어, 문장, 화상(예를 들어, 이모티콘 등) 및/또는 사운드 등을 적절하게 추천할 수 있게 된다.
상술한 감성 분석 장치, 이를 포함하는 대화형 에이전트 시스템, 이를 수행하기 위한 단말 장치 및 감성 분석 방법에 의하면, 고객 응대나 개인 비서 서비스 등을 위해 챗봇을 사용하는 경우, 챗봇이 분석된 사용자의 감성 상태를 기반으로 사용자 및 상황에 보다 부합되는 메시지를 생성할 수 있도록 할 수 있으며 이에 따라 챗봇 이용자의 고객 만족도를 향상시킬 수 있게 된다.
상술한 감성 분석 장치, 이를 포함하는 대화형 에이전트 시스템, 이를 수행하기 위한 단말 장치 및 감성 분석 방법은, 기업이나 공공기관에서 대화 상대방의 감성을 분석하기 위해서도 이용 가능하다.
도 1은 대화형 에이전트 시스템의 일 실시예에 대한 도면이다.
도 2는 감성 분석 장치의 일 실시예에 대한 블록도이다.
도 3은 프로세서 및 저장부의 일 실시예에 대한 블록도이다.
도 4는 정의된 변수의 일 실시예를 설명하기 위한 도면이다.
도 5는 채팅 화면의 일 실시예에 대한 도면이다.
도 6은 감성 값의 연산을 위한 수식의 일 실시예를 도시한 도면이다.
도 7은 감성 단어 분류 색인 결과의 일례를 설명하기 위한 도면이다.
도 8은 누적된 데이터의 일례에 대한 도표이다.
도 9는 감성 분석 결과에 따라 획득 가능한 여러 상태의 일례를 설명하기 위한 도면이다.
도 10은 감성 분석 결과를 채팅 화면에 나타나는 일 실시예를 도시한 도면이다.
도 11은 인물 중심의 감성 분석 결과 제공 화면의 일 실시예를 도시한 도면이다.
도 12는 시계열 중심의 감성 분석 결과 제공 화면의 일 실시예를 도시한 도면이다.
도 13은 단말 장치의 일 실시예에 대한 도면이다.
도 14는 감성 분석 방법의 일 실시예에 대한 흐름도이다.
도 15는 감성 분석 방법의 개시 과정의 일 실시예에 대한 보다 상세한 흐름도이다.
도 16은 감성 사전 기반으로 감성 값을 획득하는 과정의 일 실시예에 대한 제1 흐름도이다.
도 17은 감성 사전 기반으로 감성 값을 획득하는 과정의 일 실시예에 대한 제2 흐름도이다.
도 18은 감성 분석 결과 정보의 제공 방법의 일 실시예에 대한 흐름도이다.
이하 명세서 전체에서 동일 참조 부호는 특별한 사정이 없는 한 동일 구성요소를 지칭한다. 이하에서 사용되는 '부'가 부가된 용어는, 소프트웨어 또는 하드웨어로 구현될 수 있으며, 실시예에 따라 '부'가 하나의 부품으로 구현되거나, 하나의 '부'가 복수의 부품들로 구현되는 것도 가능하다.
명세서 전체에서 어떤 부분이 다른 부분과 연결되어 있다고 할 때, 이는 어떤 부분과 다른 부분에 따라서 물리적 연결을 의미할 수도 있고, 또는 전기적으로 연결된 것을 의미할 수도 있다.
또한, 어떤 부분이 다른 부분을 포함한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 부분 이외의 또 다른 부분을 제외하는 것이 아니며, 설계자의 선택에 따라서 또 다른 부분을 더 포함할 수 있음을 의미한다.
제 1 이나 제 2 등의 용어는 하나의 부분을 다른 부분으로부터 구별하기 위해 사용되는 것으로, 특별한 기재가 없는 이상 이들이 순차적인 표현을 의미하는 것은 아니다.
단수의 표현은 문맥상 명백하게 예외가 있지 않는 한, 복수의 표현을 포함할 수 있다.
이하 도 1 내지 도 12를 참조하여 감성 분석 장치, 이를 포함하는 대화형 에이전트 시스템 및 단말 장치의 일 실시예에 대해서 설명하도록 한다.
도 1은 대화형 에이전트 시스템의 일 실시예에 대한 도면이다.
도 1에 도시된 바에 의하면, 대화형 에이전트 시스템(1)은, 네트워크(9)를 통해 상호 통신 가능한 복수의 단말 장치(90)와, 감성 분석 장치(100)를 포함할 수 있다.
네트워크(9)는, 유선 통신 네트워크, 무선 통신 네트워크 또는 이들의 조합을 포함할 수 있다. 여기서, 유선 통신 네트워크는, 케이블을 이용하여 구축된 것일 수 있으며, 케이블은, 예를 들어, 페어 케이블, 동축 케이블, 광섬유 케이블 또는 이더넷 케이블 등을 이용하여 구현된 것일 수 있다. 무선 통신 네트워크는 근거리 통신 네트워크 및 원거리 통신 네트워크 중 적어도 하나를 이용하여 구현된 것일 수 있다. 여기서, 근거리 통신 네트워크는, 예를 들어, 와이 파이(Wi-Fi), 지그비(zigbee), 블루투스(Bluetooth), 와이파이 다이렉트(Wi-Fi Direct), 저전력 블루투스(Bluetooth Low Energy), 캔(CAN) 통신 또는 엔에프씨(NFC, Near Field Communication) 등을 이용하여 구현된 것일 수 있다. 원거리 통신 네트워크는, 유선 통신 네트워크예를 들어, 3GPP, 3GPP2 또는 와이맥스 계열 등의 이동 통신 표준을 기반으로 구현된 것일 수 있다.
단말 장치(90)는 복수의 단말 장치, 예를 들어 제1 단말 장치(10) 및 제2 단말 장치(20)를 포함할 수 있다. 도 1에는 두 개의 단말 장치(10, 20)만이 도시되어 있으나, 단말 장치(90)의 개수는 이에 한정되지 않는다. 실시예에 따라서, 대화형 에이전트 시스템(1)은 셋 또는 그 이상의 단말 장치(미도시)를 더 포함할 수도 있다.
복수의 단말 장치(90), 예를 들어 제1 단말 장치(10) 및 제2 단말 장치(20)는, 소정의 메시지를 송수신할 수 있도록 마련된다. 여기서, 메시지는 텍스트(기호, 문자, 숫자, 유니코드 등에서 정의된 도형 또는 이들 중 적어도 둘의 조합 등을 포함할 수 있다) 및/또는 화상 등을 포함할 수 있다. 여기서 화상은 정지 화상 및 동화상 중 적어도 하나를 포함할 수 있으며, 정지 화상 및 동화상 중 적어도 하나는, 예를 들어, 이모티콘을 포함할 수 있다.
제1 단말 장치(10)는 사용자로부터 텍스트 및/또는 화상 등을 입력 받거나 및/또는 제2 단말 장치(20)로부터 전송된 텍스트 및/또는 화상을 수신하여 시각적 및/또는 청각적으로 출력할 수 있도록 마련된다. 제2 단말 장치(20)도 이와 동일하게 제1 단말 장치(10)로 텍스트 및/또는 화상을 송수신하거나 수신한 텍스트 및/또는 화상을 시각적 및/또는 청각적으로 출력할 수 있도록 마련된다.
단말 장치(90), 즉 제1 단말 장치(10) 및 제2 단말 장치(20)는, 예를 들어, 셀룰러 폰, 스마트 폰, 태블릿 피씨, 디지털 텔레비전, 셋톱 박스, 데스크톱 컴퓨터, 랩톱 컴퓨터, 내비게이션 장치, 개인용 디지털 보조기(PDA, Personal Digital Assistant), 휴대용 게임기, 두부 장착형 디스플레이(HMD, Head Mounted Display) 장치나 스마트 시계 등과 같은 웨어러블 장치, 음향 재생 장치(예를 들어, 인공지능 스피커 등) 및 이외 부호의 입력 및 수정이 가능한 다양한 장치 중 적어도 하나를 포함할 수 있다.
감성 분석 장치(100)는 단말 장치(90) 사이에서 전송되는 메시지를 기반으로 감성 분석을 수행할 수 있다. 구체적으로, 감성 분석 장치(100)는 제1 단말 장치(10)에서 제2 단말 장치(20)로 전송되는 메시지 및/또는 제2 단말 장치(20)에서 제1 단말 장치(10)로 전송되는 메시지를 기반으로, 어느 하나의 단말 장치(10, 20)의 사용자에 대한 다른 단말 장치(20, 10)의 사용자에 대한 감성/감성을 분석하여 판단할 수 있다. 보다 구체적으로 예를 들어, 감성 분석 장치(100)는 제1 단말 장치(10)의 사용자에 대한 제2 단말 장치(20)의 사용자의 감성을 판단하거나, 및/또는 제2 단말 장치(20)의 사용자에 대한 제1 단말 장치(10)의 사용자의 감성을 판단할 수 있도록 마련된다. 이에 대한 상세한 내용은 후술한다.
메시지 처리 장치(80)가 부재한 경우, 감성 분석 장치(100)는 메시지 처리 장치(80)의 기능도 함께 수행하도록 마련된 것일 수도 있다. 다시 말해서, 감성 분석 장치(100)는 메시지 처리 장치(80)와 일체형으로 구현될 수도 있다.
감성 분석 장치(100)는, 서버 장치 등과 같은 컴퓨팅 장치(100A, 100B)를 이용하여 구현 가능하며, 실시예에 따라서 하나의 컴퓨팅 장치(예를 들어, 100A)를 이용하여 구현될 수도 있고, 또는 둘 이상의 컴퓨팅 장치(100A, 100B)를 이용하여 구현될 수도 있다. 감성 분석 장치(100)를 둘 이상의 컴퓨팅 장치(100A, 100B)를 이용하여 구현하는 경우, 둘 이상의 컴퓨팅 장치(100A, 100B)는 내부적으로 별도로 마련된 네트워크 및/또는 외부의 네트워크(9)를 통하여 상호 데이터를 송수신하도록 연결된 것일 수도 있다.
실시예에 따라서, 대화형 에이전트 시스템(1)은, 복수의 단말 장치(90) 및 감성 분석 장치(100)와 네트워크(9)를 통해 통신 가능하게 연결되는 메시지 처리 장치(80)를 더 포함할 수도 있다. 메시지 처리 장치(80)는, 단말 장치(90), 일례로 제1 단말 장치(10) 및 제2 단말 장치(20) 사이의 메시지의 전송, 암호화, 압축 및/또는 저장 등을 처리할 수 있도록 마련된다. 예를 들어, 메시지 처리 장치(80)는, 서버 장치 등과 같은 적어도 하나의 컴퓨팅 장치를 이용하여 구현될 수 있다.
도 2는 감성 분석 장치의 일 실시예에 대한 블록도이고, 도 3은 프로세서 및 저장부의 일 실시예에 대한 블록도이다.
도 2에 도시된 바와 의하면, 감성 분석 장치(100)는, 일 실시예에 있어서, 통신부(110), 저장부(120) 및 프로세서(130)를 포함할 수 있다. 통신부(110), 저장부(120) 및 프로세서(130)는 상호 케이블 및/또는 금속선 등을 통해 상호 간에 전기적 신호를 전달함으로써 소정의 데이터를 송수신할 수 있도록 마련된다. 도 2는 감성 분석 장치(100)가 통신부(110), 저장부(120) 및 프로세서(130)만이 포함하는 일 실시예만을 도시하고 있으나, 감성 분석 장치(100)는 오직 이들만 포함하는 것은 아니다. 실시예에 따라서, 감성 분석 장치(100)는, 입력부나 출력부 등을 더 포함하는 것도 가능하다.
통신부(110)는, 복수의 단말 장치(90), 일례로 제1 단말 장치(10) 및 제2 단말 장치(20) 상호 간에 전달되는 메시지를 수신할 수 있다. 즉, 통신부(110)는 제1 단말 장치(10)로부터 제2 단말 장치(20)로 전달되는 모든 또는 일부의 메시지와, 제2 단말 장치(20)로부터 제1 단말 장치(10)로 전달되는 모든 또는 일부의 메시지를 수신하여 획득할 수 있다. 통신부(110)가 수신한 메시지는 저장부(120) 및 프로세서(130) 중 적어도 하나로 전달된다.
통신부(110)는, 네트워크(9)에 접속 가능한 소정의 통신 모듈을 이용하여 구현 가능하며, 예를 들어, 통신 칩, 통신 케이블 연결 단자 및/또는 안테나 등을 포함하여 구현될 수 있다.
저장부(120)는 감성 분석 장치(100)의 동작에 필요한 각종 데이터나 애플리케이션을 일시적 또는 비일시적으로 저장할 수 있도록 마련된다. 일 실시예에 따르면, 저장부(120)는, 도 3에 도시된 바와 같이 텍스트 기반 감성 사전 데이터베이스(121), 상황 기반 감성 사전 데이터베이스(122) 및 이모티콘 감성 사전 데이터베이스(123) 중 적어도 하나를 저장할 수도 있다. 또한, 저장부(120)는 프로세서(130)로부터 전달된 적어도 하나의 감성 값(124)을 저장할 수도 있고, 및/또는 프로세서(130)가 획득한 최종적인 분석 결과(129)를 저장할 수도 있다. 뿐만 아니라, 저장부(120)는 프로세서(130)의 동작에 필요한 적어도 하나의 애플리케이션(미도시, 일례로, 상황 정보 추출, 형태소 분석, 텍스트 정보 획득, 감성 분석 및/또는 종합 분석을 위해 설계된 적어도 하나의 프로그램 등)을 저장할 수도 있다. 여기서, 저장부(120)에 저장된 애플리케이션은, 설계자에 의해 미리 작성되어 저장부(120)에 저장된 것일 수도 있고, 또는 감성 분석 장치(100)가 통신부(110) 및 유무선 통신 네트워크(9)를 통해 접속 가능한 전자 소프트웨어 유통망을 통하여 획득 또는 갱신되는 것일 수도 있다.
저장부(120)는, 예를 들어, 주기억장치 및 보조기억장치 중 적어도 하나를 포함할 수 있다. 주기억장치는 롬(ROM) 및/또는 램(RAM)과 같은 반도체 저장 매체를 이용하여 구현된 것일 수 있다. 롬은, 예를 들어, 통상적인 롬, 이프롬(EPROM), 이이프롬(EEPROM) 및/또는 마스크롬(MASK-ROM) 등을 포함할 수 있다. 램은 예를 들어, 디램(DRAM) 및/또는 에스램(SRAM) 등을 포함할 수 있다. 보조기억장치는, 플래시 메모리 장치, SD(Secure Digital) 카드, 솔리드 스테이트 드라이브(SSD, Solid State Drive), 하드 디스크 드라이브(HDD, Hard Disc Drive), 자기 드럼, 컴팩트 디스크(CD), 디브이디(DVD) 또는 레이저 디스크 등과 같은 광 기록 매체(optical media), 자기 테이프, 광자기 디스크 및/또는 플로피 디스크 등과 같이 데이터를 영구적 또는 반영구적으로 저장 가능한 적어도 하나의 저장 매체를 이용하여 구현될 수 있다.
프로세서(130)는, 감성 분석 장치(100)의 동작에 필요한 적어도 하나의 연산, 판단, 처리 및/또는 제어 동작 등을 수행할 수 있다. 이 경우, 프로세서(130)는 저장부(120)에 저장된 애플리케이션을 구동시켜 상술한 동작을 수행할 수도 있다.
프로세서(130)는, 예를 들어, 적어도 하나의 중앙 처리 장치(CPU, Central Processing Unit), 마이크로 컨트롤러 유닛(MCU, Micro Controller Unit), 마이컴(Micom, Micro Processor), 애플리케이션 프로세서(AP, Application Processor), 전자 제어 유닛(ECU, Electronic Controlling Unit) 및/또는 각종 연산 처리 및 제어 신호의 생성이 가능한 다른 전자 장치 등을 포함할 수 있다. 이들 장치는 예를 들어 하나 또는 둘 이상의 반도체 칩 및 관련 부품을 이용하여 구현 가능하다.
도 3에 도시된 바에 의하면, 프로세서(130)는 상황 정보 추출부(131), 형태소 분석부(132), 텍스트 정보 획득부(133), 감성 분석부(134), 종합 분석부(135) 및 분석 결과 처리부(136)를 포함할 수도 있다. 상황 정보 추출부(131), 형태소 분석부(132), 텍스트 정보 획득부(133), 감성 분석부(134), 종합 분석부(135) 및 분석 결과 처리부(136)는 논리적으로 구분되는 것일 수도 있고, 물리적으로 구분되는 것일 수도 있다. 실시예에 따라서, 이들 부분(131 내지 136) 중 적어도 하나는 생략되는 것도 가능하다. 예를 들어, 프로세서(130)는 분석 결과 처리부(136)를 포함하지 않을 수도 있다.
상황 정보 추출부(131)는, 상황에 대한 정보를 추출할 수 있다. 보다 구체적으로는 상황 정보 추출부(131)는 제1 단말 장치(10) 및 제2 단말 장치(20) 사이에 메시지에 따라서 제1 단말 장치(10) 및 제2 단말 장치(20)의 사용자 중 적어도 하나에 대한 상황 정보를 추출할 수 있다.
일 실시예에 의하면, 상황 정보 추출부(131)는 제1 단말 장치(10) 및 제2 단말 장치(20) 각각에 설치된 소정의 애플리케이션(예를 들어, 메시지 애플리케이션)이 구동되고, 2인 이상의 사용자가 이를 통해 메시지를 입력한 경우, 이에 응하여 상황 분석을 개시하도록 설계될 수도 있다.
일 실시예에 의하면, 상황 정보 추출부(131)는, 관계 친화형 정보를 분석할 수 있다. 여기서, 관계 친화형 정보는, 인구 동태적 정보, 심리 동태적 정보 및/또는 문장 입력 시간 정보 등을 포함할 수 있다. 다시 말해서, 상황 정보 추출부(131)는 메시지에 내포되거나 부가된 정보를 기반으로, 가족 관계, 성격 및/또는 상호 간의 친밀감 등과 같은 정보를 획득하여 상황 정보를 결정할 수도 있다. 이를 위해 상황 정보 추출부(131)는 메시지 정보 분석기를 이용할 수도 있다.
도 4는 정의된 변수의 일 실시예를 설명하기 위한 도면이다.
보다 구체적으로 예를 들어, 상황 정보 추출부(131)는, 도 4에 도시된 바와 같이 사용자 프로파일(user profile)이나 사용자 맥락(user context)을 추출할 수 있다. 여기서, 사용자 프로파일은, 사용자의 특성 등에 대한 정보를 포함할 수 있으며, 예를 들어, 제1 단말 장치(10)의 사용자의 성별이나 나이, 제2 단말 장치(20)의 사용자의 성별이나 나이 및/또는 제1 단말 장치(10) 및 제2 단말 장치(20) 각각의 사용자 사이의 관계 등을 포함할 수 있다. 또한, 필요에 따라서, 사용자 프로파일은, 제1 단말 장치(10) 및 제2 단말 장치(20) 각각의 사용자가 동성인지 또는 이성인지 여부 등에 대한 정보도 포함할 수 있다. 사용자 맥락은, 사용자의 주변 환경이나 사회, 문화적 맥락 등을 포함할 수 있으며, 예를 들어, 메시지를 전송한 시점 등을 포함할 수 있다. 보다 구체적으로 사용자 맥락은, 도 4에 도시된 바와 같이, 메시지의 전송 시간, 메시지 전송 시각의 특수 여부(예를 들어, 메시지 전송 시각이 심야 또는 새벽인지 여부 등), 메시지의 전송 요일, 메시지의 전송 날자 및/또는 메시지의 전송 빈도 등을 포함할 수 있다.
상황 정보 추출부(131)는 상황 정보의 추출을 위해서 제1 단말 장치(10) 및 제2 단말 장치(20) 각각에 저장된 정보를 이용하거나, 및/또는 제1 단말 장치(10) 및 제2 단말 장치(20) 사이의 메시지 통신을 중개하는 장치(일례로 메시지 처리 장치(80))에 저장된 정보를 이용할 수도 있다. 또한, 상황 정보 추출부(131)는 제1 단말 장치(10) 및 제2 단말 장치(20) 상호 간에 송수신되는 메시지의 전부 또는 일부를 이용하여 상황 정보의 추출하는 것도 가능하다.
상황 정보 추출부(131)가 추출한 상황 정보는, 종합 분석부(135)로 전달될 수 있다.
형태소 분석부(132)는 제1 단말 장치(10) 및 제2 단말 장치(20) 상호 간에 송수신되는 메시지의 전부 또는 일부로부터 형태소를 분석하여 획득할 수 있다. 형태소 분석부(132)는 상황 정보 추출부(131)의 동작과 동시에 또는 순차적으로 동작을 수행할 수 있다.
일 실시예에 의하면, 형태소 분석부(132) 역시 제1 단말 장치(10) 및 제2 단말 장치(20) 각각이 소정의 애플리케이션을 구동시키고, 2인 이상의 사용자가 소정의 애플리케이션을 통하여 메시지를 입력한 경우에 한하여 형태소 분석을 개시하는 것도 가능하다.
도 5는 채팅 화면의 일 실시예에 대한 도면이다.
예를 들어, 제1 단말 장치(10)의 사용자는, 도 4에 도시된 바와 같이, 제1 단말 장치(10)의 입력부(도 13의 11-1 등)를 통해서, 적어도 하나의 메시지(T11 내지 T13)를 입력할 수 있다. 입력된 메시지(T11 내지 T13)는 네트워크(9)를 통하여 제2 단말 장치(20)로 전달된다. 입력된 메시지(T11 내지 T13)는 제1 단말 장치(10)의 출력부, 일례로 디스플레이(19M)에 표시될 수도 있다. 제2 단말 장치(20)의 사용자는 메시지(T11 내지 T13)의 수신에 응하여 적어도 하나의 응답 메시지(T21, T22)를 제2 단말 장치(20)의 입력부(미도시)를 통해 입력할 수 있으며, 응답 메시지(T21, T22)는 네트워크(9)를 통해 제1 단말 장치(10)로 전달된다. 응답 메시지(T21, T22)도 디스플레이(19M)에 순차적으로 표시될 수도 있다.
이와 같이 형태소 분석부(132)는 제1 단말 장치(10) 및 제2 단말 장치(20) 상호 간에 전달되는 메시지(T11 내지 T13, T21, T22)를 획득할 수 있다. 이 경우, 형태소 분석부(132)는, 실시예에 따라서, 통신부(110)를 통해서 각각의 단말 장치(10, 20)로부터 메시지(T11 내지 T13, T21, T22)를 직접 획득할 수도 있고, 및/또는 제1 단말 장치(10) 및 제2 단말 장치(20) 사이의 메시지 통신을 중개하는 장치(일례로 메시지 처리 장치(80))로부터 메시지(T11 내지 T13, T21, T22)를 수신하여 획득할 수도 있다.
형태소 분석부(132)는, 획득한 메시지(T11 내지 T13, T21, T22)로부터 형태소를 분석하여 추출할 수 있다. 형태소는 더 이상 분해 불가능한 의미를 갖는 가장 작은 말의 단위를 의미한다. 형태소 분석부(132)는 사용자가 입력한 메시지의 각 어절로부터 자립 형태소나 의존 형태소 등을 분석, 분류 및 추출하여 획득할 수 있다. 실시예에 따라서, 전달되는 메시지(T11 내지 T13, T21, T22)가 음성의 형태인 경우, 형태소 분석부(132)는 메시지(T11 내지 T13, T21, T22)를 텍스트의 형태로 먼저 변환한 후, 변환된 텍스트로부터 형태소를 추출할 수도 있다. 또한, 만약 획득한 메시지(T11 내지 T13, T21, T22)가 화상(예를 들어, 정지 화상 또는 동화상)을 포함하는 경우라면, 형태소 분석부(132)는, 화상에 대해선 형태소 분석을 수행하지 않고, 화상이라는 정보를 부가할 수도 있다.
형태소 분석부(132)가 분석하여 추출한 형태소는 텍스트 정보 획득부(133) 및 감성 분석부(134) 중 적어도 하나로 전달될 수 있다.
텍스트 정보 획득부(133)는, 형태소 분석 결과를 기반으로 텍스트에 대한 정보를 획득할 수 있다. 예를 들어, 도 4에 도시된 바와 같이, 텍스트 정보 획득부(133)는 메시지 내의 어절 수, 메시지 내의 형태소 수, 메시지 내에서의 이모티콘 등의 사용 여부 및 사용 횟수, 감성어의 존재 여부, 긍정어의 개수, 부정어의 개수, 존칭어의 사용 여부 및 사용한 존칭어, 기호의 사용 여부 및 사용한 기호(예를 들어, 마일드(mild) 기호 횟수, 터치(touch) 기호 횟수 등) 및/또는 특별한 화상의 포함 여부 등에 대한 정보를 추출할 수 있다.
텍스트 정보 획득부(133)가 획득한 텍스트에 대한 정보는 종합 분석부(135)로 전달될 수 있다.
감성 분석부(134)는 형태소 분석부(132)가 추출한 형태소를 수신하고 수신한 형태소를 기반으로 감성 분석을 수행할 수 있다.
일 실시예에 의하면, 감성 분석부(134)는 저장부(120)에 저장된, 텍스트 기반 감성 사전 데이터베이스(121), 상황 기반 감성 사전 데이터베이스(122) 및 이모티콘 감성 사전 데이터베이스(123) 중 적어도 하나를 이용하여 감성 분석을 수행할 수 있다.
구체적으로, 감성 분석부(134)는 텍스트 기반 감성 사전 데이터베이스(121)을 기반으로 감성 값을 추출할 수 있다. 텍스트 기반 감성 사전 데이터베이스(121)은 특정한 단어에 대한 감성을 수치적으로 나타낸 데이터들의 집합이다. 감성 분석부(134)는 텍스트 기반 감성 사전 데이터베이스(121)의 단어나 형태소를, 추출한 단어나 형태소와 비교하고, 비교 결과에 따라서 메시지 내의 문장 각각으로부터 기본 감성어를 검출할 수 있다. 기본 감성어는 기본 긍정어 및 기본 부정어를 포함할 수도 있다.
도 6은 감성 값의 연산을 위한 수식의 일 실시예를 도시한 도면이다.
이와 같이 기본 감성어가 검출되면, 감성 분석부(134)는 감성 값을 연산할 수 있다. 예를 들어, 감성 분석부(134)는, 도 6에 도시된 바와 같이 수식을 기반으로 감성 값을 연산할 수 있다. 예를 들어, 감성 분석부(134)는 긍정어 하나에 +1을 대응시키고, 부정어 하나에 -1을 대응시킨 후, 이들 각각에 대응하는 값의 총합을 각각 연산하고, 연산된 총합을 합산하고, 합산된 값을 모든 감성어의 개수의 제곱근으로 나뉘어 기본 감성어에 대응하는 감성 값(제1 감성 값)을 결정할 수도 있다.
도 7은 감성 단어 분류 색인 결과의 일례를 설명하기 위한 도면이다.
또한, 감성 분석부(134)는 상황 기반 감성 사전 데이터베이스(122)을 기반으로 대인 관계 상황 고빈도 감성어에 대응하는 감성 값을 추출할 수 있다. 상황 기반 감성 사전 데이터베이스(122)는 대인 관계 상황 고빈도 감성어(들)로 이루어진 데이터 집단을 의미한다. 대인 관계 상황 고빈도 감성어는, 메시지 프로그램 등을 통한 대화 상황에서 높은 빈도로 등장하는 감성어를 의미하며, 형태소 등의 형태로 정의된 것일 수 있다. 대인 관계 상황 고빈도 감성어(들)는, 감성 분석에 있어서, 특별한 감성 유무를 분석하기 위한 기준으로 이용될 수 있다. 감성 분석부(134)는 상황 기반 감성 사전 데이터베이스(122)의 단어나 형태소를, 추출한 단어나 형태소와 비교하고, 이를 기반으로 메시지(대화문)에 대인 관계 상황 고빈도 감성어가 존재하는지 여부를 판단할 수 있다.
이 경우, 감성 분석부(134)는 메시지들 내에 대인 관계 상황 고빈도 감성어의 존재하는지 여부에 따라 참값(True) 또는 거짓 값(false)를 리턴할 수 있다. 또한, 감성 분석부(134)는 메시지 내에서 고빈도 긍정어 및 고빈도 부정어를 별도로 기록할 수도 있다. 고빈도 긍정어는, 대인 관계 상황 고빈도 감성어 중에서 높은 빈도로 발생되는 긍정어를 포함하고, 고빈도 부정어는 대인 관계 상황 고빈도 감성어 중에서 높은 빈도로 발생되는 부정어를 포함한다. 여기서, 대인 관계 상황 고빈도 긍정어와 부정어는 설계자 또는 사용자의 임의적 선택에 따라 다양하게 정의 가능하다. 예를 들어, 설계자는 각각 38개의 대인 관계 상황 고빈도 긍정어와 부정어를 정의할 수 있다. 이 경우, 대인 관계 상황 고빈도 감성어의 총 개수는 76개가 된다.
각 38개의 대인 관계 상황 고빈도 긍정어와 부정어가 정의된 경우에 있어서, 감성 분석부(134)는, 도 6에 도시된 바와 같이, 다양한 긍정어 및 다양한 부정어를 검출하고 이들을 계수하여 빈도를 연산할 수 있다. 보다 상세하게는 감성 분석부(134)는, [좋-], [가능], [재미있-] 및 [^^] 등과 같은 긍정어를 검출하고, 이들 각각의 긍정어가 메시지 내에서 출현한 빈도를 계수할 수 있다. 예를 들어, [좋-], [가능], [재미있-] 및 [^^]는 순차적으로 619, 136, 103 및 980회 등장한 것으로 계수될 수 있으며, 전체 메시지 내의 문장 숫자가 33161개인 경우, 이들의 빈도는 각각 0.018667, 0.004101, 0.003106 및 0.029553으로 연산될 수 있다. 또한, 감성 분석부(134)는 [힘들-], [문제], [고민] 및 [ㅠ] 등과 같은 부정어를 검출하고, 이들 각각의 부정어가 메시지 내에서 출현한 빈도를 계수할 수도 있다. 예를 들어, [힘들-], [문제], [고민] 및 [ㅠ]는 각각 98, 91, 62, 1897회로 계수될 수 있으며, 이들의 빈도는 각각 0.002955, 0.002744, 0.001870 및 0.057206으로 결정될 수 있다.
감성 분석부(134)는 감성어(즉, 고빈도 긍정어 및 고빈도 부정어)가 검출되면, 도 6에 도시된 바와 같은 수학식을 이용하여 감성 값을 계산할 수 있다. 상세하게는, 감성 분석부(134)는 도 7에 도시된 바와 같이 긍정어 하나에 대응하는 감성 값을 +1로 정의하고, 부정어 하나에 대응하는 감성 값을 -1로 정의한다. 이들 긍정어에 대응하는 감성 값의 총합 및 부정어에 대응하는 감성 값의 총합을 각각 연산한 후 이들 총합 합산한다. 순차적으로 이들 총합의 합산 결과를, 모든 감성어의 개수(즉, 긍정어의 개수 및 부정어의 개수의 합)의 루트 값으로 나눈다. 이에 따라 대인 관계 상황 고빈도 감성어에 대응하는 감성 값이 결정될 수 있다.
한편, 감성 분석부(134)는 상황 기반 감성 사전 데이터베이스(122)의 열람 결과, 상황 기반 감성 사전 데이터베이스(122)로부터 대인 관계 상황 고빈도 감성어(들)이 검출되지 않는 경우라면, 대인 관계 상황 고빈도 감성어에 대응하는 감성 값은 결정하지 않을 수 있다.
또한, 감성 분석부(134)는, 메시지 내에 이모티콘이 존재하는 경우, 이모티콘 감성 사전 데이터베이스(123)를 열람하여 감성 값을 결정할 수 있다. 상술한 바와 동일하게 부정적인 이모티콘의 경우 음의 값을 대응시킨 후 그들의 합산을 연산하고, 긍정적인 이모티콘의 경우 양의 값을 대응시킨 후 그들의 합산을 연산하고, 각각의 합산을 더한 후, 이를 이모티콘의 총 개수의 제곱근으로 나누어 이모티콘에 대응하는 감성 값을 획득할 수도 있다. 물론 메시지 내에 이모티콘이 존재하지 않는 경우, 감성 분석부(132)는 이모티콘에 대응하는 감성 값을 획득하지 않을 수 있다.
감성 분석부(134)에 의해 기본 감성어에 대응하는 감성 값, 대인 관계 상황 고빈도 감성어에 대응하는 감성 값 및 이모티콘에 대응하는 감성 값 중 적어도 하나가 획득되면, 기본 감성어에 대응하는 감성 값, 대인 관계 상황 고빈도 감성어에 대응하는 감성 값 및 이모티콘에 대응하는 감성 값 중 적어도 하나는 종합 분석부(135)로 전달될 수 있다. 실시예에 따라서, 감성 분석부(134)에 의해 연산된 감성 값들은 저장부(120)로 전달될 수 있으며, 저장부(120)는 이들 감성 값(124)을 일시적 또는 비일시적으로 저장될 수도 있다.
도 8은 누적된 데이터의 일례에 대한 도표이다.
종합 분석부(135)는, 상황 정보 추출부(131)가 획득한 상황에 대한 정보, 텍스트 정보 획득부(133)가 획득한 텍스트에 대한 정보 및 감성 분석부(134)에 의해 획득된 감성 값(들) 중 적어도 하나를 기반으로 총체적 상황 기반 감성 분석을 수행할 수 있다.
예를 들어, 종합 분석부(135)는 도 8에 도시된 바와 같이 상황 정보 추출부(131), 텍스트 정보 획득부(133) 및 감성 분석부(134)에서 전달한 적어도 하나의 데이터를 조합하여 감성 분석 테이블(135a)을 구축할 수 있다. 감성 분석 테이블(135a)은 상술한 각종 정보, 예를 들어, 제1 단말 장치(10)의 사용자에 대한 정보, 제2 단말 장치(20)의 사용자와 의 관계에 대한 정보, 텍스트 내용, 텍스트의 어절이나 형태소 숫자, 사용된 감탄사, 이모티콘 사용 여부, 마일드 기호나 터치 기호의 개수, 감성 분석 결과 및/또는 메시지 전송 시간 등을 포함하여 구축된 것일 수 있다. 구축된 테이블(135a) 역시 저장부(120)에 일시적 또는 비일시적으로 저장 가능하다.
종합 분석부(135)는, 일 실시예에 있어서, 기계 학습을 기반으로 상황 기반 감성 분석을 수행할 수도 있다. 여기서, 기계 학습은, 예를 들어, 다층 퍼셉트론(MLN), 심층 신경망(DNN), 콘볼루션 신경망(CNN), 순환 신경망(RNN), 콘볼루션 순환 신경망(CRNN), 심층 신뢰 신경망(DBN) 및 심층 Q-네트워크(Deep Q-Networks) 중 적어도 하나의 알고리즘을 이용하여 구현 가능하다. 종합 분석부(135)는, 상술한 감성 분석 테이블(135a)을 소정의 기계 학습 알고리즘에 적용함으로써, 상황이나 관계 기반의 감성 상태 판단 알고리즘을 학습시키고, 이를 이용하여 제1 단말 장치(10)의 사용자에 대한 제2 단말 장치(20)의 사용자의 감성 및/또는 제2 단말 장치(20)의 사용자에 대한 제1 단말 장치(10)의 사용자의 감성을 결정할 수 있다.
도 9는 감성 분석 결과에 따라 획득 가능한 여러 상태의 일례를 설명하기 위한 도면이다.
이에 따라, 종합 분석부(135)는, 감성 상태를 결정할 수 있다. 예를 들어, 도 9에 도시된 바와 같이, 종합 분석부(135)는 제1 단말 장치(10) 및 제2 단말 장치(20)의 사용자 각각의 감성 상태를 9개의 감성 상태(129)로 구분하여 결정할 수 있으며, 보다 구체적으로는 제1 단말 장치(10)의 사용자 및 제2 단말 장치(20)의 사용자 각각의 감성 상태를, 긍정-긍정, 긍정-중립, 긍정-부정, 중립-긍정, 중립-중립, 중립-부정, 부정-긍정, 부정-중립 및 부정-부정 중 어느 하나로 결정할 수 있다.
종합 분석부(135)의 판단 결과(129)는 저장부(120)로 전달되어, 일시적 또는 비일시적으로 저장될 수 있다.
분석 결과 처리부(136)는 종합 분석부(135)의 판단 결과(129)를 기반으로 감성 분석 결과를 사용자에게 제공하도록 하거나 및/또는 이를 기반으로 통계적 분석을 더 수행하고 통계적 분석 결과를 사용자에게 제공하도록 할 수 있다.
도 10은 감성 분석 결과를 채팅 화면에 나타나는 일 실시예를 도시한 도면이다.
예를 들어, 도 10에 도시된 바와 같이, 제1 단말 장치(10)로부터 제2 단말 장치(20)로 메시지(T11 내지 T13)가 전송될 때마다 프로세서(130)의 상황 정보 추출부(131), 형태소 분석부(132), 텍스트 정보 획득부(133), 감성 분석부(134), 종합 분석부(135) 및 분석 결과 처리부(136)가 동작하여 각 메시지(T11 내지 T13)에 대한 감성이 분석될 수 있다. 감성 상태가 분석되면, 분석 결과 처리부(136)는 이를 기반으로 각 메시지(T11 내지 T13)에 대한 감성의 분석 결과(감성 상태 등, E11 내지 E13)가 디스플레이(19M) 상에 표시되도록 제어할 수 있다. 예를 들어, 각 메시지(T11 내지 T13)의 하단이나 측면에 각 메시지(T11 내지 T13)에 대응하는 분석 결과(E11 내지 E13)가 기호, 문자, 도형 및/또는 화상(정지 화상 또는 동화상을 포함할 수 있으며, 이모티콘을 포함할 수도 있다) 등의 형태로 표시될 수 있다.
또한, 반대로 제2 단말 장치(20)로부터 제1 단말 장치(10)로 메시지(T21, T22)가 전송될 때마다 이들(131 내지 136)은 동일하게 동작하여 각 메시지(T21, T22)에 대한 감성 분석 결과가 도출될 수도 있으며, 이에 따른 감성 분석 결과(E21, E22) 역시 기호, 문자, 도형 및/또는 화상 등의 형태로 디스플레이(19M)에 표시될 수 있다.
이에 따라서 제1 단말 장치(10)의 사용자 또는 제2 단말 장치(20)의 사용자는 전달되는 메시지(T11 내지 T13, T21, T22)에 대응하는 감성 상태를 용이하게 파악할 수 있게 된다.
도 11은 인물 중심의 감성 분석 결과 제공 화면의 일 실시예를 도시한 도면이다.
일 실시예에 의하면, 분석 결과 처리부(136)는, 도 8의 테이블(135a) 등을 기반으로 통계적 처리를 수행하여, 도 11에 도시된 바와 같이, 어느 하나의 사용자(일례로 제2 단말 장치(20)의 사용자)에 대한 다른 하나의 사용자(일례로 제1 단말 장치(10)의 사용자)의 감성 상태에 대한 분석 결과(G1, 즉, 인물 중심의 감성 분석 결과)를 제1 단말 장치(10) 및 제2 단말 장치(20) 중 적어도 하나에 표시할 수 있다. 예를 들어, 분석 결과 처리부(136)는 제1 단말 장치(10) 및 제2 단말 장치(20) 사이의 메시지를 기반으로 전체적인 메시지에서 긍정적으로 판단된 부분의 비율과, 부정적으로 판단된 부분의 비율과, 중립적으로 판단된 부분의 비율을 표시할 수 있다. 이 경우, 분석 결과 처리부(136)는 긍정적으로 판단된 부분의 비율과, 부정적으로 판단된 부분의 비율과, 중립적으로 판단된 부분의 비율을 도 11에 도시된 바와 같이 그래프(G1, 원형 그래프, 막대형 그래프, 선형 그래프, 방사형 그래프 및/또는 입체 그래프 등을 포함할 수 있다)의 형태로 표시할 수도 있다.
이 경우, 분석 결과 처리부(136)는, 미리 정의된 설정을 기반으로 분석 결과를 표시할 수도 있다. 예를 들어, 분석 결과 처리부(136)는, 사용자에 의해 미리 정의된 기간(예를 들어, 2개월) 동안에 송수신된 메시지를 기반으로 수행된 분석 결과를 표시하도록 할 수도 있다. 실시예에 따라서, 분석 결과 처리부(136)는, 사용자에 의해 미리 정의된 기간이 부재하는 경우, 디폴트로 설정된 기간(예를 들어, 1개월) 동안 송수신된 메시지를 기반으로 하는 분석 결과를 표시할 수도 있다.
도 12는 시계열 중심의 감성 분석 결과 제공 화면의 일 실시예를 도시한 도면이다.
다른 실시예에 의하면, 분석 결과 처리부(136)는, 장시간 동안 누적된 데이터를 기반으로 통계적 처리를 수행하고, 도 12에 도시된 바와 같이 시계열 중심으로 감성 분석 결과(G2)를 제1 단말 장치(10) 및 제2 단말 장치(20) 중 적어도 하나에 표시할 수도 있다. 이에 따라 제1 단말 장치(10)의 사용자 및 제2 단말 장치(20)의 사용자 중 적어도 하나는, 시계열 중심의 감성 분석 결과(G2)를 제공받을 수 있게 된다. 예를 들어, 분석 결과 처리부(136)는, 메시지로부터 분석된 감성(긍정적 감성, 중립적 감성 및 부정적 감성 중 적어도 하나)의 정도나 개수를 시간적으로 순서로 배치하고 이를 선형 그래프 형태로 표현하여 시간에 따른 감성의 변화를 화면(19M) 상에 표시할 수도 있다.
이 경우에도, 분석 결과 처리부(136)는, 미리 정의된 설정을 기반으로 시계열 중심으로 감성 분석 결과(S2)를 표시할 수도 있다. 예를 들어, 분석 결과 처리부(136)는, 사용자에 의해 미리 정의된 기간(예를 들어, 2개월)이나 설계자에 의해 임의적으로 설정된 디폴트 기간(예를 들어, 1개월) 동안 송수신된 메시지를 이용하여 감성 분석한 결과를 시계열로 표시할 수도 있다.
이상 감성 분석 장치(100) 또는 단말 장치(90)에 의해 감성 분석이 수행되는 일 실시예에 대해 설명하였으나, 감성 분석 장치(100) 또는 단말 장치(10 내지 30)의 동작은 상술한 실시예에 한정되는 것은 아니다. 예를 들어, 감성 분석 장치(100)의 동작의 전부 또는 일부는, 다른 장치(예를 들어, 단말 장치(10 내지 30))에 의해 수행되는 것도 가능하다. 구체적으로 예를 들어, 도 3에는 상황 정보 추출, 형태소 분석, 텍스트 정보 분석, 감성 분석 및 종합적인 분석 모두가 감성 분석 장치(100)의 프로세서(130)에 의해 수행되는 실시예에 대해 도시되어 있으나, 상황 정보 추출, 형태소 분석, 텍스트 정보 분석, 감성 분석 및 종합적인 분석 중 일부(예를 들어, 상황 정보 추출이나 형태소 분석 등)는 단말 장치(90; 10, 20)에 의해 처리되도록 설계하는 것도 가능하다.
이하 감성 분석 장치의 동작을 수행하는 단말 장치의 일 실시예에 대해 설명하도록 한다.
도 13은 단말 장치의 일 실시예에 대한 도면이다.
상술한 감성 분석 장치는 오직 단말 장치(30)만을 이용하여도 구현 가능하다. 이 경우, 단말 장치(30)는, 예를 들어, 셀룰러 폰, 스마트 폰, 태블릿 피씨, 디지털 텔레비전, 셋톱 박스, 데스크톱 컴퓨터, 랩톱 컴퓨터, 내비게이션 장치, 개인용 디지털 보조기, 휴대용 게임기, 웨어러블 장치, 음향 재생 장치 및 이외 부호의 입력 및 수정이 가능한 다양한 장치 중 적어도 하나를 포함할 수 있다.
도 13에 도시된 바를 참조하면, 단말 장치(30)는 일 실시예에 있어서, 입력부(31-1), 출력부(31-2), 통신부(31-3), 저장부(32) 및 프로세서(35)를 포함할 수 있다.
입력부(31-1)는, 다른 단말 장치(미도시)로 전송될 메시지를 사용자로부터 입력받을 수 있다. 구체적으로 입력부(31-1)는, 사용자로부터 메시지를 수신하고, 수신한 메시지를 소정의 형태(예를 들어, 텍스트나 화상의 형태)로 프로세서(35) 및/또는 통신부(31-3)로 전달할 수 있다. 입력부(31-1)는, 예를 들어, 키보드 장치, 마우스 장치, 마이크로 폰, 터치 스크린의 터치 감지 센서, 스마트 펜, 스마트 패드, 터치 패드, 동작 인식 센서, 광학 인식 센서, 데이터 입력 단자 및/또는 이외 사용자로부터 데이터를 입력 받을 수 있는 다양한 장치 등을 포함할 수 있다.
출력부(31-2)는 단말 장치(30)의 동작 결과 생성된 각종 정보나 데이터 등을, 문자, 화상(정지 화상이나 동화상 등), 음향, 음성 및/또는 이외 다양한 방법을 통하여 외부로 출력할 수 있다. 예를 들어, 출력부(31-2)는 단말 장치(30)가 수신한 메시지 및/또는 프로세서(35)에 의해 획득된 감성 분석 결과를 문자나 음성의 형태로 출력할 수 있다. 출력부(31-2)는, 예를 들어, 디스플레이 패널, 발광 장치, 인쇄 장치 및/또는 스피커 장치 등을 통해 구현될 수 있다.
통신부(31-3)는, 네트워크(9)에 접속해서, 다른 단말 장치에 사용자의 메시지를 송신하거나 및/또는 다른 단말 장치로부터 소정의 메시지를 수신할 수 있다. 통신부(31-3)에 의해 수신된 메시지는 프로세서(35)로 전달될 수 있다. 또한, 실시예에 따라서, 통신부(31-3)에 의해 전송되는 메시지도 프로세서(35)로 전달될 수도 있다.
저장부(32)는 단말 장치(30)의 동작에 필요한 애플리케이션이나 데이터 등을 일시적 또는 비일시적으로 저장할 수 있다. 저장부(32)는, 상술한 감성 분석 장치(100)의 저장부(120)와 동일하게 주기억장치 및 보조기억장치 중 적어도 하나를 포함할 수 있으며, 예를 들어, 반도체 메모리 장치나 자기 디스크 저장 장치 등을 이용하여 구현될 수 있다. 또한, 저장부(32)는, 도 3에 도시된 바와 같이 텍스트 기반 감성 사전 데이터베이스(121), 상황 기반 감성 사전 데이터베이스(122) 및 이모티콘 감성 사전 데이터베이스(123) 중 적어도 하나를 저장할 수도 있다.
프로세서(35)는, 단말 장치(30)의 동작에 필요한 적어도 하나의 연산, 판단, 처리 및/또는 제어 동작 등을 수행할 수 있으며, 필요에 따라서 저장부(32)의 애플리케이션을 구동시켜 이와 같은 동작을 처리할 수도 있다. 프로세서(35)는, 상술한 바와 같이, 중앙 처리 장치나 애플리케이션 프로세서 등을 이용하여 구현 가능하다.
일 실시예에 의하면, 단말 장치(30)의 프로세서(35)는, 감성 분석 장치(100)의 프로세서(130)와 동일하게 감성 분석 결과를 획득하도록 마련된 것일 수 있다. 구체적으로 단말 장치(30)의 프로세서(35)는, 도 3 내지 도 12를 참조하여 설명한 바와 동일한 방법을 이용하여 또는 일부 변형된 방법을 이용하여, 상황에 대한 정보를 추출하고, 메시지의 전부 또는 일부로부터 형태소를 분석하여 획득하고, 형태소 분석 결과를 기반으로 텍스트에 대한 정보를 획득하고, 감성 분석을 수행하여 감성 값(예를 들어, 기본 감성어에 대응하는 감성 값, 대인 관계 상황 고빈도 감성어에 대응하는 감성 값 및 이모티콘에 대응하는 감성 값 중 적어도 하나)을 추출하고, 및/또는 상황에 대한 정보, 텍스트에 대한 정보 및 감성 값(들) 중 적어도 하나를 기반으로 총체적 상황 기반 감성 분석을 수행할 수도 있다. 이 경우, 프로세서(35)는 감성 분석을 수행하기 위해, 저장부(32)에 저장된 텍스트 기반 감성 사전 데이터베이스, 상황 기반 감성 사전 데이터베이스 및 이모티콘 감성 사전 데이터베이스 중 적어도 하나를 이용하는 것도 가능하다. 프로세서(35)의 구체적인 구조, 기능 및 동작은 이미 자세히 설명한 바 있으므로, 이하 생략하도록 한다.
이하 도 14 내지 도 18을 참조하여 감성 분석 방법의 일 실시예에 대해서 설명하도록 한다.
도 14는 감성 분석 방법의 일 실시예에 대한 흐름도이다.
도 14에 도시된 바에 따르면, 감성 분석 방법은 일 실시예에 있어서, 상황 정보 획득 단계(151), 텍스트 정보 획득 단계(152), 감성 사전 기반의 감성 분석 수행 단계(153) 및 획득한 데이터 기반의 종합적 분석 수행 및 결과 획득 단계(154)를 포함할 수 있으며, 또한 획득한 결과로부터 감성 정보 가공 처리 및 제공 단계(155)를 더 포함할 수 있다.
여기서 텍스트 정보 획득 단계(152) 및 감성 사전 기반의 감성 분석 수행 단계(153) 중 적어도 하나는, 상황 정보 획득 단계(151)와 동시에 수행될 수도 있고, 동 단계(151)에 선행하여 수행될 수도 있으며, 또는 동 단계(152)에 후행하여 수행될 수도 있다. 예를 들어, 상황 정보 획득 단계(151)와 텍스트 정보 획득 단계(152)는 대략 동시에 수행되고, 감성 사전 기반의 감성 분석 수행 단계(153)는 상황 정보 획득 단계(151)에 후행하여 수행될 수도 있다.
상황 정보 획득 단계(151), 텍스트 정보 획득 단계(152), 감성 사전 기반의 감성 분석 수행 단계(153), 획득한 데이터 기반의 종합적 분석 수행 및 결과 획득 단계(154) 및 감성 정보 가공 처리 및 제공 단계(155)는, 각각 단말 장치 및 단말 장치에 연결된 감성 분석 장치 중 적어도 하나에 의해 수행 가능하다. 구체적으로 상술한 단계(151 내지 155)는 모두 단말 장치에 의해 수행될 수도 있고 또는 감성 분석 장치에 의해 수행될 수도 있다. 또한, 상술한 단계(151 내지 155) 중 어느 일부는 단말 장치에 의해 수행되고, 다른 일부는 감성 분석 장치에 의해 수행될 수도 있다. 보다 상세하게 예를 들어, 감성 분석 장치는 상황 정보 획득 단계(151), 텍스트 정보 획득 단계(152), 감성 사전 기반의 감성 분석 수행 단계(153), 획득한 데이터 기반의 종합적 분석 수행 및 결과 획득 단계(154)을 수행하고, 단말 장치는 감성 정보 가공 처리 및 제공 단계(155)를 수행하도록 설계되는 것도 가능하다.
도 15는 감성 분석 방법의 개시 과정의 일 실시예에 대한 보다 상세한 흐름도이다.
상세하게는 도 15에 도시된 바와 같이, 복수의 단말 장치 중 적어도 하나의 애플리케이션(예를 들어, 메시지 전송 애플리케이션) 또는 복수의 단말 장치 모두의 애플리케이션이 구동되고(160), 사용자는 애플리케이션을 이용하여 텍스트를 입력할 수 있다(161).
만약 2인 이상의 사용자가 애플리케이션을 이용하여 텍스트를 입력하였는지 여부를 판단하고(162), 만약 2인 이상의 사용자가 텍스트를 입력한 경우라면(162의 예) 상황 정보의 획득이 개시된다(163). 또한, 이와 더불어 텍스트 정보 획득이나 감성 분석을 위한 형태소 분석도 개시될 수 있다.
상황 정보의 획득의 개시에 응하여, 복수의 단말 장치 중 적어도 하나에 관한 상황 정보가 단말 장치 및/또는 감성 분석 장치에 의해 획득된다(151). 상황 정보의 획득은 먼저 복수의 단말 장치 사이에 메시지의 전송이 개시된 경우(예를 들어, 채팅이 수행되는 경우)에 수행될 수도 있다.
보다 구체적으로 상황 정보의 획득은, 인구 동태적 정보, 심리 동태적 정보 및/또는 문장 입력 시간 정보 등을 분석함으로써 수행될 수도 있다. 보다 구체적으로 상황 정보는, 복수의 단말 장치 중 적어도 하나의 사용자의 프로파일이나 또는 사용자 맥락 등을 추출하여 획득될 수도 있다. 구체적으로 각각의 사용자의 성별이나 나이, 사용자 사이의 관계, 동성/이성 여부, 사용자의 메시지 전송 시점 등에 대한 정보 등이 획득될 수 있다. 상황 정보의 추출 및 획득은 각 단말 장치에 저장된 정보를 이용하거나 또는 이들 단말 장치의 메시지 전송을 처리하는 장치로부터 획득 가능한 정보를 기반으로 수행될 수 있다.
또한, 복수의 단말 장치 사이에서 전송된 적어도 하나의 메시지를 기반으로 텍스트 정보가 획득될 수 있다(152). 이 경우, 텍스트 정보의 획득을 위해서, 먼저 적어도 하나의 메시지에 대한 형태소 분석이 수행될 수 있다(도 16의 171 등). 형태소가 적어도 하나의 메시지로부터 추출되면, 이를 기반으로 메시지(일례로 텍스트)에 대한 정보가 획득된다. 구체적으로는 메시지 내의 어절 수, 메시지 내의 형태소 수, 메시지 내에서의 이모티콘 등의 사용 여부 및 사용 횟수, 감성어의 존재 여부, 긍정어의 개수, 부정어의 개수, 존칭어의 사용 여부 및 사용한 존칭어, 기호의 사용 여부 및 사용한 기호(예를 들어, 마일드(mild) 기호 횟수, 터치(touch) 기호 횟수 등) 및/또는 특별한 화상의 포함 여부 등에 대한 정보가 획득될 수 있게 된다.
형태소 분석이 수행되면, 형태 분석 결과를 기반으로 감성 분석이 수행된다(153). 감성 분석의 수행은 적어도 하나의 감성 사전 데이터베이스를 이용하여 수행 가능하다.
구체적으로 감성 분석은, 텍스트 기반 감성 사전 데이터베이스를 이용하여 수행될 수도 있고, 상황 기반 감성 사전 데이터베이스를 이용하여 수행될 수도 있다. 또한, 메시지가 이모티콘을 포함하는 경우에는 이모티콘 감성 사전 데이터베이스를 이용하여 감성 수행을 할 수도 있다. 감성 분석 결과에 따라서, 기본 감성어에 대응하는 감성 값, 대인 관계 상황 고빈도 감성어에 대응하는 감성 값 및/또는 이모티콘에 대응하는 감성 값이 획득될 수 있다.
도 16은 감성 사전 기반으로 감성 값을 획득하는 과정의 일 실시예에 대한 제1 흐름도이다.
보다 구체적으로 먼저 형태소 분석 및 추출이 수행되면(171), 기본적인 감성 사전 데이터베이스(다시 말해서, 텍스트 기반 감성 사전 데이터베이스)를 열람하여(172), 분석 및 추출된 형태소가 텍스트 기반 감성 사전 데이터베이스에 존재하는지 여부가 판단된다(173).
만약 형태소에 대응하는 어휘(단어나 형태소)가 텍스트 기반 감성 사전 데이터베이스에 존재하는 경우(173의 예), 이를 기반으로 제1 감성 값(기본 감성어에 대응하는 감성 값)이 결정된다(174). 제1 감성 값의 결정은 도 6에 도시된 수식을 이용하여 수행될 수도 있다. 만약 형태소에 대응하는 어휘가 텍스트 기반 감성 사전 데이터베이스에 존재하지 않으면(173의 아니오), 제1 감성 값의 획득은 수행되지 않을 수도 있다.
또한, 상황 기반 감성 사전 데이터베이스가 열람되며(175), 분석 및 추출된 형태소가 상황 기반 감성 사전 데이터베이스에 존재하는지 여부도 판단된다(176).
만약 형태소에 대응하는 어휘(단어나 형태소)가 상황 기반 감성 사전 데이터베이스에 존재하는 경우(176의 예), 이를 기반으로 제2 감성 값(대인 관계 상황 고빈도 감성어에 대응하는 감성 값)이 결정된다(177). 제2 감성 값의 결정 역시 도 6에 도시된 수식을 이용하여 수행될 수도 있다. 다시 말해서, 긍정어 하나에 대응하는 감성 값을 +1로 정의하고, 부정어 하나에 대응하는 감성 값을 -1로 정의한 후, 이들 긍정어에 대응하는 감성 값 및 부정어에 대응하는 감성 값을 각각의 총합을 연산하고, 총합의 합산 값을 구한 후, 이를 모든 감성어의 개수의 루트 값으로 나뉘어 제2 감성 값이 결정될 수 있다. 만약 형태소에 대응하는 어휘(단어나 형태소)가 상황 기반 감성 사전 데이터베이스에 존재하지 않는 경우라면(176의 아니오), 제1 감성 값의 획득은 수행되지 않을 수 있다.
메시지 내에 이모티콘이 존재하는지 여부가 판단된다(178). 이모티콘의 존재 여부 판단 단계(178)는, 추출된 형태소가 텍스트 기반 감성 사전 데이터베이스로부터 검출되지 않는 경우(173의 아니오), 이에 응하여 수행되도록 설계될 수도 있다.
도 17은 감성 사전 기반으로 감성 값을 획득하는 과정의 일 실시예에 대한 제2 흐름도이다.
만약 이모티콘이 메시지에 존재한다면(178의 예), 이모티콘 감성 사전이 열람될 수 있다(179). 만약 이모티콘 감성 사전으로부터 메시지에서 추출된 이모티콘에 대응하는 데이터(즉, 이모티콘 등)가 검출된다면(179의 예), 제3 감성 값(이모티콘에 대응하는 감성 값)이 획득될 수 있다(181). 반대로 만약 이모티콘 감성 사전으로부터 메시지에서 추출된 이모티콘에 대응하는 데이터가 검출되지 않는다면(179의 아니오), 제3 감성 값은 결정되지 않는다.
순차적으로, 도 14에 도시된 바와 같이, 획득한 데이터를 기반으로 종합적인 분석이 수행될 수 있다(154). 구체적으로 상황 정보 획득 단계(151)에서 획득된 상황 정보와, 텍스트 정보 획득 단계(152)에서 획득된 텍스트에 대한 정보와, 감성사전 기반의 감성 분석 수행 단계(153)에서 획득된 감성 값(예를 들어, 제1 감성 값, 제2 감성 값 및 제3 감성 값 중 적어도 하나)을 이용하여 종합적인 감성 분석이 수행된다. 일 실시예에 의하면, 기 획득한 상황 정보, 기 획득한 텍스트에 대한 정보 및 감성 값을 조합하여 소정의 테이블이 구축될 수도 있으며, 이와 같은 테이블을 기반으로 종합적인 감성 분석이 수행될 수도 있다.
감성 분석 수행에 따라 감성 분석 결과가 획득된다. 감성 분석 결과는 복수의 단말 장치의 사용자 중 어느 하나의 단말 장치의 사용자에 대한 다른 하나의 단말 장치의 사용자에 대한 감성을 포함할 수 있으며, 또한 이와 반대로 다른 하나의 단말 장치의 사용자에 대한 어느 하나의 단말 장치의 사용자의 감성을 포함할 수도 있다.
감성 분석 결과가 획득되면, 감성 정보는 사용자에게 다양한 형태로 제공될 수 있다. 사용자에게 제공되지 전에 감성 정보는 가공될 수도 있다. 예를 들어, 감성 정보는 인물 기준으로 또는 시계열 기준으로 통계적 처리된 후 사용자에게 제공될 수 있다.
도 18은 감성 분석 결과 정보의 제공 방법의 일 실시예에 대한 흐름도이다.
도 18에 도시된 바에 의하면, 사용자가 감성 분석 결과에 대한 정보 제공을 요청하면, 단말 장치 및/또는 감성 분석 장치는, 사용자의 요청에 응하여 먼저 누적된 정보를 확인할 수 있다(181).
만약 누적된 정보가 저장부 등에 존재하면(182의 예), 사용자가 특별한 기간을 설정할 것을 요청하였는지 여부가 판단된다(183). 만약 특별한 기간 설정이 부재하다면, 미리 정의된 디폴트 정보(예를 들어, 검색 기준 최근 1개월간 정보)가 사용자에게 제공될 수 있다(185)
사용자가 특별한 기간을 설정할 것을 요청한 경우라면(184의 예), 사용자의 요청에 따라서 기간이 설정된다(186).
순차적으로 사용자가 인물 중심의 정보(일례로 인물 중심으로 도시된 그래프나 수치 등)을 요청하였는지 여부가 판단되고(187), 만약 사용자가 인물 중심의 정보 제공을 요청한 경우라면(188의 예), 인물 중심의 정보를 단말 장치 또는 감성 분석 장치의 디스플레이 등에 표시하여 사용자에게 제공한다(188).
만약 사용자가 인물 중심의 정보 제공을 요청하지 않은 경우라면(187의 아니오), 시계열 중심의 정보(시계열 중심으로 도시된 그래프나 이와 관련된 수치 등)를 단말 장치 또는 감성 분석 장치의 디스플레이 등에 표시하여 사용자에게 제공한다(189).
한편, 단말 장치 또는 감성 분석 장치의 디스플레이 등에 인물 중심의 정보가 표시되고 있는 경우라고 하더라도(188), 만약 사용자가 시계열 중심의 정보의 제공을 요청하면(190), 시계열 중심의 정보를 단말 장치 또는 감성 분석 장치의 디스플레이 등에 표시하여 사용자에게 제공한다(189).
사용자가 기간 설정을 변경하고자 한다면(191), 사용자가 요청한 바에 따라서 기간을 변경하여 다시 설정하고(186), 순차적으로 인물 중심의 정보 또는 시계열 중심의 정보를 사용자에게 제공한다(187 내지 189)
사용자가 감성 정보의 확인을 종료하면(192의 예), 정보의 제공은 종료된다.
상술한 실시예에 따른 감성 분석 방법은, 컴퓨터 장치에 의해 구동될 수 있는 프로그램의 형태로 구현될 수 있다. 여기서 프로그램은, 프로그램 명령, 데이터 파일 및 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 프로그램은 기계어 코드나 고급 언어 코드를 이용하여 설계 및 제작된 것일 수 있다. 프로그램은 상술한 감성 분석 방법을 구현하기 위하여 특별히 설계된 것일 수도 있고, 컴퓨터 소프트웨어 분야에서 통상의 기술자에게 기 공지되어 사용 가능한 각종 함수나 정의를 이용하여 구현된 것일 수도 있다. 또한, 여기서, 컴퓨터 장치는, 프로그램의 기능을 실현 가능하게 하는 프로세서나 메모리 등을 포함하여 구현된 것일 수 있으며, 필요에 따라 통신 장치를 더 포함할 수도 있다.
상술한 감성 분석 방법을 구현하기 위한 프로그램은, 컴퓨터에 의해 판독 가능한 기록 매체에 기록될 수 있다. 컴퓨터에 의해 판독 가능한 기록 매체는, 예를 들어, 하드 디스크나 플로피 디스크와 같은 자기 디스크 저장 매체, 자기 테이프, 콤팩트 디스크나 디브이디와 같은 광 기록 매체, 플롭티컬 디스크와 같은 자기-광 기록 매체 및 롬, 램 또는 플래시 메모리 등과 같은 반도체 저장 장치 등 컴퓨터 등의 호출에 따라 실행되는 특정 프로그램을 저장 가능한 다양한 종류의 하드웨어 장치를 포함할 수 있다.
이상 감성 분석 장치, 이를 포함하는 대화형 에이전트 시스템, 이를 수행하기 위한 단말 장치 및 감성 분석 방법의 여러 실시예에 대해 설명하였으나, 감성 분석 장치, 이를 포함하는 대화형 에이전트 시스템, 이를 수행하기 위한 단말 장치 및 감성 분석 방법은 오직 상술한 실시예에 한정되는 것은 아니다. 해당 기술 분야에서 통상의 지식을 가진 자가 상술한 실시예를 기초로 수정 및 변형하여 구현 가능한 다양한 장치나 방법 역시 상술한 감성 분석 장치, 이를 포함하는 대화형 에이전트 시스템, 이를 수행하기 위한 단말 장치 및 감성 분석 방법의 일례가 될 수 있다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성 요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나 다른 구성 요소 또는 균등물에 의하여 대치되거나 또는 치환되더라도 상술한 감성 분석 장치, 이를 포함하는 대화형 에이전트 시스템, 이를 수행하기 위한 단말 장치 및 감성 분석 방법의 일 실시예가 될 수 있다.
10: 제1 단말 장치 20: 제2 단말 장치
100: 감성 분석 장치

Claims (28)

  1. 제1 단말 장치 및 제2 단말 장치 상호 간에 전송되는 적어도 하나의 텍스트를 획득하는 통신부; 및
    상기 적어도 하나의 텍스트의 형태소를 분석하고, 감성 사전 데이터베이스를 기반으로 분석된 상기 형태소에 대응하는 감성 분석 결과를 획득하고, 상기 감성 분석 결과를 이용하여 상기 제1 단말 장치의 사용자에 대한 상기 제2 단말 장치의 사용자의 대한 종합적 감성 분석 결과를 획득하는 프로세서;를 포함하는 감성 분석 장치.
  2. 제1항에 있어서,
    상기 프로세서는, 분석된 상기 형태소를 이용하여 상기 적어도 하나의 텍스트 자체에 대한 텍스트 정보를 획득하고, 상기 텍스트 정보를 더 이용하여 상기 종합적 감성 분석 결과를 획득하는 감성 분석 장치.
  3. 제2항에 있어서,
    상기 텍스트 정보는, 형태소의 개수, 존칭어의 사용 여부, 사용된 존칭어, 기호의 사용 여부, 사용된 기호, 이모티콘의 사용 여부 및 사용된 이모티콘 중 적어도 하나를 포함하는 감성 분석 장치.
  4. 제1항에 있어서,
    상기 프로세서는, 상기 제1 단말 장치 및 상기 제2 단말 장치 사이의 상호 대화에 관한 상황 정보를 획득하고, 상기 상황 정보를 더 이용하여 상기 종합적 감성 분석 결과를 획득하는 감성 분석 장치.
  5. 제4항에 있어서,
    상기 상황 정보는, 제1 단말 장치 및 제2 단말 장치 중 적어도 하나의 사용자의 성별 및 연령 중 적어도 하나, 제1 단말 장치 및 제2 단말 장치 각각의 사용자의 관계, 텍스트 전송 시간, 텍스트 전송 날짜, 텍스트 전송 요일 중 적어도 하나를 포함하는 감성 분석 장치.
  6. 제1항에 있어서,
    상기 감성 사전 데이터베이스는, 텍스트 기반 감성 사전 데이터베이스를 포함하고,
    상기 프로세서는,
    상기 텍스트 기반 감성 사전 데이터베이스를 열람하여 상기 감성 사전 데이터베이스에 상기 형태소 또는 상기 형태소에 대응하는 정보의 존재 여부를 판단하고,
    만약 상기 텍스트 기반 감성 사전 데이터베이스에 상기 형태소 또는 상기 형태소에 대응하는 정보가 존재하면, 상기 형태소에 대응하는 감성 값을 추출하는 감성 분석 장치.
  7. 제6항에 있어서,
    상기 감성 사전 데이터베이스는, 상황 기반 감성 사전 데이터베이스를 더 포함하고,
    상기 프로세서는,
    상기 상황 기반 감성 사전 데이터베이스를 더 열람하고, 상기 감성 사전 데이터베이스에 상기 형태소 또는 상기 형태소에 대응하는 정보의 존재 여부를 더 판단하고,
    만약 상기 상황 기반 감성 사전 데이터베이스에 상기 형태소 또는 상기 형태소에 대응하는 정보가 존재하면, 상기 형태소에 대응하는 제2 감성 값을 더 추출하되,
    상기 상황 기반 감성 사전 데이터베이스는 대인 관계 상황에서 높은 빈도를 갖는 단어를 포함하는 감성 분석 장치.
  8. 제1항에 있어서,
    상기 프로세서는,
    상기 텍스트가 이모티콘을 포함하는지 판단하고,
    만약 상기 텍스트가 이모티콘을 포함하는지 판단하는 경우, 이모티콘 감성 사전 데이터베이스를 더 열람하고, 상기 이모티콘 감성 사전 데이터베이스에 상기 이모티콘에 대응하는 정보의 존재 여부를 더 판단하고,
    만약 상기 이모티콘 감성 사전 데이터베이스에 상기 이모티콘에 대응하는 정보가 존재하면, 상기 형태소에 대응하는 제3 감성 값을 더 추출하는 감성 분석 장치.
  9. 제1항에 있어서,
    상기 프로세서는, 상기 종합적 감성 분석 결과를 상기 제1 단말 장치 및 상기 제2 단말 장치 중 적어도 하나에 전달하는 감성 분석 장치.
  10. 제9항에 있어서,
    상기 종합적 감성 분석 결과는, 긍정적 감성, 부정적 감성 및 중립적 감성 중 적어도 하나를 포함하는 감성 분석 장치.
  11. 제10항에 있어서,
    상기 종합적 감성 분석 결과는, 상기 긍정적 감성, 부정적 감성 및 중립적 감성 중 적어도 하나에 대한 시계열적 분석 결과를 포함하는 감성 분석 장치.
  12. 제11항에 있어서,
    상기 종합적 감성 분석 결과는, 상기 제1 사용자 및 상기 제2 사용자 중 적어도 하나에 의해 미리 설정된 기간 내에서의 시계열적 분석 결과를 포함하는 감성 분석 장치.
  13. 제9항에 있어서,
    상기 종합적 감성 분석 결과는, 상기 제2 단말 장치의 사용자에 대한 상기 제1 단말 장치의 사용자의 감성 분석 결과를 포함하는 감성 분석 장치.
  14. 제1 단말 장치 및 제2 단말 장치 상호 간에 적어도 하나의 텍스트가 전송되는 단계;
    상기 적어도 하나의 텍스트를 획득하는 단계;
    상기 적어도 하나의 텍스트의 형태소를 분석하는 단계;
    감성 사전 데이터베이스를 기반으로 분석된 상기 형태소에 대응하는 감성 분석 결과를 획득하는 단계;
    상기 감성 분석 결과를 이용하여 상기 제1 단말 장치의 사용자에 대한 상기 제2 단말 장치의 사용자의 대한 종합적 감성 분석 결과를 획득하는 단계;를 포함하는 감성 분석 방법.
  15. 제14항에 있어서,
    상기 종합적 감성 분석 결과 획득을 위하여, 분석된 상기 형태소를 이용하여 상기 적어도 하나의 텍스트 자체에 대한 텍스트 정보를 획득하는 단계;를 더 포함하는 감성 분석 방법.
  16. 제15항에 있어서,
    상기 텍스트 정보는, 형태소의 개수, 존칭어의 사용 여부, 사용된 존칭어, 기호의 사용 여부, 사용된 기호, 이모티콘의 사용 여부 및 사용된 이모티콘 중 적어도 하나를 포함하는 감성 분석 방법.
  17. 제14항에 있어서,
    상기 종합적 감성 분석 결과를 획득을 위하여, 상기 제1 단말 장치 및 상기 제2 단말 장치 사이의 상호 대화에 관한 상황 정보를 획득하는 단계;를 더 포함하는 감성 분석 방법.
  18. 제17항에 있어서,
    상기 상황 정보는, 제1 단말 장치 및 제2 단말 장치 중 적어도 하나의 사용자의 성별 및 연령 중 적어도 하나, 제1 단말 장치 및 제2 단말 장치 각각의 사용자의 관계, 텍스트 전송 시간, 텍스트 전송 날짜, 텍스트 전송 요일 중 적어도 하나를 포함하는 감성 분석 방법.
  19. 제14항에 있어서,
    상기 감성 사전 데이터베이스를 기반으로 분석된 상기 형태소에 대응하는 감성 분석 결과를 획득하는 단계는,
    상기 텍스트 기반 감성 사전 데이터베이스를 열람하는 단계;
    상기 텍스트 기반 감성 사전 데이터베이스에 상기 형태소 또는 상기 형태소에 대응하는 정보의 존재 여부를 판단하는 단계; 및
    만약 상기 텍스트 기반 감성 사전 데이터베이스에 상기 형태소 또는 상기 형태소에 대응하는 정보가 존재하면, 상기 형태소에 대응하는 제1 감성 값을 추출하는 단계;를 포함하는 감성 분석 방법.
  20. 제19항에 있어서,
    상기 감성 사전 데이터베이스를 기반으로 분석된 상기 형태소에 대응하는 감성 분석 결과를 획득하는 단계는,
    상황 기반 감성 사전 데이터베이스를 더 열람하는 단계;
    상기 감성 사전 데이터베이스에 상기 형태소 또는 상기 형태소에 대응하는 정보의 존재 여부를 더 판단하는 단계; 및
    만약 상기 상황 기반 감성 사전 데이터베이스에 상기 형태소 또는 상기 형태소에 대응하는 정보가 존재하면, 상기 형태소에 대응하는 제2 감성 값을 더 추출하는 단계;를 포함하되,
    상기 상황 기반 감성 사전 데이터베이스는 대인 관계 상황에서 높은 빈도를 갖는 단어로 구축된 것인 감성 분석 방법.
  21. 제14항에 있어서,
    상기 감성 사전 데이터베이스를 기반으로 분석된 상기 형태소에 대응하는 감성 분석 결과를 획득하는 단계는,
    상기 텍스트가 이모티콘을 포함하는지 판단하는 단계;
    만약 상기 텍스트가 이모티콘을 포함하는지 판단하는 경우, 이모티콘 감성 사전 데이터베이스를 더 열람하는 단계;
    상기 이모티콘 감성 사전 데이터베이스에 상기 이모티콘에 대응하는 정보의 존재 여부를 더 판단하는 단계; 및
    만약 상기 이모티콘 감성 사전 데이터베이스에 상기 이모티콘에 대응하는 정보가 존재하면, 상기 형태소에 대응하는 제3 감성 값을 더 추출하는 단계;를 포함하는 감성 분석 방법.
  22. 제14항에 있어서,
    상기 종합적 감성 분석 결과를 상기 제1 단말 장치 및 상기 제2 단말 장치 중 적어도 하나에 전달하는 단계;를 더 포함하는 감성 분석 방법.
  23. 제22항에 있어서,
    상기 종합적 감성 분석 결과는, 긍정적 감성, 부정적 감성 및 중립적 감성 중 적어도 하나를 포함하는 감성 분석 방법.
  24. 제23항에 있어서,
    상기 종합적 감성 분석 결과는, 상기 긍정적 감성, 부정적 감성 및 중립적 감성 중 적어도 하나에 대한 시계열적 분석 결과를 포함하는 감성 분석 방법.
  25. 제24항에 있어서,
    상기 종합적 감성 분석 결과는, 상기 제1 사용자 및 상기 제2 사용자 중 적어도 하나에 의해 미리 설정된 기간 내에서의 시계열적 분석 결과를 포함하는 감성 분석 방법.
  26. 제22항에 있어서,
    상기 종합적 감성 분석 결과는, 상기 제2 단말 장치의 사용자에 대한 상기 제1 단말 장치의 사용자의 감성 분석 결과를 포함하는 감성 분석 방법.
  27. 제1 단말 장치;
    상기 제1 단말 장치와 적어도 하나의 텍스트를 상호 송수신하는 제2 단말 장치;
    상기 제1 단말 장치 및 상기 제2 단말 장치 사이에서 송수신되는 적어도 하나의 텍스트의 형태소를 분석하고, 감성 사전 데이터베이스를 기반으로 상기 형태소에 대응하는 감성 분석 결과를 획득하고, 상기 감성 분석 결과를 이용하여 총체적 감성 분석을 수행함으로써, 상기 제1 단말 장치의 사용자 및 상기 제1 단말 장치의 사용자 중 적어도 하나의 감성 상태 판단 결과를 획득하는 감성 분석 서비스 장치;를 포함하는 대화형 에이전트 시스템.
  28. 제1 텍스트를 입력받는 입력부;
    상기 제1 텍스트를 다른 단말 장치로 전송하고, 상기 다른 단말 장치로부터 제2 텍스트를 수신하는 통신부;
    상기 제1 텍스트 및 상기 제2 텍스트 중 적어도 하나의 형태소를 분석하고, 감성 사전 데이터베이스를 기반으로 분석된 상기 형태소에 대응하는 감성 분석 결과를 획득하고, 상기 감성 분석 결과를 이용하여 상기 다른 단말 장치의 사용자의 대한 종합적 감성 분석 결과를 획득하는 프로세서; 및
    상기 종합적 감성 분석 결과를 출력하는 출력부;를 포함하는 단말 장치.
KR1020180172625A 2018-12-28 2018-12-28 감성 분석 장치, 이를 포함하는 대화형 에이전트 시스템, 감성 분석을 수행하기 위한 단말 장치 및 감성 분석 방법 KR102222637B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020180172625A KR102222637B1 (ko) 2018-12-28 2018-12-28 감성 분석 장치, 이를 포함하는 대화형 에이전트 시스템, 감성 분석을 수행하기 위한 단말 장치 및 감성 분석 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020180172625A KR102222637B1 (ko) 2018-12-28 2018-12-28 감성 분석 장치, 이를 포함하는 대화형 에이전트 시스템, 감성 분석을 수행하기 위한 단말 장치 및 감성 분석 방법

Publications (2)

Publication Number Publication Date
KR20200082232A true KR20200082232A (ko) 2020-07-08
KR102222637B1 KR102222637B1 (ko) 2021-03-03

Family

ID=71600382

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180172625A KR102222637B1 (ko) 2018-12-28 2018-12-28 감성 분석 장치, 이를 포함하는 대화형 에이전트 시스템, 감성 분석을 수행하기 위한 단말 장치 및 감성 분석 방법

Country Status (1)

Country Link
KR (1) KR102222637B1 (ko)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113450793A (zh) * 2021-06-25 2021-09-28 平安科技(深圳)有限公司 用户情绪分析方法、装置、计算机可读存储介质及服务器
KR20220105888A (ko) * 2021-01-21 2022-07-28 (주)알에프캠프 사용자의 행동 데이터 또는 입력 데이터를 이용하여 사용자의 심리 상태를 판별하는 방법 및 컴퓨터 프로그램

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20140101906A (ko) * 2013-02-12 2014-08-21 이주양 소셜 데이터 분석 장치 및 방법
KR101634086B1 (ko) * 2015-01-19 2016-07-08 주식회사 엔씨소프트 감정 분석을 통한 스티커 추천 방법 및 시스템
KR20160136054A (ko) * 2015-05-19 2016-11-29 트윈워드 주식회사 글에 반영된 사용자의 심리 상태 정보 제공 장치 및 그 방법

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20140101906A (ko) * 2013-02-12 2014-08-21 이주양 소셜 데이터 분석 장치 및 방법
KR101634086B1 (ko) * 2015-01-19 2016-07-08 주식회사 엔씨소프트 감정 분석을 통한 스티커 추천 방법 및 시스템
KR20160136054A (ko) * 2015-05-19 2016-11-29 트윈워드 주식회사 글에 반영된 사용자의 심리 상태 정보 제공 장치 및 그 방법

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20220105888A (ko) * 2021-01-21 2022-07-28 (주)알에프캠프 사용자의 행동 데이터 또는 입력 데이터를 이용하여 사용자의 심리 상태를 판별하는 방법 및 컴퓨터 프로그램
CN113450793A (zh) * 2021-06-25 2021-09-28 平安科技(深圳)有限公司 用户情绪分析方法、装置、计算机可读存储介质及服务器

Also Published As

Publication number Publication date
KR102222637B1 (ko) 2021-03-03

Similar Documents

Publication Publication Date Title
US10417344B2 (en) Exemplar-based natural language processing
US11315546B2 (en) Computerized system and method for formatted transcription of multimedia content
US11113419B2 (en) Selective enforcement of privacy and confidentiality for optimization of voice applications
KR102151681B1 (ko) 언어 모델용 대화 상태들 결정
KR102582291B1 (ko) 감정 정보 기반의 음성 합성 방법 및 장치
US11769492B2 (en) Voice conversation analysis method and apparatus using artificial intelligence
US11450311B2 (en) System and methods for accent and dialect modification
US9558743B2 (en) Integration of semantic context information
JP2022551788A (ja) 補助システムのためのプロアクティブコンテンツを生成すること
US10839788B2 (en) Systems and methods for selecting accent and dialect based on context
US20140074470A1 (en) Phonetic pronunciation
US20240021202A1 (en) Method and apparatus for recognizing voice, electronic device and medium
KR102100214B1 (ko) 음성 인식 기반의 세일즈 대화 분석 방법 및 장치
US9613141B2 (en) Real-time audio dictionary updating system
US11257482B2 (en) Electronic device and control method
US9922644B2 (en) Analysis of professional-client interactions
KR102222637B1 (ko) 감성 분석 장치, 이를 포함하는 대화형 에이전트 시스템, 감성 분석을 수행하기 위한 단말 장치 및 감성 분석 방법
US9747891B1 (en) Name pronunciation recommendation
KR102226427B1 (ko) 호칭 결정 장치, 이를 포함하는 대화 서비스 제공 시스템, 호칭 결정을 위한 단말 장치 및 호칭 결정 방법
US10282417B2 (en) Conversational list management
KR20210009266A (ko) 음성 인식 기반의 세일즈 대화 분석 방법 및 장치
CN114360544A (zh) 语音识别方法、装置、电子设备和存储介质
Korzeniowski The State of Speech Engines: Suppliers focus on adding new languages and voice options in order to differentiate their services
CN113849689A (zh) 音视频数据处理方法、装置、电子设备和介质

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant