KR20240083879A - 대화 기반 감정 일기 서비스 장치, 시스템 및 방법 - Google Patents

대화 기반 감정 일기 서비스 장치, 시스템 및 방법 Download PDF

Info

Publication number
KR20240083879A
KR20240083879A KR1020220167242A KR20220167242A KR20240083879A KR 20240083879 A KR20240083879 A KR 20240083879A KR 1020220167242 A KR1020220167242 A KR 1020220167242A KR 20220167242 A KR20220167242 A KR 20220167242A KR 20240083879 A KR20240083879 A KR 20240083879A
Authority
KR
South Korea
Prior art keywords
conversation
emotional
diary
user
service device
Prior art date
Application number
KR1020220167242A
Other languages
English (en)
Inventor
오정섭
Original Assignee
오정섭
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 오정섭 filed Critical 오정섭
Priority to KR1020220167242A priority Critical patent/KR20240083879A/ko
Publication of KR20240083879A publication Critical patent/KR20240083879A/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/50Business processes related to the communications industry
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/18Speech classification or search using natural language modelling
    • G10L15/183Speech classification or search using natural language modelling using context dependencies, e.g. language models
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/26Speech to text systems
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • G10L25/51Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
    • G10L25/63Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for estimating an emotional state
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L51/00User-to-user messaging in packet-switching networks, transmitted according to store-and-forward or real-time protocols, e.g. e-mail
    • H04L51/02User-to-user messaging in packet-switching networks, transmitted according to store-and-forward or real-time protocols, e.g. e-mail using automatic reactions or user delegation, e.g. automatic replies or chatbot-generated messages

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Business, Economics & Management (AREA)
  • Acoustics & Sound (AREA)
  • Computational Linguistics (AREA)
  • Multimedia (AREA)
  • Tourism & Hospitality (AREA)
  • Human Computer Interaction (AREA)
  • General Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • General Business, Economics & Management (AREA)
  • Primary Health Care (AREA)
  • Theoretical Computer Science (AREA)
  • Signal Processing (AREA)
  • General Physics & Mathematics (AREA)
  • Human Resources & Organizations (AREA)
  • Strategic Management (AREA)
  • Economics (AREA)
  • Marketing (AREA)
  • Child & Adolescent Psychology (AREA)
  • Hospice & Palliative Care (AREA)
  • Psychiatry (AREA)
  • Artificial Intelligence (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

본 발명은 대화 봇을 통한 사용자와의 대화를 기반으로 감정 일기 서비스를 제공하는 대화 기반 감정 일기 서비스 장치, 시스템 및 방법에 관한 것이다. 본 발명에 따른 대화 기반 감정 일기 서비스 방법은, 서비스 장치는 대화 봇을 통하여 사용자 단말기의 사용자와 대화를 수행하는 단계; 상기 서비스 장치는 상기 대화에 대한 음성 인식을 통하여 상기 사용자의 감정 상태를 분석하는 단계; 및 상기 서비스 장치는 분석한 감정 상태에 대한 감정 일기를 생성하는 단계;를 포함한다.

Description

대화 기반 감정 일기 서비스 장치, 시스템 및 방법{Conversation-based emotional diary service apparatus, system and method}
본 발명은 일기 서비스 장치, 시스템 및 방법에 관한 것으로, 더욱 상세하게는 대화 봇을 통한 사용자와의 대화를 기반으로 감정 일기 서비스를 제공하는 대화 기반 감정 일기 서비스 장치, 시스템 및 방법에 관한 것이다.
최근 스마트폰이 개인마다 보급되면서 스마트폰을 이용하여 일기장, 메모, 가계부 등과 같은 개인기록을 스마트폰에 저장하고 있다.
사용자는 개인기록을 스마트폰에 입력할 때, 스마트폰에 마련된 키패드, 터치패드, 터치스크린을 이용하여 내용을 입력할 수 있다. 또는 사용자는 스마트폰의 녹음 기능과, 음성을 텍스트로 변환하는 STT(Speech-to-Text) 기술을 이용하여, 음성으로 내용을 입력할 수 있다.
이러한 기존의 입력 및 저장 방식은 사용자가 작성하고자 하는 내용에 대한 단순한 기록에 그치고 있다. 이로 인해 사용자가 작성한 내용을 기반으로 사용자에게 어떠한 피드백을 제공하지 못하고 있는 실정이다. 예컨대 사용자가 작성한 일기를 기반으로 사용자의 감정 상태를 확인하고, 확인한 감정 상태를 공감하거나 완화할 수 있는 컨텐츠를 제공하지는 않는다.
그리고 사용자는 스마트폰을 이용한 개인기록을 작성해야 할 때, 능동적으로 스마트폰의 개인기록을 작성할 수 있는 앱을 실행해야 하기 때문에, 사용자 입장에서는 번거로울 수 있다. 또한 일기와 같이 주기적으로 작성하는 개인기록에 대해서, 사용자가 인지하지 못할 경우, 일기를 작성하지 않고 넘어가는 일이 발생할 수 있다.
등록특허공보 제10-2187210호 (2020.12.04. 공고)
따라서 본 발명의 목적은 대화 봇을 통한 사용자와의 대화를 기반으로 감정 일기 서비스를 제공하는 대화 기반 감정 일기 서비스 장치, 시스템 및 방법을 제공하는 데 있다.
본 발명의 다른 목적은 사용자가 주기적으로 대화 봇과 대화를 수행할 수 있도록 하는 대화 기반 감정 일기 서비스 장치, 시스템 및 방법을 제공하는 데 있다.
본 발명의 또 다른 목적은 사용자가 작성한 일기를 기반으로 사용자의 감정 상태를 확인하고, 확인한 감정 상태를 공감하거나 완화할 수 있는 컨텐츠를 제공하는 대화 기반 감정 일기 서비스 장치, 시스템 및 방법을 제공하는 데 있다.
상기 목적을 달성하기 위하여, 본 발명은 대화 기반 감정 일기 서비스 방법으로, 서비스 장치는 사용자 단말기의 사용자와 대화 봇을 통하여 대화를 수행하는 단계; 상기 서비스 장치는 상기 대화에 대한 음성 인식을 통하여 상기 사용자의 감정 상태를 분석하는 단계; 및 상기 서비스 장치는 분석한 감정 상태에 대한 감정 일기를 생성하는 단계;를 포함하는 대화 기반 감정 일기 서비스 방법을 제공한다.
본 발명에 따른 대화 기반 감정 일기 서비스 방법은, 상기 대화를 수행하는 단계 이전에 수행되는, 상기 서비스 장치는 상기 사용자 단말기로 감정 일기 작성 시간에 대한 알람을 주는 단계;를 더 포함할 수 있다.
상기 대화를 수행하는 단계에서, 상기 서비스 장치는 알람을 수신한 상기 사용자 단말기의 사용자와 대화 봇을 통하여 대화를 수행할 수 있다.
상기 대화를 수행하는 단계에서, 상기 서비스 장치는 이전 대화 및 상기 이전 대화를 기반으로 분석한 감정 상태를 기반으로 질문을 생성하고, 생성한 질문으로 대화 봇을 통하여 상기 사용자 단말기의 사용자와 대화를 수행할 수 있다.
상기 분석하는 단계는, 상기 서비스 장치는 상기 대화 봇과 상기 사용자 간의 대화에 대한 녹음 파일을 생성하는 단계; 상기 서비스 장치는 상기 녹음 파일을 텍스트로 변환하는 단계; 상기 서비스 장치는 상기 텍스트에서 상기 사용자의 감정 상태를 표현하는 감정 키워드를 추출하는 단계; 및 상기 서비스 장치는 추출한 감정 키워드로 상기 사용자의 감정 상태를 분석하는 단계;를 포함할 수 있다.
상기 분석하는 단계는, 상기 서비스 장치는 상기 사용자의 감정 상태를 놀람, 흥미, 지루, 통증, 중성, 긍정 기타, 부정 기타, 기쁨, 슬픔, 공포, 분노, 혐오 및 부끄러움으로 분류할 수 있다.
상기 감정 일기를 생성하는 단계에서, 상기 서비스 장치는 추출한 감정 키워드로 분석한 사용자의 감정 상태 중, 빈도가 높은 감정 키워드에 따른 감정 상태를 대표 감정 상태로 결정할 수 있다.
상기 서비스 장치는 대표 감정 상태를 이모티콘으로 상기 감정 일기에 표시할 수 있다.
상기 감정 일기를 생성하는 단계에서, 상기 감정 일기는 작성 일자 및 시간, 추출한 감정 키워드, 분석한 감정 상태에 대한 요약 일기 및 녹음 파일을 포함할 수 있다.
본 발명에 따른 대화 기반 감정 일기 서비스 방법은, 상기 분석하는 단계 이후에 수행되는, 상기 서비스 장치는 분석한 감정 상태를 공감하거나 완화할 수 있는 컨텐츠를 제공하는 단계;를 더 포함할 수 있다.
상기 컨텐츠는 심리상담, 음악, 이미지, 영화, 코팅, 글, 영상 및 코멘트 중에 적어도 하나를 포함할 수 있다.
본 발명은 또한, 사용자 단말기와 통신을 수행하는 통신부; 및 상기 통신부를 통하여 상기 사용자 단말기의 사용자와 대화 봇을 통하여 대화를 수행하고, 상기 대화에 대한 음성 인식을 통하여 상기 사용자의 감정 상태를 분석하고, 분석한 감정 상태에 대한 감정 일기를 생성하는 제어부;를 포함하는 대화 기반 감정 일기 서비스 장치를 제공한다.
그리고 본 발명은, 사용자 단말기; 및 상기 사용자 단말기의 사용자와 대화 봇을 통하여 대화를 수행하고, 상기 대화에 대한 음성 인식을 통하여 상기 사용자의 감정 상태를 분석하고, 분석한 감정 상태에 대한 감정 일기를 생성하는 대화 기반 감정 일기 서비스 장치;를 포함하는 대화 기반 감정 일기 서비스 시스템을 제공한다.
본 발명에 따르면, 대화 봇을 통한 사용자와의 대화를 기반으로 감정 일기 서비스를 제공한다.
본 발명에 따른 서비스 장치는 사용자가 주기적으로 대화 봇과 대화를 수행할 수 있도록 사용자 단말기로 알람을 줌으로써, 대화 봇을 통한 사용자와의 대화를 기반으로 감정 일기 서비스를 제공한다.
본 발명에 따른 서비스 장치는 사용자가 작성한 감정 일기를 기반으로 사용자의 감정 상태를 확인하고, 확인한 감정 상태에 대한 정보를 사용자에게 제공하거나 확인한 감정 상태를 공감하거나 완화할 수 있는 컨텐츠를 제공함으로써, 사용자의 감정 상태에 대한 공감을 통하여 사용자의 힐링에 도움을 줄 수 있다.
도 1은 본 발명의 실시예에 따른 대화 기반 감정 일기 서비스 시스템을 보여주는 도면이다.
도 2는 도 1의 대화 기반 감정 일기 서비스 장치를 보여주는 도면이다.
도 3은 본 발명의 실시예에 따른 대화 기반 감정 일기 서비스 방법에 대한 흐름도이다.
도 4는 도 3의 분석하는 단계를 보여주는 상세 흐름도이다.
도 5 및 도 6은 도 3에 따른 감정 일기 서비스를 제공하는 서비스 화면에 대한 화면 예시도로서,
도 5는 감정 일기 메인 화면을 보여주는 화면 예시도이고,
도 6은 감정 일기 작성 화면을 보여주는 화면 예시도이다.
하기의 설명에서는 본 발명의 실시예를 이해하는데 필요한 부분만이 설명되며, 그 이외 부분의 설명은 본 발명의 요지를 벗어나지 않는 범위에서 생략될 것이라는 것을 유의하여야 한다.
이하에서 설명되는 본 명세서 및 청구범위에 사용된 용어나 단어는 통상적이거나 사전적인 의미로 한정해서 해석되어서는 아니 되며, 발명자는 그 자신의 발명을 가장 최선의 방법으로 설명하기 위해 용어의 개념으로 적절하게 정의할 수 있다는 원칙에 입각하여 본 발명의 기술적 사상에 부합하는 의미와 개념으로 해석되어야만 한다. 따라서 본 명세서에 기재된 실시예와 도면에 도시된 구성은 본 발명의 바람직한 실시예에 불과할 뿐이고, 본 발명의 기술적 사상을 모두 대변하는 것은 아니므로, 본 출원시점에 있어서 이들을 대체할 수 있는 다양한 균등물과 변형예들이 있을 수 있음을 이해하여야 한다.
이하, 첨부된 도면을 참조하여 본 발명의 실시예를 보다 상세하게 설명하고자 한다.
[대화 기반 감정 일기 서비스 시스템]
도 1은 본 발명의 실시예에 따른 대화 기반 감정 일기 서비스 시스템을 보여주는 도면이다.
도 1을 참조하면, 본 실시예에 따른 대화 기반 감정 일기 서비스 시스템(100; 이하 '서비스 시스템'이라 함)은 대화 봇(51)을 통한 사용자와의 대화를 기반으로 감정 일기 서비스를 제공하는 시스템이다.
이러한 본 실시예에 따른 서비스 시스템(100)은 사용자 단말기(10)와 대화 기반 감정 일기 서비스 장치(20; 이하 '서비스 장치'라고 함)를 포함한다. 서비스 장치(20)는 통신망을 매개로 사용자 단말기(10)와 통신을 수행한다. 여기서 통신망은 일반적으로 알려진 유무선 통신망일 수 있다.
사용자 단말기(10)는 대화 기반 감정 일기 서비스를 이용하는 사용자가 사용하는 통신 단말기이다. 사용자 단말기(10)는 서비스 장치(20)에 접속하여 감정 일기를 작성하고, 작성한 감정 일기를 확인할 수 있다. 또는 사용자 단말기(10)는 서비스 장치(20)가 제공하는 감정 일기 작성 시간에 대한 알람을 수신한다. 사용자 단말기(10)는 알람에 따라 서비스 장치(20)에 접속하여 감정 일기를 작성하고, 작성한 감정 일기를 확인할 수 있다. 이러한 사용자 단말기(10)는 스마트폰, 랩톱, 데스크톱, 핸드헬드PC, 태블릿PC 등 개인용 컴퓨팅 시스템일 수 있다. 또는 사용자 단말기(10)는 유무선 전화기를 포함할 수 있다. 즉 사용자는 유무선 전화기로 서비스 장치(20)의 대화 봇(51)과의 통화를 통한 대화로 감정 일기를 작성할 수 있다.
사용자 단말기(10)는 서비스 장치(20)가 제공하는 전용앱이나 웹페이지를 표시하는 표시부(13)를 포함한다. 표시부(13)에는 서비스 장치(20)가 제공하는 감정 일기 메인 화면과, 감정 일기를 작성할 수 있는 감정 일기 작성 화면이 표시될 수 있다. 사용자 단말기(10)는 메인 화면의 메뉴창을 통하여 작성 화면을 호출할 수 있다. 사용자 단말기(10)는 서비스 장치(20)로부터 분석된 사용자의 감정 상태를 공감하거나 완화할 수 있는 컨텐츠를 제공받을 수 있다.
그리고 서비스 장치(10)는 대화 봇(51)을 통한 사용자와의 대화를 기반으로 감정 일기 서비스를 제공한다. 즉 서비스 장치(20)는 대화 봇(51)을 통하여 사용자 단말기(10)의 사용자와 대화를 수행한다. 그리고 서비스 장치(20)는 대화에 대한 음성 인식을 통하여 사용자의 감정 상태를 분석하고, 분석한 감정 상태에 대한 감정 일기를 생성한다. 이때 서비스 장치(20)는 사용자 단말기(10)로 감정 일기 작성 시간에 대한 알람을 줄 수 있다. 서비스 장치(20)는 알람을 수신한 사용자 단말기(10)의 사용자와 대화 봇(51)을 통하여 대화를 수행할 수 있다. 이러한 서비스 장치(20)는 통신망 상에 구현된 서버, 클라우드 서버 등이 될 수 있다.
그리고 서비스 장치(20)는 사용자가 작성한 감정 일기를 기반으로 사용자의 감정 상태를 확인하고, 확인한 감정 상태에 대한 정보를 사용자 단말기(10)로 제공한다. 서비스 장치(20)는 확인한 감정 상태를 공감하거나 완화할 수 있는 컨텐츠를 사용자 단말기(10)로 제공할 수 있다. 여기서 컨텐츠는 심리상담, 음악, 이미지, 영화, 코팅, 글, 영상 및 코멘트 중에 적어도 하나를 포함할 수 있다.
[대화 기반 감정 일기 서비스 장치]
이와 같은 본 실시예에 따른 서비스 장치(20)에 대해서 도 1 및 도 2를 참조하여 설명하면 다음과 같다. 여기서 도 2는 도 1의 서비스 장치(20)를 보여주는 도면이다.
본 실시예에 따른 서비스 장치(20)는 통신부(30), 저장부(40) 및 제어부(50)를 포함한다.
통신부(30)는 사용자 단말기(10)와 통신을 수행한다. 통신부(30)는 제어부(50)의 제어에 따라 알람을 사용자 단말기(10)로 전달한다. 통신부(30)는 제어부(50)의 제어에 따라 감정 일기의 작성에 필요한 정보를 사용자 단말기(10)와 교환한다. 통신부(30)는 제어부(50)의 제어에 따라 확인한 사용자의 감정 상태를 공감하거나 완화할 수 있는 컨텐츠를 사용자 단말기(10)로 제공할 수 있다.
저장부(40)는 서비스 장치(20)의 동작 제어시 프로그램과, 그 프로그램 수행 중에 발생되는 정보를 저장한다. 저장부(40)는 대화 기반 감정 일기 서비스를 제공하기 위한 실행프로그램을 저장한다. 저장부(40)는 사용자가 작성한 감정 일기를 저장한다. 저장부(40)는 사용자의 감정 상태를 공감하거나 완화할 수 있는 컨텐츠를 저장하거나, 해당 컨텐츠에 대한 정보를 저장할 수 있다.
그리고 제어부(50)는 서비스 장치(20)의 전반적인 제어 동작을 수행하는 프로세서이다. 제어부(50)는 대화 봇(51)을 통한 사용자와의 대화를 기반으로 감정 일기 서비스의 제공을 제어한다.
대화 봇(51)은 다른 사용자 또는 사용자와의 대화 데이터를 기반으로 기계학습된 인공지능 챗 봇이다. 대화 봇(51)은 기계학습을 기반으로 질문을 생성하고, 사용자의 답변을 기반으로 추가 질문을 생성하여 사용자와 대화를 수행한다. 대화 봇(51)은 사용자에게 질문할 텍스트를 사람의 목소리로 사용자에게 말하는 더빙을 수행한다. 대화 봇(51)은 사용자의 답변을 기반으로 추가 질문을 생성하여 사용자 단말기(10)로 제공함으로써, 대화 봇(51)과 사용자 간에 대화를 진행한다.
제어부(50)는 전용앱이나 웹페이지를 통하여 대화 기반 감정 일기 서비스를 제공한다. 사용자는 사용자 단말기(10)를 통하여 전용앱이나 웹페이지를 통하여 대화 기반 감정 일기 서비스를 이용할 수 있다. 사용자는 대화 기반 감정 일기 서비스를 이용하기 전에, 일반적인 회원가입을 포함한 로그인을 수행할 수 있다.
제어부(50)는 대화 기반 감정 일기 서비스를 무료 또는 유료로 제공할 수 있다.
제어부(50)는 사용자 단말기(10)로 감정 일기 작성 시간에 대한 알람을 전달한다. 알람은 사용자에 의해 설정된 시간이거나 디폴트 형태로 제공될 수 있다. 알람이 디폴트 형태로 제공되더라도, 사용자 설정에 의해 알람 시간은 변경될 수 있다.
제어부(50)는 사용자와의 대화를 기반으로 감정 일기를 작성한다. 즉 제어부(50)는 대화 봇(51)을 통하여 사용자 단말기(10)의 사용자와 대화를 수행한다. 제어부(50)는 대화에 대한 음성 인식을 통하여 사용자의 감정 상태를 분석한다. 그리고 제어부(50)는 분석한 감정 상태에 대한 감정 일기를 생성한다.
제어부(50)는 사용자와 다음과 같이 대화를 수행할 수 있다. 제어부(50)는 대화 봇(51)을 통하여 하루의 일상에 대한 질문을 수행하고, 사용자 단말기(10)로부터 사용자의 답변을 수신하는 형태로 대화를 수행할 수 있다.
제어부(50)는 일상에 대한 질문으로 사용자로부터 감정 상태를 파악할 수 있는 답변을 유도할 수 있는 질문을 생성할 수 있다. 또한 제어부(50)는 이전 대화 및 이전 대화를 기반으로 분석한 감정 상태를 기반으로 질문을 생성할 수 있다. 또는 제어부(50)는 사용자의 회원 가입 정보를 기반으로 파악한 사용자의 바이오리듬을 기반으로 질문을 생성할 수도 있다.
제어부(50)는 사용자와의 대화에 대해 아래와 같이 분석을 수행할 수 있다.
먼저 제어부(50)는 대화 봇(51)과 사용자 간의 대화에 대한 녹음 파일을 생성한다.
다음으로 제어부(50)는 녹음 파일을 텍스트로 변환한다. 즉 제어부(50)는 STT 기술을 이용하여 녹음 파일을 텍스트로 변환한다.
다음으로 제어부(50)는 텍스트에서 사용자의 감정 상태를 표현하는 감정 키워드를 추출한다. 예컨대 텍스트는 복수의 질문과, 복수의 질문에 대한 복수의 답변을 포함한다. 질문에 대한 답변을 하나의 그룹으로 분류하고, 그룹별로 감정 키워드를 추출하고, 추출한 감정 키워드로 그룹별로 사용자의 감정 상태를 판단한다. 제어부(50)는 그룹별로 판단한 사용자의 감정 상태를 종합하여 최종적인 사용자의 감정 상태를 결정한다. 제어부(50)는 최종적인 사용자의 감정 상태를 적어도 하나 이상 결정할 수 있다.
또는 제어부(50)는 텍스트를 복수의 문장으로 분류한다. 제어부(50)는 분류한 문장별로 감정 키워드를 추출하고, 추출한 감정 키워드로 문장별로 사용자의 감정 상태를 판단한다. 제어부(50)는 문장별로 판단한 사용자의 감정 상태를 종합하여 최종적인 사용자의 감정 상태를 결정한다. 제어부(50)는 최종적인 사용자의 감정 상태를 적어도 하나 이상 결정할 수 있다.
제어부(50)는 사용자의 감정 상태를 놀람, 흥미, 지루, 통증, 중성, 긍정 기타, 부정 기타, 기쁨, 슬픔, 공포, 분노, 혐오 및 부끄러움 중에 적어도 하나로 분류하여 결정할 수 있다.
제어부(50)는 그룹별 또는 문장별로 추출한 감정 키워드로 분석한 사용자의 감정 상태 중, 빈도가 높은 감정 키워드에 따른 감정 상태를 대표 감정 상태로 결정할 수 있다.
제어부(50)는 분석한 사용자의 감정 상태를 이모티콘으로 제공할 수 있다. 이모티콘은 상기한 13가지의 감정을 구분하여 표현할 수 있다.
제어부(50)는 녹음 파일을 변환한 텍스트의 내용을 요약한 요약 일기를 생성할 수 있다. 요약 일기는 사용자의 감정 상태를 표현하는 것으로, 세 줄 이내의 간단한 문장으로 작성될 수 있다. 예컨대 요약 일기는 한 줄로 작성된 '한 줄 일기'일 수 있다. 요약 일기는 텍스트로 제공되거나 음성 파일로 제공될 수 있다.
그리고 제어부(50)는 분석한 사용자의 감정 상태를 기반으로 감정 일기를 생성한다. 감정 일기는 작성 일자 및 시간, 추출한 감정 키워드, 분석한 감정 상태에 대한 요약 일기 및 녹음 파일을 포함할 수 있다.
[대화 기반 감정 일기 서비스 방법]
이와 같은 본 실시예에 따른 대화 기반 감정 일기 서비스 방법에 대해서 도 1 내지 도 4를 참조하여 설명하면 다음과 같다. 여기서 도 3은 본 발명의 실시예에 따른 대화 기반 감정 일기 서비스 방법에 대한 흐름도이다. 그리고 도 4는 도 3의 분석하는 단계를 보여주는 상세 흐름도이다.
먼저 S10단계에서 서비스 장치(20)는 사용자 단말기(10)로 감정 일기 작성 시간에 대한 알람을 준다. 즉 서비스 장치(20)는 설정된 감정 일기 작성 시간이 되면 사용자 단말기(10)로 알람을 전달한다. 감정 일기 작성 시간은 디폴트로 제공되거나 사용자에 의해 설정될 수 있다. 예컨대 감정 일기 작성 시간으로 아침, 점심 및 저녁 중에 적어도 하나의 시간대에서 설정될 수 있다.
다음으로 S20단계에서 서비스 장치(20)는 대화 봇(51)을 통하여 사용자 단말기(10)의 사용자와 대화를 수행한다. 이때 대화는 사용자의 감정 상태를 파악할 수 있는 질문에 대한 답변 형식으로 수행될 수 있다.
한편 서비스 장치(20)는 알람을 수신한 사용자 단말기(10)의 사용자와 대화 못(51)을 통하여 대화를 수행하는 예를 개시하였지만 이것에 한정되는 것은 아니다. 예컨대 S10단계에 따른 알람을 수신하지 않은 사용자 단말기(10)의 사용자는 알람 수신과 무관하게 알람이 설정된 시간대에 서비스 장치(20)에 접속하여, 감정 일기를 작성하기 위한 대화를 수행할 수 있다.
이어서 S30단계에서 서비스 장치(20)는 대화에 대한 음성 인식을 통하여 사용자의 감정 상태를 분석한다. 즉 서비스 장치(20)는 대화에 대한 음성 인식을 기반으로 대화를 텍스트로 변환하고, 변환한 텍스트로부터 감정을 추출하여 감정을 분석한다.
이러한 S30단계는 다음과 같이 수행될 수 있다.
먼저 S31단계에서 서비스 장치(20)는 대화 봇(51)과 사용자 간의 대화에 대한 녹음 파일을 생성한다. 다음으로 S33단계에서 서비스 장치(20)는 녹음 파일을 텍스트로 변환한다. 이어서 S35단계에서 서비스 장치(20)는 텍스트에서 사용자의 감정 상태를 표현하는 감정 키워드를 추출한다. 그리고 S37단계에서 서비스 장치(20)는 추출한 감정 키워드로 사용자의 감정 상태를 분석한다.
그리고 S40단계에서 서비스 장치(20)는 분석한 감정 상태에 대한 감정 일기를 생성한다. 이때 서비스 장치(20)는 감정 일기를 다이어리 형태로 제공할 수 있다. 다이어리는 감정 일기가 작성된 일자에 분석한 사용자의 감정 상태를 이모티콘으로 표현할 수 있다.
사용자 단말기(10)에 다이어리가 출력된 상태에서, 임의의 날짜를 선택하면, 서비스 장치(20)는 선택된 날짜에 작성할 수 있는 감정 일기 작성 화면을 출력하거나, 이미 감정 일기가 작성된 경우 선택된 날짜에 작성된 감정 일기의 상세 내용을 출력할 수 있다. 여기서 감정 일기는 작성 일자 및 시간, 추출한 감정 키워드, 분석한 감정 상태에 대한 요약 일기 및 녹음 파일을 포함할 수 있다.
S40단계 이후에, S50단계에서 서비스 장치(20)는 분석한 감정 상태를 공감하거나 완화할 수 있는 컨텐츠를 사용자 단말기(10)로 제공할 수 있다. 컨텐츠는 작성된 감정 일기 작성 화면에 제공되는 메뉴창이나 이모티콘을 통하여 제공될 수 있다.
이와 같이 본 실시예에 따른 대화 기반 감정 일기 서비스 방법에 대해서 도 5 및 도 6의 화면 예시도를 참조하여 설명하면 다음과 같다. 여기서 도 5 및 도 6은 도 3의 감정 일기 서비스를 제공하는 서비스 화면에 대한 화면 예시도로서, 도 5는 감정 일기 메인 화면(60)을 보여주는 화면 예시도이고, 도 6은 감정 일기 작성 화면(70)을 보여주는 화면 예시도이다.
도 5를 참조하면, 사용자 단말기에 표시된 감정 일기 메인 화면(70)을 보여준다. 메인 화면(70)은 다이어리(61) 형태로 구현될 수 있다. 감정 일기가 작성된 일자에는 대표 감정 상태를 표현하는 이모티콘(72)이 표시될 수 있다.
메인 화면(70)의 하단에는 대화 기반 감정 일기 서비스에서 제공하는 메뉴창(63)이 표시될 수 있다. 메뉴창(63)은 홈, 커뮤니티, 감정 일기, 심리상담, 설정 등을 포함할 수 있다. 메뉴창(63)에서 감정 일기가 선택되면, 다이어리(61) 형태의 감정 일기가 표시된다.
다이어리(61) 형태의 감정 일기에서 특정 일자가 선택되면, 도 6에 도시된 바와 같이, 감정 일기 메인 화면(60)에서 감정 일기 작성 화면(70)으로 전환되어 표시된다. 사용자 단말기에 표시된 감정 일기 작성 화면(70)을 보여준다.
감정 일기 작성 화면(70)은 대표 감정 표시창(71), 키워드 창(73), 요약 일기 창(75), 녹음 파일 창(77) 및 메뉴창(79)을 포함할 수 있다.
대표 감정 표시창(71)은 감정 일기 작성 시간에 대한 알람이 설정되고, 해당 시간에 작성된 감정 일기에 대한 대표 감정 상태를 표현하는 이모티콘(72)이 표시되는 창이다. 감정 일기 작성 시간은 아침, 점심 및 저녁 중에서 결정될 수 있고, 감정 일기 작성 시간이 저녁인 경우, 저녁에 이모티콘(72)이 표시된다.
키워드 창(73)은 감정 일기에서 추출된 감정 키워드가 표시되는 창이다. 추출된 감정 키워드가 복수 개인 경우 키워드 창(73)에 복수 개의 감정 키워드가 표시될 수 있다. 추출된 감정 키워드가 너무 많은 경우, 추출된 감정 키워드 중에서 추출된 빈도가 높은 순으로 일정 개수를 키워드 창(73)에 표시될 수 있다. 키워드 창(73)에 추출한 감정 키워드 별로 다른 색상으로 표시될 수 있다. 키워드 창에(73) 표시되는 감정 키워드는 추출된 빈도 수에 따라서 크기를 달리하여 표시될 수 있다.
요약 일기 창(75)은 녹음 파일을 변환한 텍스트의 내용을 요약한 요약 일기가 표시되는 창이다. 요약 일기는 사용자의 감정 상태를 표현하는 것으로, 세 줄 이내의 간단한 문장으로 작성될 수 있다. 예컨대 요약 일기는 한 줄로 작성된 '한 줄 일기'일 수 있다. 요약 일기는 텍스트로 제공되거나 음성 파일로 제공될 수 있다.
메뉴창(77)은 메인 화면(도 5의 60)과 동일한 형태로 제공될 수 있다. 즉 메뉴창(77)은 홈, 커뮤니티, 감정 일기, 심리상담, 설정 등을 포함할 수 있다. 메뉴창(77)에서 선택된 메뉴는 선택되지 않은 다른 메뉴와 구별되게 표시될 수 있다. 예컨대 메뉴창(77)에서 선택된 메뉴는 다른 메뉴 보다 크기가 크게 표현되거나, 하이라이트 처리되어 표현될 수 있다.
그리고 사용자는 대표 감정 상태가 표시된 이모티콘(72)을 선택하거나, 메뉴창(77)의 심리상담을 선택하면, 서비스 장치로부터 분석된 감정 상태를 공감하거나 완화할 수 있는 컨텐츠를 사용자 단말기를 통하여 제공받을 수 있다.
한편, 본 명세서와 도면에 개시된 실시예들은 이해를 돕기 위해 특정 예를 제시한 것에 지나지 않으며, 본 발명의 범위를 한정하고자 하는 것은 아니다. 여기에 개시된 실시예들 이외에도 본 발명의 기술적 사상에 바탕을 둔 다른 변형예들이 실시 가능하다는 것은, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게는 자명한 것이다.
10 : 사용자 단말기
13 : 표시부
20 : 대화 기반 감정 일기 서비스 장치
30 : 통신부
40 : 저장부
50 : 제어부
51 : 대화 봇
60 : 메인 화면
61 : 다이어리
63 : 메뉴창
70 : 작성 화면
71 : 대표 감정 표시창
72 : 이모티콘
73 : 키워드 창
75 : 요약 일기 창
77 : 녹음 파일 창
79 : 메뉴창
100 : 대화 기반 감정 일기 서비스 시스템

Claims (11)

  1. 대화 기반 감정 일기 서비스 방법으로,
    서비스 장치는 사용자 단말기의 사용자와 대화 봇을 통하여 대화를 수행하는 단계;
    상기 서비스 장치는 상기 대화에 대한 음성 인식을 통하여 상기 사용자의 감정 상태를 분석하는 단계; 및
    상기 서비스 장치는 분석한 감정 상태에 대한 감정 일기를 생성하는 단계;
    를 포함하는 대화 기반 감정 일기 서비스 방법.
  2. 제1항에 있어서, 상기 대화를 수행하는 단계 이전에 수행되는,
    상기 서비스 장치는 상기 사용자 단말기로 감정 일기 작성 시간에 대한 알람을 주는 단계;를 더 포함하고,
    상기 대화를 수행하는 단계에서,
    상기 서비스 장치는 알람을 수신한 상기 사용자 단말기의 사용자와 대화 봇을 통하여 대화를 수행하는 것을 특징으로 하는 대화 기반 감정 일기 서비스 방법.
  3. 제1항에 있어서, 상기 대화를 수행하는 단계에서,
    상기 서비스 장치는 이전 대화 및 상기 이전 대화를 기반으로 분석한 감정 상태를 기반으로 질문을 생성하고, 생성한 질문으로 대화 봇을 통하여 상기 사용자 단말기의 사용자와 대화를 수행하는 것을 특징으로 하는 대화 기반 감정 일기 서비스 방법.
  4. 제3항에 있어서, 상기 분석하는 단계는,
    상기 서비스 장치는 상기 대화 봇과 상기 사용자 간의 대화에 대한 녹음 파일을 생성하는 단계;
    상기 서비스 장치는 상기 녹음 파일을 텍스트로 변환하는 단계;
    상기 서비스 장치는 상기 텍스트에서 상기 사용자의 감정 상태를 표현하는 감정 키워드를 추출하는 단계; 및
    상기 서비스 장치는 추출한 감정 키워드로 상기 사용자의 감정 상태를 분석하는 단계;
    를 포함하는 것을 특징으로 하는 대화 기반 감정 일기 서비스 방법.
  5. 제4항에 있어서, 상기 분석하는 단계는,
    상기 서비스 장치는 상기 사용자의 감정 상태를 놀람, 흥미, 지루, 통증, 중성, 긍정 기타, 부정 기타, 기쁨, 슬픔, 공포, 분노, 혐오 및 부끄러움으로 분류하는 것을 특징으로 하는 대화 기반 감정 일기 서비스 방법.
  6. 제4항에 있어서, 상기 감정 일기를 생성하는 단계에서,
    상기 서비스 장치는 추출한 감정 키워드로 분석한 사용자의 감정 상태 중, 빈도가 높은 감정 키워드에 따른 감정 상태를 대표 감정 상태로 결정하는 것을 특징으로 하는 대화 기반 감정 일기 서비스 방법.
  7. 제6항에 있어서, 상기 감정 일기를 생성하는 단계에서,
    상기 감정 일기는 작성 일자 및 시간, 추출한 감정 키워드, 분석한 감정 상태에 대한 요약 일기 및 녹음 파일을 포함하는 것을 특징으로 하는 대화 기반 감정 일기 서비스 방법.
  8. 제1항에 있어서, 상기 분석하는 단계 이후에 수행되는,
    상기 서비스 장치는 분석한 감정 상태를 공감하거나 완화할 수 있는 컨텐츠를 제공하는 단계;
    를 더 포함하는 것을 특징으로 하는 대화 기반 감정 일기 서비스 방법.
  9. 제8항에 있어서,
    상기 컨텐츠는 심리상담, 음악, 이미지, 영화, 코팅, 글, 영상 및 코멘트 중에 적어도 하나를 포함하는 것을 특징으로 하는 대화 기반 감정 일기 서비스 방법.
  10. 사용자 단말기와 통신을 수행하는 통신부; 및
    상기 통신부를 통하여 상기 사용자 단말기의 사용자와 대화 봇을 통하여 대화를 수행하고, 상기 대화에 대한 음성 인식을 통하여 상기 사용자의 감정 상태를 분석하고, 분석한 감정 상태에 대한 감정 일기를 생성하는 제어부;
    를 포함하는 대화 기반 감정 일기 서비스 장치.
  11. 사용자 단말기; 및
    상기 사용자 단말기와 대화 봇을 통하여 대화를 수행하고, 상기 대화에 대한 음성 인식을 통하여 상기 사용자의 감정 상태를 분석하고, 분석한 감정 상태에 대한 감정 일기를 생성하는 대화 기반 감정 일기 서비스 장치;
    를 포함하는 대화 기반 감정 일기 서비스 시스템.
KR1020220167242A 2022-12-05 2022-12-05 대화 기반 감정 일기 서비스 장치, 시스템 및 방법 KR20240083879A (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020220167242A KR20240083879A (ko) 2022-12-05 2022-12-05 대화 기반 감정 일기 서비스 장치, 시스템 및 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020220167242A KR20240083879A (ko) 2022-12-05 2022-12-05 대화 기반 감정 일기 서비스 장치, 시스템 및 방법

Publications (1)

Publication Number Publication Date
KR20240083879A true KR20240083879A (ko) 2024-06-13

Family

ID=91480983

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020220167242A KR20240083879A (ko) 2022-12-05 2022-12-05 대화 기반 감정 일기 서비스 장치, 시스템 및 방법

Country Status (1)

Country Link
KR (1) KR20240083879A (ko)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102187210B1 (ko) 2020-06-22 2020-12-04 주식회사 플랙스 영상 일기를 이용한 심리 상태 분석 장치 및 방법

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102187210B1 (ko) 2020-06-22 2020-12-04 주식회사 플랙스 영상 일기를 이용한 심리 상태 분석 장치 및 방법

Similar Documents

Publication Publication Date Title
Moore et al. Conversational UX design: an introduction
US20200082928A1 (en) Assisting psychological cure in automated chatting
CN108491147A (zh) 一种基于虚拟人物的人机交互方法及移动终端
JP2017229060A (ja) 会議コンテンツを表現する方法、プログラム、及び装置
CN107040452B (zh) 一种信息处理方法、装置和计算机可读存储介质
CN113170076A (zh) 用于通信会话的序列事件的动态策展
US20140349259A1 (en) Device, method, and graphical user interface for a group reading environment
US20140315163A1 (en) Device, method, and graphical user interface for a group reading environment
JP2011039860A (ja) 仮想空間を用いる会話システム、会話方法及びコンピュータプログラム
Rodolitz et al. Accessibility of voice-activated agents for people who are deaf or hard of hearing
US20230080660A1 (en) Systems and method for visual-audio processing for real-time feedback
US11848900B2 (en) Contextual messaging in video conference
JP2019053566A (ja) 表示制御装置、表示制御方法及びプログラム
EP3655870A1 (en) Systems and methods for dynamic user interaction for improving happiness
JP2022074024A (ja) 方法、コンピュータ・プログラム製品、およびコンピュータ・システム(聴衆フィードバックを用いたパーソナル・スピーチ提案)
Warnicke et al. The headset as an interactional resource in a video relay interpreting (VRI) setting
CN110992958B (zh) 内容记录方法、装置、电子设备及存储介质
Nakao et al. Use of machine learning by non-expert dhh people: Technological understanding and sound perception
Mahmud et al. Expressing through digital photographs: an assistive tool for persons with aphasia
KR20240083879A (ko) 대화 기반 감정 일기 서비스 장치, 시스템 및 방법
CN111914115A (zh) 一种声音信息的处理方法、装置及电子设备
Rodrigues et al. Studying natural user interfaces for smart video annotation towards ubiquitous environments
WO2022239053A1 (ja) 情報処理装置、情報処理方法および情報処理プログラム
JP6953597B1 (ja) 情報処理装置、プログラム及び情報処理方法
Chang Innovation of a smartphone app design as used in face-to-face communication for the deaf/hard of hearing