KR20240020818A - Method and system for displaying emotional state of users - Google Patents

Method and system for displaying emotional state of users Download PDF

Info

Publication number
KR20240020818A
KR20240020818A KR1020220099021A KR20220099021A KR20240020818A KR 20240020818 A KR20240020818 A KR 20240020818A KR 1020220099021 A KR1020220099021 A KR 1020220099021A KR 20220099021 A KR20220099021 A KR 20220099021A KR 20240020818 A KR20240020818 A KR 20240020818A
Authority
KR
South Korea
Prior art keywords
user
emotional state
chat room
conversation
displaying
Prior art date
Application number
KR1020220099021A
Other languages
Korean (ko)
Inventor
이승환
오철원
윤현수
최진주
Original Assignee
라인플러스 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 라인플러스 주식회사 filed Critical 라인플러스 주식회사
Priority to KR1020220099021A priority Critical patent/KR20240020818A/en
Priority to JP2023125552A priority patent/JP2024024603A/en
Publication of KR20240020818A publication Critical patent/KR20240020818A/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/50Business processes related to the communications industry
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L51/00User-to-user messaging in packet-switching networks, transmitted according to store-and-forward or real-time protocols, e.g. e-mail
    • H04L51/04Real-time or near real-time messaging, e.g. instant messaging [IM]

Landscapes

  • Business, Economics & Management (AREA)
  • Engineering & Computer Science (AREA)
  • Human Resources & Organizations (AREA)
  • Physics & Mathematics (AREA)
  • Economics (AREA)
  • Marketing (AREA)
  • Primary Health Care (AREA)
  • Strategic Management (AREA)
  • Tourism & Hospitality (AREA)
  • General Health & Medical Sciences (AREA)
  • General Business, Economics & Management (AREA)
  • General Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Information Transfer Between Computers (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

본 개시는 적어도 하나의 프로세서에 의해 수행되는 대화 상대방에 대한 감정 상태 표시 방법을 제공한다. 이 방법은, 제1 사용자와 제2 사용자 간에 수행된 적어도 하나의 대화 메시지를 획득하는 단계, 획득된 대화 메시지에 기초하여, 제1 사용자에 대한 제2 사용자의 감정 상태를 결정하는 단계 및 결정된 감정 상태와 연관된 제1 시각화 정보를 대화방에 표시하는 단계를 포함할 수 있다.The present disclosure provides a method for displaying an emotional state for a conversation partner, which is performed by at least one processor. The method includes obtaining at least one conversational message conducted between a first user and a second user, determining, based on the obtained conversational message, an emotional state of the second user with respect to the first user, and determining the determined emotion. It may include displaying first visualization information related to the status in the chat room.

Description

대화 상대방에 대한 감정 상태 표시 방법 및 시스템{METHOD AND SYSTEM FOR DISPLAYING EMOTIONAL STATE OF USERS}{METHOD AND SYSTEM FOR DISPLAYING EMOTIONAL STATE OF USERS}

본 개시는 대화 상대방에 대한 감정 상태를 표시하는 방법에 관한 것으로, 구체적으로 사용자들 간의 송수신된 대화 메시지에 기초하여, 대화 상대방에 대한 사용자의 감정 상태를 대화방에 표시하는 방법 및 시스템에 관한 것이다.The present disclosure relates to a method for displaying a user's emotional state toward a conversation partner, and more specifically, to a method and system for displaying a user's emotional state toward a conversation partner in a chat room based on conversation messages sent and received between users.

스마트폰 등과 같은 모바일 기기의 확산 및 인터넷의 발달로 인해 모바일 기기를 이용한 인스턴트 메시징 애플리케이션의 사용이 널리 이루어지고 있다. 모바일 기기를 통해 인스턴트 메시징 애플리케이션을 사용하는 사용자는 다른 사용자들과 대화방을 통해 다양한 대화 메시지를 주고받을 수 있다.Due to the proliferation of mobile devices such as smartphones and the development of the Internet, instant messaging applications using mobile devices are widely used. Users who use instant messaging applications through mobile devices can exchange various conversation messages with other users through chat rooms.

이러한 인스턴트 메시징 애플리케이션에는 사용자의 프로필을 설정할 수 있는 기능이 제공되고 있으며, 사용자는 프로필을 통해, 별명, 사진 등을 등록할 수 있다. 또한, 인스턴트 메시징 애플리케이션에는 상태를 설정할 수 있는 기능이 제공되어, 사용자는 부재중, 답변 못함, 휴가 중, 운전 중, 슬픔, 기쁨, 화남 등과 같이 다양한 상태를 설정할 수 있다. 이러한 사용자의 상태에 기초하여, 타 사용자들은 사용자의 상태를 파악할 수 있다. These instant messaging applications provide the ability to set a user's profile, and users can register nicknames, photos, etc. through the profile. In addition, instant messaging applications provide the ability to set statuses, allowing users to set various statuses such as out of office, unanswered, on vacation, driving, sad, happy, angry, etc. Based on the user's status, other users can determine the user's status.

그런데 이러한 상태 설정 기능은 사용자가 프로필을 통해서 자신의 상태를 직접 변경하는 것으로, 사용자의 입력 정보가 필요하며, 또한 실시간으로 사용자의 상태가 반영되기가 힘들다는 문제점이 있다. 또한, 사용자의 프로필에 상태 정보가 기록되지 않은 경우, 타 사용자는 사용자의 상태를 파악하기가 힘들다. However, this status setting function requires the user's input information because the user directly changes his or her status through the profile, and there is a problem in that it is difficult to reflect the user's status in real time. Additionally, if status information is not recorded in the user's profile, it is difficult for other users to determine the user's status.

본 개시는 상기와 같은 문제점을 해결하기 위한 대화 상대방에 대한 감정 상태 표시 방법, 기록매체에 저장된 컴퓨터 프로그램 및 장치(시스템)를 제공한다.The present disclosure provides a method for displaying an emotional state for a conversation partner, a computer program stored in a recording medium, and a device (system) to solve the above problems.

본 개시는 방법, 장치(시스템) 및/또는 컴퓨터 판독 가능 저장 매체에 저장된 컴퓨터 프로그램, 컴퓨터 프로그램이 저장된 컴퓨터 판독 가능 저장 매체를 포함한 다양한 방식으로 구현될 수 있다.The present disclosure may be implemented in various ways, including a method, a device (system), and/or a computer program stored in a computer-readable storage medium, and a computer-readable storage medium storing the computer program.

본 개시의 일 실시예에 따르면, 적어도 하나의 프로세서에 의해 수행되는 감정 상태 표시 방법은, 제1 사용자와 제2 사용자 간에 수행된 적어도 하나의 대화 메시지를 획득하는 단계, 획득된 대화 메시지에 기초하여, 제1 사용자에 대한 제2 사용자의 감정 상태를 결정하는 단계 및 결정된 감정 상태와 연관된 제1 시각화 정보를 대화방에 표시하는 단계를 포함할 수 있다.According to an embodiment of the present disclosure, a method for displaying an emotional state performed by at least one processor includes obtaining at least one conversation message performed between a first user and a second user, based on the obtained conversation message. , may include determining the emotional state of the second user with respect to the first user and displaying first visualization information associated with the determined emotional state in the chat room.

본 개시의 일 실시예에 따르면 감정 상태 표시 방법은, 획득된 대화 메시지에 기초하여, 제2 사용자에 대한 제1 사용자의 감정 상태를 결정하는 단계 및 결정된 감정 상태와 연관된 제2 시각화 정보를 대화방에 표시하는 단계를 더 포함할 수 있다. According to an embodiment of the present disclosure, a method for displaying an emotional state includes determining an emotional state of a first user with respect to a second user based on an obtained conversation message, and providing second visualization information associated with the determined emotional state to a chat room. A display step may be further included.

본 개시의 일 실시예에 따르면, 제1 사용자에 대한 제2 사용자의 감정 상태를 결정하는 단계는, 획득된 대화 메시지 중에서, 제2 사용자에 의해 작성된 대화 메시지에 기초하여 제1 사용자에 대한 제2 사용자의 감정 상태를 결정하는 단계를 포함하고, 제2 사용자에 대한 제1 사용자의 감정 상태를 결정하는 단계는, 획득된 대화 메시지 중에서, 제1 사용자에 의해 작성된 대화 메시지에 기초하여 제2 사용자에 대한 제1 사용자의 감정 상태를 결정하는 단계를 포함할 수 있다.According to an embodiment of the present disclosure, the step of determining the emotional state of the second user with respect to the first user includes: determining the emotional state of the second user with respect to the first user based on the conversation message written by the second user among the obtained conversation messages; Determining the emotional state of the user, wherein determining the emotional state of the first user with respect to the second user comprises: determining the emotional state of the first user with respect to the second user; It may include determining the emotional state of the first user.

본 개시의 일 실시예에 따르면 감정 상태 표시 방법은, 대화방에서 제3 사용자를 대상으로 작성된 제1 사용자의 대화 메시지를 감지하는 단계 및 감지된 대화 메시지에 응답하여, 제3 사용자에 대한 제1 사용자의 감정 상태와 연관된 제3 시각화 정보를 대화방에 표시하는 단계를 더 포함할 수 있다.According to an embodiment of the present disclosure, a method for displaying an emotional state includes detecting a conversation message written by a first user intended for a third user in a chat room, and in response to the detected conversation message, It may further include displaying third visualization information related to the emotional state in the chat room.

본 개시의 일 실시예에 따르면, 제2 시각화 정보를 대화방에 표시하는 단계는, 제1 사용자의 감정 상태가 표출되는 소정의 영역에, 제2 시각화 정보를 표시하는 단계를 포함하고, 제3 시각화 정보를 대화방에 표시하는 단계는, 소정의 영역에 표시된 제2 시각화 정보를 제3 시각화 정보로 변경하는 단계를 포함할 수 있다. According to an embodiment of the present disclosure, displaying the second visualization information in the chat room includes displaying the second visualization information in a predetermined area where the emotional state of the first user is expressed, and displaying the second visualization information in the chat room. The step of displaying information in a chat room may include changing the second visualization information displayed in a predetermined area into third visualization information.

본 개시의 일 실시예에 따르면, 제3 시각화 정보를 대화방에 표시하는 단계는, 대화방 또는 타 대화방 중 적어도 하나에 포함된 제3 사용자와 제1 사용자 간의 대화 메시지를 기초로, 제3 사용자에 대한 제1 사용자의 감정 상태를 결정하는 단계를 포함할 수 있다. According to an embodiment of the present disclosure, the step of displaying the third visualization information in the chat room is based on a conversation message between the third user and the first user included in at least one of the chat room or another chat room, It may include determining the emotional state of the first user.

본 개시의 일 실시예에 따르면, 제3 사용자를 대상으로 작성된 제1 사용자의 대화 메시지를 감지하는 단계는, 대화방에서 제1 사용자가 제3 사용자를 지목하는 멘션(mention) 메시지를 감지하거나 제3 사용자의 대화 메시지에 대한 제1 사용자의 응답 메시지를 감지하는 경우에, 제3 사용자를 대상으로 작성된 제1 사용자의 대화 메시지를 감지한 것으로 판정하는 단계를 포함할 수 있다.According to an embodiment of the present disclosure, the step of detecting a conversation message of a first user written for a third user includes detecting a mention message in which the first user points to a third user in a chat room, or When detecting the first user's response message to the user's conversation message, it may include determining that the first user's conversation message written for the third user has been detected.

본 개시의 일 실시예에 따르면, 대화방은 단체 대화방이고, 적어도 하나의 대화 메시지를 획득하는 단계는, 제1 사용자와 제2 사용자가 함께 포함된 단체 대화방으로부터 제2 사용자에 의해 작성된 제1 세트의 대화 메시지를 획득하는 단계 및 제1 사용자와 제2 사용자가 포함된 개인 대화방에 포함된 제2 세트의 대화 메시지를 획득하는 단계를 포함하고, 제1 사용자에 대한 제2 사용자의 감정 상태는 제1 세트의 대화 메시지와 제2 세트의 대화 메시지에 기초하여 결정될 수 있다. According to one embodiment of the present disclosure, the chat room is a group chat room, and the step of obtaining at least one chat message includes the first set of chat messages written by the second user from the group chat room including the first user and the second user. Obtaining conversation messages and obtaining a second set of conversation messages included in a personal chat room including a first user and a second user, wherein the emotional state of the second user with respect to the first user is the first set of conversation messages. It may be determined based on the set of conversation messages and the second set of conversation messages.

본 개시의 일 실시예에 따르면, 제1 사용자에 대한 제2 사용자의 감정 상태를 결정하는 단계는, 제1 세트의 대화 메시지에 기초하여, 제1 감정 상태를 결정하는 단계, 제2 세트의 대화 메시지에 기초하여, 제2 감정 상태를 결정하는 단계 및 제1 감정 상태 및 제2 감정 상태에 기초하여, 제1 사용자에 대한 제2 사용자의 감정 상태를 결정하는 단계를 포함할 수 있다. According to an embodiment of the present disclosure, determining the emotional state of the second user with respect to the first user includes determining the first emotional state based on a first set of conversational messages, a second set of conversational messages, and Based on the message, determining a second emotional state and determining an emotional state of the second user with respect to the first user based on the first emotional state and the second emotional state.

본 개시의 일 실시예에 따르면, 제1 사용자에 대한 제2 사용자의 감정 상태를 결정하는 단계는, 제1 감정 상태와 제2 감정 상태가 동일하는지 여부를 판정하는 단계 및 제1 감정 상태와 제2 감정 상태가 상이하다는 판정에 응답하여, 제1 감정 상태 및 제2 감정 상태 중에서 우선 순위가 높은 감정 상태를 제1 사용자에 대한 제2 사용자의 감정 상태로 결정하는 단계를 포함할 수 있다. According to one embodiment of the present disclosure, determining the emotional state of the second user with respect to the first user includes determining whether the first emotional state and the second emotional state are the same, and the first emotional state and the second emotional state. In response to determining that the two emotional states are different, the method may include determining an emotional state with a higher priority among the first emotional state and the second emotional state as the emotional state of the second user with respect to the first user.

본 개시의 일 실시예에 따르면, 제1 사용자에 대한 제2 사용자의 감정 상태는, 제1 감정 상태에 제1 가중치를 적용하고, 제2 감정 상태에 제2 가중치를 적용하여 결정될 수 있다. According to an embodiment of the present disclosure, the emotional state of the second user with respect to the first user may be determined by applying a first weight to the first emotional state and a second weight to the second emotional state.

본 개시의 일 실시예에 따르면, 제2 가중치가 제1 가중치 보다 클 수 있다. According to one embodiment of the present disclosure, the second weight may be greater than the first weight.

본 개시의 일 실시예에 따르면, 제1 세트의 대화 메시지는, 단체 대화방에서 제2 사용자가 제1 사용자를 대상으로 작성한 메시지일 수 있다. According to an embodiment of the present disclosure, the first set of conversation messages may be messages written by a second user for a first user in a group chat room.

본 개시의 일 실시예에 따르면, 감정 상태 표시 방법은 단체 대화방에 포함된 제1 사용자와 제3 사용자 간의 제3 세트의 대화 메시지를 획득하는 단계, 제1 사용자와 제3 사용자가 포함된 개인 대화방에 포함된 제4 세트의 대화 메시지를 획득하는 단계, 제3 세트의 대화 메시지와 제4 세트의 대화 메시지에 기초하여, 제1 사용자에 대한 제3 사용자의 감정 상태를 결정하는 단계 및 결정된 제1 사용자에 대한 제3 사용자의 감정 상태와 연관된 제4 시각화 정보를 단체 대화방에 표시하는 단계를 더 포함할 수 있다. According to an embodiment of the present disclosure, a method for displaying an emotional state includes obtaining a third set of conversation messages between a first user and a third user included in a group chat room, and a personal chat room including the first user and the third user. obtaining a fourth set of conversation messages included in, determining, based on the third set of conversation messages and the fourth set of conversation messages, an emotional state of the third user with respect to the first user, and determining the first user's emotional state with respect to the first user. The method may further include displaying fourth visualization information related to the emotional state of the third user with respect to the user in the group chat room.

본 개시의 일 실시예에 따르면, 감정 상태 표시 방법은 단체 대화방에 포함된 모든 사용자들 사이의 감정 관계 정보를 표시하는 단계를 더 포함하고, 감정 관계 정보는, 제1 사용자에 대한 다른 사용자들 각각의 감정 상태와 다른 사용자들 각각에 대한 제1 사용자의 감정 상태를 포함할 수 있다. According to an embodiment of the present disclosure, the method for displaying emotional states further includes the step of displaying emotional relationship information between all users included in the group chat room, and the emotional relationship information includes each of the other users with respect to the first user. It may include the emotional state of the first user and the emotional state of each of the other users.

본 개시의 일 실시예에 따르면, 감정 상태 표시 방법은 제1 사용자로부터 감정 관계 정보에 대한 출력 요청을 수신하는 단계 및 감정 관계 정보 중 적어도 일부를 외부 장치로부터 획득하는 단계를 더 포함할 수 있다. According to an embodiment of the present disclosure, the method for displaying an emotional state may further include receiving an output request for emotional relationship information from a first user and obtaining at least a portion of the emotional relationship information from an external device.

본 개시의 일 실시예에 따르면, 제1 사용자에 대한 제2 사용자의 감정 상태를 결정하는 단계는, 획득된 대화 메시지로부터 감정과 연관된 적어도 하나의 키워드 또는 이모티콘을 추출하는 단계 및 추출된 적어도 하나의 키워드 또는 이모티콘에 기초하여, 제1 사용자에 대한 제2 사용자의 감정 상태를 결정하는 단계를 포함할 수 있다. According to one embodiment of the present disclosure, determining the emotional state of the second user with respect to the first user includes extracting at least one keyword or emoticon associated with the emotion from the obtained conversation message and at least one extracted It may include determining the emotional state of the second user with respect to the first user based on the keyword or emoticon.

본 개시의 일 실시예에 따르면, 제1 시각화 정보를 대화방에 표시하는 단계는, 대화방 내의 제2 사용자의 프로필과 연관하여 제1 시각화 정보를 표시하는 단계를 포함할 수 있다. According to an embodiment of the present disclosure, displaying the first visualization information in the chat room may include displaying the first visualization information in association with the profile of the second user in the chat room.

상술한 감정 상태 표시 방법을 컴퓨터에서 실행하기 위해 컴퓨터 판독 가능한 기록 매체에 저장된 컴퓨터 프로그램이 제공될 수 있다.In order to execute the above-described emotional state display method on a computer, a computer program stored in a computer-readable recording medium may be provided.

본 개시의 일 실시예에 따른 사용자 단말은 메모리 및 메모리와 연결되고, 메모리에 포함된 컴퓨터 판독 가능한 적어도 하나의 프로그램을 실행하도록 구성된 적어도 하나의 프로세서를 포함하고, 적어도 하나의 프로그램은, 제1 사용자와 제2 사용자 간에 수행된 적어도 하나의 대화 메시지를 획득하고, 획득된 대화 메시지에 기초하여, 제1 사용자에 대한 제2 사용자의 감정 상태를 결정하고, 결정된 감정 상태와 연관된 제1 시각화 정보를 대화방에 표시하기 위한 명령어들을 포함할 수 있다. A user terminal according to an embodiment of the present disclosure includes a memory and at least one processor connected to the memory and configured to execute at least one computer-readable program included in the memory, and the at least one program is operated by the first user. Obtain at least one conversation message performed between the user and the second user, determine the emotional state of the second user with respect to the first user based on the obtained conversation message, and display first visualization information associated with the determined emotional state in the chat room. It may contain commands for displaying.

본 개시의 일부 실시예에 따르면, 대화 메시지에 기초하여 각 대화 상대방의 감정 상태가 분석되고, 분석된 결과에 기초하여 각각의 대화 상대방의 감정 상태가 대화방에 자동적으로 표시될 수 있다. 이에 따라, 사용자의 수동적인 조작 없이, 대화 상대방의 감정 상태가 실시간으로 반영되어 표시될 수 있다. According to some embodiments of the present disclosure, the emotional state of each conversation partner may be analyzed based on the conversation message, and the emotional state of each conversation partner may be automatically displayed in the chat room based on the analysis result. Accordingly, the emotional state of the conversation partner can be reflected and displayed in real time without manual manipulation by the user.

본 개시의 일부 실시예에 따르면, 단체 대화방에 포함된 대화 메시지와 개인 대화방에 포함된 대화 메시지에 기초하여, 각 대화 상대방의 감정 상태가 보다 정확하게 결정될 수 있다. According to some embodiments of the present disclosure, the emotional state of each conversation partner can be more accurately determined based on the conversation messages included in the group chat room and the conversation messages included in the personal chat room.

본 개시의 일부 실시예에 따르면, 감정 상태와 연관된 시각화 정보가 대화방에 출력되어, 사용자는 직관적으로 대화 상대방의 감정 상태를 파악할 수 있다.According to some embodiments of the present disclosure, visualization information related to the emotional state is output to the chat room, so that the user can intuitively determine the emotional state of the conversation partner.

본 개시의 일부 실시예에 따르면, 사용자와 복수의 대화 상대방들 간에 감정 관계 정보, 대화방 내에서의 감정 상태 표출 등과 같은 다양한 기능이 제공되어, 인스턴트 메시징 서비스에 대한 사용자 만족도가 향상될 수 있다. According to some embodiments of the present disclosure, various functions such as emotional relationship information between a user and a plurality of conversation partners, expression of emotional states within a chat room, etc. are provided, thereby improving user satisfaction with the instant messaging service.

본 개시의 효과는 이상에서 언급한 효과로 제한되지 않으며, 언급되지 않은 다른 효과들은 청구범위의 기재로부터 본 개시가 속하는 기술분야에서 통상의 지식을 가진 자('통상의 기술자'라 함)에게 명확하게 이해될 수 있을 것이다.The effects of the present disclosure are not limited to the effects mentioned above, and other effects not mentioned are clear to a person skilled in the art (referred to as a ‘person skilled in the art’) in the technical field to which this disclosure pertains from the description of the claims. It will be understandable.

본 개시의 실시예들은, 이하 설명하는 첨부 도면들을 참조하여 설명될 것이며, 여기서 유사한 참조 번호는 유사한 요소들을 나타내지만, 이에 한정되지는 않는다.
도 1은 본 개시의 일 실시예에 따른, 감정 상태가 표시된 단체 대화방 화면에 대한 예시를 나타내는 도면이다.
도 2는 본 개시의 일 실시예에 따른 정보 처리 시스템이 복수의 사용자 단말과 통신 가능하도록 연결된 구성을 나타내는 개요도이다.
도 3은 본 개시의 일 실시예에 따른 사용자 단말 및 정보 처리 시스템의 내부 구성을 나타내는 블록도이다.
도 4는 본 개시의 일 실시예에 따른 사용자 단말의 프로세서의 내부 구성을 나타내는 블록도이다.
도 5는 감정 상태를 포함하는 개인 대화방 화면의 일 예시를 나타내는 도면이다.
도 6은 감정 상태가 표시되는 개인 대화방의 다른 예시를 나타내는 도면이다.
도 7은 감정 상태가 표시되는 단체 대화방 화면의 일 예시를 나타내는 도면이다.
도 8은 본 개시의 일 실시예에 따른 감정 관계 정보를 예시하는 도면이다.
도 9는 본 개시의 일 실시예에 따른, 대화 상대방에 대한 감정 상태 표시 방법을 설명하기 위한 흐름도이다.
Embodiments of the present disclosure will be described with reference to the accompanying drawings described below, in which like reference numerals represent like elements, but are not limited thereto.
1 is a diagram illustrating an example of a group chat room screen displaying an emotional state, according to an embodiment of the present disclosure.
Figure 2 is a schematic diagram showing a configuration in which an information processing system according to an embodiment of the present disclosure is connected to communicate with a plurality of user terminals.
Figure 3 is a block diagram showing the internal configuration of a user terminal and an information processing system according to an embodiment of the present disclosure.
Figure 4 is a block diagram showing the internal configuration of a processor of a user terminal according to an embodiment of the present disclosure.
Figure 5 is a diagram illustrating an example of a personal chat room screen including an emotional state.
Figure 6 is a diagram showing another example of a personal chat room in which emotional states are displayed.
Figure 7 is a diagram illustrating an example of a group chat room screen where emotional states are displayed.
Figure 8 is a diagram illustrating emotional relationship information according to an embodiment of the present disclosure.
Figure 9 is a flowchart for explaining a method of displaying an emotional state for a conversation partner, according to an embodiment of the present disclosure.

이하, 본 개시의 실시를 위한 구체적인 내용을 첨부된 도면을 참조하여 상세히 설명한다. 다만, 이하의 설명에서는 본 개시의 요지를 불필요하게 흐릴 우려가 있는 경우, 널리 알려진 기능이나 구성에 관한 구체적 설명은 생략하기로 한다.Hereinafter, specific details for implementing the present disclosure will be described in detail with reference to the attached drawings. However, in the following description, detailed descriptions of well-known functions or configurations will be omitted if there is a risk of unnecessarily obscuring the gist of the present disclosure.

첨부된 도면에서, 동일하거나 대응하는 구성요소에는 동일한 참조부호가 부여되어 있다. 또한, 이하의 실시예들의 설명에 있어서, 동일하거나 대응되는 구성요소를 중복하여 기술하는 것이 생략될 수 있다. 그러나, 구성요소에 관한 기술이 생략되어도, 그러한 구성요소가 어떤 실시예에 포함되지 않는 것으로 의도되지는 않는다.In the accompanying drawings, identical or corresponding components are given the same reference numerals. Additionally, in the description of the following embodiments, overlapping descriptions of identical or corresponding components may be omitted. However, even if descriptions of components are omitted, it is not intended that such components are not included in any embodiment.

개시된 실시예의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나, 본 개시는 이하에서 개시되는 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시예들은 본 개시가 완전하도록 하고, 본 개시가 통상의 기술자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것일 뿐이다.Advantages and features of the disclosed embodiments and methods for achieving them will become clear by referring to the embodiments described below in conjunction with the accompanying drawings. However, the present disclosure is not limited to the embodiments disclosed below and may be implemented in various different forms. The present embodiments are merely provided to ensure that the present disclosure is complete and that the present disclosure does not convey the scope of the invention to those skilled in the art. It is provided only for complete information.

본 명세서에서 사용되는 용어에 대해 간략히 설명하고, 개시된 실시예에 대해 구체적으로 설명하기로 한다. 본 명세서에서 사용되는 용어는 본 개시에서의 기능을 고려하면서 가능한 현재 널리 사용되는 일반적인 용어들을 선택하였으나, 이는 관련 분야에 종사하는 기술자의 의도 또는 판례, 새로운 기술의 출현 등에 따라 달라질 수 있다. 또한, 특정한 경우는 출원인이 임의로 선정한 용어도 있으며, 이 경우 해당되는 발명의 설명 부분에서 상세히 그 의미를 기재할 것이다. 따라서, 본 개시에서 사용되는 용어는 단순한 용어의 명칭이 아닌, 그 용어가 가지는 의미와 본 개시의 전반에 걸친 내용을 토대로 정의되어야 한다.Terms used in this specification will be briefly described, and the disclosed embodiments will be described in detail. The terms used in this specification are general terms that are currently widely used as much as possible while considering the function in the present disclosure, but this may vary depending on the intention or precedent of a technician working in the related field, the emergence of new technology, etc. In addition, in certain cases, there are terms arbitrarily selected by the applicant, and in this case, the meaning will be described in detail in the description of the relevant invention. Accordingly, the terms used in this disclosure should be defined based on the meaning of the term and the overall content of the present disclosure, rather than simply the name of the term.

본 명세서에서의 단수의 표현은 문맥상 명백하게 단수인 것으로 특정하지 않는 한, 복수의 표현을 포함한다. 또한, 복수의 표현은 문맥상 명백하게 복수인 것으로 특정하지 않는 한, 단수의 표현을 포함한다. 명세서 전체에서 어떤 부분이 어떤 구성요소를 포함한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있음을 의미한다.In this specification, singular expressions include plural expressions, unless the context clearly specifies the singular. Additionally, plural expressions include singular expressions, unless the context clearly specifies plural expressions. When it is said that a certain part includes a certain element throughout the specification, this does not mean excluding other elements, but may further include other elements, unless specifically stated to the contrary.

또한, 명세서에서 사용되는 '모듈' 또는 '부'라는 용어는 소프트웨어 또는 하드웨어 구성요소를 의미하며, '모듈' 또는 '부'는 어떤 역할들을 수행한다. 그렇지만, '모듈' 또는 '부'는 소프트웨어 또는 하드웨어에 한정되는 의미는 아니다. '모듈' 또는 '부'는 어드레싱할 수 있는 저장 매체에 있도록 구성될 수도 있고 하나 또는 그 이상의 프로세서들을 재생시키도록 구성될 수도 있다. 따라서, 일 예로서, '모듈' 또는 '부'는 소프트웨어 구성요소들, 객체지향 소프트웨어 구성요소들, 클래스 구성요소들 및 태스크 구성요소들과 같은 구성요소들과, 프로세스들, 함수들, 속성들, 프로시저들, 서브루틴들, 프로그램 코드의 세그먼트들, 드라이버들, 펌웨어, 마이크로 코드, 회로, 데이터, 데이터베이스, 데이터 구조들, 테이블들, 어레이들 또는 변수들 중 적어도 하나를 포함할 수 있다. 구성요소들과 '모듈' 또는 '부'들은 안에서 제공되는 기능은 더 작은 수의 구성요소들 및 '모듈' 또는 '부'들로 결합되거나 추가적인 구성요소들과 '모듈' 또는 '부'들로 더 분리될 수 있다.Additionally, the term 'module' or 'unit' used in the specification refers to a software or hardware component, and the 'module' or 'unit' performs certain roles. However, 'module' or 'unit' is not limited to software or hardware. A 'module' or 'unit' may be configured to reside on an addressable storage medium and may be configured to run on one or more processors. Thus, as an example, a 'module' or 'part' refers to components such as software components, object-oriented software components, class components and task components, processes, functions and properties. , procedures, subroutines, segments of program code, drivers, firmware, microcode, circuits, data, databases, data structures, tables, arrays, or variables. Components and 'modules' or 'parts' may be combined into smaller components and 'modules' or 'parts' or further components and 'modules' or 'parts'. Could be further separated.

본 개시의 일 실시예에 따르면, '모듈' 또는 '부'는 프로세서 및 메모리로 구현될 수 있다. '프로세서'는 범용 프로세서, 중앙 처리 장치(CPU), 마이크로프로세서, 디지털 신호 프로세서(DSP), 제어기, 마이크로제어기, 상태 머신 등을 포함하도록 넓게 해석되어야 한다. 몇몇 환경에서, '프로세서'는 주문형 반도체(ASIC), 프로그램가능 로직 디바이스(PLD), 필드 프로그램가능 게이트 어레이(FPGA) 등을 지칭할 수도 있다. '프로세서'는, 예를 들어, DSP와 마이크로프로세서의 조합, 복수의 마이크로프로세서들의 조합, DSP 코어와 결합한 하나 이상의 마이크로프로세서들의 조합, 또는 임의의 다른 그러한 구성들의 조합과 같은 처리 디바이스들의 조합을 지칭할 수도 있다. 또한, '메모리'는 전자 정보를 저장 가능한 임의의 전자 컴포넌트를 포함하도록 넓게 해석되어야 한다. '메모리'는 임의 액세스 메모리(RAM), 판독-전용 메모리(ROM), 비-휘발성 임의 액세스 메모리(NVRAM), 프로그램가능 판독-전용 메모리(PROM), 소거-프로그램가능 판독 전용 메모리(EPROM), 전기적으로 소거가능 PROM(EEPROM), 플래쉬 메모리, 자기 또는 광학 데이터 저장장치, 레지스터들 등과 같은 프로세서-판독가능 매체의 다양한 유형들을 지칭할 수도 있다. 프로세서가 메모리로부터 정보를 판독하고/하거나 메모리에 정보를 기록할 수 있다면 메모리는 프로세서와 전자 통신 상태에 있다고 불린다. 프로세서에 집적된 메모리는 프로세서와 전자 통신 상태에 있다.According to an embodiment of the present disclosure, a 'module' or 'unit' may be implemented with a processor and memory. 'Processor' should be interpreted broadly to include general-purpose processors, central processing units (CPUs), microprocessors, digital signal processors (DSPs), controllers, microcontrollers, state machines, etc. In some contexts, 'processor' may refer to an application-specific integrated circuit (ASIC), programmable logic device (PLD), field programmable gate array (FPGA), etc. 'Processor' refers to a combination of processing devices, for example, a combination of a DSP and a microprocessor, a combination of a plurality of microprocessors, a combination of one or more microprocessors in combination with a DSP core, or any other such combination of configurations. You may. Additionally, 'memory' should be interpreted broadly to include any electronic component capable of storing electronic information. 'Memory' refers to random access memory (RAM), read-only memory (ROM), non-volatile random access memory (NVRAM), programmable read-only memory (PROM), erasable-programmable read-only memory (EPROM), May also refer to various types of processor-readable media, such as electrically erasable PROM (EEPROM), flash memory, magnetic or optical data storage, registers, etc. A memory is said to be in electronic communication with a processor if the processor can read information from and/or write information to the memory. The memory integrated into the processor is in electronic communication with the processor.

본 개시에서, '시스템'은 서버 장치와 클라우드 장치 중 적어도 하나의 장치를 포함할 수 있으나, 이에 한정되는 것은 아니다. 예를 들어, 시스템은 하나 이상의 서버 장치로 구성될 수 있다. 다른 예로서, 시스템은 하나 이상의 클라우드 장치로 구성될 수 있다. 또 다른 예로서, 시스템은 서버 장치와 클라우드 장치가 함께 구성되어 동작될 수 있다.In the present disclosure, 'system' may include at least one of a server device and a cloud device, but is not limited thereto. For example, a system may consist of one or more server devices. As another example, a system may consist of one or more cloud devices. As another example, the system may be operated with a server device and a cloud device configured together.

또한, 이하의 실시예들에서 사용되는 제1, 제2, A, B, (a), (b) 등의 용어는 어떤 구성요소를 다른 구성요소와 구별하기 위해 사용되는 것일 뿐, 그 용어에 의해 해당 구성요소의 본질이나 차례 또는 순서 등이 한정되지는 않는다.In addition, terms such as first, second, A, B, (a), (b) used in the following embodiments are only used to distinguish one component from another component, and the terms The nature, sequence, or order of the relevant components are not limited.

또한, 이하의 실시예들에서, 어떤 구성요소가 다른 구성요소에 '연결', '결합' 또는 '접속'된다고 기재된 경우, 그 구성요소는 그 다른 구성요소에 직접적으로 연결되거나 또는 접속될 수 있지만, 각 구성요소 사이에 또 다른 구성요소가 '연결', '결합' 또는 '접속'될 수도 있다고 이해되어야 한다.Additionally, in the following embodiments, when a component is described as being 'connected', 'coupled' or 'connected' to another component, the component may be directly connected or connected to the other component. , it should be understood that another component may be 'connected', 'combined', or 'connected' between each component.

본 개시에서, '복수의 A 각각' 은 복수의 A에 포함된 모든 구성 요소의 각각을 지칭하거나, 복수의 A에 포함된 일부 구성 요소의 각각을 지칭할 수 있다.In the present disclosure, 'each of the plurality of A' may refer to each of all components included in the plurality of A, or may refer to each of some components included in the plurality of A.

또한, 이하의 실시예들에서 사용되는 '포함한다(comprises)' 및/또는 '포함하는(comprising)'은 언급된 구성요소, 단계, 동작 및/또는 소자는 하나 이상의 다른 구성요소, 단계, 동작 및/또는 소자의 존재 또는 추가를 배제하지 않는다.In addition, as used in the following embodiments, 'comprises' and/or 'comprising' means that the mentioned component, step, operation, and/or element includes one or more other components, steps, or operations. and/or the presence or addition of elements.

본 개시의 다양한 실시예들을 설명하기에 앞서, 사용되는 용어에 대하여 설명하기로 한다.Before describing various embodiments of the present disclosure, the terms used will be explained.

본 개시의 실시예들에서, '감정 상태'는 사용자의 감정과 연관된 상태 정보로서, 예를 들어 기쁨, 즐거움, 우울함, 행복, 화, 슬픔 등을 포함할 수 있다. 또한, 각각의 감정 상태는 서로 상이한 시각화 정보와 연관될 수 있다. 예컨대, 제1 감정 상태는 제1 시각화 정보와 연관되고, 제2 감정 상태는 제2 시각화 정보와 연관될 수 있다.In embodiments of the present disclosure, 'emotional state' is state information related to the user's emotions and may include, for example, joy, joy, depression, happiness, anger, sadness, etc. Additionally, each emotional state may be associated with different visualization information. For example, a first emotional state may be associated with first visualization information, and a second emotional state may be associated with second visualization information.

본 개시의 실시예들에서, '시각화 정보'는 그래픽 요소를 포함하여 화면에 표시되는 정보일 수 있다. 예컨대, 시각화 정보는 특정 색상을 가지는 그래픽 요소, 이모티콘 등과 같은 그래픽 객체, 애니메이션 형태로 출력되는 그래픽 객체 등을 포함할 수 있다. 시각화 정보는 대화방 내의 소정의 영역에 표시될 수 있다. 여기서, 소정의 영역은 시각화 정보가 표출되는 영역으로서, 픽셀 범위로 미리 설정될 수 있다. 예컨대, 소정의 영역은 프로필이 출력되는 영역과 연관될 수 있다. In embodiments of the present disclosure, 'visualization information' may be information displayed on the screen including graphic elements. For example, visualization information may include graphic elements with a specific color, graphic objects such as emoticons, graphic objects output in animation form, etc. Visualization information may be displayed in a predetermined area within the chat room. Here, the predetermined area is an area where visualization information is displayed and may be preset as a pixel range. For example, a predetermined area may be associated with an area where a profile is output.

본 개시의 실시예들에서, '멘션(mention) 메시지'는 같은 대화방에 속한 다른 사용자를 지목하는 대화 메시지일 수 있다. 예를 들어, 멘션 메시지는 태그(예를 들어, @)와 인스턴트 메시징 애플리케이션에 가입된 사용자의 이름을 결합하여 해당 사용자를 지목하는 대화 메시지일 수 있다.In embodiments of the present disclosure, a 'mention message' may be a conversation message that points to another user belonging to the same chat room. For example, a mention message may be a conversation message that points to a user registered in an instant messaging application by combining a tag (eg, @) with the user's name.

본 개시의 실시예들에서, '응답 메시지'는 특정 대화 메시지에 대한 응답 메시지일 수 있다. 예를 들어, 대화방에 제1 대화 메시지가 포함된 상태에서, 제1 대화 메시지에 대한 응답으로 제2 대화 메시지가 대화방에 입력되는 경우, 제2 대화 메시지가 제1 대화 메시지에 대한 응답 메시지로 작용할 수 있다. In embodiments of the present disclosure, a 'response message' may be a response message to a specific conversation message. For example, when a first conversation message is included in a chat room and a second conversation message is entered into the chat room in response to the first conversation message, the second conversation message may act as a response message to the first conversation message. You can.

본 개시의 실시예들에서, '개인 대화방'은 2명의 사용자들이 참여한 1:1 대화방일 수 있다. In embodiments of the present disclosure, the 'private chat room' may be a 1:1 chat room in which two users participate.

본 개시의 실시예들에서, '단체 대화방'은 3명 이상의 사용자들이 참여한 대화방일 수 있다. In embodiments of the present disclosure, a 'group chat room' may be a chat room in which three or more users participate.

이하, 본 개시의 다양한 실시예들에 대하여 첨부된 도면에 따라 상세하게 설명한다.Hereinafter, various embodiments of the present disclosure will be described in detail with reference to the attached drawings.

도 1은 본 개시의 일 실시예에 따른, 감정 상태가 표시된 단체 대화방 화면(120)에 대한 예시를 나타내는 도면이다. 일 실시예에 따르면, 사용자 단말(110)은 인스턴트 메시징 애플리케이션을 통해서 대화 메시지를 주고받는 도중에서, 사용자(James)에 대한 대화 상대방들(Brown, Sally 및 Cony)의 감정 상태와 연관된 시각화 정보(132, 142, 152)를 대화방에 표시할 수 있다. FIG. 1 is a diagram illustrating an example of a group chat room screen 120 on which an emotional state is displayed, according to an embodiment of the present disclosure. According to one embodiment, while exchanging conversation messages through an instant messaging application, the user terminal 110 displays visualization information 132 associated with the emotional states of the conversation partners (Brown, Sally, and Cony) about the user (James). , 142, 152) can be displayed in the chat room.

각각의 대화 상대방들의 감정 상태는 단체 대화방 A에 포함된 대화 메시지(130, 140, 150)에 기초하여 결정될 수 있다. 도 1의 단체 대화방 화면(120)에 예시된 바와 같이, 대화 상대방(Brown, Sally 및 Cony)별 대화 메시지(130, 140, 150)에 기초하여, 사용자(James)에 대한 각 대화 상대방(Brown, Sally 및 Cony)의 감정 상태가 결정될 수 있다. 예컨대, Brown 사용자의 대화 메시지(130)에 포함된 '기분 좋은'이라는 키워드에 기초하여, Brown 사용자의 감정 상태가 '즐거움'으로 결정되고, '즐거움'과 연관된 제1 시각화 정보(132)가 대화방에 표시될 수 있다. 다른 예로서, Sally 사용자의 대화 메시지(140)에 포함된 '행복해'이라는 키워드에 기초하여, Sally 사용자의 감정 상태가 '행복'으로 결정되고, '행복'과 연관된 제2 시각화 정보(142)가 대화방에 표시될 수 있다. 또 다른 예로서, Cony 사용자의 대화 메시지(150)에 포함된 '우울해'이라는 키워드에 기초하여, Cony 사용자의 감정 상태가 '우울'로 결정되고, '우울'과 연관된 제3 시각화 정보(152)가 대화방에 표시될 수 있다. 여기서, '@James'는 Cony 사용자가 작성한 대화 메시지(150)가 James 사용자를 지목한 멘션 메시지인 것을 나타낼 수 있다. The emotional state of each conversation partner can be determined based on the conversation messages 130, 140, and 150 included in group chat room A. As illustrated in the group chat room screen 120 of FIG. 1, based on the conversation messages 130, 140, and 150 for each conversation partner (Brown, Sally, and Cony), each conversation partner (Brown, Sally and Cony's emotional states can be determined. For example, based on the keyword 'feel good' included in the conversation message 130 of user Brown, the emotional state of user Brown is determined to be 'pleasure', and the first visualization information 132 associated with 'pleasure' is displayed in the chat room. It can be displayed in . As another example, based on the keyword 'happy' included in the Sally user's conversation message 140, the emotional state of the Sally user is determined to be 'happy', and the second visualization information 142 associated with 'happiness' is displayed. It can be displayed in chat rooms. As another example, based on the keyword 'depressed' included in the conversation message 150 of the Cony user, the emotional state of the Cony user is determined to be 'depressed', and third visualization information 152 associated with 'depression' may be displayed in the chat room. Here, '@James' may indicate that the conversation message 150 written by user Cony is a mention message that points to user James.

각각의 시각화 정보(132, 142, 152)는 해당 사용자의 프로필과 연관되어 표시될 수 있다. 예를 들어, 각각의 시각화 정보(132, 142, 152)는 해당 사용자의 프로필 사진 썸네일 우측 하단부에 표시될 수 있다. 대안적으로, 각각의 시각화 정보(132, 142, 152)는 프로필 이외의 다른 영역에 표시될 수 있다. Each visualization information 132, 142, and 152 may be displayed in association with the corresponding user's profile. For example, each visualization information 132, 142, and 152 may be displayed in the lower right corner of the profile photo thumbnail of the corresponding user. Alternatively, each visualization information 132, 142, 152 may be displayed in an area other than the profile.

추가적으로 또는 대안적으로, 대화 상대방들의 각각의 감정 상태는 개인 대화방에 포함된 대화 메시지에 기초하여 결정될 수 있다. 여기서, 개인 대화방은 사용자와 한 명의 대화 상대방이 참여한 대화방일 수 있다. 일 실시예에 따르면, 특정 대화 상대방이 개인 대화방과 단체 대화방 모두에 참여한 경우, 사용자 단말(110)은 개인 대화방에 포함된 대화 메시지 및 단체 대화방에 포함된 대화 메시지에 기초하여, 사용자에 대한 특정 대화 상대방의 감정 상태를 결정할 수 있다. 또한, 사용자 단말(110)은 개인 대화방에 포함된 대화 메시지 및 단체 대화방에 포함된 대화 메시지에 기초하여, 특정 대화 상대방에 대한 사용자의 감정 상태를 결정할 수 있다. Additionally or alternatively, the emotional state of each of the conversation partners may be determined based on conversation messages included in the personal chat room. Here, the personal chat room may be a chat room in which the user and one conversation partner participate. According to one embodiment, when a specific conversation partner participates in both a personal chat room and a group chat room, the user terminal 110 creates a specific conversation for the user based on the conversation message included in the personal chat room and the conversation message included in the group chat room. You can determine the emotional state of the other person. Additionally, the user terminal 110 may determine the user's emotional state toward a specific conversation partner based on the conversation message included in the personal chat room and the conversation message included in the group chat room.

이러한 구성에 의해, 사용자의 별도 조작없이 대화 상대방의 감정 상태가 결정되고, 감정 상태와 관련된 시각화 정보가 대화방에 표시될 수 있다. 이에 따라, 사용자는 직관적으로 대화 상대방의 사용자에 대한 감정 상태를 파악할 수 있다. With this configuration, the emotional state of the conversation partner can be determined without separate manipulation by the user, and visualization information related to the emotional state can be displayed in the chat room. Accordingly, the user can intuitively determine the emotional state of the conversation partner toward the user.

도 2는 본 개시의 일 실시예에 따른 정보 처리 시스템(230)이 복수의 사용자 단말(210_1, 210_2, 210_3)과 통신 가능하도록 연결된 구성을 나타내는 개요도이다. 도시된 바와 같이, 복수의 사용자 단말(210_1, 210_2, 210_3)은 네트워크(220)를 통해 인스턴트 메시징 서비스를 제공할 수 있는 정보 처리 시스템(230)과 연결될 수 있다. 여기서, 복수의 사용자 단말(210_1, 210_2, 210_3)은 인스턴트 메시징 서비스를 제공받는 사용자의 단말을 포함할 수 있다. Figure 2 is a schematic diagram showing a configuration in which the information processing system 230 according to an embodiment of the present disclosure is connected to communicate with a plurality of user terminals 210_1, 210_2, and 210_3. As shown, a plurality of user terminals 210_1, 210_2, and 210_3 may be connected to an information processing system 230 that can provide an instant messaging service through a network 220. Here, the plurality of user terminals 210_1, 210_2, and 210_3 may include terminals of users receiving an instant messaging service.

일 실시예에서, 정보 처리 시스템(230)은 인스턴트 메시징 서비스 제공 등과 연관된 컴퓨터 실행 가능한 프로그램(예를 들어, 다운로드 가능한 애플리케이션) 및 데이터를 저장, 제공 및 실행할 수 있는 하나 이상의 서버 장치 및/또는 데이터베이스, 또는 클라우드 컴퓨팅 서비스 기반의 하나 이상의 분산 컴퓨팅 장치 및/또는 분산 데이터베이스를 포함할 수 있다.In one embodiment, information processing system 230 may include one or more server devices and/or databases capable of storing, providing, and executing computer-executable programs (e.g., downloadable applications) and data associated with providing instant messaging services, etc. Alternatively, it may include one or more distributed computing devices and/or distributed databases based on cloud computing services.

정보 처리 시스템(230)에 의해 제공되는 인스턴트 메시징 서비스는 복수의 사용자 단말(210_1, 210_2, 210_3) 각각에 설치된 인스턴트 메시징 애플리케이션 등을 통해 사용자에게 제공될 수 있다. 예를 들어, 정보 처리 시스템(230)은 인스턴트 메시징 애플리케이션 등을 통해 사용자 단말(210_1, 210_2, 210_3)로부터 수신되는 지정된 목적(즉, 대화 상대방의 단말)로 전송할 수 있다. 또한, 정보 처리 시스템(230)은 사용자와 대화 상대방별 감정 상태를 포함하는 감정 관계 정보(도 8 참조)를 저장하고 관리할 수 있다. The instant messaging service provided by the information processing system 230 may be provided to users through an instant messaging application installed on each of a plurality of user terminals 210_1, 210_2, and 210_3. For example, the information processing system 230 may transmit information received from the user terminals 210_1, 210_2, and 210_3 to a designated purpose (i.e., the conversation partner's terminal) through an instant messaging application or the like. Additionally, the information processing system 230 may store and manage emotional relationship information (see FIG. 8) including emotional states for each user and conversation partner.

복수의 사용자 단말(210_1, 210_2, 210_3)은 네트워크(220)를 통해 정보 처리 시스템(230)과 통신할 수 있다. 네트워크(220)는 복수의 사용자 단말(210_1, 210_2, 210_3)과 정보 처리 시스템(230) 사이의 통신이 가능하도록 구성될 수 있다. 네트워크(220)는 설치 환경에 따라, 예를 들어, 이더넷(Ethernet), 유선 홈 네트워크(Power Line Communication), 전화선 통신 장치 및 RS-serial 통신 등의 유선 네트워크, 이동통신망, WLAN(Wireless LAN), Wi-Fi, Bluetooth 및 ZigBee 등과 같은 무선 네트워크 또는 그 조합으로 구성될 수 있다. 통신 방식은 제한되지 않으며, 네트워크(220)가 포함할 수 있는 통신망(일례로, 이동통신망, 유선 인터넷, 무선 인터넷, 방송망, 위성망 등)을 활용하는 통신 방식뿐만 아니라 사용자 단말(210_1, 210_2, 210_3) 사이의 근거리 무선 통신 역시 포함될 수 있다.A plurality of user terminals 210_1, 210_2, and 210_3 may communicate with the information processing system 230 through the network 220. The network 220 may be configured to enable communication between a plurality of user terminals 210_1, 210_2, and 210_3 and the information processing system 230. Depending on the installation environment, the network 220 may be, for example, a wired network such as Ethernet, a wired home network (Power Line Communication), a telephone line communication device, and RS-serial communication, a mobile communication network, a wireless LAN (WLAN), It may consist of wireless networks such as Wi-Fi, Bluetooth, and ZigBee, or a combination thereof. The communication method is not limited, and may include communication methods utilizing communication networks that the network 220 may include (e.g., mobile communication networks, wired Internet, wireless Internet, broadcasting networks, satellite networks, etc.) as well as user terminals (210_1, 210_2, 210_3). ) may also include short-range wireless communication between

도 2에서 휴대폰 단말(210_1), 태블릿 단말(210_2) 및 PC 단말 (210_3)이 사용자 단말의 예로서 도시되었으나, 이에 한정되지 않으며, 사용자 단말(210_1, 210_2, 210_3)은 유선 및/또는 무선 통신이 가능하고 인스턴트 메시징 애플리케이션 또는 웹 브라우저 등이 설치되어 실행될 수 있는 임의의 컴퓨팅 장치일 수 있다. 예를 들어, 사용자 단말은, AI 스피커, 스마트폰, 휴대폰, 내비게이션, 컴퓨터, 노트북, 디지털방송용 단말, PDA(Personal Digital Assistants), PMP(Portable Multimedia Player), 태블릿 PC, 게임 콘솔(game console), 웨어러블 디바이스(wearable device), IoT(internet of things) 디바이스, VR(virtual reality) 디바이스, AR(augmented reality) 디바이스, 셋톱 박스 등을 포함할 수 있다. 또한, 도 2에는 3개의 사용자 단말(210_1, 210_2, 210_3)이 네트워크(220)를 통해 정보 처리 시스템(230)과 통신하는 것으로 도시되어 있으나, 이에 한정되지 않으며, 상이한 수의 사용자 단말이 네트워크(220)를 통해 정보 처리 시스템(230)과 통신하도록 구성될 수도 있다.In Figure 2, the mobile phone terminal (210_1), tablet terminal (210_2), and PC terminal (210_3) are shown as examples of user terminals, but they are not limited thereto, and the user terminals (210_1, 210_2, 210_3) use wired and/or wireless communication. This can be any computing device capable of installing and executing an instant messaging application or a web browser. For example, user terminals include AI speakers, smartphones, mobile phones, navigation, computers, laptops, digital broadcasting terminals, PDAs (Personal Digital Assistants), PMPs (Portable Multimedia Players), tablet PCs, game consoles, It may include wearable devices, IoT (internet of things) devices, VR (virtual reality) devices, AR (augmented reality) devices, set-top boxes, etc. In addition, in Figure 2, three user terminals (210_1, 210_2, 210_3) are shown as communicating with the information processing system 230 through the network 220, but this is not limited to this, and a different number of user terminals are connected to the network ( It may be configured to communicate with the information processing system 230 through 220).

일 실시예에서, 정보 처리 시스템(230)은 대화 상대방별 감정 상태를 포함하는 감정 관계 정보를 저장하고 관리할 수 있다. 정보 처리 시스템(230)은 사용자 단말(210_1, 210_2, 210_3)로부터 해당 사용자의 감정 관계 정보를 수신할 수 있다. 여기서, 감정 관계 정보에는 다양한 사용자들 사이의 양방향 감정 상태가 포함될 수 있다. 양방향 감정 상태는, 사용자가 대화 상대방에 느끼는 제1 방향의 감정 상태와 대화 상대방이 사용자에게 느끼는 제2 방향의 감정 상태를 포함할 수 있다. In one embodiment, the information processing system 230 may store and manage emotional relationship information including the emotional state of each conversation partner. The information processing system 230 may receive the user's emotional relationship information from the user terminals 210_1, 210_2, and 210_3. Here, the emotional relationship information may include bidirectional emotional states between various users. The two-way emotional state may include a first-direction emotional state that the user feels toward the conversation partner and a second-direction emotional state that the conversation partner feels toward the user.

정보 처리 시스템(230)은 특정 사용자와 복수의 대화 상대방 간의 감정 상태를 기초하여, 각각의 사용자들 간의 양방향 감정 상태가 포함된 감정 상태 정보를 생성하거나 갱신할 수 있다. 정보 처리 시스템(230)은 감정 상태 정보를 사용자 단말(210_1, 210_2, 210_3)로 제공할 수 있다. The information processing system 230 may generate or update emotional state information including bidirectional emotional states between each user based on the emotional states between a specific user and a plurality of conversation partners. The information processing system 230 may provide emotional state information to the user terminals 210_1, 210_2, and 210_3.

도 3은 본 개시의 일 실시예에 따른 사용자 단말(210) 및 정보 처리 시스템(230)의 내부 구성을 나타내는 블록도이다. 사용자 단말(210)은 인스턴트 메시징 애플리케이션 등을 실행 가능하고 유/무선 통신이 가능한 임의의 컴퓨팅 장치를 지칭할 수 있으며, 예를 들어, 도 2의 휴대폰 단말(210_1), 태블릿 단말(210_2), PC 단말(210_3) 등을 포함할 수 있다. 도시된 바와 같이, 사용자 단말(210)은 메모리(312), 프로세서(314), 통신 모듈(316) 및 입출력 인터페이스(318)를 포함할 수 있다. 이와 유사하게, 정보 처리 시스템(230)은 메모리(332), 프로세서(334), 통신 모듈(336) 및 입출력 인터페이스(338)를 포함할 수 있다. 도 3에 도시된 바와 같이, 사용자 단말(210) 및 정보 처리 시스템(230)은 각각의 통신 모듈(316, 336)을 이용하여 네트워크(220)를 통해 정보 및/또는 데이터를 통신할 수 있도록 구성될 수 있다. 또한, 입출력 장치(320)는 입출력 인터페이스(318)를 통해 사용자 단말(210)에 정보 및/또는 데이터를 입력하거나 사용자 단말(210)로부터 생성된 정보 및/또는 데이터를 출력하도록 구성될 수 있다.Figure 3 is a block diagram showing the internal configuration of the user terminal 210 and the information processing system 230 according to an embodiment of the present disclosure. The user terminal 210 may refer to any computing device capable of executing an instant messaging application, etc. and capable of wired/wireless communication, for example, the mobile phone terminal 210_1, tablet terminal 210_2, and PC in FIG. 2. It may include a terminal 210_3, etc. As shown, the user terminal 210 may include a memory 312, a processor 314, a communication module 316, and an input/output interface 318. Similarly, information processing system 230 may include memory 332, processor 334, communication module 336, and input/output interface 338. As shown in FIG. 3, the user terminal 210 and the information processing system 230 are configured to communicate information and/or data through the network 220 using respective communication modules 316 and 336. It can be. Additionally, the input/output device 320 may be configured to input information and/or data to the user terminal 210 through the input/output interface 318 or to output information and/or data generated from the user terminal 210.

메모리(312, 332)는 비-일시적인 임의의 컴퓨터 판독 가능한 기록매체를 포함할 수 있다. 일 실시예에 따르면, 메모리(312, 332)는 ROM(read only memory), 디스크 드라이브, SSD(solid state drive), 플래시 메모리(flash memory) 등과 같은 비소멸성 대용량 저장 장치(permanent mass storage device)를 포함할 수 있다. 다른 예로서, ROM, SSD, 플래시 메모리, 디스크 드라이브 등과 같은 비소멸성 대용량 저장 장치는 메모리와는 구분되는 별도의 영구 저장 장치로서 사용자 단말(210) 또는 정보 처리 시스템(230)에 포함될 수 있다. 또한, 메모리(312, 332)에는 운영체제와 적어도 하나의 프로그램 코드(예를 들어, 사용자 단말(210)에 설치되어 구동되는 인스턴트 메시징 애플리케이션 등을 위한 코드)가 저장될 수 있다.Memories 312 and 332 may include any non-transitory computer-readable recording medium. According to one embodiment, the memories 312 and 332 are non-permanent mass storage devices such as read only memory (ROM), disk drive, solid state drive (SSD), flash memory, etc. It can be included. As another example, non-perishable mass storage devices such as ROM, SSD, flash memory, disk drive, etc. may be included in the user terminal 210 or the information processing system 230 as a separate persistent storage device that is distinct from memory. Additionally, the memories 312 and 332 may store an operating system and at least one program code (for example, code for an instant messaging application installed and running on the user terminal 210).

이러한 소프트웨어 구성요소들은 메모리(312, 332)와는 별도의 컴퓨터에서 판독가능한 기록매체로부터 로딩될 수 있다. 이러한 별도의 컴퓨터에서 판독가능한 기록매체는 이러한 사용자 단말(210) 및 정보 처리 시스템(230)에 직접 연결가능한 기록 매체를 포함할 수 있는데, 예를 들어, 플로피 드라이브, 디스크, 테이프, DVD/CD-ROM 드라이브, 메모리 카드 등의 컴퓨터에서 판독 가능한 기록매체를 포함할 수 있다. 다른 예로서, 소프트웨어 구성요소들은 컴퓨터에서 판독 가능한 기록매체가 아닌 통신 모듈을 통해 메모리(312, 332)에 로딩될 수도 있다. 예를 들어, 적어도 하나의 프로그램은 개발자들 또는 애플리케이션의 설치 파일을 배포하는 파일 배포 시스템이 네트워크(220)를 통해 제공하는 파일들에 의해 설치되는 컴퓨터 프로그램에 기반하여 메모리(312, 332)에 로딩될 수 있다.These software components may be loaded from a computer-readable recording medium separate from the memories 312 and 332. This separate computer-readable recording medium may include a recording medium directly connectable to the user terminal 210 and the information processing system 230, for example, a floppy drive, disk, tape, DVD/CD- It may include computer-readable recording media such as ROM drives and memory cards. As another example, software components may be loaded into the memories 312 and 332 through a communication module rather than a computer-readable recording medium. For example, at least one program is loaded into memory 312, 332 based on a computer program installed by files provided over the network 220 by developers or a file distribution system that distributes installation files for applications. It can be.

프로세서(314, 334)는 기본적인 산술, 로직 및 입출력 연산을 수행함으로써, 컴퓨터 프로그램의 명령을 처리하도록 구성될 수 있다. 명령은 메모리(312, 332) 또는 통신 모듈(316, 336)에 의해 프로세서(314, 334)로 제공될 수 있다. 예를 들어, 프로세서(314, 334)는 메모리(312, 332)와 같은 기록 장치에 저장된 프로그램 코드에 따라 수신되는 명령을 실행하도록 구성될 수 있다.The processors 314 and 334 may be configured to process instructions of a computer program by performing basic arithmetic, logic, and input/output operations. Instructions may be provided to the processors 314 and 334 by memories 312 and 332 or communication modules 316 and 336. For example, the processors 314 and 334 may be configured to execute instructions received according to program codes stored in a recording device such as the memory 312 and 332.

통신 모듈(316, 336)은 네트워크(220)를 통해 사용자 단말(210)과 정보 처리 시스템(230)이 서로 통신하기 위한 구성 또는 기능을 제공할 수 있으며, 사용자 단말(210) 및/또는 정보 처리 시스템(230)이 다른 사용자 단말 또는 다른 시스템(일례로 별도의 클라우드 시스템 등)과 통신하기 위한 구성 또는 기능을 제공할 수 있다. 일례로, 사용자 단말(210)의 프로세서(314)가 메모리(312) 등과 같은 기록 장치에 저장된 프로그램 코드에 따라 생성한 요청 또는 데이터(예를 들어, 감정 관계 정보, 대화 메시지 등)는 통신 모듈(316)의 제어에 따라 네트워크(220)를 통해 정보 처리 시스템(230)으로 전달될 수 있다. 역으로, 정보 처리 시스템(230)의 프로세서(334)의 제어에 따라 제공되는 제어 신호나 명령이 통신 모듈(336)과 네트워크(220)를 거쳐 사용자 단말(210)의 통신 모듈(316)을 통해 사용자 단말(210)에 수신될 수 있다. 예를 들어, 사용자 단말(210)은 정보 처리 시스템(230)으로부터 대화 메시지, 감정 관계 정보 등을 수신할 수 있다. The communication modules 316 and 336 may provide a configuration or function for the user terminal 210 and the information processing system 230 to communicate with each other through the network 220, and may provide a configuration or function for the user terminal 210 and/or information processing. The system 230 may provide a configuration or function for communicating with other user terminals or other systems (for example, a separate cloud system, etc.). For example, a request or data (e.g., emotional relationship information, conversation message, etc.) generated by the processor 314 of the user terminal 210 according to a program code stored in a recording device such as the memory 312 is transmitted to the communication module ( It may be transmitted to the information processing system 230 through the network 220 under the control of 316). Conversely, a control signal or command provided under the control of the processor 334 of the information processing system 230 is transmitted through the communication module 316 of the user terminal 210 through the communication module 336 and the network 220. It may be received by the user terminal 210. For example, the user terminal 210 may receive conversation messages, emotional relationship information, etc. from the information processing system 230.

입출력 인터페이스(318)는 입출력 장치(320)와의 인터페이스를 위한 수단일 수 있다. 일 예로서, 입력 장치는 오디오 센서 및/또는 이미지 센서를 포함한 카메라, 키보드, 마이크로폰, 마우스 등의 장치를, 그리고 출력 장치는 디스플레이, 스피커, 햅틱 피드백 디바이스(haptic feedback device) 등과 같은 장치를 포함할 수 있다. 다른 예로, 입출력 인터페이스(318)는 터치스크린 등과 같이 입력과 출력을 수행하기 위한 구성 또는 기능이 하나로 통합된 장치와의 인터페이스를 위한 수단일 수 있다. 예를 들어, 사용자 단말(210)의 프로세서(314)가 메모리(312)에 로딩된 컴퓨터 프로그램의 명령을 처리함에 있어서 정보 처리 시스템(230)이나 다른 사용자 단말이 제공하는 정보 및/또는 데이터를 이용하여 구성되는 서비스 화면 등이 입출력 인터페이스(318)를 통해 디스플레이에 표시될 수 있다. 도 3에서는 입출력 장치(320)가 사용자 단말(210)에 포함되지 않도록 도시되어 있으나, 이에 한정되지 않으며, 사용자 단말(210)과 하나의 장치로 구성될 수 있다. 또한, 정보 처리 시스템(230)의 입출력 인터페이스(338)는 정보 처리 시스템(230)과 연결되거나 정보 처리 시스템(230)이 포함할 수 있는 입력 또는 출력을 위한 장치(미도시)와의 인터페이스를 위한 수단일 수 있다. 도 3에서는 입출력 인터페이스(318, 338)가 프로세서(314, 334)와 별도로 구성된 요소로서 도시되었으나, 이에 한정되지 않으며, 입출력 인터페이스(318, 338)가 프로세서(314, 334)에 포함되도록 구성될 수 있다.The input/output interface 318 may be a means for interfacing with the input/output device 320. As an example, input devices may include devices such as cameras, keyboards, microphones, mice, etc., including audio sensors and/or image sensors, and output devices may include devices such as displays, speakers, haptic feedback devices, etc. You can. As another example, the input/output interface 318 may be a means for interfacing with a device that has components or functions for performing input and output, such as a touch screen, integrated into one. For example, the processor 314 of the user terminal 210 uses information and/or data provided by the information processing system 230 or another user terminal when processing instructions of a computer program loaded in the memory 312. A service screen, etc. constructed by doing so may be displayed on the display through the input/output interface 318. In FIG. 3 , the input/output device 320 is shown not to be included in the user terminal 210, but the present invention is not limited to this and may be configured as a single device with the user terminal 210. Additionally, the input/output interface 338 of the information processing system 230 may be connected to the information processing system 230 or means for interfacing with a device (not shown) for input or output that the information processing system 230 may include. It can be. In FIG. 3, the input/output interfaces 318 and 338 are shown as elements configured separately from the processors 314 and 334, but the present invention is not limited thereto, and the input/output interfaces 318 and 338 may be configured to be included in the processors 314 and 334. there is.

사용자 단말(210) 및 정보 처리 시스템(230)은 도 3의 구성요소들보다 더 많은 구성요소들을 포함할 수 있다. 그러나, 대부분의 종래기술적 구성요소들을 명확하게 도시할 필요성은 없다. 일 실시예에 따르면, 사용자 단말(210)은 상술된 입출력 장치(320) 중 적어도 일부를 포함하도록 구현될 수 있다. 또한, 사용자 단말(210)은 트랜시버(transceiver), GPS(Global Positioning system) 모듈, 카메라, 각종 센서, 데이터베이스 등과 같은 다른 구성요소들을 더 포함할 수 있다. 예를 들어, 사용자 단말(210)이 스마트폰인 경우, 일반적으로 스마트폰이 포함하고 있는 구성요소를 포함할 수 있으며, 예를 들어, 가속도 센서, 자이로 센서, 이미지 센서, 근접 센서, 터치 센서, 조도 센서, 카메라 모듈, 각종 물리적인 버튼, 터치패널을 이용한 버튼, 입출력 포트, 진동을 위한 진동기 등의 다양한 구성요소들이 사용자 단말(210)에 더 포함되도록 구현될 수 있다.The user terminal 210 and information processing system 230 may include more components than those in FIG. 3 . However, there is no need to clearly show most prior art components. According to one embodiment, the user terminal 210 may be implemented to include at least some of the input/output devices 320 described above. Additionally, the user terminal 210 may further include other components such as a transceiver, a global positioning system (GPS) module, a camera, various sensors, and a database. For example, if the user terminal 210 is a smartphone, it may include components generally included in a smartphone, such as an acceleration sensor, a gyro sensor, an image sensor, a proximity sensor, a touch sensor, Various components such as an illuminance sensor, a camera module, various physical buttons, buttons using a touch panel, input/output ports, and a vibrator for vibration may be implemented to be further included in the user terminal 210.

대화 상대방의 감정 상태를 표시하는 기능을 제공하는 인스턴트 메시징 애플리케이션 등을 위한 프로그램이 동작되는 동안에, 프로세서(314)는 입출력 인터페이스(318)와 연결된 터치 스크린, 키보드, 오디오 센서 및/또는 이미지 센서를 포함한 카메라, 마이크로폰 등의 입력 장치를 통해 입력되거나 선택된 텍스트, 이미지, 영상, 음성 및/또는 동작 등을 수신할 수 있으며, 수신된 텍스트, 이미지, 영상, 음성 및/또는 동작 등을 메모리(312)에 저장하거나 통신 모듈(316) 및 네트워크(220)를 통해 정보 처리 시스템(230)에 제공할 수 있다. 예를 들어, 프로세서(314)는 감정 상태를 포함하는 대화방이 출력되는 동안에, 대화 메시지를 전송을 요청하는 사용자의 입력을 수신하여, 통신 모듈(316) 및 네트워크(220)를 통해 정보 처리 시스템(230)에 제공할 수 있다.While a program for an instant messaging application or the like that provides the function of displaying the emotional state of a conversation partner is running, the processor 314 includes a touch screen, keyboard, audio sensor, and/or image sensor connected to the input/output interface 318. Text, images, videos, voices, and/or actions input or selected can be received through input devices such as cameras and microphones, and the received text, images, videos, voices, and/or actions, etc., can be stored in the memory 312. It can be stored or provided to the information processing system 230 through the communication module 316 and network 220. For example, the processor 314 receives an input from a user requesting to transmit a conversation message while a chat room containing an emotional state is output, and sends the information processing system ( 230).

사용자 단말(210)의 프로세서(314)는 입출력 장치(320), 다른 사용자 단말, 정보 처리 시스템(230) 및/또는 복수의 외부 시스템으로부터 수신된 정보 및/또는 데이터를 관리, 처리 및/또는 저장하도록 구성될 수 있다. 프로세서(314)에 의해 처리된 정보 및/또는 데이터는 통신 모듈(316) 및 네트워크(220)를 통해 정보 처리 시스템(230)에 제공될 수 있다. 사용자 단말(210)의 프로세서(314)는 입출력 인터페이스(318)를 통해 입출력 장치(320)로 정보 및/또는 데이터를 전송하여, 출력할 수 있다. 예를 들면, 프로세서(314)는 수신한 정보 및/또는 데이터를 사용자 단말(210)의 화면에 디스플레이할 수 있다.The processor 314 of the user terminal 210 manages, processes, and/or stores information and/or data received from the input/output device 320, other user terminals, the information processing system 230, and/or a plurality of external systems. It can be configured to do so. Information and/or data processed by processor 314 may be provided to information processing system 230 via communication module 316 and network 220. The processor 314 of the user terminal 210 may transmit information and/or data to the input/output device 320 through the input/output interface 318 and output the information. For example, the processor 314 may display the received information and/or data on the screen of the user terminal 210.

정보 처리 시스템(230)의 프로세서(334)는 복수의 사용자 단말(210) 및/또는 복수의 외부 시스템으로부터 수신된 정보 및/또는 데이터를 관리, 처리 및/또는 저장하도록 구성될 수 있다. 프로세서(334)에 의해 처리된 정보 및/또는 데이터는 통신 모듈(336) 및 네트워크(220)를 통해 사용자 단말(210)에 제공할 수 있다.The processor 334 of the information processing system 230 may be configured to manage, process, and/or store information and/or data received from a plurality of user terminals 210 and/or a plurality of external systems. Information and/or data processed by the processor 334 may be provided to the user terminal 210 through the communication module 336 and the network 220.

도 4는 본 개시의 일 실시예에 따른 사용자 단말의 프로세서(314)의 내부 구성을 나타내는 블록도이다. 도시된 바와 같이, 프로세서(314)는 메시지 추출부(410), 감정 분석부(420) 및 감정 상태 출력부(430)를 포함할 수 있다. Figure 4 is a block diagram showing the internal configuration of the processor 314 of the user terminal according to an embodiment of the present disclosure. As shown, the processor 314 may include a message extraction unit 410, an emotion analysis unit 420, and an emotional state output unit 430.

메시지 추출부(410)는 적어도 하나의 대화방에 포함된 대화 메시지를 추출할 수 있다. 일 실시예에 따르면, 메시지 추출부(410)는 개인 대화방 또는 단체 대화방 중 적어도 하나에 포함된 대화 상대방의 대화 메시지를 추출할 수 있다. 예를 들어, 메시지 추출부(410)는 제1 대화 상대방이 참여중인 개인 대화방 또는 제1 대화 상대방이 참여중인 단체 대화방 중 적어도 하나의 대화방에 포함된 사용자와 제1 대화 상대방 간의 대화 메시지를 추출할 수 있다. The message extractor 410 may extract conversation messages included in at least one chat room. According to one embodiment, the message extractor 410 may extract a conversation message of a conversation partner included in at least one of a personal chat room or a group chat room. For example, the message extraction unit 410 extracts a conversation message between a user included in at least one chat room among a personal chat room in which the first conversation partner is participating or a group chat room in which the first conversation partner is participating and the first conversation partner. You can.

일 실시예에 따르면, 메시지 추출부(410)는 미리 결정된 n 시간 전의 시각에서부터 현재 시각까지 발생한 대화 메시지를 추출할 수 있다. 이에 따라, 메시지 추출부(410)는 상황에 따라, 복수 개의 대화 메시지를 추출할 수 있다. 일부 실시예에 따르면, 메시지 추출부(410)는 최근의 입력된 m(여기서, m은 자연수) 개의 대화 메시지를 대화방에서 추출할 수 있다. 메시지 추출부(410)에서 추출된 대화 메시지는 사용자 또는 대화 상대방의 감정 상태를 결정하는데 이용될 수 있다. According to one embodiment, the message extractor 410 may extract conversation messages that occurred from a predetermined time n hours ago to the current time. Accordingly, the message extractor 410 can extract a plurality of conversation messages depending on the situation. According to some embodiments, the message extractor 410 may extract m (where m is a natural number) recently entered conversation messages from the chat room. The conversation message extracted by the message extractor 410 can be used to determine the emotional state of the user or the conversation partner.

감정 분석부(420)는 적어도 하나의 대화 메시지를 분석하여, 대화 상대방에 대한 사용자의 감정 상태 및/또는 사용자에 대한 대화 상대방의 감정 상태를 결정할 수 있다. 일 실시예에 따르면, 감정 분석부(420)는 감정을 분석하기 위하여, 감정 키워드가 기록된 감정 참조 테이블을 이용할 수 있다.The emotion analysis unit 420 may analyze at least one conversation message to determine the user's emotional state toward the conversation partner and/or the conversation partner's emotional state toward the user. According to one embodiment, the emotion analysis unit 420 may use an emotion reference table in which emotion keywords are recorded to analyze emotions.

아래의 [표 1]은 감정 참조 테이블의 예시를 나타내는 도면이다. [Table 1] below is a diagram showing an example of an emotion reference table.

  키워드keyword 이모티콘 ID Emoticon ID 즐거움joy keyword1, keyword2, keyword3, …keyword1, keyword2, keyword3, … emoticon1, emoticon2, emoticon3, …emoticon1, emoticon2, emoticon3, … 행복happiness keyword11, keyword12, keyword13, …keyword11, keyword12, keyword13, … emoticon11, emoticon12, emoticon13, …emoticon11, emoticon12, emoticon13, … 슬픔sadness keyword21, keyword22, keyword23, …keyword21, keyword22, keyword23, … emoticon21, emoticon22, emoticon23, …emoticon21, emoticon22, emoticon23, … fury keyword31, keyword32, keyword33, …keyword31, keyword32, keyword33, … emoticon31, emoticon32, emoticon33, …emoticon31, emoticon32, emoticon33, …

표 1에 예시된 바와 같이, 각각의 감정과 연관된 키워드가 감정 참조 테이블에 기록되고, 더불어 각각의 감정과 연관된 이모티콘의 식별정보가 감정 테이블에 기록될 수 있다. As illustrated in Table 1, keywords associated with each emotion may be recorded in the emotion reference table, and identification information of emoticons associated with each emotion may be recorded in the emotion table.

일 실시예에 따르면, 감정 분석부(420)는 대화 메시지에 포함된 텍스트와 감정 참조 테이블에 포함된 키워드를 비교하여, 대화 메시지에 포함된 감정별 키워드 횟수를 산출할 수 있다. 또한, 감정 분석부(420)는 대화 메시지에 포함된 이모티콘과 감정 참조 테이블에 포함된 이모티콘을 비교하여, 대화 메시지에 포함된 감정별 이모티콘 횟수를 산출할 수 있다. 감정 분석부(420)는 감정별 키워드 횟수와 이모티콘 횟수에 기초하여, 감정 상태를 결정할 수 있다. 감정 분석부(420)는 키워드 횟수와 이모티콘 횟수 각각에 서로 상이한 또는 동일한 가중치를 적용한 후, 가중치가 적용된 횟수를 합산한 후, 합산된 횟수들 중에서 가장 큰 횟수를 가지는 감정을 사용자 또는 대화 상대방의 감정 상태인 것으로 결정할 수 있다. 대안적으로, 감정 분석부(420)는 감정 참조 테이블을 사용하지 않고, 기계 학습 모델을 이용하여 대화 메시지에 기초한 감정 상태를 결정할 수 있다.According to one embodiment, the emotion analysis unit 420 may calculate the number of keywords for each emotion included in the conversation message by comparing text included in the conversation message with keywords included in the emotion reference table. Additionally, the emotion analysis unit 420 may calculate the number of emoticons for each emotion included in the conversation message by comparing the emoticon included in the conversation message with the emoticon included in the emotion reference table. The emotion analysis unit 420 may determine the emotional state based on the number of keywords and emoticons for each emotion. The emotion analysis unit 420 applies different or the same weights to each of the keyword count and the emoticon count, adds up the weighted counts, and selects the emotion with the largest number among the summed counts as the emotion of the user or the conversation partner. It can be determined that it is in a state. Alternatively, the emotion analysis unit 420 may determine the emotional state based on the conversation message using a machine learning model without using an emotion reference table.

일 실시예에 따르면, 감정 분석부(420)는 사용자와 대화 상대방이 참여한 개인 대화방/단체 대화방에서 추출한 대화 메시지들 중에서, 사용자에 의해 작성된 적어도 하나의 대화 메시지를 제1 대화 메시지 그룹으로 설정하고, 대화 상대방에 의해 작성된 적어도 하나의 대화 메시지를 제2 대화 메시지 그룹으로 설정할 수 있다. 이 경우, 감정 분석부(420)는 제1 대화 메시지 그룹에 포함된 텍스트/이모티콘과 감정 참조 테이블에 포함된 키워드/이모티콘을 비교하여, 제1 그룹에 대한 감정별 키워드/이모티콘 횟수를 산출한 후, 산출된 키워드/이모티콘 횟수에 기초하여 대화 상대방에 대한 사용자의 감정 상태를 결정할 수 있다. 또한, 감정 분석부(420)는 제2 대화 메시지 그룹에 포함된 텍스트/이모티콘과 감정 참조 테이블에 포함된 키워드/이모티콘을 비교하여, 제2 그룹에 대한 감정별 키워드/이모티콘 횟수를 산출한 후, 산출된 키워드/이모티콘 추출 횟수에 기초하여 사용자에 대한 대화 상대방의 감정 상태를 결정할 수 있다.According to one embodiment, the emotion analysis unit 420 sets at least one conversation message written by the user as a first conversation message group among conversation messages extracted from a personal chat room/group chat room in which the user and the conversation partner participate, At least one conversation message written by the conversation partner can be set as the second conversation message group. In this case, the emotion analysis unit 420 compares the text/emoticon included in the first conversation message group with the keyword/emoticon included in the emotion reference table to calculate the number of keywords/emoticons for each emotion for the first group. , the user's emotional state toward the conversation partner can be determined based on the calculated number of keywords/emoticons. In addition, the emotion analysis unit 420 compares the text/emoticon included in the second conversation message group with the keyword/emoticon included in the emotion reference table to calculate the number of keywords/emoticons for each emotion for the second group, Based on the calculated number of keyword/emoticon extractions, the emotional state of the conversation partner toward the user can be determined.

한편, 대화 상대방이 단체 대화방에 참여하고 있고, 개인 대화방에도 참여하고 있을 수 있다. 이 경우, 메시지 추출부(410)는 단체 대화방에서 대화 상대방 및 사용자 간에 수행된 제1 세트의 대화 메시지를 추출할 수 있다. 또한, 하고, 메시지 추출부(410)는 개인 대화방에 포함된 대화 상대방과 사용자 간에 수행된 제2 세트의 대화 메시지를 추출할 수 있다. Meanwhile, the conversation partner may be participating in a group chat room or a personal chat room. In this case, the message extractor 410 may extract the first set of conversation messages performed between the conversation partner and the user in the group chat room. Additionally, the message extractor 410 may extract a second set of conversation messages performed between the user and the conversation partner included in the personal chat room.

일 실시예에 따르면, 메시지 추출부(410)는 단체 대화방에 포함된 대화 메시지들 중에서, 사용자가 작성한 대화 메시지 및 대화 상대방이 작성한 대화 메시지들을 추출할 수 있다. 아울러, 메시지 추출부(410)는 추출된 대화 메시지들 중에서, 사용자와 대화 상대방 간에 수행되는 대화 메시지를 제1 세트의 대화 메시지로서 추출할 수 있다. 이때, 메시지 추출부(410)는 추출된 대화 메시지들 중에서 사용자 또는 대화 상대방의 이름이 기록된 메시지, 사용자/대화 상대방에 대한 멘션 메시지 및 사용자/대화 상대방에 대한 응답 메시지를 제1 세트의 대화 메시지로서 추출할 수 있다. According to one embodiment, the message extractor 410 may extract conversation messages written by a user and conversation messages written by a conversation partner from among conversation messages included in a group chat room. In addition, the message extractor 410 may extract conversation messages performed between the user and the conversation partner as the first set of conversation messages from among the extracted conversation messages. At this time, the message extraction unit 410 selects a message in which the name of the user or the conversation partner is recorded, a mention message for the user/the conversation partner, and a response message for the user/the conversation partner among the extracted conversation messages as the first set of conversation messages. It can be extracted as.

일 실시예에서, 감정 분석부(420)는 단체 대화방으로부터 추출된 제1 세트의 대화 메시지에 기초하여, 상대방에 대한 사용자의 감정 상태 및/또는 사용자에 대한 대화 상대방의 감정 상태를 결정할 수 있다. 또한, 감정 분석부(420)는 개인 대화방으로부터 추출된 제2 세트의 대화 메시지에 기초하여, 상대방에 대한 사용자의 감정 상태 및/또는 사용자에 대한 대화 상대방의 감정 상태를 결정할 수 있다.In one embodiment, the emotion analysis unit 420 may determine the user's emotional state toward the other party and/or the emotional state of the conversation partner toward the user, based on the first set of conversation messages extracted from the group chat room. Additionally, the emotion analysis unit 420 may determine the user's emotional state toward the other party and/or the emotional state of the conversation partner toward the user, based on the second set of conversation messages extracted from the personal chat room.

일 실시예에서, 감정 분석부(420)는 제1 세트의 대화 메시지를 기초한 결정된 제1 감정 상태와 제2 세트의 대화 메시지를 기초로 결정된 제2 감정 상태가 일치하지는 여부를 판정할 수 있고, 두 감정 상태가 일치하는 경우 일치된 감정 상태를 사용자 및/또는 대화 상대방의 감정 상태로 결정할 수 있다. 반면에, 제1 감정 상태와 제2 감정 상태가 일치하지 않은 경우, 감정 분석부(420)는 우선 순위가 높은 감정 상태를 사용자 또는 대화 상대방의 감정 상태로 결정할 수 있다. 개인 대화방의 감정 상태 또는 단체 대화방의 감정 상태 중에서 어느 것을 우선순위로 할지는 사용자에 의해서 설정될 수 있다. 대안적으로, 감정 분석부(420) 제1 감정 상태에 제1 가중치를 적용하고, 제2 감정 상태에 제2 가중치를 적용하여 최종 감정 상태를 결정할 수 있다. 여기서, 제2 가중치가 제1 가중치보다 커서, 개인 대화방에서의 감정에 더 높은 가중치가 적용될 수 있다. In one embodiment, the emotion analysis unit 420 may determine whether the first emotional state determined based on the first set of conversation messages and the second emotional state determined based on the second set of conversation messages do not match, If the two emotional states match, the matched emotional state can be determined to be the emotional state of the user and/or the conversation partner. On the other hand, when the first emotional state and the second emotional state do not match, the emotion analysis unit 420 may determine the high priority emotional state as the emotional state of the user or the conversation partner. The user can set which of the emotional states in a personal chat room or the emotional state in a group chat room to give priority. Alternatively, the emotion analysis unit 420 may determine the final emotional state by applying a first weight to the first emotional state and a second weight to the second emotional state. Here, the second weight is greater than the first weight, so a higher weight can be applied to the emotions in the personal chat room.

일부 실시예에서, 감정 분석부(420)는 제1 세트의 대화 메시지에 기초로 산출된 감정별 횟수와 제2 세트의 대화 메시지에 기초로 산출된 감정별 횟수 각각에 서로 상이한 가중치를 적용하고, 각각의 가중치가 적용되어 합산된 각 감정별 횟수들 중에서, 가장 높은 횟수를 가지는 감정을 사용자 또는 대화 상대방의 감정 상태로서 결정할 수 있다. 예컨대, 제1 세트의 대화 메시지에 기초로 산출된 감정별 횟수에 제1 가중치가 적용되고, 제2 세트의 대화 메시지에 기초로 산출된 감정별 횟수에 제2 가중치가 적용될 수 있다. 이때, 제2 가중치가 제1 가중치보다 커서, 개인 대화방에서의 감정에 더 높은 가중치가 적용될 수 있다. In some embodiments, the emotion analysis unit 420 applies different weights to each of the number of emotions calculated based on the first set of conversation messages and the number of emotions calculated based on the second set of conversation messages, Among the number of times each emotion is added by applying each weight, the emotion with the highest number of times can be determined as the emotional state of the user or the conversation partner. For example, a first weight may be applied to the number of emotions for each emotion calculated based on the first set of conversation messages, and a second weight may be applied to the number of emotions for each emotion calculated based on the second set of conversation messages. At this time, the second weight is greater than the first weight, so a higher weight can be applied to the emotions in the personal chat room.

일 실시예에 따르면, 감정 분석부(420)는 일정 주기 간격 또는 실시간으로, 사용자 및/또는 대화 상대방의 감정 상태를 결정할 수 있다. 여기서, 실시간으로 감정 상태를 결정하는 것은, 사용자 또는 대화 상대방에 의해 새로운 대화 메시지가 작성되는 것을 트리거로 하여 사용자 또는 대화 상대방에 대한 감정 상태가 다시 분석되는 것을 의미할 수 있다. 이전 감정 상태와 현재의 감정 상태가 상이하면, 현재의 감정 상태로 사용자 또는 대화 상대방의 감정 상태가 갱신될 수 있다. 갱신된 감정 상태는, 감정 상태 출력부(430)에 의해 대화방에 출력될 수 있다. 일부 실시예에서, 감정 분석부(420)는 사용자와 대화 상대방 간의 양방향 감정 상태를 외부 장치(예컨대, 정보 처리 시스템)로 전송할 수 있다. According to one embodiment, the emotion analysis unit 420 may determine the emotional state of the user and/or the conversation partner at regular intervals or in real time. Here, determining the emotional state in real time may mean that the emotional state of the user or the conversation partner is re-analyzed by triggering the creation of a new conversation message by the user or the conversation partner. If the previous emotional state is different from the current emotional state, the emotional state of the user or the conversation partner may be updated to the current emotional state. The updated emotional state may be output to the chat room by the emotional state output unit 430. In some embodiments, the emotion analysis unit 420 may transmit the bidirectional emotional state between the user and the conversation partner to an external device (eg, an information processing system).

실시간으로 감정 상태가 결정되는 것 대신에 일정한 주기 간격으로 감정 상태가 결정되는 것으로 설정된 경우, 감정 상태의 결정 주기는 시간 또는 새로운 대화 메시지의 발생 횟수를 기초로 결정될 수 있다. 예컨대, 감정 분석부(420)는 미리 결정된 시간(예컨대, 하루 또는 n 시간) 동안에 사용자 및/또는 대화 상대방에 의해 작성된 적어도 하나의 대화 메시지를 기초하여, 대화 상대방에 대한 사용자의 감정 상태 및/또는 사용자에 대한 대화 상대방의 감정 상태를 결정할 수 있다. 다른 예로서, 사용자 및/또는 대화 상대방에 의해 작성된 새로운 대화 메시지가 미리 결정된 개수만큼 축적되면, 축적된 새로운 대화 메시지에 기초하여 대화 상대방에 대한 사용자의 감정 상태 및/또는 사용자에 대한 대화 상대방의 감정 상태를 결정할 수 있다. 즉, 미리 결정된 개수 이상의 대화 메시지가 사용자와 대화 상대방 간에 발생한 시점에, 감정 상태를 결정하기 위한 프로세스가 수행될 수 있다. If the emotional state is set to be determined at regular periodic intervals instead of being determined in real time, the determination cycle of the emotional state may be determined based on time or the number of occurrences of a new conversation message. For example, the emotion analysis unit 420 determines the user's emotional state and/or It is possible to determine the emotional state of the conversation partner toward the user. As another example, when a predetermined number of new conversation messages created by the user and/or the conversation partner are accumulated, the user's emotional state toward the conversation partner and/or the conversation partner's feelings toward the user based on the accumulated new conversation messages. status can be determined. That is, at the point when more than a predetermined number of conversation messages occur between the user and the conversation partner, a process for determining the emotional state may be performed.

일정 주기 간격으로 수행되거나 실시간으로 수행되어 결정된, 대화 상대방에 대한 사용자의 감정 상태(또는 사용자에 대한 대화 상대방의 감정 상태)는 이전의 감정 상태와 상이할 수 있다. 이 경우, 감정 상태가 갱신되고, 갱신된 감정 상태가 감정 상태 출력부(430)에 의해서 대화방에 출력될 수 있다. 갱신된 감정 상태는 해당 주기에 출력된 사용자의 프로필(또는 대화 상대방의 프로필)과 연관되어 출력될 수 있다. The user's emotional state toward the conversation partner (or the conversation partner's emotional state toward the user), which is determined by being performed at regular intervals or in real time, may be different from the previous emotional state. In this case, the emotional state is updated, and the updated emotional state can be output to the chat room by the emotional state output unit 430. The updated emotional state may be output in association with the user's profile (or the conversation partner's profile) output in the corresponding cycle.

예를 들어, 제1 주기 동안에 추출된 적어도 하나의 대화 메시지에 기초하여 사용자에 대한 대화 상대방의 감정 상태가 제1 감정 상태로 결정된 상태에서, 제2 주기 동안에 추출된 적어도 하나의 대화 메시지에 기초하여 사용자에 대한 대화 상대방의 감정 상태가 제2 감정 상태로 변경된 경우를 가정할 수 있다. 이러한 경우, 감정 상태 출력부(430)는 제1 주기 동안에 출력된 대화 상대방의 프로필과 연관하여 제1 감정 상태를 나타내는 시각화 정보를 출력하고, 제2 주기 동안에 출력된 대화 상대방의 프로필과 연관하여 제2 감정 상태를 나타내는 시각화 정보를 출력할 수 있다. 도 1 및 도 5 내지 도 7에 예시된 바와 같이, 사용자 프로필은 대화 메시지와 함께 대화방에 출력될 수 있고, 감정 상태 출력부(430)는 특정 주기에 결정된 대화 상대방(또는 사용자)의 감정 상태를 나타내는 시각화 정보를 특정 주기에 출력된 대화 상대방 프로필(또는 사용자 프로필)과 연관하여 출력할 수 있다. 이렇게 각 주기의 프로필과 연관하여 감정 상태가 출력된 경우, 사용자 및/또는 대화 상대방의 감정 상태의 변화 추이가 확인될 수 있다. For example, when the emotional state of the conversation partner with respect to the user is determined to be a first emotional state based on at least one conversation message extracted during the first period, based on the at least one conversation message extracted during the second period It can be assumed that the emotional state of the conversation partner with respect to the user changes to the second emotional state. In this case, the emotional state output unit 430 outputs visualization information representing the first emotional state in association with the profile of the conversation partner output during the first cycle, and displays visualization information representing the first emotional state in association with the profile of the conversation partner output during the second cycle. 2 Visualization information representing emotional states can be output. As illustrated in FIGS. 1 and 5 to 7, the user profile may be output to the chat room along with the chat message, and the emotional state output unit 430 displays the emotional state of the conversation partner (or user) determined in a specific period. The displayed visualization information can be output in association with the conversation partner's profile (or user profile) output at a specific cycle. When the emotional state is output in association with the profile of each cycle in this way, the change trend in the emotional state of the user and/or the conversation partner can be confirmed.

감정 상태 출력부(430)는 사용자 및/또는 대화 상대방의 감정 상태를 대화방에 출력할 수 있다. 일 실시예에 따르면, 감정 상태 출력부(430)는 사용자의 감정 상태와 연관된 제1 시각화 정보를 획득하고, 제1 시각화 정보를 대화방에 출력할 수 있다. 이때, 감정 상태 출력부(430)는 사용자의 프로필과 연관하여 제1 시각화 정보를 표시할 수 있다. 여기서, 프로필에 연관되어 제1 시각화 정보가 표시되는 것은, 프로필(또는 프로필 사진 썸네일) 내부 또는 프로필 주변 중 적어도 하나에 제1 시각화 정보가 표시되는 것을 의미할 수 있다. 또한, 감정 상태 출력부(430)는 대화 상대방의 감정 상태와 연관된 제2 시각화 정보를 획득하고, 제2 시각화 정보를 대화방에 출력할 수 있다. 이때, 감정 상태 출력부(430)는 대화 상대방의 프로필과 연관하여 제2 시각화 정보를 표시할 수 있다. The emotional state output unit 430 may output the emotional state of the user and/or the conversation partner to the chat room. According to one embodiment, the emotional state output unit 430 may obtain first visualization information related to the user's emotional state and output the first visualization information to the chat room. At this time, the emotional state output unit 430 may display first visualization information in association with the user's profile. Here, displaying the first visualization information in relation to the profile may mean that the first visualization information is displayed at least one of inside the profile (or profile photo thumbnail) or around the profile. Additionally, the emotional state output unit 430 may obtain second visualization information related to the emotional state of the conversation partner and output the second visualization information to the chat room. At this time, the emotional state output unit 430 may display second visualization information in association with the profile of the conversation partner.

일 실시예에 따르면, 감정 상태 출력부(430)는 감정 관계 정보에 대한 요청 입력을 수신하고, 이에 대한 응답으로 사용자와 대화 상대방들 간의 양방향 감정 상태를 포함하는 감정 관계 정보(도 8 참조)를 출력할 수 있다. 감정 관계 정보가 출력되는 구체적인 예시는 도 8을 참조하여 후술하기로 한다. According to one embodiment, the emotional state output unit 430 receives a request input for emotional relationship information and, in response, provides emotional relationship information (see FIG. 8) including bidirectional emotional states between the user and the conversation partners. Can be printed. A specific example of how emotional relationship information is output will be described later with reference to FIG. 8 .

도 5는 감정 상태(512, 522)를 포함하는 개인 대화방 화면(500)의 일 예시를 나타내는 도면이다. 도 5에서는 사용자와 Brown 이름을 가지는 대화 상대방이 참여한 개인 대화방 화면(500)이 예시되어 있다. 도 5에 예시된 바와 같이, 대화 상대방인 Brown이 작성한 대화 메시지(510)에 화(anger)와 관련된 키워드인 '열 받아'가 포함됨에 따라, 사용자에 대한 Brown의 감정 상태가 '화(anger)'로 결정되고, '화(anger)'와 연관된 시각화 정보(512)가 Brown의 프로필에 연관되어 표시될 수 있다. FIG. 5 is a diagram illustrating an example of a personal chat room screen 500 including emotional states 512 and 522. Figure 5 illustrates a personal chat room screen 500 in which a user and a chat partner with the name Brown participate. As illustrated in Figure 5, as the conversation message 510 written by Brown, the conversation partner, includes 'angry', a keyword related to anger, Brown's emotional state toward the user is 'angry'. ', and visualization information 512 related to 'anger' may be displayed in connection with Brown's profile.

또한, 사용자가 작성한 대화 메시지(520)에 화(anger)와 관련된 키워드인 '화가 났어'가 포함됨에 따라, 대화 상대방인 Brown에 대한 사용자의 감정 상태가 '화(anger)'로 결정되고, '화(anger)'와 연관된 시각화 정보(522)가 사용자의 프로필에 연관되어 표시될 수 있다.In addition, as the conversation message 520 written by the user includes 'angry', a keyword related to anger, the user's emotional state toward Brown, the conversation partner, is determined to be 'angry', and ' Visualization information 522 related to 'anger' may be displayed in association with the user's profile.

도 5에서는 사용자와 대화 상대방의 감정 상태가 각각 하나의 메시지에 기초하여 결정되는 것으로 도시되었으나 이에 한정되지 않는다. 예를 들어, 대화 상대방(Brown)의 사용자에 대한 감정 상태는 사용자와 대화 상대방(Brown)이 포함된 개인 대화방에서 대화 상대방(Brown)이 입력한 복수의 대화 메시지 및/또는 사용자와 대화 상대방(Brown)이 함께 포함된 적어도 하나의 단체 대화방에서 대화 상대방(Brown)이 사용자를 대상으로 작성한 복수의 대화 메시지에 기초하여 결정될 수 있다. 유사하게, 사용자의 대화 상대방(Brown)에 대한 감정 상태는 사용자와 대화 상대방(Brown)이 포함된 개인 대화방에서 사용자가 입력한 복수의 대화 메시지 및/또는 사용자와 대화 상대방(Brown)이 함께 포함된 적어도 하나의 단체 대화방에서 사용자가 대화 상대방(Brown)을 대상으로 작성한 복수의 대화 메시지에 기초하여 결정될 수 있다.In Figure 5, the emotional states of the user and the conversation partner are each determined based on one message, but the present invention is not limited to this. For example, the emotional state of a conversation partner (Brown) toward a user can be determined by multiple conversation messages entered by the conversation partner (Brown) in a private chat room that includes the user and the conversation partner (Brown), and/or the user and the conversation partner (Brown). ) may be determined based on a plurality of conversation messages written for the user by the conversation partner (Brown) in at least one group chat room included. Similarly, the user's emotional state toward the conversation partner (Brown) can be determined by multiple conversation messages entered by the user in a private chat room that includes the user and the conversation partner (Brown), and/or the user's emotional state toward the conversation partner (Brown). It may be determined based on a plurality of conversation messages written by the user to the conversation partner (Brown) in at least one group chat room.

도 6은 감정 상태가 표시되는 개인 대화방 화면(600)의 다른 예시를 나타내는 도면이다. 도 6에서는 사용자와 Sally 이름을 가지는 대화 상대방이 참여한 개인 대화방 화면(600)이 예시되어 있다. 도 6에 예시된 바와 같이, 대화 상대방인 Sally가 작성한 대화 메시지(610)에 행복과 관련된 키워드인 '행복해'가 포함됨에 따라, 사용자에 대한 Sally의 감정 상태가 '행복'으로 결정되고, '행복'과 연관된 시각화 정보(612)가 Sally의 프로필과 연관되어 표시될 수 있다. FIG. 6 is a diagram illustrating another example of a personal chat room screen 600 on which an emotional state is displayed. Figure 6 illustrates a personal chat room screen 600 in which a user and a conversation partner named Sally participate. As illustrated in Figure 6, as the conversation message 610 written by Sally, the conversation partner, includes 'happy', a keyword related to happiness, Sally's emotional state toward the user is determined to be 'happy', and 'happy' ' and the associated visualization information 612 may be displayed in association with Sally's profile.

또한, 사용자가 작성한 대화 메시지(620)에 행복과 관련된 키워드인 '행복해'가 포함됨에 따라, 대화 상대방인 Sally에 대한 사용자의 감정 상태가 '행복'으로 결정되고, '행복'과 연관된 시각화 정보(622)가 사용자의 프로필과 연관되어 표시될 수 있다.In addition, as the conversation message 620 written by the user includes 'happy', a keyword related to happiness, the user's emotional state toward Sally, the conversation partner, is determined to be 'happy', and visualization information associated with 'happiness' ( 622) may be displayed in association with the user's profile.

도 7은 감정 상태가 표시되는 단체 대화방 화면(700)의 일 예시를 나타내는 도면이다. 도 7에 예시된 바와 같이, 복수의 대화 상대방 및 사용자가 단체 대화방 B에 참여하고 있다. 단체 대화방 화면(700)에는 각각의 대화 상대방의 감정 상태(710, 720, 730, 740, 770) 및 사용자의 감정 상태(750, 760)이 표시될 수 있다. FIG. 7 is a diagram illustrating an example of a group chat room screen 700 on which an emotional state is displayed. As illustrated in Figure 7, multiple conversation partners and users are participating in group chat room B. The group chat room screen 700 may display the emotional states 710, 720, 730, 740, 770 of each conversation partner and the emotional states 750, 760 of the user.

도 7에 예시된 바와 같이, 제1 대화 상대방인 Brown이 단체 대화방 B에 작성한 대화 메시지인 "안녕"에는 감정과 연관된 키워드가 추출되지 않을 수 있다. 이러한 경우, Brown과 사용자가 참여한 개인 대화방(예컨대, 도 5의 대화방)에 포함된 대화 메시지를 기초로 사용자에 대한 Brown의 감정 상태(예컨대, 화)가 결정되고, 사용자에 대한 Brown의 감정 상태(예컨대, 화)와 연관된 시각화 정보(710)가 Brown의 프로필과 연관되어 표시될 수 있다. 사용자에 대한 Brown의 감정 상태는, 사용자와 Brown이 포함된 개인 대화방에서 Brown이 입력한 대화 메시지 및/또는 사용자와 Brown이 함께 포함된 적어도 하나의 단체 대화방(단체 대화방 B 포함)에서 Brown이 사용자를 대상으로 작성한 대화 메시지에 기초하여 결정될 수 있다. 예를 들어, 사용자와 Brown이 참여한 개인 대화방 및/또는 단체 대화방으로부터 산출된 감정 관련 키워드/이모티콘의 횟수가, 사용자에 대한 Brown의 감정 상태가 결정하는데 이용될 수 있다. 여기서, 키워드/이모티콘의 횟수는 Brown이 사용자를 대상으로 작성한 적어도 하나의 대화 메시지에 기초하여 산출될 수 있다. As illustrated in FIG. 7 , keywords related to emotions may not be extracted from the conversation message “Hello” written by Brown, the first conversation partner, in group chat room B. In this case, Brown's emotional state (e.g., angry) toward the user is determined based on the conversation message included in the personal chat room (e.g., the chat room in FIG. 5) in which Brown and the user participated, and Brown's emotional state toward the user (e.g., angry) For example, visualization information 710 associated with Tuesday may be displayed in association with Brown's profile. Brown's emotional state toward the user is determined by chat messages entered by Brown in a private chat room containing the user and Brown, and/or by Brown interacting with the user in at least one group chat room containing the user and Brown together (including group chat room B). It may be determined based on the conversation message written for the target. For example, the number of emotion-related keywords/emoticons calculated from the personal chat room and/or group chat room in which the user and Brown participate may be used to determine Brown's emotional state toward the user. Here, the number of keywords/emoticons can be calculated based on at least one conversation message written by Brown for the user.

또한, 제2 대화 상대방인 Sally가 단체 대화방 B에 작성한 대화 메시지에는 행복 감정과 연관된 키워드로서 '행복해'가 추출되고, 이에 따라 사용자에 대한 Sally의 감정 상태가 '행복'으로 결정될 수 있다. 또한, 사용자에 대한 Sally의 감정 상태(즉, 행복)와 연관된 시각화 정보(720)가 Sally의 프로필과 연관되어 표시될 수 있다. 사용자에 대한 Sally의 감정 상태는, 사용자와 Sally가 포함된 개인 대화방에서 Sally가 입력한 대화 메시지 및/또는 사용자와 Sally가 함께 포함된 적어도 하나의 단체 대화방(단체 대화방 B 포함)에서 Sally가 사용자를 대상으로 작성한 대화 메시지에 기초하여 결정될 수 있다. 예를 들어, 사용자와 Sally가 참여한 개인 대화방 및/또는 단체 대화방으로부터 산출된 감정 관련 키워드/이모티콘의 횟수가, 사용자에 대한 Sally의 감정 상태가 결정하는데 이용될 수 있다. 여기서, 키워드/이모티콘의 횟수는 Sally가 사용자를 대상으로 작성한 적어도 하나의 대화 메시지에 기초하여 산출될 수 있다. In addition, 'happy' is extracted as a keyword related to the happiness emotion in the conversation message written by Sally, the second conversation partner, in group chat room B, and accordingly, Sally's emotional state toward the user can be determined to be 'happy'. Additionally, visualization information 720 related to Sally's emotional state (i.e., happiness) toward the user may be displayed in association with Sally's profile. Sally's emotional state toward the user is determined by conversation messages entered by Sally in a private chat room that includes the user and Sally, and/or by Sally interacting with the user in at least one group chat room that includes the user and Sally (including group chat room B). It may be determined based on the conversation message written for the target. For example, the number of emotion-related keywords/emoticons calculated from the personal chat room and/or group chat room in which the user and Sally participate may be used to determine Sally's emotional state toward the user. Here, the number of keywords/emoticons can be calculated based on at least one conversation message written by Sally for the user.

제3 대화 상대방인 Cony가 단체 대화방 B에 작성한 대화 메시지에는 감정과 연관된 키워드로서 '우울해'가 추출되어 사용자에 대한 Cony의 감정 상태가 '우울'로 결정될 수 있다. 또한, 사용자에 대한 Cony의 감정 상태(즉, 우울)와 연관된 시각화 정보(730)가 Cony의 프로필과 연관되어 표시될 수 있다. 사용자에 대한 Cony의 감정 상태는, 사용자와 Cony가 포함된 개인 대화방에서 Cony가 입력한 대화 메시지 및/또는 사용자와 Cony가 함께 포함된 적어도 하나의 단체 대화방(단체 대화방 B 포함)에서 Cony가 사용자를 대상으로 작성한 대화 메시지에 기초하여 결정될 수 있다. 예를 들어, 사용자와 Cony가 참여한 개인 대화방 및/또는 단체 대화방으로부터 산출된 감정 관련 키워드/이모티콘의 횟수가, 사용자에 대한 Cony의 감정 상태가 결정하는데 이용될 수 있다. 여기서, 키워드/이모티콘의 횟수는 Cony가 사용자를 대상으로 작성한 적어도 하나의 대화 메시지에 기초하여 산출될 수 있다.In the conversation message written by Cony, the third conversation partner, in group chat room B, 'depressed' is extracted as a keyword related to emotion, and Cony's emotional state toward the user can be determined to be 'depression'. Additionally, visualization information 730 related to Cony's emotional state (i.e., depression) toward the user may be displayed in association with Cony's profile. Cony's emotional state toward the user is determined by a conversation message entered by Cony in a personal chat room containing the user and Cony and/or by Cony interacting with the user in at least one group chat room containing the user and Cony (including group chat room B). It may be determined based on the conversation message written for the target. For example, the number of emotion-related keywords/emoticons calculated from the personal chat room and/or group chat room in which the user and Cony participate can be used to determine Cony's emotional state toward the user. Here, the number of keywords/emoticons can be calculated based on at least one conversation message written by Cony for the user.

제4 대화 상대방인 Choco가 단체 대화방 B에 작성한 대화 메시지("안녕")에 감정과 연관된 키워드가 추출되지 않을 수 있다. 또한, Choco와 사용자가 참여하는 개인 대화방이 개설되지 않을 수 있으며, 또는 Choco와 사용자가 참여하는 개인 대화방이 개설되어 있으나 이 개인 대화방에서 감정과 연관된 키워드 및 이모티콘이 추출되지 않을 수 있다. 이 경우, Choco의 감정 상태는 '감정 없음'으로 결정되고, '감정 없음'과 연관된 시각화 정보(740)가 Choco의 프로필과 연관되어 표시될 수 있다. 여기서, '감정 없음'과 연관된 시각화 정보(740)는 무표정과 연관된 그래픽 요소를 포함할 수 있다. 대안적으로, Choco의 경우 시각화 정보(740)가 표시되지 않을 수 있다.Keywords related to emotions may not be extracted from the conversation message (“Hello”) written by Choco, the fourth conversation partner, in group chat room B. Additionally, a personal chat room in which Choco and the user participate may not be opened, or a personal chat room in which Choco and the user participate may be opened, but keywords and emoticons related to emotions may not be extracted from this private chat room. In this case, Choco's emotional state is determined to be 'no emotion', and visualization information 740 related to 'no emotion' may be displayed in association with Choco's profile. Here, the visualization information 740 related to ‘no emotion’ may include graphic elements related to expressionless expression. Alternatively, in the case of Choco, the visualization information 740 may not be displayed.

사용자도 단체 대화방 B에 대화 메시지("안녕")를 입력할 수 있다. 도 7에 예시된 바와 같이, 단체 대화방 B에 입력된 사용자의 대화 메시지("안녕")는 대화 상대방이 특정되지 않았고, 더불어 대화 메시지("안녕")에 감정과 연관된 키워드와 이모티콘이 포함되지 않았으므로, "안녕" 대화 메시지를 입력한 시점에서의 사용자의 감정 상태는 '감정 없음'으로 결정될 수 있다. 이에 따라, "안녕" 대화 메시지를 입력한 시점에서, '감정 없음'과 연관된 시각화 정보(750)가 사용자 프로필과 연관되어 표시될 수 있다. 대안적으로, 시각화 정보(750)가 표시되지 않을 수 있다.Users can also enter a chat message (“Hello”) in group chat room B. As illustrated in Figure 7, the user's conversation message ("Hello") entered into group chat room B did not specify the conversation partner, and in addition, the conversation message ("Hello") did not contain keywords and emoticons related to emotions. Therefore, the user's emotional state at the time of entering the "hello" conversation message may be determined as 'no emotion'. Accordingly, at the point when the “hello” conversation message is input, visualization information 750 related to ‘no emotions’ may be displayed in association with the user profile. Alternatively, visualization information 750 may not be displayed.

도 7에 예시된 바와 같이, 사용자는 Sally가 작성한 대화 메시지에 대한 응답 메시지(762)를 작성할 수 있다. 응답 메시지는 사용자가 Sally를 대화 상대방으로 특정한 것이므로, Sally와 사용자가 참여한 개인 대화방(예컨대, 도 6의 대화방)에서의 사용자의 감정 상태에 기초하여, Sally에 대한 사용자의 감정 상태가 결정될 수 있다. 이때, 응답 메시지에 감정 관련 키워드/이모티콘이 추출되는 경우, 감정 관련 키워드/이모티콘 및 개인 대화방에서 추출된 사용자의 감정 상태도 함께 사용하여, Sally에 대한 사용자의 감정 상태가 결정될 수 있다. As illustrated in Figure 7, the user can write a response message 762 to the conversation message written by Sally. Since the response message indicates that the user has specified Sally as the conversation partner, the user's emotional state toward Sally may be determined based on the user's emotional state in the personal chat room in which Sally and the user participated (eg, the chat room in FIG. 6). At this time, when emotion-related keywords/emoticons are extracted from the response message, the user's emotional state toward Sally can be determined by using the emotion-related keywords/emoticons and the user's emotional state extracted from the personal chat room.

도 7에서는 Sally에 대한 사용자의 감정 상태가 '행복'인 것으로 결정되고, '행복'과 연관된 시각화 정보(760)가 사용자의 프로필과 연관되어 표시됨을 예시되어 있다. 도면부호 750와 도면부호 760을 비교하면, 사용자의 감정 상태와 연관된 시각화 정보가 변경됨을 알 수 있다. 즉, 단체 대화방에서 지목되거나 응답되는 대화 상대방이 변경되는 경우, 이 대화 상대방과 관련되는 감정 상태에 기초하여, 사용자 프로필과 연관되는 감정 상태도 변경될 수 있다. In Figure 7, the user's emotional state toward Sally is determined to be 'happiness', and visualization information 760 related to 'happiness' is displayed in association with the user's profile. Comparing reference numerals 750 and 760, it can be seen that the visualization information related to the user's emotional state changes. That is, when the conversation partner being pointed out or responded to in a group chat room changes, the emotional state associated with the user profile may also change based on the emotional state associated with this conversation partner.

한편, 대화 상대방이 추가적인 대화 메시지를 입력할 수 있다. 도 7에 예시된 바와 같이, 제4 대화 상대방인 Choco는 제임스(James)를 지목하는 멘션 메시지(772)를 작성할 수 있다. 여기서, 제임스(James)는 사용자 이름일 수 있다. 해당 멘션 메시지(772)에는 감정 관련 키워드인 '화나게'가 포함되고, 이에 따라 사용자에 대한 Choco의 감정 상태가 '화(anger)'인 것으로 결정될 수 있다. 이에 따라, 멘션 메시지(772)가 작성된 시점에, '화(anger)'와 연관된 시각화 정보(770)가 Choco 프로필과 연관하여 표시될 수 있다.Meanwhile, the conversation partner can input an additional conversation message. As illustrated in FIG. 7, Choco, the fourth conversation partner, can write a mention message 772 naming James. Here, James may be a user name. The corresponding mention message 772 includes the emotion-related keyword 'angry', and accordingly, Choco's emotional state toward the user may be determined to be 'angry'. Accordingly, at the time the mention message 772 is written, visualization information 770 related to 'anger' may be displayed in association with the Choco profile.

일 실시예에 따르면, 멘션 메시지와 관련된 태그(예컨대, @)가 대화 메시지에 포함되지 않더라도, 대화 메시지에 특정 사용자 이름이 포함된 경우, 사용자 단말은 해당 대화 메시지가 특정 사용자를 지목한 멘션 메시지인 것으로 판정할 수 있다. 예컨대, Choco가 "왜 그래 제임스? 정말 화나게"와 같은 대화 메시지를 입력한 경우, 이 대화 메시지에 멘션 메시지와 관련된 태그(예컨대, @)가 포함되지 않았음에도 '제임스'라는 사용자 이름이 포함되어 있어, 사용자 단말은 해당 대화 메시지가 제임스를 지목하는 멘션 메시지인 것으로 판정할 수 있다. 아울러, 대화 메시지에서 감정 관련 키워드인 '화나게'가 포함되고, 이에 따라 사용자에 대한 Choco의 감정 상태가 '화(anger)'인 것으로 결정될 수 있다.According to one embodiment, even if a tag (e.g., @) related to the mention message is not included in the conversation message, if the conversation message includes a specific user name, the user terminal determines that the conversation message is a mention message pointing to a specific user. It can be determined that For example, if Choco enters a chat message like "What's wrong James? You're so mad," this chat message contains the username 'James' even though it does not contain any tags (e.g. @) associated with the mention message. , the user terminal may determine that the conversation message is a mention message pointing to James. In addition, the conversation message includes the emotion-related keyword 'angry', and accordingly, Choco's emotional state toward the user may be determined to be 'angry'.

도면부호 740와 770에서 예시된 바와 같이, Choco의 감정 상태는 '감정 없음'에서 '화(anger)'로 변경되고 있음을 직관적으로 인지할 수 있다. 대화 상대방들과 사용자 간에 새로운 대화 메시지가 송수신되는 경우, 사용자의 감정 상태도 변경될 수 있고, 대화 상대방들의 각각의 감정 상태도 변경될 수 있다. 감정 상태가 변경되는 경우에, 이와 연관된 시각화 정보가 프로필과 연관되어 출력될 수 있다. As illustrated in reference numerals 740 and 770, it can be intuitively recognized that Choco's emotional state is changing from 'no emotion' to 'anger'. When new conversation messages are transmitted and received between conversation partners and the user, the emotional state of the user may change, and the emotional states of each conversation partner may also change. When the emotional state changes, visualization information related to this may be output in association with the profile.

일부 실시예에서, 대표 대화방이 설정될 수 있다. 여기서, 대표 대화방은 감정 상태를 대표하는 대화방으로 이해될 수 있다. 대표 대화방은 사용자에 의해서 설정될 수 있다. 대표 대화방이 설정된 경우, 대표 대화방에 포함된 대화 메시지를 기초로 사용자의 감정 상태가 결정되고, 결정된 사용자의 감정 상태를 타 대화방으로 전파할 수 있다. 즉, 대표 대화방에서의 사용자의 감정 상태가 '행복'인 경우, 타 대화방에서도 사용자의 감정 상태가 '행복'인 것으로 결정되고, 대표 대화방 및 타 대화방에서 모두 행복과 연관된 시각화 정보가 표시될 수 있다. In some embodiments, a representative chat room may be established. Here, the representative chat room can be understood as a chat room representing an emotional state. The representative chat room can be set by the user. When a representative chat room is set up, the user's emotional state is determined based on the conversation message included in the representative chat room, and the determined user's emotional state can be propagated to other chat rooms. In other words, if the user's emotional state in the representative chat room is 'happy', the user's emotional state is determined to be 'happy' in other chat rooms, and visualization information related to happiness can be displayed in both the representative chat room and other chat rooms. .

한편, 단체 대화방에는 감정 관계 정보와 연관된 메뉴/아이콘(780)이 포함될 수 있다. 사용자가 해당 메뉴/아이콘(780)을 터치 또는 클릭하는 경우, 단체 대화방에 포함된 모든 사용자들 사이의 양방향 감정 상태를 포함하는 감정 관계 정보가 출력될 수 있다. 이는 도 8에서 후술한다.Meanwhile, the group chat room may include a menu/icon 780 related to emotional relationship information. When a user touches or clicks the corresponding menu/icon 780, emotional relationship information including bidirectional emotional states between all users included in the group chat room may be output. This will be described later in Figure 8.

도 8은 본 개시의 일 실시예에 따른 감정 관계 정보(800)를 예시하는 도면이다. 단체 대화방에 포함된 감정 관계 정보와 연관된 메뉴/아이콘이 터치 또는 선택되는 경우에, 도 8과 같은 감정 관계 정보(800)가 출력될 수 있다. 도 8에 예시된 바와 같이, 감정 관계 정보(800)는 사용자가 직관적으로 확인할 수 있도록, 감정 상태와 연관된 시각화 정보(812 내지 828)를 포함할 수 있다. FIG. 8 is a diagram illustrating emotional relationship information 800 according to an embodiment of the present disclosure. When a menu/icon related to emotional relationship information included in a group chat room is touched or selected, emotional relationship information 800 as shown in FIG. 8 may be output. As illustrated in FIG. 8 , emotional relationship information 800 may include visualization information 812 to 828 associated with emotional states so that users can intuitively check them.

도 8에 예시된 바와 같이, 사용자(나)를 기준으로 단체 대화방에 참여중인 대화 상대방들 간의 양방향 감정 상태가 감정 관계 정보(800)에 포함될 수 있다. 사용자와 Brown 간의 양방향 감정 상태를 살펴보면, 사용자가 Brown에 대해서 느끼는 감정 상태는 '화'(812)이고, Brown도 사용자에 대해서 느끼는 감정 상태가 '화'(822)인 것으로 예시되어 있다. 또한, 사용자와 Sally 간의 양방향 감정 상태를 살펴보면, 사용자가 Sally에 대해서 느끼는 감정 상태는 '행복'(814)이고, Sally도 사용자에 대해서 느끼는 감정 상태가 '행복'(824)인 것으로 예시되어 있다.As illustrated in FIG. 8 , the two-way emotional state between conversation partners participating in a group chat room based on the user (me) may be included in the emotional relationship information 800. Looking at the two-way emotional state between the user and Brown, the emotional state that the user feels toward Brown is 'angry' (812), and the emotional state that Brown also feels toward the user is 'angry' (822). In addition, looking at the two-way emotional state between the user and Sally, the emotional state that the user feels toward Sally is 'happiness' (814), and the emotional state that Sally also feels toward the user is 'happiness' (824).

사용자와 Cony 간의 양방향 감정 상태를 살펴보면, 사용자가 Cony에 대해서 느끼는 감정 상태는 '감정 없음'(816)이고, Cony가 사용자에 대해서 느끼는 감정 상태가 '우울함'(826)인 것으로 예시되어 있다. 사용자와 Choco 간의 양방향 감정 상태를 살펴보면, 사용자가 Choco에 대해서 느끼는 감정 상태는 '행복'(818)이고, Choco가 사용자에 대해서 느끼는 감정 상태가 '감정 없음'(828)인 것으로 예시되어 있다.Looking at the two-way emotional state between the user and Cony, the emotional state that the user feels toward Cony is 'no emotion' (816), and the emotional state that Cony feels toward the user is 'depressed' (826). Looking at the two-way emotional state between the user and Choco, the emotional state that the user feels toward Choco is 'happiness' (818), and the emotional state that Choco feels toward the user is 'no emotion' (828).

이러한 감정 관계 정보는 사용자 단말에 저장될 수 있다. 일부 실시예에서, 감정 관계 정보 중 적어도 일부는 외부 장치(예컨대, 정보 처리 시스템)으로부터 수신될 수 있다. 예컨대, 사용자 단말은 사용자로부터 감정 관계 정보에 대한 출력 요청을 수신하면, 외부 장치로 감정 관계 정보를 요청하고, 이에 대한 응답으로 외부 장치로부터 감정 관계 정보 중 적어도 일부를 수신할 수 있다. This emotional relationship information may be stored in the user terminal. In some embodiments, at least some of the emotional relationship information may be received from an external device (eg, an information processing system). For example, when the user terminal receives an output request for emotional relationship information from the user, it may request emotional relationship information from an external device and receive at least part of the emotional relationship information from the external device in response.

일부 실시예에서, 대화 상대방들 간의 양방향 감정 상태가 감정 관계 정보에 포함되어 출력될 수 있다. 즉, 도 8과 같이 사용자와 대화 상대방들 사이의 감정 상태들뿐만 아니라, Sally, Cony, Choco 각각에 대한 Brown의 감정 상태, Brown, Cony, Choco 각각에 대한 Sally의 감정 상태, Brown, Sally, Choco 각각에 대한 Cony의 감정 상태 및 Brown, Sally, Cony 각각에 대한 Choco의 감정 상태가 감정 관계 정보에 더 포함될 수 있다. 대화 상대방들 간의 양방향 감정 상태는 외부 장치로부터 수신될 수 있다.In some embodiments, bidirectional emotional states between conversation partners may be included and output as emotional relationship information. That is, as shown in Figure 8, not only the emotional states between the user and the conversation partners, but also Brown's emotional states for each of Sally, Cony, and Choco, Sally's emotional states for each of Brown, Cony, and Choco, Brown, Sally, and Choco Cony's emotional state for each and Choco's emotional state for each of Brown, Sally, and Cony may be further included in the emotional relationship information. Bidirectional emotional states between conversation partners can be received from an external device.

도 9는 본 개시의 일 실시예에 따른, 대화 상대방에 대한 감정 상태 표시 방법(900)을 설명하기 위한 흐름도이다. 도 9에 도시된 방법은, 본 개시의 목적을 달성하기 위한 일 실시예일 뿐이며, 필요에 따라 일부 단계가 추가되거나 삭제될 수 있음은 물론이다. 또한, 도 9에 도시된 방법은, 도 2에 도시된 사용자 단말에 포함된 적어도 하나의 프로세서에 의해서 수행될 수 있다. 설명의 편의를 위해서 도 2에 도시된 사용자 단말에 포함된 프로세서에 의해서, 도 9에 도시된 각 단계가 수행되는 것으로 설명하기로 한다.FIG. 9 is a flowchart illustrating a method 900 for displaying an emotional state for a conversation partner, according to an embodiment of the present disclosure. The method shown in FIG. 9 is only an example to achieve the purpose of the present disclosure, and of course, some steps may be added or deleted as needed. Additionally, the method shown in FIG. 9 may be performed by at least one processor included in the user terminal shown in FIG. 2. For convenience of explanation, it will be described that each step shown in FIG. 9 is performed by a processor included in the user terminal shown in FIG. 2.

프로세서는 제1 사용자와 제2 사용자 간에 수행된 적어도 하나의 대화 메시지를 획득할 수 있다(S910). 일 실시예에 따르면, 프로세서는 제1 사용자와 제2 사용자가 참여한 단체 대화방 및/또는 개인 대화방으로부터 미리 결정된 시간 동안에 발생한 대화 메시지를 획득할 수 있다. The processor may obtain at least one conversation message performed between the first user and the second user (S910). According to one embodiment, the processor may obtain conversation messages that occurred during a predetermined time from a group chat room and/or a private chat room in which the first user and the second user participated.

그 후, 프로세서는 획득된 대화 메시지에 기초하여, 제1 사용자에 대한 제2 사용자의 감정 상태를 결정할 수 있다(S920). 일 실시예에 따르면, 프로세서는 획득된 대화 메시지 중에서, 제2 사용자에 의해 작성된 대화 메시지에 기초하여 제1 사용자에 대한 제2 사용자의 감정 상태를 결정할 수 있다. 일 실시예에서, 프로세서는 획득된 대화 메시지로부터 감정과 연관된 적어도 하나의 키워드 및/또는 이모티콘을 추출하고, 추출된 적어도 하나의 키워드 및/또는 이모티콘에 기초하여 제1 사용자에 대한 제2 사용자의 감정 상태를 결정할 수 있다. Thereafter, the processor may determine the emotional state of the second user with respect to the first user based on the obtained conversation message (S920). According to one embodiment, the processor may determine the emotional state of the second user with respect to the first user based on a conversation message written by the second user among the obtained conversation messages. In one embodiment, the processor extracts at least one keyword and/or emoticon associated with an emotion from the obtained conversation message and determines the second user's emotion with respect to the first user based on the extracted at least one keyword and/or emoticon. status can be determined.

이어서, 프로세서는, 결정된 감정 상태와 연관된 제1 시각화 정보를 획득하고, 획득된 제1 시각화 정보를 대화방에 표시할 수 있다(S930). Subsequently, the processor may obtain first visualization information associated with the determined emotional state and display the obtained first visualization information in the chat room (S930).

추가적으로 또는 대안적으로, 프로세서는 획득된 대화 메시지에 기초하여, 제2 사용자에 대한 제1 사용자의 감정 상태를 결정하고, 결정된 감정 상태와 연관된 제2 시각화 정보를 대화방에 표시할 수 있다. 이때, 프로세서는 제1 사용자의 감정 상태가 표출되는 소정의 영역에, 제2 시각화 정보를 표시할 수 있다. 일 실시예에 따르면, 프로세서는 획득된 대화 메시지 중에서, 제1 사용자에 의해 작성된 대화 메시지에 기초하여 제2 사용자에 대한 제1 사용자의 감정 상태를 결정할 수 있다. Additionally or alternatively, the processor may determine, based on the obtained conversation message, the emotional state of the first user with respect to the second user and display second visualization information associated with the determined emotional state in the chat room. At this time, the processor may display the second visualization information in a predetermined area where the emotional state of the first user is expressed. According to one embodiment, the processor may determine the emotional state of the first user with respect to the second user based on a conversation message written by the first user among the obtained conversation messages.

프로세서는 제1 사용자, 제2 사용자 및 제3 사용자가 참여중인 대화방에서 제3 사용자를 대상으로 작성된 제1 사용자의 대화 메시지를 감지할 수 있다. 프로세서는 대화방에서 제1 사용자가 제3 사용자를 지목하는 멘션(mention) 메시지를 감지하거나 제3 사용자의 대화 메시지에 대한 제1 사용자의 응답 메시지를 감지하는 경우에, 제3 사용자를 대상으로 작성된 제1 사용자의 대화 메시지를 감지한 것으로 판정할 수 있다. 이 경우, 프로세서는 감지된 대화 메시지에 응답하여, 제3 사용자에 대한 제1 사용자의 감정 상태와 연관된 제3 시각화 정보를 대화방에 표시할 수 있다. 일 실시예에 따르면, 프로세서는 제1 사용자의 감정 상태가 표출되는 소정의 영역(예컨대, 프로필 관련 영역)에, 기존 시각화 정보(예컨대, 제2 시각화 정보)를 제3 시각화 정보로 변경할 수 있다. 일 실시예에 따르면, 프로세서는 대화방 또는 타 대화방 중 적어도 하나에 포함된 제3 사용자와 제1 사용자 간의 대화 메시지를 기초로, 제3 사용자에 대한 제1 사용자의 감정 상태를 결정할 수 있다. The processor may detect a chat message written by the first user targeting a third user in a chat room in which the first user, the second user, and the third user are participating. When the processor detects a mention message in a chat room in which the first user points to a third user or detects the first user's response message to the third user's conversation message, the processor sends a message written for the third user. 1 It can be determined that the user's conversation message has been detected. In this case, the processor may display third visualization information associated with the emotional state of the first user with respect to the third user in the chat room in response to the detected conversation message. According to one embodiment, the processor may change existing visualization information (eg, second visualization information) into third visualization information in a predetermined area (eg, profile-related area) where the emotional state of the first user is expressed. According to one embodiment, the processor may determine the emotional state of the first user with respect to the third user based on a conversation message between the first user and the third user included in at least one of the chat room or another chat room.

한편, 제1 사용자가 제2 사용자가 참여중인 대화방은 단체 대화방일 수 있다. 이 경우, 프로세서는 제1 사용자와 제2 사용자가 함께 포함된 단체 대화방으로부터 제2 사용자에 의해 작성된 제1 세트의 대화 메시지를 획득하고, 제1 사용자와 제2 사용자가 포함된 개인 대화방에 포함된 제2 세트의 대화 메시지를 획득할 수 있다. 여기서, 제1 사용자에 대한 제2 사용자의 감정 상태는 제1 세트의 대화 메시지와 제2 세트의 대화 메시지에 기초하여 결정될 수 있다. 여기서, 제1 세트의 메시지는, 단체 대화방에서 제2 사용자가 제1 사용자를 대상으로 작성한 메시지를 포함할 수 있다. Meanwhile, the chat room in which the first user and the second user are participating may be a group chat room. In this case, the processor obtains a first set of conversation messages written by the second user from a group chat room that includes both the first user and the second user, and the first set of conversation messages included in the personal chat room that includes the first user and the second user. A second set of conversation messages may be obtained. Here, the emotional state of the second user with respect to the first user may be determined based on the first set of conversation messages and the second set of conversation messages. Here, the first set of messages may include messages written by the second user to the first user in a group chat room.

일 실시예에서, 프로세서는 제1 세트의 대화에 기초하여, 제1 감정 상태를 결정하고, 제2 세트의 대화 메시지에 기초하여, 제2 감정 상태를 결정한 후, 제1 감정 상태 및 제2 감정 상태에 기초하여, 제1 사용자에 대한 제2 사용자의 감정 상태를 결정할 수 있다. 이 경우, 프로세서는 제1 감정 상태와 제2 감정 상태가 동일하는지 여부를 판정하고, 제1 감정 상태와 제2 감정 상태가 상이하다는 판정에 응답하여, 제1 감정 상태 및 제2 감정 상태 중에서 우선 순위가 높은 감정 상태를 제1 사용자에 대한 제2 사용자의 감정 상태로 결정할 수 있다. In one embodiment, the processor determines a first emotional state based on the first set of conversation messages, determines a second emotional state based on the second set of conversation messages, and then determines the first emotional state and the second emotion. Based on the state, the emotional state of the second user with respect to the first user may be determined. In this case, the processor determines whether the first emotional state and the second emotional state are the same, and in response to determining that the first emotional state and the second emotional state are different, the processor determines which of the first emotional state and the second emotional state is preferred. The highly ranked emotional state may be determined as the emotional state of the second user with respect to the first user.

일부 실시예에서, 제1 사용자에 대한 제2 사용자의 감정 상태는, 제1 감정 상태에 제1 가중치를 적용하고, 제2 감정 상태에 제2 가중치를 적용하여 결정될 수 있다. In some embodiments, the emotional state of the second user with respect to the first user may be determined by applying a first weight to the first emotional state and a second weight to the second emotional state.

일 실시예에서, 프로세서는 단체 대화방에 포함된 제1 사용자와 제3 사용자 간의 제3 세트의 대화 메시지를 획득하고, 제1 사용자와 제3 사용자가 포함된 개인 대화방에 포함된 제4 세트의 대화 메시지를 획득할 수 있다. 아울러, 프로세서는 제3 세트의 대화 메시지와 제4 세트의 대화 메시지에 기초하여, 제1 사용자에 대한 제3 사용자의 감정 상태를 결정하고, 결정된 제1 사용자에 대한 제3 사용자의 감정 상태와 연관된 제4 시각화 정보를 단체 대화방에 표시할 수 있다. In one embodiment, the processor obtains a third set of conversation messages between a first user and a third user included in a group chat room, and a fourth set of conversation messages included in a personal chat room including the first user and a third user. You can get the message. In addition, the processor determines, based on the third set of conversation messages and the fourth set of conversation messages, the emotional state of the third user with respect to the first user, and the determined emotional state of the third user with respect to the first user is associated with the emotional state of the third user with respect to the first user. Fourth visualization information can be displayed in a group chat room.

한편, 프로세서는 단체 대화방에 포함된 모든 사용자들 사이의 감정 관계 정보를 표시할 수 있다. 여기서, 감정 관계 정보는, 제1 사용자에 대한 다른 사용자들 각각의 감정 상태와 다른 사용자들 각각에 대한 제1 사용자의 감정 상태를 포함할 수 있다. 일 실시예에 따르면, 프로세서는 사용자로부터 감정 관계 정보에 대한 출력 요청을 수신하는 경우, 감정 관계 정보 중 적어도 일부를 외부 장치로부터 획득할 수 있다. Meanwhile, the processor may display emotional relationship information between all users included in the group chat room. Here, the emotional relationship information may include the emotional state of each of the other users with respect to the first user and the emotional state of the first user with respect to each of the other users. According to one embodiment, when receiving an output request for emotional relationship information from a user, the processor may obtain at least part of the emotional relationship information from an external device.

상술한 흐름도 및 상술한 설명은 일 예시일 뿐이며, 일부 실시예에서는 다르게 구현될 수 있다. 예를 들어, 일부 실시예에서는 각 단계의 순서가 바뀌거나, 일부 단계가 반복 수행되거나, 일부 단계가 생략되거나, 일부 단계가 추가될 수 있다.The above flowchart and above description are only examples and may be implemented differently in some embodiments. For example, in some embodiments, the order of each step may be changed, some steps may be performed repeatedly, some steps may be omitted, or some steps may be added.

상술한 방법은 컴퓨터에서 실행하기 위해 컴퓨터 판독 가능한 기록 매체에 저장된 컴퓨터 프로그램으로 제공될 수 있다. 매체는 컴퓨터로 실행 가능한 프로그램을 계속 저장하거나, 실행 또는 다운로드를 위해 임시 저장하는 것일수도 있다. 또한, 매체는 단일 또는 수개 하드웨어가 결합된 형태의 다양한 기록 수단 또는 저장수단일 수 있는데, 어떤 컴퓨터 시스템에 직접 접속되는 매체에 한정되지 않고, 네트워크 상에 분산 존재하는 것일 수도 있다. 매체의 예시로는, 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체, CD-ROM 및 DVD 와 같은 광기록 매체, 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto optical medium), 및 ROM, RAM, 플래시 메모리 등을 포함하여 프로그램 명령어가 저장되도록 구성된 것이 있을 수 있다. 또한, 다른 매체의 예시로, 애플리케이션을 유통하는 앱 스토어나 기타 다양한 소프트웨어를 공급 내지 유통하는 사이트, 서버 등에서 관리하는 기록매체 내지 저장매체도 들 수 있다.The above-described method may be provided as a computer program stored on a computer-readable recording medium for execution on a computer. Media may be used to continuously store executable programs on a computer, or to temporarily store them for execution or download. In addition, the medium may be a variety of recording or storage means in the form of a single or several pieces of hardware combined. It is not limited to a medium directly connected to a computer system and may be distributed over a network. Examples of media include magnetic media such as hard disks, floppy disks, and magnetic tapes, optical recording media such as CD-ROMs and DVDs, magneto-optical media such as floptical disks, and There may be something configured to store program instructions, including ROM, RAM, flash memory, etc. Additionally, examples of other media include recording or storage media managed by app stores that distribute applications, sites that supply or distribute various other software, or servers.

본 개시의 방법, 동작 또는 기법들은 다양한 수단에 의해 구현될 수도 있다. 예를 들어, 이러한 기법들은 하드웨어, 펌웨어, 소프트웨어, 또는 이들의 조합으로 구현될 수도 있다. 본원의 개시와 연계하여 설명된 다양한 예시적인 논리적 블록들, 모듈들, 회로들, 및 알고리즘 단계들은 전자 하드웨어, 컴퓨터 소프트웨어, 또는 양자의 조합들로 구현될 수도 있음을 통상의 기술자들은 이해할 것이다. 하드웨어 및 소프트웨어의 이러한 상호 대체를 명확하게 설명하기 위해, 다양한 예시적인 구성요소들, 블록들, 모듈들, 회로들, 및 단계들이 그들의 기능적 관점에서 일반적으로 위에서 설명되었다. 그러한 기능이 하드웨어로서 구현되는지 또는 소프트웨어로서 구현되는 지의 여부는, 특정 애플리케이션 및 전체 시스템에 부과되는 설계 요구사항들에 따라 달라진다. 통상의 기술자들은 각각의 특정 애플리케이션을 위해 다양한 방식들로 설명된 기능을 구현할 수도 있으나, 그러한 구현들은 본 개시의 범위로부터 벗어나게 하는 것으로 해석되어서는 안된다.The methods, operations or techniques of this disclosure may be implemented by various means. For example, these techniques may be implemented in hardware, firmware, software, or a combination thereof. Those skilled in the art will understand that the various illustrative logical blocks, modules, circuits, and algorithm steps described in connection with the disclosure herein may be implemented in electronic hardware, computer software, or combinations of both. To clearly illustrate this interchange of hardware and software, various illustrative components, blocks, modules, circuits, and steps have been described above generally in terms of their functionality. Whether such functionality is implemented as hardware or software depends on the specific application and design requirements imposed on the overall system. Skilled artisans may implement the described functionality in varying ways for each particular application, but such implementations should not be interpreted as causing a departure from the scope of the present disclosure.

하드웨어 구현에서, 기법들을 수행하는 데 이용되는 프로세싱 유닛들은, 하나 이상의 ASIC들, DSP들, 디지털 신호 프로세싱 디바이스들(digital signal processing devices; DSPD들), 프로그램가능 논리 디바이스들(programmable logic devices; PLD들), 필드 프로그램가능 게이트 어레이들(field programmable gate arrays; FPGA들), 프로세서들, 제어기들, 마이크로제어기들, 마이크로프로세서들, 전자 디바이스들, 본 개시에 설명된 기능들을 수행하도록 설계된 다른 전자 유닛들, 컴퓨터, 또는 이들의 조합 내에서 구현될 수도 있다.In a hardware implementation, the processing units used to perform the techniques may include one or more ASICs, DSPs, digital signal processing devices (DSPDs), programmable logic devices (PLDs). ), field programmable gate arrays (FPGAs), processors, controllers, microcontrollers, microprocessors, electronic devices, and other electronic units designed to perform the functions described in this disclosure. , a computer, or a combination thereof.

따라서, 본 개시와 연계하여 설명된 다양한 예시적인 논리 블록들, 모듈들, 및 회로들은 범용 프로세서, DSP, ASIC, FPGA나 다른 프로그램 가능 논리 디바이스, 이산 게이트나 트랜지스터 로직, 이산 하드웨어 컴포넌트들, 또는 본원에 설명된 기능들을 수행하도록 설계된 것들의 임의의 조합으로 구현되거나 수행될 수도 있다. 범용 프로세서는 마이크로프로세서일 수도 있지만, 대안으로, 프로세서는 임의의 종래의 프로세서, 제어기, 마이크로제어기, 또는 상태 머신일 수도 있다. 프로세서는 또한, 컴퓨팅 디바이스들의 조합, 예를 들면, DSP와 마이크로프로세서, 복수의 마이크로프로세서들, DSP 코어와 연계한 하나 이상의 마이크로프로세서들, 또는 임의의 다른 구성의 조합으로서 구현될 수도 있다.Accordingly, the various illustrative logical blocks, modules, and circuits described in connection with this disclosure may be general-purpose processors, DSPs, ASICs, FPGAs or other programmable logic devices, discrete gate or transistor logic, discrete hardware components, or It may be implemented or performed as any combination of those designed to perform the functions described in. A general-purpose processor may be a microprocessor, but in the alternative, the processor may be any conventional processor, controller, microcontroller, or state machine. A processor may also be implemented as a combination of computing devices, such as a DSP and a microprocessor, a plurality of microprocessors, one or more microprocessors in conjunction with a DSP core, or any other configuration.

펌웨어 및/또는 소프트웨어 구현에 있어서, 기법들은 랜덤 액세스 메모리(random access memory; RAM), 판독 전용 메모리(read-only memory; ROM), 비휘발성 RAM(non-volatile random access memory; NVRAM), PROM(programmable read-only memory), EPROM(erasable programmable read-only memory), EEPROM(electrically erasable PROM), 플래시 메모리, 컴팩트 디스크(compact disc; CD), 자기 또는 광학 데이터 스토리지 디바이스 등과 같은 컴퓨터 판독가능 매체 상에 저장된 명령들로서 구현될 수도 있다. 명령들은 하나 이상의 프로세서들에 의해 실행 가능할 수도 있고, 프로세서(들)로 하여금 본 개시에 설명된 기능의 특정 양태들을 수행하게 할 수도 있다.For firmware and/or software implementations, techniques include random access memory (RAM), read-only memory (ROM), non-volatile random access memory (NVRAM), and PROM ( on computer-readable media such as programmable read-only memory (EPROM), electrically erasable PROM (EEPROM), flash memory, compact disc (CD), magnetic or optical data storage devices, etc. It may also be implemented as stored instructions. Instructions may be executable by one or more processors and may cause the processor(s) to perform certain aspects of the functionality described in this disclosure.

소프트웨어로 구현되는 경우, 상술된 기법들은 하나 이상의 명령들 또는 코드로서 컴퓨터 판독 가능한 매체 상에 저장되거나 또는 컴퓨터 판독 가능한 매체를 통해 전송될 수도 있다. 컴퓨터 판독가능 매체들은 한 장소에서 다른 장소로 컴퓨터 프로그램의 전송을 용이하게 하는 임의의 매체를 포함하여 컴퓨터 저장 매체들 및 통신 매체들 양자를 포함한다. 저장 매체들은 컴퓨터에 의해 액세스될 수 있는 임의의 이용 가능한 매체들일 수도 있다. 비제한적인 예로서, 이러한 컴퓨터 판독가능 매체는 RAM, ROM, EEPROM, CD-ROM 또는 다른 광학 디스크 스토리지, 자기 디스크 스토리지 또는 다른 자기 스토리지 디바이스들, 또는 소망의 프로그램 코드를 명령들 또는 데이터 구조들의 형태로 이송 또는 저장하기 위해 사용될 수 있으며 컴퓨터에 의해 액세스될 수 있는 임의의 다른 매체를 포함할 수 있다. 또한, 임의의 접속이 컴퓨터 판독가능 매체로 적절히 칭해진다.When implemented in software, the techniques described above may be stored on or transmitted through a computer-readable medium as one or more instructions or code. Computer-readable media includes both computer storage media and communication media, including any medium that facilitates transfer of a computer program from one place to another. Storage media may be any available media that can be accessed by a computer. By way of non-limiting example, such computer readable media may include RAM, ROM, EEPROM, CD-ROM or other optical disk storage, magnetic disk storage or other magnetic storage devices, or the desired program code in the form of instructions or data structures. It can be used to transfer or store data and can include any other media that can be accessed by a computer. Any connection is also properly termed a computer-readable medium.

예를 들어, 소프트웨어가 동축 케이블, 광섬유 케이블, 연선, 디지털 가입자 회선 (DSL), 또는 적외선, 무선, 및 마이크로파와 같은 무선 기술들을 사용하여 웹사이트, 서버, 또는 다른 원격 소스로부터 전송되면, 동축 케이블, 광섬유 케이블, 연선, 디지털 가입자 회선, 또는 적외선, 무선, 및 마이크로파와 같은 무선 기술들은 매체의 정의 내에 포함된다. 본원에서 사용된 디스크(disk) 와 디스크(disc)는, CD, 레이저 디스크, 광 디스크, DVD(digital versatile disc), 플로피디스크, 및 블루레이 디스크를 포함하며, 여기서 디스크들(disks)은 보통 자기적으로 데이터를 재생하고, 반면 디스크들(discs) 은 레이저를 이용하여 광학적으로 데이터를 재생한다. 위의 조합들도 컴퓨터 판독가능 매체들의 범위 내에 포함되어야 한다.For example, if the Software is transmitted from a website, server, or other remote source using coaxial cable, fiber optic cable, twisted pair cable, digital subscriber line (DSL), or wireless technologies such as infrared, radio, and microwave, , fiber optic cable, twisted pair, digital subscriber line, or wireless technologies such as infrared, radio, and microwave are included within the definition of medium. As used herein, disk and disk include CD, laser disk, optical disk, digital versatile disc (DVD), floppy disk, and Blu-ray disk, where disks are usually magnetic. It reproduces data optically, while discs reproduce data optically using lasers. Combinations of the above should also be included within the scope of computer-readable media.

소프트웨어 모듈은, RAM 메모리, 플래시 메모리, ROM 메모리, EPROM 메모리, EEPROM 메모리, 레지스터들, 하드 디스크, 이동식 디스크, CD-ROM, 또는 공지된 임의의 다른 형태의 저장 매체 내에 상주할 수도 있다. 예시적인 저장 매체는, 프로세가 저장 매체로부터 정보를 판독하거나 저장 매체에 정보를 기록할 수 있도록, 프로세서에 연결될 수 있다. 대안으로, 저장 매체는 프로세서에 통합될 수도 있다. 프로세서와 저장 매체는 ASIC 내에 존재할 수도 있다. ASIC은 유저 단말 내에 존재할 수도 있다. 대안으로, 프로세서와 저장 매체는 유저 단말에서 개별 구성요소들로서 존재할 수도 있다.A software module may reside in RAM memory, flash memory, ROM memory, EPROM memory, EEPROM memory, registers, hard disk, removable disk, CD-ROM, or any other form of storage medium known. An exemplary storage medium may be coupled to the processor such that the processor may read information from or write information to the storage medium. Alternatively, the storage medium may be integrated into the processor. The processor and storage media may reside within an ASIC. ASIC may exist within the user terminal. Alternatively, the processor and storage medium may exist as separate components in the user terminal.

이상 설명된 실시예들이 하나 이상의 독립형 컴퓨터 시스템에서 현재 개시된 주제의 양태들을 활용하는 것으로 기술되었으나, 본 개시는 이에 한정되지 않고, 네트워크나 분산 컴퓨팅 환경과 같은 임의의 컴퓨팅 환경과 연계하여 구현될 수도 있다. 또 나아가, 본 개시에서 주제의 양상들은 복수의 프로세싱 칩들이나 장치들에서 구현될 수도 있고, 스토리지는 복수의 장치들에 걸쳐 유사하게 영향을 받게 될 수도 있다. 이러한 장치들은 PC들, 네트워크 서버들, 및 휴대용 장치들을 포함할 수도 있다.Although the above-described embodiments have been described as utilizing aspects of the presently disclosed subject matter in one or more standalone computer systems, the disclosure is not limited thereto and may also be implemented in conjunction with any computing environment, such as a network or distributed computing environment. . Furthermore, aspects of the subject matter of this disclosure may be implemented in multiple processing chips or devices, and storage may be similarly effected across the multiple devices. These devices may include PCs, network servers, and portable devices.

본 명세서에서는 본 개시가 일부 실시예들과 관련하여 설명되었지만, 본 개시의 발명이 속하는 기술분야의 통상의 기술자가 이해할 수 있는 본 개시의 범위를 벗어나지 않는 범위에서 다양한 변형 및 변경이 이루어질 수 있다. 또한, 그러한 변형 및 변경은 본 명세서에 첨부된 특허청구의 범위 내에 속하는 것으로 생각되어야 한다.Although the present disclosure has been described in relation to some embodiments in this specification, various modifications and changes may be made without departing from the scope of the present disclosure as can be understood by a person skilled in the art to which the invention pertains. Additionally, such modifications and changes should be considered to fall within the scope of the claims appended hereto.

110 : 사용자 단말
120 : 단체 대화방 화면
130, 140, 150 : 대화 메시지
132, 142, 152 : 시각화 정보
110: user terminal
120: Group chat room screen
130, 140, 150: Chat message
132, 142, 152: Visualization information

Claims (20)

적어도 하나의 프로세서에 의해서 수행되는, 대화 상대방에 대한 감정 상태를 표시하는 방법에 있어서,
제1 사용자와 제2 사용자 간에 수행된 적어도 하나의 대화 메시지를 획득하는 단계;
상기 획득된 대화 메시지에 기초하여, 상기 제1 사용자에 대한 상기 제2 사용자의 감정 상태를 결정하는 단계; 및
상기 결정된 감정 상태와 연관된 제1 시각화 정보를 대화방에 표시하는 단계
를 포함하는, 감정 상태 표시 방법.
A method for displaying an emotional state for a conversation partner, performed by at least one processor, comprising:
Obtaining at least one conversation message conducted between a first user and a second user;
based on the obtained conversation message, determining an emotional state of the second user with respect to the first user; and
Displaying first visualization information associated with the determined emotional state in a chat room
Including, a method for displaying an emotional state.
제1항에 있어서,
상기 획득된 대화 메시지에 기초하여, 상기 제2 사용자에 대한 상기 제1 사용자의 감정 상태를 결정하는 단계; 및
상기 결정된 감정 상태와 연관된 제2 시각화 정보를 상기 대화방에 표시하는 단계
를 더 포함하는, 감정 상태 표시 방법.
According to paragraph 1,
based on the obtained conversation message, determining an emotional state of the first user with respect to the second user; and
Displaying second visualization information associated with the determined emotional state in the chat room
A method for displaying an emotional state, further comprising:
제2항에 있어서,
상기 제1 사용자에 대한 상기 제2 사용자의 감정 상태를 결정하는 단계는,
상기 획득된 대화 메시지 중에서, 상기 제2 사용자에 의해 작성된 대화 메시지에 기초하여 상기 제1 사용자에 대한 상기 제2 사용자의 감정 상태를 결정하는 단계
를 포함하고,
상기 제2 사용자에 대한 상기 제1 사용자의 감정 상태를 결정하는 단계는,
상기 획득된 대화 메시지 중에서, 상기 제1 사용자에 의해 작성된 대화 메시지에 기초하여 상기 제2 사용자에 대한 상기 제1 사용자의 감정 상태를 결정하는 단계
를 포함하는, 감정 상태 표시 방법.
According to paragraph 2,
Determining the emotional state of the second user with respect to the first user includes:
Among the obtained conversation messages, determining the emotional state of the second user with respect to the first user based on the conversation message written by the second user.
Including,
Determining the emotional state of the first user with respect to the second user includes:
Among the obtained conversation messages, determining the emotional state of the first user with respect to the second user based on the conversation message written by the first user.
Including, a method for displaying an emotional state.
제2항에 있어서,
상기 대화방에서 제3 사용자를 대상으로 작성된 상기 제1 사용자의 대화 메시지를 감지하는 단계; 및
상기 감지된 대화 메시지에 응답하여, 상기 제3 사용자에 대한 상기 제1 사용자의 감정 상태와 연관된 제3 시각화 정보를 상기 대화방에 표시하는 단계
를 더 포함하는, 감정 상태 표시 방법.
According to paragraph 2,
detecting a conversation message written by the first user for a third user in the chat room; and
In response to the detected conversation message, displaying third visualization information associated with the emotional state of the first user with respect to the third user in the chat room.
A method for displaying an emotional state, further comprising:
제4항에 있어서,
상기 제2 시각화 정보를 상기 대화방에 표시하는 단계는,
상기 제1 사용자의 감정 상태가 표출되는 소정의 영역에, 상기 제2 시각화 정보를 표시하는 단계
를 포함하고,
상기 제3 시각화 정보를 상기 대화방에 표시하는 단계는,
상기 소정의 영역에 표시된 제2 시각화 정보를 상기 제3 시각화 정보로 변경하는 단계
를 포함하는, 감정 상태 표시 방법.
According to clause 4,
The step of displaying the second visualization information in the chat room includes:
Displaying the second visualization information in a predetermined area where the emotional state of the first user is expressed.
Including,
The step of displaying the third visualization information in the chat room includes:
Changing the second visualization information displayed in the predetermined area into the third visualization information
Including, a method for displaying an emotional state.
제4항에 있어서,
상기 제3 시각화 정보를 상기 대화방에 표시하는 단계는,
상기 대화방 또는 타 대화방 중 적어도 하나에 포함된 상기 제3 사용자와 상기 제1 사용자 간의 대화 메시지를 기초로, 상기 제3 사용자에 대한 상기 제1 사용자의 감정 상태를 결정하는 단계
를 포함하는, 감정 상태 표시 방법.
According to clause 4,
The step of displaying the third visualization information in the chat room includes:
Determining the emotional state of the first user with respect to the third user based on a conversation message between the third user and the first user included in at least one of the chat room or another chat room.
Including, a method for displaying an emotional state.
제4항에 있어서,
상기 제3 사용자를 대상으로 작성된 상기 제1 사용자의 대화 메시지를 감지하는 단계는,
상기 대화방에서 상기 제1 사용자가 상기 제3 사용자를 지목하는 멘션(mention) 메시지를 감지하거나 상기 제3 사용자의 대화 메시지에 대한 상기 제1 사용자의 응답 메시지를 감지하는 경우에, 상기 제3 사용자를 대상으로 작성된 상기 제1 사용자의 대화 메시지를 감지한 것으로 판정하는 단계
를 포함하는, 감정 상태 표시 방법.
According to clause 4,
The step of detecting the first user's conversation message written for the third user,
In the chat room, when the first user detects a mention message pointing to the third user or detects the first user's response message to the third user's conversation message, the third user Determining that the conversation message of the first user written as a target is detected
Including, a method for displaying an emotional state.
제1항에 있어서,
상기 대화방은 단체 대화방이고,
상기 적어도 하나의 대화 메시지를 획득하는 단계는,
상기 제1 사용자와 상기 제2 사용자가 함께 포함된 상기 단체 대화방으로부터 상기 제2 사용자에 의해 작성된 제1 세트의 대화 메시지를 획득하는 단계; 및
상기 제1 사용자와 상기 제2 사용자가 포함된 개인 대화방에 포함된 제2 세트의 대화 메시지를 획득하는 단계
를 포함하고,
상기 제1 사용자에 대한 상기 제2 사용자의 감정 상태는 상기 제1 세트의 대화 메시지와 상기 제2 세트의 대화 메시지에 기초하여 결정되는, 감정 상태 표시 방법.
According to paragraph 1,
The chat room is a group chat room,
The step of obtaining the at least one conversation message includes:
Obtaining a first set of conversation messages written by the second user from the group chat room including the first user and the second user; and
Obtaining a second set of conversation messages included in a personal chat room including the first user and the second user.
Including,
The emotional state of the second user with respect to the first user is determined based on the first set of conversation messages and the second set of conversation messages.
제8항에 있어서,
상기 제1 사용자에 대한 상기 제2 사용자의 감정 상태를 결정하는 단계는,
상기 제1 세트의 대화 메시지에 기초하여, 제1 감정 상태를 결정하는 단계;
상기 제2 세트의 대화 메시지에 기초하여, 제2 감정 상태를 결정하는 단계; 및
상기 제1 감정 상태 및 상기 제2 감정 상태에 기초하여, 상기 제1 사용자에 대한 상기 제2 사용자의 감정 상태를 결정하는 단계
를 포함하는, 감정 상태 표시 방법.
According to clause 8,
Determining the emotional state of the second user with respect to the first user includes:
Based on the first set of conversational messages, determining a first emotional state;
based on the second set of conversational messages, determining a second emotional state; and
Based on the first emotional state and the second emotional state, determining the emotional state of the second user with respect to the first user.
Including, a method for displaying an emotional state.
제9항에 있어서,
상기 제1 사용자에 대한 상기 제2 사용자의 감정 상태를 결정하는 단계는,
상기 제1 감정 상태와 상기 제2 감정 상태가 동일하는지 여부를 판정하는 단계; 및
상기 제1 감정 상태와 상기 제2 감정 상태가 상이하다는 판정에 응답하여, 상기 제1 감정 상태 및 상기 제2 감정 상태 중에서 우선 순위가 높은 감정 상태를 상기 제1 사용자에 대한 상기 제2 사용자의 감정 상태로 결정하는 단계
를 포함하는, 감정 상태 표시 방법.
According to clause 9,
Determining the emotional state of the second user with respect to the first user includes:
determining whether the first emotional state and the second emotional state are the same; and
In response to determining that the first emotional state and the second emotional state are different, an emotional state with a higher priority among the first emotional state and the second emotional state is selected as the emotional state of the second user with respect to the first user. Steps to decide on status
Including, a method for displaying an emotional state.
제9항에 있어서,
상기 제1 사용자에 대한 제2 사용자의 감정 상태는, 상기 제1 감정 상태에 제1 가중치를 적용하고, 상기 제2 감정 상태에 제2 가중치를 적용하여 결정되는, 감정 상태 표시 방법.
According to clause 9,
The emotional state of the second user with respect to the first user is determined by applying a first weight to the first emotional state and a second weight to the second emotional state.
제11항에 있어서,
상기 제2 가중치가 상기 제1 가중치 보다 큰, 감정 상태 표시 방법.
According to clause 11,
A method for displaying an emotional state, wherein the second weight is greater than the first weight.
제8항에 있어서,
상기 제1 세트의 대화 메시지는, 상기 단체 대화방에서 상기 제2 사용자가 상기 제1 사용자를 대상으로 작성한 메시지인, 감정 상태 표시 방법.
According to clause 8,
The first set of conversation messages is a message written by the second user for the first user in the group chat room.
제8항에 있어서,
상기 단체 대화방에 포함된 상기 제1 사용자와 제3 사용자 간의 제3 세트의 대화 메시지를 획득하는 단계;
상기 제1 사용자와 상기 제3 사용자가 포함된 개인 대화방에 포함된 제4 세트의 대화 메시지를 획득하는 단계;
상기 제3 세트의 대화 메시지와 상기 제4 세트의 대화 메시지에 기초하여, 상기 제1 사용자에 대한 상기 제3 사용자의 감정 상태를 결정하는 단계; 및
상기 결정된 상기 제1 사용자에 대한 상기 제3 사용자의 감정 상태와 연관된 제4 시각화 정보를 상기 단체 대화방에 표시하는 단계
를 더 포함하는, 감정 상태 표시 방법.
According to clause 8,
Obtaining a third set of conversation messages between the first user and a third user included in the group chat room;
Obtaining a fourth set of conversation messages included in a personal chat room including the first user and the third user;
based on the third set of conversation messages and the fourth set of conversation messages, determining an emotional state of the third user with respect to the first user; and
Displaying fourth visualization information associated with the determined emotional state of the third user with respect to the first user in the group chat room.
A method for displaying an emotional state, further comprising:
제14항에 있어서,
상기 단체 대화방에 포함된 모든 사용자들 사이의 감정 관계 정보를 표시하는 단계
를 더 포함하고,
상기 감정 관계 정보는, 상기 제1 사용자에 대한 다른 사용자들 각각의 감정 상태와 다른 사용자들 각각에 대한 상기 제1 사용자의 감정 상태를 포함하는, 감정 상태 표시 방법.
According to clause 14,
Displaying emotional relationship information between all users included in the group chat room
It further includes,
The emotional relationship information includes the emotional state of each of the other users with respect to the first user and the emotional state of the first user with respect to each of the other users.
제15항에 있어서,
상기 제1 사용자로부터 상기 감정 관계 정보에 대한 출력 요청을 수신하는 단계; 및
상기 감정 관계 정보 중 적어도 일부를 외부 장치로부터 획득하는 단계
를 더 포함하는, 감정 상태 표시 방법.
According to clause 15,
Receiving an output request for the emotional relationship information from the first user; and
Obtaining at least some of the emotional relationship information from an external device
A method for displaying an emotional state, further comprising:
제1항에 있어서,
상기 제1 사용자에 대한 상기 제2 사용자의 감정 상태를 결정하는 단계는,
상기 획득된 대화 메시지로부터 감정과 연관된 적어도 하나의 키워드 또는 이모티콘을 추출하는 단계; 및
상기 추출된 적어도 하나의 키워드 또는 이모티콘에 기초하여, 상기 제1 사용자에 대한 상기 제2 사용자의 감정 상태를 결정하는 단계
를 포함하는, 감정 상태 표시 방법.
According to paragraph 1,
Determining the emotional state of the second user with respect to the first user includes:
extracting at least one keyword or emoticon associated with an emotion from the obtained conversation message; and
Based on the extracted at least one keyword or emoticon, determining the emotional state of the second user with respect to the first user.
Including, a method for displaying an emotional state.
제1항에 있어서,
상기 제1 시각화 정보를 대화방에 표시하는 단계는,
상기 대화방 내의 상기 제2 사용자의 프로필과 연관하여 상기 제1 시각화 정보를 표시하는 단계
를 포함하는, 감정 상태 표시 방법.
According to paragraph 1,
The step of displaying the first visualization information in the chat room includes:
Displaying the first visualization information in association with the profile of the second user in the chat room
Including, a method for displaying an emotional state.
제1항 내지 제18항 중 어느 한 항에 따른 방법을 컴퓨터에서 실행하기 위해 컴퓨터 판독 가능한 기록 매체에 저장된 컴퓨터 프로그램.
A computer program stored in a computer-readable recording medium for executing the method according to any one of claims 1 to 18 on a computer.
사용자 단말로서,
메모리; 및
상기 메모리와 연결되고, 상기 메모리에 포함된 컴퓨터 판독 가능한 적어도 하나의 프로그램을 실행하도록 구성된 적어도 하나의 프로세서
를 포함하고,
상기 적어도 하나의 프로그램은,
제1 사용자와 제2 사용자 간에 수행된 적어도 하나의 대화 메시지를 획득하고,
상기 획득된 대화 메시지에 기초하여, 상기 제1 사용자에 대한 상기 제2 사용자의 감정 상태를 결정하고,
상기 결정된 감정 상태와 연관된 제1 시각화 정보를 대화방에 표시하기 위한 명령어들을 포함하는, 사용자 단말.
As a user terminal,
Memory; and
At least one processor connected to the memory and configured to execute at least one computer-readable program included in the memory
Including,
The at least one program is,
Obtain at least one conversation message conducted between the first user and the second user,
Based on the obtained conversation message, determine the emotional state of the second user with respect to the first user,
A user terminal comprising instructions for displaying first visualization information associated with the determined emotional state in a chat room.
KR1020220099021A 2022-08-09 2022-08-09 Method and system for displaying emotional state of users KR20240020818A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020220099021A KR20240020818A (en) 2022-08-09 2022-08-09 Method and system for displaying emotional state of users
JP2023125552A JP2024024603A (en) 2022-08-09 2023-08-01 Method and system for displaying emotional state to chat partner

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020220099021A KR20240020818A (en) 2022-08-09 2022-08-09 Method and system for displaying emotional state of users

Publications (1)

Publication Number Publication Date
KR20240020818A true KR20240020818A (en) 2024-02-16

Family

ID=89940216

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020220099021A KR20240020818A (en) 2022-08-09 2022-08-09 Method and system for displaying emotional state of users

Country Status (2)

Country Link
JP (1) JP2024024603A (en)
KR (1) KR20240020818A (en)

Also Published As

Publication number Publication date
JP2024024603A (en) 2024-02-22

Similar Documents

Publication Publication Date Title
US10666594B2 (en) Proactive intelligent personal assistant
US20140280603A1 (en) User attention and activity in chat systems
US10757048B2 (en) Intelligent personal assistant as a contact
KR102663909B1 (en) Method and system for providing relevance information between users
TW201545042A (en) Transient user interface elements
JP2019528513A (en) Method and system for providing message-based notification
KR20210130583A (en) Method and system for sharing content on instant messaging application
US20220263781A1 (en) Method and system for managing avatar usage rights
US20230031018A1 (en) Method and apparatus for managing messages on instant messaging application
US20230115818A1 (en) Method and system for creating avatar content
US20230215090A1 (en) Method and system for displaying virtual space at various point-in-times
KR20230098114A (en) Method and device for providing location based avatar messenger service
US20230047600A1 (en) Method and system for sharing content on instant messaging application during calls
JP2020177655A (en) Method, system, and non-transitory computer-readable recording medium for managing event messages
US20220180893A1 (en) Method and system for generating multimedia content
US20210266275A1 (en) Method and system for evaluating content on instant messaging application
KR20240020818A (en) Method and system for displaying emotional state of users
WO2018085132A1 (en) Re-homing embedded web content via cross-iframe signaling
KR102654350B1 (en) Method and system for controlling access to specific area in metaverse space based on blockchain-recorded data
US11571626B2 (en) Software ownership validation of optical discs using secondary device
CN115361588B (en) Object display method and device, electronic equipment and storage medium
KR20230137683A (en) Method and system for displaying virtual screen based on conversation topic
US20230156056A1 (en) Methods, systems and storage media for generating an effect configured by one or more network connected devices
KR20240071357A (en) Method and system for providing relevance information between users
KR20240023809A (en) Method and system for providing search result based on scroll input analysis