WO2020196977A1 - User persona-based interactive agent device and method - Google Patents

User persona-based interactive agent device and method Download PDF

Info

Publication number
WO2020196977A1
WO2020196977A1 PCT/KR2019/004267 KR2019004267W WO2020196977A1 WO 2020196977 A1 WO2020196977 A1 WO 2020196977A1 KR 2019004267 W KR2019004267 W KR 2019004267W WO 2020196977 A1 WO2020196977 A1 WO 2020196977A1
Authority
WO
WIPO (PCT)
Prior art keywords
user
persona
emotional
processor
conversation mode
Prior art date
Application number
PCT/KR2019/004267
Other languages
French (fr)
Korean (ko)
Inventor
이수영
김태훈
김태호
신영훈
최신국
박성진
Original Assignee
한국과학기술원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국과학기술원 filed Critical 한국과학기술원
Publication of WO2020196977A1 publication Critical patent/WO2020196977A1/en

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/04Segmentation; Word boundary detection
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • G10L25/51Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
    • G10L25/63Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for estimating an emotional state
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/226Procedures used during a speech recognition process, e.g. man-machine dialogue using non-speech characteristics
    • G10L2015/228Procedures used during a speech recognition process, e.g. man-machine dialogue using non-speech characteristics of application context

Definitions

  • Various embodiments relate to an apparatus and method for an interactive agent in consideration of a user persona.
  • Various embodiments provide an interactive agent apparatus and method capable of emotionally communicating with a user.
  • Various embodiments provide an interactive agent apparatus and method capable of emotionally communicating with a user by setting a persona corresponding to the user's persona.
  • An operation method of an interactive agent device includes an operation of identifying a persona of a user, an operation of setting a persona corresponding to the identified persona, and an emotional conversation mode with the user based on the set persona. It may include an operation to execute.
  • the interactive agent apparatus may include an input module and a processor connected to the input module and configured to perform an emotional conversation mode with a user.
  • the processor may be configured to recognize a persona of the user, set a persona corresponding to the identified persona, and execute an emotional conversation mode with the user based on the set persona. have.
  • the interactive agent device may execute an emotional conversation mode with a user based on a persona corresponding to a persona of the user among various personas. That is, the interactive agent device can select a persona suitable for the user from various personas. At this time, since the interactive agent device can recognize the user's emotional state from the user's utterance data, it is possible to execute an emotional conversation mode with the user.
  • the interactive agent device may execute the conversation mode while inducing the user's emotional state in a positive direction. That is, the interactive agent device can induce the user's emotional state in a positive direction by executing the personalized emotional conversation mode for the user.
  • FIG. 1 is a diagram illustrating an interactive agent device according to various embodiments.
  • FIG. 2 is a diagram illustrating a method of operating an interactive agent device according to various embodiments.
  • FIG. 3 is a diagram illustrating an operation of executing the emotional conversation mode of FIG. 2.
  • FIG. 1 is a diagram illustrating an emotional interactive agent device 100 according to various embodiments.
  • the interactive agent device 100 may include at least one of an input module 110, an output module 120, a memory 130, or a processor 140. have.
  • the input module 110 may receive commands or data to be used for components of the interactive agent device 100 from outside the interactive agent device 100.
  • the input module 110 is an input device configured to directly input commands or data to the interactive agent device 100 or a communication device configured to receive commands or data by communicating with an external electronic device wired or wirelessly. It may include at least any one of.
  • the input device may include at least one of a microphone, a mouse, a keyboard, and a camera.
  • the communication device may include at least one of a wired communication device or a wireless communication device, and the wireless communication device may include at least one of a short-range communication device and a long-distance communication device.
  • the input module 110 may input utterance data of a user.
  • the output module 120 may provide information to the outside of the interactive agent device 100.
  • the output module 120 includes at least one of an audio output device configured to audibly output information, a display device configured to visually output information, or a communication device configured to transmit information by wired or wireless communication with an external electronic device. It can contain either.
  • the communication device may include at least one of a wired communication device or a wireless communication device
  • the wireless communication device may include at least one of a short-range communication device and a long-distance communication device.
  • the memory 130 may store data used by components of the interactive agent device 100.
  • the data may include input data or output data for a program or a command related thereto.
  • the memory 130 may include at least one of a volatile memory or a nonvolatile memory.
  • the memory 130 may store a program for executing an interactive mode with a user, and may store various personas related to the interactive mode.
  • the processor 140 may execute a program in the memory 130 to control components of the interactive agent device 100 and perform data processing or calculation. According to various embodiments, the processor 140 may execute a conversation mode with a user using an artificial neural network structure. For example, the processor 140 may set any one of the personas and execute an emotional conversation mode with the user based on the set persona. To this end, the processor 140 may identify the user's persona and select one corresponding to the user's persona from the personas. The processor 140 may determine the persona of the user based on the user's speech data input through the input module 110. For example, the emotional conversation mode may include a conversation mode for psychological counseling of a user.
  • the processor 140 may execute an emotional conversation mode with the user based on a persona for psychological counseling of the user.
  • the processor 140 may track a change in the user's emotional state based on the user's speech data input through the input module 110 while executing the emotional conversation mode with the user.
  • the processor 140 may evaluate the influence of the user's emotional state change while executing the conversation mode with the user. Through this, the processor 140 may proceed in a conversation mode with the user while inducing the user's emotional state in a positive direction.
  • the interactive agent device 100 may include an input module 110 and a processor 140 connected to the input module 110 and configured to perform an emotional conversation mode with a user. .
  • the processor 140 may be configured to recognize a persona of a user, set a persona corresponding to the identified persona, and execute an emotional conversation mode with the user based on the set persona.
  • the processor 140 analyzes the user's utterance data to determine at least one of the user's utterance intention, the user's emotional state, or characteristic information related to the user, and Based on at least one of the characteristic information, it may be configured to identify a persona.
  • the processor 140 may be configured to track a change in the user's emotional state based on the user's speech data while executing the emotional conversation mode.
  • the processor 140 may be configured to evaluate an influence on a change in an emotional state while executing the emotional conversation mode.
  • the processor 140 may be configured to obtain a speech context from speech data of a user and output response data corresponding to the speech context while executing the emotional conversation mode.
  • the processor 140 may be configured to output response data based on the speech context and influence.
  • the emotional conversation mode may include a conversation mode for psychological counseling.
  • the characteristic information may include at least one of the user's age or gender.
  • FIG. 2 is a diagram illustrating a method of operating an interactive agent device 100 according to various embodiments.
  • the interactive agent device 100 may detect input data in operation 210.
  • the processor 140 may detect user input data through the input module 110. According to an embodiment, the processor 140 may directly detect input data through an input device. According to another embodiment, the processor 140 may detect input data received from an external electronic device through a communication device. For example, the input data may include user's speech data.
  • the interactive agent device 100 may determine the persona of the user in operation 220.
  • the processor 140 may determine the user's persona based on the user's input data.
  • the processor 140 may analyze the input data and extract at least one feature point related to at least one of a user's voice, video, or text. Through this, the processor 140 may check at least one of a user's intention, a user's emotional state, or characteristic information related to the user based on the feature point of the input data.
  • the processor 140 may check the user's intention by performing sentence classification of text.
  • the characteristic information may include at least one of the user's age or gender.
  • the processor 140 may determine the persona of the user based on at least one of the user's intention, the user's emotional state, or characteristic information related to the user.
  • the interactive agent device 100 may detect user input data while executing an arbitrary chat mode with the user.
  • the interactive agent device 100 may also be executing an emotional conversation mode with a user based on a preset persona among various personas.
  • the interactive agent device 100 may use the sentence embedding technique while executing the emotional conversation mode with the user.
  • the sentence embedding technique may include a self-attentive sentence embedding technique.
  • the interactive agent device 100 may recognize a persona of a user through dialog embedding based on input data. Here, if there is a persona label predetermined in relation to the input data, the interactive agent device 100 may assign a weight to the persona.
  • the interactive agent device 100 may set a persona corresponding to the persona of the user in operation 230.
  • the processor 140 may select one of various personas corresponding to the persona of the user and set it. That is, the processor 140 may select and set a persona suitable for a user from various personas. According to an embodiment, the processor 140 may select a persona for psychological counseling.
  • the interactive agent device 100 may execute an emotional conversation mode with a user based on the persona set in operation 240.
  • the processor 140 may provide a graphic user interface (GUI) for an emotional conversation mode with a user.
  • the memory 130 may store conversation data collected from actual counseling specialists.
  • the processor 140 may execute an emotional conversation mode with the user by using the conversation data.
  • the emotional conversation mode may include a conversation mode for psychological counseling.
  • the processor 140 may output response data based on conversation data through the output module 120 in response to input data input through the input module 110.
  • the input data may include user's speech data.
  • the processor 140 may output response data through at least one of an audio output device, a display device, and a communication device.
  • the processor 140 may hierarchically associate the input data and the response data, store it in the memory 130 as a conversation record, and use this to perform an emotional conversation mode. Through this, the processor 140 may proceed with the emotional conversation mode based on context understanding. In this case, the processor 140 may perform an emotional conversation mode with the user while inducing the user's emotional state in a positive direction.
  • FIG. 3 is a diagram illustrating an operation of executing the emotional conversation mode of FIG. 2.
  • the interactive agent device 100 may detect speech data in operation 310. While executing the emotional conversation mode with the user, the processor 140 may detect speech data input through the input module 110. According to an embodiment, the processor 140 may detect speech data directly input through a microphone. According to another embodiment, the processor 140 may detect speech data received from an external electronic device through a communication device.
  • the interactive agent device 100 may analyze the speech data in operation 320.
  • the processor 140 may analyze the speech data and extract at least one feature point related to at least one of a user's voice or text.
  • the processor 140 may acquire a speech context from speech data.
  • the processor 140 may acquire a speech context based on text of speech data or a feature point related to the text.
  • the processor 140 may obtain a speech context by performing sentence classification of text data.
  • the processor 140 may recognize the user's emotional state from the speech data.
  • the processor 140 may recognize the user's emotional state based on a feature point related to at least one of the user's voice or text.
  • the interactive agent device 100 may output response data in response to the speech data in operation 330.
  • the processor 140 may output response data corresponding to the speech context.
  • the memory 130 may store conversation data collected from actual counseling specialists. Through this, the processor 140 may determine response data corresponding to the speech context from the conversation data. Here, the processor 140 may determine response data based on a previous conversation record stored in the memory 130. In addition, the processor 140 may output response data through the output module 120.
  • the interactive agent device 100 may detect the speech data in operation 340. While executing the emotional conversation mode with the user, the processor 140 may detect speech data input through the input module 110. According to an embodiment, the processor 140 may detect speech data directly input through a microphone. According to another embodiment, the processor 140 may detect speech data received from an external electronic device through a communication device.
  • the interactive agent device 100 may analyze speech data in operation 350.
  • the processor 140 may analyze the speech data and extract at least one feature point related to at least one of a user's voice or text.
  • the processor 140 may acquire a speech context from speech data.
  • the processor 140 may acquire a speech context based on text of speech data or a feature point related to the text.
  • the processor 140 may obtain a speech context by performing sentence classification of text data.
  • the processor 140 may recognize the user's emotional state from the speech data.
  • the processor 140 may recognize the user's emotional state based on a feature point related to at least one of the user's voice or text.
  • the interactive agent device 100 may track changes in the user's emotional state.
  • the processor 140 may check a change from a previously recognized emotional state to a currently recognized emotional state. At this time, the processor 140 may check whether or not the user's emotional state change is proceeding in a positive direction.
  • the interactive agent device 100 may evaluate the influence of the user's emotional state change in operation 360.
  • the processor 140 may evaluate the influence on psychological counseling.
  • the processor 140 may determine that the change in the user's emotional state is based on the response data output in operation 330, and may evaluate the influence of the user's emotional state change as the influence according to the response data.
  • the processor 140 may evaluate the suitability of the persona based on the influence.
  • the processor 140 may evaluate the suitability of the response data output in operation 330.
  • the interactive agent device 100 may return to operation 330.
  • the processor 140 may output response data in response to the speech data in operation 330.
  • the processor 140 may output response data corresponding to the speech context of the speech data.
  • the processor 140 may determine response data corresponding to the speech context from the conversation data.
  • the processor 140 may determine response data to induce a change in the user's emotional state in a positive direction.
  • the processor 140 may determine the response data in consideration of the suitability for the previously output response data.
  • the processor 140 may output response data through the output module 120. Thereafter, the interactive agent 100 may repeatedly perform operations 330 to 370 until the emotional conversation mode ends in operation 370.
  • the processor 140 determines the depressive region and severity -> searches for a stimulus triggering depression -> seeks and builds coping power -> uses therapeutic techniques and provides information/advice -> Following the psychological counseling process, a dialogue mode for psychological counseling can be performed.
  • the interactive agent device 100 may terminate the emotional conversation mode. For example, when a request for terminating the emotional conversation mode is received through the input module 110, the processor 140 may terminate the emotional conversation mode.
  • the operation method of the interactive agent device 100 includes an operation of identifying a persona of a user, an operation of setting a persona corresponding to the identified persona, and an emotional conversation mode with a user based on the set persona. It may include an operation to execute.
  • the operation of identifying a persona includes an operation of analyzing user's speech data to confirm at least one of the user's speech intention, the user's emotional state, or characteristic information related to the user, Based on at least one of emotional state or characteristic information, it may include an operation of identifying a persona.
  • the operation of executing the emotional conversation mode may include an operation of tracking a change in the user's emotional state based on the user's speech data.
  • the operation of executing the emotional conversation mode may further include an operation of evaluating an influence on a change in an emotional state.
  • the operation of executing the emotional conversation mode may include an operation of obtaining a speech context from speech data and an operation of outputting response data corresponding to the speech context.
  • the operation of outputting response data may include an operation of outputting response data based on a speech context and an influence.
  • the emotional conversation mode may include a conversation mode for psychological counseling.
  • the characteristic information may include at least one of the user's age or gender.
  • the interactive agent device 100 may execute an emotional conversation mode with a user based on a persona corresponding to a persona of the user among various personas. That is, the interactive agent device 100 may select a persona suitable for a user from various personas. At this time, since the interactive agent device 100 can recognize the user's emotional state from the user's speech data, it is possible to execute an emotional conversation mode with the user. In addition, the interactive agent device 100 may execute the conversation mode while inducing the user's emotional state in a positive direction. That is, the interactive agent device 100 may induce a user's emotional state in a positive direction by executing an emotional conversation mode personalized to the user.
  • the components are not limited.
  • a certain (eg, first) component is “(functionally or communicatively) connected” or “connected” to another (eg, second) component
  • the certain component is It may be directly connected to the component, or may be connected through another component (eg, a third component).
  • module used in this document includes a unit composed of hardware, software, or firmware, and may be used interchangeably with terms such as, for example, logic, logic blocks, parts, or circuits.
  • a module may be an integrally configured component or a minimum unit or a part of one or more functions.
  • the module may be configured as an application-specific integrated circuit (ASIC).
  • ASIC application-specific integrated circuit
  • Various embodiments of the present document are software including one or more instructions stored in a storage medium (eg, memory 130) readable by a machine (eg, interactive agent device 100).
  • a storage medium eg, memory 130
  • the processor of the device may call at least one instruction from among one or more instructions stored from a storage medium and execute it. This enables the device to be operated to perform at least one function according to the at least one command invoked.
  • the one or more instructions may include code generated by a compiler or code that can be executed by an interpreter.
  • a storage medium that can be read by a device may be provided in the form of a non-transitory storage medium.
  • non-transient only means that the storage medium is a tangible device and does not contain a signal (e.g., electromagnetic wave), and this term refers to the case where data is semi-permanently stored in the storage medium. It does not distinguish between temporary storage cases.
  • a signal e.g., electromagnetic wave
  • each component eg, a module or program of the described components may include a singular number or a plurality of entities.
  • one or more components or operations among the above-described corresponding components may be omitted, or one or more other components or operations may be added.
  • a plurality of components eg, a module or a program
  • the integrated component may perform one or more functions of each component of the plurality of components in the same or similar to that performed by the corresponding component among the plurality of components prior to integration.
  • operations performed by a module, program, or other component may be sequentially, parallel, repeatedly, or heuristically executed, or one or more of the operations may be executed in a different order, or omitted. , Or one or more other actions may be added.

Abstract

A user persona-based interactive agent device and method according to various embodiments can be configured so as to acquire a user's persona, set a persona corresponding to the acquired persona, and execute an emotive interaction mode with the user on the basis of the set persona.

Description

사용자 페르소나를 고려한 대화형 에이전트 장치 및 방법Interactive agent device and method considering user persona
다양한 실시예들은 사용자 페르소나를 고려한 대화형 에이전트 장치 및 방법에 관한 것이다. Various embodiments relate to an apparatus and method for an interactive agent in consideration of a user persona.
오늘날 대화형 에이전트 장치가 사용자와 자연스럽게 대화하고 있다. 이 때 대화형 에이전트 장치는 사용자의 질의에 응답하여, 각종 정보를 제공한다. 이러한 대화형 에이전트 장치는 익명성과 비밀성이 보장되는 특성을 갖는다. 그런데, 상기와 같은 대화형 에이전트 장치는 지식 기반 대화(knowledge-based conversation)를 수행할 뿐이다. 이로 인하여, 대화형 에이전트 장치와 감성적으로 대화를 나누고자 하는 수요가 있다. Today, interactive agent devices naturally communicate with users. At this time, the interactive agent device provides various information in response to a user's query. This interactive agent device has characteristics that guarantee anonymity and confidentiality. However, the interactive agent device as described above only performs a knowledge-based conversation. For this reason, there is a demand to emotionally communicate with the interactive agent device.
다양한 실시예들은 사용자와 감성적으로 대화할 수 있는 대화형 에이전트 장치 및 방법을 제공한다. Various embodiments provide an interactive agent apparatus and method capable of emotionally communicating with a user.
다양한 실시예들은 사용자의 페르소나에 대응하는 페르소나를 설정함으로써, 사용자와 감성적으로 대화할 수 있는 대화형 에이전트 장치 및 방법을 제공한다. Various embodiments provide an interactive agent apparatus and method capable of emotionally communicating with a user by setting a persona corresponding to the user's persona.
다양한 실시예들에 따른 대화형 에이전트 장치의 동작 방법은, 사용자의 페르소나를 파악하는 동작, 상기 파악된 페르소나에 대응하는 페르소나를 설정하는 동작, 및 상기 설정된 페르소나를 기반으로, 상기 사용자와 감성적 대화 모드를 실행하는 동작을 포함할 수 있다. An operation method of an interactive agent device according to various embodiments includes an operation of identifying a persona of a user, an operation of setting a persona corresponding to the identified persona, and an emotional conversation mode with the user based on the set persona. It may include an operation to execute.
다양한 실시예들에 따른 대화형 에이전트 장치는, 입력 모듈, 및 상기 입력 모듈과 연결되며, 사용자와 감성적 대화 모드를 수행하도록 구성되는 프로세서를 포함할 수 있다. 다양한 실시예들에 따르면, 상기 프로세서는, 상기 사용자의 페르소나를 파악하고, 상기 파악된 페르소나에 대응하는 페르소나를 설정하고, 상기 설정된 페르소나를 기반으로, 상기 사용자와 감성적 대화 모드를 실행하도록 구성될 수 있다. The interactive agent apparatus according to various embodiments may include an input module and a processor connected to the input module and configured to perform an emotional conversation mode with a user. According to various embodiments, the processor may be configured to recognize a persona of the user, set a persona corresponding to the identified persona, and execute an emotional conversation mode with the user based on the set persona. have.
다양한 실시예들에 따르면, 대화형 에이전트 장치가 다양한 페르소나들 중 사용자의 페르소나에 대응하는 페르소나에 기반하여, 사용자와 감성적 대화 모드를 실행할 수 있다. 즉 대화형 에이전트 장치는 다양한 페르소나들로부터 사용자에 적합한 페르소나를 선택할 수 있다. 이 때 대화형 에이전트 장치는 사용자의 발화 데이터로부터 사용자의 감정 상태를 인식할 수 있기 때문에, 사용자와 감성적 대화 모드를 실행할 수 있다. 아울러, 대화형 에이전트 장치는 사용자의 감정 상태를 긍정적인 방향으로 유도하면서 대화 모드를 실행할 수 있다. 즉 대화형 에이전트 장치는 사용자에 개인화된 감성적 대화 모드를 실행함으로써, 사용자의 감정 상태를 긍정적인 방향으로 유도할 수 있다. According to various embodiments, the interactive agent device may execute an emotional conversation mode with a user based on a persona corresponding to a persona of the user among various personas. That is, the interactive agent device can select a persona suitable for the user from various personas. At this time, since the interactive agent device can recognize the user's emotional state from the user's utterance data, it is possible to execute an emotional conversation mode with the user. In addition, the interactive agent device may execute the conversation mode while inducing the user's emotional state in a positive direction. That is, the interactive agent device can induce the user's emotional state in a positive direction by executing the personalized emotional conversation mode for the user.
도 1은 다양한 실시예들에 따른 대화형 에이전트 장치를 도시하는 도면이다. 1 is a diagram illustrating an interactive agent device according to various embodiments.
도 2는 다양한 실시예들에 따른 대화형 에이전트 장치의 동작 방법을 도시하는 도면이다. 2 is a diagram illustrating a method of operating an interactive agent device according to various embodiments.
도 3은 도 2의 감성적 대화 모드 실행 동작을 도시하는 도면이다. FIG. 3 is a diagram illustrating an operation of executing the emotional conversation mode of FIG. 2.
이하, 본 문서의 다양한 실시예들이 첨부된 도면을 참조하여 설명된다. Hereinafter, various embodiments of the present document will be described with reference to the accompanying drawings.
도 1은 다양한 실시예들에 따른 감성 대화형 에이전트 장치(100)를 도시하는 도면이다. 1 is a diagram illustrating an emotional interactive agent device 100 according to various embodiments.
도 1을 참조하면, 다양한 실시예들에 따른 대화형 에이전트 장치(100)는, 입력 모듈(110), 출력 모듈(120), 메모리(130) 또는 프로세서(140) 중 적어도 어느 하나를 포함할 수 있다. Referring to FIG. 1, the interactive agent device 100 according to various embodiments may include at least one of an input module 110, an output module 120, a memory 130, or a processor 140. have.
입력 모듈(110)은 대화형 에이전트 장치(100)의 구성 요소에 사용될 명령 또는 데이터를 대화형 에이전트 장치(100)의 외부로부터 수신할 수 있다. 입력 모듈(110)은, 사용자가 대화형 에이전트 장치(100)에 직접적으로 명령 또는 데이터를 입력하도록 구성되는 입력 장치 또는 외부 전자 장치와 유선 또는 무선으로 통신하여 명령 또는 데이터를 수신하도록 구성되는 통신 장치 중 적어도 어느 하나를 포함할 수 있다. 예를 들면, 입력 장치는 마이크로폰(microphone), 마우스(mouse), 키보드(keyboard) 또는 카메라(camera) 중 적어도 어느 하나를 포함할 수 있다. 예를 들면, 통신 장치는 유선 통신 장치 또는 무선 통신 장치 중 적어도 어느 하나를 포함하며, 무선 통신 장치는 근거리 통신 장치 또는 원거리 통신 장치 중 적어도 어느 하나를 포함할 수 있다. 다양한 실시예들에 따르면, 입력 모듈(110)은 사용자의 발화 데이터(utterance data)를 입력할 수 있다. The input module 110 may receive commands or data to be used for components of the interactive agent device 100 from outside the interactive agent device 100. The input module 110 is an input device configured to directly input commands or data to the interactive agent device 100 or a communication device configured to receive commands or data by communicating with an external electronic device wired or wirelessly. It may include at least any one of. For example, the input device may include at least one of a microphone, a mouse, a keyboard, and a camera. For example, the communication device may include at least one of a wired communication device or a wireless communication device, and the wireless communication device may include at least one of a short-range communication device and a long-distance communication device. According to various embodiments, the input module 110 may input utterance data of a user.
출력 모듈(120)은 대화형 에이전트 장치(100)의 외부로 정보를 제공할 수 있다. 출력 모듈(120)은 정보를 청각적으로 출력하도록 구성되는 오디오 출력 장치, 정보를 시각적으로 출력하도록 구성되는 표시 장치 또는 외부 전자 장치와 유선 또는 무선으로 통신하여 정보를 전송하도록 구성되는 통신 장치 중 적어도 어느 하나를 포함할 수 있다. 예를 들면, 통신 장치는 유선 통신 장치 또는 무선 통신 장치 중 적어도 어느 하나를 포함하며, 무선 통신 장치는 근거리 통신 장치 또는 원거리 통신 장치 중 적어도 어느 하나를 포함할 수 있다.The output module 120 may provide information to the outside of the interactive agent device 100. The output module 120 includes at least one of an audio output device configured to audibly output information, a display device configured to visually output information, or a communication device configured to transmit information by wired or wireless communication with an external electronic device. It can contain either. For example, the communication device may include at least one of a wired communication device or a wireless communication device, and the wireless communication device may include at least one of a short-range communication device and a long-distance communication device.
메모리(130)는 대화형 에이전트 장치(100)의 구성 요소에 의해 사용되는 데이터를 저장할 수 있다. 데이터는 프로그램 또는 이와 관련된 명령에 대한 입력 데이터 또는 출력 데이터를 포함할 수 있다. 예를 들면, 메모리(130)는 휘발성 메모리 또는 비휘발성 메모리 중 적어도 어느 하나를 포함할 수 있다. 다양한 실시예들에 따르면, 메모리(130)는 사용자와 대화 모드를 실행하기 위한 프로그램을 저장할 수 있으며, 대화 모드와 관련된 다양한 페르소나들을 저장할 수 있다. The memory 130 may store data used by components of the interactive agent device 100. The data may include input data or output data for a program or a command related thereto. For example, the memory 130 may include at least one of a volatile memory or a nonvolatile memory. According to various embodiments, the memory 130 may store a program for executing an interactive mode with a user, and may store various personas related to the interactive mode.
프로세서(140)는 메모리(130)의 프로그램을 실행하여, 대화형 에이전트 장치(100)의 구성 요소를 제어할 수 있고, 데이터 처리 또는 연산을 수행할 수 있다. 다양한 실시예들에 따르면, 프로세서(140)는 인공 신경망 구조를 사용하여, 사용자와 대화 모드를 실행할 수 있다. 예를 들면, 프로세서(140)는 페르소나들 중 어느 하나를 설정하고, 설정된 페르소나를 기반으로 사용자와 감성적 대화 모드를 실행할 수 있다. 이를 위해, 프로세서(140)는 사용자의 페르소나를 파악하고, 페르소나들로부터 사용자의 페르소나에 대응하는 어느 하나를 선택할 수 있다. 프로세서(140)는 입력 모듈(110)을 통하여 입력되는 사용자의 발화 데이터에 기반하여, 사용자의 페르소나를 파악할 수 있다. 예를 들면, 감성적 대화 모드는 사용자의 심리 상담을 위한 대화 모드를 포함할 수 있다. 프로세서(140)는 사용자의 심리 상담을 위한 페르소나를 기반으로, 사용자와 감성적 대화 모드를 실행할 수 있다. 프로세서(140)는 사용자와 감성적 대화 모드를 실행하는 중에, 입력 모듈(110)을 통하여 입력되는 사용자의 발화 데이터에 기반하여, 사용자의 감정 상태 변화를 추적할 수 있다. 프로세서(140)는 사용자와 대화 모드를 실행하는 중에, 사용자의 감정 상태 변화에 대한 영향력을 평가할 수 있다. 이를 통해, 프로세서(140)는, 사용자의 감정 상태를 긍정적인 방향으로 유도하면서, 사용자와 대화 모드를 진행할 수 있다. The processor 140 may execute a program in the memory 130 to control components of the interactive agent device 100 and perform data processing or calculation. According to various embodiments, the processor 140 may execute a conversation mode with a user using an artificial neural network structure. For example, the processor 140 may set any one of the personas and execute an emotional conversation mode with the user based on the set persona. To this end, the processor 140 may identify the user's persona and select one corresponding to the user's persona from the personas. The processor 140 may determine the persona of the user based on the user's speech data input through the input module 110. For example, the emotional conversation mode may include a conversation mode for psychological counseling of a user. The processor 140 may execute an emotional conversation mode with the user based on a persona for psychological counseling of the user. The processor 140 may track a change in the user's emotional state based on the user's speech data input through the input module 110 while executing the emotional conversation mode with the user. The processor 140 may evaluate the influence of the user's emotional state change while executing the conversation mode with the user. Through this, the processor 140 may proceed in a conversation mode with the user while inducing the user's emotional state in a positive direction.
다양한 실시예들에 따른 대화형 에이전트 장치(100)는, 입력 모듈(110), 및 입력 모듈(110)과 연결되며, 사용자와 감성적 대화 모드를 수행하도록 구성되는 프로세서(140)를 포함할 수 있다. The interactive agent device 100 according to various embodiments may include an input module 110 and a processor 140 connected to the input module 110 and configured to perform an emotional conversation mode with a user. .
다양한 실시예들에 따르면, 프로세서(140)는, 사용자의 페르소나를 파악하고, 파악된 페르소나에 대응하는 페르소나를 설정하고, 설정된 페르소나를 기반으로, 사용자와 감성적 대화 모드를 실행하도록 구성될 수 있다. According to various embodiments, the processor 140 may be configured to recognize a persona of a user, set a persona corresponding to the identified persona, and execute an emotional conversation mode with the user based on the set persona.
다양한 실시예들에 따르면, 프로세서(140)는, 사용자의 발화 데이터를 분석하여, 사용자의 발화 의도, 사용자의 감정 상태 또는 사용자와 관련된 특성 정보 중 적어도 어느 하나를 확인하고, 발화 의도, 감정 상태 또는 특성 정보 중 적어도 어느 하나에 기반하여, 페르소나를 파악하도록 구성될 수 있다. According to various embodiments, the processor 140 analyzes the user's utterance data to determine at least one of the user's utterance intention, the user's emotional state, or characteristic information related to the user, and Based on at least one of the characteristic information, it may be configured to identify a persona.
다양한 실시예들에 따르면, 프로세서(140)는, 감성적 대화 모드를 실행하는 중에, 사용자의 발화 데이터에 기반하여, 사용자의 감정 상태의 변화를 추적하도록 구성될 수 있다. According to various embodiments, the processor 140 may be configured to track a change in the user's emotional state based on the user's speech data while executing the emotional conversation mode.
다양한 실시예들에 따르면, 프로세서(140)는, 감성적 대화 모드를 실행하는 중에, 감정 상태의 변화에 대한 영향력을 평가하도록 구성될 수 있다. According to various embodiments, the processor 140 may be configured to evaluate an influence on a change in an emotional state while executing the emotional conversation mode.
다양한 실시예들에 따르면, 프로세서(140)는, 감성적 대화 모드를 실행하는 중에, 사용자의 발화 데이터로부터 발화 컨텍스트를 획득하고, 발화 컨텍스트에 대응하는 응답 데이터를 출력하도록 구성될 수 있다. According to various embodiments, the processor 140 may be configured to obtain a speech context from speech data of a user and output response data corresponding to the speech context while executing the emotional conversation mode.
다양한 실시예들에 따르면, 프로세서(140)는, 발화 컨텍스트 및 영향력을 기반으로, 응답 데이터를 출력하도록 구성될 수 있다. According to various embodiments, the processor 140 may be configured to output response data based on the speech context and influence.
다양한 실시예들에 따르면, 감성적 대화 모드는 심리 상담을 위한 대화 모드를 포함할 수 있다. According to various embodiments, the emotional conversation mode may include a conversation mode for psychological counseling.
다양한 실시예들에 따르면, 특성 정보는 사용자의 연령 또는 성별 중 적어도 어느 하나를 포함할 수 있다. According to various embodiments, the characteristic information may include at least one of the user's age or gender.
도 2는 다양한 실시예들에 따른 대화형 에이전트 장치(100)의 동작 방법을 도시하는 도면이다. 2 is a diagram illustrating a method of operating an interactive agent device 100 according to various embodiments.
도 2를 참조하면, 대화형 에이전트 장치(100)는 210 동작에서 입력 데이터를 검출할 수 있다. 프로세서(140)는 입력 모듈(110)을 통하여 사용자의 입력 데이터를 검출할 수 있다. 일 실시예에 따르면, 프로세서(140)는 입력 장치를 통하여 직접적으로 입력 데이터를 검출할 수 있다. 다른 실시예에 따르면, 프로세서(140)는 통신 장치를 통하여 외부 전자 장치로부터 수신되는 입력 데이터를 검출할 수 있다. 예를 들면, 입력 데이터는 사용자의 발화 데이터를 포함할 수 있다. Referring to FIG. 2, the interactive agent device 100 may detect input data in operation 210. The processor 140 may detect user input data through the input module 110. According to an embodiment, the processor 140 may directly detect input data through an input device. According to another embodiment, the processor 140 may detect input data received from an external electronic device through a communication device. For example, the input data may include user's speech data.
대화형 에이전트 장치(100)는 220 동작에서 사용자의 페르소나를 파악할 수 있다. 프로세서(140)는 사용자의 입력 데이터에 기반하여, 사용자의 페르소나를 파악할 수 있다. 프로세서(140)는 입력 데이터를 분석하여, 사용자의 음성, 영상 또는 텍스트 중 적어도 어느 하나와 관련된 적어도 하나의 특징점을 추출할 수 있다. 이를 통해, 프로세서(140)는 입력 데이터의 특징점에 기반하여, 사용자의 의도, 사용자의 감정 상태 또는 사용자와 관련된 특성 정보 중 적어도 어느 하나를 확인할 수 있다. 일 예로, 프로세서(140)는 텍스트의 문장 분류(sentence classification)를 수행하여, 사용자의 의도를 확인할 수 있다. 예를 들면, 특성 정보는 사용자의 연령 또는 성별 중 적어도 어느 하나를 포함할 수 있다. 이를 통해, 프로세서(140)는 사용자의 의도, 사용자의 감정 상태 또는 사용자와 관련된 특성 정보 중 적어도 어느 하나에 기반하여, 사용자의 페르소나를 파악할 수 있다. The interactive agent device 100 may determine the persona of the user in operation 220. The processor 140 may determine the user's persona based on the user's input data. The processor 140 may analyze the input data and extract at least one feature point related to at least one of a user's voice, video, or text. Through this, the processor 140 may check at least one of a user's intention, a user's emotional state, or characteristic information related to the user based on the feature point of the input data. For example, the processor 140 may check the user's intention by performing sentence classification of text. For example, the characteristic information may include at least one of the user's age or gender. Through this, the processor 140 may determine the persona of the user based on at least one of the user's intention, the user's emotional state, or characteristic information related to the user.
일 실시예에 따르면, 대화형 에이전트 장치(100)는 사용자와 임의의 대화 모드를 실행하면서, 사용자의 입력 데이터를 검출할 수 있다. 이 때 대화형 에이전트 장치(100)도 다양한 페르소나들 중 미리 설정된 페르소나를 기반으로, 사용자와 감성적 대화 모드를 실행하고 있을 수 있다. 대화형 에이전트 장치(100)는 사용자와 감성적 대화 모드를 실행하는 중에, sentence embedding 기법을 사용할 수 있다. 예를 들면, sentence embedding 기법은 self-attentive sentence embedding 기법을 포함할 수 있다. 그리고 대화형 에이전트 장치(100)는 입력 데이터를 기반으로 dialog embedding을 통해, 사용자의 페르소나를 파악할 수 있다. 여기서, 대화형 에이전트 장치(100)는 입력 데이터와 관련하여 미리 정해진 페르소나 레이블이 존재하면, 해당 페르소나에 가중치를 부여할 수 있다. According to an embodiment, the interactive agent device 100 may detect user input data while executing an arbitrary chat mode with the user. In this case, the interactive agent device 100 may also be executing an emotional conversation mode with a user based on a preset persona among various personas. The interactive agent device 100 may use the sentence embedding technique while executing the emotional conversation mode with the user. For example, the sentence embedding technique may include a self-attentive sentence embedding technique. In addition, the interactive agent device 100 may recognize a persona of a user through dialog embedding based on input data. Here, if there is a persona label predetermined in relation to the input data, the interactive agent device 100 may assign a weight to the persona.
대화형 에이전트 장치(100)는 230 동작에서 사용자의 페르소나에 대응하는 페르소나를 설정할 수 있다. 이 때 프로세서(140)는 다양한 페르소나들 중 사용자의 페르소나에 대응하는 어느 하나를 선택하여, 이를 설정할 수 있다. 즉 프로세서(140)는 다양한 페르소나들로부터 사용자에 적합한 페르소나를 선택하여, 설정할 수 있다. 일 실시예에 따르면, 프로세서(140)는 심리 상담을 위한 페르소나를 선택할 수 있다. The interactive agent device 100 may set a persona corresponding to the persona of the user in operation 230. In this case, the processor 140 may select one of various personas corresponding to the persona of the user and set it. That is, the processor 140 may select and set a persona suitable for a user from various personas. According to an embodiment, the processor 140 may select a persona for psychological counseling.
대화형 에이전트 장치(100)는 240 동작에서 설정된 페르소나에 기반하여, 사용자와 감성적 대화 모드를 실행할 수 있다. 이를 위해, 프로세서(140)는 사용자와 감성적 대화 모드를 위한 그래픽 유저 인터페이스(graphic user interface; GUI)를 제공할 수 있다. 이 때 메모리(130)가 실제 상담 전문의들로부터 수집된 대화 데이터를 저장하고 있을 수 있다. 이를 통해, 프로세서(140)가 대화 데이터를 이용하여, 사용자와 감성적 대화 모드를 실행할 수 있다. 일 실시예에 따르면, 감성적 대화 모드는 심리 상담을 위한 대화 모드를 포함할 수 있다. 여기서, 프로세서(140)는 입력 모듈(110)을 통하여 입력되는 입력 데이터에 대응하여, 출력 모듈(120)을 통하여 대화 데이터를 기반으로 하는 응답 데이터를 출력할 수 있다. 입력 데이터는 사용자의 발화 데이터를 포함할 수 있다. 예를 들면, 프로세서(140)는 오디오 출력 장치, 표시 장치 또는 통신 장치 중 적어도 어느 하나를 통하여 응답 데이터를 출력할 수 있다. 그리고, 프로세서(140)는 입력 데이터와 응답 데이터를 계층적으로 연관시켜, 대화 기록으로서 메모리(130)에 저장하고, 이를 이용하여 감성적 대화 모드를 진행할 수 있다. 이를 통해, 프로세서(140)는 맥락 이해 기반으로 감성적 대화 모드를 진행할 수 있다. 이 때 프로세서(140)는, 사용자의 감정 상태를 긍정적인 방향으로 유도하면서, 사용자와 감성적 대화 모드를 진행할 수 있다. The interactive agent device 100 may execute an emotional conversation mode with a user based on the persona set in operation 240. To this end, the processor 140 may provide a graphic user interface (GUI) for an emotional conversation mode with a user. At this time, the memory 130 may store conversation data collected from actual counseling specialists. Through this, the processor 140 may execute an emotional conversation mode with the user by using the conversation data. According to an embodiment, the emotional conversation mode may include a conversation mode for psychological counseling. Here, the processor 140 may output response data based on conversation data through the output module 120 in response to input data input through the input module 110. The input data may include user's speech data. For example, the processor 140 may output response data through at least one of an audio output device, a display device, and a communication device. In addition, the processor 140 may hierarchically associate the input data and the response data, store it in the memory 130 as a conversation record, and use this to perform an emotional conversation mode. Through this, the processor 140 may proceed with the emotional conversation mode based on context understanding. In this case, the processor 140 may perform an emotional conversation mode with the user while inducing the user's emotional state in a positive direction.
도 3은 도 2의 감성적 대화 모드 실행 동작을 도시하는 도면이다. FIG. 3 is a diagram illustrating an operation of executing the emotional conversation mode of FIG. 2.
도 3을 참조하면, 대화형 에이전트 장치(100)는 310 동작에서 발화 데이터를 검출할 수 있다. 사용자와 감성적 대화 모드를 실행하는 중에, 프로세서(140)가 입력 모듈(110)을 통하여 입력되는 발화 데이터를 검출할 수 있다. 일 실시예에 따르면, 프로세서(140)는 마이크로폰을 통하여 직접적으로 입력되는 발화 데이터를 검출할 수 있다. 다른 실시예에 따르면, 프로세서(140)는 통신 장치를 통하여 외부 전자 장치로부터 수신되는 발화 데이터를 검출할 수 있다. Referring to FIG. 3, the interactive agent device 100 may detect speech data in operation 310. While executing the emotional conversation mode with the user, the processor 140 may detect speech data input through the input module 110. According to an embodiment, the processor 140 may detect speech data directly input through a microphone. According to another embodiment, the processor 140 may detect speech data received from an external electronic device through a communication device.
대화형 에이전트 장치(100)는 320 동작에서 발화 데이터를 분석할 수 있다. 프로세서(140)는 발화 데이터를 분석하여, 사용자의 음성 또는 텍스트 중 적어도 어느 하나와 관련된 적어도 하나의 특징점을 추출할 수 있다. 프로세서(140)는 발화 데이터로부터 발화 컨텍스트를 획득할 수 있다. 예를 들면, 프로세서(140)는 발화 데이터의 텍스트 또는 텍스트와 관련된 특징점에 기반하여, 발화 컨텍스트를 획득할 수 있다. 일 예로, 프로세서(140)는 텍스트 데이터의 문장 분류(sentence classification)를 수행하여, 발화 컨텍스트를 획득할 수 있다. 그리고 프로세서(140)는 발화 데이터로부터 사용자의 감정 상태를 인식할 수 있다. 예를 들면, 프로세서(140)는 사용자의 음성 또는 텍스트 중 적어도 어느 하나와 관련된 특징점에 기반하여, 사용자의 감정 상태를 인식할 수 있다. The interactive agent device 100 may analyze the speech data in operation 320. The processor 140 may analyze the speech data and extract at least one feature point related to at least one of a user's voice or text. The processor 140 may acquire a speech context from speech data. For example, the processor 140 may acquire a speech context based on text of speech data or a feature point related to the text. For example, the processor 140 may obtain a speech context by performing sentence classification of text data. In addition, the processor 140 may recognize the user's emotional state from the speech data. For example, the processor 140 may recognize the user's emotional state based on a feature point related to at least one of the user's voice or text.
대화형 에이전트 장치(100)는 330 동작에서 발화 데이터에 대응하여 응답 데이터를 출력할 수 있다. 프로세서(140)는 발화 컨텍스트에 대응하는 응답 데이터를 출력할 수 있다. 이 때 메모리(130)가 실제 상담 전문의들로부터 수집된 대화 데이터를 저장하고 있을 수 있다. 이를 통해, 프로세서(140)가 대화 데이터로부터, 발화 컨텍스트에 대응하는 응답 데이터를 결정할 수 있다. 여기서, 프로세서(140)는 메모리(130)에 저장된 이전의 대화 기록에 기반하여, 응답 데이터를 결정할 수 있다. 그리고 프로세서(140)는 출력 모듈(120)을 통하여 응답 데이터를 출력할 수 있다. The interactive agent device 100 may output response data in response to the speech data in operation 330. The processor 140 may output response data corresponding to the speech context. At this time, the memory 130 may store conversation data collected from actual counseling specialists. Through this, the processor 140 may determine response data corresponding to the speech context from the conversation data. Here, the processor 140 may determine response data based on a previous conversation record stored in the memory 130. In addition, the processor 140 may output response data through the output module 120.
330 동작에서 응답 데이터를 출력한 후에, 대화형 에이전트 장치(100)는 340 동작에서 발화 데이터를 검출할 수 있다. 사용자와 감성적 대화 모드를 실행하는 중에, 프로세서(140)가 입력 모듈(110)을 통하여 입력되는 발화 데이터를 검출할 수 있다. 일 실시예에 따르면, 프로세서(140)는 마이크로폰을 통하여 직접적으로 입력되는 발화 데이터를 검출할 수 있다. 다른 실시예에 따르면, 프로세서(140)는 통신 장치를 통하여 외부 전자 장치로부터 수신되는 발화 데이터를 검출할 수 있다. After outputting the response data in operation 330, the interactive agent device 100 may detect the speech data in operation 340. While executing the emotional conversation mode with the user, the processor 140 may detect speech data input through the input module 110. According to an embodiment, the processor 140 may detect speech data directly input through a microphone. According to another embodiment, the processor 140 may detect speech data received from an external electronic device through a communication device.
대화형 에이전트 장치(100)는 350 동작에서 발화 데이터를 분석할 수 있다. 프로세서(140)는 발화 데이터를 분석하여, 사용자의 음성 또는 텍스트 중 적어도 어느 하나와 관련된 적어도 하나의 특징점을 추출할 수 있다. 프로세서(140)는 발화 데이터로부터 발화 컨텍스트를 획득할 수 있다. 예를 들면, 프로세서(140)는 발화 데이터의 텍스트 또는 텍스트와 관련된 특징점에 기반하여, 발화 컨텍스트를 획득할 수 있다. 일 예로, 프로세서(140)는 텍스트 데이터의 문장 분류(sentence classification)를 수행하여, 발화 컨텍스트를 획득할 수 있다. 그리고 프로세서(140)는 발화 데이터로부터 사용자의 감정 상태를 인식할 수 있다. 예를 들면, 프로세서(140)는 사용자의 음성 또는 텍스트 중 적어도 어느 하나와 관련된 특징점에 기반하여, 사용자의 감정 상태를 인식할 수 있다. 이를 통해, 대화형 에이전트 장치(100)는 사용자의 감정 상태 변화를 추적할 수 있다. 프로세서(140)는 이전에 인식된 감정 상태로부터 현재 인식된 감정 상태로의 변화를 확인할 수 있다. 이 때 프로세서(140)는, 사용자의 감정 상태 변화가 긍정적인 방향으로 진행되고 있는 지의 여부를 확인할 수 있다. The interactive agent device 100 may analyze speech data in operation 350. The processor 140 may analyze the speech data and extract at least one feature point related to at least one of a user's voice or text. The processor 140 may acquire a speech context from speech data. For example, the processor 140 may acquire a speech context based on text of speech data or a feature point related to the text. For example, the processor 140 may obtain a speech context by performing sentence classification of text data. In addition, the processor 140 may recognize the user's emotional state from the speech data. For example, the processor 140 may recognize the user's emotional state based on a feature point related to at least one of the user's voice or text. Through this, the interactive agent device 100 may track changes in the user's emotional state. The processor 140 may check a change from a previously recognized emotional state to a currently recognized emotional state. At this time, the processor 140 may check whether or not the user's emotional state change is proceeding in a positive direction.
대화형 에이전트 장치(100)는 360 동작에서 사용자의 감정 상태 변화에 대한 영향력을 평가할 수 있다. 일 실시예에 따르면, 프로세서(140)는 심리 상담에 대한 영향력을 평가할 수 있다. 이 때 프로세서(140)는 사용자의 감정 상태 변화를 330 동작에서 출력된 응답 데이터에 따른 것으로 결정하고, 사용자의 감정 상태 변화에 대한 영향력을 응답 데이터에 따른 영향력으로 평가할 수 있다. 이를 통해, 프로세서(140)는 영향력을 기반으로, 페르소나의 적합도를 평가할 수 있다. 이 때 프로세서(140)는 330 동작에서 출력된 응답 데이터에 대한 적합도를 평가할 수 있다. The interactive agent device 100 may evaluate the influence of the user's emotional state change in operation 360. According to an embodiment, the processor 140 may evaluate the influence on psychological counseling. In this case, the processor 140 may determine that the change in the user's emotional state is based on the response data output in operation 330, and may evaluate the influence of the user's emotional state change as the influence according to the response data. Through this, the processor 140 may evaluate the suitability of the persona based on the influence. In this case, the processor 140 may evaluate the suitability of the response data output in operation 330.
370 동작에서 감성적 대화 모드가 종료되지 않으면, 대화형 에이전트 장치(100)는 330 동작으로 복귀할 수 있다. 이 때 프로세서(140)는 330 동작에서 발화 데이터에 대응하여 응답 데이터를 출력할 수 있다. 프로세서(140)는 발화 데이터의 발화 컨텍스트에 대응하는 응답 데이터를 출력할 수 있다. 이 때 프로세서(140)가 대화 데이터로부터, 발화 컨텍스트에 대응하는 응답 데이터를 결정할 수 있다. 프로세서(140)는 사용자의 감정 상태 변화가 긍정적인 방향으로 유도할 수 있도록, 응답 데이터를 결정할 수 있다. 여기서, 프로세서(140)는 이전에 출력된 응답 데이터에 대한 적합도를 고려하여, 응답 데이터를 결정할 수 있다. 그리고 프로세서(140)는 출력 모듈(120)을 통하여 응답 데이터를 출력할 수 있다. 이 후 대화형 에이전트(100)는 370 동작에서 감성적 대화 모드가 종료될 때까지, 330 동작 내지 370 동작을 반복하여 수행할 수 있다. 일 실시예에 따르면, 프로세서(140)는 우울 영역 및 심각도 판단 -> 우울 촉발 자극 탐색 -> 대처전력 탐색 및 구축 -> 치료적 기법 활용 및 정보/조언 제공 -> 내담자 격려로 이어지는 실제 상담 전문의들의 심리 상담 프로세스를 따라, 심리 상담을 위한 대화 모드를 진행할 수 있다. If the emotional conversation mode is not terminated in operation 370, the interactive agent device 100 may return to operation 330. In this case, the processor 140 may output response data in response to the speech data in operation 330. The processor 140 may output response data corresponding to the speech context of the speech data. In this case, the processor 140 may determine response data corresponding to the speech context from the conversation data. The processor 140 may determine response data to induce a change in the user's emotional state in a positive direction. Here, the processor 140 may determine the response data in consideration of the suitability for the previously output response data. In addition, the processor 140 may output response data through the output module 120. Thereafter, the interactive agent 100 may repeatedly perform operations 330 to 370 until the emotional conversation mode ends in operation 370. According to an embodiment, the processor 140 determines the depressive region and severity -> searches for a stimulus triggering depression -> seeks and builds coping power -> uses therapeutic techniques and provides information/advice -> Following the psychological counseling process, a dialogue mode for psychological counseling can be performed.
한편, 370 동작에서 감성적 대화 모드를 종료하기 위한 이벤트가 감지되면, 대화형 에이전트 장치(100)는 감성적 대화 모드를 종료할 수 있다. 예를 들면, 입력 모듈(110)을 통하여 감성적 대화 모드를 종료하기 위한 요청이 수신되면, 프로세서(140)가 감성적 대화 모드를 종료할 수 있다. Meanwhile, when an event for terminating the emotional conversation mode is detected in operation 370, the interactive agent device 100 may terminate the emotional conversation mode. For example, when a request for terminating the emotional conversation mode is received through the input module 110, the processor 140 may terminate the emotional conversation mode.
다양한 실시예들에 따른 대화형 에이전트 장치(100)의 동작 방법은, 사용자의 페르소나를 파악하는 동작, 파악된 페르소나에 대응하는 페르소나를 설정하는 동작, 및 설정된 페르소나를 기반으로, 사용자와 감성적 대화 모드를 실행하는 동작을 포함할 수 있다. The operation method of the interactive agent device 100 according to various embodiments includes an operation of identifying a persona of a user, an operation of setting a persona corresponding to the identified persona, and an emotional conversation mode with a user based on the set persona. It may include an operation to execute.
다양한 실시예들에 따르면, 페르소나를 파악하는 동작은, 사용자의 발화 데이터를 분석하여, 사용자의 발화 의도, 사용자의 감정 상태 또는 사용자와 관련된 특성 정보 중 적어도 어느 하나를 확인하는 동작, 및 발화 의도, 감정 상태 또는 특성 정보 중 적어도 어느 하나에 기반하여, 페르소나를 파악하는 동작을 포함할 수 있다. According to various embodiments, the operation of identifying a persona includes an operation of analyzing user's speech data to confirm at least one of the user's speech intention, the user's emotional state, or characteristic information related to the user, Based on at least one of emotional state or characteristic information, it may include an operation of identifying a persona.
다양한 실시예들에 따르면, 감성적 대화 모드를 실행하는 동작은, 사용자의 발화 데이터에 기반하여, 사용자의 감정 상태의 변화를 추적하는 동작을 포함할 수 있다. According to various embodiments, the operation of executing the emotional conversation mode may include an operation of tracking a change in the user's emotional state based on the user's speech data.
다양한 실시예들에 따르면, 감성적 대화 모드를 실행하는 동작은, 감정 상태의 변화에 대한 영향력을 평가하는 동작을 더 포함할 수 있다. According to various embodiments, the operation of executing the emotional conversation mode may further include an operation of evaluating an influence on a change in an emotional state.
다양한 실시예들에 따르면, 감성적 대화 모드를 실행하는 동작은, 발화 데이터로부터 발화 컨텍스트를 획득하는 동작, 및 발화 컨텍스트 에 대응하는 응답 데이터를 출력하는 동작을 포함할 수 있다. According to various embodiments, the operation of executing the emotional conversation mode may include an operation of obtaining a speech context from speech data and an operation of outputting response data corresponding to the speech context.
다양한 실시예들에 따르면, 응답 데이터 출력 동작은, 발화 컨텍스트 및 영향력을 기반으로, 응답 데이터를 출력하는 동작을 포함할 수 있다. According to various embodiments, the operation of outputting response data may include an operation of outputting response data based on a speech context and an influence.
다양한 실시예들에 따르면, 감성적 대화 모드는 심리 상담을 위한 대화 모드를 포함할 수 있다. According to various embodiments, the emotional conversation mode may include a conversation mode for psychological counseling.
다양한 실시예들에 따르면, 특성 정보는 사용자의 연령 또는 성별 중 적어도 어느 하나를 포함할 수 있다. According to various embodiments, the characteristic information may include at least one of the user's age or gender.
다양한 실시예들에 따르면, 대화형 에이전트 장치(100)가 다양한 페르소나들 중 사용자의 페르소나에 대응하는 페르소나에 기반하여, 사용자와 감성적 대화 모드를 실행할 수 있다. 즉 대화형 에이전트 장치(100)는 다양한 페르소나들로부터 사용자에 적합한 페르소나를 선택할 수 있다. 이 때 대화형 에이전트 장치(100)는 사용자의 발화 데이터로부터 사용자의 감정 상태를 인식할 수 있기 때문에, 사용자와 감성적 대화 모드를 실행할 수 있다. 아울러, 대화형 에이전트 장치(100)는 사용자의 감정 상태를 긍정적인 방향으로 유도하면서 대화 모드를 실행할 수 있다. 즉 대화형 에이전트 장치(100)는 사용자에 개인화된 감성적 대화 모드를 실행함으로써, 사용자의 감정 상태를 긍정적인 방향으로 유도할 수 있다. According to various embodiments, the interactive agent device 100 may execute an emotional conversation mode with a user based on a persona corresponding to a persona of the user among various personas. That is, the interactive agent device 100 may select a persona suitable for a user from various personas. At this time, since the interactive agent device 100 can recognize the user's emotional state from the user's speech data, it is possible to execute an emotional conversation mode with the user. In addition, the interactive agent device 100 may execute the conversation mode while inducing the user's emotional state in a positive direction. That is, the interactive agent device 100 may induce a user's emotional state in a positive direction by executing an emotional conversation mode personalized to the user.
본 문서의 다양한 실시예들 및 이에 사용된 용어들은 본 문서에 기재된 기술을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 해당 실시 예의 다양한 변경, 균등물, 및/또는 대체물을 포함하는 것으로 이해되어야 한다. 도면의 설명과 관련하여, 유사한 구성요소에 대해서는 유사한 참조 부호가 사용될 수 있다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함할 수 있다. 본 문서에서, "A 또는 B", "A 및/또는 B 중 적어도 하나", "A, B 또는 C" 또는 "A, B 및/또는 C 중 적어도 하나" 등의 표현은 함께 나열된 항목들의 모든 가능한 조합을 포함할 수 있다. "제 1", "제 2", "첫째" 또는 "둘째" 등의 표현들은 해당 구성요소들을, 순서 또는 중요도에 상관없이 수식할 수 있고, 한 구성요소를 다른 구성요소와 구분하기 위해 사용될 뿐 해당 구성요소들을 한정하지 않는다. 어떤(예: 제 1) 구성요소가 다른(예: 제 2) 구성요소에 "(기능적으로 또는 통신적으로) 연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 상기 어떤 구성요소가 상기 다른 구성요소에 직접적으로 연결되거나, 다른 구성요소(예: 제 3 구성요소)를 통하여 연결될 수 있다.Various embodiments of the present document and terms used therein are not intended to limit the technology described in this document to a specific embodiment, and should be understood to include various modifications, equivalents, and/or substitutes of the corresponding embodiment. In connection with the description of the drawings, similar reference numerals may be used for similar elements. Singular expressions may include plural expressions unless the context clearly indicates otherwise. In this document, expressions such as "A or B", "at least one of A and/or B", "A, B or C" or "at least one of A, B and/or C" are all of the items listed together. It can include possible combinations. Expressions such as "first", "second", "first" or "second" can modify the corresponding elements regardless of their order or importance, and are only used to distinguish one element from another. The components are not limited. When it is mentioned that a certain (eg, first) component is “(functionally or communicatively) connected” or “connected” to another (eg, second) component, the certain component is It may be directly connected to the component, or may be connected through another component (eg, a third component).
본 문서에서 사용된 용어 "모듈"은 하드웨어, 소프트웨어 또는 펌웨어로 구성된 유닛을 포함하며, 예를 들면, 로직, 논리 블록, 부품, 또는 회로 등의 용어와 상호 호환적으로 사용될 수 있다. 모듈은, 일체로 구성된 부품 또는 하나 또는 그 이상의 기능을 수행하는 최소 단위 또는 그 일부가 될 수 있다. 예를 들면, 모듈은 ASIC(application-specific integrated circuit)으로 구성될 수 있다. The term "module" used in this document includes a unit composed of hardware, software, or firmware, and may be used interchangeably with terms such as, for example, logic, logic blocks, parts, or circuits. A module may be an integrally configured component or a minimum unit or a part of one or more functions. For example, the module may be configured as an application-specific integrated circuit (ASIC).
본 문서의 다양한 실시예들은 기기(machine)(예: 대화형 에이전트 장치(100))에 의해 읽을 수 있는 저장 매체(storage medium)(예: 메모리(130))에 저장된 하나 이상의 명령어들을 포함하는 소프트웨어로서 구현될 수 있다. 예를 들면, 기기의 프로세서(예: 프로세서(140))는, 저장 매체로부터 저장된 하나 이상의 명령어들 중 적어도 하나의 명령을 호출하고, 그것을 실행할 수 있다. 이것은 기기가 호출된 적어도 하나의 명령어에 따라 적어도 하나의 기능을 수행하도록 운영되는 것을 가능하게 한다. 하나 이상의 명령어들은 컴파일러에 의해 생성된 코드 또는 인터프리터에 의해 실행될 수 있는 코드를 포함할 수 있다. 기기로 읽을 수 있는 저장매체 는, 비일시적(non-transitory) 저장매체의 형태로 제공될 수 있다. 여기서, ‘비일시적’은 저장매체가 실재(tangible)하는 장치이고, 신호(signal)(예: 전자기파)를 포함하지 않는다는 것을 의미할 뿐이며, 이 용어는 데이터가 저장매체에 반영구적으로 저장되는 경우와 임시적으로 저장되는 경우를 구분하지 않는다.Various embodiments of the present document are software including one or more instructions stored in a storage medium (eg, memory 130) readable by a machine (eg, interactive agent device 100). Can be implemented as For example, the processor of the device (for example, the processor 140) may call at least one instruction from among one or more instructions stored from a storage medium and execute it. This enables the device to be operated to perform at least one function according to the at least one command invoked. The one or more instructions may include code generated by a compiler or code that can be executed by an interpreter. A storage medium that can be read by a device may be provided in the form of a non-transitory storage medium. Here,'non-transient' only means that the storage medium is a tangible device and does not contain a signal (e.g., electromagnetic wave), and this term refers to the case where data is semi-permanently stored in the storage medium. It does not distinguish between temporary storage cases.
다양한 실시예들에 따르면, 기술한 구성요소들의 각각의 구성요소(예: 모듈 또는 프로그램)는 단수 또는 복수의 개체를 포함할 수 있다. 다양한 실시예들에 따르면, 전술한 해당 구성요소들 중 하나 이상의 구성요소들 또는 동작들이 생략되거나, 또는 하나 이상의 다른 구성요소들 또는 동작들이 추가될 수 있다. 대체적으로 또는 추가적으로, 복수의 구성요소들(예: 모듈 또는 프로그램)은 하나의 구성요소로 통합될 수 있다. 이런 경우, 통합된 구성요소는 복수의 구성요소들 각각의 구성요소의 하나 이상의 기능들을 통합 이전에 복수의 구성요소들 중 해당 구성요소에 의해 수행되는 것과 동일 또는 유사하게 수행할 수 있다. 다양한 실시예들에 따르면, 모듈, 프로그램 또는 다른 구성요소에 의해 수행되는 동작들은 순차적으로, 병렬적으로, 반복적으로, 또는 휴리스틱하게 실행되거나, 동작들 중 하나 이상이 다른 순서로 실행되거나, 생략되거나, 또는 하나 이상의 다른 동작들이 추가될 수 있다. According to various embodiments, each component (eg, a module or program) of the described components may include a singular number or a plurality of entities. According to various embodiments, one or more components or operations among the above-described corresponding components may be omitted, or one or more other components or operations may be added. Alternatively or additionally, a plurality of components (eg, a module or a program) may be integrated into one component. In this case, the integrated component may perform one or more functions of each component of the plurality of components in the same or similar to that performed by the corresponding component among the plurality of components prior to integration. According to various embodiments, operations performed by a module, program, or other component may be sequentially, parallel, repeatedly, or heuristically executed, or one or more of the operations may be executed in a different order, or omitted. , Or one or more other actions may be added.

Claims (14)

  1. 대화형 에이전트 장치의 동작 방법에 있어서, In the method of operating an interactive agent device,
    사용자의 페르소나를 파악하는 동작;Identifying the persona of the user;
    상기 파악된 페르소나에 대응하는 페르소나를 설정하는 동작; 및 Setting a persona corresponding to the identified persona; And
    상기 설정된 페르소나를 기반으로, 상기 사용자와 감성적 대화 모드를 실행하는 동작을 포함하는 방법. And executing an emotional conversation mode with the user based on the set persona.
  2. 제 1 항에 있어서, 상기 페르소나를 파악하는 동작은, The method of claim 1, wherein the determining of the persona comprises:
    상기 사용자의 발화 데이터를 분석하여, 상기 사용자의 발화 의도, 상기 사용자의 감정 상태 또는 상기 사용자와 관련된 특성 정보 중 적어도 어느 하나를 확인하는 동작; 및Analyzing the user's speech data to confirm at least one of the user's speech intention, the user's emotional state, and characteristic information related to the user; And
    상기 발화 의도, 감정 상태 또는 특성 정보 중 적어도 어느 하나에 기반하여, 상기 페르소나를 파악하는 동작을 포함하는 방법. And identifying the persona based on at least one of the speech intention, emotional state, or characteristic information.
  3. 제 1 항에 있어서, 상기 감성적 대화 모드를 실행하는 동작은, The method of claim 1, wherein the operation of executing the emotional conversation mode comprises:
    상기 사용자의 발화 데이터에 기반하여, 상기 사용자의 감정 상태의 변화를 추적하는 동작을 포함하는 방법. And tracking a change in the user's emotional state based on the user's speech data.
  4. 제 3 항에 있어서, 상기 감성적 대화 모드를 실행하는 동작은,The method of claim 3, wherein the operation of executing the emotional conversation mode comprises:
    상기 감정 상태의 변화에 대한 영향력을 평가하는 동작을 더 포함하는 방법. The method further comprising evaluating an influence on the change in the emotional state.
  5. 제 4 항에 있어서, 상기 감성적 대화 모드를 실행하는 동작은,The method of claim 4, wherein the operation of executing the emotional conversation mode comprises:
    상기 발화 데이터로부터 발화 컨텍스트를 획득하는 동작; 및Obtaining a speech context from the speech data; And
    상기 발화 컨텍스트 또는 상기 영향력 중 적어도 어느 하나를 기반으로, 응답 데이터를 출력하는 동작을 포함하는 방법. And outputting response data based on at least one of the speech context or the influence.
  6. 제 5 항에 있어서, The method of claim 5,
    상기 감성적 대화 모드는 심리 상담을 위한 대화 모드를 포함하는 방법. The emotional conversation mode includes a conversation mode for psychological counseling.
  7. 제 2 항에 있어서, The method of claim 2,
    상기 특성 정보는 상기 사용자의 연령 또는 성별 중 적어도 어느 하나를 포함하는 방법. The characteristic information includes at least one of the user's age or gender.
  8. 대화형 에이전트 장치에 있어서, In the interactive agent device,
    입력 모듈; 및Input module; And
    상기 입력 모듈과 연결되며, 사용자와 감성적 대화 모드를 수행하도록 구성되는 프로세서를 포함하며,And a processor connected to the input module and configured to perform an emotional conversation mode with a user,
    상기 프로세서는, The processor,
    상기 사용자의 페르소나를 파악하고, Identify the persona of the user,
    상기 파악된 페르소나에 대응하는 페르소나를 설정하고, Set a persona corresponding to the identified persona,
    상기 설정된 페르소나를 기반으로, 상기 사용자와 상기 감성적 대화 모드를 실행하도록 구성되는 장치. An apparatus configured to execute the emotional conversation mode with the user based on the set persona.
  9. 제 8 항에 있어서, 상기 프로세서는, The method of claim 8, wherein the processor,
    상기 사용자의 발화 데이터를 분석하여, 상기 사용자의 발화 의도, 상기 사용자의 감정 상태 또는 상기 사용자와 관련된 특성 정보 중 적어도 어느 하나를 확인하고, By analyzing the user's speech data, at least one of the user's speech intention, the user's emotional state, or characteristic information related to the user is checked,
    상기 발화 의도, 감정 상태 또는 특성 정보 중 적어도 어느 하나에 기반하여, 상기 페르소나를 파악하도록 구성되는 장치. An apparatus configured to identify the persona based on at least one of the speech intention, emotional state, or characteristic information.
  10. 제 8 항에 있어서, 상기 프로세서는, The method of claim 8, wherein the processor,
    상기 감성적 대화 모드를 실행하는 중에, 상기 사용자의 발화 데이터에 기반하여, 상기 사용자의 감정 상태의 변화를 추적하도록 구성되는 장치. An apparatus, configured to track a change in an emotional state of the user based on the user's speech data while executing the emotional conversation mode.
  11. 제 10 항에 있어서, 상기 프로세서는, The method of claim 10, wherein the processor,
    상기 감성적 대화 모드를 실행하는 중에, 상기 감정 상태의 변화에 대한 영향력을 평가하도록 구성되는 장치. An apparatus configured to evaluate an influence on a change in the emotional state while executing the emotional conversation mode.
  12. 제 11 항에 있어서, 상기 프로세서는, 상기 감성적 대화 모드를 실행하는 중에, The method of claim 11, wherein the processor, while executing the emotional conversation mode,
    상기 발화 데이터로부터 발화 컨텍스트를 획득하고, Obtaining a speech context from the speech data,
    상기 발화 컨텍스트 또는 상기 영향력 중 적어도 어느 하나를 기반으로, 응답 데이터를 출력하도록 구성되는 장치. The apparatus, configured to output response data based on at least one of the speech context or the influence.
  13. 제 12 항에 있어서, The method of claim 12,
    상기 감성적 대화 모드는 심리 상담을 위한 대화 모드를 포함하는 장치. The emotional conversation mode includes a conversation mode for psychological counseling.
  14. 제 9 항에 있어서, The method of claim 9,
    상기 특성 정보는 상기 사용자의 연령 또는 성별 중 적어도 어느 하나를 포함하는 장치. The characteristic information includes at least one of the user's age or gender.
PCT/KR2019/004267 2019-03-26 2019-04-10 User persona-based interactive agent device and method WO2020196977A1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR10-2019-0034460 2019-03-26
KR1020190034460A KR102199928B1 (en) 2019-03-26 2019-03-26 Interactive agent apparatus and method considering user persona

Publications (1)

Publication Number Publication Date
WO2020196977A1 true WO2020196977A1 (en) 2020-10-01

Family

ID=72608940

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2019/004267 WO2020196977A1 (en) 2019-03-26 2019-04-10 User persona-based interactive agent device and method

Country Status (2)

Country Link
KR (1) KR102199928B1 (en)
WO (1) WO2020196977A1 (en)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102319651B1 (en) * 2021-02-19 2021-11-01 (주)아와소프트 Chatbot service providing system using emotional exchange of user persona-based and method thereof
KR102385176B1 (en) 2021-11-16 2022-04-14 주식회사 하이 Psychology counseling device and method therefor
KR102584773B1 (en) * 2021-12-28 2023-10-05 동서대학교 산학협력단 Children's Emotion-Based Interactive Children's Attachment Dolls
KR102481216B1 (en) 2022-03-25 2022-12-28 주식회사 하이 Self-talk device and method therefor
KR102495725B1 (en) 2022-03-25 2023-02-07 주식회사 하이 Self-talk device and method therefor
KR102507809B1 (en) * 2022-10-28 2023-03-10 주식회사 닥터송 Artificial intelligence dialogue system for psychotherapy through consensus formation

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101423258B1 (en) * 2012-11-27 2014-07-24 포항공과대학교 산학협력단 Method for supplying consulting communication and apparatus using the method
US9318108B2 (en) * 2010-01-18 2016-04-19 Apple Inc. Intelligent automated assistant
JP2016090681A (en) * 2014-10-31 2016-05-23 マツダ株式会社 Voice interactive device for vehicle
KR101891492B1 (en) * 2017-11-03 2018-08-24 주식회사 머니브레인 Method and computer device for providing contextual natural language conversation by modifying plain response, and computer readable recording medium
KR20190002067A (en) * 2017-06-29 2019-01-08 네이버 주식회사 Method and system for human-machine emotional communication

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20140028336A (en) * 2012-08-28 2014-03-10 삼성전자주식회사 Voice conversion apparatus and method for converting voice thereof
KR102289917B1 (en) * 2017-06-30 2021-08-12 삼성에스디에스 주식회사 Method for processing dialogue using dialogue act information and Apparatus thereof

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9318108B2 (en) * 2010-01-18 2016-04-19 Apple Inc. Intelligent automated assistant
KR101423258B1 (en) * 2012-11-27 2014-07-24 포항공과대학교 산학협력단 Method for supplying consulting communication and apparatus using the method
JP2016090681A (en) * 2014-10-31 2016-05-23 マツダ株式会社 Voice interactive device for vehicle
KR20190002067A (en) * 2017-06-29 2019-01-08 네이버 주식회사 Method and system for human-machine emotional communication
KR101891492B1 (en) * 2017-11-03 2018-08-24 주식회사 머니브레인 Method and computer device for providing contextual natural language conversation by modifying plain response, and computer readable recording medium

Also Published As

Publication number Publication date
KR20200113775A (en) 2020-10-07
KR102199928B1 (en) 2021-01-08

Similar Documents

Publication Publication Date Title
WO2020196977A1 (en) User persona-based interactive agent device and method
WO2012057560A2 (en) Intelligent emotional word expanding apparatus, and expanding method therefor
WO2017039086A1 (en) Deep learning modularization system on basis of web plug-in and image recognition method using same
WO2012057559A2 (en) Intelligent emotion-inferring apparatus, and inferring method therefor
WO2016175354A1 (en) Artificial intelligence conversation device and method
WO2018128238A1 (en) Virtual consultation system and method using display device
EP3867900A1 (en) System and method for multi-spoken language detection
WO2019125060A1 (en) Electronic device for providing telephone number associated information, and operation method therefor
WO2021132797A1 (en) Method for classifying emotions of speech in conversation by using semi-supervised learning-based word-by-word emotion embedding and long short-term memory model
CN108229535A (en) Relate to yellow image audit method, apparatus, computer equipment and storage medium
WO2018021651A1 (en) Offline character doll control apparatus and method using emotion information of user
WO2011127424A1 (en) Method for cognitive computing
WO2020032562A2 (en) Bioimage diagnosis system, bioimage diagnosis method, and terminal for executing same
EP3691521A1 (en) Electronic device and method for providing stress index corresponding to activity of user
WO2020196976A1 (en) Electronic device based on attention recurrent neural network using multimodal data and operation method thereof
WO2022039366A1 (en) Electronic device and control method thereof
WO2019031621A1 (en) Method and system for recognizing emotion during telephone call and utilizing recognized emotion
WO2020196978A1 (en) Electronic device for multi-scale voice emotion recognition and operation method of same
WO2017065324A1 (en) Sign language education system, method and program
WO2015037871A1 (en) System, server and terminal for providing voice playback service using text recognition
EP3994687A1 (en) Electronic apparatus and controlling method thereof
WO2023136511A1 (en) Solution-providing device for improving online education participation rate, and solution-providing system comprising same
WO2019164196A1 (en) Electronic device and method for recognizing characters
WO2019225875A1 (en) Method and apparatus for tracking inventory
WO2022270840A1 (en) Deep learning-based word recommendation system for predicting and improving foreign language learner's vocabulary ability

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19921408

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 19921408

Country of ref document: EP

Kind code of ref document: A1