KR102630803B1 - Emotion analysis result providing device and emotion analysis result providing system - Google Patents

Emotion analysis result providing device and emotion analysis result providing system Download PDF

Info

Publication number
KR102630803B1
KR102630803B1 KR1020230003827A KR20230003827A KR102630803B1 KR 102630803 B1 KR102630803 B1 KR 102630803B1 KR 1020230003827 A KR1020230003827 A KR 1020230003827A KR 20230003827 A KR20230003827 A KR 20230003827A KR 102630803 B1 KR102630803 B1 KR 102630803B1
Authority
KR
South Korea
Prior art keywords
analysis result
analysis
acquisition unit
analysis results
client
Prior art date
Application number
KR1020230003827A
Other languages
Korean (ko)
Other versions
KR20230114195A (en
Inventor
김석원
Original Assignee
주식회사 허니엠앤비
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 허니엠앤비 filed Critical 주식회사 허니엠앤비
Publication of KR20230114195A publication Critical patent/KR20230114195A/en
Application granted granted Critical
Publication of KR102630803B1 publication Critical patent/KR102630803B1/en

Links

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • A61B5/165Evaluating the state of mind, e.g. depression, anxiety
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0002Remote monitoring of patients using telemetry, e.g. transmission of vital signals via a communication network
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0002Remote monitoring of patients using telemetry, e.g. transmission of vital signals via a communication network
    • A61B5/0004Remote monitoring of patients using telemetry, e.g. transmission of vital signals via a communication network characterised by the type of physiological signal transmitted
    • A61B5/0013Medical image data
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • A61B5/163Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state by tracking eye movement, gaze, or pupil change
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/48Other medical applications
    • A61B5/4803Speech analysis specially adapted for diagnostic purposes
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/74Details of notification to user or communication with user or patient ; user input means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/174Facial expression recognition
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems

Abstract

실시예에 따른 감정 분석 결과 제공 장치는 내담자 단말로부터 실시간 수신한 동영상데이터로부터 추출된 제1 음성데이터 및 제1 영상데이터 중 적어도 하나에 기초해, 내담자의 감정을 실시간 분석하여 복수의 제1 분석 결과를 획득하는 제1 분석결과획득부; 및
상기 실시간 수신한 동영상데이터가 소정 시간 동안 누적된 누적 동영상데이터로부터 추출된 제2 음성데이터 및 제2 영상데이터 중 적어도 하나에 기초해, 상기 내담자의 감정을 상기 소정 시간 경과 후 분석하여 복수의 제2 분석 결과를 획득하는 제2 분석결과획득부;를 포함할 수 있다.
An emotional analysis result providing device according to an embodiment analyzes the client's emotions in real time based on at least one of first voice data and first video data extracted from video data received in real time from the client terminal and provides a plurality of first analysis results. A first analysis result acquisition unit that obtains; and
Based on at least one of second voice data and second video data extracted from the accumulated video data accumulated over a predetermined time, the real-time received video data analyzes the client's emotions after the predetermined time and generates a plurality of second It may include a second analysis result acquisition unit that acquires the analysis results.

Description

감정 분석 결과 제공 장치 및 감정 분석 결과 제공 시스템{Emotion analysis result providing device and emotion analysis result providing system}Emotion analysis result providing device and emotion analysis result providing system {Emotion analysis result providing device and emotion analysis result providing system}

본 발명은 감정 분석 결과 제공 장치 및 감정 분석 결과 제공 시스템에 관한 것으로, 보다 구체적으로, 심리 상담 시의 동영상데이터를 기초로 실시간 내담자의 감정을 분석하면서도 누적된 동영상데이터를 기초로 또한 내담자의 감정을 분석하도록 함으로써, 내담자의 감정을 다각도로 분석 및 통합된 결과를 제공하기 위한, 감정 분석 결과 제공 장치 및 감정 분석 결과 제공 시스템에 관한 것이다.The present invention relates to an emotional analysis result providing device and an emotional analysis result providing system. More specifically, the present invention relates to a real-time client's emotions based on video data during psychological counseling, and also analyzes the client's emotions based on accumulated video data. It relates to an emotional analysis result providing device and an emotional analysis result providing system for analyzing a client's emotions from various angles and providing integrated results by analyzing them.

심리 상담은 전문 지식을 갖춘 상담사가 심리적 문제를 지난 내담자와의 관계에서 공감적 이해, 무조건적 긍정적 존중, 진실성을 기본으로 상담심리의 여러 이론들, 정신분석, 행동주의, 인본주의, 인지주의, 형태주의, 현실요법, 교류분석, 가족치료 등의 내용을 이용하여 그들의 문제 해결을 돕는 치료 방법으로서 내담자가 인간의 사고, 감정, 행동, 대인관계에 대해 탐색하도록 안내하여 다양한 자신의 문제들을 이해하고 변화하도록 돕는 것을 말한다.Psychological counseling is based on empathic understanding, unconditional positive respect, and sincerity in relationships with clients who are dealing with psychological problems, and is based on various theories of counseling psychology, including psychoanalysis, behaviorism, humanism, cognitivism, and formalism. , a treatment method that helps solve their problems by using content such as reality therapy, transactional analysis, and family therapy, and guides clients to explore human thoughts, emotions, behavior, and interpersonal relationships to understand and change their various problems. It means helping.

이러한 심리 상담은 주로, 주어진 상담실에서 면대면으로 행해지던 전통적인 상담 방식으로 이루어졌는데, 대인 관계에서의 문제를 지니고 있거나 사회 불안이 심한 내담자나 환자들은 상담자와 직접 마주해야 하는 면대면 상담 및 심리치료가 부담되거나 꺼려져 심리치료가 지속되지 못하고 중단되기도 한다.This type of psychological counseling was mainly done through the traditional counseling method that was conducted face-to-face in a given counseling room. Clients or patients with interpersonal problems or severe social anxiety needed face-to-face counseling and psychotherapy that required them to meet directly with the counselor. Psychological treatment may not be continued or may be discontinued due to burden or reluctance.

그래서 면대면 상담의 대안으로 온라인 상에서 심리를 상담하고 치료하는 온라인 심리치료 프로그램이 제시되고 있다.Therefore, as an alternative to face-to-face counseling, online psychotherapy programs that provide psychological counseling and treatment online are being proposed.

KRKR 2022-0005945 2022-0005945 AA

본 발명은 온라인 심리 치료 프로그램을 진행 시의 동영상데이터를 기초로 실시간 내담자의 감정을 분석하면서도 누적된 동영상데이터를 기초로 또한 내담자의 감정을 분석하도록 함으로써, 내담자의 감정을 다각도로 분석 및 통합된 결과를 제공하고자 하는 데에 그 목적이 있다.The present invention analyzes the client's emotions in real time based on video data when conducting an online psychotherapy program and also analyzes the client's emotions based on accumulated video data, thereby analyzing the client's emotions from various angles and providing integrated results. The purpose is to provide.

실시예에 따른 감정 분석 결과 제공 장치는 내담자 단말로부터 실시간 수신한 동영상데이터로부터 추출된 제1 음성데이터 및 제1 영상데이터 중 적어도 하나에 기초해, 내담자의 감정을 실시간 분석하여 복수의 제1 분석 결과를 획득하는 제1 분석결과획득부; 및An emotional analysis result providing device according to an embodiment analyzes the client's emotions in real time based on at least one of the first voice data and the first video data extracted from video data received in real time from the client terminal, and produces a plurality of first analysis results. A first analysis result acquisition unit that obtains; and

상기 실시간 수신한 동영상데이터가 소정 시간 동안 누적된 누적 동영상데이터로부터 추출된 제2 음성데이터 및 제2 영상데이터 중 적어도 하나에 기초해, 상기 내담자의 감정을 상기 소정 시간 경과 후 분석하여 복수의 제2 분석 결과를 획득하는 제2 분석결과획득부;를 포함할 수 있다.Based on at least one of second voice data and second video data extracted from the accumulated video data accumulated over a predetermined time, the real-time received video data analyzes the client's emotions after the predetermined time has elapsed and generates a plurality of second It may include a second analysis result acquisition unit that acquires the analysis results.

상기 복수의 제1 분석 결과는,The plurality of first analysis results are:

복수의 일반 감정 상태 각각의 확률값, 대표 감정 상태, 심박수와 스트레스 지수, 키워드별 빈도수, 토픽별로 구성된 키워드들 각각에 대한 빈도수, 음성 파라미터, 시선 위치 정보, 및 얼굴 움직임 정보 중 적어도 둘 이상을 포함할 수 있다.It may include at least two of the following: probability values for each of a plurality of general emotional states, representative emotional states, heart rate and stress index, frequency for each keyword, frequency for each keyword organized by topic, voice parameters, gaze position information, and facial movement information. You can.

상기 복수의 제2 분석 결과는,The results of the plurality of second analyzes are:

복수의 일반 감정 상태 각각의 확률값, 복수의 치환 감정 상태 각각의 확률값, 심박수와 스트레스 지수, 키워드별 빈도수, 토픽별로 구성된 키워드들 각각에 대한 빈도수, 음성 파라미터, 시선 위치 정보, 및 얼굴 움직임 정보 중 적어도 둘 이상을 포함할 수 있다.Probability values for each of a plurality of general emotional states, probability values for each of a plurality of substituted emotional states, heart rate and stress index, frequency for each keyword, frequency for each keyword organized by topic, voice parameters, gaze position information, and facial movement information. It may contain two or more.

상기 복수의 치환 감정 상태는 상기 복수의 일반 감정 상태 각각의 상위 개념으로 정의되는 감정 상태의 조합일 수 있다.The plurality of substituted emotional states may be a combination of emotional states defined as superordinate concepts of each of the plurality of general emotional states.

상기 제2 분석결과획득부는,The second analysis result acquisition unit,

상기 제2 영상데이터, 상기 제2 음성데이터, 및 상기 제2 음성데이터가 변환된 텍스트데이터에 기초해 앙상블 학습에 기반한 복수의 모델을 이용해 복수의 일반 감정 상태 각각의 확률값을 획득할 수 있다.Probability values for each of a plurality of general emotional states may be obtained using a plurality of models based on ensemble learning based on the second image data, the second voice data, and text data converted from the second voice data.

상기 제2 분석결과획득부는,The second analysis result acquisition unit,

상기 제2 음성데이터가 변환된 텍스트데이터에 대해 잠재 디리클레 할당(LDA, Latent Dirichlet Allocation) 토픽 모델링을 수행하여 상기 토픽별로 구성된 키워드들 각각에 대한 빈도수를 획득할 수 있다.Latent Dirichlet Allocation (LDA) topic modeling can be performed on the text data converted from the second voice data to obtain the frequency of each of the keywords configured for each topic.

상기 제2 분석결과획득부는,The second analysis result acquisition unit,

상기 제2 영상데이터에 기초해 내담자의 얼굴을 인식하고, 상기 인식된 얼굴의 특징점을 검출하며, 상기 얼굴의 특징점을 기초로 지정된 관심 영역에서 동공 중심 위치를 검출하고, 상기 검출된 동공 중심 위치의 시간에 따른 변화 정도인 상기 시선 위치 정보를 유클리디안 거리의 변화에 기초해 산출할 수 있다.Recognize the client's face based on the second image data, detect feature points of the recognized face, detect the pupil center position in a designated area of interest based on the feature points of the face, and detect the pupil center position of the detected pupil center position. The gaze position information, which is the degree of change over time, can be calculated based on the change in Euclidean distance.

실시예에 따른 감정 분석 결과 제공 시스템은 내담자 단말, 상담자 단말, 및 감정 분석 결과 제공 장치를 포함한 감정 분석 결과 제공 시스템에 있어서,An emotional analysis result providing system according to an embodiment includes an emotional analysis result providing system including a client terminal, a counselor terminal, and an emotional analysis result providing device,

상기 감정 분석 결과 제공 장치는,The emotional analysis result providing device,

내담자 단말로부터 실시간 수신한 동영상데이터로부터 추출된 제1 음성데이터 및 제1 영상데이터 중 적어도 하나에 기초해, 내담자의 감정을 실시간 분석하여 복수의 제1 분석 결과를 획득하는 제1 분석결과획득부;A first analysis result acquisition unit that acquires a plurality of first analysis results by analyzing the client's emotions in real time based on at least one of first voice data and first video data extracted from video data received in real time from the client terminal;

상기 실시간 수신한 동영상데이터가 소정 시간 동안 누적된 누적 동영상데이터로부터 추출된 제2 음성데이터 및 제2 영상데이터 중 적어도 하나에 기초해, 상기 내담자의 감정을 상기 소정 시간 경과 후 분석하여 복수의 제2 분석 결과를 획득하는 제2 분석결과획득부; 및Based on at least one of second voice data and second video data extracted from the accumulated video data accumulated over a predetermined time, the real-time received video data analyzes the client's emotions after the predetermined time has elapsed and generates a plurality of second a second analysis result acquisition unit that acquires analysis results; and

상기 복수의 제1 분석 결과 전체를 포함한 정보 및 상기 복수의 제2 분석 결과 전체를 포함한 정보를 상기 상담자 단말로 전송하는 전송부;를 포함하고,A transmission unit configured to transmit information including all of the plurality of first analysis results and information including all of the plurality of second analysis results to the counselor terminal,

상기 상담자 단말은, The counselor terminal is,

상기 감정 분석 결과 제공 장치로부터 수신한 상기 복수의 제1 분석 결과 전체를 포함한 정보를 하나의 사용자 인터페이스 화면을 통해 제공하는 제1 분석결과제공부; 및a first analysis result providing unit that provides information including all of the plurality of first analysis results received from the emotional analysis result providing device through one user interface screen; and

상기 감정 분석 결과 제공 장치로부터 수신한 상기 복수의 제2 분석 결과 전체 중 사용자에 의해 선택된 제2 분석 결과를 포함한 정보를 상기 하나의 사용자 인터페이스 화면을 통해 제공하는 제2 분석결과제공부;를 포함할 수 있다.It may include a second analysis result providing unit that provides information including a second analysis result selected by the user among all the plurality of second analysis results received from the emotional analysis result providing device through the one user interface screen. You can.

상기 하나의 사용자 인터페이스 화면은 상기 복수의 제2 분석 결과를 나타내는 복수의 메뉴를 포함하고,The one user interface screen includes a plurality of menus representing the plurality of second analysis results,

상기 제2 분석결과제공부는, The second analysis result providing unit,

상기 복수의 메뉴 중 사용자에 의해 선택된 메뉴에 대응되는 상기 제2 분석 결과를 포함한 정보를 상기 하나의 사용자 인터페이스 화면을 통해 제공할 수 있다.Information including the second analysis result corresponding to the menu selected by the user among the plurality of menus may be provided through the single user interface screen.

본 발명에 따르면, 제1 분석결과획득부를 통해 실시간 분석으로 제1 분석 결과를 획득하지만, 제2 분석결과획득부를 통해 소정 시간 경과 후 분석으로 제2 분석 결과를 획득하도록 함으로써, 동일한 내담자와의 실시간 상담 내역을 실시간 분석을 통해 실시간 제공받을 수 있도록 하면서도, 상담이 종료된 후 전체 상담 내역을 통합 분석을 통해 제공받을 수 있도록 함으로써, 하나의 상담 내역에 대해 다양한 형태의 분석 결과를 제공받을 수 있게 되어 보다 다양화되고 체계화된 상담 내역의 관리가 가능해질 수 있게 된다.According to the present invention, the first analysis result is obtained through real-time analysis through the first analysis result acquisition unit, but the second analysis result is obtained through analysis after a predetermined time has elapsed through the second analysis result acquisition unit, so that the first analysis result is acquired through real-time analysis with the same client. By allowing consultation details to be provided in real time through real-time analysis, and by allowing the entire consultation details to be provided through integrated analysis after the consultation is over, various types of analysis results can be provided for one consultation details. It becomes possible to manage more diverse and systematic consultation details.

또한, 상담 진행 중일 때의 사용자 인터페이스 화면과 상담이 종료된 후의 분석 결과를 제공하는 사용자 인터페이스 화면을 서로 상이하게 구현하여 상담자의 상담 내역 관리 및 확인이 보다 용이해지게 된다. 예를 들어, 상담이 진행중인 경우, 실시간 분석 결과를 제공받도록 하면서도 전체 분석 결과를 하나의 사용자 인터페이스부의 화면을 통해 제공받도록 함으로써, 상담자가 실시간 상담 내역 확인, 분석, 및/또는 판단이 보다 신속하고 용이해질 수 있으며, 상담이 종료된 경우, 누적된 전체 상담 내역에 대해 하나의(선택된/개별적인) 분석 결과를 하나의 사용자 인터페이스부의 화면을 통해 제공받도록 함으로써, 전체 상담 내역을 사용자가 통합적으로 확인할 수 있게 된다. In addition, the user interface screen when a consultation is in progress and the user interface screen that provides analysis results after the consultation is completed are implemented differently, making it easier to manage and confirm the counselor's consultation details. For example, when a consultation is in progress, real-time analysis results are provided while the overall analysis results are provided through a single user interface screen, making it quicker and easier for the counselor to check, analyze, and/or make decisions about real-time consultation details. When the consultation is completed, one (selected/individual) analysis result of the entire accumulated consultation history is provided through a screen in one user interface unit, allowing the user to check the entire consultation history in an integrated manner. do.

도 1은 실시예에 따른 감정 분석 결과 제공 시스템(1)의 시스템도이다.
도 2 및 도 3은 실시예에 따른 감정 분석 결과 제공 장치(20)의 동작을 설명하는 순서도이다.
도 4는 상담자 단말(30)의 제1 분석결과제공부(31)의 동작에 따른 사용자 인터페이스부(33)의 화면을 예시한다.
도 5 내지 도 11은 상담자 단말(30)의 제2 분석결과제공부(32)의 동작에 따른 사용자 인터페이스부(33)의 화면을 예시한다.
도 12 내지 도 13은 감정 분석 결과 제공 장치(20)의 동작을 설명하기 위해 참조되는 도면이다.
1 is a system diagram of a system 1 for providing emotion analysis results according to an embodiment.
2 and 3 are flowcharts explaining the operation of the device 20 for providing emotion analysis results according to an embodiment.
FIG. 4 illustrates a screen of the user interface unit 33 according to the operation of the first analysis result providing unit 31 of the counselor terminal 30.
5 to 11 illustrate screens of the user interface unit 33 according to the operation of the second analysis result providing unit 32 of the counselor terminal 30.
Figures 12 and 13 are diagrams referenced to explain the operation of the emotion analysis result providing device 20.

후술하는 본 발명에 대한 상세한 설명은, 본 발명이 실시될 수 있는 특정 실시예를 예시로서 도시하는 첨부 도면을 참조한다. 이들 실시예는 당업자가 본 발명을 실시할 수 있기에 충분하도록 상세히 설명된다. 본 발명의 다양한 실시예는 서로 다르지만 상호 배타적일 필요는 없음이 이해되어야 한다. 예를 들어, 여기에 기재되어 있는 특정 형상, 구조 및 특성은 일 실시예에 관련하여 본 발명의 정신 및 범위를 벗어나지 않으면서 다른 실시예로 구현될 수 있다. 또한, 각각의 개시된 실시예 내의 개별 구성요소의 위치 또는 배치는 본 발명의 정신 및 범위를 벗어나지 않으면서 변경될 수 있음이 이해되어야 한다. 따라서, 후술하는 상세한 설명은 한정적인 의미로서 취하려는 것이 아니며, 본 발명의 범위는, 적절하게 설명된다면, 그 청구항들이 주장하는 것과 균등한 모든 범위와 더불어 첨부된 청구항에 의해서만 한정된다. 도면에서 유사한 참조부호는 여러 측면에 걸쳐서 동일하거나 유사한 기능을 지칭한다.The detailed description of the present invention described below refers to the accompanying drawings, which show by way of example specific embodiments in which the present invention may be practiced. These embodiments are described in sufficient detail to enable those skilled in the art to practice the invention. It should be understood that the various embodiments of the present invention are different from one another but are not necessarily mutually exclusive. For example, specific shapes, structures and characteristics described herein with respect to one embodiment may be implemented in other embodiments without departing from the spirit and scope of the invention. Additionally, it should be understood that the location or arrangement of individual components within each disclosed embodiment may be changed without departing from the spirit and scope of the invention. Accordingly, the detailed description that follows is not intended to be taken in a limiting sense, and the scope of the invention is limited only by the appended claims, together with all equivalents to what those claims assert, if properly described. Similar reference numbers in the drawings refer to identical or similar functions across various aspects.

참고로, 본 발명의 각 순서도에 있어서, 각 단계는 일예이며, 각 순서를 다르게 변경 및/또는 조합한 경우에도 본 발명이 동일/유사하게 적용될 수 있다.For reference, in each flow chart of the present invention, each step is an example, and the present invention can be applied in the same/similar manner even when each order is changed and/or combined differently.

도 1은 실시예에 따른 감정 분석 결과 제공 시스템(1)의 시스템도이다. 1 is a system diagram of a system 1 for providing emotion analysis results according to an embodiment.

내담자 단말(10)은 텍스트/음성/영상 상담을 진행하기 위한 어플리케이션을 구비하여 감정 분석 결과 제공 장치(20)에 연결될 수 있고, 이를 통해 상담자 단말(30)과 텍스트/음성/영상 상담을 진행할 수 있다. 내담자 단말(10)은 상담자 모습이 출력되는 화면과, 내담자의 모습을 촬영하여 상담자 단말(30)로 전송할 수 있는 카메라(미도시)와 음성을 수집하여 상담자와 대화를 주고받을 수 있도록 하는 마이크(미도시) 및 스피커(미도시)가 적어도 구비되어야 한다.The client terminal 10 is equipped with an application for conducting text/voice/video counseling and can be connected to the emotion analysis result providing device 20, through which text/voice/video counseling can be performed with the counselor terminal 30. there is. The client terminal 10 has a screen on which the counselor's appearance is displayed, a camera (not shown) that can capture the client's image and transmit it to the counselor terminal 30, and a microphone (not shown) that collects voice and allows a conversation to be exchanged with the counselor. (not shown) and a speaker (not shown) must be provided at least.

내담자 단말(10)은 카메라(미도시)를 이용해 내담자의 얼굴이 촬영되어 획득된 영상데이터와 마이크(미도시)를 이용해 수집된 내담자의 음성데이터를 포함한 동영상데이터를 실시간 감정 분석 결과 제공 장치(20)로 전송할 수 있다.The client terminal 10 is a real-time emotional analysis result providing device (20) that provides video data including video data obtained by capturing the client's face using a camera (not shown) and the client's voice data collected using a microphone (not shown). ) can be transmitted.

실시예에 따라, 내담자 단말(10)은 감정 분석 결과 제공 장치(2)로부터 수신한 감정 분석 결과를 사용자 인터페이스부(미도시)의 화면을 통해 출력하여 내담자에게 제공할 수 있다.Depending on the embodiment, the client terminal 10 may output the emotional analysis results received from the emotional analysis result providing device 2 through a screen of a user interface unit (not shown) and provide them to the client.

상담자 단말(30)은 텍스트/음성/영상 상담을 진행하기 위한 어플리케이션을 구비하여 감정 분석 결과 제공 장치(20)에 연결될 수 있고, 이를 통해 내담자 단말(10)과 텍스트/음성/영상 상담을 진행할 수 있다. 상담자 단말(30)은 내담자 모습이 출력되는 화면과, 상담자의 모습을 촬영하여 내담자 단말(10)로 전송할 수 있는 카메라와 음성을 수집하여 내담자와 대화를 주고받을 수 있도록 하는 마이크 및 스피커가 적어도 구비되어야 한다.The counselor terminal 30 is equipped with an application for conducting text/voice/video counseling and can be connected to the emotion analysis result providing device 20, through which text/voice/video counseling can be performed with the client terminal 10. there is. The counselor terminal 30 is equipped with at least a screen on which the client's image is displayed, a camera that can capture the counselor's image and transmit it to the client terminal 10, and a microphone and speaker that collect voice and enable conversation with the client. It has to be.

상담자 단말(30)은 카메라(미도시)를 이용해 상담자의 상담 얼굴이 촬영되어 획득된 영상데이터와 마이크(미도시)를 이용해 수집된 상담자의 음성데이터를 포함한 동영상데이터를 실시간 감정 분석 결과 제공 장치(20)로 전송할 수 있다.The counselor terminal 30 is a real-time emotional analysis result providing device ( 20).

상담자 단말(30)은 감정 분석 결과 제공 장치(20)로부터 수신한 감정 분석 결과를 사용자 인터페이스부(33)의 화면을 통해 출력하여 상담자 또는 관리자(사용자)에게 제공할 수 있다.The counselor terminal 30 may output the emotional analysis results received from the emotional analysis result providing device 20 through the screen of the user interface unit 33 and provide them to the counselor or manager (user).

감정 분석 결과 제공 장치(20)는 내담자 단말(10)과 상담자 단말(30)의 화상 상담을 서로 중개하고, 화상 상담에 따른 내담자의 감정 분석 결과를 내담자 단말(10) 및/또는 상담자 단말(30)로 전송할 수 있다.The emotion analysis result providing device 20 mediates the video consultation between the client terminal 10 and the counselor terminal 30, and transmits the result of the emotional analysis of the client according to the video consultation to the client terminal 10 and/or the counselor terminal 30. ) can be transmitted.

도 2 및 도 3은 실시예에 따른 감정 분석 결과 제공 장치(20)의 동작을 설명하는 순서도이다.2 and 3 are flowcharts explaining the operation of the device 20 for providing emotion analysis results according to an embodiment.

실시예에 따라, 제1 분석결과획득부(21a)는 내담자 단말(10)로부터 실시간 동영상데이터를 수신할 수 있다(s11).Depending on the embodiment, the first analysis result acquisition unit 21a may receive real-time video data from the client terminal 10 (s11).

동영상데이터는 내담자의 얼굴이 촬영된 제1 영상데이터 및 제1 음성데이터를 포함할 수 있다.The video data may include first video data and first audio data in which the client's face is captured.

제1 분석결과획득부(21a)는 동영상데이터로부터 제1 음성데이터 및 제1 영상데이터를 추출할 수 있다(s12).The first analysis result acquisition unit 21a can extract first audio data and first video data from video data (s12).

실시예에 따라, 제1 영상데이터는 실시간 수신한 단일 영상프레임이고, 제1 음성데이터는 실시간 수신한 단일 음성프레임일 수 있다.Depending on the embodiment, the first video data may be a single video frame received in real time, and the first audio data may be a single audio frame received in real time.

실시예에 따라, 동영상데이터로부터 제1 영상데이터 및 제1 음성데이터를 각각 추출하는 것은 공지의 다양한 알고리즘을 통해 구현될 수 있다.Depending on the embodiment, extracting the first image data and the first audio data from the video data may be implemented through various known algorithms.

제1 분석결과획득부(21a)는 제1 음성데이터 및 제1 영상데이터 중 적어도 하나에 기초해, 내담자의 감정을 실시간 분석하여 복수의 제1 분석 결과를 획득할 수 있다(s13).The first analysis result acquisition unit 21a may acquire a plurality of first analysis results by analyzing the client's emotions in real time based on at least one of the first voice data and the first image data (s13).

실시예에 따라, 제1 분석결과획득부(21a)는 음성데이터 및 영상데이터 중 적어도 하나에 기초해, 동일 카테고리에 해당되는 분석 결과를 얻기 위해, 제2 분석결과획득부(21b)와 동일/유사한 분석 방법 또는 공지의 다양한 알고리즘을 이용한 실시간 분석을 통해 복수의 제1 분석 결과를 실시간 획득할 수 있다. 이에, 복수의 제1 분석 결과를 획득하기 위한 분석에 대해서는 자세한 설명을 생략한다.According to the embodiment, the first analysis result acquisition unit 21a is the same as the second analysis result acquisition unit 21b in order to obtain analysis results corresponding to the same category based on at least one of audio data and video data. A plurality of first analysis results can be obtained in real time through real-time analysis using similar analysis methods or various known algorithms. Accordingly, detailed description of the analysis to obtain a plurality of first analysis results will be omitted.

예를 들어, 제2 분석결과획득부(21b)가 복수의 일반 감정 상태 각각의 확률값을 획득하기 위한 분석 방법은 제1 분석결과획득부(21a)가 복수의 일반 감정 상태 각각의 확률값을 획득하는데 동일/유사하게 이용될 수 있다.For example, the analysis method for the second analysis result acquisition unit 21b to obtain the probability value of each of a plurality of general emotional states includes the first analysis result acquisition unit 21a obtaining the probability value of each of a plurality of general emotional states. Can be used the same/similarly.

실시예에 따라, 복수의 제1 분석 결과는, 복수의 일반 감정 상태 각각의 확률값, 대표 감정 상태, 심박수와 스트레스 정도, 키워드별 빈도수, 토픽별로 구성된 키워드들 각각에 대한 빈도수, 음성 파라미터, 시선 위치 정보, 및 얼굴 움직임 정보 중 적어도 둘 이상을 포함할 수 있다.Depending on the embodiment, the plurality of first analysis results include probability values for each of a plurality of general emotional states, representative emotional states, heart rate and stress level, frequency for each keyword, frequency for each keyword organized by topic, voice parameter, and gaze position. It may include at least two of information and facial movement information.

실시예에 따라, 복수의 일반 감정 상태는 해당 시각의 기쁨, 분노, 경멸, 놀람, 두려움, 평온 및 슬픔 중 적어도 둘 이상을 포함할 수 있으나, 본 발명은 이에 한정되지 않는다.Depending on the embodiment, the plurality of general emotional states may include at least two of joy, anger, contempt, surprise, fear, calmness, and sadness at the relevant time, but the present invention is not limited thereto.

실시예에 따라, 제1 분석결과획득부(21a)는 제1 영상데이터와 제1 음성데이터에 기초해 복수의 일반 감정 상태 각각의 확률값을 획득할 수 있으며, 이는, 제2 분석결과획득부(21b)가 제2 영상데이터와 제2 음성데이터에 기초해 복수의 일반 감정 상태 각각의 확률값을 획득하는 것과 동일/유사하게 적용될 수 있다.Depending on the embodiment, the first analysis result acquisition unit 21a may acquire probability values for each of a plurality of general emotional states based on the first image data and the first audio data, which is provided by the second analysis result acquisition unit ( 21b) can be applied in the same/similar manner to obtaining probability values for each of a plurality of general emotional states based on the second image data and the second audio data.

실시예에 따라, 대표 감정 상태는 해당 시각의 복수의 일반 감정 상태 중 내담자의 감정으로 대표될 수 있는 최종 감정 상태일 수 있다. 예를 들어, 제1 분석결과획득부(21a)는 복수의 각 일반 감정 상태의 확률값 중 가장 높은 수치의 확률값에 대응되는 일반 감정 상태를 해당 시각의 대표 감정 상태로 결정할 수 있다.Depending on the embodiment, the representative emotional state may be a final emotional state that can be represented by the client's emotion among a plurality of general emotional states at the relevant time. For example, the first analysis result acquisition unit 21a may determine the general emotional state corresponding to the highest probability value among the plurality of probability values for each general emotional state as the representative emotional state at the relevant time.

실시예에 따라, 심박수는 RPPG 수치로 획득되며, 스트레스 정도는 높음/중간/낮음 등의 레벨로 획득될 수 있다. Depending on the embodiment, the heart rate may be obtained as an RPPG value, and the degree of stress may be obtained as a level such as high/medium/low.

실시예에 따라, 제1 분석결과획득부(21a)는 제1 영상데이터에 기초해 심박수와 스트레스 지수를 획득할 수 있다. 이는, 제2 분석결과획득부(21b)의 제2 영상데이터에 기초해 심박수와 스트레스 지수를 획득하는 것과 동일/유사하게 적용될 수 있다.Depending on the embodiment, the first analysis result acquisition unit 21a may acquire the heart rate and stress index based on the first image data. This may be applied in the same/similar manner to obtaining heart rate and stress index based on the second image data of the second analysis result acquisition unit 21b.

실시예에 따라, 키워드별 빈도수는 기 설정된 키워드 중 내담자에 의해 발화된 키워드별 빈도수로 정의될 수 있다. 실시예에 따라, 기 설정된 키워드는 실시간 상담자 또는 관리자 등의 사용자에 의해 변경되어 설정될 수 있다.Depending on the embodiment, the frequency of each keyword may be defined as the frequency of each keyword uttered by the client among preset keywords. Depending on the embodiment, preset keywords may be changed and set by a user such as a real-time counselor or manager.

실시예에 따라, 제1 분석결과획득부(21a)는 제1 음성데이터가 변환된 텍스트데이터에 대한 분석을 수행해 기 설정된 키워드별 빈도수를 획득할 수 있다.Depending on the embodiment, the first analysis result acquisition unit 21a may perform analysis on text data converted from the first voice data to obtain the frequency of each preset keyword.

이는, 제2 분석결과획득부(21b)가 제2 음성데이터가 변환된 텍스트데이터에 대한 분석을 수행해 기 설정된 키워드별 빈도수를 획득하는 것과 동일/유사하게 적용될 수 있다.This can be applied in the same/similar manner to the second analysis result acquisition unit 21b performing analysis on the text data converted from the second voice data to obtain the frequency of each preset keyword.

실시예에 따라, 제1 분석결과획득부(21a)는 제1 음성데이터가 변환된 텍스트데이터에 대해 잠재 디리클레 할당(LDA, Latent Dirichlet Allocation) 토픽 모델링을 수행하여 상기 토픽별로 구성된 키워드들 각각에 대한 빈도수를 획득할 수 있으며, 이는 제2 분석결과획득부(21b)가 제2 음성데이터가 변환된 텍스트데이터에 대해 잠재 디리클레 할당(LDA, Latent Dirichlet Allocation) 토픽 모델링을 수행하여 상기 토픽별로 구성된 키워드들 각각에 대한 빈도수를 획득하는 것과 동일/유사하게 적용될 수 있다.According to the embodiment, the first analysis result acquisition unit 21a performs Latent Dirichlet Allocation (LDA) topic modeling on the text data into which the first voice data has been converted to obtain information on each of the keywords configured for each topic. The frequency can be obtained, which is achieved by the second analysis result acquisition unit 21b performing Latent Dirichlet Allocation (LDA) topic modeling on the text data into which the second voice data has been converted, and keywords organized for each topic. It can be applied in the same/similar way to obtaining the frequency for each.

실시예에 따라, 제1 분석결과획득부(21a)는 제1 음성데이터를 기초로 분석하여 음성 파라미터를 획득할 수 있으며, 이는, 제2 분석결과획득부(21b)가 제2 음성데이터를 기초로 분석하여 음성 파라미터를 획득하는 것과 동일/유사하게 적용될 수 있다. Depending on the embodiment, the first analysis result acquisition unit 21a may acquire voice parameters by analyzing based on the first voice data, which means that the second analysis result acquisition unit 21b may acquire voice parameters based on the second voice data. It can be applied in the same/similar way to obtaining voice parameters by analyzing .

실시예에 따라 음성 파라미터는 파형, 피치(pitch), 포즈(pause) 구간, 발화 속도, 및/또는 망설임 구간을 나타내는 지표를 포함할 수 있다.Depending on the embodiment, voice parameters may include indicators indicating waveform, pitch, pause section, speech rate, and/or hesitation section.

실시예에 따라, 제1 분석결과획득부(21a)는 제1 영상데이터를 기초로 분석하여 시선 위치 정보 및 얼굴 움직임 정보를 획득할 수 있으며, 이는, 제2 분석결과획득부(21b)가 제2 영상데이터를 기초로 분석하여 시선 위치 정보 및 얼굴 움직임 정보를 획득하는 것과 동일/유사하게 적용될 수 있다.Depending on the embodiment, the first analysis result acquisition unit 21a may acquire gaze position information and facial movement information by analyzing the first image data based on the first analysis result acquisition unit 21b. 2 It can be applied in the same/similar way to obtaining gaze position information and facial movement information by analyzing video data.

실시예에 따라, 제1 분석결과획득부(21a)는 복수의 일반 감정 상태를 막대 그래프 형태로 생성하고, 대표 감정 상태를 아이콘 형태 및/또는 방사형 그래프에 적용해 생성하며, 기 설정된 키워드별 빈도수를 원의 크기에 반영해 생성하며, 토픽별로 구성된 키워드들 각각에 대한 빈도수를 테이블 형태로 생성할 수 있다. 실시예에 따라, 기 설정된 키워드별 빈도수의 경우, 빈도수에 대응되는 레벨(예> 1 내지 5레벨)에 따라 원의 크기에 반영되도록 하여 생성할 수 있다. 예를 들어, 1레벨은 1번 내담자에 의해 발화된 것을 나타내어 상대적으로 작은 크기의 원으로 표현되고, 5레벨은 5번 이상 내담자에 의해 발화된 것을 나타내어 상대적으로 큰 크기의 원으로 표현될 수 있다. Depending on the embodiment, the first analysis result acquisition unit 21a generates a plurality of general emotional states in the form of a bar graph, generates representative emotional states by applying them to an icon shape and/or a radial graph, and generates frequencies for each preset keyword. is created by reflecting the size of the circle, and the frequency of each keyword organized by topic can be generated in table form. Depending on the embodiment, in the case of a preset frequency for each keyword, it can be generated by having it reflected in the size of the circle according to the level (e.g., level 1 to 5) corresponding to the frequency. For example, level 1 represents utterances made by the client once and is expressed as a relatively small circle, and level 5 represents utterances made by the client more than 5 times and is expressed as a relatively large circle. .

다만, 이는 실시예이며, 복수의 제1 분석 결과 각각에 대해서 막대 그래프 형태, 아이콘 형태, 방사형 그래프 형태, 원형 형태 등 다양하게 적용하여 생성할 수 있다.However, this is an example, and each of the plurality of first analysis results can be generated by applying various shapes, such as a bar graph, an icon, a radial graph, or a circular shape.

전송부(21c)는 복수의 제1 분석 결과 전체를 포함한 정보를 상담자 단말(30)로 전송할 수 있다(s14). The transmission unit 21c may transmit information including all of the plurality of first analysis results to the counselor terminal 30 (s14).

실시예에 따라 복수의 제1 분석 결과 전체를 포함한 정보는, 복수의 제1 분석 결과 전체, 내담자 단말(10)로부터 실시간 수신한 동영상데이터, 및 상기 실시간 수신한 동영상데이터로부터 분리된 내담자의 제1 음성데이터가 변환된 텍스트데이터와 상담자의 음성데이터가 변환된 텍스트데이터의 컨텐츠를 포함할 수 있다.Depending on the embodiment, the information including all of the plurality of first analysis results may include all of the plurality of first analysis results, video data received in real time from the client terminal 10, and the client's first analysis results separated from the video data received in real time. It may include content of text data converted from voice data and text data converted from the counselor's voice data.

도 4는 상담자 단말(30)의 제1 분석결과제공부(31)의 동작에 따른 사용자 인터페이스부(33)의 화면을 예시한다.FIG. 4 illustrates a screen of the user interface unit 33 according to the operation of the first analysis result providing unit 31 of the counselor terminal 30.

상담자 단말(30)의 제1 분석결과제공부(31)는 감정 분석 결과 제공 장치(20)로부터 수신한 복수의 제1 분석 결과 전체를 포함한 정보와 상담자가 실시간 기록한 상담 노트를 하나의 사용자 인터페이스부(33)의 화면을 통해 출력함으로써 관리자 또는 상담자등의 사용자에게 제공할 수 있다.The first analysis result providing unit 31 of the counselor terminal 30 provides information including all of the plurality of first analysis results received from the emotional analysis result providing device 20 and counseling notes recorded by the counselor in real time into one user interface unit. It can be provided to users such as managers or counselors by printing it through the screen in (33).

실시예에 따라 복수의 제1 분석 결과 전체를 포함한 정보는, 복수의 제1 분석 결과 전체, 내담자가 촬영된 동영상데이터, 및 내담자가 촬영된 동영상데이터로부터 분리된 내담자의 음성데이터가 변환된 텍스트데이터와 상담자의 음성데이터가 변환된 텍스트데이터에 대응되는 컨텐츠를 포함할 수 있다.Depending on the embodiment, the information including all of the plurality of first analysis results may include all of the plurality of first analysis results, video data in which the client was filmed, and text data converted from the client's voice data separated from the video data in which the client was filmed. It may include content corresponding to the text data converted from the counselor's voice data.

실시예에 따라, 각 컨텐츠는 사용자 인터페이스부(33)의 화면 상의 분리된 영역에 각각 출력될 수 있다. Depending on the embodiment, each content may be output in separate areas on the screen of the user interface unit 33.

예를 들어, 도 4는 사용자 인터페이스부(33)의 화면에 대한 예시로, 복수의 제1 분석 결과(①), 내담자 단말(10)로부터 실시간 수신한 동영상데이터(②), 내담자의 음성데이터가 변환된 텍스트데이터와 상담자의 음성데이터가 변환된 텍스트데이터(④), 상담자가 실시간 기록한 상담 노트(③)를 포함할 수 있다. For example, Figure 4 is an example of the screen of the user interface unit 33, in which a plurality of first analysis results (①), video data (②) received in real time from the client terminal 10, and the client's voice data are displayed. It may include converted text data and text data converted from the counselor's voice data (④), and consultation notes recorded by the counselor in real time (③).

(1-1)은 복수의 제1 분석 결과(①) 중 복수의 일반 감정 상태를 나타내며, (1-2)는 대표 감정 상태를, (1-3)은 심박수와 스트레스 지수를, (1-4)는 키워드별 빈도수를, (1-5)는 토픽별로 구성된 키워드들 각각에 대한 빈도수를 나타낸다.(1-1) represents multiple general emotional states among the plurality of first analysis results (①), (1-2) represents representative emotional states, (1-3) represents heart rate and stress index, (1- 4) represents the frequency of each keyword, and (1-5) represents the frequency of each keyword organized by topic.

실시예에 따라 제2 분석결과획득부(21b)는 실간 수신한 동영상데이터가 소정 시간 동안 누적된 누적 동영상데이터를 생성할 수 있다(s21).Depending on the embodiment, the second analysis result acquisition unit 21b may generate accumulated video data in which video data received in real time is accumulated over a predetermined period of time (s21).

실시예에 따라, 제2 분석결과획득부(21b)는 내담자 단말(10)로부터 동영상데이터의 수신을 시작한 시점과 내담자 단말(10)로부터 동영상데이터의 수신을 종료한 시점 사이의 구간 내의 수신 동영상데이터을 누적 동영상데이터로 획득할 수 있다.According to the embodiment, the second analysis result acquisition unit 21b collects the received video data in the section between the time when it started receiving video data from the client terminal 10 and the time when it finished receiving video data from the client terminal 10. It can be obtained as accumulated video data.

실시예에 따라, 제2 분석결과획득부(21b)는 내담자 단말(10)로부터 수신한 동영상데이터의 기록이 시작된 시점과 기록이 종료된 시점 사이의 구간 내의 동영상데이터를 누적 동영상데이터로 획득할 수 있다.According to the embodiment, the second analysis result acquisition unit 21b may acquire video data within the section between the start of recording of video data received from the client terminal 10 and the end of recording as cumulative video data. there is.

실시예에 따라, 상기 소정 시간 동안 누적된 동영상데이터를 분석 대상으로 정의할 것에 대한 명령어가 미리 프로그래밍되어 있고, 제2 분석결과획득부(21b)는 해당 명령어들을 참조해 분석 대상을 정의할 수 있다.Depending on the embodiment, commands for defining video data accumulated over the predetermined time as an analysis target are pre-programmed, and the second analysis result acquisition unit 21b can define the analysis target with reference to the commands. .

실시예에 따라, 상기 소정 시간은 내담자와 상담자 사이의 상담이 시작될 때부터 종료될 때까지의 시간 구간에 대응될 수 있다.Depending on the embodiment, the predetermined time may correspond to a time period from the start of the consultation between the client and the counselor until the end.

실시예에 따라 제2 분석결과획득부(21b)는 누적 동영상데이터로부터 제2 음성데이터 및 제2 영상데이터를 추출할 수 있다(s22).Depending on the embodiment, the second analysis result acquisition unit 21b may extract second audio data and second video data from the accumulated video data (s22).

실시예에 따라, 제1 영상데이터는 실시간 수신한 단일 영상프레임인 반면, 제2 영상데이터는 소정 시간 동안 누적된 복수의 영상프레임을 포함할 수 있다. Depending on the embodiment, the first video data may be a single video frame received in real time, while the second video data may include a plurality of video frames accumulated over a predetermined time.

실시예에 따라, 제1 음성데이터는 실시간 수신한 단일 음성프레임인 반면, 제2 음성데이터는 소정 시간 동안 누적된 복수의 음성프레임을 포함할 수 있다.Depending on the embodiment, the first voice data may be a single voice frame received in real time, while the second voice data may include a plurality of voice frames accumulated over a predetermined time.

실시예에 따라, 누적 동영상데이터로부터 제2 영상데이터와 제2 음성데이터를 각각 추출하는 것은 공지의 다양한 알고리즘을 통해 구현될 수 있다.Depending on the embodiment, extracting the second video data and the second audio data from the accumulated video data may be implemented through various known algorithms.

제2 분석결과획득부(21b)는 제2 음성데이터 및 제2 영상데이터 중 적어도 하나에 기초해, 상기 내담자의 감정을 상기 소정 시간 경과 후 분석하여 복수의 제2 분석 결과를 획득할 수 있다(s23).The second analysis result acquisition unit 21b may acquire a plurality of second analysis results by analyzing the client's emotions after the predetermined time has elapsed, based on at least one of the second voice data and the second image data ( s23).

실시예에 따라, 소정 시간 경과 후 바로(또는 임의의 시간이 경과된 이후) 분석하거나, 사용자에 의해 설정된 시각에 분석할 것에 대한 명령어가 미리 프로그래밍되어 있을 수 있고, 제2 분석결과획득부(21b)는 해당 명령어를 참조해 분석을 수행할 수 있다.Depending on the embodiment, a command for analyzing immediately after a predetermined time has elapsed (or after a certain time has elapsed) or at a time set by the user may be programmed in advance, and the second analysis result acquisition unit 21b ) can perform analysis by referring to the corresponding command.

실시예에 따라, 복수의 제2 분석 결과는 복수의 일반 감정 상태 각각의 확률값, 복수의 치환 감정 상태 각각의 확률값, 심박수와 스트레스 지수, 키워드별 빈도수, 토픽별로 구성된 키워드들 각각에 대한 빈도수, 음성 파라미터, 시선 위치 정보, 및 얼굴 움직임 정보 중 적어도 둘 이상을 포함할 수 있다.Depending on the embodiment, the plurality of second analysis results may include probability values for each of a plurality of general emotional states, probability values for each of a plurality of substituted emotional states, heart rate and stress index, frequency for each keyword, frequency for each keyword configured for each topic, and voice. It may include at least two of parameters, gaze position information, and facial movement information.

실시예에 따라, 제2 분석결과획득부(21b)는 복수의 제2 분석 결과 중 적어도 일부를 그래프화하여 전송할 수 있다. Depending on the embodiment, the second analysis result acquisition unit 21b may graph at least some of the plurality of second analysis results and transmit them.

실시예에 따라, 복수의 일반 감정 상태는 해당 시각(또는 시간)의 기쁨, 분노, 경멸, 놀람, 두려움, 평온 및 슬픔 중 적어도 둘 이상을 포함할 수 있으나, 본 발명은 이에 한정되지 않는다.Depending on the embodiment, the plurality of general emotional states may include at least two of joy, anger, contempt, surprise, fear, calmness, and sadness at the relevant time (or time), but the present invention is not limited thereto.

실시예에 따라, 복수의 일반 감정 상태 각각의 확률값은 소정의 시간 구간 동안 획득된 일반 감정 상태의 확률값을 평균화하여 획득될 수도 있다.Depending on the embodiment, the probability value of each of a plurality of general emotional states may be obtained by averaging the probability values of the general emotional states acquired during a predetermined time period.

실시예에 따라, 제2 분석결과획득부(21b)는 도 5와 같이 시간대별 복수의 일반 감정 상태 각각의 확률값을 그래프화하여 생성 및 전송할 수 있다.Depending on the embodiment, the second analysis result acquisition unit 21b may create and transmit a graph of the probability values of each of a plurality of general emotional states for each time period, as shown in FIG. 5 .

실시예에 따라, 제2 분석결과획득부(21b)는 제2 영상데이터와 제2 음성데이터에 기초해 복수의 일반 감정 상태 각각의 확률값을 획득할 수 있다. Depending on the embodiment, the second analysis result acquisition unit 21b may acquire probability values for each of a plurality of general emotional states based on the second image data and the second audio data.

실시예에 따라, 제2 분석결과획득부(21b)는 제2 영상데이터, 제2 음성데이터, 및 제2 음성데이터가 변환된 텍스트데이터에 기초해 앙상블 학습에 기반한 복수의 모델을 이용해 복수의 일반 감정 상태 각각의 확률값을 획득할 수 있다. According to the embodiment, the second analysis result acquisition unit 21b uses a plurality of models based on ensemble learning based on the second image data, the second voice data, and the text data converted from the second voice data to generate a plurality of general The probability value of each emotional state can be obtained.

구체적으로, 제2 분석결과획득부(21b)는 제2 영상데이터를 구성하는 복수의 영상프레임, 제2 음성데이터를 구성하는 복수의 음성프레임, 복수의 음성프레임이 변환된 복수의 텍스트데이터(STT기반)를 이용해 앙상블 학습에 기반한 복수의 모델을 이용해 복수의 일반 감정 상태 각각의 확률값을 획득할 수 있다.Specifically, the second analysis result acquisition unit 21b includes a plurality of video frames constituting the second video data, a plurality of audio frames constituting the second audio data, and a plurality of text data (STT) converted from the plurality of audio frames. You can obtain probability values for each of multiple general emotional states using multiple models based on ensemble learning.

실시예에 따라, 제2 분석결과획득부(21b)는 학습용 영상프레임에 기초하여 학습된 제1 모델을 생성하고, 학습용 음성프레임에 기초하여 학습된 제2 모델을 생성하며, 학습용 텍스트데이터에 기초하여 학습된 제3 모델을 생성하고, 제1 모델의 제1 가중치, 제2 모델의 제2 가중치, 및 제3 모델의 제3 가중치를 참조해 복수의 일반 감정 상태 각각의 확률값을 획득할 수 있다.According to the embodiment, the second analysis result acquisition unit 21b generates a first model learned based on the video frame for learning, generates a second model learned based on the audio frame for learning, and generates a second model learned based on text data for learning. A learned third model can be created, and the probability value of each of a plurality of general emotional states can be obtained by referring to the first weight of the first model, the second weight of the second model, and the third weight of the third model. .

구체적으로, 복수의 영상프레임 중 적어도 하나의 영상프레임을 기초로 제1 모델을 통해 제1 분류값을 획득하고, 복수의 영상프레임 중 적어도 하나의 음성프레임을 기초로 제2 모델을 통해 제2 분류값을 획득하며, 복수의 텍스트데이터 중 적어도 하나의 텍스트데이터를 기초로 제3 모델을 통해 제3 분류값을 획득하고, 제1 분류값에 제1 가중치를 적용하고, 2 분류값에 상기 제2 가중치를 적용하며, 상기 제3 분류값에 상기 제3 가중치를 적용함으로써, 상기 영상프레임, 상기 음성프레임, 및 상기 텍스트데이터 각각을 기초로 한 복수의 일반 감정 상태 각각의 확률값을 획득할 수 있다. 그리고, 해당 과정을 상기 복수의 영상프레임과 상기 복수의 음성프레임, 그리고 상기 복수의 텍스트데이터에 수행하여 복수의 일반 감정 상태 각각의 확률값을 전체적으로 획득할 수 있다.Specifically, a first classification value is obtained through a first model based on at least one video frame among a plurality of video frames, and a second classification value is obtained through a second model based on at least one audio frame among the plurality of video frames. A value is obtained, a third classification value is obtained through a third model based on at least one text data among a plurality of text data, a first weight is applied to the first classification value, and the second classification value is applied to the second classification value. By applying a weight, and applying the third weight to the third classification value, the probability value of each of a plurality of general emotional states based on each of the video frame, the audio frame, and the text data can be obtained. Then, the corresponding process can be performed on the plurality of video frames, the plurality of audio frames, and the plurality of text data to obtain overall probability values for each of the plurality of general emotional states.

실시예에 따라, 상기 제1 모델은 MobileNet에 기반한 모델일 수 있다.Depending on the embodiment, the first model may be a model based on MobileNet.

실시예에 따라, 상기 제2 모델은 SVM에 기반한 모델일 수 있다.Depending on the embodiment, the second model may be a model based on SVM.

실시예에 따라, 상기 제3 모델은 Bert에 기반한 모델일 수 있다.Depending on the embodiment, the third model may be a model based on Bert.

실시예에 따라, 제2 분석결과획득부(21b)는 내담자의 영상프레임을 기초로 제1 모델을 통해 내담자의 일반 감정 상태를 나타내는 제1 분류값을 획득할 수 있다.Depending on the embodiment, the second analysis result acquisition unit 21b may obtain a first classification value representing the general emotional state of the client through a first model based on the client's image frame.

실시예에 따라, 제2 분석결과획득부(21b)는 영상프레임을 기초로 MobileNet 모델을 통해 내담자의 일반 감정 상태를 나타내는 제1 분류값을 획득할 수 있다. Depending on the embodiment, the second analysis result acquisition unit 21b may obtain a first classification value representing the general emotional state of the client through the MobileNet model based on the video frame.

실시예에 따라, 제1 분류값은 복수의 일반 감정 상태 각각의 제1 예비확률값을 포함할 수 있다. Depending on the embodiment, the first classification value may include a first preliminary probability value for each of a plurality of general emotional states.

제2 분석결과획득부(21b)는 내담자의 음성프레임을 기초로 제2 모델을 통해 내담자의 일반 감정 상태를 나타내는 제2 분류값을 획득할 수 있다.The second analysis result acquisition unit 21b may obtain a second classification value representing the client's general emotional state through a second model based on the client's voice frame.

실시예에 따라, 제2 분석결과획득부(21b)는 음성프레임을 기초로 SVM 알고리즘 기반의 제2 모델을 통해 통해 내담자의 일반 감정 상태를 나타내는 제2 분류값을 획득할 수 있다.Depending on the embodiment, the second analysis result acquisition unit 21b may obtain a second classification value representing the general emotional state of the client through a second model based on the SVM algorithm based on the voice frame.

실시예에 따라, 제2 분류값은 복수의 일반 감정 상태 각각의 제2 예비확률값을 포함할 수 있다. Depending on the embodiment, the second classification value may include a second preliminary probability value for each of a plurality of general emotional states.

제2 분석결과획득부(21b)는 텍스트데이터를 기초로 제3 모델을 통해 내담자의 일반 감정 상태를 나타내는 제3 분류값을 획득할 수 있다.The second analysis result acquisition unit 21b may obtain a third classification value representing the general emotional state of the client through a third model based on text data.

실시예에 따라, 제2 분석결과획득부(21b)는 텍스트데이터를 기초로 BERT 모델을 통해 제3 분류값을 획득할 수 있다.Depending on the embodiment, the second analysis result acquisition unit 21b may obtain the third classification value through the BERT model based on text data.

실시예에 따라, 제3 분류값은 복수의 일반 감정 상태 각각의 제3 예비확률값을 포함할 수 있다. Depending on the embodiment, the third classification value may include a third preliminary probability value for each of a plurality of general emotional states.

구체적으로, 제2 분석결과획득부(21b)는 도 13을 참조하면, 복수의 일반 감정 상태 각각의 제1 예비확률값에 제1 가중치를 각각 적용한 복수의 제1 결과, 상기 복수의 일반 감정 상태 각각의 제2 예비확률값에 제2 가중치를 각각 적용한 복수의 제2 결과, 및 상기 복수의 일반 감정 상태 각각의 제3 예비확률값에 제3 가중치를 각각 적용한 복수의 제3 결과를 각각 획득하고, 상기 복수의 일반 감정 상태별로 제1 결과, 제2 결과 및 제3 결과를 각각 합산하여 복수의 일반 일반 감정 상태 각각의 확률값을 획득할 수 있다.Specifically, referring to FIG. 13, the second analysis result acquisition unit 21b generates a plurality of first results obtained by applying a first weight to the first preliminary probability value of each of the plurality of general emotional states, respectively, and the plurality of general emotional states. A plurality of second results are obtained by applying a second weight to each of the second preliminary probability values of and a plurality of third results are obtained by applying a third weight to each of the third preliminary probability values of each of the plurality of general emotional states, and The probability value of each of a plurality of general emotional states can be obtained by adding up the first result, the second result, and the third result for each general emotional state.

예를 들어, 기쁨의 제1 예비확률값과 분노의 제1 예비확률값이 각각 [0.7,0.3]이고, 기쁨의 제2 예비확률값과 분노의 제2 예비확률값이 각각 [0.8,0.2]이며, 기쁨의 제3 예비확률값과 분노의 제3 예비확률값이 각각 [0.2,0.8]이며, 제1 모델의 가중치(a)가 0.3, 제2 모델의 가중치(b)가 0.5, 제3 모델의 가중치(c)가 0.2인 경우, 기쁨에 대해 합산된 확률값은 0.7*0.3 + 0.8*0.5 + 0.2*0.2 = 0.65이고, 분노에 대해 합산된 확률값은 0.3*0.3 + 0.2*0.5 + 0.8*0.2 = 0.35으로 산출할 수 있다.For example, the first preliminary probability values of joy and anger are [0.7, 0.3], respectively, the second preliminary probability values of joy and anger are [0.8, 0.2], respectively, and the first preliminary probability values of joy are [0.7, 0.3], respectively. The third preliminary probability value and the third preliminary probability value of anger are respectively [0.2, 0.8], the weight (a) of the first model is 0.3, the weight (b) of the second model is 0.5, and the weight (c) of the third model If is 0.2, the summed probability value for joy is 0.7*0.3 + 0.8*0.5 + 0.2*0.2 = 0.65, and the summed probability value for anger is 0.3*0.3 + 0.2*0.5 + 0.8*0.2 = 0.35. You can.

이하, 각 모델의 학습 과정에 대해서는 도 13을 참조하여 후술한다.Hereinafter, the learning process of each model will be described with reference to FIG. 13.

실시예에 따라, 복수의 치환 감정 상태는 복수의 일반 감정 상태 각각의 상위 개념으로 정의되는 감정 상태의 조합일 수 있다. 즉, 복수의 치환 감정 상태 각각은 치환 감정 상태의 하위 개념으로 정의되는 일반 감정 상태가 하나 또는 복수 개 매핑되도록 정의될 수 있다. 예를 들어, 일반 감정 상태가 7가지로 표현될 수 있다면, 치환 감정 상태는 4가지(긍정: 기쁨, 부정: 분노/경멸/놀람/두려움, 중립: 평온, 기타:슬픔)로 표현될 수 있다.Depending on the embodiment, the plurality of substituted emotional states may be a combination of emotional states defined as higher-level concepts for each of the plurality of general emotional states. That is, each of the plurality of substituted emotional states may be defined so that one or more general emotional states defined as sub-concepts of the substituted emotional state are mapped. For example, if general emotional states can be expressed in 7 types, substitute emotional states can be expressed in 4 types (positive: joy, negative: anger/contempt/surprise/fear, neutral: calm, other: sadness). .

실시예에 따라, 복수의 치환 감정 상태 각각의 확률값은 상기 복수의 치환 감정 상태 각각에 대응되는 하나 또는 복수의 일반 감정 상태의 확률값들을 합산하여 획득될 수 있다. 즉, 제2 분석결과획득부(21b)는 복수의 일반 감정 상태 각각의 확률값을 산출한 다음, 복수의 일반 감정 상태 각각 중 동일 그룹으로 분류되는 일반 감정 상태의 확률값들을 합산하여 이를 치환 감정 상태의 확률값으로 산출할 수 있다.Depending on the embodiment, the probability value of each of the plurality of alternate emotional states may be obtained by adding the probability values of one or more general emotional states corresponding to each of the plurality of alternate emotional states. That is, the second analysis result acquisition unit 21b calculates the probability value of each of a plurality of general emotional states, then adds up the probability values of the general emotional states classified into the same group among each of the plurality of general emotional states, and calculates the probability values of the general emotional states classified into the same group as a replacement emotional state. It can be calculated as a probability value.

예를 들어, 특정 시각(또는 시간)의 기쁨의 확률값이 20%, 분노의 확률값이 10%, 경멸의 확률값이 15%, 놀람의 확률값이 5%, 두려움의 확률값이 20%, 평온의 확률값이 10%, 슬픔의 확률값이 20%인 경우, 긍정의 확률값이 20%이며, 부정의 확률값은 50%이며, 중립의 확률값은 10%이고, 기타의 확률값은 20%인 것으로 산출될 수 있다.For example, at a specific time (or time), the probability value of joy is 20%, the probability value of anger is 10%, the probability value of contempt is 15%, the probability value of surprise is 5%, the probability value of fear is 20%, and the probability value of calmness is 20%. If the probability value of sadness is 10% and 20%, the probability value of positivity is 20%, the probability value of negativity is 50%, the probability value of neutrality is 10%, and the other probability values can be calculated as 20%.

실시예에 따라, 복수의 치환 감정 상태 각각의 확률값은 소정의 시간 구간 동안 획득된 치환 감정 상태의 확률값을 평균화하여 획득될 수도 있다.Depending on the embodiment, the probability value of each of the plurality of alternate emotional states may be obtained by averaging the probability values of the alternate emotional states acquired during a predetermined time interval.

실시예에 따라, 제2 분석결과획득부(21b)는 도 6과 같이 시간대별 복수의 치환 감정 상태 각각의 확률값을 그래프화하여 생성 및 전송할 수 있다.Depending on the embodiment, the second analysis result acquisition unit 21b may generate and transmit a graph of the probability values of each of a plurality of alternative emotional states for each time period, as shown in FIG. 6 .

실시예에 따라, 제2 분석결과획득부(21b)는 제2 영상데이터에 기초해 심박수와 스트레스 지수를 획득할 수 있다.Depending on the embodiment, the second analysis result acquisition unit 21b may acquire the heart rate and stress index based on the second image data.

구체적으로, 제2 분석결과획득부(21b)는 제2 영상데이터를 구성하는 각각의 영상프레임을 이용해 rPPG(Remote photoplethysmography, 원격 광혈류측정) 신호를 연산하고, 연산된 rPPG 신호를 이용해 심박수를 추출할 수 있다.Specifically, the second analysis result acquisition unit 21b calculates an rPPG (Remote photoplethysmography) signal using each image frame constituting the second image data, and extracts the heart rate using the calculated rPPG signal. can do.

실시예에 따라, 유사하르방식(Haar cascade)알고리즘을 사용해 영상프레임으로부터 얼굴을 검출하고(ROI), 노이즈제거 및 주파수 변환 후 피부색의 변화를 RGB 값의 채널로 변환한 후, 각 채널에서 평균 픽셀값의 변화를 측정하며, 각 채널에서 추출한 값을 이용해 심박수를 계산할 수 있다.According to the embodiment, a face is detected from an image frame (ROI) using the Haar cascade algorithm, and after noise removal and frequency conversion, the change in skin color is converted to RGB value channels, and then the average pixel in each channel is Changes in values are measured, and heart rate can be calculated using the values extracted from each channel.

그리고, 연산된 rPPG 신호로부터 추출된 심박수를 기초로 한 심박변이도 지표와 스트레스에 의한 자율신경계 활성화의 정적 상관관계를 이용해 스트레스 지수를 산출할 수 있다. In addition, the stress index can be calculated using the heart rate variability index based on the heart rate extracted from the calculated rPPG signal and the positive correlation between autonomic nervous system activation due to stress.

실시예에 따라, 심박변이도 지표는 SDNN(standard deviation of all RR interval) 값, RMSSD(square root of the mean squared differences of successive normal sinus intervals) 값, SDNN/RMSSD비율, NN(normal to normal interval), NN50(연속된 NN 간격들의 변이가 50 ms보다 큰 경우의 수), pNN50(모든 NN 간격 중의 NN50 의 비율), LF(low frequency) 값, HF(high frequency) 값, 또는 LF/HF 값 등을 포함할 수 있다.Depending on the embodiment, the heart rate variability index includes standard deviation of all RR interval (SDNN) value, square root of the mean squared differences of successive normal sinus intervals (RMSSD) value, SDNN/RMSSD ratio, normal to normal interval (NN), NN50 (the number of instances where the variation of consecutive NN intervals is greater than 50 ms), pNN50 (ratio of NN50 among all NN intervals), LF (low frequency) value, HF (high frequency) value, or LF/HF value, etc. It can be included.

예를 들면, SDNN 값에서 간격이 넓을수록 변화도가 크다는 뜻이며, 일반적으로 변화도가 클수록 건강하다는 것을 이용하여 육체의 피로도를 연산할 수 있고, RMSSD 값의 수치가 높으면 심장이 안정도가 높다는 것을 이용하여, 부교감 신경의 활동을 알 수 있다. LF 값의 경우 교감신경계 활성도를 반영하는데, 정신 스트레스와 피로감에 영향을 받으며, 특히 급성 스트레스 정도를 평가할 수 있고, 우울 또는 분노와 상관관계가 있으며, HF 값의 경우 부교감신경계 활성도를 반영하는데, 호흡 활동과 밀접한 관련이 있으며, 장기적인 스트레스, 불안, 또는 공포와 상관관계가 있다. LF/HF 값은 자율신경계의 전체적인 균형 정도를 반영하는데, 일반적으로 건강한 사람은 깨어 있는 동안에 LF 값이 HF 값보다 높다. 따라서, rPPG 신호로부터 추출된 심박변이도 지표와 스트레스에 의한 자율신경계 활성화의 정적 상관관계를 이용함으로써, 스트레스 지수를 산출할 수 있다.For example, the wider the interval in the SDNN value, the greater the degree of change. In general, the greater the degree of change, the healthier it is. This can be used to calculate physical fatigue, and a high RMSSD value indicates that the heart is more stable. Using this, you can find out the activity of the parasympathetic nerve. The LF value reflects the activity of the sympathetic nervous system, and is influenced by mental stress and fatigue. In particular, it can evaluate the degree of acute stress, and is correlated with depression or anger. The HF value reflects the activity of the parasympathetic nervous system, and respiratory It is closely related to activity and is correlated with long-term stress, anxiety, or fear. The LF/HF value reflects the overall balance of the autonomic nervous system, and generally, in healthy people, the LF value is higher than the HF value while awake. Therefore, the stress index can be calculated by using the positive correlation between the heart rate variability index extracted from the rPPG signal and the activation of the autonomic nervous system due to stress.

실시예에 따라, 상담이 시작된 후 5분 동안 획득된 각 심박변이도 지표를 이용해 평균값을 산출하고, 이를 기준값으로 설정해 5분 이후의 심박변이도 지표를 산출하여 기준값과 비교하면서 분석할 수 있다. Depending on the embodiment, the average value is calculated using each heart rate variability index obtained for 5 minutes after the consultation begins, and this is set as a reference value. The heart rate variability index after 5 minutes can be calculated and analyzed by comparing it with the reference value.

다만, 이는 일예이며, 공지의 다양한 방식에 의해 심박수, 심박변이도, 및 스트레스 지수를 산출할 수 있다. However, this is just an example, and heart rate, heart rate variability, and stress index can be calculated using various known methods.

실시예에 따라, 제2 분석결과획득부(21b)는 도 7과 같이 시간대별 심박수와 스트레스 지수를 그래프화하여 생성 및 전송할 수 있다. 실시예에 따라, 2 분석결과획득부(21b)는 시간대별 심박수와 스트레스 지수를 하나의 그래프 상에 나타낼 수 있다. 실시예에 따라, 2 분석결과획득부(21b)는 심박수와 스트레스 지수를, 측정 수치 자체 및/또는 측정 수치에 대응되는 분류 정보(정상/주의/경계 등) (정상스트레스/보통스트레스/심한스트레스 등)로 표현된 그래프를 작성하여 전송할 수 있다.Depending on the embodiment, the second analysis result acquisition unit 21b may generate and transmit a graph of the heart rate and stress index for each time period as shown in FIG. 7 . Depending on the embodiment, the analysis result acquisition unit 21b may display the heart rate and stress index for each time period on one graph. Depending on the embodiment, the analysis result acquisition unit 21b provides heart rate and stress index, the measurement value itself, and/or classification information (normal/caution/borderline, etc.) corresponding to the measurement value (normal stress/moderate stress/severe stress). etc.) can be created and transmitted.

실시예에 따라, 제2 분석결과획득부(21b)는 제2 음성데이터가 변환된 텍스트데이터에 대한 분석을 수행해 기 설정된 키워드별 빈도수를 획득할 수 있다. Depending on the embodiment, the second analysis result acquisition unit 21b may perform analysis on the text data converted from the second voice data to obtain the frequency of each preset keyword.

구체적으로, 제2 분석결과획득부(21b)는 제2 음성데이터를 구성하는 각각의 음성프레임이 변환된 텍스트데이터(STT를 통한) 전체에 대한 분석을 수행해 상담자에 의해 기 설정된 키워드별 빈도수를 획득할 수 있다. 이는, 텍스트데이터와 기 설정된 키워드를 매핑하는 분석을 통해 이루어질 수 있다.Specifically, the second analysis result acquisition unit 21b performs analysis on the entire text data (via STT) into which each voice frame constituting the second voice data has been converted to obtain the frequency of each keyword preset by the counselor. can do. This can be achieved through analysis that maps text data to preset keywords.

실시예에 따라, 기 설정된 키워드는 상담자에 의해 실시간 변경 설정되도록 구현될 수 있다.Depending on the embodiment, preset keywords may be implemented to be changed and set in real time by a counselor.

실시예에 따라, 제2 분석결과획득부(21b)는 도 8과 같이, 키워드별 빈도수를 나타내는 그래프를 생성 및 전송할 수 있다.Depending on the embodiment, the second analysis result acquisition unit 21b may generate and transmit a graph showing the frequency of each keyword, as shown in FIG. 8.

실시예에 따라, 제2 분석결과획득부(21b)는 키워드별 빈도수를 내림차순 또는 오름차순으로 정렬하여 제공할 수 있다.Depending on the embodiment, the second analysis result acquisition unit 21b may arrange the frequencies of each keyword in descending or ascending order and provide them.

실시예에 따라, 제2 분석결과획득부(21b)는 키워드별 빈도수를 원의 크기로 표현하여 제공할 수도 있다. 예를 들어, 많은 빈도수로 발화된 키워드는 상대적으로 큰 크기의 원으로 표현하여 그래프를 생성할 수 있다.Depending on the embodiment, the second analysis result acquisition unit 21b may provide the frequency of each keyword expressed in the size of a circle. For example, keywords uttered with a high frequency can be expressed as relatively large circles to create a graph.

실시예에 따라, 제2 분석결과획득부(21b)는 상담자 단말(30)로부터 설정 키워드를 전송받거나, 감정 분석 결과 제공 장치(20)가 별도의 사용자 인터페이스부(미도시)를 통한 사용자 입력을 통해 설정 키워드를 직접 입력받을 수 있다.Depending on the embodiment, the second analysis result acquisition unit 21b receives a set keyword from the counselor terminal 30, or the emotion analysis result providing device 20 receives user input through a separate user interface unit (not shown). You can directly enter the setting keyword through.

실시예에 따라, 제2 분석결과획득부(21b)는 제2 음성데이터가 변환된 텍스트데이터에 대해 잠재 디리클레 할당(LDA, Latent Dirichlet Allocation) 토픽 모델링을 수행하여 상기 토픽별로 구성된 키워드들 각각에 대한 빈도수를 획득할 수 있다. According to the embodiment, the second analysis result acquisition unit 21b performs Latent Dirichlet Allocation (LDA) topic modeling on the text data into which the second voice data has been converted to obtain information on each of the keywords configured for each topic. Frequencies can be obtained.

구체적으로, 제2 분석결과획득부(21b)는 제2 음성데이터를 구성하는 각각의 음성프레임이 변환된 텍스트데이터(STT를 통한) 전체에 대한 잠재 디리클레 할당(LDA, Latent Dirichlet Allocation) 토픽 모델링을 수행하여 상기 토픽별로 구성된 키워드들 각각에 대한 빈도수를 획득할 수 있다.Specifically, the second analysis result acquisition unit 21b performs latent Dirichlet allocation (LDA) topic modeling on the entire text data (via STT) into which each voice frame constituting the second voice data has been converted. By performing this, the frequency count for each of the keywords configured for each topic can be obtained.

실시예에 따라, 제2 분석결과획득부(21b)는 텍스트데이터 전체를 구성하는 복수의 문서들 각각을 전처리하고, 전처리된 복수의 문서들로부터 적어도 하나의 토픽을 추출하며, 토픽별로 토픽을 구성하는 키워드들 각각에 대한 단어 빈도수를 산출할 수 있다.According to the embodiment, the second analysis result acquisition unit 21b preprocesses each of the plurality of documents constituting the entire text data, extracts at least one topic from the plurality of preprocessed documents, and configures topics for each topic. You can calculate the word frequency for each keyword.

실시예에 따라, 전처리 과정은 특수 문자 제거(또는 숫자 제거), 형태소 분석, 불용어 제거, 유의어(또는 유사어) 처리 중 적어도 하나 이상을 포함할 수 있다.Depending on the embodiment, the preprocessing process may include at least one of special character removal (or number removal), morpheme analysis, stop word removal, and synonym (or similar word) processing.

실시예에 따라, 제2 분석결과획득부(21b)는 전처리된 복수의 문서들을 이용하여 적어도 하나의 토픽을 추출하고, 전처리된 복수의 문서들 각각을 추출된 적어도 하나의 토픽 각각과 매칭할 수 있다. 구체적으로, 상기 전처리된 복수의 문서들로부터 키워드를 추출하고, 추출된 키워드의 빈도 분석을 수행한다. 또한, 제2 분석결과획득부(21b)는 토픽 모델링을 위해 단어-문서 행렬(Term-Document Matrix)을 생성할 수 있다. 제2 분석결과획득부(21b)는 LDA(Latent Dirichlet Allocation) 기법을 통해 문서를 이루고 있는 키워드를 통해 적어도 하나의 토픽(주제)을 추출하고, 각 문서를 토픽 별로 분류할 수 있다. 이때, 하나의 문서는 복수 개의 토픽에 포함될 수도 있다. 즉, 문서와 토픽은 1:N(N은 1 이상의 자연수)의 대응 관계를 갖을 수 있다. LDA 모형(또는 LDA 모델)은 사전에 계산된 주제별 단어의 분포를 바탕으로 주어진 문서의 단어를 분석함으로써 해당 문서가 어떤 주제를 다루고 있는지 예측하는 모형이다. 토픽을 나누는 기준은 클러스터 분석 기법의 하나로 실루엣 분석을 통해 K의 군집 수를 결정하고 K 개의 주제에 따라 상위 키워드를 분석한다.Depending on the embodiment, the second analysis result acquisition unit 21b may extract at least one topic using a plurality of pre-processed documents and match each of the plurality of pre-processed documents with each of the extracted at least one topic. there is. Specifically, keywords are extracted from the plurality of preprocessed documents, and frequency analysis of the extracted keywords is performed. Additionally, the second analysis result acquisition unit 21b may generate a term-document matrix for topic modeling. The second analysis result acquisition unit 21b can extract at least one topic (subject) through keywords constituting the document through the LDA (Latent Dirichlet Allocation) technique and classify each document by topic. At this time, one document may be included in multiple topics. In other words, a document and a topic can have a 1:N correspondence relationship (N is a natural number greater than or equal to 1). The LDA model (or LDA model) is a model that predicts what topic the document covers by analyzing the words in a given document based on the distribution of words for each topic calculated in advance. The standard for dividing topics is one of the cluster analysis techniques, which determines the number of K clusters through silhouette analysis and analyzes top keywords according to K topics.

실시예에 따라, 제2 분석결과획득부(21b)는 토픽별로 토픽을 구성하는 키워드들 각각에 대한 단어 빈도수를 도 9a 및 도 9b(도 9a의 그래프 확대)와 같이 복수의 그래프로 그래프화할 수 있다.Depending on the embodiment, the second analysis result acquisition unit 21b may graph the word frequencies for each keyword constituting the topic into a plurality of graphs, as shown in FIGS. 9A and 9B (enlarged graph of FIG. 9A). there is.

실시예에 따라, 임의의 그래프 상에는, 토픽수에 대응되는 원들을 표기하고, 특히, 원의 크기가 토픽에 대응되는 키워드의 빈도수에 비례하도록 그래프화할 수 있다. 또한, 원 사이의 거리는 토픽 사이의 유사도에 기초해 계산되어 그래프화될 수 있다. 그리고, 다른 그래프 상에는, 각 원의 토픽에 대응되는 키워드와 해당 키워드별 빈도수 정보를 나타내도록 작성될 수 있다. Depending on the embodiment, circles corresponding to the number of topics may be displayed on an arbitrary graph, and in particular, the graph may be graphed so that the size of the circles is proportional to the frequency of keywords corresponding to the topic. Additionally, the distance between circles can be calculated and graphed based on the similarity between topics. And, on another graph, it can be created to display keywords corresponding to the topic of each circle and frequency information for each keyword.

실시예에 따라, 제2 분석결과획득부(21b)는 제2 음성데이터를 기초로 분석하여 음성 파라미터를 획득할 수 있다. Depending on the embodiment, the second analysis result acquisition unit 21b may obtain voice parameters by analyzing the second voice data based on the second voice data.

본 발명에 따르면, 제2 음성데이터에 대한 음성프레임들을 이용해 각 음성프레임들에 대한 각 음성 파라미터를 획득하기 위하여 공지의 다양한 기술을 적용할 수 있고, 이에 대한 설명은 생략한다.According to the present invention, various known techniques can be applied to obtain each voice parameter for each voice frame using voice frames for the second voice data, and description thereof will be omitted.

실시예에 따라 음성 파라미터는 파형, 피치(pitch), 포즈(pause) 구간, 발화 속도, 및/또는 망설임 구간을 나타내는 지표를 포함할 수 있다.Depending on the embodiment, voice parameters may include indicators indicating waveform, pitch, pause section, speech rate, and/or hesitation section.

피치는, 음성의 주파수와 주기를 기초로 결정될 수 있다.Pitch can be determined based on the frequency and period of the voice.

포즈 구간은 파형이 발생하지 않거나 파형이 끊기는 구간으로 정의될 수 있다.A pause section can be defined as a section in which no waveform occurs or the waveform is interrupted.

실시예에 따라, 제2 분석결과획득부(21b)는 포즈 구간이 소정 시간(예> 2초) 이상인 경우, 이를 내담자가 망설이는 구간으로 결정 및 이를 이용해 망설임 구간을 나타내는 지표(예>망설임 횟수, 망설임 평균 시간)를 생성할 수 있다. Depending on the embodiment, if the pose section is longer than a predetermined time (e.g., > 2 seconds), the second analysis result acquisition unit (21b) determines this as a section in which the client hesitates and uses this to provide an indicator (e.g., hesitation) indicating the hesitation section. number of times, average time of hesitation) can be generated.

실시예에 따라, 제2 분석결과획득부(21b)는 도 10a 및 도 10b와 같이 시간대별 음성 파라미터를 그래프화하여 생성할 수 있다.Depending on the embodiment, the second analysis result acquisition unit 21b may generate a graph of voice parameters for each time period as shown in FIGS. 10A and 10B.

예를 들어, 도 10a은 시간대별 피치 변화를 나타내며, 10b는 시간대별 포즈 변화를 나타낸다.For example, Figure 10a shows the pitch change over time, and Figure 10b shows the pose change over time.

실시예에 따라, 제2 분석결과획득부(21b)는 제2 영상데이터를 기초로 분석하여 시선 위치 정보 및 얼굴 움직임 정보를 획득할 수 있다.Depending on the embodiment, the second analysis result acquisition unit 21b may obtain gaze position information and facial movement information by analyzing the second image data based on the second image data.

실시예에 따라, 제2 분석결과획득부(21b)는 제2 영상데이터를 구성하는 각각의 영상프레임으로부터 내담자의 얼굴을 인식하고, 상기 인식된 얼굴의 특징점들 검출하며, 상기 얼굴의 특징점들을 기초로 관심 영역을 지정하고, 지정된 관심 영역에서 동공 중심 위치를 검출하고, 상기 검출된 동공 중심 위치의 시간에 따른 변화 정도를 유클리디안 거리의 변화에 기초해 산출함으로써 시선 위치 정보를 획득할 수 있다. According to the embodiment, the second analysis result acquisition unit 21b recognizes the client's face from each image frame constituting the second image data, detects feature points of the recognized face, and bases the feature points on the face. Gaze position information can be obtained by specifying a region of interest, detecting the position of the pupil center in the designated region of interest, and calculating the degree of change over time in the detected pupil center position based on the change in Euclidean distance. .

영상프레임으로부터 내담자의 얼굴을 인식하고, 인식된 얼굴의 특징점들을 검출하는 것은 공지의 알고리즘을 적용해 수행할 수 있다. Recognizing the client's face from the video frame and detecting the characteristic points of the recognized face can be performed by applying a known algorithm.

실시예에 따라, 제2 분석결과획득부(21b)는 얼굴 특징점들 중 특히, 내담자의 좌안과 우안에 각각 대응되는 특징점들로 구성되는 각 영역을 관심 영역으로 지정하고, 좌안 영역과 우안 영역 각 영역에서 동공 중심 위치를 검출할 수 있다.According to the embodiment, the second analysis result acquisition unit 21b designates each region composed of feature points corresponding to the client's left eye and right eye, respectively, as a region of interest among the facial feature points, and each of the left eye region and the right eye region The position of the pupil center can be detected in the area.

실시예에 따라, 제2 분석결과획득부(21b)는 미리 생성된 특징점 탬플릿(관심 영역 포함)과 인식된 얼굴의 특징점들을 비교해 관심 영역을 지정할 수 있다.Depending on the embodiment, the second analysis result acquisition unit 21b may designate a region of interest by comparing a pre-generated feature point template (including the region of interest) with the recognized facial feature points.

예를 들어, 도 12를 참조하면, 제2 분석결과획득부(21b)는 좌안 영역(및 우안 영역 각각)의 가로축을 기준으로 한 제1 양끝점들과 세로축을 기준으로 한 제2 양끝점들 각각의 좌표를 기준으로 상대적 좌표(제1 양끝점들 사이의 중심 좌표, 제2 양끝점들 사이의 중심 좌표)를 산출하여, 해당 상대적 좌표를 동공 중심 위치로 검출할 수 있다.For example, referring to FIG. 12, the second analysis result acquisition unit 21b includes first end points based on the horizontal axis of the left eye area (and each of the right eye areas) and second end points based on the vertical axis. Relative coordinates (center coordinates between first end points, center coordinates between second end points) are calculated based on each coordinate, and the relative coordinates can be detected as the pupil center position.

그리고, 시간 경과에 따른 내담자의 시선 변화에 따라 산출된 해당 상대적 좌표의 기준 좌표와의 유클리디안 거리를 산출하고, 좌안 영역 및 우안 영역 각각으로부터 산출된 유클리디안 거리의 평균값을 이용해 시선 위치 정보를 획득할 수 있다.Then, the Euclidean distance from the reference coordinates of the relative coordinates calculated according to the change in the client's gaze over time is calculated, and the average value of the Euclidean distances calculated from each of the left and right eye areas is used to obtain gaze position information. can be obtained.

실시예에 따라, 기준 좌표는, 소정의 시간(예> 상담이 시작된 후 약 1분) 동안 실시간 측정된 유클리디안 거리의 평균값으로 산출될 수 있다. Depending on the embodiment, the reference coordinates may be calculated as the average value of the Euclidean distance measured in real time for a predetermined period of time (e.g., about 1 minute after the consultation begins).

실시예에 따라, 도 11과 같이, 제2 분석결과획득부(21b)은 시간변화에 따른 상기 유클리디안 거리의 평균값(기준시간당 변위, 초당 움직임)을 그래프화하거나, 시간변화에 따른 유클리디안 거리의 평균값의 누적값(기준시간당 누적변위, 움직임 누적)를 그래프화하여 작성 및 전송할 수 있다.Depending on the embodiment, as shown in FIG. 11, the second analysis result acquisition unit 21b graphs the average value of the Euclidean distance (displacement per standard time, movement per second) according to time change, or Euclidean distance according to time change. The accumulated value of the average value of the dian distance (accumulated displacement per standard time, accumulated movement) can be created and transmitted as a graph.

실시예에 따라, 제2 분석결과획득부(21b)는 제2 영상데이터를 구성하는 각각의 영상프레임으로부터 내담자의 얼굴을 인식하고, 상기 인식된 얼굴의 특징점을 검출하고, 상기 검출된 특징점 위치의 시간에 따른 변화 정도를 유클리디안 거리의 변화에 기초해 산출함으로써 얼굴 움직임 정보를 획득할 수 있다. According to the embodiment, the second analysis result acquisition unit 21b recognizes the client's face from each image frame constituting the second image data, detects the feature point of the recognized face, and determines the position of the detected feature point. Facial movement information can be obtained by calculating the degree of change over time based on the change in Euclidean distance.

영상프레임으로부터 내담자의 얼굴을 인식하고, 인식된 얼굴의 특징점을 검출하는 것은 공지의 알고리즘을 적용해 수행할 수 있다. Recognizing the client's face from the video frame and detecting the characteristic points of the recognized face can be performed by applying a known algorithm.

실시예에 따라, 제2 분석결과획득부(21b)는 얼굴의 코끝점을 특히 얼굴의 움직임 위치를 검출하는 데 이용할 수 있다.Depending on the embodiment, the second analysis result acquisition unit 21b may use the tip of the nose of the face to specifically detect the movement position of the face.

실시예에 따라, 제2 분석결과획득부(21b)는 미리 생성된 특징점 탬플릿(코끝이 포함된 얼굴 특징점)과 인식된 얼굴의 특징점을 비교해 코끝점을 대상 특징점으로 검출할 수 있다.Depending on the embodiment, the second analysis result acquisition unit 21b may detect the tip of the nose as the target feature point by comparing a pre-generated feature point template (facial feature point including the nose tip) with the feature point of the recognized face.

실시예에 따라, 코끝점의 좌표값은 영상프레임 전체를 기준으로 한 절대 좌표값을 이용할 수 있다.Depending on the embodiment, the coordinate value of the tip of the nose may use an absolute coordinate value based on the entire image frame.

실시예에 따라, 영상프레임을 구성하는 픽셀 단위를 참조해 절대 좌표값을 산출할 수 있다. Depending on the embodiment, absolute coordinate values can be calculated by referring to the pixel units that make up the image frame.

그리고, 시간 경과에 따른 내담자의 얼굴 움직임 변화에 따라 산출된 현 시점의 코끝점 좌표와 이전 시점의 코끝점 좌표와의 유클리디안 거리를 산출하여 얼굴 움직임 위치 정보를 획득할 수 있다.In addition, facial movement location information can be obtained by calculating the Euclidean distance between the nose tip coordinates at the current time and the nose tip coordinates at the previous time, calculated according to changes in the client's facial movement over time.

실시예에 따라, 도 11과 같이, 제2 분석결과획득부(21b)은 시간변화에 따른 상기 유클리디안 거리의 평균값(기준시간당 변위, 초당 움직임)을 그래프화하거나, 시간변화에 따른 유클리디안 거리의 평균값의 누적값(기준시간당 누적변위, 움직임 누적)를 그래프화하여 작성 및 전송할 수 있다.Depending on the embodiment, as shown in FIG. 11, the second analysis result acquisition unit 21b graphs the average value of the Euclidean distance (displacement per standard time, movement per second) according to time change, or Euclidean distance according to time change. The accumulated value of the average value of the dian distance (accumulated displacement per standard time, accumulated movement) can be created and transmitted as a graph.

실시예에 따라, 제2 분석결과획득부(21b)는 도 11과 같이 시간대별 시선 위치 정보와 얼굴 움직임 정보를 각각 그래프화하여 작성 및 전송할 수 있다.Depending on the embodiment, the second analysis result acquisition unit 21b may create and transmit graphs of gaze position information and facial movement information for each time period, as shown in FIG. 11 .

전송부(21c)는 복수의 제2 분석 결과 전체를 포함한 정보를 상담자 단말(30)로 전송할 수 있다(s24).The transmission unit 21c may transmit information including all of the plurality of second analysis results to the counselor terminal 30 (s24).

실시예에 따라 복수의 제2 분석 결과 전체를 포함한 정보는, 복수의 제2 분석 결과 전체, 내담자 단말(10)로부터 실시간 수신한 동영상데이터, 및 상기 실시간 수신한 동영상데이터로부터 분리된 내담자의 음성데이터가 변환된 텍스트데이터와 상담자의 음성데이터가 변환된 텍스트데이터의 컨텐츠를 포함할 수 있다.Depending on the embodiment, the information including all of the plurality of second analysis results may include all of the plurality of second analysis results, video data received in real time from the client terminal 10, and voice data of the client separated from the video data received in real time. It may include content of the converted text data and the text data converted from the counselor's voice data.

도 5 내지 도 11은 상담자 단말(30)의 제2 분석결과제공부(32)의 동작에 따른 사용자 인터페이스부(33)의 화면을 예시한다.5 to 11 illustrate screens of the user interface unit 33 according to the operation of the second analysis result providing unit 32 of the counselor terminal 30.

상담자 단말(30)의 제2 분석결과제공부(32)는 감정 분석 결과 제공 장치(20)로부터 수신한 복수의 제2 분석 결과 전체 중 사용자에 의해 선택된 제2 분석 결과를 포함한 정보와 상담자가 실시간 기록한 상담 노트를 하나의 사용자 인터페이스부(33)의 화면을 통해 출력함으로써 관리자 또는 상담자등의 사용자에게 제공할 수 있다.The second analysis result providing unit 32 of the counselor terminal 30 provides information including the second analysis result selected by the user among all the plurality of second analysis results received from the emotional analysis result providing device 20 and provides real-time information to the counselor. The recorded counseling notes can be provided to users such as managers or counselors by outputting them through the screen of one user interface unit 33.

실시예에 따라, 복수의 제2 분석 결과 전체 중 사용자에 의해 선택된 제2 분석 결과를 포함한 정보는 복수의 제2 분석 결과 전체 중 사용자에 의해 선택된 제2 분석 결과, 선택된 제2 분석 결과와 관련된 보조 분석 결과, 내담자가 촬영된 동영상데이터, 및 내담자가 촬영된 동영상데이터로부터 분리된 내담자의 음성데이터가 변환된 텍스트데이터와 상담자의 음성데이터가 변환된 텍스트데이터에 대응되는 컨텐츠를 포함할 수 있다.Depending on the embodiment, the information including the second analysis result selected by the user among all of the plurality of second analysis results may include the second analysis result selected by the user among all of the plurality of second analysis results, and auxiliary information related to the selected second analysis result. As a result of the analysis, it may include video data in which the client was filmed, text data converted from the client's voice data separated from the video data in which the client was filmed, and content corresponding to the text data converted to the counselor's voice data.

실시예에 따라, 제2 분석결과제공부(32)는 사용자 인터페이스부(33)의 화면을 통해 복수의 제2 분석 결과 중 선택된 제2 분석 결과를 출력하기 위한 사용자 입력을 수신할 수 있다.Depending on the embodiment, the second analysis result providing unit 32 may receive a user input for outputting a second analysis result selected from among a plurality of second analysis results through the screen of the user interface unit 33.

실시예에 따라, 사용자 인터페이스부(33)의 화면은 복수의 제2 분석 결과를 나타내는 복수의 메뉴(M)를 포함하고, 제2 분석결과제공부(32)는 사용자에 의해 선택 입력된 메뉴에 대응되는 제2 분석 결과(①)를 사용자 인터페이스부(33)의 화면을 통해 출력하여 사용자에게 제공할 수 있다. Depending on the embodiment, the screen of the user interface unit 33 includes a plurality of menus (M) representing a plurality of second analysis results, and the second analysis result providing unit 32 provides a menu selected by the user. The corresponding second analysis result (①) can be output through the screen of the user interface unit 33 and provided to the user.

예를 들어, 도 5는 복수의 일반 감정 상태를 제2 분석 결과로 출력하기 위한 메뉴에 대한 사용자의 선택 입력으로 출력된 화면을 예시하고, 도 6은 복수의 치환 감정 상태를 제2 분석 결과로 출력하기 위한 메뉴에 대한 사용자의 선택 입력으로 출력된 화면을 예시하고, 도 7은 심박수와 스트레스 측정값을 제 제2 분석 결과로 출력하기 위한 메뉴에 대한 사용자의 선택 입력으로 출력된 화면을 예시하고, 도 8은 키워드별 빈도수를 제2 분석 결과로 출력하기 위한 메뉴에 대한 사용자의 선택 입력으로 출력된 화면을 예시하고, 도 9a 및 도 9b는 토픽별로 구성된 키워드들 각각에 대한 빈도수를 제2 분석 결과로 출력하기 위한 메뉴에 대한 사용자의 선택 입력으로 출력된 화면을 예시하고, 도 10a 및 도 10b는 음성 파라미터를 제2 분석 결과로 출력하기 위한 메뉴에 대한 사용자의 선택 입력으로 출력된 화면을 예시하고, 도 11은 시선 위치 정보 및/ 얼굴 움직임 정보를 제2 분석 결과로 출력하기 위한 메뉴에 대한 사용자의 선택 입력으로 출력된 화면을 예시한다.For example, Figure 5 illustrates a screen output by a user's selection input for a menu for outputting a plurality of general emotional states as second analysis results, and Figure 6 illustrates a plurality of substituted emotional states as second analysis results. FIG. 7 illustrates a screen output by a user's selection input for a menu for output, and FIG. 7 illustrates a screen output by a user's selection input on a menu for outputting heart rate and stress measurement values as a second analysis result. , Figure 8 illustrates a screen output by the user's selection input for a menu for outputting the frequency of each keyword as a second analysis result, and Figures 9a and 9b show the second analysis of the frequency of each of the keywords organized by topic. A screen output by a user's selection input for a menu for outputting a result is exemplified, and FIGS. 10A and 10B illustrate a screen output by a user's selection input for a menu for outputting a voice parameter as a second analysis result. 11 illustrates a screen output by a user's selection input for a menu for outputting gaze position information and/or facial movement information as a second analysis result.

실시예에 따라, 각 컨텐츠는 사용자 인터페이스부(33)의 화면 상의 분리된 영역에 각각 출력될 수 있다.Depending on the embodiment, each content may be output in separate areas on the screen of the user interface unit 33.

예를 들어, 도 5 내지 도 11의 사용자 인터페이스부(33)의 화면에 대한 예시로, 제2 분석 결과(①), 제2 분석 결과와 관련된 보조 분석 결과(②), 내담자 가 촬영된 동영상데이터(⑤), 내담자의 음성데이터가 변환된 텍스트데이터와 상담자의 음성데이터가 변환된 텍스트데이터(④), 상담자가 실시간 기록한 상담 노트(③)를 포함할 수 있다. For example, as an example of the screen of the user interface unit 33 in FIGS. 5 to 11, the second analysis result (①), the auxiliary analysis result (②) related to the second analysis result, and video data captured by the patient (⑤), text data converted from the client's voice data, text data converted from the counselor's voice data (④), and counseling notes recorded by the counselor in real time (③).

도 5 내지 도 7, 및 도 10a, 도 10b, 도 11의 사용자 인터페이스부(33)의 화면에서, 실시예에 따라, 시간대별 제2 분석 결과가 그래프 형태로 구현되어 제공될 수 있다.In the screen of the user interface unit 33 of FIGS. 5 to 7 and FIGS. 10A, 10B, and 11, depending on the embodiment, the second analysis results for each time period may be provided in the form of a graph.

구체적으로, 상기 하나의 사용자 인터페이스 화면(33)은 복수 개의 영역으로 구분되고, 상기 제2 분석결과제공부(32)는, 상기 복수 개의 영역 중 어느 하나의 영역에 상기 사용자에 의해 선택된 상기 제2 분석 결과가 시간대별로 나타난 그래프를 출력할 수 있다. Specifically, the one user interface screen 33 is divided into a plurality of areas, and the second analysis result providing unit 32 provides the second analysis result selected by the user in any one of the plurality of areas. You can output a graph showing the analysis results by time period.

도 5 내지 도 11의 사용자 인터페이스부(33)의 화면에서, 실시예에 따라, 내담자의 음성데이터가 변환된 텍스트데이터와 상담자의 음성데이터가 변환된 텍스트데이터(④)는 사용자에 의해 편집되거나 파일 형태로 제공되어 사용자에게 제공될 수 있다. In the screen of the user interface unit 33 of FIGS. 5 to 11, depending on the embodiment, text data converted from the client's voice data and text data ④ converted from the counselor's voice data can be edited by the user or saved as a file. It may be provided in a form and provided to the user.

도 5 내지 도 11의 사용자 인터페이스부(33)의 화면에서, 실시예에 따라, 내담자 정보가 리스트화되어 사용자에 의해 선택된 내담자 정보가 검색될 수 있다.In the screen of the user interface unit 33 of FIGS. 5 to 11, depending on the embodiment, client information is listed and client information selected by the user can be searched.

실시예에 따라, 도 5 내지 도 11의 각 사용자 인터페이스부(33)의 화면 상의 각 영역에서, 제2 분석 결과(①)와 제1 분석 결과와 관련된 보조 분석 결과(②)에 대응되는 컨텐츠만이 상이하게 구현되고, 나머지 컨텐츠(③④⑤)는 동일하게 구현될 수 있다. Depending on the embodiment, in each area on the screen of each user interface unit 33 of FIGS. 5 to 11, only content corresponding to the second analysis result (①) and the auxiliary analysis result (②) related to the first analysis result is displayed. This is implemented differently, and the remaining content (③④⑤) can be implemented the same.

도 5를 참조하면, 시간대별 복수의 일반 감정 상태 각각의 확률값을 나타내는 그래프가 제2 분석 결과(①)를 나타내는 영역에 제공될 수 있다. 실시예에 따라, 제2 분석 결과와 관련된 보조 분석 결과(②)는 복수의 일반 감정 상태 각각에 대한 항목 정보를 포함할 수 있고, 실시예에 따라 사용자에 의해 선택된 일반 감정 상태 항목에 대한 확률값만이 그래프 상에 출력되도록 설정될 수도 있다.Referring to FIG. 5 , a graph representing the probability values of each of a plurality of general emotional states by time period may be provided in an area showing the second analysis result (①). Depending on the embodiment, the auxiliary analysis result (②) related to the second analysis result may include item information for each of a plurality of general emotional states, and depending on the embodiment, only the probability value for the general emotional state item selected by the user. It can also be set to be output on this graph.

실시예에 따라, 그래프 상의 동일 시점에 나타난 복수의 일반 감정 상태의 확률값 중, 확률값이 가장 큰 수치를 나타내는 일반 감정 상태가 해당 시점의 대표 감정 상태인 것으로 판단될 수 있다. Depending on the embodiment, among the probability values of a plurality of general emotional states appearing at the same time on the graph, the general emotional state with the largest probability value may be determined to be the representative emotional state at that time.

본 발명에 따르면, 도 5의 제2 분석 결과를 통해, 사용자는 전체 상담 구간 내에서 시간대별(시간의 흐름에 따른) 내담자의 감정 변화를 전체적으로 확인할 수 있게 된다. 이 때, 사용자는 복수의 일반 감정 상태 각각의 확률값을 통합적으로, 또는, 이 중 선택된 일반 감정 상태의 확률값을 개별적으로 확인할 수 있게 된다. 이에 따라, 사용자는 내담자의 감정 변화의 맥락을 전체적으로 이해함으로써, 추후 상담의 방향을 모색할 수 있게 된다. According to the present invention, through the second analysis result of FIG. 5, the user can overall check the change in the client's emotions by time zone (according to the passage of time) within the entire counseling section. At this time, the user can check the probability value of each of the plurality of general emotional states collectively, or individually the probability value of the general emotional state selected among them. Accordingly, the user can understand the context of the client's emotional changes as a whole and seek a direction for future counseling.

도 6을 참조하면, 시간대별 복수의 치환 감정 상태 각각의 확률값을 나타내는 그래프가 제2 분석 결과(①)를 나타내는 영역에 제공될 수 있다. 실시예에 따라, 제2 분석 결과와 관련된 보조 분석 결과(②)는 긍정, 부정, 중립, 기타 각각에 대응되는 빈도수 및/또는 확률 정보와, 이를 도표화한 정보를 포함할 수 있다. 실시예에 따라 사용자에 의해 선택된 치환 감정 상태에 대응되는 정보만이 출력되도록 설정될 수도 있다.Referring to FIG. 6, a graph showing the probability value of each of a plurality of substituted emotional states by time period may be provided in the area showing the second analysis result (①). Depending on the embodiment, the auxiliary analysis result (②) related to the second analysis result may include frequency and/or probability information corresponding to each of positive, negative, neutral, and other, and tabular information thereof. Depending on the embodiment, it may be set to output only information corresponding to the replacement emotional state selected by the user.

본 발명에 따르면, 도 6의 제2 분석 결과를 통해, 사용자는 전체 상담 구간 내에서 시간대별(시간의 흐름에 따른) 내담자의 감정 변화를 전체적으로 확인할 수 있게 된다. 이 때, 사용자는 복수의 치환 감정 상태 각각의 확률값을 통합적으로, 또는, 이 중 선택된 치환 감정 상태의 확률값을 개별적으로 확인할 수 있게 된다. 이에 따라, 사용자는 내담자의 감정 변화의 맥락을 전체적으로 이해함으로써, 추후 상담의 방향을 모색할 수 있게 된다. According to the present invention, through the second analysis result of FIG. 6, the user can overall check the change in the client's emotions by time zone (according to the passage of time) within the entire counseling section. At this time, the user can collectively check the probability value of each of a plurality of substituted emotional states, or individually check the probability value of the selected substituted emotional state among them. Accordingly, the user can understand the context of the client's emotional changes as a whole and seek a direction for future counseling.

특히, 본 발명에 따르면, 도 5의 제2 분석 결과를 통해, 사용자는 보다 상세하게 분류된(카테고리화된) 감정 상태 정보를 확인할 수 있는 반면, 도 6의 제2 분석 결과를 통해, 사용자는 보다 큰 범위로 분류된(카테고리화된) 감정 상태 정보를 확인할 수 있어, 사용자의 필요 및 선택에 따라 다양하게 감정 상태 정보를 확인할 수 있게 된다.In particular, according to the present invention, through the second analysis result of FIG. 5, the user can confirm more detailed classified (categorized) emotional state information, while through the second analysis result of FIG. 6, the user can Since emotional state information classified (categorized) can be confirmed in a larger range, emotional state information can be confirmed in a variety of ways according to the user's needs and choices.

도 7을 참조하면, 시간대별 심박수와 스트레스 지수를 함께 나타내는 그래프가 제2 분석 결과(①)를 나타내는 영역에 제공될 수 있다.Referring to FIG. 7, a graph showing both heart rate and stress index for each time period may be provided in the area showing the second analysis result (①).

실시예에 따라, 제2 분석 결과와 관련된 보조 분석 결과는 평균심박수, 평균스트레스레벨 등의 정보를 포함할 수 있다. 실시예에 따라 심박수와 스트레스 레벨 중 사용자에 의해 선택된 정보만이 출력되도록 설정될 수도 있다. Depending on the embodiment, the auxiliary analysis result related to the second analysis result may include information such as average heart rate and average stress level. Depending on the embodiment, only information selected by the user among heart rate and stress level may be set to be output.

본 발명에 따르면, 도 7의 제2 분석 결과를 통해, 사용자는 전체 상담 구간 내에서 시간대별(시간의 흐름에 따른) 내담자의 스트레스 정도를 전체적으로 확인할 수 있게 된다. 이에 따라, 사용자는 내담자의 스트레스 정도나 변화를 포함한 맥락을 전체적으로 이해함으로써, 추후 상담의 방향을 모색할 수 있게 된다. According to the present invention, through the second analysis result in FIG. 7, the user can overall check the client's stress level by time zone (according to the passage of time) within the entire counseling section. Accordingly, the user can seek a direction for future counseling by understanding the context, including the client's stress level or changes, as a whole.

도 8을 참조하면, 키워드별 빈도수를 나타내는 그래프가 제2 분석 결과(①)를 나타내는 영역에 제공될 수 있다.Referring to FIG. 8, a graph showing the frequency of each keyword may be provided in an area showing the second analysis result (①).

실시예에 따라, 제2 분석 결과와 관련된 보조 분석 결과는 상담자에 의해 기 설정된 키워드 리스트 정보를 포함할 수 있다.Depending on the embodiment, the auxiliary analysis result related to the second analysis result may include keyword list information preset by the counselor.

본 발명에 따르면, 상담을 진행하는 중에 내담자가 발화하는 단어들 중에서, 심리 상담 측면 및 상담사가 중요하게 생각하는 주요 키워드들이 얼마나 나타났는지를 확인할 수 있게 된다. 예를 들어, 자살, 우울 과 같은 주요 단어들은 내담자의 심리 및 처한 상황을 극명하게 드러내는 키워드이므로 이러한 키워드들이 얼마나 많이 나타나는 가를 확인하는 것은 매우 중요하다. 또한, 관리자에 의해 미리 등록된 설정 단어 뿐 아니라, 해당 상담을 진행하는 상담사에 의해서도 실시간 단어를 등록하여 확인할 수 있으며, 분석에서 제외하고자 하는 단어는 제외할 수 있도록 설정하여, 설정한 단어 뿐 아니라, 내담자가 발화한 모든 단어를 대상으로 분석하고자 할 때는 전체 언어를 대상으로 분석할 수 있다.According to the present invention, it is possible to check how many key keywords considered important by psychological counseling aspects and counselors appear among the words uttered by the client during counseling. For example, key words such as suicide and depression are keywords that clearly reveal the client's psychology and situation, so it is very important to check how many of these keywords appear. In addition, not only the set words pre-registered by the administrator, but also real-time words can be registered and checked by the counselor conducting the consultation. Words that you want to exclude from analysis can be set to be excluded, so that not only the set words but also the words you have set can be excluded. When you want to analyze all words uttered by a client, you can analyze the entire language.

도 9a를 참조하면, 토픽별로 구성된 키워드들 각각에 대한 빈도수가 복수의 형태로 그래프화되어 제2 분석 결과(①)를 나타내는 영역에 제공될 수 있다.Referring to FIG. 9A, the frequency of each keyword organized by topic may be graphed in a plurality of forms and provided in an area showing the second analysis result (①).

실시예에 따라, 제2 분석 결과와 관련된 보조 분석 결과는 토픽별로 구성된 키워드들 각각에 대한 빈도수와 순위를 나타내는 리스트 정보를 포함할 수 있다.Depending on the embodiment, the auxiliary analysis result related to the second analysis result may include list information indicating the frequency and ranking of each keyword organized by topic.

본 발명에 따르면, 도 9a의 제2 분석 결과를 통해, 상담자가 상담을 하는 내용에 대하여, 내담자가 주로 관심을 가지고 있는 주제 분야를 확인할 수 있으며, 다른 주제들과의 관계성을 함께 살펴 볼 수 있게 된다. 이에 따라, 상담자는 내담자의 주된 관심 분야를 전체적으로 이해함으로써, 추후 상담의 방향을 모색할 수 있게 된다. According to the present invention, through the second analysis result of FIG. 9A, it is possible to confirm the topic area in which the client is mainly interested in the content of the counselor's counseling, and to examine the relationships with other topics together. There will be. Accordingly, the counselor can seek a direction for future counseling by gaining an overall understanding of the client's main areas of interest.

도 10a 및 도 10b를 참조하면, 시간대별 음성 파라미터가 그래프화되어 제2 분석 결과(①)를 나타내는 영역에 제공될 수 있다.Referring to FIGS. 10A and 10B, voice parameters for each time period may be graphed and provided in an area showing the second analysis result (①).

실시예에 따라, 제2 분석 결과와 관련된 보조 분석 결과는 피치평균값, 포즈평균값, 소정시간당 평균 발화수, 망설임 횟수, 망설임 평균수치 등의 정보를 포함할 수 있다. 실시예에 따라 이 중 사용자에 의해 선택된 정보만이 출력되도록 설정될 수도 있다.Depending on the embodiment, the auxiliary analysis result related to the second analysis result may include information such as pitch average value, pose average value, average number of utterances per predetermined time, number of hesitations, and average hesitation value. Depending on the embodiment, only information selected by the user may be set to be output.

본 발명에 따르면, 상담자는 내담자가 언제 언성을 높이는지, 언제 조용히 말하는지, 언제 느리게 말하고, 빠르게 말하는지 등을 그래프를 통해 확인할 수 있고, 이로서, 상담자는 내담자의 감정의 변화, 말의 내용 변화에 따른 음성 파형의 변화를 전체적으로 확인함으로써 시간대별 내담자의 미세한 감정 변화를 판단할 수 있다.According to the present invention, the counselor can check when the client raises his voice, when he speaks quietly, when he speaks slowly, when he speaks quickly, etc. through a graph, and as a result, the counselor can monitor the client's emotions according to changes in the client's emotions and changes in the content of speech. By checking the changes in the voice waveform as a whole, it is possible to determine subtle changes in the client's emotions over time.

도 11을 참조하면, 시간대별 시선 위치 정보와 얼굴 움직임 정보가 각각 그래프화되어 제2 분석 결과(①)를 나타내는 영역에 제공될 수 있다.Referring to FIG. 11, gaze position information and facial movement information for each time period may be graphed and provided in an area showing the second analysis result (①).

실시예에 따라, 제2 분석 결과와 관련된 보조 분석 결과는 평균 시선 위치 변화값, 누적된 평균 시선 위치 변화값, 평균 얼굴 움직임 변화값, 누적된 평균 얼굴 움직임 변화값 등을 포함할 수 있다. 실시예에 따라 이 중 사용자에 의해 선택된 정보만이 출력되도록 설정될 수도 있다.Depending on the embodiment, the auxiliary analysis result related to the second analysis result may include an average gaze position change value, an accumulated average gaze position change value, an average facial movement change value, and an accumulated average facial movement change value. Depending on the embodiment, only information selected by the user may be set to be output.

본 발명에 따르면, 도 11의 분석 결과를 통해, 시선이나 얼굴을 움직이는 것은 내담자의 감정 상태가 몸으로 드러나는 증거가 될 수 있으므로, 해당 결과를 통해 상담사는 내담자의 무의식적인 행동을 확인하고, 이를 통해 내담자의 감정 상태를 정확히 판단할 수 있으며, 그래프 상의 변위가 크게 발생한 시점을 찾아서 해당 시간대의 상담 내용을 확인하면서 내담자의 감정을 더욱 정확하게 파악할 수 있게 된다.According to the present invention, through the analysis results of FIG. 11, eye movements or facial movements can be evidence that the client's emotional state is revealed through the body, so through the results, the counselor confirms the client's unconscious behavior, and through this, It is possible to accurately determine the client's emotional state, and by finding the point in time when significant displacement occurred on the graph and checking the counseling content for that time period, the client's feelings can be identified more accurately.

본 발명에 따르면, 제1 분석결과획득부(21a)를 통해 실시간 분석으로 제1 분석 결과를 획득하지만, 제2 분석결과획득부(21b)를 통해 소정 시간 경과 후 분석으로 제2 분석 결과를 획득하도록 함으로써, 동일한 내담자와의 실시간 상담 내역을 실시간 분석을 통해 실시간 제공받을 수 있도록 하면서도, 상담이 종료된 후 전체 상담 내역을 통합 분석을 통해 제공받을 수 있도록 함으로써, 하나의 상담 내역에 대해 다양한 형태의 분석 결과를 제공받을 수 있게 되어 보다 다양화되고 체계화된 상담 내역의 관리가 가능해질 수 있게 된다. According to the present invention, the first analysis result is obtained through real-time analysis through the first analysis result acquisition unit 21a, but the second analysis result is obtained through analysis after a predetermined time has elapsed through the second analysis result acquisition unit 21b. By doing so, real-time counseling details with the same client can be provided in real time through real-time analysis, and by allowing the entire counseling history to be provided through integrated analysis after the counseling is completed, various types of counseling details can be provided for one counseling history. By being able to receive analysis results, it becomes possible to manage more diverse and systematic consultation details.

또한, 상담 진행 중일 때의 사용자 인터페이스 화면과 상담이 종료된 후의 분석 결과를 제공하는 사용자 인터페이스 화면을 서로 상이하게 구현하여 상담자의 상담 내역 관리 및 확인이 보다 용이해지게 된다. 예를 들어, 상담이 진행중인 경우, 실시간 분석 결과를 제공받도록 하면서도 전체 분석 결과를 하나의 사용자 인터페이스부(33)의 화면을 통해 제공받도록 함으로써, 상담자가 실시간 상담 내역 확인, 분석, 및/또는 판단이 보다 신속하고 용이해질 수 있으며, 상담이 종료된 경우, 누적된 전체 상담 내역에 대해 하나의(선택된) 분석 결과를 하나의 사용자 인터페이스부(33)의 화면을 통해 제공받도록 함으로써, 전체 상담 내역을 사용자가 통합적으로 확인할 수 있게 된다. In addition, the user interface screen when a consultation is in progress and the user interface screen that provides analysis results after the consultation is completed are implemented differently, making it easier to manage and confirm the counselor's consultation details. For example, when a consultation is in progress, real-time analysis results are provided and the entire analysis results are provided through a single screen of the user interface unit 33, so that the counselor can check, analyze, and/or make a judgment on the consultation details in real time. It can be done more quickly and easily, and when the consultation is completed, one (selected) analysis result of the entire accumulated consultation history is provided through the screen of one user interface unit 33, so that the entire consultation history can be viewed by the user. can be confirmed in an integrated manner.

도 13은 실시예에 따른 앙상블 모델을 생성하기 위한 학습 과정을 설명하기 위해 참조되는 도면이다.FIG. 13 is a diagram referenced to explain a learning process for generating an ensemble model according to an embodiment.

실시예에 따라, 제2 분석결과획득부(21b)는 복수의 모델을 각각 미리 생성하여 저장부(22)에 저장할 수 있다.Depending on the embodiment, the second analysis result acquisition unit 21b may generate a plurality of models in advance and store them in the storage unit 22.

실시예에 따라 복수의 모델은 학습용 영상프레임, 학습용 음성프레임, 및 학습용 텍스트데이터 각각을 학습에 적용한 앙상블 기반의 모델들로 생성될 수 있다.Depending on the embodiment, a plurality of models may be created as ensemble-based models that apply each of the learning video frames, learning audio frames, and learning text data to learning.

실시예에 따라, 복수의 모델은 기계학습과 딥러닝이 앙상블되어 생성될 수 있다.Depending on the embodiment, multiple models may be created through an ensemble of machine learning and deep learning.

실시예에 따라, 제2 분석결과획득부(21b)는 학습용 영상프레임을 기초로 학습된 제1 모델을 획득하여 메모리(22)에 저장할 수 있다.Depending on the embodiment, the second analysis result acquisition unit 21b may acquire the first model learned based on the training image frame and store it in the memory 22.

실시예에 따라, 제1 모델은 CNN(Convolutional Neural Network) 알고리즘 기반의 MobileNet 모델일 수 있으나, DNN(Deep Neural Network), DCNN(DeepConvolution Neural Network), RNN (Recurrent Neural Network), KNN(K-Nearest Neighbor), SVM(Support Vector Machine), Random Forest, Decision Tree 등의 알고리즘에 기반한 학습으로 생성될 수도 있다. MobileNet 아키텍처는 처리 동작들(즉, 부동 소수점 연산들, 곱셈들 및/또는 덧셈들 등)을 최소화하기 위해 뎁스와이즈 분리가능 컨볼루션들(인수분해된 컨볼루션들의 형태)을 채택한다. 뎁스와이즈 분리가능 컨볼루션들은, 요구되는 동작들의 수를 감소 또는 최소화함으로써 처리를 더 고속화하기 위한 관점에서, 표준 컨볼루션을 뎁스와이즈 컨볼루션 및 1 x 1 컨볼루션(또한 "포인트와이즈 컨볼루션"으로 지칭됨)으로 인수분해한다(예를 들어, 그것의 함수들을 토해 낸다). 뎁스와이즈 컨볼루션은 각각의 입력 채널에 단일 필터를 적용한다. 이어서, 포인트와이즈 컨볼루션은 뎁스와이즈 컨볼루션의 출력들을 조합하기 위해 1 x 1 컨볼루션을 적용하고, 필터링 및 조합 기능들/동작들을, 표준 컨볼루션들에 의해 수행되는 단일 필터링 및 조합 동작이 아니라 2개의 단계로 분리한다. 따라서 MobileNet 아키텍처에서의 구조들은, "계층 그룹"을 정의하거나 예시하기 위해 구조 당 2개의 컨볼루션 계층, 1개의 뎁스와이즈 컨볼루션 계층 및 1개의 포인트와이즈 컨볼루션 계층을 포함할 수 있다.Depending on the embodiment, the first model may be a MobileNet model based on a CNN (Convolutional Neural Network) algorithm, but may include a Deep Neural Network (DNN), DeepConvolution Neural Network (DCNN), Recurrent Neural Network (RNN), or K-Nearest (KNN). It can also be created through learning based on algorithms such as Neighbor, SVM (Support Vector Machine), Random Forest, and Decision Tree. The MobileNet architecture adopts depthwise separable convolutions (a form of factorized convolutions) to minimize processing operations (i.e., floating point operations, multiplications and/or additions, etc.). Depthwise separable convolutions are a division of standard convolutions into depthwise convolutions and 1 x 1 convolutions (also called "pointwise convolutions"), with the aim of making processing faster by reducing or minimizing the number of operations required. factorizes it (e.g., spits out its functions). Depthwise convolution applies a single filter to each input channel. Pointwise convolution then applies a 1 x 1 convolution to combine the outputs of the depthwise convolution, filtering and combining functions/operations, rather than the single filtering and combining operations performed by standard convolutions. Separate into two stages. Accordingly, structures in the MobileNet architecture may include two convolutional layers, one depthwise convolutional layer, and one pointwise convolutional layer per structure to define or illustrate a “layer group.”

실시예에 따라, 제2 분석결과획득부(21b)는 학습용 영상프레임을 CNN을 통한 신경망 학습을 통해 학습용 영상프레임에 대한 감정이 분류되도록 함으로써, 제1 모델을 생성할 수 있다.Depending on the embodiment, the second analysis result acquisition unit 21b may generate the first model by classifying the emotions of the training video frames through neural network learning through CNN.

제2 분석결과획득부(21b)는 학습용 음성프레임을 기초로 학습된 제2 모델을 획득하여 저장부(22)에 저장할 수 있다.The second analysis result acquisition unit 21b may acquire the second model learned based on the learning voice frame and store it in the storage unit 22.

실시예에 따라, 제2 모델은 SVM(Support Vector Machine) 알고리즘 기반의 모델일 수 있으나, CNN, DNN(Deep Neural Network), DCNN(DeepConvolution Neural Network), RNN (Recurrent Neural Network), KNN(K-Nearest Neighbor), Random Forest, Decision Tree 등의 알고리즘에 기반한 학습으로 생성될 수도 있다.SVM(Support Vector Machine) 알고리즘은 분류와 회귀 분석을 위해 사용되며, 두 카테고리 중 어느 하나에 속한 데이터의 집합이 주어졌을 때, SVM 알고리즘은 주어진 데이터 집합을 바탕으로 하여 새로운 데이터가 어느 카테고리에 속할지 판단하는 비확률적 이진 선형 분류 모델을 만든다. Depending on the embodiment, the second model may be a model based on the Support Vector Machine (SVM) algorithm, but may be based on CNN, Deep Neural Network (DNN), DeepConvolution Neural Network (DCNN), Recurrent Neural Network (RNN), or KNN (K- It can also be generated by learning based on algorithms such as Nearest Neighbor, Random Forest, and Decision Tree. The SVM (Support Vector Machine) algorithm is used for classification and regression analysis, and a set of data belonging to one of two categories is given. When lost, the SVM algorithm creates a non-probabilistic binary linear classification model that determines which category the new data belongs to based on the given data set.

실시예에 따라, 제2 분석결과획득부(21b)는 학습용 음성프레임의 주파수 분석을 기반으로 음성 특징 벡터를 추출하고, 추출된 음성 특징 벡터를 SVM(Support Vector Machine) 알고리즘을 통해 학습하며, 학습 과정에서 음성 특징 벡터들이 감정별로 분류되도록 함으로써, 제2 모델을 생성할 수 있다. According to the embodiment, the second analysis result acquisition unit 21b extracts a voice feature vector based on frequency analysis of the voice frame for learning, learns the extracted voice feature vector through an SVM (Support Vector Machine) algorithm, and learns. In the process, a second model can be created by allowing voice feature vectors to be classified by emotion.

제2 분석결과획득부(21b)는 학습용 텍스트데이터를 기초로 학습된 제3 모델(22c)를 획득하여 저장부(22)에 저장할 수 있다.The second analysis result acquisition unit 21b may acquire the third model 22c learned based on the learning text data and store it in the storage unit 22.

실시예에 따라, 제3 모델은 BERT(Bidirectional Encoder Representations from Transformers) 모델일 수 있으나, DNN(Deep Neural Network), DCNN(DeepConvolution Neural Network), CNN, RNN (Recurrent Neural Network), KNN(K-Nearest Neighbor), SVM(Support Vector Machine), Random Forest, Decision Tree 등의 알고리즘에 기반한 학습으로 생성될 수도 있다.BERT는 인코더-디코더 구조의 트랜스포머(Transformer) 아키텍쳐를 기반으로 한 인공지능 모델로서, 입력의 심층 표현(Representation)을 위해 복수의 트랜스포머 계층을 쌓고, 토큰 시퀀스인 마스킹 언어 모델(Masking Language Model)에 마스킹 과정을 적용하는 것을 특징으로 한다. BERT 모델은 파인 튜닝 과정을 거침으로써 적은 양의 데이터에서도 높은 정확도를 나타내며, 특정 벡터에 주목하게 만들어 성능을 향상시키는 어텐션 기반 모델로 문장이 길어져도 성능이 떨어지지 않아 긴 문장에서도 정확도를 유지할 수 있다는 장점이 있다. Depending on the embodiment, the third model may be a BERT (Bidirectional Encoder Representations from Transformers) model, but may be a Deep Neural Network (DNN), DeepConvolution Neural Network (DCNN), CNN, Recurrent Neural Network (RNN), or K-Nearest (KNN). Neighbor), SVM (Support Vector Machine), Random Forest, and Decision Tree. BERT is an artificial intelligence model based on the Transformer architecture of the encoder-decoder structure, and is an artificial intelligence model based on the input It is characterized by stacking multiple transformer layers for deep representation and applying a masking process to the Masking Language Model, which is a token sequence. The BERT model shows high accuracy even with a small amount of data by going through a fine tuning process. It is an attention-based model that improves performance by drawing attention to specific vectors, and its performance does not deteriorate even as the sentence becomes longer, so it has the advantage of maintaining accuracy even in long sentences. There is.

실시예에 따라, 제2 분석결과획득부(21b)는 학습용 텍스트데이터를 기초로 컨텍스트 기반 임베딩값을 획득하기 위한 신경망 학습을 통해 학습용 텍스트데이터에 대한 감정이 분류되도록 함으로써, 제3 모델을 생성할 수 있다.According to the embodiment, the second analysis result acquisition unit 21b classifies the emotions for the learning text data through neural network learning to obtain a context-based embedding value based on the learning text data, thereby generating a third model. You can.

이상 설명된 실시 형태는 다양한 컴퓨터 구성요소를 통하여 실행될 수 있는 프로그램 명령어의 형태로 구현되어 컴퓨터로 판독가능한 기록매체에 기록될 수 있다. 상기 컴퓨터로 판독가능한 기록매체는 프로그램 명령어, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. The embodiments described above can be implemented in the form of program instructions that can be executed through various computer components and recorded on a computer-readable recording medium. The computer-readable recording medium may include program instructions, data files, data structures, etc., singly or in combination.

상기 컴퓨터로 판독가능한 기록매체에 기록되는 프로그램 명령어는 본 발명을 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 분야의 당업자에게 공지되어 사용 가능한 것일 수도 있다.Program instructions recorded on the computer-readable recording medium may be specially designed and configured for the present invention or may be known and usable by those skilled in the computer software field.

컴퓨터로 판독가능한 기록매체의 예에는, 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체, CD-ROM, DVD와 같은 광기록 매체, 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 ROM, RAM, 플래시 메모리 등과 같은 프로그램 명령어를 저장하고 실행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령어의 예에는, 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드도 포함된다. 상기 하드웨어 장치는 본 발명에 따른 처리를 실행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.Examples of computer-readable recording media include magnetic media such as hard disks, floppy disks and magnetic tapes, optical recording media such as CD-ROMs and DVDs, and magneto-optical media such as floptical disks. optical media), and hardware devices specifically configured to store and execute program instructions, such as ROM, RAM, flash memory, etc. Examples of program instructions include not only machine language code such as that created by a compiler, but also high-level language code that can be executed by a computer using an interpreter or the like. The hardware device may be configured to operate as one or more software modules to carry out processing according to the invention and vice versa.

본 명세서의 양상들은 전체적으로 하드웨어, 전체적으로 소프트웨어 (펌웨어, 상주 소프트웨어, 마이크로 코드 등을 포함 함) 또는 컴퓨터 판독 가능 프로그램 코드가 구현 된 하나 이상의 컴퓨터 판독 가능 매체에 구현 된 컴퓨터 프로그램 제품의 형태를 취할 수 있다.Aspects herein may take the form of a computer program product embodied entirely in hardware, entirely in software (including firmware, resident software, microcode, etc.), or on one or more computer-readable media having computer-readable program code embodied thereon. .

이상에서 실시예들에 설명된 특징, 구조, 효과 등은 본 발명의 하나의 실시예에 포함되며, 반드시 하나의 실시예에만 한정되는 것은 아니다. 나아가, 각 실시예에서 예시된 특징, 구조, 효과 등은 실시예들이 속하는 분야의 통상의 지식을 가지는 자에 의해 다른 실시예들에 대해서도 조합 또는 변형되어 실시 가능하다. 따라서 이러한 조합과 변형에 관계된 내용들은 본 발명의 범위에 포함되는 것으로 해석되어야 할 것이다.The features, structures, effects, etc. described in the embodiments above are included in one embodiment of the present invention and are not necessarily limited to only one embodiment. Furthermore, the features, structures, effects, etc. illustrated in each embodiment can be combined or modified and implemented in other embodiments by a person with ordinary knowledge in the field to which the embodiments belong. Therefore, contents related to such combinations and modifications should be construed as being included in the scope of the present invention.

또한, 이상에서 실시예를 중심으로 설명하였으나 이는 단지 예시일 뿐 본 발명을 한정하는 것이 아니며, 본 발명이 속하는 분야의 통상의 지식을 가진 자라면 본 실시예의 본질적인 특성을 벗어나지 않는 범위에서 이상에 예시되지 않은 여러 가지의 변형과 응용이 가능함을 알 수 있을 것이다. 예를 들어, 실시예에 구체적으로 나타난 각 구성 요소는 변형하여 실시할 수 있는 것이다. 그리고 이러한 변형과 응용에 관계된 차이점들은 첨부된 청구 범위에서 규정하는 본 발명의 범위에 포함되는 것으로 해석되어야 할 것이다.In addition, although the above description has been made focusing on the examples, this is only an example and does not limit the present invention, and those skilled in the art will understand the above examples without departing from the essential characteristics of the present embodiment. You will be able to see that various modifications and applications are possible. For example, each component specifically shown in the examples can be modified and implemented. And these variations and differences in application should be construed as being included in the scope of the present invention as defined in the appended claims.

Claims (11)

내담자 단말로부터 실시간 수신한 동영상데이터로부터 추출된 제1 음성데이터 및 제1 영상데이터 중 적어도 하나에 기초해, 내담자의 감정을 실시간 분석하여 복수의 제1 분석 결과를 획득하는 제1 분석결과획득부; 및
상기 실시간 수신한 동영상데이터가 소정 시간 동안 누적된 누적 동영상데이터로부터 추출된 제2 음성데이터 및 제2 영상데이터 중 적어도 하나에 기초해, 상기 내담자의 감정을 상기 소정 시간 경과 후 분석하여 복수의 제2 분석 결과를 획득하는 제2 분석결과획득부;를 포함하고,
상기 제1 분석결과획득부에 의한 상기 실시간 분석 및 상기 제2 분석결과획득부에 의한 상기 소정 시간 경과 후 분석을 통합하여, 상기 복수의 제1 분석 결과와 상기 복수의 제2 분석 결과를 포함한 다양한 형태의 분석 결과를 제공하고,
상기 복수의 제1 분석 결과는,
복수의 일반 감정 상태 각각의 확률값, 대표 감정 상태, 심박수와 스트레스 지수, 키워드별 빈도수, 토픽별로 구성된 키워드들 각각에 대한 빈도수, 음성 파라미터, 시선 위치 정보, 및 얼굴 움직임 정보 중 적어도 둘 이상을 포함하고,
상기 복수의 제2 분석 결과는,
복수의 일반 감정 상태 각각의 확률값, 복수의 치환 감정 상태 각각의 확률값, 심박수와 스트레스 지수, 키워드별 빈도수, 토픽별로 구성된 키워드들 각각에 대한 빈도수, 음성 파라미터, 시선 위치 정보, 및 얼굴 움직임 정보 중 적어도 둘 이상을 포함하는,
감정 분석 결과 제공 장치.
A first analysis result acquisition unit that acquires a plurality of first analysis results by analyzing the client's emotions in real time based on at least one of first voice data and first video data extracted from video data received in real time from the client terminal; and
Based on at least one of second voice data and second video data extracted from the accumulated video data accumulated over a predetermined time, the real-time received video data analyzes the client's emotions after the predetermined time has elapsed and generates a plurality of second It includes a second analysis result acquisition unit that obtains the analysis results,
By integrating the real-time analysis by the first analysis result acquisition unit and the analysis after the predetermined time by the second analysis result acquisition unit, various types of analysis including the plurality of first analysis results and the plurality of second analysis results are obtained. Provides analysis results in the form of
The plurality of first analysis results are:
Contains at least two of the following: probability values for each of a plurality of general emotional states, representative emotional states, heart rate and stress index, frequency for each keyword, frequency for each keyword organized by topic, voice parameters, gaze position information, and facial movement information; ,
The results of the plurality of second analyzes are:
Probability values for each of a plurality of general emotional states, probability values for each of a plurality of substituted emotional states, heart rate and stress index, frequency for each keyword, frequency for each keyword organized by topic, voice parameters, gaze position information, and facial movement information. containing two or more,
A device that provides emotional analysis results.
삭제delete 삭제delete 제 1항에 있어서,
상기 복수의 치환 감정 상태는 상기 복수의 일반 감정 상태 각각의 상위 개념으로 정의되는 감정 상태의 조합인,
감정 분석 결과 제공 장치.
According to clause 1,
The plurality of substituted emotional states are a combination of emotional states defined by a higher concept of each of the plurality of general emotional states,
A device that provides emotional analysis results.
제 1항에 있어서,
상기 제2 분석결과획득부는,
상기 제2 영상데이터, 상기 제2 음성데이터, 및 상기 제2 음성데이터가 변환된 텍스트데이터에 기초해 앙상블 학습에 기반한 복수의 모델을 이용해 복수의 일반 감정 상태 각각의 확률값을 획득하는,
감정 분석 결과 제공 장치.
According to clause 1,
The second analysis result acquisition unit,
Obtaining probability values for each of a plurality of general emotional states using a plurality of models based on ensemble learning based on the second image data, the second voice data, and text data converted from the second voice data,
A device that provides emotional analysis results.
제 1항에 있어서,
상기 제2 분석결과획득부는,
상기 제2 음성데이터가 변환된 텍스트데이터에 대해 잠재 디리클레 할당(LDA, Latent Dirichlet Allocation) 토픽 모델링을 수행하여 상기 토픽별로 구성된 키워드들 각각에 대한 빈도수를 획득하는,
감정 분석 결과 제공 장치.
According to clause 1,
The second analysis result acquisition unit,
Performing Latent Dirichlet Allocation (LDA) topic modeling on the text data into which the second voice data has been converted to obtain frequencies for each of the keywords configured for each topic.
A device that provides emotional analysis results.
제 1항에 있어서,
상기 제2 분석결과획득부는,
상기 제2 영상데이터에 기초해 내담자의 얼굴을 인식하고, 상기 인식된 얼굴의 특징점을 검출하며, 상기 얼굴의 특징점을 기초로 지정된 관심 영역에서 동공 중심 위치를 검출하고, 상기 검출된 동공 중심 위치의 시간에 따른 변화 정도인 상기 시선 위치 정보를 유클리디안 거리의 변화에 기초해 산출하는,
감정 분석 결과 제공 장치.
According to clause 1,
The second analysis result acquisition unit,
Recognize the client's face based on the second image data, detect feature points of the recognized face, detect the pupil center position in a designated area of interest based on the feature points of the face, and detect the pupil center position of the detected pupil center position. Calculating the gaze position information, which is the degree of change over time, based on the change in Euclidean distance,
A device that provides emotional analysis results.
내담자 단말, 상담자 단말, 및 감정 분석 결과 제공 장치를 포함한 감정 분석 결과 제공 시스템에 있어서,
상기 감정 분석 결과 제공 장치는,
상기 내담자 단말로부터 실시간 수신한 동영상데이터로부터 추출된 제1 음성데이터 및 제1 영상데이터 중 적어도 하나에 기초해, 내담자의 감정을 실시간 분석하여 복수의 제1 분석 결과를 획득하는 제1 분석결과획득부;
상기 실시간 수신한 동영상데이터가 소정 시간 동안 누적된 누적 동영상데이터로부터 추출된 제2 음성데이터 및 제2 영상데이터 중 적어도 하나에 기초해, 상기 내담자의 감정을 상기 소정 시간 경과 후 분석하여 복수의 제2 분석 결과를 획득하는 제2 분석결과획득부; 및
상기 복수의 제1 분석 결과 전체를 포함한 정보 및 상기 복수의 제2 분석 결과 전체를 포함한 정보를 상기 상담자 단말로 전송하는 전송부;를 포함하고,
상기 상담자 단말은,
상기 감정 분석 결과 제공 장치로부터 수신한 상기 복수의 제1 분석 결과 전체를 포함한 정보를 하나의 사용자 인터페이스 화면을 통해 제공하는 제1 분석결과제공부; 및
상기 감정 분석 결과 제공 장치로부터 수신한 상기 복수의 제2 분석 결과 전체 중 사용자에 의해 선택된 제2 분석 결과를 포함한 정보를 상기 하나의 사용자 인터페이스 화면을 통해 제공하는 제2 분석결과제공부;를 포함하고,
상기 제1 분석결과획득부에 의한 상기 실시간 분석 및 상기 제2 분석결과획득부에 의한 상기 소정 시간 경과 후 분석을 통합하여 상기 복수의 제1 분석 결과와 상기 복수의 제2 분석 결과를 포함한 다양한 형태의 분석 결과를 제공하고,
상기 복수의 제1 분석 결과는,
복수의 일반 감정 상태 각각의 확률값, 대표 감정 상태, 심박수와 스트레스 지수, 키워드별 빈도수, 토픽별로 구성된 키워드들 각각에 대한 빈도수, 음성 파라미터, 시선 위치 정보, 및 얼굴 움직임 정보 중 적어도 둘 이상을 포함하고,
상기 복수의 제2 분석 결과는,
복수의 일반 감정 상태 각각의 확률값, 복수의 치환 감정 상태 각각의 확률값, 심박수와 스트레스 지수, 키워드별 빈도수, 토픽별로 구성된 키워드들 각각에 대한 빈도수, 음성 파라미터, 시선 위치 정보, 및 얼굴 움직임 정보 중 적어도 둘 이상을 포함하는,
감정 분석 결과 제공 시스템.
In an emotional analysis result providing system including a client terminal, a counselor terminal, and an emotional analysis result providing device,
The emotional analysis result providing device,
A first analysis result acquisition unit that acquires a plurality of first analysis results by analyzing the client's emotions in real time based on at least one of the first voice data and the first video data extracted from the video data received in real time from the client terminal. ;
Based on at least one of second voice data and second video data extracted from the accumulated video data accumulated over a predetermined time, the real-time received video data analyzes the client's emotions after the predetermined time has elapsed and generates a plurality of second a second analysis result acquisition unit that acquires analysis results; and
A transmission unit configured to transmit information including all of the plurality of first analysis results and information including all of the plurality of second analysis results to the counselor terminal,
The counselor terminal is,
a first analysis result providing unit that provides information including all of the plurality of first analysis results received from the emotional analysis result providing device through one user interface screen; and
A second analysis result providing unit that provides information including a second analysis result selected by the user among all the plurality of second analysis results received from the emotional analysis result providing device through the one user interface screen; and ,
Various forms including the plurality of first analysis results and the plurality of second analysis results are obtained by integrating the real-time analysis by the first analysis result acquisition unit and the analysis after the predetermined time has elapsed by the second analysis result acquisition unit. Provides analysis results of
The plurality of first analysis results are:
Contains at least two of the following: probability values for each of a plurality of general emotional states, representative emotional states, heart rate and stress index, frequency for each keyword, frequency for each keyword organized by topic, voice parameters, gaze position information, and facial movement information; ,
The results of the plurality of second analyzes are:
Probability values for each of a plurality of general emotional states, probability values for each of a plurality of substituted emotional states, heart rate and stress index, frequency for each keyword, frequency for each keyword organized by topic, voice parameters, gaze position information, and facial movement information. containing two or more,
Emotion analysis result provision system.
제 8항에 있어서,
상기 하나의 사용자 인터페이스 화면은 상기 복수의 제2 분석 결과를 나타내는 복수의 메뉴를 포함하고,
상기 제2 분석결과제공부는,
상기 복수의 메뉴 중 사용자에 의해 선택된 메뉴에 대응되는 상기 제2 분석 결과를 포함한 정보를 상기 하나의 사용자 인터페이스 화면을 통해 제공하는,
감정 분석 결과 제공 시스템.
According to clause 8,
The one user interface screen includes a plurality of menus representing the plurality of second analysis results,
The second analysis result providing unit,
Providing information including the second analysis result corresponding to the menu selected by the user among the plurality of menus through the one user interface screen,
Emotion analysis result provision system.
삭제delete 삭제delete
KR1020230003827A 2022-01-24 2023-01-11 Emotion analysis result providing device and emotion analysis result providing system KR102630803B1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR20220010067 2022-01-24
KR1020220010067 2022-01-24

Publications (2)

Publication Number Publication Date
KR20230114195A KR20230114195A (en) 2023-08-01
KR102630803B1 true KR102630803B1 (en) 2024-01-29

Family

ID=87561595

Family Applications (2)

Application Number Title Priority Date Filing Date
KR1020230003827A KR102630803B1 (en) 2022-01-24 2023-01-11 Emotion analysis result providing device and emotion analysis result providing system
KR1020230003828A KR102630804B1 (en) 2022-01-24 2023-01-11 Sentiment analysis method and emotion analysis device

Family Applications After (1)

Application Number Title Priority Date Filing Date
KR1020230003828A KR102630804B1 (en) 2022-01-24 2023-01-11 Sentiment analysis method and emotion analysis device

Country Status (1)

Country Link
KR (2) KR102630803B1 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101564176B1 (en) * 2014-12-15 2015-10-28 연세대학교 산학협력단 An emotion recognition system and a method for controlling thereof
KR101734845B1 (en) * 2015-11-13 2017-05-15 가톨릭대학교 산학협력단 Emotion classification apparatus using visual analysis and method thereof
KR102257427B1 (en) * 2021-01-29 2021-06-01 전다정 The psychological counseling system capable of real-time emotion analysis and method thereof

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101988279B1 (en) * 2013-01-07 2019-06-12 삼성전자 주식회사 Operating Method of User Function based on a Face Recognition and Electronic Device supporting the same
KR20200036680A (en) * 2018-09-28 2020-04-07 삼성전자주식회사 An electronic device and method for obtaining emotional information
KR102548970B1 (en) 2020-07-07 2023-06-28 주식회사 유엑스팩토리 Method, system and non-transitory computer-readable recording medium for generating a data set on facial expressions
KR102475524B1 (en) * 2020-07-10 2022-12-08 주식회사 제네시스랩 Methods, Systems and Computer-Readable Medium for Deriving In-Depth Questions for Automated Evaluation of Interview Videos using Machine Learning Model
KR102360309B1 (en) * 2021-01-14 2022-02-08 아주대학교 산학협력단 Apparatus and method for emotion classification based on artificial intelligence for online data

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101564176B1 (en) * 2014-12-15 2015-10-28 연세대학교 산학협력단 An emotion recognition system and a method for controlling thereof
KR101734845B1 (en) * 2015-11-13 2017-05-15 가톨릭대학교 산학협력단 Emotion classification apparatus using visual analysis and method thereof
KR102257427B1 (en) * 2021-01-29 2021-06-01 전다정 The psychological counseling system capable of real-time emotion analysis and method thereof

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
Hao M, etc., Visual-audio emotion recognition based on multi-task and ensemble learning with multiple features. Neurocomputing. 391, pp.42~51 (2020.01.20.)*

Also Published As

Publication number Publication date
KR20230114196A (en) 2023-08-01
KR102630804B1 (en) 2024-01-29
KR20230114195A (en) 2023-08-01

Similar Documents

Publication Publication Date Title
Yadav et al. Survey on machine learning in speech emotion recognition and vision systems using a recurrent neural network (RNN)
Zucco et al. Sentiment analysis and affective computing for depression monitoring
US11226673B2 (en) Affective interaction systems, devices, and methods based on affective computing user interface
CN103366618B (en) Scene device for Chinese learning training based on artificial intelligence and virtual reality
Glowinski et al. Toward a minimal representation of affective gestures
Cowie et al. Emotion recognition in human-computer interaction
Muszynski et al. Recognizing induced emotions of movie audiences from multimodal information
Truong et al. Speech-based recognition of self-reported and observed emotion in a dimensional space
CN108197115A (en) Intelligent interactive method, device, computer equipment and computer readable storage medium
Janssen et al. Machines outperform laypersons in recognizing emotions elicited by autobiographical recollection
Baur et al. eXplainable cooperative machine learning with NOVA
Rohanian et al. Detecting Depression with Word-Level Multimodal Fusion.
Maskit Overview of computer measures of the referential process
Georgiou et al. Behavioral signal processing for understanding (distressed) dyadic interactions: some recent developments
WO2018151628A1 (en) Algorithm for complex remote non-contact multichannel analysis of a psycho-emotional and physiological condition of a subject from audio and video content
KR102507811B1 (en) User psychology management system through chatbot service based on empathic psychology
Dávila-Montero et al. Review and challenges of technologies for real-time human behavior monitoring
Zou et al. Semi-structural interview-based Chinese multimodal depression corpus towards automatic preliminary screening of depressive disorders
CN113035232B (en) Psychological state prediction system, method and device based on voice recognition
Gladys et al. Survey on Multimodal Approaches to Emotion Recognition
KR102630803B1 (en) Emotion analysis result providing device and emotion analysis result providing system
Böck et al. Anticipating the user: acoustic disposition recognition in intelligent interactions
An et al. Mental health detection from speech signal: A convolution neural networks approach
Shalu et al. Depression status estimation by deep learning based hybrid multi-modal fusion model
Hailpern et al. A3: Hci coding guideline for research using video annotation to assess behavior of nonverbal subjects with computer-based intervention

Legal Events

Date Code Title Description
E90F Notification of reason for final refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant