KR101984283B1 - Automated Target Analysis System Using Machine Learning Model, Method, and Computer-Readable Medium Thereof - Google Patents
Automated Target Analysis System Using Machine Learning Model, Method, and Computer-Readable Medium Thereof Download PDFInfo
- Publication number
- KR101984283B1 KR101984283B1 KR1020170156158A KR20170156158A KR101984283B1 KR 101984283 B1 KR101984283 B1 KR 101984283B1 KR 1020170156158 A KR1020170156158 A KR 1020170156158A KR 20170156158 A KR20170156158 A KR 20170156158A KR 101984283 B1 KR101984283 B1 KR 101984283B1
- Authority
- KR
- South Korea
- Prior art keywords
- information
- feature map
- generating
- image
- speech
- Prior art date
Links
- 238000004458 analytical method Methods 0.000 title claims abstract description 128
- 238000000034 method Methods 0.000 title claims abstract description 45
- 238000010801 machine learning Methods 0.000 title abstract description 19
- 238000011156 evaluation Methods 0.000 claims abstract description 36
- 230000015654 memory Effects 0.000 claims description 23
- 239000002131 composite material Substances 0.000 claims description 22
- 238000000605 extraction Methods 0.000 claims description 9
- 230000001755 vocal effect Effects 0.000 claims description 2
- 238000013528 artificial neural network Methods 0.000 description 33
- 238000004891 communication Methods 0.000 description 15
- 230000008569 process Effects 0.000 description 14
- 238000012545 processing Methods 0.000 description 13
- 230000002093 peripheral effect Effects 0.000 description 10
- 238000005516 engineering process Methods 0.000 description 9
- 238000005070 sampling Methods 0.000 description 9
- 230000003044 adaptive effect Effects 0.000 description 8
- 238000013527 convolutional neural network Methods 0.000 description 8
- 150000001875 compounds Chemical class 0.000 description 7
- 238000011176 pooling Methods 0.000 description 7
- 238000003745 diagnosis Methods 0.000 description 5
- 239000000284 extract Substances 0.000 description 5
- 239000013598 vector Substances 0.000 description 5
- 238000010586 diagram Methods 0.000 description 4
- 238000013135 deep learning Methods 0.000 description 3
- 238000001514 detection method Methods 0.000 description 3
- 230000008451 emotion Effects 0.000 description 3
- 230000008921 facial expression Effects 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 238000007781 pre-processing Methods 0.000 description 3
- 230000004044 response Effects 0.000 description 3
- 230000002123 temporal effect Effects 0.000 description 3
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 2
- 238000004422 calculation algorithm Methods 0.000 description 2
- 238000004590 computer program Methods 0.000 description 2
- 125000004122 cyclic group Chemical group 0.000 description 2
- 238000013461 design Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 230000001815 facial effect Effects 0.000 description 2
- 230000001360 synchronised effect Effects 0.000 description 2
- 238000012546 transfer Methods 0.000 description 2
- 230000004913 activation Effects 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 230000008878 coupling Effects 0.000 description 1
- 238000010168 coupling process Methods 0.000 description 1
- 238000005859 coupling reaction Methods 0.000 description 1
- 230000002950 deficient Effects 0.000 description 1
- 230000002996 emotional effect Effects 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 238000010191 image analysis Methods 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 230000001788 irregular Effects 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 230000036651 mood Effects 0.000 description 1
- 230000001537 neural effect Effects 0.000 description 1
- 238000003062 neural network model Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 239000011295 pitch Substances 0.000 description 1
- 230000007115 recruitment Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 238000007619 statistical method Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
- G06Q50/10—Services
- G06Q50/20—Education
- G06Q50/205—Education administration or guidance
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q10/00—Administration; Management
- G06Q10/06—Resources, workflows, human or project management; Enterprise or organisation planning; Enterprise or organisation modelling
- G06Q10/063—Operations research, analysis or management
- G06Q10/0639—Performance analysis of employees; Performance analysis of enterprise or organisation operations
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q10/00—Administration; Management
- G06Q10/10—Office automation; Time management
- G06Q10/105—Human resources
- G06Q10/1053—Employment or hiring
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/48—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
- G10L25/51—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
- G10L25/63—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for estimating an emotional state
Landscapes
- Engineering & Computer Science (AREA)
- Business, Economics & Management (AREA)
- Human Resources & Organizations (AREA)
- Physics & Mathematics (AREA)
- Strategic Management (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Educational Administration (AREA)
- Tourism & Hospitality (AREA)
- Entrepreneurship & Innovation (AREA)
- Economics (AREA)
- Health & Medical Sciences (AREA)
- General Business, Economics & Management (AREA)
- Marketing (AREA)
- Quality & Reliability (AREA)
- Software Systems (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Data Mining & Analysis (AREA)
- Educational Technology (AREA)
- Multimedia (AREA)
- General Health & Medical Sciences (AREA)
- Development Economics (AREA)
- Operations Research (AREA)
- Child & Adolescent Psychology (AREA)
- Signal Processing (AREA)
- General Engineering & Computer Science (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Artificial Intelligence (AREA)
- Hospice & Palliative Care (AREA)
- Psychiatry (AREA)
- Computational Linguistics (AREA)
- Medical Informatics (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Acoustics & Sound (AREA)
- Game Theory and Decision Science (AREA)
- Evolutionary Computation (AREA)
- Primary Health Care (AREA)
- Image Analysis (AREA)
Abstract
Description
본 발명은 기계학습모델을 이용한 자동화된 피평가자분석 시스템, 방법, 및 컴퓨터 판독가능매체에 관한 것으로서, 보다 상세하게는, 평가 상황 및 피평가자의 상태를 고려하여, 기계학습모델을 이용하여 보다 정확한 분석결과를 자동적으로 제공할 수 있는, 기계학습모델을 이용한 자동화된 피평가자분석 시스템, 방법, 및 컴퓨터 판독가능매체에 관한 것이다.More particularly, the present invention relates to a system and method for automatically analyzing an evaluated guest using a machine learning model, and more particularly, To an automated assessor analysis system, method, and computer readable medium using a machine learning model that can automatically provide a machine-readable model.
많은 사람들이 커뮤니케이션 기술이나 기업 채용시 하는 인터뷰를 준비하기 위해 독학을 하거나 전문 학원에서 훈련을 받는 사람들이 많아졌다. 이것은 사회적으로 사람들이 오프라인 보다는 SNS와 같은 온라인 환경에 익숙해지고 있고, 이와 동일한 형태로 통화보다는 카카오톡과 같은 메신저나 SMS로 커뮤니케이션을 하다 보니 대면 상황에서의 사회적 기술 능력이 낮아지고 있다는 사실을 반영한다고 할 수 있다.Many people have been self-taught or trained in professional schools to prepare interviews for communication skills or job hunting. This reflects the fact that people are becoming accustomed to the online environment such as SNS, rather than offline, and that social skills in face-to-face situations are lowered when they use messengers such as KakaoTalk or SMS to communicate in the same way can do.
이러한 사람들에게 도움을 주기 위해 온라인 환경에서 다양한 시스템과 연구가 진행되고 있으나, 종래의 기술들의 경우 하기와 같은 한계점을 가지고 있다.Various systems and researches are being conducted in an online environment to help such people, but conventional technologies have the following limitations.
첫째, 종래의 기술들은 질문의 종류에 따라 대응되는 답변에 대한 평가가 불가능하였다. 예를들어, 채용을 위해 온라인 인터뷰 결과를 자동으로 평가하는 시스템이 있다고 가정해보자. 종래의 기술에서는 기본적으로 어떤 질문인지와 상관없이 이에 대한 대답을 할 때 표정이나 말투나 톤, 제스쳐를 기반하여 평가하도록 되어 있다. 이와 같은 종래의 기술에서는, 질문과 상황에 상관없이 엉뚱한 평가 결과를 도출할 수 있는 상황이 발생한다. 예를 들면, 인성 평가 기준으로 유머가 섞인 질문을 했을 때는 면접자가 웃는 얼굴로 편안한 분위기와 톤으로 대답을 하는 것이 좋은 평가를 받을 것이고, 기술 면접에 전문성을 평가하는 질문이나 압박을 위한 질문을 한 경우, 앞서 설명한 바와 같이 웃으면서 대답하는 것보다는 진중한 모습으로 표정과 톤을 유지하는 것이 더욱 좋은 평가를 받아야 할 것이다. 하지만, 종래의 기술에서는 이와 같은 평가 상황에 대한 요소가 반영되지 못하고, 피평가자의 음성, 표정 등이 일관적인 기준에 의하여 평가된다는 문제점이 있다. 즉, 종래의 기술에서는, 상황에 따라 다른 대응의 평가가 불가능하고, 면접 전체 혹은 부분을 전체적으로 학습하여 일반화된 평가 결과를 도출한다는 한계점을 가지고 있다.First, conventional technologies were unable to evaluate corresponding responses according to the types of questions. For example, suppose you have a system that automatically evaluates online interview results for recruitment. In the prior art, it is basically evaluated based on expression, tone, tone and gesture when answering it regardless of a question. In such a conventional technique, there arises a situation where irregular evaluation results can be derived regardless of the question and the situation. For example, when asked a humorous question based on personality evaluation criteria, it would be a good evaluation for the interviewer to answer in a relaxed mood and tone with a smiling face, ask questions for evaluation of technical expertise in technical interviews, In this case, as described above, it would be better to maintain a facial expression and tone in a more gentle manner than to answer with a smile. However, the conventional technology does not reflect the factor of such evaluation situation, and there is a problem that the voice and expression of the subject to be evaluated are evaluated by a consistent standard. That is, in the conventional technology, it is impossible to evaluate different responses according to the situation, and it has a limitation that it derives a generalized evaluation result by learning the whole interview or its parts as a whole.
둘째, 커뮤니케이션 능력 중 경청이 매우 중요함에도 불구하고 종래의 기술들은 이에 대해 진단이 부족하다. 커뮤니케이션 능력은 말을 하는 상황도 중요하지만, 상대방의 말을 얼마나 잘 듣는지에 대한 경청 태도도 매우 중요하다고 할 수 있다. 예를 들어, 영상 채팅이나 비디오 면접 등으로 A와 B 두 사람이 대화한다고 가정했을 때, B에 대한 평가가 이루어진다고 가정해보자. 기존 시스템에서 카메라가 B를 비추고 있고 마이크가 켜져 있는 상황이라면, A가 B에게 말을 하고 있는 상황에서 영상 정보는 B의 정보가 입력되지만, 음성 정보는 A의 정보가 입력된다. 이렇게 B가 말하고 있지 않은 상태인데 입력되는 음성 정보는 이렇게 다른 노이즈 정보가 입력될 수도 있다. 이 경우에는 B에 대한 정확한 진단을 위해 음성 정보를 버리고 영상 정보를 최대한 이용하는 방향으로 평가해야 하지만, 종래의 기술은 이러한 상황에 적응적으로 대응하지 못하는 한계가 있다.Second, while listening to communication skills is very important, conventional technologies lack diagnosis. The ability to communicate is also important, but the attitude of listening to the other person's words is also very important. For example, suppose that A and B are talking to each other for a video chat or a video interview. In the case where the camera is illuminating B and the microphone is turned on in the existing system, in a situation where A is talking to B, the information of B is inputted in the image information, but the information of A is inputted in the audio information. In this state B is not talking, the input audio information may be input with different noise information. In this case, in order to accurately diagnose B, voice information should be discarded and evaluated in the direction of maximizing the use of image information. However, the conventional technology has a limitation in that it can not adapt to such situation.
셋째, 커뮤니케이션은 장소나 상황에 따라 다른 방식으로 감정 표현이나 말을 해야 하며 이것을 분석할 때는 다르게 평가되어야 한다. 앞서 언급한 질문 내용뿐 만 아니라, 장소나 상황에 따라 커뮤니케이션 방법은 달라져야 할 것이다. 장례식장에서 하는 대화는 좀 더 슬픈 감정이 적절할 것이고, 놀이공원에서의 대화는 좀 더 활발한 느낌이 더 어울릴 것이다. 하지만 종래의 기술은 이러한 상황 인지를 고려하지 않기 때문에 이에 대한 적절한 진단 및 피드백이 어렵다고 할 수 있다.Third, communication should express emotions or words in different ways depending on the place and situation, and should be evaluated differently when analyzing it. In addition to the above-mentioned questions, communication methods should be changed depending on the place and situation. The conversation at the funeral hall will be more sad, and the conversation at the amusement park will be a little more active. However, the conventional technology does not take into consideration such a situation, so that it is difficult to adequately diagnose and feedback it.
마지막으로, 종래의 기술에서는 대부분 사람이 피평가자를 평가할 때 중요하게 판단되어야 할 특징정보를 선정(hand-crafted)하여 이를 기반으로 기계학습을 시키는데, 이 경우 최종결과를 도출하기 위한 특징정보가 누락될 위험이 있다. 얼굴 표정을 통한 평가를 진단할 때도 랜드마크 정보를 도출하여 해당 위치점을 이용하여 학습한다. 실제 영상 정보와 음성 정보에 대한 어떤 특징정보를 사용해야 해야 실제 사람이 평가할 때와 유사한 결과가 나오는 지에 대한 명확한 기준을 사람이 찾기란 어렵고, 평가 시에 무의식적으로 반영하는 잠재적(latent) 정보도 이용해야만 사회적 기술을 진단하는 결과에 대한 더 높은 성능을 얻을 수 있을 것이다. Finally, in the conventional art, most of the feature information to be judged when the person evaluates the evaluator is hand-crafted and the machine learning is performed based on the feature information. In this case, the feature information for deriving the final result is missing There is a danger. When evaluating the evaluation through facial expression, landmark information is derived and learned using the corresponding position point. It is difficult for people to find clear criteria for whether the actual information about the image information and the voice information should be used should be similar to the actual person's evaluation, and the latent information should be used unconsciously at the time of evaluation The higher the performance of the results of diagnosing the social skills.
삭제delete
본 발명의 목적은 평가 상황 및 피평가자의 상태를 고려하여, 기계학습모델을 이용하여 보다 정확한 분석결과를 자동적으로 제공할 수 있는, 기계학습모델을 이용한 자동화된 피평가자분석 시스템, 방법, 및 컴퓨터 판독가능매체를 제공하는 것이다.An object of the present invention is to provide an automated assessor analysis system, a method, and a computer readable medium using a machine learning model capable of automatically providing a more accurate analysis result by using a machine learning model, taking into consideration the evaluation situation and the condition of an assessor Media.
상기와 같은 과제를 해결하기 위하여, 본 발명의 일 실시예는 1 이상의 프로세서 및 1 이상의 메모리를 포함하는, 자동화된 피평가자분석 시스템으로서, 입력된 영상 정보 및 음성 정보로부터 음성특징정보 및 영상특징정보를 생성하는 특징정보생성부; 상기 영상특징정보에 포함된 정보로부터 피평가자가 발화하는 지에 대한 말상태정보를 생성하는 말상태추론부; 및 상기 음성특징정보, 상기 영상특징정보, 및 상기 말상태정보를 포함하는 정보로부터 피평가자의 분석결과정보를 도출하는 분석결과추론부;를 포함하는, 자동화된 피평가자분석 시스템를 제공한다.According to an aspect of the present invention, there is provided an automated evaluator analysis system comprising at least one processor and at least one memory, wherein the system comprises voice feature information and image feature information from input image information and voice information, A feature information generating unit to generate the feature information; A horse state reasoning unit for generating horse state information on whether an evaluated person is speaking from information included in the image feature information; And an analysis result inferring unit for deriving analysis result information of the subject from the information including the speech feature information, the image feature information, and the speech state information.
본 발명의 일 실시예에서는, 상기 특징정보생성부는, 음성특징정보를 생성하는 음성특징정보생성부; 및 영상특징정보를 생성하는 영상특징정보생성부를 포함하고, 상기 영상특징정보생성부는, 입력된 영상정보로부터 입영역 외의 얼굴 내부의 1 이상의 요소를 추출하는 제1영상특징정보추출부; 및 입력된 영상정보로부터 입영역의 요소를 추출하는 제2영상특징정보추출부;를 포함할 수 있다.In an embodiment of the present invention, the feature information generating unit includes: a voice feature information generating unit that generates voice feature information; And an image feature information generating unit for generating image feature information, wherein the image feature information generating unit comprises: a first image feature information extracting unit for extracting at least one element in a face outside the mouth area from the input image information; And a second image feature information extraction unit for extracting an element of the input area from the input image information.
본 발명의 일 실시예에서는, 상기 말상태추론부는, 상기 제2영상특징정보로부터 상기 말상태정보를 생성할 수 있다.In one embodiment of the present invention, the horse state inferring unit may generate the horse state information from the second image feature information.
본 발명의 일 실시예에서는, 상기 분석결과추론부는, 상기 음성특징정보로부터 음성피처맵을 생성하는 음성피처맵생성부; 상기 제1영상특징정보로부터 제1영상피처맵을 생성하는 제1영상피처맵생성부; 및 상기 제2영상특징정보로부터 제2영상피처맵을 생성하는 제2영상피처맵생성부를 포함할 수 있다.In one embodiment of the present invention, the analysis result inferring unit includes: a voice feature map generating unit that generates a voice feature map from the voice feature information; A first image feature map generator for generating a first image feature map from the first image feature information; And a second image feature map generator for generating a second image feature map from the second image feature information.
본 발명의 일 실시예에서는, 상기 분석결과추론부는 상기 말상태정보에 기초하여 상기 음성피처맵 및 상기 제2영상피처맵에 대해 각각의 가중치를 부여하여, 상기 음성피처맵, 상기 제1영상피처맵, 및 상기 제2영상피처맵으로부터 복합피처맵을 생성하는 복합피처맵생성부를 더 포함할 수 있다.In one embodiment of the present invention, the analysis result inferring unit assigns weights to the voice feature map and the second image feature map, respectively, based on the speech state information, so that the speech feature map, And a complex feature map generator for generating a complex feature map from the second image feature map.
본 발명의 일 실시예에서는, 상기 자동화된 피평가자분석 시스템은, 입력된 음성 정보 및 상기 말상태정보로부터 피평가자의 평가상황에 대한 정보를 포함하는 상황인지파라미터를 생성하는 상황인지파라미터생성부를 더 포함할 수 있다.In an embodiment of the present invention, the automated assessor analysis system further includes a context-aware parameter generation unit for generating context-aware parameters including input voice information and information on an evaluation status of an evaluator from the speech status information .
본 발명의 일 실시예에서는, 상기 상황인지파라미터생성부는, 상기 음성 정보의 음성 출력여부 및 상기 말상태정보로부터 음성 정보 중 피평가자 외의 사람의 음성 정보인 상황음성정보를 추출하는 상황판별부를 포함할 수 있다.In one embodiment of the present invention, the situation recognition parameter generation unit may include a situation determination unit for extracting the situation audio information, which is audio information of a person other than the subject of evaluation, of the audio information from whether the audio information is output or not have.
본 발명의 일 실시예에서는, 상기 상황인지파라미터생성부는, 상기 상황음성정보로부터 음성의 내용에 대한 컨텐츠피처맵을 생성하는, 컨텐츠피처맵 생성부; 및 상기 상황음성정보로부터 발화특성에 대한 비컨텐츠피처맵을 생성하는, 비컨텐츠피처맵생성부;를 포함할 수 있다.In one embodiment of the present invention, the context recognition parameter generation unit may include: a content feature map generation unit for generating a content feature map for the content of speech from the context audio information; And a non-content feature map generation unit for generating a non-content feature map for the speech characteristic from the context speech information.
본 발명의 일 실시예에서는, 상기 분석결과추론부는, 상기 음성특징정보, 상기 영상특징정보, 상기 말상태정보, 및 상기 상황인지파라미터로부터 분석결과정보를 도출할 수 있다.In one embodiment of the present invention, the analysis result inferring unit may derive analysis result information from the speech feature information, the image feature information, the speech state information, and the context recognition parameter.
본 발명의 일 실시예에서는, 상기 분석결과추론부는 상기 음성특징정보, 상기 영상특징정보, 상기 말상태정보에 기초하여 생성된 복합피처맵에 상기 상황인지파라미터를 적용하여 분석결과정보를 도출할 수 있다.In an embodiment of the present invention, the analysis result inference unit may apply the context awareness parameter to the complex feature map generated based on the speech feature information, the image feature information, and the speech state information to derive analysis result information have.
상기와 같은 과제를 해결하기 위하여, 본 발명의 일 실시예는 1 이상의 프로세서 및 1 이상의 메모리를 포함하는 컴퓨팅 장치로 구현되는, 자동화된 피평가자분석 방법으로서, 입력된 영상 정보 및 음성 정보로부터 음성특징정보 및 영상특징정보를 생성하는 특징정보생성단계; 상기 영상특징정보에 포함된 정보로부터 피평가자가 발화하는 지에 대한 말상태정보를 생성하는 말상태추론단계; 및 상기 음성특징정보, 상기 영상특징정보, 및 상기 말상태정보를 포함하는 정보로부터 피평가자의 분석결과정보를 도출하는 분석결과추론단계;를 포함하는, 자동화된 피평가자분석 방법을 제공한다.According to an aspect of the present invention, there is provided an automated evaluator analysis method implemented by a computing device including at least one processor and at least one memory, And a feature information generation step of generating image feature information; A word state inference step of generating word state information on whether the assessor is speaking from information included in the image characteristic information; And an analysis result inference step of deriving analysis result information of the subject from the information including the speech feature information, the image feature information, and the speech state information.
본 발명의 일 실시예에서는, 상기 특징정보생성단계는, 음성특징정보를 생성하는 음성특징정보생성단계; 및 영상특징정보를 생성하는 영상특징정보생성단계를 포함하고, 상기 영상특징정보생성단계는, 입력된 영상정보로부터 입영역 외의 얼굴 내부의 1 이상의 요소를 추출하는 제1영상특징정보추출단계; 및 입력된 영상정보로부터 입영역의 요소를 추출하는 제2영상특징정보추출단계;를 포함할 수 있다.In one embodiment of the present invention, the characteristic information generating step includes: a voice characteristic information generating step of generating voice characteristic information; And an image feature information generating step of generating image feature information, wherein the image feature information generating step includes: a first image feature information extracting step of extracting at least one element inside a face outside the mouth area from the input image information; And a second image feature information extracting step of extracting an element of the input area from the input image information.
본 발명의 일 실시예에서는, 상기 말상태추론단계는, 상기 제2영상특징정보로부터 상기 말상태정보를 생성할 수 있다.In one embodiment of the present invention, the horse state inferring step may generate the horse state information from the second image feature information.
본 발명의 일 실시예에서는, 상기 분석결과추론단계는, 상기 음성특징정보로부터 음성피처맵을 생성하는 음성피처맵생성단계; 상기 제1영상특징정보로부터 제1영상피처맵을 생성하는 제1영상피처맵생성단계; 및 상기 제2영상특징정보로부터 제2영상피처맵을 생성하는 제2영상피처맵생성단계를 포함할 수 있다.In an embodiment of the present invention, the analysis result inference step may include: a voice feature map generation step of generating a voice feature map from the voice feature information; A first image feature map generation step of generating a first image feature map from the first image feature information; And a second image feature map generation step of generating a second image feature map from the second image feature information.
본 발명의 일 실시예에서는, 상기 분석결과추론단계는 상기 말상태정보에 기초하여 상기 음성피처맵 및 상기 제2영상피처맵에 대해 각각의 가중치를 부여하여, 상기 음성피처맵, 상기 제1영상피처맵, 및 상기 제2영상피처맵으로부터 복합피처맵을 생성하는 복합피처맵생성단계를 더 포함할 수 있다.In one embodiment of the present invention, the analysis result inferring step assigns weights to the voice feature map and the second image feature map, respectively, based on the speech state information, so that the speech feature map, A feature map, and a composite feature map generation step of generating a composite feature map from the second image feature map.
본 발명의 일 실시예에서는, 상기 자동화된 피평가자분석 방법은, 입력된 음성 정보 및 상기 말상태정보로부터 피평가자의 평가상황에 대한 정보를 포함하는 상황인지파라미터를 생성하는 상황인지파라미터생성단계를 더 포함할 수 있다.In one embodiment of the present invention, the automated assessor analysis method further includes a situation recognition parameter generation step of generating a situation recognition parameter including information on an evaluation situation of an assessor from the input speech information and the speech state information can do.
본 발명의 일 실시예에서는, 상기 상황인지파라미터생성단계는, 상기 음성 정보의 음성 출력여부 및 상기 말상태정보로부터 음성 정보 중 피평가자 외의 사람의 음성 정보인 상황음성정보를 추출하는 상황판별단계를 포함할 수 있다.In one embodiment of the present invention, the context recognition parameter generation step includes a situation determination step of extracting context audio information, which is speech information of a person other than the subject of evaluation, of the speech information from whether the speech information is audibly output or from the speech state information can do.
본 발명의 일 실시예에서는, 상기 상황인지파라미터생성단계는, 상기 상황음성정보로부터 음성의 내용에 대한 컨텐츠피처맵을 생성하는, 컨텐츠피처맵생성단계; 및 상기 상황음성정보로부터 발화특성에 대한 비컨텐츠피처맵을 생성하는, 비컨텐츠피처맵생성단계;를 포함할 수 있다.In an embodiment of the present invention, the context recognition parameter generation step may include: a content feature map generation step of generating a content feature map for the contents of speech from the context speech information; And generating a non-content feature map for the utterance characteristic from the context speech information.
본 발명의 일 실시예에서는, 상기 분석결과추론단계는, 상기 음성특징정보, 상기 영상특징정보, 상기 말상태정보, 및 상기 상황인지파라미터로부터 분석결과정보를 도출할 수 있다.In an embodiment of the present invention, the analysis result inference step may derive analysis result information from the speech feature information, the image feature information, the speech state information, and the context recognition parameter.
본 발명의 일 실시예에서는, 상기 분석결과추론단계는 상기 음성특징정보, 상기 영상특징정보, 상기 말상태정보에 기초하여 생성된 복합피처맵에 상기 상황인지파라미터를 적용하여 분석결과정보를 도출할 수 있다.In an embodiment of the present invention, the analysis result inference step may include applying the context aware parameter to a complex feature map generated based on the speech feature information, the image feature information, and the speech state information to derive analysis result information .
상기와 같은 과제를 해결하기 위하여, 본 발명의 일 실시예는 컴퓨터-판독가능 매체로서, 상기 컴퓨터-판독가능 매체는, 컴퓨팅 장치로 하여금 이하의 단계들을 수행하도록 하는 명령들을 저장하며, 상기 단계들은: 입력된 영상 정보 및 음성 정보로부터 음성특징정보 및 영상특징정보를 생성하는 특징정보생성단계; 상기 영상특징정보에 포함된 정보로부터 피평가자가 발화하는 지에 대한 말상태정보를 생성하는 말상태추론단계; 및 상기 음성특징정보, 상기 영상특징정보, 및 상기 말상태정보를 포함하는 정보로부터 피평가자의 분석결과정보를 도출하는 분석결과추론단계;를 포함하는, 컴퓨터-판독가능 매체를 제공한다.One embodiment of the present invention is a computer-readable medium having stored thereon instructions for causing a computing device to perform the following steps: : A feature information generating step of generating speech feature information and image feature information from input image information and speech information; A word state inference step of generating word state information on whether the assessor is speaking from information included in the image characteristic information; And an analysis result inferring step of deriving an analyzed result information of the subject from the information including the speech feature information, the image feature information, and the speech state information.
본 발명의 일 실시예에 따르면, 면접 혹은 질문에 따라 다르게 진단을 해야 하는 경우, 해당하는 질문에 따른 정확한 피평가자의 분석결과를 도출해낼 수 있는 효과를 발휘할 수 있다.According to the embodiment of the present invention, when the diagnosis is made differently according to the interview or the question, it is possible to obtain the analysis result of the accurate assessor according to the question.
본 발명의 일 실시예에 따르면, 구직자가 면접 혹은 평가 질문에 따라서 어떻게 대응해야 하는지를 훈련하여 향상시킬 수 있다. According to one embodiment of the present invention, it is possible to train and improve how a job seeker responds to an interview or an evaluation question.
본 발명의 일 실시예에 따르면, 단순히 스크립트 정보를 입력하여 일방적으로 피평가자 중심의 진단 결과를 얻을 수도 있고, 쌍방향 대화를 통해 경청하는 모습도 진단 평가에 포함시킬 수 있다.According to the embodiment of the present invention, it is possible to simply input the script information to unilaterally obtain the diagnosis result based on the evaluator, and to listen to the result through the interactive conversation.
본 발명의 일 실시예에 따르면, 장소나 분위기에 따른 커뮤니케이션 능력을 향상시킬 수 있다. 장례식장, 놀이공원, 진상손님을 대하는 서비스업 종사자, 고객을 설득해야 하는 영업사원, 엄격한 상사와의 대화 등 다양한 환경의 상황을 학습시키고 진단할 수 있는 구조를 제공하고 있으므로 때와 장소도 포함된 사회적 기술을 진단하고 이에 대한 피드백을 통해 자신의 부족한 부분을 파악하고 능력을 향상시킬 수 있는 환경을 제공할 수 있다.According to an embodiment of the present invention, communication ability according to a place or atmosphere can be improved. We provide a structure that allows us to learn and diagnose various environmental situations such as funeral parlor, amusement park, service worker who has to convince customers, salesperson who has to convince customers, and conversation with strict bosses. And provides an environment in which the user can identify his / her deficient parts and improve his / her ability through feedback.
본 발명의 일 실시예에 따르면, 영상 평가에 있어서 입모양에 따른 노이즈를 제거함으로써 보다 정확한 분석결과를 도출할 수 있는 효과를 발휘할 수 있다.According to an embodiment of the present invention, it is possible to obtain a more accurate analysis result by eliminating the noise according to the mouth shape in the image evaluation.
본 발명의 일 실시예에 따르면, 음성 평가에 있어서, 실제 평가자의 음성만을 필터링 하여, 보다 정확한 분석결과를 도출할 수 있는 효과를 발휘할 수 있다.According to the embodiment of the present invention, in the voice evaluation, it is possible to filter out only the voice of the actual evaluator and to obtain a more accurate analysis result.
본 발명의 일 실시예에 따르면, 영상과 음성을 복합적으로 적용한 복합 피처맵 및 기계학습모델을 이용함으로써 실제 사람이 평가하는 것과 유사하거나 보다 높은 인식 결과를 제공하는 효과를 발휘할 수 있다.According to an embodiment of the present invention, by using a complex feature map and a machine learning model in which an image and a voice are combined, it is possible to exhibit an effect of providing a similar or higher recognition result to that of an actual person.
본 발명의 일 실시예에 따르면, 영상과 음성을 복합하여 평가하는 경우, 피평가자의 입모양을 고려함으로써, 보다 정확한 분석 결과를 제공할 수 있는 효과를 발휘할 수 있다.According to an embodiment of the present invention, when evaluating a combination of video and audio, it is possible to provide a more accurate analysis result by considering the mouth shape of the subject.
도 1은 본 발명의 일 실시예에 따른 자동화된 피평가자분석 시스템의 동작환경을 개략적으로 도시한 도면이다.
도 2는 본 발명의 일 실시예에 따른 자동화된 피평가자분석 시스템의 내부 구성을 개략적으로 도시한 도면이다.
도 3는 본 발명의 일 실시예에 따른 분석결과추론부의 동작을 개략적으로 도시한다.
도 4는 본 발명의 일 실시예에 따른 특징정보생성부의 내부 구성을 개략적으로 도시한다.
도 5a는 본 발명의 일 실시예에 따른 분석결과추론부의 내부 구성을 개략적으로 도시한다.
도 5b는 본 발명의 일 실시예에 따른 분석결과추론부의 내부 구성을 개략적으로 도시한다.도 5c는 본 발명의 일 실시예에 따른 분석결과추론부의 내부 구성을 개략적으로 도시한다.
도 6는 본 발명의 일 실시예에 따른 음성특징정보 및 영상특징정보의 생플링 및 피처맵 생성을 개략적으로 도시한다.
도 7는 본 발명의 일 실시예에 따른 복합피처맵생성부의 동작을 개략적으로 도시한다.
도 8은 본 발명의 일 실시예에 따른 상황인지적응형추론부의 동작을 개략적으로 도시한다.
도 9는 본 발명의 일 실시예에 따른 상황인지파라미터생성부의 내부 구성을 개략적으로 도시한다.
도 10은 본 발명의 일 실시예에 따른 상황판별부의 동작을 개략적으로 도시한다.
도 11은 본 발명의 일 실시예에 따른 비컨텐츠피처맵생성부 및 컨텐츠피처맵생성부의 내부 구성을 개략적으로 도시한다.
도 12는 본 발명의 일 실시예에 따른 자동화된 피평가자분석 방법의 단계들을 개략적으로 도시한다.
도 13은 본 발명의 일 실시예에 따른 피처맵 생성과정을 개략적으로 도시한다.
도 14는 본 발명의 일 실시예에 따른 자동화된 피평가자분석 시스템의 전체구성을 개략적으로 도시한다.
도 15는 본 발명의 일 실시예에 따른 자동화된 피평가자분석 시스템의 분석결과에 대한 사용자화면을 개략적으로 도시한다.
도 16은 본 발명의 일 실시예에 따른 컴퓨팅장치의 내부 구성을 예시적으로 도시한다.FIG. 1 is a schematic diagram illustrating an operating environment of an automated system for analyzing an evaluated system according to an exemplary embodiment of the present invention. Referring to FIG.
FIG. 2 is a schematic diagram illustrating an internal configuration of an automated system for analyzing an evaluated subject matter according to an exemplary embodiment of the present invention. Referring to FIG.
FIG. 3 schematically shows the operation of the analysis result speculation unit according to an embodiment of the present invention.
FIG. 4 schematically shows an internal configuration of a feature information generating unit according to an embodiment of the present invention.
FIG. 5A schematically shows an internal configuration of an analysis result speculation unit according to an embodiment of the present invention.
5B schematically shows the internal structure of the analysis result inferring unit according to an embodiment of the present invention. FIG. 5C schematically shows the internal structure of the analysis result inferring unit according to an embodiment of the present invention.
FIG. 6 schematically illustrates generation of a feature map and feature map of voice feature information and image feature information according to an embodiment of the present invention.
7 schematically illustrates the operation of the complex feature map generator according to an embodiment of the present invention.
FIG. 8 schematically illustrates the operation of the context-aware adaptive reasoning unit according to an embodiment of the present invention.
FIG. 9 schematically shows an internal configuration of a context-aware parameter generation unit according to an embodiment of the present invention.
10 schematically shows the operation of the situation determining unit according to an embodiment of the present invention.
FIG. 11 schematically illustrates an internal configuration of a non-content feature map generating unit and a content feature map generating unit according to an embodiment of the present invention.
Figure 12 schematically illustrates the steps of an automated assessor analysis method in accordance with an embodiment of the present invention.
FIG. 13 schematically illustrates a feature map generation process according to an embodiment of the present invention.
Figure 14 schematically shows the overall configuration of an automated assessor analysis system in accordance with one embodiment of the present invention.
15 schematically shows a user screen for an analysis result of an automated assessor analysis system according to an embodiment of the present invention.
16 illustrates an exemplary internal configuration of a computing device according to an embodiment of the present invention.
이하에서는, 다양한 실시예들 및/또는 양상들이 이제 도면들을 참조하여 개시된다. 하기 설명에서는 설명을 목적으로, 하나이상의 양상들의 전반적 이해를 돕기 위해 다수의 구체적인 세부사항들이 개시된다. 그러나, 이러한 양상(들)은 이러한 구체적인 세부사항들 없이도 실행될 수 있다는 점 또한 본 발명의 기술 분야에서 통상의 지식을 가진 자에게 인식될 수 있을 것이다. 이후의 기재 및 첨부된 도면들은 하나 이상의 양상들의 특정한 예시적인 양상들을 상세하게 기술한다. 하지만, 이러한 양상들은 예시적인 것이고 다양한 양상들의 원리들에서의 다양한 방법들 중 일부가 이용될 수 있으며, 기술되는 설명들은 그러한 양상들 및 그들의 균등물들을 모두 포함하고자 하는 의도이다.In the following, various embodiments and / or aspects are now described with reference to the drawings. In the following description, for purposes of explanation, numerous specific details are set forth in order to provide a thorough understanding of one or more aspects. However, it will also be appreciated by those of ordinary skill in the art that such aspect (s) may be practiced without these specific details. The following description and the annexed drawings set forth in detail certain illustrative aspects of one or more aspects. It is to be understood, however, that such aspects are illustrative and that some of the various ways of practicing various aspects of the principles of various aspects may be utilized, and that the description set forth is intended to include all such aspects and their equivalents.
또한, 다양한 양상들 및 특징들이 다수의 디바이스들, 컴포넌트들 및/또는 모듈들 등을 포함할 수 있는 시스템에 의하여 제시될 것이다. 다양한 시스템들이, 추가적인 장치들, 컴포넌트들 및/또는 모듈들 등을 포함할 수 있다는 점 그리고/또는 도면들과 관련하여 논의된 장치들, 컴포넌트들, 모듈들 등 전부를 포함하지 않을 수도 있다는 점 또한 이해되고 인식되어야 한다.In addition, various aspects and features will be presented by a system that may include multiple devices, components and / or modules, and so forth. It should be understood that the various systems may include additional devices, components and / or modules, etc., and / or may not include all of the devices, components, modules, etc. discussed in connection with the drawings Must be understood and understood.
본 명세서에서 사용되는 "실시예", "예", "양상", "예시" 등은 기술되는 임의의 양상 또는 설계가 다른 양상 또는 설계들보다 양호하다거나, 이점이 있는 것으로 해석되지 않을 수도 있다. 아래에서 사용되는 용어들 '~부', '컴포넌트', '모듈', '시스템', '인터페이스' 등은 일반적으로 컴퓨터 관련 엔티티(computer-related entity)를 의미하며, 예를 들어, 하드웨어, 하드웨어와 소프트웨어의 조합, 소프트웨어를 의미할 수 있다.As used herein, the terms " an embodiment, " " an embodiment, " " an embodiment, " " an embodiment ", etc. are intended to indicate that any aspect or design described is better or worse than other aspects or designs. . The terms 'component', 'module', 'system', 'interface', etc. used in the following generally refer to a computer-related entity, And a combination of software and software.
또한, "포함한다" 및/또는 "포함하는"이라는 용어는, 해당 특징 및/또는 구성요소가 존재함을 의미하지만, 하나이상의 다른 특징, 구성요소 및/또는 이들의 그룹의 존재 또는 추가를 배제하지 않는 것으로 이해되어야 한다.It is also to be understood that the term " comprises " and / or " comprising " means that the feature and / or component is present, but does not exclude the presence or addition of one or more other features, components and / It should be understood that it does not.
또한, 제1, 제2 등과 같이 서수를 포함하는 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되지는 않는다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다. 및/또는 이라는 용어는 복수의 관련된 기재된 항목들의 조합 또는 복수의 관련된 기재된 항목들 중의 어느 항목을 포함한다.Also, terms including ordinal numbers such as first, second, etc. may be used to describe various elements, but the elements are not limited to these terms. The terms are used only for the purpose of distinguishing one component from another. For example, without departing from the scope of the present invention, the first component may be referred to as a second component, and similarly, the second component may also be referred to as a first component. And / or < / RTI > includes any combination of a plurality of related listed items or any of a plurality of related listed items.
또한, 본 발명의 실시예들에서, 별도로 다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥 상 가지는 의미와 일치하는 의미를 가지는 것으로 해석되어야 하며, 본 발명의 실시예에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.Furthermore, in the embodiments of the present invention, all terms used herein, including technical or scientific terms, unless otherwise defined, are intended to be inclusive in a manner that is generally understood by those of ordinary skill in the art to which this invention belongs. Have the same meaning. Terms such as those defined in commonly used dictionaries are to be interpreted as having a meaning consistent with the contextual meaning of the related art and, unless explicitly defined in the embodiments of the present invention, are intended to mean ideal or overly formal .
도 1은 본 발명의 일 실시예에 따른 자동화된 피평가자분석 시스템(1000)의 동작환경을 개략적으로 도시한 도면이다.1 is a schematic diagram illustrating an operating environment of an automated
본 발명의 일 실시예는 전술한 종래기술의 문제점들을 고려한 시스템, 방법, 및 컴퓨터판독매체를 제공한다. 본 발명에서는, 기본적으로 영상 정보 및 음성 정보 음성을 입력받고, 딥러닝과 같은 기계학습기술을 통한 학습된 모델을 통하여 분석결과정보를 도출한다.An embodiment of the present invention provides a system, a method, and a computer readable medium considering the problems of the prior art described above. In the present invention, the video information and the audio information audio are basically received, and analysis result information is derived through a learned model through a machine learning technique such as deep learning.
여기서, 본 발명의 피평가자분석 시스템(1000)의 전체 혹은 세부 결과들을 도출하는 모듈은 학습된 모델에 해당할 수 있다. 또한, 음성 및 영상 정보는 동영상으로부터 음성 및 영상 정보를 추출하거나 혹은 음성과 영상을 분리하여 입력 받는 등의 형식으로 추출될 수 있다.Here, the module that derives the overall or detailed results of the
본 발명의 일 실시예에 따른 자동화된 피평가자분석 시스템(1000)은 입모양을 통한 말하는 상태 여부를 추론하는 모델을 포함한다. 구체적으로, 본 발명에서는 영상 정보에 포함된 얼굴 중에 입모양 부분을 별도로 검출하고 RNN, LSTM, GRU와 같은 시간적 개념이 포함된 순환 신경망 기술을 이용하여 말을 하고 있는 상태인지 아닌지를 구분하는 모델을 포함한다.The automated
그리고 이러한 정보를 기초하여 영상 정보와 음성 정보에 대해 어느 정도로 가중치로 평가에 영향을 줄 것인지를 자동으로 조절할 수 있도록 구성한다. 바람직하게는 이와 같은 가중치에 대해서도 학습하도록 모델을 구성할 수 있다.Based on this information, the degree of weighting of the image information and the audio information is automatically adjusted so as to influence the evaluation. Preferably, the model can also be configured to learn about such weights.
이와 같은 구성에서 영상 정보 및 음성 정보가 입력되는 경우에, 입모양을 통해 피평가자 혹은 화자가 말하는 상태가 아닌 경우 자동으로 영상 정보를 좀 더 중요하게 처리(일반 상태보다 상대적으로 높은 가중치를 부여)하고 음성 정보를 덜 중요하게 처리(일반 상태보다 상대적으로 낮은 가중치를 부여)할 것이다. In the case where the image information and the audio information are inputted in such a configuration, the image information is processed more importantly (a relatively higher weight is given than the normal state) in the case where the subject or the speaker does not speak through the mouth shape The speech information will be treated less importantly (giving a relatively lower weight than the normal state).
또한, 본 발명의 일 실시예에 따른 자동화된 피평가자분석 시스템(1000)은 질문의 종류 및 장소나 상황 등과 같은 상황정보(context)를 추가로 입력하거나 혹은 자체적으로 동영상 혹은 음성 정보로부터 학습할 수 있도록 하여, 이러한 정보에 따라 사회적 기술을 진단하거나 평가할 수 있도록 한다. 따라서, 동일한 피평가자의 영상과 음성 정보가 들어온다고 할지라도 상황 정보에 따라 다른 진단 결과를 도출할 수가 있다.In addition, the automated
또한, 커뮤니케이션 기술과 같은 사회적 기술의 평가는 인간이 특징하기 어려운 잠재적 정보를 활용해야 하기 때문에, 본 발명의 일 실시예에 따른 자동화된 피평가자분석 시스템(1000)은 전통적인 기계학습 기술보다 더 나아가서 딥러닝과 같은 신경망 기술 기반의 기술을 적용하여 모델을 이용한다.In addition, since the evaluation of social skills such as communication techniques must utilize the potential information that is difficult for humans to characterize, the automated
본 발명의 일 실시예에 따르면, 이렇게 도출된 데이터를 사용자에게 통계적 방법을 이용하여 피드백을 줌으로써, 실제 자신의 강점과 단점을 파악하고 훈련할 수 있는 환경을 제공하는 방향으로 활용할 수도 있다.According to an embodiment of the present invention, feedback can be provided to a user using a statistical method to utilize the derived data in a direction to provide an environment that can identify and train its own strengths and weaknesses.
도 1의 (A)에서는 음성 및 영상정보가 입력되고, 피평가자분석 시스템(1000)은 음성 및 영상정보로부터 상황에 대한 정보를 자동적으로 도출하고, 이와 같은 상황에 대한 정보를 고려하여, 피평가자의 분석결과정보를 도출할 수 있다.1 (A), audio and video information is input. The
도 1의 (B)에서는 음성 및 영상정보에 추가적으로 상황정보가 입력되고(이와 같은 상황정보는 사용자가 직접 입력하거나 혹은 기설정된 상황정보를 로드하는 방식으로 입력될 수 있음), 피평가자분석 시스템(1000)은 음성 및 영상정보에 상기 상황 정보를 고려하여 피평가자의 분석결과정보를 도출할 수 있다.1B, context information is input in addition to voice and image information (the context information may be input by a user directly or in a manner of loading predetermined context information) ) Can derive analysis result information of the evaluator in consideration of the situation information in the voice and image information.
이와 같은 피평가자분석 시스템(1000)은 이미 저장된 음성 및 영상정보 혹은 동영상 데이터로부터 분석결과정보를 도출하거나 혹은 실시간으로 입력되는 음성 및 영상정보로부터 분석결과정보를 도출할 수도 있다.Such an
도 2는 본 발명의 일 실시예에 따른 자동화된 피평가자분석 시스템(1000)의 내부 구성을 개략적으로 도시한 도면이다.FIG. 2 is a schematic diagram illustrating an internal configuration of an automated
상기 실시예에 따른 피평가자분석 시스템(1000)은 1 이상의 프로세서 및 1 이상의 메모리를 갖는 컴퓨팅 장치에 의하여 구현될 수 있다.The
이와 같은 컴퓨팅장치는 프로세서(A), 버스(프로세서, 메모리, 네트워크 인터페이스 사이의 양방향 화살표에 해당), 네트워크 인터페이스(B) 및 메모리(C)를 포함할 수 있다. 메모리(C)에는 운영체제, 및 인공신경망을 구현하는 데 있어서 학습된 학습데이터로서 후술하는 본 발명의 추론 혹은 예측을 하는 모듈에서 이용되는 추론부학습데이터가 저장되어 있을 수 있다. 혹은 상기 추론부학습데이터는 딥러닝이 진행된 모델링 정보 자체를 의미할 수도 있다. 프로세서(A)에서는 특징정보생성부(100), 분석결과추론부(200), 말상태추론부(300), 상황인지파라미터생성부(400)가 실행될 수 있다. 다른 실시예들에서 자동화된 피평가자분석 시스템(1000)은 도 2의 구성요소들보다 더 많은 구성요소들을 포함할 수도 있다.Such a computing device may include a processor A, a bus (corresponding to a bi-directional arrow between the processor, memory, and the network interface), a network interface B, and a memory C. The memory C may store inference unit learning data used in the inference or prediction module of the present invention as learning data learned in implementing the operating system and the artificial neural network. Alternatively, the inference unit learning data may refer to the modeling information itself in which the deep learning is performed. In the processor A, the feature
메모리는 컴퓨터에서 판독 가능한 기록 매체로서, RAM(random access memory), ROM(read only memory) 및 디스크 드라이브와 같은 비소멸성 대용량 기록장치(permanent mass storage device)를 포함할 수 있다. 이러한 소프트웨어 구성요소들은 드라이브 메커니즘(drive mechanism, 미도시)을 이용하여 메모리와는 별도의 컴퓨터에서 판독 가능한 기록 매체로부터 로딩될 수 있다. 이러한 별도의 컴퓨터에서 판독 가능한 기록 매체는 플로피 드라이브, 디스크, 테이프, DVD/CD-ROM 드라이브, 메모리 카드 등의 컴퓨터에서 판독 가능한 기록 매체(미도시)를 포함할 수 있다. 다른 실시예에서 소프트웨어 구성요소들은 컴퓨터에서 판독 가능한 기록 매체가 아닌 네트워크 인터페이스(B)를 통해 메모리에 로딩될 수도 있다.The memory may be a computer-readable recording medium and may include a permanent mass storage device such as a random access memory (RAM), a read only memory (ROM), and a disk drive. These software components may be loaded from a computer readable recording medium separate from the memory using a drive mechanism (not shown). Such a computer-readable recording medium may include a computer-readable recording medium (not shown) such as a floppy drive, a disk, a tape, a DVD / CD-ROM drive, or a memory card. In other embodiments, the software components may be loaded into the memory via the network interface (B) rather than from a computer readable recording medium.
버스는 컴퓨팅 장치의 구성요소들간의 통신 및 데이터 전송을 가능하게 할 수 있다. 버스는 고속 시리얼 버스(high-speed serial bus), 병렬 버스(parallel bus), SAN(Storage Area Network) 및/또는 다른 적절한 통신 기술을 이용하여 구성될 수 있다.The bus may enable communication and data transfer between components of the computing device. The bus may be configured using a high-speed serial bus, a parallel bus, a Storage Area Network (SAN), and / or other suitable communication technology.
네트워크 인터페이스(B)는 자동화된 피평가자분석 시스템(1000)을 구현하는 컴퓨팅장치를 컴퓨터 네트워크에 연결하기 위한 컴퓨터 하드웨어 구성 요소일 수 있다. 네트워크 인터페이스(B)는 자동화된 피평가자분석 시스템(1000)을 무선 또는 유선 커넥션을 통해 컴퓨터 네트워크에 연결시킬 수 있다. Network interface (B) may be a computer hardware component for connecting a computing device that implements an automated
프로세서(A)는 기본적인 산술, 로직 및 자동화된 피평가자분석 시스템(1000)을 구현하는 입출력 연산을 수행함으로써, 컴퓨터 프로그램의 명령을 처리하도록 구성될 수 있다. 명령은 메모리(C) 또는 네트워크 인터페이스(B)에 의해, 그리고 버스를 통해 프로세서로 제공될 수 있다. 프로세서는 특징정보생성부(100), 분석결과추론부(200), 말상태추론부(300), 상황인지파라미터생성부(400)를 위한 프로그램 코드를 실행하도록 구성될 수 있다. 이러한 프로그램 코드는 메모리와 같은 기록 장치에 저장될 수 있다.Processor A may be configured to process instructions of a computer program by performing basic arithmetic, logic, and input / output operations that implement an automated
상기 특징정보생성부(100), 분석결과추론부(200), 말상태추론부(300), 상황인지파라미터생성부(400)는 이하에서 설명하게 될 자동화된 피평가자분석 방법을 수행하기 위해 구성될 수 있다. 상기한 프로세서는 자동화된 피평가자분석 방법에 따라 일부 컴포넌트가 생략되거나, 도시되지 않은 추가의 컴포넌트가 더 포함되거나, 2개 이상의 컴포넌트가 결합될 수 있다.The feature
한편, 이와 같은 상기 컴퓨팅 장치는 바람직하게는 개인용 컴퓨터 혹은 서버에 해당하고, 경우에 따라서는 스마트 폰(smart phone)과, 태블릿(tablet)과, 이동 전화기와, 화상 전화기와, 전자책 리더(e-book reader)와, 데스크 탑(desktop) PC와, 랩탑(laptop) PC와, 넷북(netbook) PC와, 개인용 복합 단말기(personal digital assistant: PDA, 이하 'PDA'라 칭하기로 한다)와, 휴대용 멀티미디어 플레이어(portable multimedia player: PMP, 이하 'PMP'라 칭하기로 한다)와, 엠피3 플레이어(mp3 player)와, 이동 의료 디바이스와, 카메라와, 웨어러블 디바이스(wearable device)(일 예로, 헤드-마운티드 디바이스(head-mounted device: HMD, 일 예로 'HMD'라 칭하기로 한다)와, 전자 의류와, 전자 팔찌와, 전자 목걸이와, 전자 앱세서리(appcessory)와, 전자 문신, 혹은 스마트 워치(smart watch) 등에 해당할 수 있다.Preferably, the computing device corresponds to a personal computer or a server, and may be a smart phone, a tablet, a mobile phone, a videophone, an e-book reader e a notebook PC, a netbook PC, a personal digital assistant (PDA), a portable personal computer (PC) A mobile multimedia device, a portable multimedia player (PMP), an MP3 player, a mobile medical device, a camera, a wearable device (e.g., a head- Electronic devices such as a head-mounted device (HMD), an electronic apparel, an electronic bracelet, an electronic necklace, an electronic app apparel, an electronic tattoo, or a smart watch ) And the like.
즉, 본 발명의 일 실시예 따른 자동화된 피평가자분석 시스템(1000)은 입력된 영상 정보 및 음성 정보로부터 음성특징정보 및 영상특징정보를 생성하는 특징정보생성부(100); 상기 영상특징정보에 포함된 정보로부터 피평가자가 발화하는 지에 대한 말상태정보를 생성하는 말상태추론부(300); 및 상기 음성특징정보, 상기 영상특징정보, 및 상기 말상태정보를 포함하는 정보로부터 피평가자의 분석결과정보를 도출하는 분석결과추론부(200);를 포함한다.That is, the automated
바람직하게는, 상기 자동화된 피평가자분석 시스템(1000)은 입력된 음성 정보 및 상기 말상태정보로부터 피평가자의 평가상황에 대한 정보를 포함하는 상황인지파라미터를 생성하는 상황인지파라미터생성부(400)를 더 포함한다.Preferably, the automated
이하에서는, 상기 피평가자분석 시스템(1000)의 세부 구성요소에 대하여 상술하도록 한다.Hereinafter, detailed components of the
도 3는 본 발명의 일 실시예에 따른 분석결과추론부(200)의 동작을 개략적으로 도시한다.FIG. 3 schematically shows the operation of the analysis
상기 특징정보생성부(100)는 영상정보 및 음성정보로부터 상기 음성특징정보, 상기 영상특징정보, 및 상기 말상태정보를 생성한다.The feature
한편, 상기 영상특징정보는 입 외의 영역에 대한 특징정보 및 입 영역에 대한 특징정보에 해당하는 제1 영상특징정보 및 제2 영상특징정보를 포함한다.The image feature information includes first image feature information and second image feature information corresponding to feature information on an area outside the mouth and feature information on the mouth area.
이와 같이 상기 특징정보생성부(100)에 의하여 생성된 특징정보는 상기 분석결과추론부(200)에 입력되고, 상기 분석결과추론부(200)은 이와 같은 상기 음성특징정보, 상기 영상특징정보, 상기 말상태정보, 및 상기 상황인지파라미터로부터 분석결과정보를 도출한다.The feature information generated by the feature
본 발명의 일 실시예에 따른 자동화된 피평가자분석 시스템(1000)은 영상 및 음성 정보 자체에 대하여 바로 인공신경망에 적용하는 것이 아니라, 이로부터 특징정보를 도출하여 1차적으로 데이터를 가공하고, 이를 학습된 인공신경망에 적용함으로써 보다 연산부하를 저감하고, 보다 피평가자분석이라는 목적에 부합하는 시스템을 구현할 수 있다.The
도 4는 본 발명의 일 실시예에 따른 특징정보생성부(100)의 내부 구성을 개략적으로 도시한다.FIG. 4 schematically shows an internal configuration of a feature
도 4에 도시된 바와 같이 상기 특징정보생성부(100)는, 음성특징정보를 생성하는 음성특징정보생성부(110); 및 영상특징정보를 생성하는 영상특징정보생성부(120)를 포함한다.As shown in FIG. 4, the feature
즉, 본 발명의 일 실시예에 따르면 우선적으로 음성정보와 영상정보를 분리하고, 음성정보 및 영상정보 각각으로부터 특징정보를 도출한 후에, 이에 대한 싱크를 맞추어 피처맵을 생성한다. That is, according to an embodiment of the present invention, the voice information and the video information are separated first, the feature information is derived from each of the voice information and the video information, and the feature map is generated by matching the sink information.
음성특징정보생성부(110)는 음성정보로부터 노이즈를 제거하거나 혹은 전체 음성정보로부터 처리대상이 되는 부분을 추출하는 음성전처리부(111); 및 상기 음성전처리부(111)에 의하여 전처리된 음성정보로부터 노이즈가 제거된 raw signal 혹은 prosody, MFCC, eGeMAPs, 주파수 정보 등과 같은 특징정보를 추출하는 음성특징정보추출부(112)를 포함한다.The voice feature
영상특징정보생성부(120)는 영상정보로부터 노이즈를 제거하거나 혹은 조명에 대한 효과를 제거하거나, 혹은 주변 환경에 따라 명도, 채도 혹은 색상값들을 조정하는 영상전처리부(121); 전처리된 영상으로부터 얼굴을 검출하는 얼굴검출부(122); 입력된 영상정보의 검출된 얼굴영역으로부터 입영역 외의 얼굴 내부의 1 이상의 요소를 추출하는 제1영상특징정보추출부(123); 및 입력된 영상정보의 검출된 얼굴영역으로부터 입영역의 요소를 추출하는 제2영상특징정보추출부(124);를 포함한다.The image feature
피평가자가 말을 하는 경우에, 입 모양이 변화하게 되고, 이를 그대로 인공신경망에 따른 모델에 적용하는 경우에, 이와 같은 입 모양이 표정에 대한 정보와 관련되는 피처맵 혹은 분석 정보에 영향을 줄 수 있다.In the case where the evaluator speaks, when the mouth shape changes and is applied as it is to the model according to the artificial neural network, such a mouth shape may affect the feature map or analysis information related to the information about the facial expression have.
본 발명의 일 실시예에서는 인공신경망의 성능을 최적으로 발휘하여 보다 정확한 분석결과를 제공하기 위하여 입영역의 요소와 입 외 영역의 요소에 대한 특징정보 혹은 이미지를 각각 추출하고, 이에 대한 피처맵을 각각 생성하고 이후 화자의 말하는 지 여부에 따라서, 입 영역의 피처맵의 가중치를 결정하여 두 피처맵을 머징한다.In one embodiment of the present invention, in order to optimize the performance of the artificial neural network and provide a more accurate analysis result, the feature information or the image of the elements of the mouth area and the mouth area are respectively extracted and the feature map And then determines the weight of the feature map of the mouth area according to whether the speaker is talking or not, and merges the two feature maps.
여기서, 영상특징정보는 영상 그 자체 혹은 영상으로부터 추출된 가공 정보에 해당할 수 있다. 예를들어, 제2영상특징정보는 크롭된 입 영역의 이미지 자체 혹은 소정의 이미지 처리가 된 크롭된 입 영역의 이미지 자체 혹은 크롭된 입 영역의 이미지로부터 기설정된 규칙 혹은 알고리즘에 따라 도출된 특징정보에 해당할 수 있다.Here, the image feature information may correspond to the image itself or the processing information extracted from the image. For example, the second image feature information may include characteristic information derived from a predetermined rule or algorithm from an image of a cropped input area itself, an image of a cropped input area subjected to a predetermined image process or an image of a cropped input area .
도 5a는 본 발명의 일 실시예에 따른 분석결과추론부(200)의 내부 구성을 개략적으로 도시한다.FIG. 5A schematically shows an internal configuration of an analysis
상기 특징정보생성부(100)는 입력된 영상 정보 및 음성 정보로부터 음성특징정보, 제1영상특징정보 및 제2영상특징정보를 생성한다.The feature
이와 같은 음성특징정보, 제1영상특징정보, 및 제2영상특징정보는 분석결과추론부(200)로 입력이 되고, 상기 제2영상특징정보는 말상태추론부(300)에 입력이 된다.The speech feature information, the first image feature information, and the second image feature information are input to the analysis result
상기 말상태추론부(300)는 상기 제2영상특징정보에 포함된 정보로부터 피평가자가 발화하는 지에 대한 말상태정보를 생성하고, 이를 분석결과추론부(200) 및 상황인지파라미터생성부(400)로 전달한다.The horse
말상태추론부(300)는 시간흐름에 따라 입모양 이미지를 순차적으로 입력하면 피평가자가 말을 하고 있는상태인지 대한 확률값([0, 1]) Ps을 도출한다. 예를들어 말을 하는 상태이면 1에 가깝고, 말을 하지 않는다면 0에 가까운 값을 도출하고, 이는 이후 분석결과추론부(200) 및 상황인지파라미터생성부(400)에서 이용이 된다.The word
구체적으로, 말상태추론부(300)는 현재 말을 하고 있는지 여부를 판단할 샘플링 구간에 존재하는 1 이상의 입모양 이미지로부터 말상태를 추론한다. 예를들어 2 ~ 3초 사이에 말을 하고 있는 지 여부를 판단하기 위하여, 2 ~ 3 초 사이의 5개의 입모양 정보(제2영상특징정보)로부터 2 ~ 3초 사이에 피평가자가 말을 하는 지 여부를 판단할 수 있다. 혹은 2 ~ 3초 사이의 1개의 입모양정보(제2영상특징정보)로부터 2 ~ 3초 사이에 피평가자가 말을 하는 지 여부를 파악할 수도 있다.Specifically, the horse
본 발명의 일 실시예에 따르면, 상기 말상태추론부(300)는 ConvNet (시간적 요소가 고려되지 않고 단일 이미지로부터 피처맵 생성), LSTM(샘플링 구간에 존재하는 2 이상의 이미지에 시간적 개념을 고려하여 피처맵 생성), Sigmoid(LSTM 의 값을 0~1 사이의 값으로 정규화), 혹은 이 둘을 조합함으로써 구현될 수 있다. 바람직하게는, ConvNet으로 이미적인 피처맵을 도출하고, 이와 같은 피처맵을 복수로 하여 시간 개념을 고려하여 LSTM을 통하여 2차적인 피처맵을 도출한 후에 이를 FC(Fully-Connected) 이나 Global Average Pooling 계층 등을 통하여 연결한 후에, Sigmoid와 같은 함수를 통하여 확률값을 구한다. 이와 같은 말상태추론부(300)는 다양한 학습이미지를 통하여 학습이 수행되어 있음이 바람직하다.According to an embodiment of the present invention, the speech
상기 말상태추론부(300)에 의하여 도출되는 말상태정보는 분석결과추론부(200)의 복합피처맵생성부(240)에 입력된다. 피평가자가 말하는 상태가 아닌 경우에는 음성피처맵이 노이즈이거나 피평가자가 아닌 사람의 음성일수도 있기 때문에 해당 음성피처맵의 영향력을 감소시키고 이에 대한 평가를 수행한다. 이는 복합피처맵생성부(240)에서 피처맵을 머징하는 경우에 음성피처맵의 가중치를 낮춤으로써 구현될 수 있다. 이와 같이 음성피처맵을 말상태정보에 따라 조정하는 경우에 피평가자의 경청하는 태도를 진단할 수 있다. The horse state information derived by the horse
반면, 피평가자가 말하는 상태인 경우에는 영상에 관한 피처맵 중에 입모양에 관한 피처맵에 해당하는 제2영상피처맵의 영향력을 감소시키고 이에 대한 평가를 수행한다. 이는 복합피처맵생성부(240)에서 피처맵을 머징하는 경우에 제2영상피처맵의 영향을 낮춤으로써 구현될 수 있다. 소셜스킬을 평가할 때 얼굴의 다양한 정보가 사용되지만 감성정보가 매우 중요한 역할을 하는데, 입모양이 이에 대한 많은 정보를 담고 있으므로 말하고 있는 경우와 놀라거나 혹은 웃고 있는 경우의 입모양과 구분하기가 힘든 경우가 있다. 본 발명에서는 이와 같은 문제를 해결하기 위하여 기설정된 고정 혹은 가변 구간별로 피평가자가 말을 하고 있는지 여부를 판단하고, 이에 따라 복합피처맵생성부(240)에서 각각의 피처맵의 가중치를 조정하여 복합피처맵을 생성한다.On the other hand, in the case where the subject is speaking, the influence of the second image feature map corresponding to the feature map on the mouth shape is reduced and evaluated in the feature map related to the image. This can be implemented by lowering the influence of the second image feature map when the feature map is merged in the compound
한편, 상기 분석결과추론부(200)는 상기 음성특징정보, 상기 제1영상특징정보, 제2영상특징정보 및 상기 말상태정보를 포함하는 정보로부터 피평가자의 분석결과정보를 도출하고, 상기 말상태추론부(300)는, 상기 제2영상특징정보로부터 상기 말상태정보를 생성한다.Meanwhile, the analysis
상기 분석결과추론부(200)는 상기 음성특징정보로부터 음성피처맵을 생성하는 음성피처맵생성부(210); 상기 제1영상특징정보로부터 제1영상피처맵을 생성하는 제1영상피처맵생성부(220); 상기 제2영상특징정보로부터 제2영상피처맵을 생성하는 제2영상피처맵생성부(230); 상기 음성피처맵, 제1영상피처맵, 및 제2영상피처맵으로부터 복합피처맵을 생성하는 복합피처맵생성부(240); 및 복합피처맵에 상황인지파라미터를 적용하여 분석결과정보를 도출하는 상황인지적응형추론부(250)를 포함한다.The analysis
여기서, 피처맵은 공지된 인공신경망의 분석 결과로서의 데이터, 인공신경망의 분석 과정에서 생성되는 중간 결과로서의 데이터, 모델을 통하여 도출된 분석 결과값, 혹은 기설정된 방법으로 도출된 특징정보 데이터를 포함할 수 있다.Here, the feature map may include data as an analysis result of a known artificial neural network, data as intermediate results generated in the analysis process of the artificial neural network, analysis result values derived through a model, or feature information data derived by a predetermined method .
상기 음성피처맵생성부(210), 상기 제1영상피처맵생성부(220), 및 상기 제2영상피처맵생성부(230)는 이미지분석에 이용되는 1 이상의 인공신경망 모델을 이용하여 구현될 수 있고, 본 발명의 일 실시예에서는 CNN 계열의 인공신경망 모델이 이용될 수 있다.The voice feature
한편, 상기 복합피처맵생성부(240)는 상기 말상태추론부(300)의 상기 말상태정보에 기초하여 상기 음성피처맵 및 상기 제2영상피처맵에 대해 각각의 가중치를 부여하여, 상기 음성피처맵, 상기 제1영상피처맵, 및 상기 제2영상피처맵으로부터 복합피처맵을 생성한다.Meanwhile, the compound
본 발명의 일 실시예에서는, 음성피처맵 및 제2영상피처맵에 확률값으로서의 말상태정보(Ps)에 곱셈계열의 연산을 이용할 수 있다.In an embodiment of the present invention, it is possible to use the voice feature map, and the second probability value as the end of the image feature map status information operation that multiplies in series (P s).
한편, 상기 상황인지파라미터생성부(400)는 입력된 음성 정보 및 상기 말상태정보로부터 피평가자의 평가상황에 대한 정보를 포함하는 상황인지파라미터를 생성한다. 이와 같은 상황인지파라미터는 현재 피평가자의 평가상황에 대한 정보에 해당하고, 기설정된 규칙에 따른 메트릭스 혹은 벡터열의 형태를 가질 수 있다.On the other hand, the context-aware
바람직하게는, 상기 상황인지파라미터생성부(400)는 질문의 종류나 컨텍스트, 장소나 분위기 등의 정보를 적절한 permutation이나 hashing 등으로 변환하거나 기계학습 모델을 이용하여 적절한 파라미터 벡터로 생성하는 작업을 수행한다.Preferably, the context-aware
바람직하게는, 상기 상황인지파라미터생성부(400)는 입력된 음성 정보 및 상기 말상태정보 없이도 사용자 설정에 따라 질문의 종류나 컨텍스트, 장소나 분위기 등의 정보를 적절한 값을 입력할 수도 있다.이와 같은 실시예에 대해서는 도 5b과 내부 구성을 도시하고 있다.Preferably, the context-
이와 같은 상황인지파라미터생성부(400)는 음성이 발생하고 있을 때, 말상태추론부(300)에 의해 피평가자인지 아닌지를 판단하고, 만약 피평가자 외의 사람으로부터 음성이 발화하고 있다고 판단되면 이 구간의 음성정보를 질문 정보로 판단하고, 이로부터 피처맵을 생성할 수 있다. 구체적으로 발화되고 있는 음성의 컨텐츠적인 정보 및 발성학적인 정보(억양, 높이, 세기 등) 각각에 대해 피처맵을 생성하고, 각각 생성된 피처맵들을 FC(Fully Connected) 이나 Global Average Pooling 계층 등을 이용하여 결합한 후에, 이로부터 파라미터 벡터를 생성할 수 있다. When the speech is being generated, the context-aware
본 발명의 일 실시예에서는, 전술한 바와 같이 음성 및 영상정보로부터 자동적으로 상황인지파라미터를 생성하는 것이 아니라 사용자로부터 상황에 대한 정보를 직접적으로 입력을 받고 이로부터 상황인지파라미터를 생성하거나 혹은 사용자로부터 입력 받은 상황에 대한 정보 및 전술한 바와 같이 자동적으로 생성한 상황인지파라미터로부터 최종적인 상황인지파라미터를 생성할 수도 있다.In an embodiment of the present invention, instead of generating the context-aware parameters automatically from the voice and image information as described above, the context-aware parameters may be directly input from the user to the context-aware parameters, It is possible to generate a final context-aware parameter from the information on the input status and the automatically generated context-aware parameters as described above.
한편, 상기 복합피처맵생성부(240)에 의하여 생성된 복합피처맵 및 상황인지파라미터는 상기 상황인지적응형추론부(250)에 입력이 되고, 상황인지적응형추론부(250)는 복합피처맵 및 상황인지파라미터로부터 분석결과정보를 생성할 수 있고, 이와 같은 분석결과정보에 피평가자의 각각의 평가정보가 포함되어 있다.Meanwhile, the complex feature map and context-aware parameters generated by the complex
구체적으로, 상기 상황인지적응형추론부(250)는 복수의 복합피처맵들에 대해 시간적 개념을 고려하여 제1최종피처맵을 생성할 수 있도록, 복수의 입력을 받을 수 있는 순환신경망 모듈(예를들어, LSTM), 상황인지파라미터를 입력 받아 상기 최종피처맵으로부터 상황인지파라미터가 적용된 제2최종피처맵을 생성할 수 있는 동적파라미터계층, 및 상기 제2최종피처맵들을 연결하는 FC 계층을 포함할 수 있다.In particular, the context-aware
도 5b는 본 발명의 일 실시예에 따른 분석결과추론부(200)의 내부 구성을 개략적으로 도시한다.FIG. 5B schematically shows the internal structure of the analysis
도 5b에 도시된 바와 같이, 상황인지파라미터생성부는 사용자입력정보에 기초하여 상황인지파라미터를 생성한다. As shown in FIG. 5B, the context-aware parameter generation unit generates context-aware parameters based on user input information.
본 발명의 일 실시예에서는 사용자입력정보는 스크립트 및 질문 종류 혹은 장소와 같은 상황정보를 포함할 수 있다. 이 경우, 상기 상황인지파라미터생성부는 도 11의 컨텐츠피처맵생성부(430)과 같은 구성으로 상기 스크립트에 포함된 문자열로부터 제1 컨텐츠피처맵을 생성한 후, 상기 제1 컨텐츠피처맵으로부터 제1상황인지파라미터를 생성한다. 추가적으로, 상기 상황인지파라미터생성부는 상기 질문 종류 혹은 장소와 같은 상황정보로부터 제2상황인지파라미터를 생성하고, 상기 제1상황인지파라미터 및 상기 제2상황인지파리미터로부터 상황인지파라미터를 생성할 수 있다. 이는 도 14의 반자동 모드에 상응한다.In an embodiment of the present invention, the user input information may include script and status information such as a question type or location. In this case, the context-aware parameter generation unit may generate a first content feature map from the character string included in the script with the same configuration as that of the content feature
혹은, 본 발명의 일 실시예에서는 사용자입력정보는 질문 종류 혹은 장소와 같은 상황정보를 포함할 수 있다. 이 경우, 상기 상황인지파라미터생성부는 상기 질문 종류 혹은 장소와 같은 상황정보로부터 직접적으로 상황인지파라미터를 생성할 수 있다. 이는 도 14의 수동 모드에 상응한다.In an embodiment of the present invention, the user input information may include status information such as a question type or a place. In this case, the context awareness parameter generator may generate context awareness parameters directly from context information such as the question type or location. This corresponds to the manual mode of Fig.
도 5c는 본 발명의 일 실시예에 따른 분석결과추론부(200)의 내부 구성을 개략적으로 도시한다.5C schematically shows the internal structure of the analysis
도 5c에서의 실시예는 도 5a의 실시예와 비교시 말상태추론부의 입력정보가 제2 영상특징정보가 아닌 얼굴 영상정보라는 점에서 구성적 차이가 있다.The embodiment of FIG. 5C differs from the embodiment of FIG. 5A in that the input information of the inverse state inference unit is facial image information, not the second image feature information.
구체적으로, 도 5c에 도시된 바와 같이, 말상태추론부는 얼굴 영상정보로부터 말상태정보를 추출한다.Specifically, as shown in FIG. 5C, the horse state inference unit extracts horse state information from the facial image information.
바람직하게는, 특징정보생성부(100)의 얼굴전처리부(121) 및 얼굴검출부(122)에 의하여 전치리된 얼굴 영역에 대한 이미지를 상기 말상태추론부가 입력받고, 상기 말상태추론부(300)는 상기 얼굴 영상정보가 포함된 정보로부터 피평가자가 발화하는 지에 대한 말상태정보를 생성하고, 이를 분석결과추론부(200) 및 상황인지파라미터생성부(400)로 전달한다. 혹은 도 5b의 상황인지파라미터생성부(400)에서와 같이, 말상태정보는 상기 복합피처맵생성부(240)로만 입력될 수도 있다.Preferably, the horse state inference unit receives the image of the face region pre-processed by the
말상태추론부(300)는 시간흐름에 따라 입모양 이미지를 순차적으로 입력하면 피평가자가 말을 하고 있는상태인지 대한 확률값([0, 1]) Ps을 도출한다. 예를들어 말을 하는 상태이면 1에 가깝고, 말을 하지 않는다면 0에 가까운 값을 도출하고, 이는 이후 분석결과추론부(200) 및/또는 상황인지파라미터생성부(400)에서 이용이 된다. 이에 대해서는 도 5a 및 도 5b에서의 설명과 동일한 바, 이에 대한 중복된 설명은 생략하기로 한다.The word
도 6는 본 발명의 일 실시예에 따른 음성특징정보 및 영상특징정보의 생플링 및 피처맵 생성을 개략적으로 도시한다.FIG. 6 schematically illustrates generation of a feature map and feature map of voice feature information and image feature information according to an embodiment of the present invention.
상기 분석결과추론부(200)는, 상기 음성특징정보로부터 음성피처맵을 생성하는 음성피처맵생성부(210); 상기 제1영상특징정보로부터 제1영상피처맵을 생성하는 제1영상피처맵생성부(220); 및 상기 제2영상특징정보로부터 제2영상피처맵을 생성하는 제2영상피처맵생성부(230)를 포함한다.The analysis
여기서, 음성정보 및 영상정보는 기설정된 주기로 샘플링된다. 예를들어 도 6에 도시된 바와 같이 영상정보의 경우 초당 8프레임으로 이미지정보가 있고, 1초를 샘플링타이밍으로 설정하는 경우에, 0~1초 구간, 1~2초 구간, 2~3초 구간의 음성정보로부터 음성피처맵이 생성될 수 있다.Here, the audio information and the video information are sampled at predetermined intervals. For example, as shown in FIG. 6, in the case of image information, there is image information at 8 frames per second. When 1 second is set as the sampling timing, 0 to 1 second interval, 1 to 2 second interval, The voice feature map can be generated from the voice information of the section.
한편, 영상피처맵의 경우, 예를들어 0~1초 구간에서 1개의 프레임, 1~2초 구간에서 1개의 프레임, 2~3초 구간에서 1개의 프레임이 추출되고, 각각의 프레임에 대하여 영상피처맵이 생성될 수 있다.On the other hand, in the case of the image feature map, for example, one frame is extracted in the interval of 0 to 1 second, one frame in the interval of 1 to 2 seconds, and one frame in the interval of 2 to 3 seconds, A feature map can be generated.
한편, 말상태추론부(300)는 예를들어 0~1초 구간의 8개의 프레임 전체로부터 0 ~ 1초 구간에 말을 하고 있는 지 여부에 대한 말상태정보를 추출하거나 혹은 0~1초 구간의 1개의 프레임에서 0~1초 구간에 말을 하고 있는 지 여부에 대한 말상태정보를 추출할 수 있다(도 6의 도시사항).On the other hand, the speech
한편, 각각의 음성피처맵, 제1영상피처맵, 및 제2영상피처맵은 모두 상기 말상태정보와 동기화된 시간정보를 가질 수 있다. 즉, 일정 시간구간에서 음성피처맵, 제1영상피처맵, 제2영상피처맵, 및 말상태정보는 시간적으로 동기화되거나, 혹은 상기 음성피처맵, 제1영상피처맵, 제2영상피처맵은 데이터 데이터형태로서 시간정보에 대한 데이터필드를 가질 수 있다.On the other hand, each of the voice feature map, the first image feature map, and the second image feature map may have time information synchronized with the horse state information. That is, in a predetermined time interval, the voice feature map, the first image feature map, the second image feature map, and the horse state information are temporally synchronized, or the voice feature map, the first image feature map, And may have a data field for time information as data data type.
도 7는 본 발명의 일 실시예에 따른 복합피처맵생성부(240)의 동작을 개략적으로 도시한다.FIG. 7 schematically illustrates the operation of the complex
상기 복합피처맵생성부(240)는 상기 말상태정보에 기초하여 상기 음성피처맵 및 상기 제2영상피처맵에 대해 각각의 가중치를 부여하여, 상기 음성피처맵, 상기 제1영상피처맵, 및 상기 제2영상피처맵으로부터 복합피처맵을 생성한다. 즉, 복합피처맵생성부(240)은 가중치가 부여된 피처맵들을 머징하는 피처맵머징부(241)를 포함한다.The compound
도 7은 구체적으로 #1 ~ #N번째의 시간구간 혹은 타이밍이 있고, #n번째의 시간구간에 대하여, 음성피처맵, 제1영상피처맵, 제2영상피처맵, 및 말상태정보로부터 복합피처맵을 생성함에 있어서, 말상태정보가 확률값인 Ps를 가지고 있는 경우의 실시예를 도시한다.FIG. 7 specifically shows a time period or timing of the # 1 to #Nth time periods, and a combination of the voice feature map, the first image feature map, the second image feature map, and the horse state information In the feature map generation, an embodiment in which the horse state information has a probability value P s is shown.
구체적으로, 복합피처맵생성부(240)는 입력되는 피처맵에 대해 가중치를 부여한 후에, 각각의 피처맵을 머징 혹은 컴바인(combine) 혹은 연결(concatenate) 혹은 해싱(hashing) 한다. 이와 같은 피처맵을 머징하는 방법은 인공신경망 분야에서 공지된 다양한 피처맵의 머징 알고리즘이 이용될 수 있다. Specifically, the complex
본 발명의 일 실시예에 따르면, 말상태정보가 말을 하고 있는지에 대한 확률값(0 에서 1 사이의 Ps)으로 구현되는 경우에, 음성피처맵의 경우 피처맵머징부에 입력되기 전에 음성피처맵에 가중치 Ps가 적용이 되고, 입모양에 대한 제2영상피처맵의 경우 가중치 1-Ps가 적용이 된다. 따라서, 피평가자가 말을 하고 있는 경우에, 음성피처맵의 영향력이 커지고, 입모양에 대한 제2영상피처맵의 영향력이 작아진 상태로 복합피처맵이 생성되게 된다. 반면 피평가자가 말을 하고 있지 않는 경우에는, 음성피처맵의 영향력이 작아지고, 입모양에 대한 제2영상피처맵의 영향력이 커진 상태로 복합피처맵이 생성되게 된다. 이와 같은 말상태정보의 적용은 피처맵에 확률값으로서의 말상태정보를 해당피처맵에 곱하는 형태로 구현될 수 있다.According to one embodiment of the invention, the end of the status information is the probability value for that and the end of speech feature map in the case that is implemented by (P s between 0 and 1), in the case of speech feature map before it is input to the feature maepmeo jingbu to become a weight P s applied, and a second map applied when the image feature weight is P s-1 for the mouth. Thus, when the subject is speaking, the influence of the voice feature map is increased, and the composite feature map is generated with the influence of the second image feature map on the mouth shape being small. On the other hand, if the assessor is not speaking, the influence of the voice feature map is reduced, and the composite feature map is generated with the influence of the second image feature map on the mouth shape becoming larger. Such application of the state information may be implemented by multiplying the feature map with the state information as the probability value in the feature map.
도 8은 본 발명의 일 실시예에 따른 상황인지적응형추론부(250)의 동작을 개략적으로 도시한다.FIG. 8 schematically illustrates the operation of the context-aware
본 발명의 일 실시예에서는, 상기 분석결과추론부(200)는, 상기 음성특징정보, 상기 영상특징정보, 상기 말상태정보, 및 상기 상황인지파라미터로부터 분석결과정보를 도출한다.In one embodiment of the present invention, the analysis
구체적으로, 상기 분석결과추론부(200)는 상기 음성특징정보, 상기 영상특징정보, 상기 말상태정보에 기초하여 생성된 복합피처맵에 상기 상황인지파라미터를 적용하여 분석결과정보를 도출한다.Specifically, the analysis
도 8에 도시된 바와 같이, 각각의 샘플링구간에 대하여 복합피처맵이 생성된다. 예를들어 1 ~ #N번째까지의 샘플링 구간이 있는 경우에 N개의 복합피처맵이 생성될 수 있다.As shown in Fig. 8, a composite feature map is generated for each sampling period. For example, if there are 1 to #Nth sampling intervals, N complex feature maps can be generated.
여기서 1 ~ #N번째까지의 샘플링 구간은 영상 및 음성 정보의 전체 구간에 해당할 수 있고, 혹은 영상 및 음성 정보의 일부 구간에 해당할 수도 있다.Here, the sampling interval from 1 to #N may correspond to the entire interval of the video and audio information, or may correspond to a partial interval of the video and audio information.
한편, 상기 N개의 복합피처맵은 상황인지적응형추론부(250)에 입력된다. 구체적으로 상황인지적응형추론부(250)는 전술한 순환신경망과 같은 복수입력기계학습모델부(242.1), 동적 파라미터 계층과 같은 상황인지파라미터적용부(242.2), 및 상기 상황인지파라미터적용부(242.2)를 통해서 도출된 피처맵을 FC 계층으로 처리하는 FC모듈(242.3)을 포함한다.Meanwhile, the N compound feature maps are input to the context-aware
이와 같이, 전체 샘플링구간에서의 각각의 N개의 복합피처맵(음성 및 영상에 대한 정보를 포함)는 복수입력기계학습모델부(242.1)에 입력되어 제1최종피처맵이 생성되고, 제1최종피처맵은 상황인지파라미터적용부(242.2)에 의하여 입력된 상황인지파라미터에 따라 제2최종피처맵으로 변환된다. 이후 제2최종피처맵이 FC가 되어 진단결과정보 형태로 출력될 수 있다.As such, each of the N composite feature maps (including information about voices and images) in the entire sampling interval is input to the multiple-input machine learning model unit 242.1 to generate a first final feature map, The feature map is converted into a second final feature map according to the context-aware parameters input by the context-aware parameter application 242.2. The second final feature map may then be FC and output in the form of diagnostic result information.
도 9는 본 발명의 일 실시예에 따른 상황인지파라미터생성부(400)의 내부 구성을 개략적으로 도시한다.FIG. 9 schematically shows the internal configuration of the context-aware
상기 상황인지파라미터생성부(400)는, 상기 음성 정보의 음성 출력여부 및 상기 말상태정보로부터 음성 정보 중 피평가자 외의 사람의 음성 정보인 상황음성정보를 추출하는 상황판별부(410); 상기 음성정보로부터 발화 특징에 대한 비컨텐츠피처맵을 생성하는 비컨텐츠피처맵생성부(420); 상기 음성정보로부터 실제 내용에 대한 컨텐츠피처맵을 생성하는 컨텐츠피처맵생성부(430); 상기 비컨텐츠피처맵 및 컨텐츠피처맵을 정합 혹은 머징하는 피처맵정합부(440); 및 상기 정합된 피처맵으로부터 상황인지파라미터를 생성하는 상황인지파라미터도출부(450)를 포함한다.The situation recognition
즉, 상기 상황인지파라미터생성부(400)는, 상기 상황음성정보로부터 음성의 내용에 대한 컨텐츠피처맵을 생성하는, 컨텐츠피처맵생성부(430); 및 상기 상황음성정보로부터 발화특성에 대한 비컨텐츠피처맵을 생성하는, 비컨텐츠피처맵생성부(420);를 포함한다.That is, the context awareness
본 발명의 다른 The other 실시예에서는In the embodiment , 상기 , remind 상황인지파라미터는The context-aware parameters 사용자의 입력에 의하여 직접적으로 생성될 수도 있다. Or may be generated directly by the user's input.
본 발명의 다른 The other 실시예에서는In the embodiment , 상기 , remind 상황인지파라미터는The context-aware parameters 상기 remind 정합된Matched 피처맵Feature map 및 사용자입력정보 모두를 고려하여 직접적으로 생성될 수도 있다. ≪ / RTI > and user input information.
한편, 상기 상황인지파라미터생성부(400)는 기설정된 구간 혹은 전체 구간에 대한 음성정보로부터 생성될 수 있다. 이 경우, 해당 구간에 대한 말상태정보(#1 ~ #N)이 추가적으로 고려된다. 이와 같은 말상태정보는 전체음성으로부터 피평가자가 아닌 평가자의 음성을 추출하기 위한 정보에 해당한다.Meanwhile, the context
도 10은 본 발명의 일 실시예에 따른 상황판별부(410)의 동작을 개략적으로 도시한다.FIG. 10 schematically shows the operation of the
도 10에 도시된 바와 같이 상황판별부(410)는 상기 음성 정보의 음성 출력여부 및 상기 말상태정보로부터 음성 정보 중 피평가자 외의 사람의 음성 정보인 상황음성정보를 추출하는 상황판별부(410)를 포함한다.As shown in FIG. 10, the
구체적으로, 전체 구간에 대한 음성 정보가 주어지는 경우에, 상황판별부(410)는 음성이 출력되고 있고, 말상태정보에서 피평가자가 말을 하고 있지 않거나 혹은 말을 하는 확률값 PS가 기설정된 기준 이하로 판단되는 경우에, 해당 구간을 상황음성정보로 판별한다.Specifically, when the audio information for the entire interval is given, the
이와 같은 상황음성정보로부터 상기 비컨텐츠피처맵생성부(420) 및 컨텐츠피처맵생성부(430)는 피처맵을 생성한다.The non-content feature
도 11은 본 발명의 일 실시예에 따른 비컨텐츠피처맵생성부(420) 및 컨텐츠피처맵생성부(430)의 내부 구성을 개략적으로 도시한다.FIG. 11 schematically shows an internal configuration of a non-content feature
상기 상황인지파라미터생성부(400)는, 상기 상황음성정보로부터 음성의 내용에 대한 컨텐츠피처맵을 생성하는, 컨텐츠피처맵생성부(430); 및 상기 상황음성정보로부터 발화특성에 대한 비컨텐츠피처맵을 생성하는, 비컨텐츠피처맵생성부(420);를 포함한다.The context awareness
상기 컨텐츠피처맵생성부는 피평가자가 발화한 음성을 텍스트로 변환하고, 이에 대한 실체적인 내용에 대한 피처맵을 생성한다. 예를들어, 주어진 질문에 대하여 피평가자가 대답하는 경우, 그 대답에 대한 실체적인 내용에 대한 피처맵이 컨텐츠피처맵에 해당한다. 이와 같은 실체적인 내용의 일 실시예로서 어휘 특징이 해당할 수 있다. 예를들어, 특정 표현(긍정적 표현, 부정적 표현, 회피적 표현, 방어적 표현, 및 불명확한 표현 등 중 1 이상)에 대한 빈도 등의 특성에 따른 피처맵이 컨텐츠피처맵의 일예로 구현될 수 있다. The content feature map generation unit converts the voice uttered by the subject to text into a text and generates a feature map for the substantive contents. For example, if an affirmative answers a given question, then the feature map for the substantive content of the answer corresponds to the content feature map. As an example of such substantive contents, the lexical feature may be applicable. For example, a feature map according to characteristics such as a frequency with respect to a specific expression (positive expression, negative expression, avoidance expression, defensive expression, and unspecified expression, etc.) can be implemented as an example of a content feature map have.
한편, 상기 비컨텐츠피처맵은 피평가자가 발화한 음성의 발화특성에 해당한다. 예를들어, 발화의 억양, 톤, 피치, 빠르기, 숨, 및 운율 등 중 1 이상에 대한 특성에 따른 피처맵이 비컨텐츠피처맵의 일예로 구현될 수 있다.On the other hand, the non-content feature map corresponds to the utterance characteristic of the speech uttered by the subject. For example, feature maps according to characteristics of one or more of speech accents, tones, pitches, speeds, breaths, and rhyme can be implemented as an example of a non-content feature map.
구체적으로, 상기 비컨텐츠피처맵생성부(420)는 부분 샘플링 구간의 음성의 발화적 특성을 추출하는 상황인지음성특징정보추출부(421); 상기 추출된 발화적특징으로부터 예비피처맵을 생성하는 비컨텐츠단일입력기계학습모델부(422); 상기 부분 샘플링 구간들에서의 피처맵들로부터 비컨텐츠피처맵을 생성하는 비컨텐츠복수입력기계학습모델부(423)를 포함한다. Specifically, the non-content feature
상기 비컨텐츠단일입력기계학습모델부(422)는 DNN 혹은 CNN 등의 단일입력으로부터 분석결과를 추출하는 인공신경망 모델로 구현될 수 있고, 상기 비컨텐츠복수입력기계학습모델부(423)는 LSTM 등의 복수입력으로부터 분석결과를 추출하는 순환신경망 모델로 구현될 수 있다.The non-content multiple input machine
한편, 컨텐츠피처맵생성부(430)는 음성을 텍스트 정보로 변환하는 텍스트추출부(431); 및 상기 텍스트추출부에 의하여 추출된 텍스트 정보로부터 컨텐츠피처맵을 생성하는 컨텐츠복수입력기계학습모델부(432)를 포함한다.On the other hand, the content feature
상기 컨텐츠복수입력기계학습모델부(432)는 순환신경망을 이용한 복수입력으로부터 분석결과를 추출하는 인공신경말 모델로 구현될 수 있다.The content multiple input machine
도 12는 본 발명의 일 실시예에 따른 자동화된 피평가자분석 방법의 단계들을 개략적으로 도시한다.Figure 12 schematically illustrates the steps of an automated assessor analysis method in accordance with an embodiment of the present invention.
자동화된 피평가자분석 방법은 전술한 자동화된 피평가자분석 시스템에 의하여 수행될 수 있고, 시스템의 설명과 중복되는 부분 중 일부는 편의상 생략하기로 한다.The automated evaluator analysis method can be performed by the automated evaluator analysis system described above, and some of the parts overlapping with the description of the system will be omitted for convenience.
본 발명의 일 실시예에 따른 자동화된 피평가자분석 방법은 1 이상의 프로세서 및 1 이상의 메모리를 포함하는 컴퓨팅 장치로 구현된다.An automated assessor analysis method in accordance with an embodiment of the present invention is implemented in a computing device that includes one or more processors and one or more memories.
구체적으로 상기 방법은 입력된 영상 정보 및 음성 정보로부터 음성특징정보 및 영상특징정보를 생성하는 특징정보생성단계(S100); 상기 영상특징정보에 포함된 정보로부터 피평가자가 발화하는 지에 대한 말상태정보를 생성하는 말상태추론단계(S200); 및 상기 음성특징정보, 상기 영상특징정보, 및 상기 말상태정보를 포함하는 정보로부터 피평가자의 분석결과정보를 도출하는 분석결과추론단계(S400);를 포함한다.Specifically, the method includes a feature information generation step (S100) of generating speech feature information and image feature information from input image information and speech information; A horse state inferring step (S200) of generating horse state information on whether the assessor is speaking from information included in the image feature information; And an analysis result inferring step S400 of deriving analysis result information of the subject from the information including the speech feature information, the image feature information, and the speech state information.
바람직하게는, 상기 방법은 입력된 음성 정보 및 상기 말상태정보로부터 피평가자의 평가상황에 대한 정보를 포함하는 상황인지파라미터를 생성하는 상황인지파라미터생성단계(S300)를 더 포함하고, 상기 분석결과추론단계는 상기 상황인지파라미터를 추가적으로 고려하여 분석결과정보를 도출할 수 있다.Preferably, the method further includes a context-aware parameter generation step (S300) of generating context-aware parameters including the input speech information and the evaluation status of the assessor from the speech status information, The analysis result information can be derived by further considering the context awareness parameter.
바람직하게는, 상기 특징정보생성단계는, 음성특징정보를 생성하는 음성특징정보생성단계; 및 영상특징정보를 생성하는 영상특징정보생성단계를 포함하고, 상기 영상특징정보생성단계는, 입력된 영상정보로부터 입영역 외의 얼굴 내부의 1 이상의 요소를 추출하는 제1영상특징정보추출단계; 및 입력된 영상정보로부터 입영역의 요소를 추출하는 제2영상특징정보추출단계;를 포함할 수 있다.Preferably, the characteristic information generating step includes: a voice characteristic information generating step of generating voice characteristic information; And an image feature information generating step of generating image feature information, wherein the image feature information generating step includes: a first image feature information extracting step of extracting at least one element inside a face outside the mouth area from the input image information; And a second image feature information extracting step of extracting an element of the input area from the input image information.
바람직하게는, 상기 말상태추론단계는, 상기 제2영상특징정보로부터 상기 말상태정보를 생성할 수 있다.Advantageously, the horse state inference step may generate the horse state information from the second image feature information.
바람직하게는, 상기 분석결과추론단계는, 상기 음성특징정보로부터 음성피처맵을 생성하는 음성피처맵생성단계; 상기 제1영상특징정보로부터 제1영상피처맵을 생성하는 제1영상피처맵생성단계; 및 상기 제2영상특징정보로부터 제2영상피처맵을 생성하는 제2영상피처맵생성단계를 포함할 수 있다.Preferably, the analysis result inferring step includes: a voice feature map generating step of generating a voice feature map from the voice feature information; A first image feature map generation step of generating a first image feature map from the first image feature information; And a second image feature map generation step of generating a second image feature map from the second image feature information.
바람직하게는, 상기 분석결과추론단계는 상기 말상태정보에 기초하여 상기 음성피처맵 및 상기 제2영상피처맵에 대해 각각의 가중치를 부여하여, 상기 음성피처맵, 상기 제1영상피처맵, 및 상기 제2영상피처맵으로부터 복합피처맵을 생성하는 복합피처맵생성단계를 더 포함할 수 있다.Preferably, the analysis result inference step may assign each of the weights to the voice feature map and the second image feature map based on the speech state information to determine the voice feature map, the first image feature map, And a composite feature map generation step of generating a composite feature map from the second image feature map.
바람직하게는, 상기 자동화된 피평가자분석 방법은, 입력된 음성 정보 및 상기 말상태정보로부터 피평가자의 평가상황에 대한 정보를 포함하는 상황인지파라미터를 생성하는 상황인지파라미터생성단계를 더 포함할 수 있다.Preferably, the automated assessor analysis method may further include a context-aware parameter generation step of generating context-aware parameters including input voice information and information on an evaluation status of an assessor from the speech status information.
바람직하게는, 상기 상황인지파라미터생성단계는, 상기 음성 정보의 음성 출력여부 및 상기 말상태정보로부터 음성 정보 중 피평가자 외의 사람의 음성 정보인 상황음성정보를 추출하는 상황판별단계를 포함할 수 있다.Preferably, the context recognition parameter generation step may include a situation determination step of extracting context audio information, which is speech information of a person other than the subject of evaluation, of the speech information from whether the speech information is audible output or from the speech state information.
바람직하게는, 상기 상황인지파라미터생성단계는, 상기 상황음성정보로부터 음성의 내용에 대한 컨텐츠피처맵을 생성하는, 컨텐츠피처맵생성단계; 및 상기 상황음성정보로부터 발화특성에 대한 비컨텐츠피처맵을 생성하는, 비컨텐츠피처맵생성단계;를 포함할 수 있다.Preferably, the context recognition parameter generation step includes: a content feature map generation step of generating a content feature map for the content of speech from the context audio information; And generating a non-content feature map for the utterance characteristic from the context speech information.
바람직하게는, 상기 분석결과추론단계는, 상기 음성특징정보, 상기 영상특징정보, 상기 말상태정보, 및 상기 상황인지파라미터로부터 분석결과정보를 도출할 수 있다.Preferably, the analysis result inference step may derive analysis result information from the speech feature information, the image feature information, the speech state information, and the context awareness parameter.
바람직하게는, 상기 분석결과추론단계는 상기 음성특징정보, 상기 영상특징정보, 상기 말상태정보에 기초하여 생성된 복합피처맵에 상기 상황인지파라미터를 적용하여 분석결과정보를 도출할 수 있다.Preferably, the analysis result inference step may derive analysis result information by applying the context awareness parameter to a complex feature map generated based on the speech feature information, the image feature information, and the speech state information.
도 13은 본 발명의 일 실시예에 따른 피처맵 생성과정을 개략적으로 도시한다.FIG. 13 schematically illustrates a feature map generation process according to an embodiment of the present invention.
도 13에서는 CNN 인공신경망 모델을 이용하여 입영역에 대한 피처맵을 생성하는 과정을 예시적으로 도시한다. 도 13에 도시된 방법은 제2영상피처맵생성부(230)에 의하여 수행될 수 있다.FIG. 13 exemplarily shows a process of generating a feature map for an input area using a CNN artificial neural network model. The method illustrated in FIG. 13 may be performed by the second image feature
구체적으로, 도 3을 참조하면, 예를 들어, 64 X 64 크기의 제2영상특징정보를 5 X 5 크기의 32개 필터로 컨볼루션(convolution)하여 60 X 60 크기의 32개 결과물을 출력하고, 이를 3 X 3 max pooling 을 이용하여 30 X 30 크기로 축소시킨다. 30 X 30 크기의 32개 결과물에 다시 5 X 5 크기의 32개 필터로 컨볼루션하고, 다시 3 X 3 max pooling하면 13 X 13 크기의 32개 결과물이 출력된다. 여기에, 5 X 5 크기의 64개 필터를 컨볼루션하면 9 X 9 크기의 64개 결과물이 나오고 경계(boundary)를 0으로 채워 10 X 10으로 만든 후 3 X 3 max pooling을 적용하여 5 X 5 크기의 64개 결과물을 얻는다.For example, referring to FIG. 3, the second image feature information having a size of 64 × 64 is convolved with 32 filters having a size of 5 × 5 to
그 후 512개의 가중치가 있는 FC와 128개의 가중치가 있는 FC를 통해 최종 128개의 벡터로 구성된 피처맵을 얻는다. 예를 들어, 최종 출력값의 개수는 얻고자 하는 입모양에 대한 특성정보의 개수와 같을 수 있다.We then obtain a feature map consisting of the last 128 vectors through FC with 512 weights and FC with 128 weights. For example, the number of final output values may be equal to the number of characteristic information for the mouth shape to be obtained.
상기 제2영상피처맵은 상기 최종 128개의 출력값 자체가 될 수 있고, 혹은 구 중간 단계에서 컨볼루션한 피처맵에 해당할 수 있다. 이와 같은 CNN 기반의 인공신경망 모듈의 구성은 1 이상의 컨볼루션 계층, 풀링 계층, ReLu와 같은 활성화 함수, FC 계층이나 Global Average Pooling 계층 등을 조합하여 형성할 수 있다.The second image feature map may be the final 128 output values itself, or may correspond to a feature map convolved at the middle of the phrase. The configuration of the CNN-based artificial neural network module can be formed by combining at least one convolution layer, a pooling layer, an activation function such as ReLu, and an FC layer or a global average pooling layer.
또한, 전술한 피처맵을 도출하는 구성들, 예를들어, 음성피처맵생성부(210), 제1영상피처맵생성부(220), 제2영상피처맵생성부(230), 복수입력기계학습모델부(242.1), 비컨텐츠피처맵생성부(420), 컨텐츠피처맵생성부(430)들은 인공신경망 모델을 구현할 수 있는 다양한 모듈에 의하여 구현될 수 있으나, 주어진 단일 혹은 복수 입력값에 대해 학습된 결과에 기초하여 출력정보를 도출한다는 점을 공통점으로 갖는다.The first feature feature
한편, 상기 음성피처맵생성부(210), 제1영상피처맵생성부(220), 제2영상피처맵생성부(230), 복수입력기계학습모델부(242.1), 비컨텐츠피처맵생성부(420), 컨텐츠피처맵생성부(430)들은 다양한 학습 데이터에 의하여 학습된 것을 가정하고, 또한 지속적으로 학습이 될 수도 있다.The first image
본 발명은 주어진 동영상 정보 혹은 영상/음성 정보 전체를 학습시키고, 학습된 단일의 인공신경망 모델을 이용하는 것이 아니라, 음성 및 영상을 분리하고 이에 대해 각각 인공신경망 모델을 이용하여 피처맵을 생성하고, 이와 같이 생성된 피처맵을 말상태정보에 따라 머징한다. 이후 이에 대해 상황인지파라미터를 적용하여, 또 다른 인공신경망 모델을 이용하여 피평가자를 분석한다. 따라서, 과정 전체에 대해 인공신경망 모델을 적용한 것과 달리 세부 과정 각각에 인공신경망 모델을 적용하고, 이에 대해 다시 데이터 처리를 수행한 후에, 다시 인공신경망 모델에 적용함으로써, 보다 정확한 결과를 도출할 수 있다.In the present invention, instead of using a single artificial neural network model that learns a given moving picture information or video / audio information as a whole, a feature map is generated using an artificial neural network model, The generated feature map is merged according to the horse state information. After that, the situation recognition parameter is applied to analyze the analyzed subject using another artificial neural network model. Therefore, unlike the artificial neural network model that is applied to the whole process, the artificial neural network model is applied to each of the detailed processes, and after data processing is performed again, it is possible to obtain a more accurate result by applying it to the artificial neural network model again .
도 14는 본 발명의 일 실시예에 따른 자동화된 피평가자분석 시스템(1000)의 전체구성을 개략적으로 도시한다.Figure 14 schematically illustrates the overall configuration of an automated
도 14에 도시된 실시예에서는 주어신 동영상 정보 혹은 음성 및 영상 정보로부터 얼굴부분에 대한 이미지 및 음성정보가 분리되어 추출되고, 음성정보는 CNN 인공신경망 모델을 통하여 피처맵으로 변환되고, 이미지정보는 입영역 및 입 외의 영역이 각각 CNN 인공신경망 모델을 통하여 피처맵으로 변환된 후에, 3개의 피처맵이 확률값으로서의 말상태정보에 따라 복합피처맵으로 변환된다.In the embodiment shown in FIG. 14, the image and audio information for the face portion are extracted and extracted from the given moving picture information or voice and image information, the voice information is converted into the feature map through the CNN artificial neural network model, After the mouth area and the outside mouth area are respectively converted into the feature map through the CNN artificial neural network model, the three feature maps are converted into the complex feature map according to the horse state information as the probability value.
이후, 복합피처맵은 LSTM과 같은 순환신경망 모델로 입력되고, 이후 상황인지파라미터 및 순환신경망에 의하여 출력되는 피처맵이 동적 파라미터 계층으로 입력되어 최종 결과물이 FC 계층을 통해 진단결과가 생성된다.Then, the complex feature map is input to a circular neural network model such as LSTM. Then, the feature map output by the circumstantial parameter and the circular neural network is input to the dynamic parameter hierarchy, and the final result is generated through the FC hierarchy.
한편, 도 14에서 자동 모드인 경우에는 말상태정보를 참조하여 해당 동영상의 전체 혹은 부분 구간에서의 상황인지파라미터가 도출되고, 반자동모드에서는 수동으로 작성된 텍스트 스크립트에 대해 LSTM과 같은 순환신경망으로 문자열에 기초한 피처맵이 생성되고 이로부터 상황인지파라미터가 도출되고, 수동모드에서는 사용자의 입력이 직접적으로 상황인지파라미터로 변환된다.On the other hand, in the case of the automatic mode in FIG. 14, context recognition parameters in all or partial sections of the moving picture are derived with reference to the speech state information, and in the semi-automatic mode, Based feature map is generated and context-aware parameters are derived, and in the passive mode, the user's input is directly converted into context-aware parameters.
도 15는 본 발명의 일 실시예에 따른 자동화된 피평가자분석 시스템(1000)의 분석결과에 대한 사용자화면을 개략적으로 도시한다.FIG. 15 schematically illustrates a user screen for an analysis result of an automated
도 15에 도시된 바와 같이, 본 발명의 일 실시예에서는, 상기 진단결과정보는 하기의 사회적 기술 평가항목인 활기참, 웃는얼굴, 시선맞춤, 친숙함, 신뢰성, 자신감, 집중도, 말빠르기, 참여도, 추천도, 차분함, 진정성 등으로 나누어질 수 있다. 이와 같은 평가항목은 상황인지적응형추론부(250)에서 FC 계층을 통해 얻은 벡터의 각 항목의 값에 해당할 수 있다.As shown in FIG. 15, in the embodiment of the present invention, the diagnosis result information includes the following social skill evaluation items: lively, smiling face, sight alignment, familiarity, reliability, confidence, concentration, , Recommendation level, calmness, authenticity, and so on. Such an evaluation item may correspond to the value of each item of the vector obtained through the FC layer in the context-aware
또한, 감성특징에서와 같이 진단결과정보는 놀람, 행복, 사랑, 경멸, 화남, 두려움, 슬픔, 불쾌를 포함할 수 있고, 이 역시 상황인지적응형추론부(250)에서 FC 계층을 통해 얻은 벡터의 각 항목의 값에 해당할 수 있다.In addition, as in the emotional characteristic, the diagnostic result information may include surprise, happiness, love, contempt, angry, fear, sadness, and discomfort. And the value of each item of < RTI ID = 0.0 >
본 발명에 따르면 피평가자의 평가에 있어서 중요한 요소가 될 수 있는 잠재적 항목들이 인공신경망 모델에 의하여 검출되고 이들이 반영이 됨으로써 보다 사회적 기술 및 감성에 대한 결과값을 정확하게 도출할 수 있다. According to the present invention, the potential items that can be an important factor in the evaluation of the evaluator are detected by the artificial neural network model and reflected thereby, and the resultant value for the social skill and emotion can be accurately derived.
종래의 기술에서는 기설정된 특징정보(예를들어 눈의 모양에 있어서 길이 대 폭비율)에 기초하여 피평가자를 자동적으로 평가할 때 이와 같은 잠재적 요소들이 반영되지 않을 수 있다. 한편, 전체 동영상에 대해 인공신경망 모듈을 구성하는 경우에는 연산부하가 과중되고, 또한 정확한 결과가 도출되지 않을 수 있다.In the prior art, such potential factors may not be reflected when automatically evaluating the assessor based on the predetermined feature information (for example, the length-width ratio in the shape of the eye). On the other hand, when an artificial neural network module is constructed for the entire moving image, the computation load is overloaded, and accurate results may not be obtained.
반면 본 발명의 일 실시예에 따른 자동화된 피평가자분석 시스템(1000)에서는 인공신경망 모델을 최적화를 하면서, 말 상태 등에 대해서는 다른 데이터 처리를 함으로써 학습 모델에서의 노이즈 부하를 보다 저감시켜 학습 모델의 오작동율을 보다 낮게 할 수 있는 효과를 발휘할 수 있다.On the other hand, in the automated
도 16는 본 발명의 일 실시예에 따른 컴퓨팅장치의 내부 구성을 예시적으로 도시한다.16 illustrates an exemplary internal configuration of a computing device according to an embodiment of the present invention.
도 16에 도시한 바와 같이, 컴퓨팅 장치(11000)은 적어도 하나의 프로세서(processor)(11100), 메모리(memory)(11200), 주변장치 인터페이스(peripheral interface)(11300), 입/출력 서브시스템(I/Osubsystem)(11400), 전력 회로(11500) 및 통신 회로(11600)를 적어도 포함할 수 있다. 이때, 컴퓨팅 장치(11000)은 촉각 인터페이스 장치에 연결된 사용자단말기(A) 혹은 전술한 컴퓨팅 장치(B)에 해당될 수 있다.16,
메모리(11200)는, 일례로 고속 랜덤 액세스 메모리(high-speed random access memory), 자기 디스크, 에스램(SRAM), 디램(DRAM), 롬(ROM), 플래시 메모리 또는 비휘발성 메모리를 포함할 수 있다. 메모리(11200)는 컴퓨팅 장치(11000)의 동작에 필요한 소프트웨어 모듈, 명령어 집합 또는 그밖에 다양한 데이터를 포함할 수 있다.
이때, 프로세서(11100)나 주변장치 인터페이스(11300) 등의 다른 컴포넌트에서 메모리(11200)에 액세스하는 것은 프로세서(11100)에 의해 제어될 수 있다. 상기 프로세서(11100)은 단일 혹은 복수로 구성될 수 있고, 연산처리속도 향상을 위하여 GPU 및 TPU 형태의 프로세서를 포함할 수 있다.At this point, accessing
주변장치 인터페이스(11300)는 컴퓨팅 장치(11000)의 입력 및/또는 출력 주변장치를 프로세서(11100) 및 메모리 (11200)에 결합시킬 수 있다. 프로세서(11100)는 메모리(11200)에 저장된 소프트웨어 모듈 또는 명령어 집합을 실행하여 컴퓨팅 장치(11000)을 위한 다양한 기능을 수행하고 데이터를 처리할 수 있다.
입/출력 서브시스템(11400)은 다양한 입/출력 주변장치들을 주변장치 인터페이스(11300)에 결합시킬 수 있다. 예를 들어, 입/출력 서브시스템(11400)은 모니터나 키보드, 마우스, 프린터 또는 필요에 따라 터치스크린이나 센서등의 주변장치를 주변장치 인터페이스(11300)에 결합시키기 위한 컨트롤러를 포함할 수 있다. 다른 측면에 따르면, 입/출력 주변장치들은 입/출력 서브시스템(11400)을 거치지 않고 주변장치 인터페이스(11300)에 결합될 수도 있다.The input / output subsystem 11400 may couple various input / output peripherals to the
전력 회로(11500)는 단말기의 컴포넌트의 전부 또는 일부로 전력을 공급할 수 있다. 예를 들어 전력 회로(11500)는 전력 관리 시스템, 배터리나 교류(AC) 등과 같은 하나 이상의 전원, 충전 시스템, 전력 실패 감지 회로(power failure detection circuit), 전력 변환기나 인버터, 전력 상태 표시자 또는 전력 생성, 관리, 분배를 위한 임의의 다른 컴포넌트들을 포함할 수 있다.
통신 회로(11600)는 적어도 하나의 외부 포트를 이용하여 다른 컴퓨팅 장치와 통신을 가능하게 할 수 있다.
또는 상술한 바와 같이 필요에 따라 통신 회로(11600)는 RF 회로를 포함하여 전자기 신호(electromagnetic signal)라고도 알려진 RF 신호를 송수신함으로써, 다른 컴퓨팅 장치와 통신을 가능하게 할 수도 있다.Or as described above,
이러한 도 16의 실시예는, 컴퓨팅 장치(11000)의 일례일 뿐이고, 컴퓨팅 장치(11000)은 도 16에 도시된 일부 컴포넌트가 생략되거나, 도 16에 도시되지 않은 추가의 컴포넌트를 더 구비하거나, 2개 이상의 컴포넌트를 결합시키는 구성 또는 배치를 가질 수 있다. 예를 들어, 모바일 환경의 통신 단말을 위한 컴퓨팅 장치는 도 16에도시된 컴포넌트들 외에도, 터치스크린이나 센서 등을 더 포함할 수도 있으며, 통신 회로(1160)에 다양한 통신방식(WiFi, 3G, LTE, Bluetooth, NFC, Zigbee 등)의 RF 통신을 위한 회로가 포함될 수도 있다. 컴퓨팅 장치(11000)에 포함 가능한 컴포넌트들은 하나 이상의 신호 처리 또는 어플리케이션에 특화된 집적 회로를 포함하는 하드웨어, 소프트웨어, 또는 하드웨어 및 소프트웨어 양자의 조합으로 구현될 수 있다.16 is merely an example of the
본 발명의 실시예에 따른 방법들은 다양한 컴퓨팅 장치를 통하여 수행될 수 있는 프로그램 명령(instruction) 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 특히, 본 실시예에 따른 프로그램은 PC 기반의 프로그램 또는 모바일 단말 전용의 어플리케이션으로 구성될 수 있다. 본 발명이 적용되는 애플리케이션은 파일 배포 시스템이 제공하는 파일을 통해 이용자 단말에 설치될 수 있다. 일 예로, 파일 배포 시스템은 이용자 단말이기의 요청에 따라 상기 파일을 전송하는 파일 전송부(미도시)를 포함할 수 있다.The methods according to embodiments of the present invention may be implemented in the form of a program instruction that can be executed through various computing devices and recorded in a computer-readable medium. In particular, the program according to the present embodiment can be configured as a PC-based program or an application dedicated to a mobile terminal. An application to which the present invention is applied can be installed in a user terminal through a file provided by a file distribution system. For example, the file distribution system may include a file transfer unit (not shown) for transferring the file according to a request from the user terminal.
이상에서 설명된 장치는 하드웨어 구성요소, 소프트웨어 구성요소, 및/또는 하드웨어 구성요소 및 소프트웨어구성요소의 조합으로 구현될 수 있다. 예를 들어, 실시예들에서 설명된 장치 및 구성요소는, 예를 들어, 프로세서, 콘트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPGA(field programmable gate array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 하나 이상의 범용 컴퓨터 또는 특수 목적컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 상기 운영 체제 상에서 수행되는 하나 이상의 소프트웨어 애플리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다. 이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 콘트롤러를 포함할 수 있다. 또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.The apparatus described above may be implemented as a hardware component, a software component, and / or a combination of hardware components and software components. For example, the apparatus and components described in the embodiments may be implemented within a computer system, such as, for example, a processor, a controller, an arithmetic logic unit (ALU), a digital signal processor, a microcomputer, a field programmable gate array (FPGA) , A programmable logic unit (PLU), a microprocessor, or any other device capable of executing and responding to instructions. The processing device may execute an operating system (OS) and one or more software applications running on the operating system. The processing device may also access, store, manipulate, process, and generate data in response to execution of the software. For ease of understanding, the processing apparatus may be described as being used singly, but those skilled in the art will recognize that the processing apparatus may have a plurality of processing elements and / As shown in FIG. For example, the processing unit may comprise a plurality of processors or one processor and one controller. Other processing configurations are also possible, such as a parallel processor.
소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로 (collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상장치(virtual equipment), 컴퓨터 저장 매체 또는 장치, 또는 전송되는 신호 파(signal wave)에 영구적으로, 또는 일시적으로 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨팅 장치 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.The software may include a computer program, code, instructions, or a combination of one or more of the foregoing, and may be configured to configure the processing device to operate as desired or to process it collectively or collectively Device can be commanded. The software and / or data may be in the form of any type of machine, component, physical device, virtual equipment, computer storage media, or device , Or may be permanently or temporarily embodied in a transmitted signal wave. The software may be distributed over a networked computing device and stored or executed in a distributed manner. The software and data may be stored on one or more computer readable recording media.
실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 실시예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.The method according to an embodiment may be implemented in the form of a program command that can be executed through various computer means and recorded in a computer-readable medium. The computer-readable medium may include program instructions, data files, data structures, and the like, alone or in combination. The program instructions to be recorded on the medium may be those specially designed and configured for the embodiments or may be available to those skilled in the art of computer software. Examples of computer-readable media include magnetic media such as hard disks, floppy disks and magnetic tape; optical media such as CD-ROMs and DVDs; magnetic media such as floppy disks; Magneto-optical media, and hardware devices specifically configured to store and execute program instructions such as ROM, RAM, flash memory, and the like. Examples of program instructions include machine language code such as those produced by a compiler, as well as high-level language code that can be executed by a computer using an interpreter or the like. The hardware devices described above may be configured to operate as one or more software modules to perform the operations of the embodiments, and vice versa.
이상과 같이 실시예들이 비록 한정된 실시예와 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기의 기재로부터 다양한 수정 및 변형이 가능하다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.While the present invention has been particularly shown and described with reference to exemplary embodiments thereof, it is to be understood that the invention is not limited to the disclosed exemplary embodiments. For example, it is to be understood that the techniques described may be performed in a different order than the described methods, and / or that components of the described systems, structures, devices, circuits, Lt; / RTI > or equivalents, even if it is replaced or replaced.
그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 특허청구범위의 범위에 속한다.Therefore, other implementations, other embodiments, and equivalents to the claims are also within the scope of the following claims.
Claims (23)
입력된 영상 정보 및 음성 정보로부터 음성특징정보 및 영상특징정보를 생성하는 특징정보생성부;
상기 영상특징정보에 포함된 정보로부터 피평가자가 발화하는 지에 대한 말상태정보를 생성하는 말상태추론부; 및
상기 음성특징정보, 상기 영상특징정보, 및 상기 말상태정보를 포함하는 정보로부터 피평가자의 분석결과정보를 도출하는 분석결과추론부;를 포함하고,
상기 특징정보생성부는,
음성특징정보를 생성하는 음성특징정보생성부; 및
영상특징정보를 생성하는 영상특징정보생성부를 포함하고,
상기 영상특징정보생성부는,
입력된 영상정보로부터 입영역 외의 얼굴 내부의 1 이상의 요소를 추출하는 제1영상특징정보추출부; 및
입력된 영상정보로부터 입영역의 요소를 추출하는 제2영상특징정보추출부;를 포함하고,
상기 분석결과추론부는,
상기 음성특징정보로부터 음성피처맵을 생성하는 음성피처맵생성부;
상기 제1영상특징정보로부터 제1영상피처맵을 생성하는 제1영상피처맵생성부;
상기 제2영상특징정보로부터 제2영상피처맵을 생성하는 제2영상피처맵생성부; 및
상기 말상태정보에 기초하여 상기 음성피처맵 및 상기 제2영상피처맵에 대해 각각의 가중치를 부여하여, 상기 음성피처맵, 상기 제1영상피처맵, 및 상기 제2영상피처맵으로부터 복합피처맵을 생성하는 복합피처맵생성부를 포함하고,
상기 복합피처맵생성부는 상기 말상태정보에서 피평가자가 말을 하고 있는 지에 대한 확률값이 높은 경우에는, 피평가자가 말을 하고 있는 지에 대한 확률값이 낮은 경우에 비하여 상기 음성피처맵의 가중치를 상대적으로 높이고, 제2영상피처맵의 가중치를 상대적으로 낮추어 복합피처맵을 생성하는, 자동화된 피평가자분석 시스템.
An automated assessor analysis system,
A feature information generation unit for generating speech feature information and image feature information from input image information and speech information;
A horse state reasoning unit for generating horse state information on whether an evaluated person is speaking from information included in the image feature information; And
And an analysis result speculation unit for deriving analysis result information of the subject from the information including the speech feature information, the image feature information, and the speech state information,
Wherein the feature information generating unit comprises:
A voice feature information generation unit for generating voice feature information; And
And an image characteristic information generating unit for generating image characteristic information,
Wherein the image feature information generating unit comprises:
A first image feature information extracting unit for extracting at least one element inside the face from the input image information from the input image information; And
And a second image feature information extraction unit for extracting an element of the input area from the input image information,
As a result of the analysis,
A voice feature map generation unit for generating a voice feature map from the voice feature information;
A first image feature map generator for generating a first image feature map from the first image feature information;
A second image feature map generator for generating a second image feature map from the second image feature information; And
Assigning a weight to each of the voice feature map and the second image feature map based on the horse state information to generate a composite feature map from the voice feature map, the first image feature map, and the second image feature map, And a composite feature map generation unit for generating a composite feature map,
The complex feature map generation unit relatively increases the weight of the voice feature map as compared with the case where the probability value of whether the assessor is speaking is low when the probability value of whether the assessor is speaking in the speech state information is high, Wherein a weight of the second image feature map is relatively lowered to generate a composite feature map.
상기 말상태추론부는,
상기 입력된 영상 정보의 얼굴 영상정보 혹은 상기 제2영상특징정보로부터 상기 말상태정보를 생성하는, 자동화된 피평가자분석 시스템.
The method according to claim 1,
The word-
And generates the speech state information from the face image information of the input image information or the second image feature information.
상기 자동화된 피평가자분석 시스템은,
입력된 음성 정보 및 상기 말상태정보로부터 피평가자의 평가상황에 대한 정보를 포함하는 상황인지파라미터를 생성하는 상황인지파라미터생성부를 더 포함하는, 자동화된 피평가자분석 시스템.
The method according to claim 1,
The automated assessor analysis system,
Further comprising a context-aware parameter generating unit for generating context-aware parameters including input voice information and information on an evaluation status of an evaluator from the speech status information.
상기 자동화된 피평가자분석 시스템은,
사용자의 입력에 따라서 피평가자의 평가상황에 대한 정보를 포함하는 상황인지파라미터를 생성하는 상황인지파라미터생성부를 더 포함하는, 자동화된 피평가자분석 시스템.
The method according to claim 1,
The automated assessor analysis system,
And a situation-aware parameter generating unit for generating a situation-aware parameter including information on an evaluation situation of the evaluator according to a user's input.
상기 상황인지파라미터생성부는,
상기 음성 정보의 음성 출력여부 및 상기 말상태정보로부터 음성 정보 중 피평가자 외의 사람의 음성 정보인 상황음성정보를 추출하는 상황판별부를 포함하는, 자동화된 피평가자분석 시스템.
The method of claim 6,
Wherein the context-aware parameter generator comprises:
And a situation discriminating section for extracting situation audio information, which is audio information of a person other than the subject who is the subject of the audio information, based on whether or not the audio information is output from the speech and the speech state information.
상기 상황인지파라미터생성부는,
상기 상황음성정보로부터 음성의 내용에 대한 컨텐츠피처맵을 생성하는, 컨텐츠피처맵 생성부; 및
상기 상황음성정보로부터 발화특성에 대한 비컨텐츠피처맵을 생성하는, 비컨텐츠피처맵생성부;를 포함하는, 자동화된 피평가자분석 시스템.
The method of claim 8,
Wherein the context-aware parameter generator comprises:
A content feature map generation unit for generating a content feature map for the contents of speech from the context audio information; And
And a non-content feature map generator for generating a non-content feature map for the speech characteristic from the context speech information.
입력된 영상 정보 및 음성 정보로부터 음성특징정보 및 영상특징정보를 생성하는 특징정보생성단계;
상기 영상특징정보에 포함된 정보로부터 피평가자가 발화하는 지에 대한 말상태정보를 생성하는 말상태추론단계; 및
상기 음성특징정보, 상기 영상특징정보, 및 상기 말상태정보를 포함하는 정보로부터 피평가자의 분석결과정보를 도출하는 분석결과추론단계;를 포함하고,
상기 특징정보생성단계는,
음성특징정보를 생성하는 음성특징정보생성단계; 및
영상특징정보를 생성하는 영상특징정보생성단계를 포함하고,
상기 영상특징정보생성단계는,
입력된 영상정보로부터 입영역 외의 얼굴 내부의 1 이상의 요소를 추출하는 제1영상특징정보추출단계; 및
입력된 영상정보로부터 입영역의 요소를 추출하는 제2영상특징정보추출단계;를 포함하고,
상기 분석결과추론단계는,
상기 음성특징정보로부터 음성피처맵을 생성하는 음성피처맵생성단계;
상기 제1영상특징정보로부터 제1영상피처맵을 생성하는 제1영상피처맵생성단계;
상기 제2영상특징정보로부터 제2영상피처맵을 생성하는 제2영상피처맵생성단계; 및
상기 말상태정보에 기초하여 상기 음성피처맵 및 상기 제2영상피처맵에 대해 각각의 가중치를 부여하여, 상기 음성피처맵, 상기 제1영상피처맵, 및 상기 제2영상피처맵으로부터 복합피처맵을 생성하는 복합피처맵생성단계를 포함하고,
상기 복합피처맵생성단계는 상기 말상태정보에서 피평가자가 말을 하고 있는 지에 대한 확률값이 높은 경우에는, 피평가자가 말을 하고 있는 지에 대한 확률값이 낮은 경우에 비하여 상기 음성피처맵의 가중치를 상대적으로 높이고, 제2영상피처맵의 가중치를 상대적으로 낮추어 복합피처맵을 생성하는, 자동화된 피평가자분석 방법.
What is claimed is: 1. An automated assessor analysis method implemented in a computing device comprising at least one processor and at least one memory,
A feature information generating step of generating speech feature information and image feature information from input image information and audio information;
A word state inference step of generating word state information on whether the assessor is speaking from information included in the image characteristic information; And
And an analysis result inferring step of deriving analysis result information of the subject from the information including the speech feature information, the image feature information, and the speech state information,
The feature information generating step may include:
A voice feature information generation step of generating voice feature information; And
An image feature information generating step of generating image feature information,
The image feature information generating step may include:
A first image feature information extracting step of extracting one or more elements in a face outside the input area from the input image information; And
And a second image feature information extraction step of extracting an element of the input area from the input image information,
As a result of the analysis,
A voice feature map generation step of generating a voice feature map from the voice feature information;
A first image feature map generation step of generating a first image feature map from the first image feature information;
A second image feature map generation step of generating a second image feature map from the second image feature information; And
Assigning a weight to each of the voice feature map and the second image feature map based on the horse state information to generate a composite feature map from the voice feature map, the first image feature map, and the second image feature map, And a composite feature map generation step of generating a composite feature map,
The complex feature map generating step may increase the weight of the voice feature map relative to the case where the probability value of whether the assessor is talking is low or not when the probability value of whether the assessor is speaking in the speech state information is high And relatively weighting the second image feature map to produce a composite feature map.
상기 말상태추론단계는,
상기 입력된 영상 정보의 얼굴 영상정보 혹은 상기 제2영상특징정보로부터 상기 말상태정보를 생성하는, 자동화된 피평가자분석 방법.
The method of claim 12,
The verbal state inference step comprises:
And generates the speech state information from the face image information of the input image information or the second image feature information.
상기 자동화된 피평가자분석 방법은,
입력된 음성 정보 및 상기 말상태정보로부터 피평가자의 평가상황에 대한 정보를 포함하는 상황인지파라미터를 생성하는 상황인지파라미터생성단계를 더 포함하는, 자동화된 피평가자분석 방법.
The method of claim 12,
The automated assessor analysis method comprises:
Further comprising: a context-aware parameter generation step of generating context-aware parameters including input voice information and information on an evaluation situation of an evaluator from the speech state information.
상기 자동화된 피평가자분석 방법은,
사용자의 입력에 따라서 피평가자의 평가상황에 대한 정보를 포함하는 상황인지파라미터를 생성하는 상황인지파라미터생성단계를 더 포함하는, 자동화된 피평가자분석 방법.
The method of claim 12,
The automated assessor analysis method comprises:
Further comprising a situation-aware parameter generation step of generating a situation-aware parameter including information on an evaluation situation of the evaluator according to a user's input.
상기 상황인지파라미터생성단계는,
상기 음성 정보의 음성 출력여부 및 상기 말상태정보로부터 음성 정보 중 피평가자 외의 사람의 음성 정보인 상황음성정보를 추출하는 상황판별단계를 포함하는, 자동화된 피평가자분석 방법.
18. The method of claim 17,
The context-aware parameter generation step includes:
And a situation determination step of extracting, from the speech state information, whether or not speech of the speech information is outputted, and situation speech information which is speech information of a person other than the subject of the speech.
상기 상황인지파라미터생성단계는,
상기 상황음성정보로부터 음성의 내용에 대한 컨텐츠피처맵을 생성하는, 컨텐츠피처맵생성단계; 및
상기 상황음성정보로부터 발화특성에 대한 비컨텐츠피처맵을 생성하는, 비컨텐츠피처맵생성단계;를 포함하는, 자동화된 피평가자분석 방법.
The method of claim 19,
The context-aware parameter generation step includes:
A content feature map generation step of generating a content feature map for the contents of speech from the context audio information; And
And a non-content feature map generation step of generating a non-content feature map for a speech characteristic from the context speech information.
상기 컴퓨터-판독가능 매체는, 컴퓨팅 장치로 하여금 이하의 단계들을 수행하도록 하는 명령들을 저장하며, 상기 단계들은:
입력된 영상 정보 및 음성 정보로부터 음성특징정보 및 영상특징정보를 생성하는 특징정보생성단계;
상기 영상특징정보에 포함된 정보로부터 피평가자가 발화하는 지에 대한 말상태정보를 생성하는 말상태추론단계; 및
상기 음성특징정보, 상기 영상특징정보, 및 상기 말상태정보를 포함하는 정보로부터 피평가자의 분석결과정보를 도출하는 분석결과추론단계;를 포함하고,
상기 특징정보생성단계는,
음성특징정보를 생성하는 음성특징정보생성단계; 및
영상특징정보를 생성하는 영상특징정보생성단계를 포함하고,
상기 영상특징정보생성단계는,
입력된 영상정보로부터 입영역 외의 얼굴 내부의 1 이상의 요소를 추출하는 제1영상특징정보추출단계; 및
입력된 영상정보로부터 입영역의 요소를 추출하는 제2영상특징정보추출단계;를 포함하고,
상기 분석결과추론단계는,
상기 음성특징정보로부터 음성피처맵을 생성하는 음성피처맵생성단계;
상기 제1영상특징정보로부터 제1영상피처맵을 생성하는 제1영상피처맵생성단계;
상기 제2영상특징정보로부터 제2영상피처맵을 생성하는 제2영상피처맵생성단계; 및
상기 말상태정보에 기초하여 상기 음성피처맵 및 상기 제2영상피처맵에 대해 각각의 가중치를 부여하여, 상기 음성피처맵, 상기 제1영상피처맵, 및 상기 제2영상피처맵으로부터 복합피처맵을 생성하는 복합피처맵생성단계를 포함하고,
상기 복합피처맵생성단계는 상기 말상태정보에서 피평가자가 말을 하고 있는 지에 대한 확률값이 높은 경우에는, 피평가자가 말을 하고 있는 지에 대한 확률값이 낮은 경우에 비하여 상기 음성피처맵의 가중치를 상대적으로 높이고, 제2영상피처맵의 가중치를 상대적으로 낮추어 복합피처맵을 생성하는, 컴퓨터-판독가능 매체.22. A computer-readable medium,
The computer-readable medium storing instructions that cause a computing device to perform the steps of:
A feature information generating step of generating speech feature information and image feature information from input image information and audio information;
A word state inference step of generating word state information on whether the assessor is speaking from information included in the image characteristic information; And
And an analysis result inferring step of deriving analysis result information of the subject from the information including the speech feature information, the image feature information, and the speech state information,
The feature information generating step may include:
A voice feature information generation step of generating voice feature information; And
An image feature information generating step of generating image feature information,
The image feature information generating step may include:
A first image feature information extracting step of extracting one or more elements in a face outside the input area from the input image information; And
And a second image feature information extraction step of extracting an element of the input area from the input image information,
As a result of the analysis,
A voice feature map generation step of generating a voice feature map from the voice feature information;
A first image feature map generation step of generating a first image feature map from the first image feature information;
A second image feature map generation step of generating a second image feature map from the second image feature information; And
Assigning a weight to each of the voice feature map and the second image feature map based on the horse state information to generate a composite feature map from the voice feature map, the first image feature map, and the second image feature map, And a composite feature map generation step of generating a composite feature map,
The complex feature map generating step may increase the weight of the voice feature map relative to the case where the probability value of whether the assessor is talking is low or not when the probability value of whether the assessor is speaking in the speech state information is high And relatively weighting the second image feature map to produce a composite feature map.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020170156158A KR101984283B1 (en) | 2017-11-22 | 2017-11-22 | Automated Target Analysis System Using Machine Learning Model, Method, and Computer-Readable Medium Thereof |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020170156158A KR101984283B1 (en) | 2017-11-22 | 2017-11-22 | Automated Target Analysis System Using Machine Learning Model, Method, and Computer-Readable Medium Thereof |
Publications (1)
Publication Number | Publication Date |
---|---|
KR101984283B1 true KR101984283B1 (en) | 2019-05-30 |
Family
ID=66675716
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020170156158A KR101984283B1 (en) | 2017-11-22 | 2017-11-22 | Automated Target Analysis System Using Machine Learning Model, Method, and Computer-Readable Medium Thereof |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR101984283B1 (en) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102149371B1 (en) * | 2019-09-23 | 2020-08-31 | 주식회사 케어닥 | Method and system for matching workforce based on video |
KR20210012505A (en) * | 2019-07-25 | 2021-02-03 | 주식회사 제네시스랩 | Managing Method, System and Computer-readable Medium for Interview Automatic Evaluation Model |
KR102261673B1 (en) * | 2020-01-21 | 2021-06-07 | 주식회사 제네시스랩 | Method for Providing Recruit Information Using Machine Learning Model and Computer-readable Medium Thereof |
KR20210109704A (en) * | 2020-02-27 | 2021-09-07 | 주식회사 제네시스랩 | Feature Information Derivation From A Plural of frames System Using Machine Learning Model, Methods, Computer-Readable Mediums thereof, and Interview Preparation Service Providing Method |
KR102584078B1 (en) * | 2022-12-15 | 2023-10-04 | 에이블제이 주식회사 | Apparatus and method for providing interview's feedback |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20040014123A (en) * | 2002-08-06 | 2004-02-14 | 윤재민 | Emotion and Motion Extracting System of Virtual Human and its Method |
KR101198445B1 (en) | 2011-08-26 | 2012-11-06 | (주) 나인원 | An Apparatus for analyzing image of interview and a method thereof |
JP2016218911A (en) * | 2015-05-25 | 2016-12-22 | パナソニックIpマネジメント株式会社 | Customer service evaluating device, customer service evaluating system equipped with the same, and customer service evaluating method |
JP2017009825A (en) * | 2015-06-23 | 2017-01-12 | トヨタ自動車株式会社 | Conversation state analyzing device and conversation state analyzing method |
KR101747712B1 (en) * | 2016-04-22 | 2017-06-16 | 동서대학교산학협력단 | interview auto recognizetion real-time management method by smart phone |
JP2017111660A (en) * | 2015-12-17 | 2017-06-22 | 日本電信電話株式会社 | Video pattern learning device, method and program |
-
2017
- 2017-11-22 KR KR1020170156158A patent/KR101984283B1/en active IP Right Grant
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20040014123A (en) * | 2002-08-06 | 2004-02-14 | 윤재민 | Emotion and Motion Extracting System of Virtual Human and its Method |
KR101198445B1 (en) | 2011-08-26 | 2012-11-06 | (주) 나인원 | An Apparatus for analyzing image of interview and a method thereof |
JP2016218911A (en) * | 2015-05-25 | 2016-12-22 | パナソニックIpマネジメント株式会社 | Customer service evaluating device, customer service evaluating system equipped with the same, and customer service evaluating method |
JP2017009825A (en) * | 2015-06-23 | 2017-01-12 | トヨタ自動車株式会社 | Conversation state analyzing device and conversation state analyzing method |
JP2017111660A (en) * | 2015-12-17 | 2017-06-22 | 日本電信電話株式会社 | Video pattern learning device, method and program |
KR101747712B1 (en) * | 2016-04-22 | 2017-06-16 | 동서대학교산학협력단 | interview auto recognizetion real-time management method by smart phone |
Non-Patent Citations (1)
Title |
---|
김민경 외 1명. CNN-LSTM 신경망을 이용한 발화 분석 모델. 제29회 한글 및 한국어 정보처리 학술대회 논문집. 한국어정보학회. 2017.10., pp.122-124.* * |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20210012505A (en) * | 2019-07-25 | 2021-02-03 | 주식회사 제네시스랩 | Managing Method, System and Computer-readable Medium for Interview Automatic Evaluation Model |
KR20210107601A (en) * | 2019-07-25 | 2021-09-01 | 주식회사 제네시스랩 | Managing Method, System and Computer-readable Medium for Interview Automatic Evaluation Model |
KR102297948B1 (en) * | 2019-07-25 | 2021-09-03 | 주식회사 제네시스랩 | Managing Method, System and Computer-readable Medium for Interview Automatic Evaluation Model |
KR102397112B1 (en) * | 2019-07-25 | 2022-05-12 | 주식회사 제네시스랩 | Managing Method, System and Computer-readable Medium for Interview Automatic Evaluation Model |
KR102149371B1 (en) * | 2019-09-23 | 2020-08-31 | 주식회사 케어닥 | Method and system for matching workforce based on video |
KR102261673B1 (en) * | 2020-01-21 | 2021-06-07 | 주식회사 제네시스랩 | Method for Providing Recruit Information Using Machine Learning Model and Computer-readable Medium Thereof |
KR20210109704A (en) * | 2020-02-27 | 2021-09-07 | 주식회사 제네시스랩 | Feature Information Derivation From A Plural of frames System Using Machine Learning Model, Methods, Computer-Readable Mediums thereof, and Interview Preparation Service Providing Method |
KR102371172B1 (en) | 2020-02-27 | 2022-03-08 | 주식회사 제네시스랩 | Feature Information Derivation From A Plural of frames System Using Machine Learning Model, Methods, Computer-Readable Mediums thereof, and Interview Preparation Service Providing Method |
KR102584078B1 (en) * | 2022-12-15 | 2023-10-04 | 에이블제이 주식회사 | Apparatus and method for providing interview's feedback |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR101984283B1 (en) | Automated Target Analysis System Using Machine Learning Model, Method, and Computer-Readable Medium Thereof | |
US11393206B2 (en) | Image recognition method and apparatus, terminal, and storage medium | |
Erol et al. | Toward artificial emotional intelligence for cooperative social human–machine interaction | |
WO2020135194A1 (en) | Emotion engine technology-based voice interaction method, smart terminal, and storage medium | |
US11854540B2 (en) | Utilizing machine learning models to generate automated empathetic conversations | |
US11769492B2 (en) | Voice conversation analysis method and apparatus using artificial intelligence | |
US20200065612A1 (en) | Interactive artificial intelligence analytical system | |
US11594224B2 (en) | Voice user interface for intervening in conversation of at least one user by adjusting two different thresholds | |
KR102387113B1 (en) | Non-verbal Evaluation Method, System and Computer-readable Medium Based on Machine Learning | |
Ren | Affective information processing and recognizing human emotion | |
KR20210070213A (en) | Voice user interface | |
CN113469153B (en) | Multi-modal emotion recognition method based on micro-expressions, limb actions and voice | |
JP2017156854A (en) | Speech semantic analysis program, apparatus and method for improving comprehension accuracy of context semantic through emotion classification | |
KR20190081243A (en) | Method and apparatus of recognizing facial expression based on normalized expressiveness and learning method of recognizing facial expression | |
CN110262665A (en) | Method and apparatus for output information | |
WO2020211820A1 (en) | Method and device for speech emotion recognition | |
CN115631267A (en) | Method and device for generating animation | |
US20230260536A1 (en) | Interactive artificial intelligence analytical system | |
CN111383138B (en) | Restaurant data processing method, device, computer equipment and storage medium | |
Ritschel et al. | Multimodal joke generation and paralinguistic personalization for a socially-aware robot | |
CN109961152B (en) | Personalized interaction method and system of virtual idol, terminal equipment and storage medium | |
Siegert et al. | Admitting the addressee detection faultiness of voice assistants to improve the activation performance using a continuous learning framework | |
US11748558B2 (en) | Multi-persona social agent | |
WO2022165109A1 (en) | Methods and systems enabling natural language processing, understanding and generation | |
Foggia et al. | Identity, Gender, Age, and Emotion Recognition from Speaker Voice with Multi-task Deep Networks for Cognitive Robotics |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |