KR20220069677A - 멀티-모달 기반의 감정 분류장치 및 방법 - Google Patents

멀티-모달 기반의 감정 분류장치 및 방법 Download PDF

Info

Publication number
KR20220069677A
KR20220069677A KR1020200157046A KR20200157046A KR20220069677A KR 20220069677 A KR20220069677 A KR 20220069677A KR 1020200157046 A KR1020200157046 A KR 1020200157046A KR 20200157046 A KR20200157046 A KR 20200157046A KR 20220069677 A KR20220069677 A KR 20220069677A
Authority
KR
South Korea
Prior art keywords
emotion classification
emotion
classification
real image
modal
Prior art date
Application number
KR1020200157046A
Other languages
English (en)
Other versions
KR102428916B1 (ko
Inventor
노희열
이선행
이유중
장동영
윤찬녕
신영하
Original Assignee
오로라월드 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 오로라월드 주식회사 filed Critical 오로라월드 주식회사
Priority to KR1020200157046A priority Critical patent/KR102428916B1/ko
Priority to PCT/KR2021/011339 priority patent/WO2022108057A1/ko
Publication of KR20220069677A publication Critical patent/KR20220069677A/ko
Application granted granted Critical
Publication of KR102428916B1 publication Critical patent/KR102428916B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06K9/6288
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06K9/6267
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/174Facial expression recognition
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • G10L25/51Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
    • G10L25/63Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for estimating an emotional state

Abstract

본 개시는 감정 분류장치 및 방법을 제공한다.
본 개시의 일 측면에 의하면, 화상을 기초로 예측한 감정 분류를 음성을 기초로 측정한 감정 분류를 이용하여 검증하고, 검증 정확도를 기초로 감정 분류모델을 갱신하는 장치 및 방법을 제공한다.

Description

멀티-모달 기반의 감정 분류장치 및 방법 {Method And Apparatus for Classifying Emotion Based on Multi-Modal}
본 발명은 멀티-모달 기반의 감정 분류장치 및 방법에 관한 것이다.
이 부분에 기술된 내용은 단순히 본 실시예에 대한 배경 정보를 제공할 뿐 종래기술을 구성하는 것은 아니다.
인간의 얼굴 모델로부터 인간의 감정을 정확하게 인식하기 위하여, 음성(voice), 표정(facial expression), 뇌파(brain wave), 근전도(electromyography), 피부 전기저항(skin resistance), 체온(body temperature) 및 심전도(electrocardiogram) 등 다양한 생체 데이터(biometric data)가 사용되고 있다. 이러한 다양한 데이터의 사용에도 불구하고 정확한 감정인식에는 어려움이 있었다. 이러한 어려움을 보완하기 위하여, 시각(sight), 청각(hearing), 촉각(touch), 미각(taste), 후각(smell) 등 다양한 감각 채널로부터 입력받은 정보를 종합하여 감정 분류를 수행하는, 멀티-모달(multi-modal) 분류 시스템이 제안되고 있다.
한국 공개특허공보 제10-2017-0094836 (2017.08.22)
본 개시의 일 측면에 의하면, 화상을 기초로 예측한 감정 분류를 음성을 기초로 측정한 감정 분류를 이용하여 검증하고, 검증 정확도를 기초로 감정 분류모델을 갱신하는 장치 및 방법을 제공하는 데 주된 목적이 있다.
본 개시의 일 측면에 의하면, 동일한 감정 분류에 해당하는 실화상, 열화상 및 음성 데이터에 있어서, 상기 실화상으로부터 상기 실화상에 포함된 객체의 표정을 인식하여 표정 정보를 추출하여 클러스터링 기반의 감정 분류모델을 이용하여 상기 실화상에 포함된 객체의 감정 분류를 예측하고, 상기 열화상으로부터 상기 열화상에 포함된 객체의 온도 정보를 추출하여 상기 감정 분류모델을 이용하여 상기 열화상에 포함된 객체의 감정 분류를 예측하는 분류예측부; 객체의 감정 분류에 따른 주파수 대역을 필터링하는 대역 필터(band-pass filter)를 이용하여 상기 음성 데이터로부터 상기 음성 데이터가 나타내는 감정 분류를 측정하는 분류측정부; 및 상기 실화상을 기초로 예측한 감정 분류 및 상기 열화상을 기초로 예측한 감정 분류 각각을 상기 음성 데이터를 기초로 측정한 감정 분류를 이용하여 검증하고, 검증 결과를 기초로 상기 감정 분류모델을 갱신하는 갱신부를 포함하는 것을 특징으로 하는 멀티-모달 기반의 감정 분류장치를 제공한다.
본 개시의 다른 측면에 의하면, 동일한 감정 분류에 해당하는 실화상, 열화상 및 음성 데이터에 있어서, 상기 실화상으로부터 상기 실화상에 포함된 객체의 표정을 인식하여 표정 정보를 추출하여 클러스터링 기반의 감정 분류모델로부터 상기 실화상에 포함된 객체의 감정 분류를 예측하는 과정; 상기 열화상으로부터 상기 열화상에 포함된 객체의 온도 정보를 추출하여 상기 감정 분류모델로부터 상기 열화상에 포함된 객체의 감정 분류를 예측하는 과정; 객체의 감정 분류에 따른 주파수 대역을 필터링하는 대역 필터(band-pass filter)를 이용하여 상기 음성 데이터로부터 상기 음성 데이터가 나타내는 감정 분류를 측정하는 과정; 상기 실화상을 기초로 예측한 감정 분류 및 상기 열화상을 기초로 예측한 감정 분류 각각을 상기 음성 데이터를 기초로 측정한 감정 분류를 이용하여 검증하고, 검증 결과를 기초로 상기 감정 분류모델을 갱신하는 과정을 포함하는 것을 특징으로 하는 멀티-모달 기반의 감정 분류방법을 제공한다.
본 개시의 다른 측면에 의하면, 전술한 감정 분류장치에 있어서, 상기 갱신부는, 상기 제1 값에 대해 예측된 감정 분류 및 상기 제2 값에 대해 예측된 감정 분류 각각의 검증 정확도 또는 검증 신뢰도를 기초로 각 값에 대응하는 가중치(weight)를 갱신함으로써 상기 감정 분류모델을 갱신하는 것을 특징으로 하는 멀티-모달 기반의 감정 분류장치를 제공한다.
본 개시의 또다른 측면에 의하면, 상기 검증 정확도가 기 설정된 정확도 미만이거나 검증 신뢰도가 기 설정된 신뢰도 미만인 경우 상기 갱신부는, 상기 감정 분류모델의 가중치를 변경하고, 분류예측부는, 변경된 감정 분류모델을 이용하여 상기 표정 정보 및 상기 온도 정보를 기초로 감정 분류를 재예측하는 것을 특징으로 하는 멀티-모달 기반의 감정 분류장치를 제공한다.
본 개시의 일 측면에 의하면, 실화상(normal image) 및 열화상(thermal image)을 기초로 예측한 감정 분류를 음성을 기초로 측정한 감정 분류를 이용하여 검증하고, 검증 정확도를 기초로 감정 분류모델을 갱신함으로써, 실화상, 열화상 및 음성 데이터를 기초로 한 멀티-모달 기반의 감정 분류장치 및 방법을 제공하는 효과가 있다.
본 개시의 다른 측면에 의하면, 각 모달리티(modality)에 대하여 산출한 감정 분류를 기초로 검증 정확도를 산출함으로써, 감정 분류장치 및 방법이 채용하는 감정 분류모델의 각 모달리티에 해당하는 가중치를 변경함으로써 감정 분류의 정확도 및/또는 신뢰도를 향상시키는 효과가 있다.
도 1은 본 개시의 일 실시예에 따른 감정 분류장치를 나타내는 블록구성도이다.
도 2는 본 개시의 일 실시예에 따라 화상으로부터 감정 분류를 예측하는 방법을 나타내는 개념도이다.
도 3은 본 개시의 일 실시예에 따라 음성 데이터로부터 감정 분류를 측정하는 방법을 나타내는 개념도이다.
도 4는 본 개시의 일 실시예에 따른 감정 분류방법을 나타내는 흐름도이다.
도 5는 본 개시의 일 실시예에 따른 감정 분류장치를 기초로 산출된 감정 분류결과의 예시도이다.
이하, 본 개시의 일부 실시예들을 예시적인 도면을 통해 상세하게 설명한다. 각 도면의 구성요소들에 열람부호를 부가함에 있어서, 동일한 구성요소들에 대해서는 비록 다른 도면상에 표시되더라도 가능한 한 동일한 부호를 가지도록 하고 있음에 유의해야 한다. 또한, 본 개시를 설명함에 있어, 관련된 공지 구성 또는 기능에 대한 구체적인 설명이 본 개시의 요지를 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명은 생략한다.
또한, 본 개시의 구성 요소를 설명하는 데 있어서, 제2, 제1 등의 용어를 사용할 수 있다. 이러한 용어는 그 구성 요소를 다른 구성 요소와 구별하기 위한 것일 뿐, 그 용어에 의해 해당 구성 요소의 본질이나 차례 또는 순서 등이 한정되지 않는다. 명세서 전체에서, 어떤 부분이 어떤 구성요소를 '포함', '구비'한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미한다. 또한, 명세서에 기재된 '…부', '모듈' 등의 용어는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미하며, 이는 하드웨어나 소프트웨어 또는 하드웨어 및 소프트웨어의 결합으로 구현될 수 있다.
첨부된 도면과 함께 이하에 개시될 상세한 설명은 본 개시의 예시적인 실시형태를 설명하고자 하는 것이며, 본 개시가 실시될 수 있는 유일한 실시형태를 나타내고자 하는 것이 아니다.
본 개시에서의 화상(image)은 객체, 예컨대 사람의 얼굴이 포함된 정지 화상(still image)과 동영상(video)을 모두 포함한다.
도 1은 본 개시의 일 실시예에 따른 감정 분류장치를 나타내는 블록구성도이다.
본 개시의 일 실시예에 따른 감정 분류장치(100)는 분류예측부(classificatin prediction unit, 102), 분류측정부(classification measurement unit, 104 및 갱신부(update unit, 106)를 전부 또는 일부 포함한다. 도 1에 도시된 감정 분류장치(100)는 본 개시의 일 실시예에 따른 것으로서, 도 1에 도시된 모든 구성이 필수 구성요소는 아니며, 다른 실시예에서 일부 구성이 추가, 변경 또는 삭제될 수 있다. 예컨대, 다른 실시예에서 감정 분류장치는 검증이 끝난 예측된 감정 분류결과를 표시하는 디스플레이부(display unit, 미도시)를 더 포함할 수 있다.
도 1은 설명의 편의를 위해 감정 분류장치(100)를 장치로서 도시하였으나, 이는 설명의 편의를 위한 것으로, 다른 실시예에서 노이즈 제거장치는 각 구성(102 내지 106)의 기능을 수행하는 소프트웨어 모듈 또는 프로세서로 구현될 수 있다.
동일한 감정 분류에 해당하는 실화상(normal image), 열화상(thermal image) 및 음성 데이터에 있어서, 분류예측부(102)는 실화상으로부터 실화상에 포함된 객체의 표정을 인식하여 표정 정보를 추출하고, 열화상으로부터 열화상에 포함된 객체의 온도 정보를 추출하여 클러스터링 기반의 감정 분류모델(emotion classification model)로부터 각 객체의 감정 분류를 예측한다. 구체적으로, 분류예측부(102)는 감정 분류모델을 이용하여 실화상으로부터 추출된 표정 정보를 수치화한 제1 값과 열화상으로부터 추출된 온도 정보인 제2 값 각각에 대한 감정 분류를 예측한다. 여기서 감정 분류모델의 감정 분류 예측은, 하나 이상의 감정 분류에 대하여 각 감정 분류에 해당할 확률을 예측함으로써 수행될 수 있다. 이러한 감정 분류는 행복(happy), 슬픈(sad), 무서운(scary), 화난(angry), 놀라운(surprised) 등일 수 있으며, 어디에도 포함되지 않는 미분류 상태인 중립(neutral)을 더 포함할 수 있으나 이에 한하지 않는다. 예컨대, 감동적인(touching), 기대(hopeful), 사랑스러운(adorable), 만족스러운(satisfied), 혼란스러운(confused), 미운(hateful), 부러운(envious) 등 감정 분류와 관련하여 통상적으로 감정 분류모델에 사용할 수 있는 감정 분류라면 채용할 수 있다.
분류예측부(102)는 실화상으로부터 객체의 얼굴 위치를 추출하고, 추출된 얼굴 위치를 기초로 얼굴 랜드마크(face landmark, 예: 눈, 코, 입, 광대, 이마 등)의 정보(예: 위치, 면적 등)를 추출하여 기 학습된 표정 값 추출 모델로부터 제1 값을 획득할 수 있다. 얼굴 랜드마크의 정보는 실화상을 그레이 스케일(gray scale) 변환하여 이미지의 경계선, 즉 에지(edge)를 추출함으로써 획득될 수 있다. 제1 값은, 추출된 에지의 값을 2차원 행렬로 변환하고, 변환된 2차원 행렬을 카메라 초점 값을 이용하여 3차원 행렬로 변환하고, 변환된 3차원 행렬을 기 학습된 표정 값 추출 모델에 입력시킴으로써 획득할 수 있다.
실화상 및 열화상이 공통된 객체를 촬영한 영상인 경우 분류예측부(102)는 실화상으로부터 추출한 객체의 얼굴 위치를 기초로 하나 이상의 관심영역(ROI, Region Of Interest)을 설정하고, 관심영역 각각에 대한 온도를 제2 값으로서 추출한다. 제2 값은, 가시광선 카메라에서 인식된 얼굴 위치를 참조하여 얼굴 위치에 대한 가중치를 부여하여 얼굴에 해당하는 열화상을 획득한 후, 이러한 얼굴의 열화상으로부터 얼굴 랜드마크에 해당하는 관심영역의 온도를 추출함으로써 획득할 수 있다.
분류측정부(104)는 감정 상태에 따른 주파수 대역을 필터링하는 대역 필터(band-pass filter)를 이용하여 음성 데이터로부터 감정 분류를 측정한다. 여기서, 대역 필터는 감정 분류에 따른 주파수 평균값을 기초로 생성된 것일 수 있다. 또 다른 예로 대역 필터는 음성 데이터를 진폭(amplitude) 및 주파수(frequency)를 기초로 고속 푸리에 변환(FFT, Fast Fourier Transform)한 제1 그래프와 동일한 음성 데이터를 시간과 진폭을 기초로 단시간 푸리에 변환(STFT, Short-Time Fourier Transform)한 제2 그래프 간 공통되는 특징(예: 동일 영역에서의 그래프 개형 등)을 분석하여 생성된 것일 수 있다.
갱신부(106)는 실화상 및 열화상을 포함하는 화상을 기초로 예측한 감정 분류를 음성 데이터에 기초하여 측정한 감정 분류를 이용하여 검증하고, 검증 정확도에 기초하여 감정 분류모델을 갱신한다. 이러한 갱신은 구체적으로, 감정예측부(102)가 예측한 감정 분류를 감정측정부(104)가 측정한 감정 분류를 이용하여 검증하고, 검증 정확도(verification accuracy)를 기준으로 감정 분류모델의 각 모달리티(modality)에 대응하는 가중치(weight)를 갱신함으로써 수행될 수 있다. 또 다른 예로, 감정예측부(102)는 전술한 제1 값에 대하여 예측된 감정 분류와, 전술한 제2 값에 대하여 예측된 감정 분류 각각의 검증 정확도를 기초로 감정 분류모델의 각 값에 대응하는 가중치를 갱신함으로써 수행될 수 있다.
검증 정확도가 기 설정된 정확도 미만이거나 검증 신뢰도(verification reliability)가 기 설정된 신뢰도 미만인 경우, 분류예측부(102)는 감정 분류를 재예측하고, 갱신부(106)는 재예측된 감정 분류를 검증하여 상기 감정 분류모델을 갱신시킴이 바람직하다.
도 2는 본 개시의 일 실시예에 따라 화상으로부터 감정 분류를 예측하는 방법을 나타내는 개념도이다.
감정 분류장치가 카메라 또는 가시광선 센서(visible light sensor) 등으로부터 실화상을 획득하면, 실화상으로부터 얼굴의 위치를 인식하여 얼굴로부터 특징을 추출한다. 얼굴의 위치는 예컨대, 실화상을 정규화(normalization), 이진화(binarization), 외곽선 추출(outline extraction), 인식 분류기(예: Haar, HOG 등)의 전부 또는 일부를 이용하여 신호 및/또는 데이터 처리함으로써 인식할 수 있다. 이후, 원래의 실화상을 그레이 스케일로 변환하거나 얼굴의 위치를 추적하기 위하여 신호 및/또는 데이터 처리된 실화상을 그레이 스케일로 변환하여, 변환된 이미지로부터 경계선을 추출하여 눈, 코, 입, 이마, 광대 등 얼굴 랜드마크 정보를 추출한다. 이후, 감정 분류장치는 얼굴 랜드마크 정보를 2차원 행렬로 변환하고, 실화상을 획득한 카메라 또는 가시광선 센서의 초점 값(focus value)을 이용하여 변환된 2차원 행렬을 3차원 행렬로 변환한다. 감정 분류장치는 기 학습된 표정 값 추출 모델을 이용하여 변환된 3차원 행렬로부터 얼굴 표정에 대한 값을 추출하고, 감정 분류모델을 이용하여 감정 분류모델이 분류할 수 있는 각 감정 분류에 속할 확률값을 예측한다.
다양한 모달리티에 기반한 감정 분류모델을 구현하기 위하여, 감정 분류장치는 열화상 카메라(thermal imaging camera) 등으로부터 열화상을 획득하여, 획득한 열화상으로부터 관심영역, 예컨대 감정 분류에 영향이 있을 것으로 예상 가능한 눈, 입 등의 영역에 대한 온도 정보를 얻을 수 있다. 관심영역의 온도 정보를 얻기 위하여, 감정 분류장치는 예컨대 카메라나 가시광선 센서 등이 인식한 얼굴의 위치 정보를 참조하여 화상의 위치에 대한 가중치를 부여함으로써 전체 열화상으로부터 얼굴이 위치한 영역을 인식한다. 감정 분류장치는 인식된 얼굴이 위치한 영역을 이용하여 관심영역(ROI, region of interest)을 설정하고, 눈, 코, 입, 광대, 이마 등에 해당하는 영역의 온도를 추출하여 감정 분류모델을 이용하여 감정 분류모델이 분류할 수 있는 각 감정 분류에 속할 확률값을 예측한다.
도 3은 본 개시의 일 실시예에 따라 음성 데이터로부터 감정 분류를 측정하는 방법을 나타내는 개념도이다.
감정 분류장치는 마이크 등으로부터 다양한 감정 분류에 해당하는 음성 정보를 획득하고, 이러한 음성 정보를 처리하여 대역 필터를 생성한다. 감정 분류장치는 음성 정보를 주파수 영역의 특징을 유지하도록 디지털 정보로 변환시켜 음성 데이터를 얻는다. 이후, 노이즈 제거 필터(예: 가우시안 필터(Gaussian filter) 등)를 이용하여 음성 데이터의 주파수 영역으로부터 노이즈를 제거(noise suppression)하고, 음성 데이터 또는 노이즈가 제거된 음성 데이터로부터 음의 높낮이(pitch), 어절(word clause), 말의 속도 등을 추출하여 수치화한다. 음성 데이터에는 고속 푸리에 변환(FFT)과 단시간 푸리에 변환(STFT)을 각각 적용하여, 적용된 결과로서 생성된 그래프를 이용하여 각 그래프의 공통 영역의 특징을 찾아 분석하여 감정 상태에 따른 주파수 평균값을 산출하고, 산출된 주파수 평균값을 이용하여 대역 필터를 생성한다.
감정 분류장치는, 검증에 사용하기 위한 음성 데이터를 푸리에 변환하고, 변환된 음성 데이터에 대역 필터를 적용하여 대역 필터가 분류할 수 있는 각 감정 분류의 확률 값을 측정한다.
도 4는 본 개시의 일 실시예에 따른 감정 분류방법을 나타내는 흐름도이다.
감정 분류장치는 동일한 감정 분류에 해당하는 실화상 및 열화상을 획득하고 이를 이용하여 감정 분류를 예측한다(S400). 감정 분류의 예측에는 감정 분류모델이 이용된다.
또한, 감정 분류장치는 S400 단계와 병렬적으로 또는 S400 단계의 전/후로, 실화상 및 열화상과 동일한 감정 분류에 해당하는 음성 데이터를 획득하여, 획득된 음성 데이터에 대역 필터를 적용하여 감정 분류를 측정한다(S402). 이러한 측정은, 각 감정 분류에 해당하는 확률 값을 산출함으로써 수행될 수 있다.
감정 분류장치는 실화상 및 열화상 등 화상을 기초로 예측한 감정 분류를 검증하는데, 검증에는 음성 데이터 등 음성을 기초로 측정한 감정 분류를 이용한다(S404). 검증은 예측된 감정 분류와 측정된 감정 분류가 오차범위 내에서 일치하는지를 판단함으로써 수행된다(S406). 이러한 검증은 기 설정된 검증 조건(예: 신뢰도, 정확도 등)을 더 고려하여 수행됨이 바람직하다.
S406 단계에서 예측된 감정 분류와 측정된 감정 분류가 오차범위 내에서 일치한다고 판단하는 경우, 예측된 감정 분류를 감정 분류결과로서 산출하고 절차를 종료한다.
예측된 감정 분류와 측정된 감정 분류가 일치하지 않는다고 판단하는 경우, 감정 분류장치는 감정 분류모델의 각 모달리티에 대응하는 가중치를 변경한다(S408). 이후, 변경된 감정 분류모델을 이용하여 S400 단계에서 획득하였던 실화상 및 열화상을 이용하여 감정 분류를 재예측한다.
도 4에서는 과정 각 과정을 순차적으로 실행하는 것으로 기재하고 있으나, 이는 본 개시의 일 실시예의 기술 사상을 예시적으로 설명한 것에 불과한 것이다. 다시 말해, 본 개시의 일 실시예가 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 개시의 일 실시예의 본질적인 특성에서 벗어나지 않는 범위에서 도 4에 기재된 순서를 변경하여 실행하거나 각 과정 중 하나 이상의 과정을 병렬적으로 실행하는 것으로 다양하게 수정 및 변형하여 적용 가능할 것이므로, 도 4의 시계열적인 순서로 한정되는 것은 아니다.
도 5는 본 개시의 일 실시예에 따른 감정 분류장치를 기초로 산출된 감정 분류결과의 예시도이다.
감정 분류모델의 검증 결과, 감정 분류모델이 기 설정된 정확도 및/또는 기 설정된 신뢰도를 만족하는 경우에 감정 분류장치는 도 5와 같이 감정 분류모델의 감정 분류결과를 산출할 수 있다.
이러한 감정 분류결과의 산출은 실시간으로 이루어짐이 바람직하다. 예컨대, 도 5와 같이 객체로부터 실시간으로 실화상, 열화상 및 음성 데이터를 획득하고, 실화상 및 열화상으로부터 각각 표정 값과 온도를 추출하여 감정 분류모델로부터 감정 분류를 예측한다. 이후, 감정 분류장치는 음성 데이터를 푸리에 변환하여 대역 필터에 통과시킴으로써 음성 데이터에 대응하는 감정 분류를 측정한다. 측정된 감정 분류를 기초로 예측된 감정 분류를 검증하여, 검증 결과에 타당성이 인정되면 도 5와 같이 데이터의 값 또는 그래프 등으로 각 감정 분류에 해당하는 퍼센트를 산출한다. 이러한 산출은 타당성이 인정된 일부 감정 분류결과에 한하여 수행될 수 있다. 또한, 이러한 산출은 '미분류'에 해당하는 감정 분류가 기 설정된 퍼센트 이상인 경우 검증 결과가 타당하지 않은 것으로 판단하고, 수행되지 않을 수 있다.
본 명세서에 설명되는 장치, 부(unit), 과정, 단계 등의 다양한 구현예들은, 디지털 전자 회로, 집적 회로, FPGA(field programmable gate array), ASIC(application specific integrated circuit), 컴퓨터 하드웨어, 펌웨어, 소프트웨어, 및/또는 이들의 조합으로 실현될 수 있다. 이러한 다양한 구현예들은 프로그래밍 가능 시스템상에서 실행 가능한 하나 이상의 컴퓨터 프로그램들로 구현되는 것을 포함할 수 있다. 프로그래밍 가능 시스템은, 저장 시스템, 적어도 하나의 입력 디바이스, 그리고 적어도 하나의 출력 디바이스로부터 데이터 및 명령을 수신하고 이들에게 데이터 및 명령을 전송하도록 결합된 적어도 하나의 프로그래밍 가능 프로세서(이것은 특수 목적 프로세서일 수 있거나 혹은 범용 프로세서일 수 있음)를 포함한다. 컴퓨터 프로그램들(이것은 또한 프로그램들, 소프트웨어, 소프트웨어 애플리케이션들 혹은 코드로서 알려져 있음)은 프로그래밍 가능 프로세서에 대한 명령어들을 포함하며 "컴퓨터가 읽을 수 있는 기록매체"에 저장된다.
컴퓨터가 읽을 수 있는 기록매체는, 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 이러한 컴퓨터가 읽을 수 있는 기록매체는 ROM, CD-ROM, 자기 테이프, 플로피디스크, 메모리 카드, 하드 디스크, 광자기 디스크, 스토리지 디바이스 등의 비휘발성(non-volatile) 또는 비 일시적인(non-transitory) 매체 또는 데이터 전송 매체(data transmission medium)와 같은 일시적인(transitory) 매체를 더 포함할 수도 있다. 또한, 컴퓨터가 읽을 수 있는 기록매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어, 분산 방식으로 컴퓨터가 읽을 수 있는 코드가 저장되고 실행될 수도 있다.
본 명세서에 설명되는 시스템들 및 기법들의 다양한 구현예들은, 프로그램가능 컴퓨터에 의하여 구현될 수 있다. 여기서, 컴퓨터는 프로그램가능 프로세서, 데이터 저장 시스템(휘발성 메모리, 비휘발성 메모리, 또는 다른 종류의 저장 시스템이거나 이들의 조합을 포함함) 및 적어도 한 개의 커뮤니케이션 인터페이스를 포함한다. 예컨대, 프로그램가능 컴퓨터는 서버, 네트워크 기기, 셋톱박스, 내장형 장치, 컴퓨터 확장 모듈, 개인용 컴퓨터, 랩톱, PDA(Personal Data Assistant), 클라우드 컴퓨팅 시스템 또는 모바일 장치 중 하나일 수 있다.
이상의 설명은 본 실시예의 기술 사상을 예시적으로 설명한 것에 불과한 것으로서, 본 실시예가 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 실시예의 본질적인 특성에서 벗어나지 않는 범위에서 다양한 수정 및 변형이 가능할 것이다. 따라서, 본 실시예들은 본 실시예의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시예에 의하여 본 실시예의 기술 사상의 범위가 한정되는 것은 아니다. 본 실시예의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 실시예의 권리범위에 포함되는 것으로 해석되어야 할 것이다.
100: 감정 분류장치
102: 분류예측부
104: 분류측정부
106: 갱신부

Claims (12)

  1. 동일한 감정 분류에 해당하는 실화상, 열화상 및 음성 데이터에 있어서,
    상기 실화상으로부터 상기 실화상에 포함된 객체의 표정을 인식하여 표정 정보를 추출하여 클러스터링 기반의 감정 분류모델을 이용하여 상기 실화상에 포함된 객체의 감정 분류를 예측하고, 상기 열화상으로부터 상기 열화상에 포함된 객체의 온도 정보를 추출하여 상기 감정 분류모델을 이용하여 상기 열화상에 포함된 객체의 감정 분류를 예측하는 분류예측부;
    객체의 감정 분류에 따른 주파수 대역을 필터링하는 대역 필터(band-pass filter)를 이용하여 상기 음성 데이터로부터 상기 음성 데이터가 나타내는 감정 분류를 측정하는 분류측정부; 및
    상기 실화상을 기초로 예측한 감정 분류 및 상기 열화상을 기초로 예측한 감정 분류 각각을 상기 음성 데이터를 기초로 측정한 감정 분류를 이용하여 검증하고, 검증 결과를 기초로 상기 감정 분류모델을 갱신하는 갱신부
    를 포함하는 것을 특징으로 하는 멀티-모달 기반의 감정 분류장치.
  2. 제1항에 있어서,
    상기 분류예측부는,
    상기 감정 분류모델을 이용하여, 상기 표정 정보를 수치화한 제1 값과 상기 온도 정보인 제2 값 각각에 대하여 감정 분류를 예측하는 것을 특징으로 하는 멀티-모달 기반의 감정 분류장치.
  3. 제2항에 있어서,
    상기 분류예측부는,
    상기 실화상으로부터 상기 실화상에 포함된 객체의 얼굴 위치를 추출하여 얼굴 랜드마크(face landmark)의 정보를 추출하고, 기 학습된 표정 값 추출 모델을 이용하여 상기 얼굴 랜드마크의 정보로부터 상기 제1 값을 산출하는 것을 특징으로 하는 멀티-모달 기반의 감정 분류장치.
  4. 제3항에 있어서,
    상기 얼굴 랜드마크의 정보 추출은,
    상기 실화상을 그레이 스케일(gray scale) 변환하여 이미지의 에지(edge)를 추출함으로써 수행되는 것을 특징으로 하는 멀티-모달 기반의 감정 분류장치.
  5. 제4항에 있어서,
    상기 제1 값은, 추출된 에지의 값을 2차원 행렬로 변환하고, 변환된 2차원 행렬을 카메라 초점 값을 이용하여 3차원 행렬로 변환하고, 변환된 3차원 행렬을 상기 기 학습된 표정 값 추출 모델에 입력시킴으로써 산출되는 것을 특징으로 하는 멀티-모달 기반의 감정 분류장치.
  6. 제2항에 있어서,
    상기 실화상 및 상기 열화상은 공통된 객체를 촬영한 영상이고,
    상기 분류예측부는,
    상기 실화상으로부터 상기 공통된 객체의 얼굴 위치를 추출하여 하나 이상의 관심영역(ROI, Region Of Interest)을 설정하고, 상기 관심영역 각각에 대한 온도정보를 상기 제2 값으로서 추출하는 것을 특징으로 하는 멀티-모달 기반의 감정 분류장치.
  7. 제1항에 있어서,
    상기 감정 분류모델을 이용한 감정 분류 예측은,
    하나 이상의 감정 분류에 대하여 각 감정 분류에 해당할 확률을 예측함으로써 수행되는 것을 특징으로 하는 멀티-모달 기반의 감정 분류장치.
  8. 제1항에 있어서,
    상기 대역 필터는, 하나 이상의 감정 분류에 대응하는 각 주파수 평균값을 기초로 생성되는 것을 특징으로 하는 멀티-모달 기반의 감정 분류장치.
  9. 제1항에 있어서,
    상기 대역 필터는, 하나 이상의 음성 데이터를 진폭(amplitude) 및 주파수(frequency)를 기초로 고속 푸리에 변환(FFT, Fast Fourier Transform)한 결과를 나타내는 제1 그래프 및 상기 음성 데이터를 시간과 진폭을 기초로 단시간 푸리에 변환(STFT, Short-Time Fourier Transform)한 결과를 나타내는 제2 그래프 간 공통 영역의 특징(feature)을 기초로 생성되는 것을 특징으로 하는 멀티-모달 기반의 감정 분류장치.
  10. 제2항에 있어서,
    상기 갱신부는,
    상기 제1 값에 대해 예측된 감정 분류 및 상기 제2 값에 대해 예측된 감정 분류 각각의 검증 정확도 또는 검증 신뢰도를 기초로 각 값에 대응하는 가중치(weight)를 갱신함으로써 상기 감정 분류모델을 갱신하는 것을 특징으로 하는 멀티-모달 기반의 감정 분류장치.
  11. 제1항에 있어서,
    상기 검증 정확도가 기 설정된 정확도 미만이거나 검증 신뢰도가 기 설정된 신뢰도 미만인 경우 상기 갱신부는,
    상기 감정 분류모델의 가중치를 변경하고,
    상기 분류예측부는,
    변경된 감정 분류모델을 이용하여 상기 표정 정보 및 상기 온도 정보를 기초로 감정 분류를 재예측하는 것을 특징으로 하는 멀티-모달 기반의 감정 분류장치.
  12. 동일한 감정 분류에 해당하는 실화상, 열화상 및 음성 데이터에 있어서,
    상기 실화상으로부터 상기 실화상에 포함된 객체의 표정을 인식하여 표정 정보를 추출하여 클러스터링 기반의 감정 분류모델로부터 상기 실화상에 포함된 객체의 감정 분류를 예측하는 과정;
    상기 열화상으로부터 상기 열화상에 포함된 객체의 온도 정보를 추출하여 상기 감정 분류모델로부터 상기 열화상에 포함된 객체의 감정 분류를 예측하는 과정;
    객체의 감정 분류에 따른 주파수 대역을 필터링하는 대역 필터(band-pass filter)를 이용하여 상기 음성 데이터로부터 상기 음성 데이터가 나타내는 감정 분류를 측정하는 과정;
    상기 실화상을 기초로 예측한 감정 분류 및 상기 열화상을 기초로 예측한 감정 분류 각각을 상기 음성 데이터를 기초로 측정한 감정 분류를 이용하여 검증하고, 검증 결과를 기초로 상기 감정 분류모델을 갱신하는 과정
    을 포함하는 것을 특징으로 하는 멀티-모달 기반의 감정 분류방법.





KR1020200157046A 2020-11-20 2020-11-20 멀티-모달 기반의 감정 분류장치 및 방법 KR102428916B1 (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020200157046A KR102428916B1 (ko) 2020-11-20 2020-11-20 멀티-모달 기반의 감정 분류장치 및 방법
PCT/KR2021/011339 WO2022108057A1 (ko) 2020-11-20 2021-08-25 멀티-모달 기반의 감정 분류장치 및 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200157046A KR102428916B1 (ko) 2020-11-20 2020-11-20 멀티-모달 기반의 감정 분류장치 및 방법

Publications (2)

Publication Number Publication Date
KR20220069677A true KR20220069677A (ko) 2022-05-27
KR102428916B1 KR102428916B1 (ko) 2022-08-03

Family

ID=81709314

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200157046A KR102428916B1 (ko) 2020-11-20 2020-11-20 멀티-모달 기반의 감정 분류장치 및 방법

Country Status (2)

Country Link
KR (1) KR102428916B1 (ko)
WO (1) WO2022108057A1 (ko)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
ES2957419A1 (es) * 2022-06-03 2024-01-18 Neurologyca Science & Marketing Sl Sistema y método de detección en tiempo real de estados emocionales mediante visión artificial y escucha del lenguaje natural

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20120092846A (ko) * 2011-02-14 2012-08-22 충남대학교산학협력단 멀티 모달리티 감정인식 시스템, 감정인식 방법 및 그 기록매체
KR20170006355A (ko) * 2015-07-08 2017-01-18 주식회사 케이티 모션벡터 및 특징벡터 기반 위조 얼굴 검출 방법 및 장치
KR20170094836A (ko) 2016-02-12 2017-08-22 한국전자통신연구원 운전자의 감정상태 인식 장치 및 방법
JP2018068618A (ja) * 2016-10-28 2018-05-10 株式会社東芝 感情推定装置、感情推定方法、感情推定プログラム、および感情カウントシステム
KR20190023749A (ko) * 2017-08-30 2019-03-08 (주)휴머노이드시스템 사용자 감성 인식 장치 및 방법

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11160479B2 (en) * 2015-04-23 2021-11-02 Sony Corporation Information processing device and control method

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20120092846A (ko) * 2011-02-14 2012-08-22 충남대학교산학협력단 멀티 모달리티 감정인식 시스템, 감정인식 방법 및 그 기록매체
KR20170006355A (ko) * 2015-07-08 2017-01-18 주식회사 케이티 모션벡터 및 특징벡터 기반 위조 얼굴 검출 방법 및 장치
KR20170094836A (ko) 2016-02-12 2017-08-22 한국전자통신연구원 운전자의 감정상태 인식 장치 및 방법
JP2018068618A (ja) * 2016-10-28 2018-05-10 株式会社東芝 感情推定装置、感情推定方法、感情推定プログラム、および感情カウントシステム
KR20190023749A (ko) * 2017-08-30 2019-03-08 (주)휴머노이드시스템 사용자 감성 인식 장치 및 방법

Also Published As

Publication number Publication date
KR102428916B1 (ko) 2022-08-03
WO2022108057A1 (ko) 2022-05-27

Similar Documents

Publication Publication Date Title
CN111741884B (zh) 交通遇险和路怒症检测方法
JP6938784B2 (ja) オブジェクト識別の方法及びその、コンピュータ装置並びにコンピュータ装置可読記憶媒体
CN106683680B (zh) 说话人识别方法及装置、计算机设备及计算机可读介质
JP7177167B2 (ja) 混合音声の特定方法、装置及びコンピュータプログラム
EP3477519B1 (en) Identity authentication method, terminal device, and computer-readable storage medium
CN107492382B (zh) 基于神经网络的声纹信息提取方法及装置
US9881610B2 (en) Speech recognition system adaptation based on non-acoustic attributes and face selection based on mouth motion using pixel intensities
CN110197658B (zh) 语音处理方法、装置以及电子设备
CN112435684A (zh) 语音分离方法、装置、计算机设备和存储介质
US20210397954A1 (en) Training device and training method
CN107577991B (zh) 随访数据处理方法、装置、存储介质和计算机设备
KR20190108804A (ko) 주파수 변화에 강인한 음향 이벤트 검출 방법 및 그 장치
US9947323B2 (en) Synthetic oversampling to enhance speaker identification or verification
CN108229375B (zh) 用于检测人脸图像的方法和装置
CN110556126A (zh) 语音识别方法、装置以及计算机设备
JP7160095B2 (ja) 属性識別装置、属性識別方法、およびプログラム
KR102428916B1 (ko) 멀티-모달 기반의 감정 분류장치 및 방법
CN109947971A (zh) 图像检索方法、装置、电子设备及存储介质
CN112824925A (zh) 使用两个麦克风进行轻型全360度音频源位置检测
Chiu et al. A micro-control capture images technology for the finger vein recognition based on adaptive image segmentation
Tsai et al. Sentiment analysis of pets using deep learning technologies in artificial intelligence of things system
EP3942552A1 (en) Methods and systems that provide emotion modifications during video chats
Sinha Indian sign language (ISL) biometrics for hearing and speech impaired persons: review and recommendation
Mostafa et al. Voiceless Bangla vowel recognition using sEMG signal
CN112070022A (zh) 人脸图像识别方法、装置、电子设备和计算机可读介质

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right