KR20150117496A - 자세 기반 감정상태 인식 장치 및 그 방법 - Google Patents
자세 기반 감정상태 인식 장치 및 그 방법 Download PDFInfo
- Publication number
- KR20150117496A KR20150117496A KR1020140043011A KR20140043011A KR20150117496A KR 20150117496 A KR20150117496 A KR 20150117496A KR 1020140043011 A KR1020140043011 A KR 1020140043011A KR 20140043011 A KR20140043011 A KR 20140043011A KR 20150117496 A KR20150117496 A KR 20150117496A
- Authority
- KR
- South Korea
- Prior art keywords
- emotion
- feature information
- user
- edge
- edge shape
- Prior art date
Links
- 230000008451 emotion Effects 0.000 title claims abstract description 106
- 238000000034 method Methods 0.000 title claims description 36
- 238000004364 calculation method Methods 0.000 claims description 19
- 239000011159 matrix material Substances 0.000 claims description 13
- 206010048909 Boredom Diseases 0.000 claims description 7
- 230000002996 emotional effect Effects 0.000 abstract description 22
- 230000036544 posture Effects 0.000 abstract description 12
- 238000010586 diagram Methods 0.000 description 6
- 238000012545 processing Methods 0.000 description 4
- 238000001514 detection method Methods 0.000 description 3
- 230000008921 facial expression Effects 0.000 description 2
- 230000001953 sensory effect Effects 0.000 description 2
- 238000012360 testing method Methods 0.000 description 2
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 1
- 210000004556 brain Anatomy 0.000 description 1
- 239000000470 constituent Substances 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 230000001815 facial effect Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/103—Static body considered as a whole, e.g. static pedestrian or occupant recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F17/00—Digital computing or data processing equipment or methods, specially adapted for specific functions
- G06F17/10—Complex mathematical operations
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/10—Image acquisition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Mathematical Physics (AREA)
- Data Mining & Analysis (AREA)
- Human Computer Interaction (AREA)
- Computational Mathematics (AREA)
- Algebra (AREA)
- Mathematical Analysis (AREA)
- Mathematical Optimization (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Pure & Applied Mathematics (AREA)
- Databases & Information Systems (AREA)
- Software Systems (AREA)
- General Engineering & Computer Science (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
자세 기반 감정상태 인식 장치가 개시된다. 본 발명의 일 실시예에 따른 자세 기반 감정상태 인식 장치는 영상을 수집하는 영상 수집부; 상기 수집된 영상으로부터 사용자의 실루엣을 검출하고, 상기 사용자의 실루엣으로부터 엣지를 검출하여 사용자의 엣지 형상을 도출한 후 상기 엣지 형상 내부의 한 점을 기준으로 상기 엣지로 검출된 픽셀들 각각에 대한 각도 및 거리를 제1 동작 특징 정보로 산출하는 동작 특징 정보 산출부; 감정 판단의 기준이 되는 자세들을 나타내는 영상들 각각에 해당하는 감정 정보와 상기 감정 정보에 대응되는 동작 특징 정보를 포함하는 제2 동작 특징 정보를 저장하는 감정별 기준 영상 데이터베이스; 및 상기 산출된 제1 동작 특징정보와 상기 감정별 기준 영상 데이터베이스에 기 저장된 상기 제2 동작 특징 정보를 비교하여 사용자의 감정을 추정하는 감정 추정부를 포함한다.
Description
본 발명은 감정상태 인식장치 및 그 방법에 관한 것으로서, 보다 상세하게는 사용자의 자세에 기반하여 해당 사용자의 감정상태를 인식하는 장치 및 그 방법에 관한 것이다.
최근 전자기기의 발달로 인하여 사용자가 처한 현재 상황을 전자기기가 자동으로 인식하고, 그에 따라 적절한 기능을 제공하는 상황 인지(Context-awareness) 관련 지능화 서비스들이 활발히 시도되고 있다. 현재로서는 초보적인 수준의 서비스(예컨대, 휴대기기를 들고 특정 음식점 앞에 가면 그 음식점에서 사용할 수 있는 할인쿠폰이 휴대기기에 제시됨 등)이 가능하지만, 미래에는 보다 복잡한 추론과정을 거친 고차원의 서비스가 가능할 것이라 예상된다.
한편, 뇌 과학 혹은 심리학분야의 최근연구 결과에 따르면 감정은 인간의 사고과정에 있어 이성보다 더 큰 영향력을 행사한다고 한다. 감정이 감각 정보를 처리하는 데에는 이성이 동일한 감각 정보를 처리하는데 드는 시간의 5분의 1밖에 걸리지 않는데, 이로 인해 인간은 이성적 생각이나 판단을 하기 전에 감정을 먼저 느끼게 된다는 것이다. 따라서 인간의 욕구나 의사결정 결과에는 현재의 감정상태가 반영되었다고 볼 수 있다.
그러므로 전자기기가 사용자의 감정을 인식할 수 있다면, 보다 정교한 지능화 서비스가 가능할 것이다. 이를 위해 종래에는 하기의 표정 인식 기반 음원제공 시스템 및 서비스와 같이 사용자의 표정을 인식하고 그 결과에 의거하여 사용자의 감정 상태를 판단한 후 그 감정 상태에 가장 적합한 서비스(예컨대, 적합한 디지털 음원 제공 서비스)를 제공하는 장치 및 방법들이 제안되었다. 하지만 이와 같이 얼굴을 기반으로 사용자의 감정 상태를 추정하는 방법은 얼굴을 정확히 인식해야 한다는 문제점이 있으며, 카메라 근처에서 촬영을 해야 한다는 약점이 있다. 따라서 그 적용 범위가 모바일 기기에 국한되며, 얼굴을 정확히 인식하지 못하는 경우 감정 상태를 정확하게 인식할 수 없는 단점이 있었다.
따라서 본 발명은 상기 문제를 해결하기 위해, 보다 정확한 감정 상태 인식 결과를 제공하는 자세 기반 감정상태 인식 장치 및 그 방법을 제공하고자 한다.
또한, 본 발명은 감정 상태를 인식하기 위해 해당 사용자를 근접 촬영하거나 사용자의 얼굴을 정확히 인식하지 않아도 되는 자세 기반 감정 상태 인식 장치 및 그 방법을 제공하고자 한다.
또한, 본 발명은 그 적용 범위가 모바일 기기에 국한되지 않으며, 보다 광범위한 분야에 적용 가능한 자세 기반 감정 상태 인식 장치 및 그 방법을 제공하고자 한다.
상기 목적을 달성하기 위해, 본 발명에서 제공하는 자세 기반 감정 상태 인식장치는 영상을 수집하는 영상 수집부; 상기 수집된 영상으로부터 사용자의 실루엣을 검출하고, 상기 사용자의 실루엣으로부터 엣지를 검출하여 사용자의 엣지 형상을 도출한 후 상기 엣지 형상 내부의 한 점을 기준으로 상기 엣지로 검출된 픽셀들 각각에 대한 각도 및 거리를 제1 동작 특징 정보로 산출하는 동작 특징 정보 산출부; 감정 판단의 기준이 되는 자세들을 나타내는 영상들 각각에 해당하는 감정 정보와 상기 감정 정보에 대응되는 동작 특징 정보를 포함하는 제2 동작 특징 정보를 저장하는 감정별 기준 영상 데이터베이스; 및 상기 산출된 제1 동작 특징정보와 상기 감정별 기준 영상 데이터베이스에 기 저장된 상기 제2 동작 특징 정보를 비교하여 사용자의 감정을 추정하는 감정 추정부를 포함한다.
이 때, 동작 특징 정보 산출부는 하기의 (수학식 1)에 의거하여 도출된 상기 엣지 형상 내부의 중심점을 기준점으로 결정하고, 하기의 (수학식 2)에 의거하여 상기 엣지로 검출된 픽셀들 각각의 각도를 산출하고, 하기의 (수학식 3)에 의거하여 상기 기준점과 상기 엣지로 검출된 픽셀들 각각의 거리를 산출하는 것이 바람직하다.
(수학식 1)
(수학식 2)
(수학식 3)
또한, 상기 감정 추정부는 하기의 (수학식 4)에 의거하여 상기 사용자 동작 특징 정보와 상기 감정별 기준 영상 데이터베이스에 기 저장된 감정별 동작 특징정보에 포함된 각 감정별 동작 특징 정보들을 비교하고, 하기의 (수학식 5)에 의거하여 사용자의 감정을 추정하는 것이 바람직하다.
(수학식 4)
이 때, 는 와핑 매트릭스(warping matrix)이고, 는 유클리드 거리값(Euclidean distance value) 이고, 은 세 개의 값 중 가장 작은 값을 가리킨다.
(수학식 5)
한편, 상기 목적을 달성하기 위해, 본 발명에서 제공하는 자세 기반 감정 상태 인식방법은 입력된 영상으로부터 사용자의 실루엣을 검출하는 단계; 상기 실루엣으로부터 엣지를 검출하여 사용자의 엣지 형상을 도출하는 단계; 상기 엣지 형상 내부의 한 점을 기준점으로 결정하고, 상기 엣지로 검출된 픽셀들 각각에 대하여 상기 기준점에 기초하여 산출된 각도 및 거리를 포함하는 제1 동작 특징 정보를 산출하는 단계; 및 감정 판단의 기준이 되는 자세들을 나타내는 영상들 각각에 해당하는 감정 정보와 상기 감정 정보에 대응되는 동작 특징 정보를 포함하는 제2 동작 특징 정보와 상기 제1 동작 특징 정보를 비교하여 사용자의 감정을 추정하는 단계를 포함한다.
상기 방법은 상기 입력된 영상으로부터 사용자의 실루엣을 검출하는 단계 이전에 상기 제2 동작 특징 정보를 저장하는 단계를 더 포함하고, 상기 제2 동작 특징 정보 저장 단계는 제1 감정에 대응한 자세에 대한 영상을 제작하는 단계; 상기 자세에 대한 실루엣을 검출하는 단계; 상기 실루엣으로부터 엣지형상을 도출하는 단계; 및 상기 엣지 형상 내부의 한 점을 기준점으로 결정하고, 상기 엣지로 검출된 픽셀들 각각에 대하여 상기 기준점에 기초하여 산출된 각도 및 거리를 포함하는 상기 제1 감정에 대한 동작 특징 정보를 산출하는 단계를 포함할 수 있으며, 상기 제2 동작 특징 정보 저장 단계는 사용자가 느낄 수 있는 대표적인 감정들 각각에 대하여 상기 단계들을 반복 수행하는 것이 바람직하다.
또한, 상기 사용자의 감정을 추정하는 단계는 상기 비교 결과에 의거하여 상기 제2 동작 특징 정보에 포함된 감정별 동작 특징 정보들 중 상기 제1 동작 특징 정보와 가장 근접한 동작 특징 정보에 대응된 감정을 사용자의 감정으로 추정하는 것이 바람직하다.
본 발명은 사용자의 자세(body posture)를 기반으로 감정 상태를 인식함으로써, 감정 상태를 인식하기 위해 해당 사용자를 근접 촬영하거나 사용자의 얼굴을 정확히 인식하지 않아도 된다. 따라서 감정 상태 인식 결과에 대한 정확성이 향상된다. 다시 말해, 종래에는 감정 상태를 인식하기 위해 정확한 얼굴 정보가 필요했으므로, 정확한 얼굴 정보를 인식하지 못하는 경우 감정 상태 인식 결과에 영향을 미쳐 감정 상태를 정확하게 인식하지 못하게 되지만, 본 발명은 정확한 얼굴 정보가 아닌 사용자의 자세만을 참조함으로써 자세를 인식하는 데에 오류가 발생할 확률이 적고 이로 인해 감정 상태 인식 결과에 대한 정확성은 향상되는 것이다.
또한 본 발명은 그 적용 범위가 모바일 기기에 국한되지 않는다. 예를 들어, 방송용 카메라나, 가정용 TV, 옥외 광고판 등 보다 광범위한 분야에 적용 가능한 장점이 있다. 예를 들어, 본 발명이 가정용 TV에 적용된 경우, 가정용 TV 앞에서 움직이는 사용자의 자세를 분석하고 그 결과에 따라 해당 사용자의 감정 상태를 인식한 후 맞춤형 채널 선택 서비스를 제공할 수 있는 것이다.
도 1은 본 발명의 일 실시 예에 따른 자세 기반 감정상태 인식 장치에 대한 개략적인 블록도이다.
도 2는 본 발명의 일 실시 예에 따른 감정별 기준 영상의 예들을 도시한 도면이다.
도 3은 본 발명의 일 실시 예에 따른 자세 기반 감정 상태 인식방법에 대한 개략적인 처리 흐름도이다.
도 4는 본 발명의 일 실시 예에 따른 동작 특징 정보 산출 과정에 대한 개략적인 처리 흐름도이다.
도 5는 본 발명의 일 실시 예에 따른 동작 특징 정보 산출 과정 중 사용자 실루엣 검출 결과를 나타낸 도면이다.
도 6은 도 5의 실루엣으로부터 도출된 사용자의 엣지(edge) 형상을 도시한 도면이다.
도 7은 사용자 영상과 임의의 한 감정별 기준 영상을 비교하는 과정을 설명하기 위한 도면이다.
도 8은 본 발명의 처리 결과를 테스트하기 위한 4가지 상황들을 설정한 도표이다.
도 9 내지 도 12는 도 8에 설정된 4가지 상황들 각각에 대하여 사용자들이 취한 자세를 기반으로 본 발명의 알고리즘을 구동한 결과를 도시한 그래프들이다.
도 2는 본 발명의 일 실시 예에 따른 감정별 기준 영상의 예들을 도시한 도면이다.
도 3은 본 발명의 일 실시 예에 따른 자세 기반 감정 상태 인식방법에 대한 개략적인 처리 흐름도이다.
도 4는 본 발명의 일 실시 예에 따른 동작 특징 정보 산출 과정에 대한 개략적인 처리 흐름도이다.
도 5는 본 발명의 일 실시 예에 따른 동작 특징 정보 산출 과정 중 사용자 실루엣 검출 결과를 나타낸 도면이다.
도 6은 도 5의 실루엣으로부터 도출된 사용자의 엣지(edge) 형상을 도시한 도면이다.
도 7은 사용자 영상과 임의의 한 감정별 기준 영상을 비교하는 과정을 설명하기 위한 도면이다.
도 8은 본 발명의 처리 결과를 테스트하기 위한 4가지 상황들을 설정한 도표이다.
도 9 내지 도 12는 도 8에 설정된 4가지 상황들 각각에 대하여 사용자들이 취한 자세를 기반으로 본 발명의 알고리즘을 구동한 결과를 도시한 그래프들이다.
아래에서는 첨부한 도면을 참고로 하여 본 발명의 실시 예에 대하여 설명하되, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 본 발명을 용이하게 실시할 수 있도록 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시 예에 한정되지 않는다. 한편 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다. 또한 상세한 설명을 생략하여도 본 기술 분야의 당업자가 쉽게 이해할 수 있는 부분의 설명은 생략하였다.
명세서 및 청구범위 전체에서, 어떤 부분이 어떤 구성 요소를 포함한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성 요소를 제외하는 것이 아니라 다른 구성 요소를 더 포함할 수 있는 것을 의미한다.
도 1은 본 발명의 일 실시 예에 따른 자세 기반 감정상태 인식 장치에 대한 개략적인 블록도이다. 도 1을 참조하면, 본 발명이 일 실시 예에 따른 자세 기반 감정 상태 인식장치(100)는 감정별 기준 영상 데이터베이스(DB)(110), 영상 수집부(120), 동작 특징 정보 산출부(130), 및 감정 추정부(140)를 포함한다.
감정별 기준 영상 데이터베이스(DB)(110)는 감정 판단의 기준이 되는 자세들을 나타내는 영상들 각각에 해당하는 감정 정보와 상기 감정 정보에 대응되는 동작 특징 정보를 포함하는 제2 동작 특징 정보를 저장한다. 예를 들어, 감정별 기준 영상 DB(110)는 사용자가 느낄 수 있는 대표적인 감정들(예컨대, 기쁨(elated joy), 행복함(Happiness), 흥미로움(interest), 지루함(boredom), 역겨움(Disgust) 및 격노함(Hot anger) 등)에 대하여 사전에 정의된 기준 자세들 및 그들 각각에 대한 동작 특징 정보들을 상기 제2 동작 특징 정보로서 저장하는 것이 바람직하다. 도 2는 이러한 감정별 기준 영상 DB(110)에 저장된 감정별 기준 영상의 예들을 도시한 도면이다. 도 2의 (a)는 기쁨(elated joy)을 표현하기 위해 취해지는 자세를 예시하고, 도 2의 (b)는 행복함(Happiness)을 표현하기 위해 취해지는 자세를 예시하고, 도 2의 (c)는 흥미로움(interest)을 표현하기 위해 취해지는 자세를 예시하고, 도 2의 (d)는 지루함(boredom)을 표현하기 위해 취해지는 자세를 예시하고, 도 2의 (e)는 역겨움(Disgust)을 표현하기 위해 취해지는 자세를 예시하고, 도 2의 (f)는 격노함(Hot anger)을 표현하기 위해 취해지는 자세를 예시한다. 감정별 기준 영상 데이터베이스(DB)(110)는 이와 같이 감정별로 취해지는 자세에 대한 기준 영상과 이 영상들 각각으로부터 산출된 동작 특징 정보를 그 감정에 대응시켜 저장한다.
영상 수집부(120)는 영상을 수집한다. 특히, 영상 수집부(120)는 감정 상태를 파악하기 위한 사용자의 영상을 수집하는 것이 바람직하다. 이를 위해 영상 수집부(120)는 촬영장치(예컨대, 카메라 등)을 포함할 수 있다.
동작 특징 정보 산출부(130)는 영상 수집부(120)에서 수집된 영상으로부터 사용자의 실루엣을 검출하고, 상기 사용자의 자세에 대한 동작 특징 정보를 산출한다. 이를 위해, 동작 특징 정보 산출부(130)는 상기 인식된 사용자의 실루엣 및 엣지를 검출하고, 사용자의 엣지 형상을 도출하고, 상기 엣지 형상 내부의 한 점을 기준으로 상기 엣지로 검출된 픽셀들 각각에 대한 각도 및 거리를 제1 동작 특징 정보로 산출하는 일련의 처리 과정을 수행하는 것이 바람직하다.
한편, 동작 특징 정보 산출부(130)는 하기의 (수학식 1)에 의거하여 도출된 상기 엣지 형상 내부의 중심점을 기준점으로 결정하고, 하기의 (수학식 2)에 의거하여 상기 엣지로 검출된 픽셀들 각각의 각도를 산출하고, 하기의 (수학식 3)에 의거하여 상기 기준점과 상기 엣지로 검출된 픽셀들 각각의 거리를 산출할 수 있다.
감정 추정부(140)는 동작 특징 정보 산출부(130)에서 산출된 제1 동작 특징정보와 감정별 기준 영상 DB(110)에 기 저장된 상기 제2 동작 특징 정보를 비교하여 사용자의 감정을 추정한다. 이를 위해, 감정 추정부(140)는 하기의 (수학식 4)에 의거하여 상기 사용자 동작 특징 정보와 감정별 기준 영상 DB(110)에 기 저장된 감정별 동작 특징정보에 포함된 각 감정별 동작 특징 정보들을 비교하고, (수학식 5)에 의거하여 사용자의 감정을 추정하는 것이 바람직하다.
이 때, 는 와핑 매트릭스(warping matrix)이고, 는 유클리드 거리값(Euclidean distance value) 이고, 은 세 개의 값 중 가장 작은 값을 가리킨다.
도 3은 본 발명의 일 실시 예에 따른 자세 기반 감정 상태 인식방법에 대한 개략적인 처리 흐름도이다. 도 1 및 도 3을 참조하면, 본 발명의 일 실시 예에 따른 자세 기반 감정 상태 인식 방법은 먼저, 영상 수집부(120)에서 수집된 영상이 입력되면 동작 특징 정보 검출부(130)는 그 영상으로부터 사용자를 인식한다(S110). 상기 과정(S110)에서 사용자가 성공적으로 인식되면, 동작특징 정보 산출부(130)는 그 사용자의 실루엣에 기초하여 제1 동작 특징 정보를 산출한다(S120).
동작 특징 정보 산출부(130)로부터 제1 동작 특징 정보 산출 결과를 수신한 감정 추정부(140)는 감정별 기준 영상 DB(110)에 기 저장된 제2 동작 특징 정보와 상기 제1 동작 특징 정보를 비교하여(S130), 해당 사용자의 감정을 추정한다(S140).
도 4는 본 발명의 일 실시 예에 따른 동작 특징 정보 산출 과정에 대한 개략적인 처리 흐름도이다. 즉, 도 4는 도 3에 예시된 제1 동작 특징 정보 산출 과정(S120)에 대한 개략적인 처리 과정을 나타낸다.
도 1, 도 3 및 도 4를 참조하면, 상기 과정(S110)에서 사용자를 인식한 동작 특징 정보 산출부(130)는 먼저, 그 사용자의 실루엣을 검출하고, 상기 실루엣으로부터 엣지를 검출하여 사용자의 엣지 형상을 검출한다(S121). 이 때 사용자의 실루엣 및 엣지 형상 검출 결과가 도 5 및 도 6에 예시되어 있다. 즉, 동작 특징 정보 산출부(130)는 입력된 영상으로부터 인식된 사용자의 실루엣(10)을 도 5의 예와 같이 검출하고, 그 실루엣의 엣지를 검출하여 도 6에 예시된 바와 같은 사용자 엣지형상(20)을 검출한다.
이와 같이 사용자 엣지 형상(도 6의 )을 검출하였으면, 동작 특징 정보 산출부(130)는 그 내부의 한 점을 기준점으로 결정하고(S122), 상기 기준점에 기초하여 엣지로 검출된 픽셀들 각각의 각도 및 거리를 산출한다(S123, S124).
이 때, 상기 기준점은 엣지 형상 내부의 중심점인 것이 바람직하며, 상기 중심점, 각도 및 거리는, 도 1을 참조한 설명시 언급한 바와 같이, 수학식 1 내지 수학식 3에 의거하여 산출할 수 있다.
도 7은 사용자 영상과 임의의 한 감정별 기준 영상을 비교하는 과정을 설명하기 위한 도면이다. 즉, 임의의 한 감정별 기준 영상에 대한 시퀀스(sequence)를 G라 하고, 감정을 확인하고자 하는 사용자 영상에 대한 시퀀스(sequence)를 R이라할 때, G와 R은 하기의 (수학식 6)과 같이 나타내어진다.
이 때, 거리 매트릭스(distance matrix) 를 와 의 유클리드 거리 값(Euclidean distance value)이 저장된 매트릭스(matrix)라고 하면 와핑 매트릭스(warping matrix) 는 상기 (수학식 4)와 같이 구할 수 있다.
도 7의 (a)는 m이 3이고, n이 4인 경우 시퀀스 G 및 시퀀스 R을 표로 나타낸 것이고, 도 7의 (b)는 도 7의 (a)에 예시된 표를 근거로 거리 매트릭스(distance matrix) 를 산출한 결과를 나타낸다. 도 7의 (c)는 도 7의(b)에 예시된 거리 매트릭스(distance matrix) 를 이용하여 와핑 매트릭스(warping matrix) 를 산출한 결과를 예시한다.
도 8은 본 발명의 처리 결과를 테스트하기 위한 4가지 상황들을 설정한 도표이다. 도 8을 참조하면, 상황 A는 6가지 감정상태(기쁨(elated joy), 행복함(Happiness), 흥미로움(interest), 지루함(boredom), 역겨움(Disgust), 격노함(Hot anger))을 모두 포함하고, 상황 B는 3가지 감정상태(기쁨(elated joy), 행복함(Happiness), 흥미로움(interest))을 포함하고, 상황 C는 또 다른 3가지 감정 상태(지루함(boredom), 역겨움(Disgust) 및 격노함(Hot anger))을 포함하고, 상황 D는 2가지 감정 상태(흥미로움(interest), 지루함(boredom))를 포함한다.
도 9 내지 도 12는 도 8에 설정된 4가지 상황들 각각에 대하여 실험자들이 취한 자세를 기반으로 본 발명의 알고리즘을 구동한 결과를 도시한 그래프들이다. 이 때, 도 9는 상황 A, 도 10은 상황 B, 도 11은 상황 C, 도 12는 상황 D를 각각 나타내는데, 각각의 상황에서 가장 낮은 유사도 거리(similarity distance)를 가지는 감정 상태가 사용자의 감정 상태를 나타낸다.
보다 구체적으로는, 도 9에서 사용자의 감정 상태는 비디오 프레임의 구간별로 달라지는데 50 프레임 근방까지는 기쁨(elated joy)을 나타내고, 50프레임 근방부터 150프레임 근방까지는 행복함(Happiness)을 나타내고, 150프레임 근방부터 250프레임 근방까지는 흥미로움(interest)을 나타내고, 250프레임 근방부터 320프레임 근방까지는 지루함(boredom)을 나타내고, 320프레임 근방부터 420프레임 근방까지는 역겨움(Disgust)을 나타내고, 420프레임 근방부터 500 프레임 근방까지는 격노함(Hot anger)을 나타낸다.
도 10 내지 도 12의 경우에서도 도 9와 동일하게 비디오 프레임 구간별로 가장 낮은 유사도 거리를 가지는 감정 상태가 무엇인지를 분석함으로써, 각 구간별 사용자의 감정 상태를 인지할 수 있게 된다.
상술한 예시적인 시스템에서, 방법들은 일련의 단계 또는 블록으로써 순서도를 기초로 설명되고 있지만, 본 발명은 단계들의 순서에 한정되는 것은 아니며, 어떤 단계는 상술한 바와 다른 단계와 다른 순서로 또는 동시에 발생할 수 있다.
또한, 당업자라면 순서도에 나타낸 단계들이 배타적이지 않고, 다른 단계가 포함되거나 순서도의 하나 또는 그 이상의 단계가 본 발명의 범위에 영향을 미치지 않고 삭제될 수 있음을 이해할 수 있을 것이다.
Claims (17)
- 감정상태 인식 방법에 있어서,
입력된 영상으로부터 사용자의 실루엣을 검출하는 단계;
상기 실루엣으로부터 엣지를 검출하여 사용자의 엣지 형상을 도출하는 단계;
상기 엣지 형상 내부의 한 점을 기준점으로 결정하고, 상기 엣지로 검출된 픽셀들 각각에 대하여 상기 기준점에 기초하여 산출된 각도 및 거리를 포함하는 제1 동작 특징 정보를 산출하는 단계; 및
감정 판단의 기준이 되는 자세들을 나타내는 영상들 각각에 해당하는 감정 정보와 상기 감정 정보에 대응되는 동작 특징 정보를 포함하는 제2 동작 특징 정보와 상기 제1 동작 특징 정보를 비교하여 사용자의 감정을 추정하는 단계를 포함하는 것을 특징으로 하는 자세 기반 감정상태 인식 방법. - 제1항에 있어서, 상기 입력된 영상으로부터 사용자의 실루엣을 검출하는 단계 이전에 상기 제2 동작 특징 정보를 저장하는 단계를 더 포함하고,
상기 제2 동작 특징 정보 저장 단계는
제1 감정에 대응한 자세에 대한 영상을 제작하는 단계;
상기 자세에 대한 실루엣을 검출하는 단계;
상기 실루엣으로부터 엣지형상을 도출하는 단계; 및
상기 엣지 형상 내부의 한 점을 기준점으로 결정하고, 상기 엣지로 검출된 픽셀들 각각에 대하여 상기 기준점에 기초하여 산출된 각도 및 거리를 포함하는 상기 제1 감정에 대한 동작 특징 정보를 산출하는 단계를 포함하는 것을 특징으로 하는 자세 기반 감정상태 인식 방법. - 제2항에 있어서, 상기 제2 동작 특징 정보 저장 단계는
사용자가 느낄 수 있는 대표적인 감정들 각각에 대하여 상기 단계들을 반복 수행하는 것을 특징으로 하는 자세 기반 감정 상태 인식 방법. - 제3항에 있어서, 상기 사용자가 느낄 수 있는 대표적인 감정들은
기쁨(elated joy), 행복함(Happiness), 흥미로움(interest), 지루함(boredom), 역겨움(Disgust) 및 격노함(Hot anger)을 포함하는 것을 특징으로 하는 자세기반 감정 상태 인식 방법. - 제7항에 있어서, 상기 사용자의 감정을 추정하는 단계는
하기의 (수학식 4)에 의거하여 상기 제1 동작 특징 정보와 상기 제2 동작 특징정보를 비교하고, (수학식 5)에 의거하여 사용자의 감정을 추정하는 것을 특징으로 하는 자세 기반 감정 상태 인식 방법.
(수학식 4)
이 때, 는 와핑 매트릭스(warping matrix)이고, 는 유클리드 거리값(Euclidean distance value) 이고, 은 세 개의 값 중 가장 작은 값을 가리킴.
(수학식 5)
이 때, 값이 적으면 적을수록 기준 영상(Ground truth)과 비슷함을 나타냄. - 제1항에 있어서, 상기 사용자의 감정을 추정하는 단계는
상기 비교 결과에 의거하여 상기 제2 동작 특징 정보에 포함된 감정별 동작 특징 정보들 중 상기 제1 동작 특징 정보와 가장 근접한 동작 특징 정보에 대응된 감정을 사용자의 감정으로 추정하는 것을 특징으로 하는 자세 기반 감정상태 인식 방법. - 감정 상태 인식 장치에 있어서,
영상을 수집하는 영상 수집부;
상기 수집된 영상으로부터 사용자의 실루엣을 검출하고, 상기 사용자의 실루엣으로부터 엣지를 검출하여 사용자의 엣지 형상을 도출한 후 상기 엣지 형상 내부의 한 점을 기준으로 상기 엣지로 검출된 픽셀들 각각에 대한 각도 및 거리를 제1 동작 특징 정보로 산출하는 동작 특징 정보 산출부;
감정 판단의 기준이 되는 자세들을 나타내는 영상들 각각에 해당하는 감정 정보와 상기 감정 정보에 대응되는 동작 특징 정보를 포함하는 제2 동작 특징 정보를 저장하는 감정별 기준 영상 데이터베이스; 및
상기 산출된 제1 동작 특징정보와 상기 감정별 기준 영상 데이터베이스에 기 저장된 상기 제2 동작 특징 정보를 비교하여 사용자의 감정을 추정하는 감정 추정부를 포함하는 것을 특징으로 하는 자세 기반 감정상태 인식 장치. - 제10항에 있어서, 상기 감정별 기준 영상 데이터베이스는
사용자가 느낄 수 있는 대표적인 감정들 각각에 대한 동작 특징 정보들을 상기 제2 동작 특징 정보로서 저장하는 것을 특징으로 하는 자세 기반 감정 상태 인식 장치. - 제11항에 있어서, 상기 사용자가 느낄 수 있는 대표적인 감정들은
기쁨(elated joy), 행복함(Happiness), 흥미로움(interest), 지루함(boredom), 역겨움(Disgust) 및 격노함(Hot anger)을 포함하는 것을 특징으로 하는 자세기반 감정 상태 인식 장치.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020140043011A KR20150117496A (ko) | 2014-04-10 | 2014-04-10 | 자세 기반 감정상태 인식 장치 및 그 방법 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020140043011A KR20150117496A (ko) | 2014-04-10 | 2014-04-10 | 자세 기반 감정상태 인식 장치 및 그 방법 |
Publications (1)
Publication Number | Publication Date |
---|---|
KR20150117496A true KR20150117496A (ko) | 2015-10-20 |
Family
ID=54399833
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020140043011A KR20150117496A (ko) | 2014-04-10 | 2014-04-10 | 자세 기반 감정상태 인식 장치 및 그 방법 |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR20150117496A (ko) |
-
2014
- 2014-04-10 KR KR1020140043011A patent/KR20150117496A/ko active Search and Examination
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6942488B2 (ja) | 画像処理装置、画像処理システム、画像処理方法、及びプログラム | |
Gao et al. | Detecting emotional stress from facial expressions for driving safety | |
CN108269254B (zh) | 图像质量评估方法和装置 | |
US9330325B2 (en) | Apparatus and method for reducing noise in fingerprint images | |
JP6977730B2 (ja) | 人流推定装置、人流推定方法およびプログラム | |
KR101603017B1 (ko) | 제스처 인식 장치 및 제스처 인식 장치의 제어 방법 | |
US9224037B2 (en) | Apparatus and method for controlling presentation of information toward human object | |
CN111639616B (zh) | 一种基于深度学习的重身份识别方法 | |
JP6809226B2 (ja) | 生体検知装置、生体検知方法、および、生体検知プログラム | |
JP6482195B2 (ja) | 画像認識装置、画像認識方法及びプログラム | |
JP6362085B2 (ja) | 画像認識システム、画像認識方法およびプログラム | |
US11341680B2 (en) | Gaze point estimation processing apparatus, gaze point estimation model generation apparatus, gaze point estimation processing system, and gaze point estimation processing method | |
CN102831382A (zh) | 人脸跟踪设备和方法 | |
CN110837750B (zh) | 一种人脸质量评价方法与装置 | |
JP5001930B2 (ja) | 動作認識装置及び方法 | |
JP6579950B2 (ja) | カメラの撮影画像に映る人物を検出する画像解析装置、プログラム及び方法 | |
JP2007265125A (ja) | コンテンツ表示装置 | |
JP6109288B2 (ja) | 情報処理装置、情報処理方法及びプログラム | |
KR20160114996A (ko) | 사용자 맞춤형 운동 서비스 제공 방법 및 장치 | |
JP2017205134A (ja) | 体調検出装置、体調検出方法及び体調検出プログラム | |
CN108965713A (zh) | 图像采集方法、装置以及计算机可读存储介质 | |
WO2012063544A1 (ja) | 画像処理装置、画像処理方法及び記録媒体 | |
US20140286531A1 (en) | System for tracking a moving object, and a method and a non-transitory computer readable medium thereof | |
KR20190009006A (ko) | 전역적 움직임 기반의 실시간 다중 객체 추적 장치 및 방법 | |
JP2009211122A (ja) | 画像処理装置およびオブジェクト推定プログラム。 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
AMND | Amendment | ||
E601 | Decision to refuse application | ||
AMND | Amendment |