KR101744863B1 - 영상을 이용한 2차원 감성 추정 방법 및 시스템 - Google Patents

영상을 이용한 2차원 감성 추정 방법 및 시스템 Download PDF

Info

Publication number
KR101744863B1
KR101744863B1 KR1020160005993A KR20160005993A KR101744863B1 KR 101744863 B1 KR101744863 B1 KR 101744863B1 KR 1020160005993 A KR1020160005993 A KR 1020160005993A KR 20160005993 A KR20160005993 A KR 20160005993A KR 101744863 B1 KR101744863 B1 KR 101744863B1
Authority
KR
South Korea
Prior art keywords
image
emotion
component
user
image feature
Prior art date
Application number
KR1020160005993A
Other languages
English (en)
Inventor
이의철
박민우
임지원
고대준
Original Assignee
주식회사 브이아이텍
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 브이아이텍 filed Critical 주식회사 브이아이텍
Priority to KR1020160005993A priority Critical patent/KR101744863B1/ko
Application granted granted Critical
Publication of KR101744863B1 publication Critical patent/KR101744863B1/ko

Links

Images

Classifications

    • G06K9/00308
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/4223Cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
    • H04N21/44008Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving operations for analysing video streams, e.g. detecting features or characteristics in the video stream

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Image Analysis (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Abstract

본 발명은 라이프로깅 등을 통해 획득한 영상을 이용하여 환경적 감성 상태를 판단하고 이를 통해 사용자의 감성을 추정하는 방법 및 시스템을 제시한다. 본 발명의 방법:은 사용자의 전방으로부터 영상을 획득하는 단계; 상기 영상으로부터 서로 다른 두 가지의 영상 특징 값을 추출하는 단계; 그리고 상기 두 영상 특징 값을 2차원 감성 룰베이스 상에 맵핑하여 상기 사용자의 감성 상태를 평가하는 단계;를 포함한다.

Description

영상을 이용한 2차원 감성 추정 방법 및 시스템{Method and system for 2-D Emotion classification by using Image}
본 발명은 사용자의 전방 영상을 이용한 사용자의 감성 상태를 평가하는 방법 및 이를 적용하는 시스템에 관한 것으로서, 상세하게는 영상으로부터 얻어지는 2 가지의 정보를 이용하여 2D 감성 평가 방법 및 시스템에 관한 것이다.
최근 스마트 기기의 대중화로 인하여 일상생활에서 수집할 수 있는 사용자의 정보가 크게 증가하고 있으며, 이를 통해 의미 있는 정보를 추출하고 다양한 분야에서 활용하는 라이프로깅 기술이 각광받고 있다. 오늘날 많은 라이프로깅 기술들은 스마트 기기를 통해 사용자의 신체 정보 및 행위, 위치 등을 기록하고 가공하여 헬스케어나 웰니스 관련 정보를 제공하는 것에 초점을 맞추고 있다. 하지만, 대부분의 스마트 기기에 장착된 카메라를 통해 얻을 수 있는 주변 공간의 영상 정보가 사용자의 감정에 끼치는 영향을 고려한 라이프로깅 기술 관련 연구는 아직까지 진행된 바 없다.
기존의 감성 평가 방법에는 영상 또는 센서로부터 얻어지는 PPG(Photoplethysmograph) 정보와 SKT(Skin Temperature) 등의 생체 정보를 이용한 감성 평가 방법이 있다. 그러나, 이러한 방법은 사용자로부터 얻어지는 생체 정보만을 평가를 위한 파라미터로 적용한다. 이러한 방법은 다양한 사용자가 접하는 환경 영향 등의 파라미터가 배제되어 있어서 보다 정확한 감성 평가가 어려울 수 있다.
KR 2014-0073294 A1
Min Woo Park, Chi Jung Kim, Mincheol Whang, and Eui Chul Lee, "Individual Emotion Classification between Happiness and Sadness by Analyzing Photoplethysmography and Skin Temperature," 2013 Fourth World Congress on Software Engineering (WCSE 2013), pp. 190-194, 2013. Suttles, Jared, and Nancy Ide. "Distant supervision for emotion classification with discrete binary values," Computational Linguistics and Intelligent Text Processing. Springer Berlin Heidelberg, pp. 121-136, 2013. Al-Amri, Salem Saleh, N. V. Kalyankar, and S. D. Khamitkar. "Image segmentation by using edge detection," International Journal on computer science and engineering Vol. 2, No. 3, pp. 804-807, 2010.
본 발명은 사용자가 접하는 환경 요소를 이용해 사용자의 감성 상태를 평가하는 방법 및 이를 적용하는 시스템을 제공한다.
본 발명은 사용자가 노출되는 주변 환경의 2차원적 영상 요소를 이용해 사용자의 감성 상태를 평가하는 방법 및 이를 적용하는 시스템을 제공한다.
본 발명에 따른 감성 평가 방법:은
사용자의 전방으로부터 영상을 획득하는 단계;
상기 영상으로부터 서로 다른 두 가지의 영상 특징 값을 추출하는 단계;
상기 두 영상 특징 값을 2차원 감성 룰베이스 상에 맵핑하여 상기 사용자의 감성 상태를 평가하는 단계;를 포함한다.
본 발명의 일 실시 예에 따르면, 상기 영상 특징 값을 추출하는 단계:는 화소성분을 추출하는 단계를 포함할 수 있다.
또한, 다른 실시 예에 따르면, 상기 영상 특징 값을 추출하는 단계는: 상기 영상 내의 경계영역으로부터 사방 경계 성분을 추출하는 단계;를 포함할 수 있다.
본 발명의 일 실시 예에 따르면, 상기 영상 특징 성분은 화소(칼라)성분이며, 다른 하나는 공간 복잡도이다.
상기 2차원 감성 룰베이스는 불쾌-쾌 및 이완-긴장의 축을 가지는 러셀의 원형 모델에 따를 수 있다.
본 발명에 따른 영상을 이용한 2차원 감성 추정 시스템:은
사용자의 전방으로부터 영상을 획득하는 카메라; 그리고
상기 영상으로부터 서로 다른 두 가지의 영상 특징 값을 추출하고, 상기 두 영상 특징 값을 2차원 감성 룰베이스 상에 맵핑하여 상기 사용자의 감성 상태를 평가하는 분석 시스템;을 포함한다.
상기 본 발명의 시스템에서, 상기 영상 특징 성분은 화소(칼라)성분와 공간 복잡도이며, 그리고. 상기 2차원 감성 룰베이스는 불쾌-쾌 및 이완-긴장의 축을 가지는 러셀의 원형 모델에 따른다.
본 발명은 라이프 로깅 기술을 응용함에 있어서, 사용자가 접하게 되는 다양한 환경에서 사용자가 인지하는 전방 환경을 영상화하여 이로부터 사용자의 감성을 추론 할 수 있는 다수의 영상 특징을 파라미터로서 추출하고, 이를 2차원 감성 룰베이스에 맵핑함으로써 사용자의 감성 또는 사용자가 영향을 받은 환경적 감성을 평가한다. 이러한 본 발명의 방법은 영상 특징 정보에 기초한 다중모드 복합 방법에 의해 사용자의 감성에 영향을 미치는 주변환경의 감성 환경의 평가가 가능해 진다.
도1은 영상 내에서 프리윗 마스크(Prewitt Mask)를 통해 공간복잡도를 검출하는 단계를 예시적으로 나타낸다.
도2는 영상의 화소성분 (컬러성분)을 추출하는 단계를 통해 실제 감성 맵핑(Mapping)까지의 구조를 예시한다.
도3은 프룻칙(Plutchik) 에 의해 제안된 감성 휠(Plutchik`s wheel of Emotions)을 도시한다.
도4는 프룻칙(Plutchik) 의 감성 휠에 기초하여 러셀의 원형 모델 상에 맵핑된 컬러 분포를 도시한다.
도5는 실제 한 영상에서 화소성분 및 영상복잡도 분석을 통해 2차원 축 상에서 어떻게 감성이 결정될 수 있는지에 대한 구조를 예시한다.
도6은 본 발명에 따라 영상의 화소성분 및 복잡도 분석을 통한 2차원 감성 추정기를 구현한 결과를 예시한다.
이하, 첨부된 도면을 참조하면서 본 발명에 따른 감성 평가 방법 및 이를 적용하는 시스템의 실시 예를 상세히 설명한다.
본 발명은 라이프로깅 방법을 적용하므로 사용자의 전방을 촬영할 수 있는 카메라 및 이로부터의 영상을 처리하여 감성을 평가하는 분석 시스템이 필요하다.
분석 시스템은 일반적인 컴퓨터 기반의 모든 장치를 응용할 수 있으며, 스마트폰과 같이 소형화된 포터블 장치도 적용할 수 있다.
라이프 로깅(Life logging)은 사용자의 생활을 영위하는 동안 소위 라이프 로깅 카메라를 통해 획득한 정보를 주기적 또는 비주기적으로 기록하는 과정을 포함하며, 본 발명에서는 사용자가 접하는 시각적 환경을 영상 촬영장치에 의해 획득하고 이를 분석한다. 이러한 본 발명은 인간에게 직접적이고도 강력한 영향력을 가지는 환경적 감성 상태를 평가함으로써 이에 노출된 사용자의 감성 상태를 추론한다. 즉, 본 발명은 사용자로부터 직접 측정한 생체 정보를 이용하지 않고, 사용자의 감성에 영향을 주는 소위 환경적 감성을 평가한다.
이러한 본 발명은 크게 3 가지의 단계를 통해서 감성을 측정 또는 평가한다.
1. 사용자의 시야에 들어오는 전방 영상의 촬영
2. 영상으로부터 인간의 감성에 영향을 끼치는 다수, 바람직하게 적어도 2 가지의 영상 특징 추출
3. 영상 특징을 2차원 감성 룰베이스에 맵핑하여 환경 감성 평가 또는 판단
본 발명에서 영상 특징으로서 라이프로깅 카메라로부터 취득되는 주변 환경 영상에서 화소성분 및 영상복잡도를 감성 평가 또는 분석을 위한 파라미터로 이용한다.
도1은 영상 내에서 경계 성분을 추출하기 위해 프리윗 마스크(Prewitt Mask)를 사용하여 컨볼루션(Convolution)을 수행하는 방법을 도시한다.
본 발명에서 프리윗 마스크는 영상 중 경계 영역을 추출하기 위한 것으로서 소벨 마스크(Sobel Mask) 등으로 대체 가능하다. 즉, 본 발명에서는 경계 영역을 추출하기 위한 특정한 마스크에 의해 기술적 범위가 제한되지 않는다.
그러나, 프리윗 마스크(Prewitt Mask)가 다른 마스크, 예를 들어 소벨 마스크(Sobel Mask)에 비해 계산 속도 면에서 빠르고, 따라서 이 점에서 유리하다. 도1에서 윗 쪽의 3*3 마스크(Mask)가 프리윗 X 마스크(Prewitt X Mask)이며, 그 아래가 프리윗 Y 마스크(Prewitt Y Mask) 이다.
프리윗X 마스크는, 좌측열 3칸에 -1을, 우측열 3칸에 1을 배치하여 계산의 기준이 되는 화소의 좌우 차이를 구하는 방식을 통해 영상의 세로방향 경계를 계산하며, 1 픽셀씩 X 방향으로 쉬프트하면서 X 방향의 모든 픽셀에 대해 계산을 수행한다.
한편, 프리윗 Y 마스크(Prewitt Y Mask)는, 상단 3칸에 -1을, 하단 3칸에 1을 배치하여 계산의 기준이 되는 화소의 상하 차이를 구하는 방식을 통해 영상의 세로방향 경계를 계산하며, 역시 Y 방향으로 1 픽셀씩 쉬프트하면서 Y 전체에 대해 계산을 수행한다.
결과 영상 각각의 화소값은 입력영상과 프리윗 X 마스크(Prewitt X Mask), 프리윗 Y 마스크(Prewitt Y Mask) 각각과 컨볼류션(Convolution)한 결과의 합을 임계값으로 이진화 하여 구하는데, 가로(X)방향의 경계성분을 구할 수 있는 프리윗 X 마스크(Prewitt X Mask)와 세로(Y)방향의 경계 영역(성분)을 구할 수 있는 프리윗 Y 마스크(Prewitt Y Mask)의 사용을 통해 사방의 경계 성분을 구한다. 이러한 경계 영역 추출 방법은 다음의 수식으로 설명된다.
Figure 112016005394079-pat00001
위 식에서
Figure 112016005394079-pat00002
는 입력영상이고,
Figure 112016005394079-pat00003
는 프리윗 X 마스크(Prewitt X Mask)를 통해 기준 화소에 대해 가로(x)방향의 경계성분을 구한 결과이고,
Figure 112016005394079-pat00004
는 프리윗 Y 마스크(Prewitt Y Mask)를 통해 세로(Y)방향의 경계성분을 구한 결과이다.
Figure 112016005394079-pat00005
위 식에서 O 는 결과 영상이며, 이 식은 앞에서 구한
Figure 112016005394079-pat00006
Figure 112016005394079-pat00007
를 임계값을 통해 이진화 하여 결과 영상을 구하는 것을 나타낸다. 즉,
Figure 112016005394079-pat00008
가 임계값을 넘어서면 255 그렇지 않으면 0의 값으로 화소값이 정해진다.
이를 통해 얻은 경계성분이 존재하는 화소 개수들을 영상 전체 크기 대비 비율로 구한 후, 이를 -1~1 사이의 값으로 정규화 하여 세로축의 각성 - 이완 (Arousal - Relaxation) 상태를 나타낸다.
도2는 영상의 화소성분 (컬러성분)을 추출하는 단계를 통해 실제 감성 맵핑(Mapping)까지의 구조를 예시적으로 나타낸다. 영상 내에서 화소 성분을 검출하는 방법은 전방 카메라 컬러 영상을 분석하여 긍정 및 부정 감성을 유발하는 색상 범위의 화소를 검출하여 계산한다. 여기에서 긍정의 색상은 황색(HSI 모델 영상에서)으로서 기준 값이 60°이며, 45~75°의 값을 가질 수 있다. 그리고 부정의 색상으로서는 그 기준 값은 240°인 청색으로 그 범위는 225~255°이다. 카메라로부터 들어오는 RGB 모델 영상을 빛에 영향을 많이 받지 않는 HSI 모델 영상으로 변환하여 사용하고, 아래 수식을 통해 제안하는 2차원 모델의 가로축의 쾌 - 불쾌 (Pleasant - Unpleasant) 상태를 나타낸다.
Figure 112016005394079-pat00009
위 식에서
Figure 112016005394079-pat00010
는 HSI 모델에서 색상 값을 나타내는 H이다.
Figure 112016005394079-pat00011
는 영상 내에 존재하는 해당
Figure 112016005394079-pat00012
값의 개수를 나타낸다.
Figure 112016005394079-pat00013
는 영상의 너비, 는 영상의 높이를 나타낸다. 영상의 높이와 너비의 곱으로 합을 나눠주는 이유는 -1~1 사이의 값으로 정규화하기 위함이다.
위의 수식의 근거는 도3에 도시한 바와 같이 일반적으로 색상이 사람의 감정적 반응에 대한 가장 영향력 있는 분류 방법인 프룻칙의 감성 휠(Plutchik's wheel of Emotion) 이론을 근거로 한다. 본 이론에서는 사람은 기본적으로 분노(Anger), 공포(Fear), 슬픔(Sadness), 혐오(Disgust), 놀람(Surprise), 희망(Anticipation), 신뢰(Trust), 환희 (Joy)와 같이 8개의 중요한 기본 감성이 있다고 주장한다. 이러한 기본 감성은 서로 다른 색상 강도로 표현될 수 있을 뿐만 아니라, 다른 감성을 형성하도록 서로 혼합될 수도 있다. 따라서 도3의 프룻칙의 감성 휠(Plutchik's wheel of Emotion) 모델에서 획득딘 기본 감성(값)을 도4의 러셀(Russel)이 제안한 2차원 원형모델에 매칭 하였을 때, 붉은색 계열과 푸른색 계열은 불쾌함을, 초록색 계열과 자주색 계열은 쾌함과 연관 있다는 것을 알 수 있다.
도5a는 실제 카메라로부터 취득된 한 영상을 나타내며, 도5b는 도5a의 영상에서 화소성분 및 영상복잡도 분석을 통해 2차원 축 상에서 어떻게 감성이 결정될 수 있는지에 대한 구조를 예시적으로 나타낸다.
도5a를 참조하면 어두운 청록색 쪽으로 색상이 치우쳐 있는 해 질 무렵의 해안가 영상이다. 이러한 영상으로부터 본 발명에 따라 칼라값과 복잡도를 파라미터로 추출한 후 이를 러셋의 원형 모델에 매핑한 결과를 보이는 도5b를 보면, 환경적 감성이 불쾌-이완의 상태임을 알 수 있다. 도5b에서 수평의 x 축은 화소(칼라)성분에 의해 결정되며, 수직의 y축은 영상 복잡도에 의해 결정된 것이다.
도6는 본 발명에 따라 차량으로 이동하는 도중에 획득한 카메라 영상의 화소성분 및 복잡도 분석을 통한 2차원 감성 추정기를 구현한 결과이다.
도6에서 좌상부의 영상은 입력 영상이며, 좌하부의 두 흑백 영상은 원본 영상에 대해 경계 영역이 추출된 영상으로서, 좌측 영상은 스레스홀드를 적용하기 전, 그리고 그 우측은 전술한 식2에 따라 스레스홀드를 적용하여 경계 영역과 비경계 영역을 이진화한 상태이다. 그리고, 우하측의 영상은 원본 영상의 칼라값을 추출한 결과를 보인다. 마지막으로 우상부의 그림은 영상의 복잡도를 나타내는 경계영역의 수 및 영상의 칼라값에 의해 결정된 감성 상태를 나타내 보이는데, 불쾌-쾌 축상에서 약간 쾌 방향으로 치우쳐 있고, 그리고 이완-각성의 축에서는 약간 이완 방향으로 약간 치우쳐 져 있는 비교적 중립적 감성상태임을 판단할 수 있다.
발명에서 사용된 2차원 상에 감성 추정 또는 판단 방법은 영상 내의 화소성분 (컬러성분)과 영상복잡도 다중모드 복합(Multimodal Fusion) 방법을 통해 이루어지는 새로운 감정 추정기의 방법으로서, 카메라를 통해 얻은 주변 환경 영상을 분석하여 현재 상황이 인간의 감정에 어떠한 영향을 끼칠 수 있을 것인지에 대해 궁금증을 가지는 많은 사람들에게 필요한 인터페이스가 될 것이다.
전술한 본 발명에 따른 영상 내의 화소성분 및 영상복잡도를 이용한 2차원 감성 추정 방법은 이해를 돕기 위하여 도면에 도시된 실시 예로서 참고로 설명되었으나, 이는 예시적인 것에 불과하며, 당해 분야에서 통상적 지식을 가진 자라면 이로부터 다양한 변형 및 균등한 타 실시 예가 가능하다는 점을 이해할 것이다. 따라서 본 발명의 진정한 기술적 보호 범위는 첨부된 특허청구범위에 의해 정해져야 할 것이다.

Claims (9)

  1. 사용자의 전방으로부터 영상을 획득하는 단계;
    상기 영상으로부터 서로 다른 두 가지의 영상 특징 값을 추출하는 단계; 그리고
    상기 두 영상 특징 값을 2차원 감성 룰베이스 상에 맵핑하여 상기 사용자의 감성 상태를 평가하는 단계;를 포함하며,
    상기 영상 특징 성분은 화소(칼라값)성분와 공간 복잡도이며, 그리고.
    상기 2차원 감성 룰베이스는 불쾌-쾌 및 이완-긴장의 축을 가지는 러셀의 원형 모델에 따르는, 영상을 이용한 2차원 감성 추정 방법.
  2. 제1항에 있어서,
    상기 영상 특징 값을 추출하는 단계:는 화소(칼라값) 성분을 추출하는 단계를 더 포함하는 것을 특징으로 하는 영상을 이용한 2차원 감성 추정 방법.
  3. 제1항 또는 제2항에 있어서,
    상기 영상 특징 값을 추출하는 단계는: 상기 영상 내의 경계영역으로부터 사방 경계 성분을 추출하는 단계;를 더 포함하는 것을 특징으로 하는 영상을 이용한 2차원 감성 추정 방법.
  4. 제2항에 있어서,
    상기 영상 특징값을 룰베이스 상에 맵핑시키는 단계:는 상기 화소(칼라값) 성분을 프룻칙의 감성 휠에 맵핑하고 이에 따른 감성 값을 러셀의 2차원 원형 모델에 매칭시키는 것을 특징으로 하는 영상을 이용한 2차원 감성 추정 방법.
  5. 제3항에 있어서,
    상기 경계 성분은 프리윗 마스크를 적용하는 것을 특징으로 하는 영상을 이용한 2차원 감성 추정 방법.
  6. 삭제
  7. 제1항에 있어서,
    상기 화소(칼라값) 성분의 값은 긍정 및 부정 감성을 유발하는 색상 범위의 화소를 검출하는 것을 특징으로 하는 영상을 이용한 2차원 감성 추정 방법.
  8. 사용자의 전방으로부터 영상을 획득하는 카메라; 그리고
    상기 영상으로부터 서로 다른 두 가지의 영상 특징 값을 추출하고, 상기 두 영상 특징 값을 2차원 감성 룰베이스 상에 맵핑하여 상기 사용자의 감성 상태를 평가하는 분석 시스템;을 포함하며,
    상기 영상 특징 값은 화소(칼라값)성분과 공간 복잡도이며, 그리고.
    상기 2차원 감성 룰베이스는 불쾌-쾌 및 이완-긴장의 축을 가지는 러셀의 원형 모델에 따르는 것을 특징으로 하는, 영상을 이용한 2차원 감성 추정 시스템.
  9. 삭제
KR1020160005993A 2016-01-18 2016-01-18 영상을 이용한 2차원 감성 추정 방법 및 시스템 KR101744863B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020160005993A KR101744863B1 (ko) 2016-01-18 2016-01-18 영상을 이용한 2차원 감성 추정 방법 및 시스템

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020160005993A KR101744863B1 (ko) 2016-01-18 2016-01-18 영상을 이용한 2차원 감성 추정 방법 및 시스템

Publications (1)

Publication Number Publication Date
KR101744863B1 true KR101744863B1 (ko) 2017-06-20

Family

ID=59281108

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020160005993A KR101744863B1 (ko) 2016-01-18 2016-01-18 영상을 이용한 2차원 감성 추정 방법 및 시스템

Country Status (1)

Country Link
KR (1) KR101744863B1 (ko)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101814961B1 (ko) * 2017-06-29 2018-01-03 상명대학교산학협력단 감성 동기화 기반의 사회 감성 추론 장치 및 그 방법
WO2019078407A1 (ko) * 2017-10-18 2019-04-25 상명대학교산학협력단 주변 환경 영상을 이용한 감성 추정 장치 및 방법
KR20190044762A (ko) * 2017-10-23 2019-05-02 연세대학교 산학협력단 감정 기반 객체 변환 장치 및 방법

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101814961B1 (ko) * 2017-06-29 2018-01-03 상명대학교산학협력단 감성 동기화 기반의 사회 감성 추론 장치 및 그 방법
WO2019004511A1 (ko) * 2017-06-29 2019-01-03 상명대학교산학협력단 감성 동기화 기반의 사회 감성 추론 장치 및 그 방법
WO2019078407A1 (ko) * 2017-10-18 2019-04-25 상명대학교산학협력단 주변 환경 영상을 이용한 감성 추정 장치 및 방법
KR20190043391A (ko) * 2017-10-18 2019-04-26 상명대학교산학협력단 주변 환경 영상을 이용한 감성 추정 장치 및 방법
KR102027494B1 (ko) * 2017-10-18 2019-10-01 상명대학교산학협력단 주변 환경 영상을 이용한 감성 추정 장치 및 방법
KR20190044762A (ko) * 2017-10-23 2019-05-02 연세대학교 산학협력단 감정 기반 객체 변환 장치 및 방법
KR102022479B1 (ko) * 2017-10-23 2019-09-18 연세대학교 산학협력단 감정 기반 객체 변환 장치 및 방법

Similar Documents

Publication Publication Date Title
Ibrahim et al. An automatic Arabic sign language recognition system (ArSLRS)
US10872262B2 (en) Information processing apparatus and information processing method for detecting position of object
EP2980755B1 (en) Method for partitioning area, and inspection device
Ishikura et al. Saliency detection based on multiscale extrema of local perceptual color differences
CN106960181B (zh) 一种基于rgbd数据的行人属性识别方法
KR101853006B1 (ko) 깊이영상에서 코 검출을 이용한 얼굴 인식
Hsieh et al. A kinect-based people-flow counting system
CN109076159A (zh) 电子设备及其操作方法
Koniar et al. Visual system-based object tracking using image segmentation for biomedical applications
KR101744863B1 (ko) 영상을 이용한 2차원 감성 추정 방법 및 시스템
Kalsh et al. Sign language recognition system
KR20130015958A (ko) 얼굴표정을 이용한 감정인식 장치, 감정인식 방법 및 그 기록매체
Southwell et al. Human object recognition using colour and depth information from an RGB-D Kinect sensor
Koniar et al. Machine vision application in animal trajectory tracking
KR101614798B1 (ko) 컬러 이미지 분석을 이용한 비접촉 멀티 터치 인식 방법 및 시스템
CN112800923A (zh) 人体图像质量检测方法及装置、电子设备、存储介质
Madani et al. A soft-computing-based approach to artificial visual attention using human eye-fixation paradigm: toward a human-like skill in robot vision
KR20130143405A (ko) 깊이 정보 기반 사람의 피부 영역 검출 방법
CN107977604B (zh) 一种基于改进聚合通道特征的手部检测方法
Zhao et al. Octree segmentation based calling gesture recognition for elderly care robot
Park et al. Design of RBFNNs Pattern Classifier Realized with the Aid of Face Features Detection
Gobhinath et al. Implementation of Real Time Static Hand Gestures Recognition for Sign Language
Devi et al. Active facial tracking
Totada People Detection from Time-of-flight Imagery with Inpainting-based Preprocessing
Restif et al. Tracking C. elegans swimming for high-throughput phenotyping

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant