KR101744863B1 - 영상을 이용한 2차원 감성 추정 방법 및 시스템 - Google Patents
영상을 이용한 2차원 감성 추정 방법 및 시스템 Download PDFInfo
- Publication number
- KR101744863B1 KR101744863B1 KR1020160005993A KR20160005993A KR101744863B1 KR 101744863 B1 KR101744863 B1 KR 101744863B1 KR 1020160005993 A KR1020160005993 A KR 1020160005993A KR 20160005993 A KR20160005993 A KR 20160005993A KR 101744863 B1 KR101744863 B1 KR 101744863B1
- Authority
- KR
- South Korea
- Prior art keywords
- image
- emotion
- component
- user
- image feature
- Prior art date
Links
- 230000008451 emotion Effects 0.000 title claims abstract description 45
- 238000000034 method Methods 0.000 title claims abstract description 29
- 230000002996 emotional effect Effects 0.000 claims abstract description 15
- 238000013507 mapping Methods 0.000 claims abstract description 12
- 238000004458 analytical method Methods 0.000 claims description 8
- 230000007613 environmental effect Effects 0.000 abstract description 7
- 238000011156 evaluation Methods 0.000 description 7
- 230000035945 sensitivity Effects 0.000 description 7
- 238000005516 engineering process Methods 0.000 description 4
- 238000004364 calculation method Methods 0.000 description 3
- 238000012545 processing Methods 0.000 description 3
- 239000000284 extract Substances 0.000 description 2
- 241000282412 Homo Species 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 238000003708 edge detection Methods 0.000 description 1
- 230000006397 emotional response Effects 0.000 description 1
- 230000003203 everyday effect Effects 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 238000003709 image segmentation Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000007935 neutral effect Effects 0.000 description 1
- 238000007500 overflow downdraw method Methods 0.000 description 1
- 238000013186 photoplethysmography Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000035807 sensation Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G06K9/00308—
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/41—Structure of client; Structure of client peripherals
- H04N21/422—Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
- H04N21/4223—Cameras
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/44—Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
- H04N21/44008—Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving operations for analysing video streams, e.g. detecting features or characteristics in the video stream
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Image Analysis (AREA)
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
Abstract
본 발명은 라이프로깅 등을 통해 획득한 영상을 이용하여 환경적 감성 상태를 판단하고 이를 통해 사용자의 감성을 추정하는 방법 및 시스템을 제시한다. 본 발명의 방법:은 사용자의 전방으로부터 영상을 획득하는 단계; 상기 영상으로부터 서로 다른 두 가지의 영상 특징 값을 추출하는 단계; 그리고 상기 두 영상 특징 값을 2차원 감성 룰베이스 상에 맵핑하여 상기 사용자의 감성 상태를 평가하는 단계;를 포함한다.
Description
본 발명은 사용자의 전방 영상을 이용한 사용자의 감성 상태를 평가하는 방법 및 이를 적용하는 시스템에 관한 것으로서, 상세하게는 영상으로부터 얻어지는 2 가지의 정보를 이용하여 2D 감성 평가 방법 및 시스템에 관한 것이다.
최근 스마트 기기의 대중화로 인하여 일상생활에서 수집할 수 있는 사용자의 정보가 크게 증가하고 있으며, 이를 통해 의미 있는 정보를 추출하고 다양한 분야에서 활용하는 라이프로깅 기술이 각광받고 있다. 오늘날 많은 라이프로깅 기술들은 스마트 기기를 통해 사용자의 신체 정보 및 행위, 위치 등을 기록하고 가공하여 헬스케어나 웰니스 관련 정보를 제공하는 것에 초점을 맞추고 있다. 하지만, 대부분의 스마트 기기에 장착된 카메라를 통해 얻을 수 있는 주변 공간의 영상 정보가 사용자의 감정에 끼치는 영향을 고려한 라이프로깅 기술 관련 연구는 아직까지 진행된 바 없다.
기존의 감성 평가 방법에는 영상 또는 센서로부터 얻어지는 PPG(Photoplethysmograph) 정보와 SKT(Skin Temperature) 등의 생체 정보를 이용한 감성 평가 방법이 있다. 그러나, 이러한 방법은 사용자로부터 얻어지는 생체 정보만을 평가를 위한 파라미터로 적용한다. 이러한 방법은 다양한 사용자가 접하는 환경 영향 등의 파라미터가 배제되어 있어서 보다 정확한 감성 평가가 어려울 수 있다.
Min Woo Park, Chi Jung Kim, Mincheol Whang, and Eui Chul Lee, "Individual Emotion Classification between Happiness and Sadness by Analyzing Photoplethysmography and Skin Temperature," 2013 Fourth World Congress on Software Engineering (WCSE 2013), pp. 190-194, 2013.
Suttles, Jared, and Nancy Ide. "Distant supervision for emotion classification with discrete binary values," Computational Linguistics and Intelligent Text Processing. Springer Berlin Heidelberg, pp. 121-136, 2013.
Al-Amri, Salem Saleh, N. V. Kalyankar, and S. D. Khamitkar. "Image segmentation by using edge detection," International Journal on computer science and engineering Vol. 2, No. 3, pp. 804-807, 2010.
본 발명은 사용자가 접하는 환경 요소를 이용해 사용자의 감성 상태를 평가하는 방법 및 이를 적용하는 시스템을 제공한다.
본 발명은 사용자가 노출되는 주변 환경의 2차원적 영상 요소를 이용해 사용자의 감성 상태를 평가하는 방법 및 이를 적용하는 시스템을 제공한다.
본 발명에 따른 감성 평가 방법:은
사용자의 전방으로부터 영상을 획득하는 단계;
상기 영상으로부터 서로 다른 두 가지의 영상 특징 값을 추출하는 단계;
상기 두 영상 특징 값을 2차원 감성 룰베이스 상에 맵핑하여 상기 사용자의 감성 상태를 평가하는 단계;를 포함한다.
본 발명의 일 실시 예에 따르면, 상기 영상 특징 값을 추출하는 단계:는 화소성분을 추출하는 단계를 포함할 수 있다.
또한, 다른 실시 예에 따르면, 상기 영상 특징 값을 추출하는 단계는: 상기 영상 내의 경계영역으로부터 사방 경계 성분을 추출하는 단계;를 포함할 수 있다.
본 발명의 일 실시 예에 따르면, 상기 영상 특징 성분은 화소(칼라)성분이며, 다른 하나는 공간 복잡도이다.
상기 2차원 감성 룰베이스는 불쾌-쾌 및 이완-긴장의 축을 가지는 러셀의 원형 모델에 따를 수 있다.
본 발명에 따른 영상을 이용한 2차원 감성 추정 시스템:은
사용자의 전방으로부터 영상을 획득하는 카메라; 그리고
상기 영상으로부터 서로 다른 두 가지의 영상 특징 값을 추출하고, 상기 두 영상 특징 값을 2차원 감성 룰베이스 상에 맵핑하여 상기 사용자의 감성 상태를 평가하는 분석 시스템;을 포함한다.
상기 본 발명의 시스템에서, 상기 영상 특징 성분은 화소(칼라)성분와 공간 복잡도이며, 그리고. 상기 2차원 감성 룰베이스는 불쾌-쾌 및 이완-긴장의 축을 가지는 러셀의 원형 모델에 따른다.
본 발명은 라이프 로깅 기술을 응용함에 있어서, 사용자가 접하게 되는 다양한 환경에서 사용자가 인지하는 전방 환경을 영상화하여 이로부터 사용자의 감성을 추론 할 수 있는 다수의 영상 특징을 파라미터로서 추출하고, 이를 2차원 감성 룰베이스에 맵핑함으로써 사용자의 감성 또는 사용자가 영향을 받은 환경적 감성을 평가한다. 이러한 본 발명의 방법은 영상 특징 정보에 기초한 다중모드 복합 방법에 의해 사용자의 감성에 영향을 미치는 주변환경의 감성 환경의 평가가 가능해 진다.
도1은 영상 내에서 프리윗 마스크(Prewitt Mask)를 통해 공간복잡도를 검출하는 단계를 예시적으로 나타낸다.
도2는 영상의 화소성분 (컬러성분)을 추출하는 단계를 통해 실제 감성 맵핑(Mapping)까지의 구조를 예시한다.
도3은 프룻칙(Plutchik) 에 의해 제안된 감성 휠(Plutchik`s wheel of Emotions)을 도시한다.
도4는 프룻칙(Plutchik) 의 감성 휠에 기초하여 러셀의 원형 모델 상에 맵핑된 컬러 분포를 도시한다.
도5는 실제 한 영상에서 화소성분 및 영상복잡도 분석을 통해 2차원 축 상에서 어떻게 감성이 결정될 수 있는지에 대한 구조를 예시한다.
도6은 본 발명에 따라 영상의 화소성분 및 복잡도 분석을 통한 2차원 감성 추정기를 구현한 결과를 예시한다.
도2는 영상의 화소성분 (컬러성분)을 추출하는 단계를 통해 실제 감성 맵핑(Mapping)까지의 구조를 예시한다.
도3은 프룻칙(Plutchik) 에 의해 제안된 감성 휠(Plutchik`s wheel of Emotions)을 도시한다.
도4는 프룻칙(Plutchik) 의 감성 휠에 기초하여 러셀의 원형 모델 상에 맵핑된 컬러 분포를 도시한다.
도5는 실제 한 영상에서 화소성분 및 영상복잡도 분석을 통해 2차원 축 상에서 어떻게 감성이 결정될 수 있는지에 대한 구조를 예시한다.
도6은 본 발명에 따라 영상의 화소성분 및 복잡도 분석을 통한 2차원 감성 추정기를 구현한 결과를 예시한다.
이하, 첨부된 도면을 참조하면서 본 발명에 따른 감성 평가 방법 및 이를 적용하는 시스템의 실시 예를 상세히 설명한다.
본 발명은 라이프로깅 방법을 적용하므로 사용자의 전방을 촬영할 수 있는 카메라 및 이로부터의 영상을 처리하여 감성을 평가하는 분석 시스템이 필요하다.
분석 시스템은 일반적인 컴퓨터 기반의 모든 장치를 응용할 수 있으며, 스마트폰과 같이 소형화된 포터블 장치도 적용할 수 있다.
라이프 로깅(Life logging)은 사용자의 생활을 영위하는 동안 소위 라이프 로깅 카메라를 통해 획득한 정보를 주기적 또는 비주기적으로 기록하는 과정을 포함하며, 본 발명에서는 사용자가 접하는 시각적 환경을 영상 촬영장치에 의해 획득하고 이를 분석한다. 이러한 본 발명은 인간에게 직접적이고도 강력한 영향력을 가지는 환경적 감성 상태를 평가함으로써 이에 노출된 사용자의 감성 상태를 추론한다. 즉, 본 발명은 사용자로부터 직접 측정한 생체 정보를 이용하지 않고, 사용자의 감성에 영향을 주는 소위 환경적 감성을 평가한다.
이러한 본 발명은 크게 3 가지의 단계를 통해서 감성을 측정 또는 평가한다.
1. 사용자의 시야에 들어오는 전방 영상의 촬영
2. 영상으로부터 인간의 감성에 영향을 끼치는 다수, 바람직하게 적어도 2 가지의 영상 특징 추출
3. 영상 특징을 2차원 감성 룰베이스에 맵핑하여 환경 감성 평가 또는 판단
본 발명에서 영상 특징으로서 라이프로깅 카메라로부터 취득되는 주변 환경 영상에서 화소성분 및 영상복잡도를 감성 평가 또는 분석을 위한 파라미터로 이용한다.
도1은 영상 내에서 경계 성분을 추출하기 위해 프리윗 마스크(Prewitt Mask)를 사용하여 컨볼루션(Convolution)을 수행하는 방법을 도시한다.
본 발명에서 프리윗 마스크는 영상 중 경계 영역을 추출하기 위한 것으로서 소벨 마스크(Sobel Mask) 등으로 대체 가능하다. 즉, 본 발명에서는 경계 영역을 추출하기 위한 특정한 마스크에 의해 기술적 범위가 제한되지 않는다.
그러나, 프리윗 마스크(Prewitt Mask)가 다른 마스크, 예를 들어 소벨 마스크(Sobel Mask)에 비해 계산 속도 면에서 빠르고, 따라서 이 점에서 유리하다. 도1에서 윗 쪽의 3*3 마스크(Mask)가 프리윗 X 마스크(Prewitt X Mask)이며, 그 아래가 프리윗 Y 마스크(Prewitt Y Mask) 이다.
프리윗X 마스크는, 좌측열 3칸에 -1을, 우측열 3칸에 1을 배치하여 계산의 기준이 되는 화소의 좌우 차이를 구하는 방식을 통해 영상의 세로방향 경계를 계산하며, 1 픽셀씩 X 방향으로 쉬프트하면서 X 방향의 모든 픽셀에 대해 계산을 수행한다.
한편, 프리윗 Y 마스크(Prewitt Y Mask)는, 상단 3칸에 -1을, 하단 3칸에 1을 배치하여 계산의 기준이 되는 화소의 상하 차이를 구하는 방식을 통해 영상의 세로방향 경계를 계산하며, 역시 Y 방향으로 1 픽셀씩 쉬프트하면서 Y 전체에 대해 계산을 수행한다.
결과 영상 각각의 화소값은 입력영상과 프리윗 X 마스크(Prewitt X Mask), 프리윗 Y 마스크(Prewitt Y Mask) 각각과 컨볼류션(Convolution)한 결과의 합을 임계값으로 이진화 하여 구하는데, 가로(X)방향의 경계성분을 구할 수 있는 프리윗 X 마스크(Prewitt X Mask)와 세로(Y)방향의 경계 영역(성분)을 구할 수 있는 프리윗 Y 마스크(Prewitt Y Mask)의 사용을 통해 사방의 경계 성분을 구한다. 이러한 경계 영역 추출 방법은 다음의 수식으로 설명된다.
위 식에서 는 입력영상이고, 는 프리윗 X 마스크(Prewitt X Mask)를 통해 기준 화소에 대해 가로(x)방향의 경계성분을 구한 결과이고, 는 프리윗 Y 마스크(Prewitt Y Mask)를 통해 세로(Y)방향의 경계성분을 구한 결과이다.
위 식에서 O 는 결과 영상이며, 이 식은 앞에서 구한 와 를 임계값을 통해 이진화 하여 결과 영상을 구하는 것을 나타낸다. 즉, 가 임계값을 넘어서면 255 그렇지 않으면 0의 값으로 화소값이 정해진다.
이를 통해 얻은 경계성분이 존재하는 화소 개수들을 영상 전체 크기 대비 비율로 구한 후, 이를 -1~1 사이의 값으로 정규화 하여 세로축의 각성 - 이완 (Arousal - Relaxation) 상태를 나타낸다.
도2는 영상의 화소성분 (컬러성분)을 추출하는 단계를 통해 실제 감성 맵핑(Mapping)까지의 구조를 예시적으로 나타낸다. 영상 내에서 화소 성분을 검출하는 방법은 전방 카메라 컬러 영상을 분석하여 긍정 및 부정 감성을 유발하는 색상 범위의 화소를 검출하여 계산한다. 여기에서 긍정의 색상은 황색(HSI 모델 영상에서)으로서 기준 값이 60°이며, 45~75°의 값을 가질 수 있다. 그리고 부정의 색상으로서는 그 기준 값은 240°인 청색으로 그 범위는 225~255°이다. 카메라로부터 들어오는 RGB 모델 영상을 빛에 영향을 많이 받지 않는 HSI 모델 영상으로 변환하여 사용하고, 아래 수식을 통해 제안하는 2차원 모델의 가로축의 쾌 - 불쾌 (Pleasant - Unpleasant) 상태를 나타낸다.
위 식에서 는 HSI 모델에서 색상 값을 나타내는 H이다. 는 영상 내에 존재하는 해당 값의 개수를 나타낸다. 는 영상의 너비, 는 영상의 높이를 나타낸다. 영상의 높이와 너비의 곱으로 합을 나눠주는 이유는 -1~1 사이의 값으로 정규화하기 위함이다.
위의 수식의 근거는 도3에 도시한 바와 같이 일반적으로 색상이 사람의 감정적 반응에 대한 가장 영향력 있는 분류 방법인 프룻칙의 감성 휠(Plutchik's wheel of Emotion) 이론을 근거로 한다. 본 이론에서는 사람은 기본적으로 분노(Anger), 공포(Fear), 슬픔(Sadness), 혐오(Disgust), 놀람(Surprise), 희망(Anticipation), 신뢰(Trust), 환희 (Joy)와 같이 8개의 중요한 기본 감성이 있다고 주장한다. 이러한 기본 감성은 서로 다른 색상 강도로 표현될 수 있을 뿐만 아니라, 다른 감성을 형성하도록 서로 혼합될 수도 있다. 따라서 도3의 프룻칙의 감성 휠(Plutchik's wheel of Emotion) 모델에서 획득딘 기본 감성(값)을 도4의 러셀(Russel)이 제안한 2차원 원형모델에 매칭 하였을 때, 붉은색 계열과 푸른색 계열은 불쾌함을, 초록색 계열과 자주색 계열은 쾌함과 연관 있다는 것을 알 수 있다.
도5a는 실제 카메라로부터 취득된 한 영상을 나타내며, 도5b는 도5a의 영상에서 화소성분 및 영상복잡도 분석을 통해 2차원 축 상에서 어떻게 감성이 결정될 수 있는지에 대한 구조를 예시적으로 나타낸다.
도5a를 참조하면 어두운 청록색 쪽으로 색상이 치우쳐 있는 해 질 무렵의 해안가 영상이다. 이러한 영상으로부터 본 발명에 따라 칼라값과 복잡도를 파라미터로 추출한 후 이를 러셋의 원형 모델에 매핑한 결과를 보이는 도5b를 보면, 환경적 감성이 불쾌-이완의 상태임을 알 수 있다. 도5b에서 수평의 x 축은 화소(칼라)성분에 의해 결정되며, 수직의 y축은 영상 복잡도에 의해 결정된 것이다.
도6는 본 발명에 따라 차량으로 이동하는 도중에 획득한 카메라 영상의 화소성분 및 복잡도 분석을 통한 2차원 감성 추정기를 구현한 결과이다.
도6에서 좌상부의 영상은 입력 영상이며, 좌하부의 두 흑백 영상은 원본 영상에 대해 경계 영역이 추출된 영상으로서, 좌측 영상은 스레스홀드를 적용하기 전, 그리고 그 우측은 전술한 식2에 따라 스레스홀드를 적용하여 경계 영역과 비경계 영역을 이진화한 상태이다. 그리고, 우하측의 영상은 원본 영상의 칼라값을 추출한 결과를 보인다. 마지막으로 우상부의 그림은 영상의 복잡도를 나타내는 경계영역의 수 및 영상의 칼라값에 의해 결정된 감성 상태를 나타내 보이는데, 불쾌-쾌 축상에서 약간 쾌 방향으로 치우쳐 있고, 그리고 이완-각성의 축에서는 약간 이완 방향으로 약간 치우쳐 져 있는 비교적 중립적 감성상태임을 판단할 수 있다.
발명에서 사용된 2차원 상에 감성 추정 또는 판단 방법은 영상 내의 화소성분 (컬러성분)과 영상복잡도 다중모드 복합(Multimodal Fusion) 방법을 통해 이루어지는 새로운 감정 추정기의 방법으로서, 카메라를 통해 얻은 주변 환경 영상을 분석하여 현재 상황이 인간의 감정에 어떠한 영향을 끼칠 수 있을 것인지에 대해 궁금증을 가지는 많은 사람들에게 필요한 인터페이스가 될 것이다.
전술한 본 발명에 따른 영상 내의 화소성분 및 영상복잡도를 이용한 2차원 감성 추정 방법은 이해를 돕기 위하여 도면에 도시된 실시 예로서 참고로 설명되었으나, 이는 예시적인 것에 불과하며, 당해 분야에서 통상적 지식을 가진 자라면 이로부터 다양한 변형 및 균등한 타 실시 예가 가능하다는 점을 이해할 것이다. 따라서 본 발명의 진정한 기술적 보호 범위는 첨부된 특허청구범위에 의해 정해져야 할 것이다.
Claims (9)
- 사용자의 전방으로부터 영상을 획득하는 단계;
상기 영상으로부터 서로 다른 두 가지의 영상 특징 값을 추출하는 단계; 그리고
상기 두 영상 특징 값을 2차원 감성 룰베이스 상에 맵핑하여 상기 사용자의 감성 상태를 평가하는 단계;를 포함하며,
상기 영상 특징 성분은 화소(칼라값)성분와 공간 복잡도이며, 그리고.
상기 2차원 감성 룰베이스는 불쾌-쾌 및 이완-긴장의 축을 가지는 러셀의 원형 모델에 따르는, 영상을 이용한 2차원 감성 추정 방법. - 제1항에 있어서,
상기 영상 특징 값을 추출하는 단계:는 화소(칼라값) 성분을 추출하는 단계를 더 포함하는 것을 특징으로 하는 영상을 이용한 2차원 감성 추정 방법. - 제1항 또는 제2항에 있어서,
상기 영상 특징 값을 추출하는 단계는: 상기 영상 내의 경계영역으로부터 사방 경계 성분을 추출하는 단계;를 더 포함하는 것을 특징으로 하는 영상을 이용한 2차원 감성 추정 방법. - 제2항에 있어서,
상기 영상 특징값을 룰베이스 상에 맵핑시키는 단계:는 상기 화소(칼라값) 성분을 프룻칙의 감성 휠에 맵핑하고 이에 따른 감성 값을 러셀의 2차원 원형 모델에 매칭시키는 것을 특징으로 하는 영상을 이용한 2차원 감성 추정 방법. - 제3항에 있어서,
상기 경계 성분은 프리윗 마스크를 적용하는 것을 특징으로 하는 영상을 이용한 2차원 감성 추정 방법. - 삭제
- 제1항에 있어서,
상기 화소(칼라값) 성분의 값은 긍정 및 부정 감성을 유발하는 색상 범위의 화소를 검출하는 것을 특징으로 하는 영상을 이용한 2차원 감성 추정 방법. - 사용자의 전방으로부터 영상을 획득하는 카메라; 그리고
상기 영상으로부터 서로 다른 두 가지의 영상 특징 값을 추출하고, 상기 두 영상 특징 값을 2차원 감성 룰베이스 상에 맵핑하여 상기 사용자의 감성 상태를 평가하는 분석 시스템;을 포함하며,
상기 영상 특징 값은 화소(칼라값)성분과 공간 복잡도이며, 그리고.
상기 2차원 감성 룰베이스는 불쾌-쾌 및 이완-긴장의 축을 가지는 러셀의 원형 모델에 따르는 것을 특징으로 하는, 영상을 이용한 2차원 감성 추정 시스템.
- 삭제
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020160005993A KR101744863B1 (ko) | 2016-01-18 | 2016-01-18 | 영상을 이용한 2차원 감성 추정 방법 및 시스템 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020160005993A KR101744863B1 (ko) | 2016-01-18 | 2016-01-18 | 영상을 이용한 2차원 감성 추정 방법 및 시스템 |
Publications (1)
Publication Number | Publication Date |
---|---|
KR101744863B1 true KR101744863B1 (ko) | 2017-06-20 |
Family
ID=59281108
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020160005993A KR101744863B1 (ko) | 2016-01-18 | 2016-01-18 | 영상을 이용한 2차원 감성 추정 방법 및 시스템 |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR101744863B1 (ko) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101814961B1 (ko) * | 2017-06-29 | 2018-01-03 | 상명대학교산학협력단 | 감성 동기화 기반의 사회 감성 추론 장치 및 그 방법 |
WO2019078407A1 (ko) * | 2017-10-18 | 2019-04-25 | 상명대학교산학협력단 | 주변 환경 영상을 이용한 감성 추정 장치 및 방법 |
KR20190044762A (ko) * | 2017-10-23 | 2019-05-02 | 연세대학교 산학협력단 | 감정 기반 객체 변환 장치 및 방법 |
-
2016
- 2016-01-18 KR KR1020160005993A patent/KR101744863B1/ko active IP Right Grant
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101814961B1 (ko) * | 2017-06-29 | 2018-01-03 | 상명대학교산학협력단 | 감성 동기화 기반의 사회 감성 추론 장치 및 그 방법 |
WO2019004511A1 (ko) * | 2017-06-29 | 2019-01-03 | 상명대학교산학협력단 | 감성 동기화 기반의 사회 감성 추론 장치 및 그 방법 |
WO2019078407A1 (ko) * | 2017-10-18 | 2019-04-25 | 상명대학교산학협력단 | 주변 환경 영상을 이용한 감성 추정 장치 및 방법 |
KR20190043391A (ko) * | 2017-10-18 | 2019-04-26 | 상명대학교산학협력단 | 주변 환경 영상을 이용한 감성 추정 장치 및 방법 |
KR102027494B1 (ko) * | 2017-10-18 | 2019-10-01 | 상명대학교산학협력단 | 주변 환경 영상을 이용한 감성 추정 장치 및 방법 |
KR20190044762A (ko) * | 2017-10-23 | 2019-05-02 | 연세대학교 산학협력단 | 감정 기반 객체 변환 장치 및 방법 |
KR102022479B1 (ko) * | 2017-10-23 | 2019-09-18 | 연세대학교 산학협력단 | 감정 기반 객체 변환 장치 및 방법 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Ibrahim et al. | An automatic Arabic sign language recognition system (ArSLRS) | |
US10872262B2 (en) | Information processing apparatus and information processing method for detecting position of object | |
EP2980755B1 (en) | Method for partitioning area, and inspection device | |
Ishikura et al. | Saliency detection based on multiscale extrema of local perceptual color differences | |
CN106960181B (zh) | 一种基于rgbd数据的行人属性识别方法 | |
KR101853006B1 (ko) | 깊이영상에서 코 검출을 이용한 얼굴 인식 | |
Hsieh et al. | A kinect-based people-flow counting system | |
CN109076159A (zh) | 电子设备及其操作方法 | |
Koniar et al. | Visual system-based object tracking using image segmentation for biomedical applications | |
KR101744863B1 (ko) | 영상을 이용한 2차원 감성 추정 방법 및 시스템 | |
Kalsh et al. | Sign language recognition system | |
KR20130015958A (ko) | 얼굴표정을 이용한 감정인식 장치, 감정인식 방법 및 그 기록매체 | |
Southwell et al. | Human object recognition using colour and depth information from an RGB-D Kinect sensor | |
Koniar et al. | Machine vision application in animal trajectory tracking | |
KR101614798B1 (ko) | 컬러 이미지 분석을 이용한 비접촉 멀티 터치 인식 방법 및 시스템 | |
CN112800923A (zh) | 人体图像质量检测方法及装置、电子设备、存储介质 | |
Madani et al. | A soft-computing-based approach to artificial visual attention using human eye-fixation paradigm: toward a human-like skill in robot vision | |
KR20130143405A (ko) | 깊이 정보 기반 사람의 피부 영역 검출 방법 | |
CN107977604B (zh) | 一种基于改进聚合通道特征的手部检测方法 | |
Zhao et al. | Octree segmentation based calling gesture recognition for elderly care robot | |
Park et al. | Design of RBFNNs Pattern Classifier Realized with the Aid of Face Features Detection | |
Gobhinath et al. | Implementation of Real Time Static Hand Gestures Recognition for Sign Language | |
Devi et al. | Active facial tracking | |
Totada | People Detection from Time-of-flight Imagery with Inpainting-based Preprocessing | |
Restif et al. | Tracking C. elegans swimming for high-throughput phenotyping |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |