KR20130014332A - 사용자의 감정 상태를 인식하는 방법 및 장치 - Google Patents

사용자의 감정 상태를 인식하는 방법 및 장치 Download PDF

Info

Publication number
KR20130014332A
KR20130014332A KR1020120032979A KR20120032979A KR20130014332A KR 20130014332 A KR20130014332 A KR 20130014332A KR 1020120032979 A KR1020120032979 A KR 1020120032979A KR 20120032979 A KR20120032979 A KR 20120032979A KR 20130014332 A KR20130014332 A KR 20130014332A
Authority
KR
South Korea
Prior art keywords
click
user
pattern
emotional state
classification
Prior art date
Application number
KR1020120032979A
Other languages
English (en)
Inventor
박정환
Original Assignee
박정환
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 박정환 filed Critical 박정환
Publication of KR20130014332A publication Critical patent/KR20130014332A/ko

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • A61B5/165Evaluating the state of mind, e.g. depression, anxiety
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/68Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient
    • A61B5/6887Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient mounted on external non-worn devices, e.g. non-medical devices
    • A61B5/6898Portable consumer electronic devices, e.g. music players, telephones, tablet computers
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/74Details of notification to user or communication with user or patient ; user input means
    • A61B5/742Details of notification to user or communication with user or patient ; user input means using visual displays
    • A61B5/743Displaying an image simultaneously with additional graphical information, e.g. symbols, charts, function plots
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/74Details of notification to user or communication with user or patient ; user input means
    • A61B5/7475User input or interface means, e.g. keyboard, pointing device, joystick

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Surgery (AREA)
  • General Health & Medical Sciences (AREA)
  • Biophysics (AREA)
  • Pathology (AREA)
  • Veterinary Medicine (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Public Health (AREA)
  • Animal Behavior & Ethology (AREA)
  • Physics & Mathematics (AREA)
  • Psychiatry (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Child & Adolescent Psychology (AREA)
  • Developmental Disabilities (AREA)
  • Educational Technology (AREA)
  • Hospice & Palliative Care (AREA)
  • Psychology (AREA)
  • Social Psychology (AREA)
  • Multimedia (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

사용자의 감정을 인식하는 방법 및 장치에 있어서, 사용자에 의한 클릭이 입력되는 동안 사용자의 클릭 패턴을 검출함으로써 사용자의 현재 감정 상태가 어떤 감정 상태인지를 파악할 수 있다.

Description

사용자의 감정 상태를 인식하는 방법 및 장치{Method and apparatus for perceiving emotional state of user}
사용자의 감정 상태를 인식하는 방법 및 장치에 관한 발명이다.
사용자의 감정 상태를 인식하기 위한 방법으로써, 대화하는 사용자의 음성을 분석하거나, 얼굴 인식 기술을 이용하여 사용자의 표정을 분석하는 방법 등을 이용하는 것이 알려져 있다. 그리고, 추가적인 외부 장치, 예를 들어 체온, 심박수 등을 측정하는 체온계, 심전도 장치 등을 이용함으로써 사용자의 감정 상태를 인식하고자 하는 것이 일반적이었다.
한국 등록/공고번호: 0903348 (특징 융합 기반 감정인식 방법 및 시스템)
본 발명의 적어도 하나의 실시예가 이루고자 하는 기술적 과제는 사용자의 감정 상태를 인식하는 방법 및 장치를 제공하는데 있다. 또한, 상기 방법을 컴퓨터에서 실행시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체를 제공하는데 있다. 본 실시예가 해결하려는 기술적 과제는 상기된 바와 같은 기술적 과제들로 한정되지 않으며, 또 다른 기술적 과제들이 존재할 수 있다.
일 측면에 따르면, 감정 인식 방법은 사용자에 의한 클릭을 입력받는 단계; 상기 입력되는 동안 상기 클릭에 의해 가해지는 압력 및 상기 클릭이 수행되는 속도 중 적어도 하나를 나타내는 클릭 패턴을 검출하는 단계; 상기 검출된 클릭 패턴이 서로 다른 감정 상태들을 나타내는 복수의 분류들 중 어느 분류에 대응되는지를 결정하는 단계; 및 상기 결정된 분류에 기초하여 상기 사용자의 현재 감정 상태를 나타내는 정보를 출력하는 단계를 포함한다.
다른 일 측면에 따르면, 상기 감정 인식 방법을 컴퓨터에서 실행시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체를 제공한다.
또 다른 일 측면에 따르면, 감정 인식 장치는 사용자에 의한 클릭을 입력받는 입력부; 상기 입력되는 동안 상기 클릭에 의해 가해지는 압력 및 상기 클릭이 수행되는 속도 중 적어도 하나를 나타내는 클릭 패턴을 검출하는 패턴 검출부; 상기 검출된 클릭 패턴이 서로 다른 감정 상태들을 나타내는 복수의 분류들 중 어느 분류에 대응되는지를 결정하는 결정부; 및 상기 결정된 분류에 기초하여 상기 사용자의 현재 감정 상태를 나타내는 정보를 출력하는 출력부를 포함한다.
상기된 바에 따르면, 일반적으로 사용되는 모바일 단말, 컴퓨팅 장치 등에 구비된 입력 장치를 통하여 이를 사용하는 사용자의 감정 상태를 실시간으로 인식할 수 있다. 또한, 모바일 단말, 컴퓨팅 장치 등과 네트워크상으로 연결된 외부의 타인의 장치들에게 사용자의 감정 상태를 실시간으로 전송할 수 있으므로, 타인은 사용자의 감정 상태를 쉽게 파악할 수 있다.
도 1은 본 발명의 일 실시예에 따른 감정 인식 장치의 구성도이다.
도 2는 본 발명의 다른 일 실시예에 따른 감정 인식 장치의 구성도이다.
도 3a는 본 발명의 일 실시예에 따른 패턴 검출부에서 압력에 대한 클릭 패턴을 검출하는 것을 도시한 도면이다.
도 3b는 본 발명의 일 실시예에 따른 패턴 검출부에서 클릭 속도에 대한 클릭 패턴을 검출하는 것을 도시한 도면이다.
도 4는 본 발명의 일 실시예에 따라 자극 검출부에서 외부 자극의 정도를 검출하는 것을 도시한 도면이다.
도 5는 본 발명의 일 실시예에 따른 감정을 인식하는 방법의 흐름도이다.
이하에서는 도면을 참조하여 본 발명의 실시예들을 상세히 설명하도록 하겠다.
도 1은 본 발명의 일 실시예에 따른 감정 인식 장치(1)의 구성도이다. 도 1을 참고하면, 감정 인식 장치(1)는 입력부(10), 패턴 검출부(20), 결정부(30) 및 출력부(40)로 구성된다. 도 1에서는 본 실시예의 특징이 흐려지는 것을 방지하기 위하여 본 실시예에 관련된 하드웨어 구성요소(hardware component)들만을 기술하기로 한다. 다만, 도 1에 도시된 하드웨어 구성요소들 외에 다른 범용적인 하드웨어 구성요소들이 포함될 수 있음을 본 실시예가 속하는 기술분야에서 통상의 지식을 가진 자라면 이해할 수 있다.
도 1에 도시된 감정 인식 장치(1)의 구성 요소들 중 패턴 검출부(20) 및 결정부(30)는 프로세서에 해당될 수 있다. 이 프로세서는 다수의 논리 게이트들의 어레이로 구현될 수 있고, 범용적인 마이크로프로세서와 이 마이크로프로세서에서 실행될 수 있는 프로그램이 저장된 메모리의 조합으로 구현될 수도 있다. 또한, 다른 형태의 하드웨어로 구현될 수도 있음을 본 실시예가 속하는 기술분야에서 통상의 지식을 가진 자라면 이해할 수 있다.
감정 인식 장치(1)는 휴대폰, PDA 등과 같은 모바일 단말, PC(personal computer), 노트북 등과 같은 컴퓨팅 장치, 스마트 TV 등과 같은 가전 제품 내부의 일부 장치로 구현되어 있을 수 있다.
본 실시예에 따른 감정 인식 장치(1)는 상기와 같은 장치들을 사용하는 사용자의 현재 감정 상태를 인식하는 장치로써, 네트워크(50)상에 연결된 다른 외부 장치에 사용자의 현재 감정 상태를 전송할 수 있는 기능을 갖는다.
종래에는, 사용자의 감정 상태를 인식하기 위하여 사용자의 음성을 분석하거나, 표정을 분석하는 방법 등을 이용하는 것이 일반적이었다. 또한, 추가적인 기기, 예를 들어 체온, 심박수 등을 측정하는 외부 기기를 이용함으로써 사용자의 감정 상태를 인식하고자 하는 것이 일반적이었다. 즉, 모바일 단말, 컴퓨팅 장치 등을 사용하는 패턴 등을 통해 직접적으로 사용자의 감정을 인식할 수는 없었다.
하지만, 사용자의 감정 상태는 예를 들어, 타인과의 대화 도중에 시시각각 변할 수 있는 것이기 때문에, 사용자의 감정 상태는 타인과의 메시지 또는 텍스트 등을 작성하는 습관에 바로 반영될 수 있다. 따라서, 모바일 단말, 컴퓨팅 장치 등에 정보를 입력하는 동안, 사용자의 키 입력 패턴, 또는 클릭 패턴 등을 통해 사용자의 감정 상태를 파악하는 것이 필요하다.
도 1을 참고하면, 입력부(10)는 사용자에 의한 클릭을 입력받는다. 입력부(10)는 모바일 단말 등에 구비된 일종의 입력 장치로써, 일반적으로 알려진 키보드, 키패드, 마우스 및 터치 스크린 중 어느 하나에 해당된다.
앞서 설명한 바와 같이, 사용자는 입력부(10)를 통해 타인에게 메세지를 보내거나, 메신저를 사용하여 대화 등을 할 수 있다.
패턴 검출부(20)는 입력부(10)를 통해 입력되는 동안 클릭에 의해 가해지는 압력 및 클릭이 수행되는 속도 중 적어도 하나를 나타내는 클릭 패턴을 검출한다.
이와 같은 패턴 검출부(20)는 앞서 설명된, 키보드, 키패드, 마우스 또는 터치 스크린에 추가적으로 구비된 압력 센서(pressure sensor), 압전 센서(piezoelectric sensor), 정전용량 센서(capacitive sensor) 등을 통해 감지된(sensed) 사용자가 키 또는 마우스 버튼을 클릭하는 압력에 기초하여 클릭 패턴을 검출할 수 있다. 여기서, 압력은 압력 센서, 압전 센서, 또는 정전용량 센서 등에서 감지된 압력 값이 전기 신호로 변환됨으로써 알 수 있고, 이와 같은 내용은 당해 기술 분야에서 자명하므로, 자세한 설명은 생략하도록 하겠다.
압력에 기초한 클릭 패턴을 검출하는 이유는, 일반적으로 사용자의 기분이 나쁠수록 사용자는 키 또는 마우스 버튼을 강하게 누르는 경향이 있기 때문이다. 따라서, 이와 같이 압력에 기초하여 클릭 패턴을 검출함으로써 사용자의 감정 상태를 판단하는 하나의 척도로써 이용할 수 있다. 또한, 특정 키의 빈도수를 검출하는 이유는, 사용자의 기분 상태에 따라 특정한 키를 반복적으로 누르는 습관이 있을 수 있기 때문이다.
도 3a는 본 발명의 일 실시예에 따른 패턴 검출부(도 1의 20)에서 압력에 대한 클릭 패턴을 검출하는 것을 도시한 도면이다. 도 3a를 참고하면, 참조번호 301은 사용자의 손가락이 터치 패널(310)을 클릭하는 동작을 도시한 도면이다. 사용자가 터치 패널(310)을 클릭할 때, 터치 패널(310)의 하단에 구비된 센서(320), 예를 들어 압력 센서 또는 압전 센서 등은 사용자의 클릭에 의해 가해지는 압력의 강도를 감지한다. 또한, 참조번호 302는 사용자의 손가락이 키패드 또는 키보드 상의 어느 키(330)를 클릭하는 동작을 도시한 도면이다. 사용자가 키(330)을 클릭할 때, 키(330)의 하단에 구비된 센서(340), 예를 들어 압력 센서 또는 압전 센서 등은 사용자의 클릭에 의해 가해지는 압력을 감지한다. 패턴 검출부(도 1의 20)는 이와 같이 사용자가 키 또는 마우스 버튼을 클릭할 때 키 또는 마우스 버튼을 누르는 강도를 나타내는 압력을 감지함으로써, 사용자의 클릭 패턴을 검출한다.
도 3a에서는 모바일 단말(303)의 터치 스크린만이 도시되었으나, 본 실시예에 따른 패턴 검출부(도 1의 20)는 PC, 노트북, 스마트 TV의 리모콘 등에 구비된 키보드, 키패드, 마우스 등인 경우에도 도 3a에서와 같이 클릭 압력에 대한 클릭 패턴을 검출할 수 있음을, 당해 기술분야에서 통상의 지식을 가진 자라면 이해할 수 있다.
다시 도 1을 참고하면, 패턴 검출부(20)는 클릭이 수행되는 속도에 기초하여 클릭 패턴을 검출할 수 있다. 예를 들어 사용자는 메세지를 작성할 때, 기분이 좋을수록 메시지를 빨리 작성할 수 있다. 그리고, 기분이 나쁠수록 흥분하여 메시지를 천천히 작성할 수 있다. 물론, 사용자의 개성에 따라 다를 수 있으므로, 반대의 경우일 수도 있다. 따라서, 이와 같이 클릭이 수행되는 속도에 기초하여 클릭 패턴을 검출함으로써 클릭되는 압력과 마찬가지로 사용자의 감정 상태를 판단하는 하나의 척도로써 이용할 수 있다.
도 3b는 본 발명의 일 실시예에 따른 패턴 검출부(도 1의 20)에서 클릭 속도에 대한 클릭 패턴을 검출하는 것을 도시한 도면이다. 도 3b를 참고하면, 모바일 단말(303)의 터치 스크린을 통해 사용자는 키를 클릭할 수 있다. 사용자가 메세지를 작성할 경우, 터치 스크린 상에는 쿼티(qwerty) 키보드와 같은 가상 키보드가 표시될 수 있다. 사용자가 메세지를 작성할 경우 가상 키보드상의 여러 키들을 클릭하여야 하므로, 이를 통하여 사용자가 여러 키들을 입력하는 속도를 알 수 있다. 예를 들어, 사용자가 1분에 120번의 키를 입력할 수 있다. 패턴 검출부(도 1의 20)는 이와 같이 입력된 키들의 입력 속도에 따른 클릭 패턴을 검출할 수 있다.
도 3b에서는 모바일 단말(303)의 터치 스크린만이 도시되었으나, 본 실시예에 따른 패턴 검출부(도 1의 20)는 PC, 노트북, 스마트 TV의 리모콘 등에 구비된 키보드, 키패드, 마우스 등인 경우에도 도 3b에서와 같이 클릭 속도에 대한 클릭 패턴을 검출할 수 있음을, 당해 기술분야에서 통상의 지식을 가진 자라면 이해할 수 있다.
다시 도 1을 참고하면, 패턴 검출부(20)는 앞서 설명된 클릭에 의해 가해지는 압력 또는 클릭이 수행되는 속도 중 어느 하나를 이용하여 클릭 패턴을 검출할 수 있고, 또는 클릭에 의해 가해지는 압력 및 클릭이 수행되는 속도가 모두 조합된 클릭 패턴을 검출할 수 있다. 이는 사용자의 사용 환경, 또는 사용자의 설정에 의해 변경될 수 있음을 당해 기술 분야에서 통상의 지식을 가진 자라면 이해할 수 있다.
나아가서, 패턴 검출부(20)는 특정 키가 반복적으로 클릭되는 빈도를 검출한다. 예를 들어, 사용자는 메시지를 작성할 때, 기분에 따라 'ㅋㅋㅋㅋ' 또는 'ㅎㅎㅎㅎ'와 같이 특정키를 반복적으로 클릭할 수 있다. 따라서, 패턴 검출부(20)는 이와 같이 어느 키의 클릭이 반복되는 빈도를 검출함으로써 사용자의 감정 상태를 판단하는 다른 하나의 척도로 이용할 수 있다. 즉, 패턴검출부(20)는 앞서 설명한 속도 및 압력에 따른 클릭 패턴과 함께 빈도에 따른 클릭패턴을 더 고려하여 사용자의 감정 상태 판단에 이용할 수 있다.
결정부(30)는 검출된 클릭 패턴이 서로 다른 감정 상태들을 나타내는 복수의 분류들 중 어느 분류에 대응되는지를 결정한다.
본 실시예에서 서로 다른 감정 상태들을 나타내는 복수의 분류들은 '기쁨', '슬픔', '무료함', '분노' 및 '무감정'으로 구분될 수 있다. 이와 같은 분류들은 단지 예시적인 것들로써, 사용자의 설정이나 사용 환경에 따라 변경될 수 있음을 당해 기술 분야에서 통상의 지식을 가진 자라면 이해할 수 있다.
결정부(30)에서 어느 분류에 대응되는지를 결정하기 위하여, 결정부(30)는 검출된 클릭 패턴에 대응되는 신호 값을 이와 같은 분류들 각각에 대응되는 임계 범위와 비교함으로써 분류를 결정한다.
보다 상세하게 예를 들어 설명하면, 검출된 클릭 패턴에 대응되는 신호 값을 이용하여 '기쁨', '무감정', '분노'에 대한 감정 상태의 분류들 중 어느 하나의 분류를 결정하는 것을 설명하면 다음과 같다.
앞서 설명된 바와 같이, 검출된 클릭 패턴은 클릭에 의해 가해지는 압력 및 클릭이 수행되는 속도 중 적어도 하나를 이용하여 검출된 것이다.
우선, 클릭에 의해 가해지는 압력에만 기초한 클릭 패턴을 이용하는 경우에 대해서는 표 1을 참고하여 설명하도록 하겠다.
압력 크기 감정 상태의 분류
P1~P2 기쁨
P3~P4 무감정
P5~P6 분노
표 1에 따르면, P1 내지 P6는 임의의 압력 값을 나타내는 변수들로써, 사용자의 사용 환경에 따라 임의로 설정될 수 있는 값이다.
패턴 검출부(20)에서 검출된 클릭 패턴이 압력에만 기초한 경우, 클릭되는 압력의 강도는 상대적인 신호 값으로 표현할 수 있다. 그리고, 표 1과 같이, 이 신호 값의 범위에 따라 감정 상태의 분류들 각각에 대응되는 임계 범위를 정의할 수 있다. 즉, 압력 크기가 P1~P2인 경우에는 '기쁨'의 감정 상태, P3~P4인 경우에는 '무감정'의 감정 상태, P5~P6인 경우에는 '분노'의 감정 상태의 3 가지 경우들로 구분할 수 있다.
그러므로, 패턴 검출부(20)에서 압력에만 기초한 클릭 패턴을 검출한 결과 사용자의 클릭 패턴에 대응되는 신호 값이 19이고 이는 P3~P4내에 포함되는 경우, 결정부(30)는 표 1에 의할 때 사용자의 감정 상태의 분류가 '무감정'에 해당되는 것으로 결정한다. 또는, 클릭 패턴의 검출 결과 사용자의 클릭 패턴에 대응되는 신호 값이 29이고 이는 P5~P6내에 포함되는 경우, 결정부(30)는 표 1에 의할 때 사용자의 감정 상태의 분류가 '분노'에 해당되는 것으로 결정한다.
상기된 방법을 이용하여, 결정부(30)는 검출된 클릭 패턴이 어느 분류에 대응되는지를 결정한다. 상기된 방법은 설명의 편의를 위하여 예를 든 것일 뿐, 사용자의 설정 또는 사용 환경에 따라 감정 상태의 분류들, 임계 범위 등은 변경될 수 있음을 당해 기술 분야에서 통상의 지식을 가진 자라면 이해할 수 있다. 하지만, 상기된 방법은 압력에만 기초한 클릭 패턴의 경우만을 설명한 것이다.
다음으로, 클릭이 수행되는 속도에만 기초한 클릭 패턴을 이용하는 경우에 대해서는 표 2를 참고하여 설명하도록 하겠다.
속도 (단위는 타수/min) 감정 상태의 분류
S1~S2 분노
S3~S4 무감정
S5~S6 기쁨
표 2에 따르면, S1 내지 S6는 임의의 압력 값을 나타내는 변수들로써, 사용자의 사용 환경에 따라 임의로 설정될 수 있는 값이다.
패턴 검출부(20)에서 검출된 클릭 패턴이 클릭이 수행되는 속도에만 기초한 경우, 클릭이 수행되는 속도는 예를 들어 타수/분(min)의 단위를 갖는 신호 값으로 표현할 수 있다. 그리고, 표 2과 같이, 이 신호 값의 범위에 따라 감정 상태의 분류들 각각에 대응되는 임계 범위를 정의할 수 있다. 즉, 속도가 S1~S2인 경우에는 '분노'의 감정 상태, S3~S4인 경우에는 '무감정'의 감정 상태, S5~S6인 경우에는 '기쁨'의 감정 상태의 3 가지 경우들로 구분할 수 있다.
그러므로, 패턴 검출부(20)에서 클릭이 수행되는 속도에만 기초한 클릭 패턴을 검출한 결과 사용자의 클릭 패턴에 대응되는 신호 값이 50이고 이는 S3~S4내에 포함되는 경우, 결정부(30)는 표 2에 의할 때 사용자의 감정 상태의 분류가 '무감정'에 해당되는 것으로 결정한다. 또는, 클릭 패턴의 검출 결과 사용자의 클릭 패턴에 대응되는 신호 값이 15이고 이는 S5~S6내에 포함되는 경우, 결정부(30)는 표 2에 의할 때 사용자의 감정 상태의 분류가 '분노'에 해당되는 것으로 결정한다.
상기된 방법을 이용하여, 결정부(30)는 검출된 클릭 패턴이 어느 분류에 대응되는지를 결정한다. 상기된 방법은 설명의 편의를 위하여 예를 든 것일 뿐, 사용자의 설정 또는 사용 환경에 따라 감정 상태의 분류들, 임계 범위 등은 변경될 수 있음을 당해 기술 분야에서 통상의 지식을 가진 자라면 이해할 수 있다. 하지만, 상기된 방법은 클릭이 수행되는 속도에만 기초한 클릭 패턴의 경우만을 설명한 것이다.
마지막으로, 클릭에 의해 가해지는 압력 및 클릭이 수행되는 속도 모두에 기초한 클릭 패턴을 이용하는 경우에 대해서는 이하에 설명하도록 하겠다.
패턴 검출부(20)에서 검출된 클릭 패턴이 클릭에 의해 가해지는 압력 및 클릭이 수행되는 속도 모두에 기초한 경우, 압력의 신호 값에 대해 x의 가중치를 부여할 수 있고, 속도의 신호 값에 대해 y의 가중치를 부여할 수 있다. 그리고, 다음과 같은 수학식 1을 이용하여 가중치가 반영된 최종 신호 값을 획득할 수 있다.
Figure pat00001
수학식 1을 참고하면, P는 압력의 신호 값, S는 속도의 신호 값, x는 압력의 신호 값에 대한 가중치, y는 속도의 신호 값에 대한 가중치, Q는 최종 신호 값을 의미한다.
클릭에 의해 가해지는 압력 및 클릭이 수행되는 속도 모두에 기초한 클릭 패턴을 이용하는 경우에 대해서는 표 3에 따라 감정 상태가 분류될 수 있다.
최종 신호 값 감정 상태의 분류
Q1~Q2 기쁨
Q3~Q4 무감정
Q5~Q6 분노
표 3에 따르면, Q1 내지 Q6는 임의의 압력 값을 나타내는 변수들로써, 사용자의 사용 환경에 따라 임의로 설정될 수 있는 값이다.
따라서, 수학식 1에 따른 최종 신호 값이 Q1~Q2인 경우에는 '기쁨'의 감정 상태, 최종 신호 값이 Q3~Q4인 경우에는 '무감정'의 감정 상태, 최종 신호 값이 Q5~Q6인 경우에는 '분노'의 감정 상태의 3 가지 경우들로 구분할 수 있다.
상기된 방법들을 이용하여, 결정부(30)는 검출된 클릭 패턴이 어느 분류에 대응되는지를 결정한다.
결정부(30)는 압력의 신호 값 및 속도의 신호 값 각각의 가중치를 반영하여 조합된 신호 값에 대응되는 미리 설정된 임계 범위와 비교함으로써 보다 정확한 감정 상태의 분류를 결정할 수 있다. 나아가서, 결정부(30)는 앞서 설명한 바와 같이, 패턴 검출부(20)에서 검출된 특정 키의 클릭 빈도를 더 고려하여 사용자의 감정 상태의 분류를 결정할 수 있다.
즉, 상기된 방법들은 설명의 편의를 위하여 예를 든 것일 뿐, 사용자의 설정 또는 사용 환경에 따라 감정 상태의 분류들, 임계 범위 등은 변경될 수 있음을 당해 기술 분야에서 통상의 지식을 가진 자라면 이해할 수 있다. 다시 한번 설명하면, 표 1 내지 표 3은 예시적인 것일 뿐이다.
다시 도 1을 참고하면, 출력부(40)는 결정된 분류에 기초하여 사용자의 현재 감정 상태를 나타내는 정보를 출력한다. 구체적으로, 출력부(40)는 감정 상태를 나타내는 정보에 대응되는 이모티콘, 텍스트 및 그림 중 적어도 하나의 형태로 출력한다. 여기서, 출력부(40)는 감정 인식 장치(1)가 구비된 모바일 단말, 컴퓨팅 장치 등에서 동작하는 다른 응용 프로그램으로 출력될 수 있다. 예를 들어, 감정 인식 장치(1)가 구비된 모바일 단말, 컴퓨팅 장치 등에서 동작되는 메신저 응용 프로그램에 출력부(40)에서 출력된 감정 상태를 나타내는 정보가 전달되어 활용될 수 있다.
앞서 설명한 바와 같이, 본 실시예에 따른 감정 인식 장치(1)는 모바일 단말, 컴퓨팅 장치, 스마트 TV의 리모콘 등에 구비된 장치일 수 있다. 여기서, 모바일 단말, 컴퓨팅 장치, 스마트 TV 등은 그 자체로 네트워크(50)를 통한 통신 기능을 갖는 장치들이므로, 감정 인식 장치(1)에 의해 인식된 사용자의 감정 상태는 네트워크(50)상의 외부의 다른 모바일 단말, 컴퓨팅 장치, 서버 등에 전달될 수 있다.
출력부(40)는 이와 같이, 결정부(30)에서 결정된 분류에 기초한 사용자의 현재 감정 상태를 나타내는 이모티콘, 텍스트, 또는 그림 등을 출력한다.
만약, 감정 인식 장치(1)의 사용자가 모바일 단말을 통한 메세지 대화 중이거나, 컴퓨팅 장치를 통한 메신저 채팅을 수행하는 경우, 출력부(40)가 결정된 감정 상태의 분류에 따른 사용자의 현재 감정 상태를 나타내는 정보를 메시징 응용 프로그램에 전송함으로써, 메시징 응용 프로그램에서 이를 활용할 수 있다. 또한, 네트워크(50)상의 다른 모바일 단말, 컴퓨팅 장치, 서버 등에 현재 감정 상태를 나타내는 정보가 직접적으로 전송될 수 있다. 이를 통해 네트워크(50)상의 타인은 감정 인식 장치(1)의 사용자의 감정을 파악할 수 있다.
도 2는 본 발명의 다른 일 실시예에 따른 감정 인식 장치(100)의 구성도이다. 도 2를 참고하면, 감정 인식 장치(100)는 도 1의 감정 인식 장치(1)와 동일한 구성 요소들인 입력부(10), 패턴 검출부(20), 결정부(30) 및 출력부(40)를 포함한다. 그러나, 감정 인식 장치(100)는 이 밖에도 도 2에서 점선으로 표시된 구성 요소들인 저장부(60), 학습부(70), 자극 검출부(80) 및 텍스트 분석부(90) 중 적어도 하나를 포함할 수 있다.
도 2에서는 본 실시예의 특징이 흐려지는 것을 방지하기 위하여 본 실시예에 관련된 하드웨어 구성요소(hardware component)들만을 기술하기로 한다. 다만, 도 2에 도시된 하드웨어 구성요소들 외에 다른 범용적인 하드웨어 구성요소들이 포함될 수 있음을 본 실시예가 속하는 기술분야에서 통상의 지식을 가진 자라면 이해할 수 있다.
도 2를 참고하면, 저장부(60)는 서로 다른 감정 상태들을 나타내는 복수의 분류들 및 그에 대응되는 임계 범위에 대한 정보가 미리 저장되어 있다. 즉, 결정부(30)는 저장부(60)에 저장된 상기 정보를 독출함으로써 감정 상태의 분류를 결정할 수 있다.
학습부(70)는 감정 상태들을 나타내는 분류들 및 그에 대응되는 임계 범위를 사용자의 클릭 패턴에 기초하여 학습한다. 감정 인식 장치(100)의 결정부(30)는 저장부(60)에 미리 저장된 정보를 이용하여 감정 상태의 분류를 결정할 수 있다. 나아가서, 사용자의 설정 또는 사용 환경에 따라 학습부(70)의 기능이 활성화된 경우, 패턴 검출부(20)에서 검출된 클릭 패턴에 대해 사용자가 감정 상태를 직접 입력하고 학습부(70)는 이에 기초하여 학습할 수 있다. 학습부(70)는 사용자의 클릭 패턴에 기초하여 학습한 경우, 저장부(60)에 저장된 정보를 갱신시킬 수 있다.
도 2를 참고하면, 자극 검출부(80) 및 텍스트 분석부(90)가 도시되어 있다. 이와 같은 구성 요소들로부터 획득된 정보들은 결정부(30)에서 패턴 검출부(20)에서 검출된 클릭 패턴과 함께 고려될 수 있다. 즉, 다른 일 실시예에 따른 감정 인식 장치(100)는 자극 검출부(80) 및 텍스트 분석부(90) 중 적어도 어느 하나를 더 구비하고 이를 이용함으로써, 감정 상태를 인식할 수 있다.
자극 검출부(80)는 사용자에 의하여 감정 인식 장치(100)에 가해지는 외부 자극의 정도를 검출한다. 예를 들어, 자극 검출부(80)는 3축센서, 6축센서 등과 같은 자이로스코프(gyroscope) 센서 등에 해당될 수 있다.
도 4는 본 발명의 일 실시예에 따라 자극 검출부(80)에서 외부 자극의 정도를 검출하는 것을 도시한 도면이다. 도 4를 참고하면, 자극 검출부(80)가 자이로스코프(gyroscope) 센서인 경우, 모바일 단말의 3축(410)의 움직임 정도를 검출함으로써 모바일 단말 내의 감정 인식 장치(100)에 가해진 외부 자극의 정도를 검출한다. 예를 들어, 사용자가 '분노'의 감정 상태를 갖는 경우 모바일 단말을 많이 흔드는 경향을 나타낼 수 있으므로, 자극 검출부(80)는 이와 같은 경향을 검출한다.
다시 도 2를 참고하면, 결정부(30)는 패턴 검출부(20)에서 검출된 클릭 패턴과 자극 검출부(80)에서 검출된 외부 자극의 정도를 함께 고려하여 감정 상태의 분류를 결정한다.
텍스트 분석부(90)는 사용자의 클릭에 의해 작성된 텍스트의 의미를 분석한다. 사용자는 감정 상태가 '기쁨'인 경우에는 '좋다', '사랑해' 등과 같은 의미의 텍스트를 작성하는 경향이 있고, 반대로 '분노'의 감정 상태인 경우에는 '짜증난다', '화난다' 등과 같은 의미의 텍스트를 작성하는 경향이 있다. 텍스트 분석부(90)는 당해 기술 분야에서 이미 알려진 텍스트 분석 방법을 이용하여 이와 같이 사용자의 클릭에 의해 작성된 텍스트의 의미를 분석한다.
결정부(30)는 패턴 검출부(20)에서 검출된 클릭 패턴과 텍스트 분석부(90)에서 분석된 텍스트의 의미를 함께 고려하여 감정 상태의 분류를 결정한다.
앞서 살펴본, 감정 인식 장치(100)에서 자극 검출부(80) 및 텍스트 분석부(90)는 모두 구비되어 있거나, 또는 어느 하나만 구비되어 패턴 검출부(20)와 함께 감정 인식에 이용될 수 있다.
도 5는 본 발명의 일 실시예에 따른 감정을 인식하는 방법의 흐름도이다. 도 5를 참고하면, 본 실시예에 따른 감정 인식 방법은 도 1에 도시된 감정 인식 장치(1)에서 시계열적으로 처리되는 단계들로 구성된다. 따라서, 이하 생략된 내용이라 하더라도 상기 도면들에 관하여 기술된 내용은 본 실시예에 따른 감정 인식 방법에도 적용된다.
510 단계에서 입력부(10)는 사용자에 의한 클릭을 입력받는다.
520 단계에서 패턴 검출부(20)는 입력되는 동안 클릭에 의해 가해지는 압력 및 클릭이 수행되는 속도 중 적어도 하나를 나타내는 클릭 패턴을 검출한다.
530 단계에서 결정부(30)는 검출된 클릭 패턴이 서로 다른 감정 상태들을 나타내는 복수의 분류들 중 어느 분류에 대응되는지를 결정한다.
540 단계에서 출력부(40)는 결정된 분류에 기초하여 사용자의 현재 감정 상태를 나타내는 정보를 출력한다.
한편, 상술한 본 발명의 실시예들은 컴퓨터에서 실행될 수 있는 프로그램으로 작성 가능하고, 컴퓨터로 읽을 수 있는 기록매체를 이용하여 상기 프로그램을 동작시키는 범용 디지털 컴퓨터에서 구현될 수 있다. 또한, 상술한 본 발명의 실시예에서 사용된 데이터의 구조는 컴퓨터로 읽을 수 있는 기록매체에 여러 수단을 통하여 기록될 수 있다. 상기 컴퓨터로 읽을 수 있는 기록매체는 마그네틱 저장매체(예를 들면, 롬, 플로피 디스크, 하드 디스크 등), 광학적 판독 매체(예를 들면, 시디롬, 디브이디 등)와 같은 저장매체를 포함한다.
이제까지 본 발명에 대하여 그 바람직한 실시예들을 중심으로 살펴보았다. 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자는 본 발명이 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 변형된 형태로 구현될 수 있음을 이해할 수 있을 것이다. 그러므로 개시된 실시예들은 한정적인 관점이 아니라 설명적인 관점에서 고려되어야 한다. 본 발명의 범위는 전술한 설명이 아니라 특허청구범위에 나타나 있으며, 그와 동등한 범위 내에 있는 모든 차이점은 본 발명에 포함된 것으로 해석되어야 할 것이다.
1: 감정 인식 장치 10: 입력부
20: 패턴 검출부 30: 결정부
40: 출력부 50: 네트워크

Claims (20)

  1. 사용자에 의한 클릭을 입력받는 단계;
    상기 입력되는 동안 상기 클릭에 의해 가해지는 압력 및 상기 클릭이 수행되는 속도 중 적어도 하나를 나타내는 클릭 패턴을 검출하는 단계;
    상기 검출된 클릭 패턴이 서로 다른 감정 상태들을 나타내는 복수의 분류들 중 어느 분류에 대응되는지를 결정하는 단계; 및
    상기 결정된 분류에 기초하여 상기 사용자의 현재 감정 상태를 나타내는 정보를 출력하는 단계를 포함하는 것을 특징으로 하는 감정 인식 방법.
  2. 제 1 항에 있어서,
    상기 결정하는 단계는
    상기 검출된 클릭 패턴에 대응되는 신호 값을 상기 분류들 각각에 대응되는 임계 범위와 비교함으로써 상기 분류를 결정하는 것을 특징으로 하는 방법.
  3. 제 1 항에 있어서,
    상기 결정하는 단계는
    상기 감정 상태들을 확률적으로 분류하는 확률 모델에 상기 검출된 클릭 패턴에 대응되는 신호 값을 대입하여 상기 분류를 결정하는 것을 특징으로 하는 방법.
  4. 제 2 항 또는 제 3 항에 있어서,
    상기 분류들, 상기 임계 범위 및 상기 확률 모델 중 적어도 하나는 미리 저장되고, 상기 사용자에 의해 설정 가능한 것을 특징으로 하는 방법.
  5. 제 2 항 또는 제 3 항에 있어서,
    상기 분류들, 상기 임계 범위 및 상기 확률 모델 중 적어도 하나를 상기 사용자의 클릭 패턴에 기초하여 학습하는 단계를 더 포함하고,
    상기 결정하는 단계는
    상기 학습된 분류들, 임계 범위 및 확률 모델 중 적어도 하나에 기초하여 상기 분류를 결정하는 것을 특징으로 하는 방법.
  6. 제 1 항에 있어서,
    상기 검출하는 단계는
    키가 상기 사용자에 의해 반복적으로 클릭된 빈도를 나타내는 클릭 패턴을 더 검출하는 것을 특징으로 하는 방법.
  7. 제 1 항에 있어서,
    상기 클릭에 의해 작성된 텍스트의 의미를 분석하는 단계를 더 포함하고,
    상기 결정하는 단계는
    상기 검출된 클릭 패턴과 상기 분석된 텍스트의 의미를 함께 고려하여 상기 분류를 결정하는 것을 특징으로 하는 방법.
  8. 제 1 항에 있어서,
    상기 출력하는 단계는
    상기 감정 상태를 나타내는 정보에 대응되는 이모티콘, 텍스트 및 그림 중 적어도 하나의 형태로 출력하는 것을 특징으로 하는 방법.
  9. 제 1 항에 있어서,
    상기 클릭은 키보드, 키패드, 마우스 및 터치 스크린 중 어느 하나를 통한 입력인 것을 특징으로 하는 방법.
  10. 제 1 항 내지 제 9 항 중 어느 한 항의 방법을 컴퓨터에서 실행시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체.
  11. 사용자에 의한 클릭을 입력받는 입력부;
    상기 입력되는 동안 상기 클릭에 의해 가해지는 압력 및 상기 클릭이 수행되는 속도 중 적어도 하나를 나타내는 클릭 패턴을 검출하는 패턴 검출부;
    상기 검출된 클릭 패턴이 서로 다른 감정 상태들을 나타내는 복수의 분류들 중 어느 분류에 대응되는지를 결정하는 결정부; 및
    상기 결정된 분류에 기초하여 상기 사용자의 현재 감정 상태를 나타내는 정보를 출력하는 출력부를 포함하는 것을 특징으로 하는 감정 인식 장치.
  12. 제 11 항에 있어서,
    상기 결정부는
    상기 검출된 클릭 패턴에 대응되는 신호 값을 상기 분류들 각각에 대응되는 임계 범위와 비교함으로써 상기 분류를 결정하는 것을 특징으로 하는 장치.
  13. 제 11 항에 있어서,
    상기 결정부는
    상기 감정 상태들을 확률적으로 분류하는 확률 모델에 상기 검출된 클릭 패턴에 대응되는 신호 값을 대입하여 상기 분류를 결정하는 것을 특징으로 하는 장치.
  14. 제 12 항 또는 제 13 항에 있어서,
    상기 분류들, 상기 임계 범위 및 상기 확률 모델 중 적어도 하나가 미리 저장된 저장부를 더 포함하는 것을 특징으로 하는 장치.
  15. 제 12 항 또는 제 13 항에 있어서,
    상기 분류들, 상기 임계 범위 및 상기 확률 모델 중 적어도 하나를 상기 사용자의 클릭 패턴에 기초하여 학습하는 학습부를 더 포함하고,
    상기 결정부는 상기 학습된 분류들, 임계 범위 및 확률 모델 중 적어도 하나에 기초하여 상기 분류를 결정하는 것을 특징으로 하는 장치.
  16. 제 11 항에 있어서,
    상기 패턴 검출부는
    키가 상기 사용자에 의해 반복적으로 클릭된 빈도를 나타내는 클릭 패턴을 더 검출하는 것을 특징으로 하는 장치.
  17. 제 11 항에 있어서,
    상기 클릭에 의해 작성된 텍스트의 의미를 분석하는 텍스트 분석부를 더 포함하고,
    상기 결정부는 상기 검출된 클릭 패턴과 상기 분석된 텍스트의 의미를 함께 고려하여 상기 분류를 결정하는 것을 특징으로 하는 장치.
  18. 제 11 항에 있어서,
    상기 출력부는
    상기 감정 상태를 나타내는 정보에 대응되는 이모티콘, 텍스트 및 그림 중 적어도 하나의 형태로 전송하는 것을 특징으로 하는 장치.
  19. 제 11 항에 있어서,
    상기 출력부는
    상기 현재 감정 상태를 나타내는 정보를 상기 감정 인식 장치가 구비된 디바이스의 응용 프로그램 및 네트워크 상의 외부의 디바이스 중 적어도 하나로 전송하는 것을 특징으로 하는 장치.
  20. 제 11 항에 있어서,
    상기 입력부는 키보드, 키패드, 마우스 및 터치 스크린 중 어느 하나인 것을 특징으로 하는 장치.
KR1020120032979A 2011-07-29 2012-03-30 사용자의 감정 상태를 인식하는 방법 및 장치 KR20130014332A (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR20110076099 2011-07-29
KR1020110076099 2011-07-29

Publications (1)

Publication Number Publication Date
KR20130014332A true KR20130014332A (ko) 2013-02-07

Family

ID=47894597

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020120032979A KR20130014332A (ko) 2011-07-29 2012-03-30 사용자의 감정 상태를 인식하는 방법 및 장치

Country Status (1)

Country Link
KR (1) KR20130014332A (ko)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102254708B1 (ko) * 2020-02-26 2021-05-21 이화여자대학교 산학협력단 스트레처블 디스플레이를 이용한 형상 출력 장치 및 방법
WO2022169708A1 (en) * 2021-02-02 2022-08-11 KeyWise, Inc. Methods and systems for assessing brain health using keyboard data
WO2022211607A1 (ko) * 2021-03-30 2022-10-06 남상철 감정상태 분류를 통한 솔루션 제공 방법

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102254708B1 (ko) * 2020-02-26 2021-05-21 이화여자대학교 산학협력단 스트레처블 디스플레이를 이용한 형상 출력 장치 및 방법
WO2022169708A1 (en) * 2021-02-02 2022-08-11 KeyWise, Inc. Methods and systems for assessing brain health using keyboard data
WO2022211607A1 (ko) * 2021-03-30 2022-10-06 남상철 감정상태 분류를 통한 솔루션 제공 방법

Similar Documents

Publication Publication Date Title
US11829720B2 (en) Analysis and validation of language models
US10126826B2 (en) System and method for interaction with digital devices
EP2730223B1 (en) Apparatus and method for determining user's mental state
US8793621B2 (en) Method and device to control touchless recognition
CN107533430A (zh) 触摸输入作为非预期的或预期的分类
CN109891374B (zh) 用于与数字代理的基于力的交互的方法和计算设备
KR20170029398A (ko) 어플리케이션 제공 방법 및 이를 위한 전자 기기
Reynolds et al. Designing for affective interactions
Buschek et al. Personal mobile messaging in context: Chat augmentations for expressiveness and awareness
Yoon et al. Lightful user interaction on smart wearables
EP3397982A1 (en) Indoor room-localization system and method thereof
KR102093328B1 (ko) 사용자 사진의 의류 및 환경 정보를 이용하여 의류를 추천하는 방법 및 시스템
KR20130014332A (ko) 사용자의 감정 상태를 인식하는 방법 및 장치
KR101567154B1 (ko) 다중 사용자 기반의 대화 처리 방법 및 이를 수행하는 장치
KR101337420B1 (ko) 감성대화단말기
CN107958273A (zh) 音量调节方法、装置及存储介质
CN104750401A (zh) 一种触控方法、相关装置以及终端设备
US20230394248A1 (en) Injection of user feedback into language model adaptation
US20220222955A1 (en) Context-based shape extraction and interpretation from hand-drawn ink input
WO2023036810A1 (en) Method for detecting user input to a breath input configured user interface
Jenkins et al. LeapASL: A platform for design and implementation of real time algorithms for translation of American Sign Language using personal supervised machine learning models
CN114970562A (zh) 语义理解方法、装置、介质及设备
Modzelewski et al. Hand gesture recognition interface for visually impaired and blind people
KR20180033777A (ko) 번역문과 함께 이미지를 제공하는 방법, 장치 및 컴퓨터 프로그램
Fernández et al. Real-time operating hand detection for the optimization of mobile web interfaces

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E601 Decision to refuse application