KR20100100380A - 상황 정보와 감정 인식을 사용한 유비쿼터스 환경의 최적 서비스 추론 방법 및 시스템 - Google Patents

상황 정보와 감정 인식을 사용한 유비쿼터스 환경의 최적 서비스 추론 방법 및 시스템 Download PDF

Info

Publication number
KR20100100380A
KR20100100380A KR1020090019244A KR20090019244A KR20100100380A KR 20100100380 A KR20100100380 A KR 20100100380A KR 1020090019244 A KR1020090019244 A KR 1020090019244A KR 20090019244 A KR20090019244 A KR 20090019244A KR 20100100380 A KR20100100380 A KR 20100100380A
Authority
KR
South Korea
Prior art keywords
information
emotion
user
ubiquitous environment
optimal service
Prior art date
Application number
KR1020090019244A
Other languages
English (en)
Inventor
심귀보
고광은
Original Assignee
중앙대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 중앙대학교 산학협력단 filed Critical 중앙대학교 산학협력단
Priority to KR1020090019244A priority Critical patent/KR20100100380A/ko
Priority to US12/625,530 priority patent/US8341109B2/en
Publication of KR20100100380A publication Critical patent/KR20100100380A/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/004Artificial life, i.e. computing arrangements simulating life
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F17/00Digital computing or data processing equipment or methods, specially adapted for specific functions

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

상황 정보와 감정 인식을 사용한 유비쿼터스 환경의 최적 서비스 추론 방법 및 시스템을 개시한다. 상황 정보와 감정 인식을 사용한 유비쿼터스 환경의 최적 서비스 추론 시스템은 사용자 주변의 정보를 수집하는 유비쿼터스 환경; 상기 유비쿼터스 환경에서 수집한 정보를 기초로 사용자의 상태를 인식하여 상황 정보로 생성하는 상황 인식부; 상기 유비쿼터스 환경에서 수집한 정보를 기초로 사용자의 감정을 인식하여 감정 정보로 생성하는 감정 인식부; 상기 상황 정보와 상기 감정 정보를 융합하는 융합부; 및, 상기 융합부에서 융합된 결과를 기초로 사용자에게 적합한 서비스를 추론하여 선택하는 서비스 선택부를 포함한다.
Figure P1020090019244
추론, 유비쿼터스, 서비스, 감정, 상태.

Description

상황 정보와 감정 인식을 사용한 유비쿼터스 환경의 최적 서비스 추론 방법 및 시스템{METHOD AND SYSTEM FOR OPTIMIZED SERVICE INFERENCE OF UBIQUITOUS ENVIRONMENT USING EMOTION RECOGNITION AND SITUATION INFORMATION}
본 발명은 유비쿼터스 환경의 최적 서비스 추론 방법 및 시스템에 관한 것으로, 더욱 상세하게는 상황 정보와 감정 인식을 사용하여 사용자에게 최적화된 서비스를 추론하는 유비쿼터스 환경의 최적 서비스 추론 방법 및 시스템에 관한 것이다.
종래의 유비쿼터스 환경에서 사용자에게 제공하는 서비스를 추론하는 방법은 사용자의 동작이나 사용자가 있는 위치와 같은 사용자의 상태를 기준으로 사용자에게 적합한 서비스를 추론하여 제공하였다.
그러나, 사람은 같은 장소나 같은 동작을 하고 있는 경우에도 감정에 따라 동일 서비스에 대한 느낌이 다를 수 있다.
일례로 평소에는 즐겨 듣는 음악이 짜증 난 상태에서는 짜증을 더 할 수도 있고, 평소에 자주 보던 이미지도 화가 날 때는 보기 싫을 수가 있다.
따라서, 사용자가 어떤 감정을 가지고 있는 지를 인식하고, 사용자의 감정 과 사용자의 상태를 모두 고려하여 사용자가 같은 행동을 하더라도 그 행동을 하는 사용자의 감정 상태에 따라 각기 다른 서비스를 추론하여 제공할 수 있는 유비쿼터스 환경의 최적 서비스 추론 방법 및 시스템이 필요한 실정이다.
본 발명은 유비쿼터스 환경을 사용하여 사용자의 동작이나 위치와 같은 사용자의 상태와 사용자의 감정을 확인하고, 사용자의 상태와 감정을 고려하여 사용자가 필요로 하는 서비스를 제공할 수 있는 상황 정보와 감정 인식을 사용한 유비쿼터스 환경의 최적 서비스 추론 방법 및 시스템을 제공한다.
본 발명의 일실시예에 따른 상황 정보와 감정 인식을 사용한 유비쿼터스 환경의 최적 서비스 추론 시스템은 사용자 주변의 정보를 수집하는 유비쿼터스 환경; 상기 유비쿼터스 환경에서 수집한 정보를 기초로 사용자의 상태를 인식하여 상황 정보로 생성하는 상황 인식부; 상기 유비쿼터스 환경에서 수집한 정보를 기초로 사용자의 감정을 인식하여 감정 정보로 생성하는 감정 인식부; 상기 상황 정보와 상기 감정 정보를 융합하는 융합부; 및, 상기 융합부에서 융합된 결과를 기초로 사용자에게 적합한 서비스를 추론하여 선택하는 서비스 선택부를 포함한다.
본 발명의 일례에 따르면, 어떤 감정을 느끼고 있다는 것을 확인할 수 있는 감정 별 특징 정보를 확인하는 특징 확인부를 더 포함하고, 상기 감정 인식부는 상기 유비쿼터스 환경에서 수집한 상기 감정 표시 정보를 상기 특징 정보와 비교하여 상기 사용자의 현재 감정 상태를 인식할 수 있다.
본 발명의 일실시예에 따른 상황 정보와 감정 인식을 사용한 유비쿼터스 환경의 최적 서비스 추론 방법은 사용자 주변의 정보를 수집하는 단계; 상기 수집하 는 단계에서 수집한 정보를 기초로 사용자의 상태를 인식하여 상황 정보로 생성하는 단계; 상기 수집하는 단계에서 수집한 정보를 기초로 사용자의 감정을 인식하여 감정 정보로 생성하는 단계; 상기 상황 정보와 상기 감정 정보를 융합하는 단계; 및, 상기 융합하는 단계에서 융합된 결과를 기초로 사용자에게 적합한 서비스를 추론하여 선택하는 단계를 포함한다.
본 발명에 따르면 유비쿼터스 환경을 사용하여 사용자의 동작이나 위치와 같은 사용자의 상태와 사용자의 감정을 확인하고, 사용자의 상태와 감정을 고려하여 사용자가 필요로 하는 서비스를 제공할 수 있다.
이하 첨부된 도면을 참조하여 본 발명에 따른 다양한 실시예를 상세히 설명하기로 한다.
도 1은 본 발명의 일실시예에 따른 유비쿼터스 환경의 최적 서비스 추론 시스템(100)의 개괄적인 모습을 도시한 일례다.
본 발명의 일실시예에 따른 유비쿼터스 환경의 최적 서비스 추론 시스템(100)은 도 1에 도시된 바와 같이 유비쿼터스 환경(110), 상황 인식부(120), 상황 해석부(130), 감정 인식부(140), 특징 확인부(150), 융합부(160); 및, 서비스 선택부(170)로 구성될 수 있다.
유비쿼터스 환경(110)은 사용자 주변에 구비된 유비쿼터스 기기를 사용하여 사용자의 정보를 수집하고 사용자에게 서비스를 제공할 수 있는 시스템으로, 센서 네트워크(111)와 유저 인터페이스(112)를 포함할 수 있다.
이때, 센서 네트워크(111)는 상기 사용자의 상태에 연관된 적어도 하나의 상태 연관 정보를 수집할 수 있으며, 상기 상태 연관 정보는 상기 사용자의 식별 정보, 상기 사용자의 위치, 상기 사용자의 동작, 및 주변 환경 정보 중에 적어도 하나를 포함할 수 있다.
즉, 센서 네트워크(111)는 유비쿼터스 환경 안에서 누가 어디서 무엇을 어떻게 하고 있는지에 대한 정보를 수집하는 구성일 수 있다.
또한, 유저 인터페이스(112)는 상기 사용자의 감정이 표시되는 적어도 하나의 감정 표시 정보를 수집할 수 있으며, 상기 감정 표시 정보는 상기 사용자의 표정 정보와 상기 사용자의 음성 정보 중에 적어도 하나를 포함할 수 있다.
이때, 상기 감정 표시 정보는 사용자가 어떠한 감정을 가지고 있는 지를 식별하기 용이한 정보들로써 일실시예에서는 감정에 따라 변화가 잘 일어나는 표정과 음성을 사용하고 있으나, 사용자가 특정 감정을 느낄 때 특정 행동을 한다면, 상기 행동을 확인하기 위한 정보를 더 수집할 수도 있다.
일례로 화가 나면 베개를 침대에 집어 던지고 초조하면 의자에서 다리를 떠는 사용자가 있다면 침대와 베개의 위치 및 침대 주변의 동작을 확인하는 센서를 사용하여 사용자가 베개를 침대에 집어 던지는지를 확인하고, 의자 주변의 동작을 확인하는 센서를 사용하여 의자에 앉은 사용자가 다리를 떠는지를 확인할 수도 있다.
상황 인식부(120)는 유비쿼터스 환경(110)에서 수집한 정보와 상황 해석 부(130)에서 제공하는 정보를 기초로 사용자의 상태를 인식하여 상황 정보로 생성할 수 있다.
이때, 상황 해석부(130)는 센서 네트워크(111)에서 수집하는 상기 상태 연관 정보들의 종류를 구분하기 위한 정보를 제공할 수 있다.
즉, 상황 해석부(130)에서 상기 상태 연관 정보가 육하원칙(언제, 어디서, 누가, 무엇을, 왜, 하였나) 중에 어디에 해당하는지에 대한 정보를 제공하면, 상황 인식부(120)는 육하원칙을 기준으로 상기 상태 연관 정보를 결합하여 사용자가 어디서 무엇을 어떻게 하고 있는지를 인식하고, 인식한 정보를 상황 정보로 생성할 수 있다.
또한, 상황 해석부(130)는 유비쿼터스 환경(110)에서 수집한 정보와 상황 해석부(130)에서 제공하는 정보에 베이지안 네트워크를 활용한 확률 기반 추론을 사용하여 사용자의 상태를 인식하고, 상황 정보를 생성할 수 있다.
감정 인식부(140)는 유비쿼터스 환경(110)에서 수집한 상기 감정 표시 정보와 특징 확인부(150)에서 제공하는 정보를 기초로 사용자의 감정을 인식하여 감정 정보로 생성할 수 있다.
이때, 특징 확인부(150)는 어떤 감정을 느끼고 있다는 것을 확인할 수 있는 감정 별 특징 정보를 확인할 수 있다.
따라서, 감정 인식부(140)는 유저 인터페이스(112)에서 수집한 상기 감정 표시 정보와 유사도가 가장 높은 상기 특징 정보에 대응하는 감정을 사용자가 가지고 있는 것으로 인식할 수 있다.
또한, 감정 인식부(140)는 유비쿼터스 환경(110)에서 수집한 상기 감정 표시 정보와 특징 확인부(150)에서 제공하는 정보에 베이지안 네트워크를 활용한 확률 기반 추론을 사용하여 사용자의 감정을 인식하고, 감정 정보를 생성할 수 있다.
일례로, 유비쿼터스 환경의 최적 서비스 추론 시스템(100)은 미리 상기 사용자에게 희로애락을 포함하는 감정을 표현하도록 하고, 상기 사용자가 상기 감정을 표현하고 있는 상태에서의 표정이나 음성에 대한 정보를 유저 인터페이스(112)를 통하여 수집하여 특징 확인부(150)에 기 저장하며, 특징 확인부(150)는 기 저장된 상기 사용자의 상기 감정 표시 정보들을 기초로 사용자의 각 감정에 따른 특징 정보를 확인할 수 있다.
또, 다른 일례로 이때, 유비쿼터스 환경의 최적 서비스 추론 시스템(100)은 복수의 사용자들의 감정 변화에 따른 음성의 변화 정보나 표정 변화 정보를 수집하여 특징 확인부(150)에 기 저장하며, 특징 확인부(150)는 기 저장된 상기 변화 정보들에서 각각의 감정 별로 공통되는 정보를 추출하여 각 감정에 따른 특징 정보를 확인할 수 있다.
또한, 특징 확인부(150)는 상기 특징 정보를 특징 융합 기반의 멀티 모델(Multi-Modal)을 사용하여 상기 감정 인식부(140)에 제공할 수 있다.
융합부(160)는 상황 인식부(120)가 인식한 상기 상황 정보와 감정 인식부(140)가 인식한 상기 감정 정보를 융합할 수 있다. 이때, 융합부(160)는 베이지안 네트워크를 활용한 확률 기반 추론을 사용하여 상기 상황 정보와 상기 감정 정보를 융합할 수 있다.
서비스 선택부(170)는 융합부(160)에서 융합된 결과를 기초로 사용자에게 적합한 서비스를 추론하여 선택할 수 있다. 일례로 사용자가 화를 내거나 슬퍼하는 있는 것을 감정 인식부(140)가 인식하면 유비쿼터스 환경(110)에 포함된 기기를 사용하여 사용자가 좋아하는 음악이나 이미지, 동영상을 보여주어 기분이 좋아지도록 하는 서비스를 제공할 수 있다.
도 2는 본 발명의 일실시예에 따른 유비쿼터스 환경의 최적 서비스 추론 방법을 도시한 흐름도이다.
단계(S201)에서 특징 확인부(150)는 사용자가 어떤 감정을 느끼고 있다는 것을 확인할 수 있는 감정 별 특징 정보를 확인할 수 있다.
구체적으로 상기 사용자에게 희로애락을 포함하는 감정을 표현하도록 하고, 상기 사용자가 상기 감정을 표현하고 있는 상태에서의 표정이나 음성에 대한 정보를 유저 인터페이스(112)를 통하여 수집하여 특징 확인부(150)에 기 저장하며, 특징 확인부(150)는 기 저장된 상기 사용자의 상기 감정 표시 정보들을 기초로 사용자의 각 감정에 따른 특징 정보를 확인할 수 있다.
또, 다른 일례로 이때, 복수의 사용자들의 감정 변화에 따른 음성의 변화 정보나 표정 변화 정보를 수집하여 특징 확인부(150)에 기 저장하며, 특징 확인부(150)는 기 저장된 상기 변화 정보들에서 각각의 감정 별로 공통되는 정보를 추출하여 각 감정에 따른 특징 정보를 확인할 수 있다.
단계(S202)에서 유비쿼터스 환경(110)은 주변에 구비된 유비쿼터스 기기를 사용하여 유비쿼터스 환경(110)안의 정보를 수집할 수 있다. 구체적으로 유비쿼터 스 환경(110)은 센서 네트워크(111)를 통하여 상기 사용자의 상태에 연관된 적어도 하나의 상태 연관 정보를 수집하고, 유저 인터페이스(112)를 통하여 상기 사용자의 감정이 표시되는 적어도 하나의 감정 표시 정보를 수집할 수 있다.
단계(S203)에서 상황 인식부(120)는 단계(S202)에서 수집한 상태 연관 정보를 기초로 상기 사용자의 상태를 인식하여 상황 정보로 생성할 수 있다. 구체적으로 상황 인식부(120)는 상기 상태 연관 정보를 결합하여 사용자가 어디서 무엇을 어떻게 하고 있는지를 인식하고, 인식한 정보를 상황 정보로 생성할 수 있다.
단계(S204)에서 감정 인식부(140)는 단계(S202)에서 수집한 감정 표시 정보를 단계(S201)에서 확인한 특징 정보와 비교하여 상기 사용자의 현재 감정 상태를 인식하고, 상기 사용자의 현재 감정 상태를 감정 정보로 생성할 수 있다.
단계(S205)에서 융합부(160)는 단계(S203)에서 생성된 상기 상황 정보와 단계(S204)에서 생성된 상기 감정 정보를 융합할 수 있다. 구체적으로, 융합부(160)는 베이지안 네트워크를 활용한 확률 기반 추론을 사용하여 상기 상황 정보와 상기 감정 정보를 융합할 수 있다.
단계(S206)에서 서비스 선택부(170)는 단계(S205)에서 융합된 정보를 기초로 사용자에게 적합한 서비스를 추론하여 선택할 수 있다.
이와 같이, 본 발명의 일실시예에 따른 상황 정보와 감정 인식을 사용한 유비쿼터스 환경의 최적 서비스 추론 시스템 및 방법은 유비쿼터스 환경을 사용하여 사용자의 동작이나 위치와 같은 사용자의 상태 외에 사용자의 감정을 더 확인하고, 사용자의 상태와 감정을 고려하여 사용자가 필요로 하는 서비스를 제공할 수 있다.
일례로 사용자가 기뻐하고 있으면 사용자의 성향에 따라 조명의 강도를 밝게 변화하여 더 기쁘게 할 수도 있고, 사용자가 오디오 근처의 침대에 누워 울고 있으면 사용자를 위로하는 음악을 오디오에서 재생할 수도 있고, TV가 있는 거실에서 기운 없이 앉아 있으면 TV에서 사용자가 좋아하는 채널을 표시하도록 하여 기분이 좋아지도록 할 수도 있다.
이상과 같이 본 발명에서는 구체적인 구성 요소 등과 같은 특정 사항들과 한정된 실시예 및 도면에 의해 설명되었으나 이는 본 발명의 보다 전반적인 이해를 돕기 위해서 제공된 것일 뿐, 본 발명은 상기의 실시예에 한정되는 것은 아니며, 본 발명이 속하는 분야에서 통상적인 지식을 가진 자라면 이러한 기재로부터 다양한 수정 및 변형이 가능하다.
따라서 본 발명의 사상은 설명된 실시예에 국한되어 정해져서는 아니되며, 후술하는 특허청구범위뿐 아니라 이 특허청구범위와 균등하거나 등가적 변형이 있는 모든 것들은 본 발명 사상의 범주에 속한다고 할 것이다.
도 1은 본 발명의 일실시예에 따른 유비쿼터스 환경의 최적 서비스 추론 시스템의 개괄적인 모습을 도시한 일례다.
도 2는 본 발명의 일실시예에 있어서, 유비쿼터스 환경의 최적 서비스 추론 방법을 도시한 흐름도이다.

Claims (16)

  1. 사용자 주변의 정보를 수집하는 유비쿼터스 환경;
    상기 유비쿼터스 환경에서 수집한 정보를 기초로 사용자의 상태를 인식하여 상황 정보로 생성하는 상황 인식부;
    상기 유비쿼터스 환경에서 수집한 정보를 기초로 사용자의 감정을 인식하여 감정 정보로 생성하는 감정 인식부;
    상기 상황 정보와 상기 감정 정보를 융합하는 융합부; 및,
    상기 융합부에서 융합된 결과를 기초로 사용자에게 적합한 서비스를 추론하여 선택하는 서비스 선택부
    를 포함하는 것을 특징으로 하는 유비쿼터스 환경의 최적 서비스 추론 시스템.
  2. 제1항에 있어서,
    상기 유비쿼터스 환경은,
    상기 사용자의 상태에 연관된 적어도 하나의 상태 연관 정보를 수집하는 센서 네트워크; 및,
    상기 사용자의 감정이 표시되는 적어도 하나의 감정 표시 정보를 수집하는 유저 인터페이스
    를 포함하는 것을 특징으로 하는 유비쿼터스 환경의 최적 서비스 추론 시스 템.
  3. 제2항에 있어서,
    상기 상태 연관 정보는 상기 사용자의 식별 정보, 상기 사용자의 위치, 상기 사용자의 동작, 및 주변 환경 정보 중에 적어도 하나를 포함하는 것
    을 특징으로 하는 유비쿼터스 환경의 최적 서비스 추론 시스템.
  4. 제2항에 있어서,
    상기 감정 표시 정보는 상기 사용자의 표정 정보와 상기 사용자의 음성 정보 중에 적어도 하나를 포함하는 것
    을 특징으로 하는 유비쿼터스 환경의 최적 서비스 추론 시스템.
  5. 제2항에 있어서,
    어떤 감정을 느끼고 있다는 것을 확인할 수 있는 감정 별 특징 정보를 확인하는 특징 확인부
    를 더 포함하고,
    상기 감정 인식부는 상기 유저 인터페이스에서 수집한 상기 감정 표시 정보를 상기 특징 정보와 비교하여 상기 사용자의 현재 감정 상태를 인식하는 것
    을 특징으로 하는 유비쿼터스 환경의 최적 서비스 추론 시스템.
  6. 제5항에 있어서,
    상기 특징 확인부는 각 감정 별로 상기 사용자의 상기 감정 표시 정보들을 기측정하여 저장하고, 기측정된 상기 사용자의 상기 감정 표시 정보들을 기초로 사용자의 각 감정에 따른 특징 정보를 확인하는 것
    을 특징으로 하는 유비쿼터스 환경의 최적 서비스 추론 시스템.
  7. 제5항에 있어서,
    상기 특징 확인부는 각 감정 별로 복수의 사용자의 상기 감정 표시 정보들을 기측정하여 저장하고, 기측정된 복수의 사용자의 상기 감정 표시 정보들을 기초로 각 감정 별로 공통되는 정보를 추출하며, 상기 공통되는 정보를 기초로 각 감정에 따른 특징 정보를 확인하는 것
    을 특징으로 하는 유비쿼터스 환경의 최적 서비스 추론 시스템.
  8. 제1항에 있어서,
    상기 융합부는 베이지안 네트워크를 활용한 확률 기반 추론을 사용하여 상기 상황 정보와 상기 감정 정보를 융합하는 것
    을 특징으로 하는 유비쿼터스 환경의 최적 서비스 추론 시스템.
  9. 사용자 주변의 정보를 수집하는 단계;
    상기 수집하는 단계에서 수집한 정보를 기초로 사용자의 상태를 인식하여 상 황 정보로 생성하는 단계;
    상기 수집하는 단계에서 수집한 정보를 기초로 사용자의 감정을 인식하여 감정 정보로 생성하는 단계;
    상기 상황 정보와 상기 감정 정보를 융합하는 단계; 및,
    상기 융합하는 단계에서 융합된 결과를 기초로 사용자에게 적합한 서비스를 추론하여 선택하는 단계
    를 포함하는 것을 특징으로 하는 유비쿼터스 환경의 최적 서비스 추론 방법
  10. 제9항에 있어서,
    상기 수집하는 단계는,
    상기 사용자의 상태에 연관된 적어도 하나의 상태 연관 정보를 수집하는 단계; 및,
    상기 사용자의 감정이 표시되는 적어도 하나의 감정 표시 정보를 수집하는 단계
    를 포함하는 것을 특징으로 하는 유비쿼터스 환경의 최적 서비스 추론 방법.
  11. 제10항에 있어서,
    상기 상태 연관 정보는 상기 사용자의 식별 정보, 상기 사용자의 위치, 상기 사용자의 동작, 및 주변 환경 정보 중에 적어도 하나를 포함하는 것
    을 특징으로 하는 유비쿼터스 환경의 최적 서비스 추론 방법.
  12. 제10항에 있어서,
    상기 감정 표시 정보는 상기 사용자의 표정 정보와 상기 사용자의 음성 정보 중에 적어도 하나를 포함하는 것
    을 특징으로 하는 유비쿼터스 환경의 최적 서비스 추론 방법.
  13. 제10항에 있어서,
    어떤 감정을 느끼고 있다는 것을 확인할 수 있는 감정 별 특징 정보를 확인하는 단계
    를 더 포함하고,
    상기 감정 정보로 생성하는 단계는 상기 감정 표시 정보를 수집하는 단계에서 수집한 상기 감정 표시 정보를 상기 특징 정보와 비교하여 상기 사용자의 현재 감정 상태를 인식하는 것
    을 특징으로 하는 유비쿼터스 환경의 최적 서비스 추론 방법.
  14. 제13항에 있어서,
    상기 특징 정보를 확인하는 단계는,
    각 감정 별로 상기 사용자의 상기 감정 표시 정보들을 기측정하여 저장하는 단계; 및,
    기측정된 상기 사용자의 상기 감정 표시 정보들을 기초로 상기 사용자의 각 감정에 따른 특징 정보를 확인하는 단계
    를 포함하는 것을 특징으로 하는 유비쿼터스 환경의 최적 서비스 추론 방법.
  15. 제13항에 있어서,
    상기 특징 정보를 확인하는 단계는,
    각 감정 별로 복수의 사용자의 상기 감정 표시 정보들을 기측정하여 저장하는 단계;
    기측정된 복수의 사용자의 상기 감정 표시 정보들을 기초로 각 감정 별로 공통되는 정보를 추출하는 단계; 및,
    상기 공통되는 정보를 기초로 각 감정에 따른 특징 정보를 확인하는 단계
    를 포함하는 것을 특징으로 하는 유비쿼터스 환경의 최적 서비스 추론 방법.
  16. 제9항에 있어서,
    상기 융합하는 단계는 베이지안 네트워크를 활용한 확률 기반 추론을 사용하여 상기 상황 정보와 상기 감정 정보를 융합하는 것
    을 특징으로 하는 유비쿼터스 환경의 최적 서비스 추론 방법.
KR1020090019244A 2009-03-06 2009-03-06 상황 정보와 감정 인식을 사용한 유비쿼터스 환경의 최적 서비스 추론 방법 및 시스템 KR20100100380A (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020090019244A KR20100100380A (ko) 2009-03-06 2009-03-06 상황 정보와 감정 인식을 사용한 유비쿼터스 환경의 최적 서비스 추론 방법 및 시스템
US12/625,530 US8341109B2 (en) 2009-03-06 2009-11-24 Method and system using a processor for reasoning optimized service of ubiquitous system using context information and emotion awareness

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020090019244A KR20100100380A (ko) 2009-03-06 2009-03-06 상황 정보와 감정 인식을 사용한 유비쿼터스 환경의 최적 서비스 추론 방법 및 시스템

Publications (1)

Publication Number Publication Date
KR20100100380A true KR20100100380A (ko) 2010-09-15

Family

ID=42679113

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020090019244A KR20100100380A (ko) 2009-03-06 2009-03-06 상황 정보와 감정 인식을 사용한 유비쿼터스 환경의 최적 서비스 추론 방법 및 시스템

Country Status (2)

Country Link
US (1) US8341109B2 (ko)
KR (1) KR20100100380A (ko)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012063982A1 (ko) * 2010-11-09 2012-05-18 경희대학교 산학협력단 사용자의 심리적 상태를 고려한 스마트폰용 앱 자동 추천시스템
WO2012057559A3 (ko) * 2010-10-28 2012-06-21 (주)엠씨에스로직 지능형 감성 추론장치 및 그 추론방법
KR101300075B1 (ko) * 2011-08-25 2013-08-30 성균관대학교산학협력단 유사 정서 사용자집단의 감응치에 기반한 감정예측 방법 및 시스템
KR101349285B1 (ko) * 2012-08-03 2014-01-13 공주대학교 산학협력단 상황인식 기반 사용자 감성인지를 통한 개인화 서비스 시스템
KR20140052154A (ko) * 2012-10-19 2014-05-07 삼성전자주식회사 디스플레이 장치, 상기 디스플레이 장치를 제어하는 원격 제어 장치, 디스플레이 장치 제어 방법, 서버 제어 방법 및 원격 제어 장치 제어 방법
KR101434336B1 (ko) * 2012-11-15 2014-08-27 장순철 표정을 통해 인식된 감정에 기초한 소리 재생 시스템
KR20150055132A (ko) 2013-11-11 2015-05-21 공주대학교 산학협력단 Ahp 및 퍼지 적분을 이용한 감성언어 추론 시스템
KR20160023264A (ko) * 2014-08-22 2016-03-03 아주대학교산학협력단 스마트 공간 기반의 테라피 제공 시스템 및 방법
KR101632401B1 (ko) * 2015-02-13 2016-06-21 계명대학교 산학협력단 웰니스를 향상시킬 수 있는 사용자 중심의 사물인터넷 플랫폼 시스템
WO2020175969A1 (ko) * 2019-02-28 2020-09-03 주식회사 하가 감정 인식 장치 및 감정 인식 방법

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120167035A1 (en) * 2010-12-22 2012-06-28 Electronics And Telecommunications Research Institute Apparatus and method for developing customer-oriented emotional home application service
TWI711942B (zh) * 2019-04-11 2020-12-01 仁寶電腦工業股份有限公司 聽力輔助裝置之調整方法
US11809958B2 (en) 2020-06-10 2023-11-07 Capital One Services, Llc Systems and methods for automatic decision-making with user-configured criteria using multi-channel data inputs

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100715681B1 (ko) * 2005-12-06 2007-05-09 한국전자통신연구원 센서 네트워크 기반 유비쿼터스 상황인지 에이전트 장치 및그 상황인지 방법
KR100819248B1 (ko) * 2006-09-05 2008-04-02 삼성전자주식회사 소봇의 감정변환 방법

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012057559A3 (ko) * 2010-10-28 2012-06-21 (주)엠씨에스로직 지능형 감성 추론장치 및 그 추론방법
WO2012063982A1 (ko) * 2010-11-09 2012-05-18 경희대학교 산학협력단 사용자의 심리적 상태를 고려한 스마트폰용 앱 자동 추천시스템
KR101300075B1 (ko) * 2011-08-25 2013-08-30 성균관대학교산학협력단 유사 정서 사용자집단의 감응치에 기반한 감정예측 방법 및 시스템
KR101349285B1 (ko) * 2012-08-03 2014-01-13 공주대학교 산학협력단 상황인식 기반 사용자 감성인지를 통한 개인화 서비스 시스템
KR20140052154A (ko) * 2012-10-19 2014-05-07 삼성전자주식회사 디스플레이 장치, 상기 디스플레이 장치를 제어하는 원격 제어 장치, 디스플레이 장치 제어 방법, 서버 제어 방법 및 원격 제어 장치 제어 방법
KR101434336B1 (ko) * 2012-11-15 2014-08-27 장순철 표정을 통해 인식된 감정에 기초한 소리 재생 시스템
KR20150055132A (ko) 2013-11-11 2015-05-21 공주대학교 산학협력단 Ahp 및 퍼지 적분을 이용한 감성언어 추론 시스템
KR20160023264A (ko) * 2014-08-22 2016-03-03 아주대학교산학협력단 스마트 공간 기반의 테라피 제공 시스템 및 방법
KR101632401B1 (ko) * 2015-02-13 2016-06-21 계명대학교 산학협력단 웰니스를 향상시킬 수 있는 사용자 중심의 사물인터넷 플랫폼 시스템
WO2020175969A1 (ko) * 2019-02-28 2020-09-03 주식회사 하가 감정 인식 장치 및 감정 인식 방법

Also Published As

Publication number Publication date
US20100228696A1 (en) 2010-09-09
US8341109B2 (en) 2012-12-25

Similar Documents

Publication Publication Date Title
KR20100100380A (ko) 상황 정보와 감정 인식을 사용한 유비쿼터스 환경의 최적 서비스 추론 방법 및 시스템
Barnlund A transactional model of communication
CN109844854B (zh) 单词流注释
Jaimes et al. Multimodal human–computer interaction: A survey
JP4481682B2 (ja) 情報処理装置及びその制御方法
US20190196576A1 (en) Virtual reality device and a virtual reality server
US11462213B2 (en) Information processing apparatus, information processing method, and program
US20200086496A1 (en) Emotion recognizer, robot including the same, and server including the same
JP4085926B2 (ja) 情報処理端末及び通信システム
US11974619B2 (en) Smart article visual communication based on facial movement
KR20170094668A (ko) 양방향 수화 번역 장치 및 장치가 수행하는 양방향 수화 번역 방법
JP2016513319A (ja) 収集された生物物理的信号の時間的パターンおよび空間的パターンに基づく脳‐コンピューターインターフェース(bci)システム
CN102902704B (zh) 信息处理设备、短语输出方法
Wargnier et al. Towards attention monitoring of older adults with cognitive impairment during interaction with an embodied conversational agent
JP2015035099A (ja) 電子カルテ作成装置
US20160125295A1 (en) User-interaction toy and interaction method of the toy
CN115136174A (zh) 增强现实顾客识别系统和方法
JPWO2017191713A1 (ja) 制御装置、制御方法及びコンピュータプログラム
JP2018205534A (ja) 表示制御装置、表示制御方法及びプログラム
KR101661669B1 (ko) 대화시스템 및 그 방법
JP2021051693A (ja) 発話システム、発話推薦装置、発話推薦プログラムおよび発話推薦方法
JP6708865B2 (ja) 顧客応対システム及び顧客応対方法
Goetze et al. Multimodal human-machine interaction for service robots in home-care environments
JP7322374B2 (ja) ロボットの制御装置、ロボット、ロボットの制御方法およびプログラム
KR102211445B1 (ko) 인공지능 기반 시청각 통합 정보 제공 시스템

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E601 Decision to refuse application