KR20130082701A - 인공지능을 이용한 감성인지 아바타 서비스 장치 및 방법 - Google Patents
인공지능을 이용한 감성인지 아바타 서비스 장치 및 방법 Download PDFInfo
- Publication number
- KR20130082701A KR20130082701A KR1020110134908A KR20110134908A KR20130082701A KR 20130082701 A KR20130082701 A KR 20130082701A KR 1020110134908 A KR1020110134908 A KR 1020110134908A KR 20110134908 A KR20110134908 A KR 20110134908A KR 20130082701 A KR20130082701 A KR 20130082701A
- Authority
- KR
- South Korea
- Prior art keywords
- emotion
- artificial intelligence
- user
- avatar
- input
- Prior art date
Links
- 238000013473 artificial intelligence Methods 0.000 title claims abstract description 77
- 238000000034 method Methods 0.000 title claims abstract description 30
- 230000008909 emotion recognition Effects 0.000 title claims abstract description 27
- 230000008451 emotion Effects 0.000 claims abstract description 61
- 230000008569 process Effects 0.000 claims abstract description 7
- 230000004044 response Effects 0.000 claims description 12
- 230000002996 emotional effect Effects 0.000 abstract description 25
- 230000008921 facial expression Effects 0.000 abstract description 11
- 230000006870 function Effects 0.000 abstract description 7
- 230000014509 gene expression Effects 0.000 description 11
- 230000009471 action Effects 0.000 description 8
- 238000010586 diagram Methods 0.000 description 4
- 238000012545 processing Methods 0.000 description 4
- 230000037007 arousal Effects 0.000 description 3
- 238000013461 design Methods 0.000 description 3
- 241001465754 Metazoa Species 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 2
- 238000013528 artificial neural network Methods 0.000 description 2
- 230000019771 cognition Effects 0.000 description 2
- 230000006397 emotional response Effects 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 230000001815 facial effect Effects 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- 230000002503 metabolic effect Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000006399 behavior Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000001149 cognitive effect Effects 0.000 description 1
- 230000003920 cognitive function Effects 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000002250 progressing effect Effects 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/004—Artificial life, i.e. computing arrangements simulating life
- G06N3/006—Artificial life, i.e. computing arrangements simulating life based on simulated virtual individual or collective life forms, e.g. social simulations or particle swarm optimisation [PSO]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
- G06Q50/10—Services
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Business, Economics & Management (AREA)
- Tourism & Hospitality (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- General Physics & Mathematics (AREA)
- Marketing (AREA)
- Biophysics (AREA)
- General Business, Economics & Management (AREA)
- Primary Health Care (AREA)
- Human Resources & Organizations (AREA)
- Economics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Biomedical Technology (AREA)
- Strategic Management (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
인간의 감성 혹은 감정을 인지하기 위해 개발된 인공지능을 아바타나 가상 애완동물 등의 서비스로 활용하는 인공지능을 이용한 감성인지 아바타 서비스 장치 및 방법을 개시한다.
본 발명의 일실시예에 따른 인공지능을 이용한 감성인지 아바타 서비스는 다양한 센서를 통해 수집된 사용자의 생체신호, 음성, 표정 등을 이용하여 사용자의 감성을 인지하는 기능을 제공함으로써, 사용자의 감성정보를 활용하는 다양한 서비스나 어플리케이션에 활용 가능하다. 또한, 인공지능을 이용한 감성인지 아바타는 사용자에 맞추어 인공지능이 학습되고, 학습이 거듭될수록 더욱 사용자의 감성을 정확하게 인지할 수 있게 된다. 이러한 과정을 통하여 사용자는 인공지능을 이용한 감성인지 아바타를 자신의 감성을 알아주는 가상 애완동물이나 동료와 같은 이성적 존재로 인식하게 된다.
본 발명의 일실시예에 따른 인공지능을 이용한 감성인지 아바타 서비스는 다양한 센서를 통해 수집된 사용자의 생체신호, 음성, 표정 등을 이용하여 사용자의 감성을 인지하는 기능을 제공함으로써, 사용자의 감성정보를 활용하는 다양한 서비스나 어플리케이션에 활용 가능하다. 또한, 인공지능을 이용한 감성인지 아바타는 사용자에 맞추어 인공지능이 학습되고, 학습이 거듭될수록 더욱 사용자의 감성을 정확하게 인지할 수 있게 된다. 이러한 과정을 통하여 사용자는 인공지능을 이용한 감성인지 아바타를 자신의 감성을 알아주는 가상 애완동물이나 동료와 같은 이성적 존재로 인식하게 된다.
Description
본 발명의 실시예들은 사용자의 감성을 인지하고 이에 자동으로 대응하는 인공지능을 아바타나 가상 애완동물과 같은 가상 객체 인터페이스에 적용하여 감성 반응을 제공하는 인공지능을 이용한 감성인지 아바타 서비스 장치 및 방법에 관한 것이다.
최근 감성에 대한 관심이 증폭되면서 감성 인식 기술이 재조명되고 있다. 감성 인식은 생체신호를 이용한 방법과 음성을 이용한 방법 그리고 표정인식을 통한 방법 등으로 연구되어 왔는데, 각각의 장단점이 있어 어느 한가지 방법만으로는 정확한 감성 인식이 어려운 것이 사실이다.
인공지능 기술은 음성인식, 화상인식 등에 널리 활용되고 있으며 정해진 입력에 노이즈나 변형이 가해진 경우에도 올바른 결과를 얻어내는 대표적인 방법이다. 이러한 인공지능을 활용하면 특정하기 어려운 인간의 감성을 효과적으로 추론할 수 있으리라 기대되며, 감성인지는 인공지능의 새로운 활용분야가 될 것이다.
본 발명의 일실시예는 감성인지 기능을 수행하는 인공지능을 사용자로 하여금 자신의 아바타나 가상 애완동물과 같은 지능을 가진 이성적 존재 혹은 독립된 인격체로 느낄 수 있게 하여, 인공지능이 제 역할을 수행하는데 필수적이지만 다소 지루할 수 있는 요소인 학습과정을 자연스럽고 적극적으로 진행하는 한편, 감성인지를 통해 제공되는 서비스가 사용자에게 더욱 감성적으로 느껴질 수 있도록 하는 인공지능을 이용한 감성인지 아바타 서비스 장치 및 방법을 제공한다.
또한, 본 발명의 일실시예는 생체신호, 음성, 표정 등을 통해 사용자의 감성을 추론하여 인지하는데 있어 인공지능 기법을 활용하고 이를 통해 감성의 추론 정확도를 높이는 인공지능을 이용한 감성인지 아바타 서비스 장치 및 방법을 제공한다.
상기의 일실시예를 이루기 위한, 인공지능을 이용한 감성인지 아바타 서비스 장치는 입력된 신호의 종류에 맞춰 정해진 처리과정을 거쳐 인공지능에 적합한 입력을 생성하는 입력신호 처리부; 상기 입력신호 처리부에 입력된 신호로부터 인공지능 알고리즘을 통해 사용자의 감성을 추론하는 인공지능 알고리즘부; 상기 인공지능 알고리즘부에서 추론된 감성을 아바타, 애완동물 등의 서비스형태를 통해 사용자에게 표현하는 감성 출력부; 상기 감성 출력부를 통해 출력된 감성에 대한 사용자의 응답을 수신하는 사용자 입력부; 및 상기 사용자의 응답을 참조하여 상기 인공지능 알고리즘이 실제 구현화되는데 필요한 각종 파라미터 및 상태 정보를 업데이트하고 관리하는 인공지능 관리부를 포함한다.
또한, 본 발명의 일실시예에 따른 입력신호 처리부는 사용자로부터 수집한 생체신호, 영상신호, 음성신호 등과 주변환경으로부터 수집한 기온, 습도, 위치정보 등을 처리하여 감성인지용 인공지능의 입력에 적합한 형태로 수치화 혹은 정량화한다.
또한, 본 발명의 일실시예에 따른 인공지능 알고리즘부는 상기 입력신호 처리부로부터 생성된 입력에 기초하여 인공지능 알고리즘을 통해 사용자의 감성 상태를 추론하며, 사전에 정의된 필요 감성 상태 각각에 대한 가중치 혹은 추론된 감성 상태를 출력한다.
또한, 본 발명의 일실시예에 따른 감성 출력부는 상기 인공지능 알고리즘부로부터 도출된 감성 상태를 아바타 혹은 가상 애완동물 형태의 사용자 인터페이스를 통해 표현한다.
또한, 본 발명의 일실시예에 따른 사용자 입력부는 상기 감성 출력부를 통해 표현된 감성 상태에 대한 사용자의 피드백을 긍정, 부정 등의 정성(定性)적 값이나 긍정 혹은 부정 등에 대한 강도를 수치화한 정량(定量)적 값의 형태로 입력받는 기능 및 인터페이스를 포함한다.
또한, 본 발명의 일실시예에 따른 인공지능 관리부는 상기 인공지능 알고리즘부의 동작을 위해 필요한 각종 파라미터 및 상태 정보를 메모리에 저장하고 이에 대한 입출력을 관리하는 기능과, 상기 사용자 입력부를 통해 입력된 사용자 피드백을 통해 인공지능 알고리즘의 학습을 실행하고 각종 파라미터 및 상태정보를 업데이트한다.
또한, 본 발명의 일실시예에 따른 인공지능을 이용한 감성인지 아바타 서비스 장치는 사용자의 감성을 인지하여 인지된 감성 상태에 대한 정보를 제공하거나 이를 활용한 컨텐츠를 제공하기 위한 서비스 중 아바타나 가상 애완동물 등 형태로 사용자와의 교감 및 감정 이입이 가능한 인공지능 객체를 사용자 인터페이스로 활용한다.
또한, 본 발명의 일실시예에 따른 아바타 혹은 가상 애완동물 형태의 사용자 인터페이스는 사용자로부터 입력된 피드백을 활용하여 특정 상황 혹은 감성에 대한 표현의 수위나 방법을 변경하는 기능을 가진다.
본 발명의 일실시예에 따르면, 인공지능을 이용한 감성인지 아바타 서비스는 다양한 형태의 사용자로부터 수집한 생체신호, 영상신호, 음성신호 등과 주변환경으로부터 수집한 기온, 습도, 위치정보 등의 입력정보를 인공지능을 통해 처리해 사용자의 감성을 추론한다.
또한, 본 발명의 일실시예에 따르면, 감성인지에 인공지능을 활용함으로써 가능해진 입력의 다양성은 기존의 생체신호, 음성, 표정인식 등으로 구분되어 있는 감성추론 방법을 하나로 합할 수 있는 가능성을 제시한다.
또한, 본 발명의 일실시예에 따르면, 감성인지에 사용된 인공지능 자체를 아바타 및 가상 애완동물로 활용함으로써 사용자로 하여금 감성인지 시스템을 하나의 독립된 인격체로 대할 수 있게 하여 감성 서비스의 질을 높이는데 기여한다.
도 1은 본 발명의 일실시예에 따른 인공지능을 이용한 감성인지 아바타 서비스 장치의 구성을 보인 블록도이다.
도 2는 본 발명의 일실시예에 따른 인공지능을 이용한 감성인지 아바타 서비스 방법의 동작 흐름을 나타낸 순서도이다.
도 3은 본 발명의 일실시예에 따른 인공지능을 이용한 감성인지 아바타 서비스 장치에서의 감성 출력부의 상세 기능을 보인 블록도이다.
도 2는 본 발명의 일실시예에 따른 인공지능을 이용한 감성인지 아바타 서비스 방법의 동작 흐름을 나타낸 순서도이다.
도 3은 본 발명의 일실시예에 따른 인공지능을 이용한 감성인지 아바타 서비스 장치에서의 감성 출력부의 상세 기능을 보인 블록도이다.
이하에서, 본 발명에 따른 실시예들을 첨부된 도면을 참조하여 상세하게 설명한다. 그러나, 본 발명이 실시예들에 의해 제한되거나 한정되는 것은 아니다. 각 도면에 제시된 동일한 참조 부호는 동일한 부재를 나타낸다.
이하, 도면을 참조하여 본 발명의 실시 예에 따른 인공지능을 이용한 감성인지 아바타 서비스 장치 및 방법에 대하여 설명한다.
도 1은 본 발명의 일 실시 예에 따른 인공지능을 이용한 감성인지 아바타 서비스 장치의 기능 블록도이다.
도 1을 참조하면, 본 실시 예에 따른 인공지능을 이용한 감성인지 아바타 서비스 장치(100)는 사용자의 상태를 나타내는 각종 센싱 정보(생체신호, 음성, 표정 등)를 토대로 사용자의 감성을 추론하여 이에 대응해서 감성 반응으로 사용자에게 알려주고, 이에 대한 사용자의 반응을 입력받아 추론의 정확도를 높여가는 인공지능 시스템이 될 수 있다.
도 1에 도시된 바와 같이, 인공지능을 이용한 감성인지 아바타 서비스 장치(100)는 입력신호 처리부(101), 인공지능 알고리즘부(102), 감성 출력부(103), 사용자 입력부(104), 인공지능 관리부(105)를 포함할 수 있다.
입력신호 처리부(101)는 입력된 신호의 종류에 맞춰 정해진 처리과정을 거쳐 인공지능에 적합한 입력을 생성한다. 여기서 입력된 신호는 각종 생체신호, 음성, 얼굴 표정의 화상정보 등이 될 수 있다.
예를 들어, 생체신호 중 하나인 ECG(Electrocardiogram)와 같은 신호는 HRV(Heart Rate Variability) 분석을 통해 HF(high frequency)/LF(low frequency) 비율을 구하고 이를 인공지능의 입력으로 활용하는 방법을 생각해 볼 수 있으며, 음성의 경우는 MFCCs(Mel-Frequency Cepstral Coefficients)분석을 수행하여 얻어지는 특성치를 인공지능의 입력으로 활용하는 방법 등이 가능하다.
인공지능 알고리즘부(102)는 Neural Network, HMM등 인공지능 알고리즘을 통해 입력신호 처리부(101)에 입력된 신호로부터 사용자의 감성을 추론한다. 여기서 추론하는 감성의 종류는 필요에 따라 분류될 수 있으며, 각성/이완의 1차원적인 분류에서부터 증오, 애정, 질투 등의 고차원적인 분류에 이르기까지 다양화될 수 있다. 인공지능 알고리즘은 추론해야 할 감성의 종류에 따라 그 구조나 규모가 변하게 되며, 일반적으로 인공지능의 입력단은 입력신호 처리부(101)에서 주어지는 입력신호의 개수에 따라 결정되고 출력단은 추론해야 할 감성의 종류 및 등급에 따라 결정된다. 예를 들어, 감성의 구분을 각성/이완의 1차원적인 분류로 행하더라도 각성과 이완의 강도에 따른 등급을 지정함으로써 보다 많은 종류의 감성으로 분류될 경우 인공지능은 각각에 해당하는 출력단을 가져야 한다.
감성 출력부(103)은 아바타, 애완동물 형태의 사용자 인터페이스를 제공하기 위한 부분으로 인공지능 알고리즘부(102)에서 출력된 감성을 사용자에게 표현하는 기능을 담당한다. 이를 위해 감성 출력부(103)는 인공지능 알고리즘부(102)에서 제공하는 모든 감성에 대해 일대일로 매칭되는 감성 표현 방법을 가져야 하며, 이는 아바타의 표정이나 행동 등 간접적인 방법이나 음성 혹은 문자를 통한 메시지 등 직접적인 방법으로 필요에 따라 디자인할 수 있다. 감성 출력부(103)가 표현하는 감성의 표현 방식은 사용자에 대한 감성 서비스의 디자인 형태에 따라 결정되며, 이를 통해 사용자와의 감성적 교감을 증진할 수 있다. 또한, 감성 출력부(103)는 사용자 입력부(104)를 통해 수집된 사용자 피드백을 아바타 및 가상 애완동물이 감성을 표현하는 수위나 방법, 디자인 등을 조절하는데 활용할 수 있으며, 이를 위해 별도의 인공지능을 활용할 수도 있다.
사용자 입력부(104)는 감성 출력부(103)에서 출력된 감성에 대응되는 사용자의 응답을 수신한다. 예를 들어, 사용자는 출력된 감성이 올바른 결과라면 긍정의 대답을 틀린 결과라면 부정의 대답을 줄 수 있다. 이때 이러한 긍정 혹은 부정 반응이 사용자 응답이 될 수 있으며, 나아가 이 사용자 응답은 특정한 강도를 가지는 긍정 혹은 부정의 반응으로 분류될 수도 있다.
인공지능 관리부(105)는 사용자 응답을 참조하여 인공지능 알고리즘이 실제 구현화된 상태를 저장하고 관리하는 부분이다. 인공지능의 구현화는 Neural Network이나 HMM등 인공지능 알고리즘에서 각 Node 혹은 State의 전이확률과 같은 파라미터의 집합으로 표현된다. 인공지능 관리부(105)는 이러한 파라미터의 집합에 대한 저장 및 외부로의 전달을 수행하며, 이에 더하여 학습에 따른 인공지능 알고리즘의 파라미터 업데이트에 관여한다.
도 2는 본 발명의 일실시예에 따른 인공지능을 이용한 감성인지 아바타 서비스 방법의 작동과정을 나타낸 순서도이다.
도 2에 따르면 감성인지용 인공지능이 사용자에게서 얻은 데이터로부터 감성을 인지하는 일련의 과정을 볼 수 있으며, 입력신호 처리부(101), 인공지능 알고리즘부(102), 감성 출력부(103), 사용자 입력부(104) 및 인공지능 관리부(105)의 상호 관계 및 작동 순서를 알 수 있다. 또한 사용자로부터 얻어지는 정보인 측정데이터와 사용자 피드백이 인공지능을 이용한 감성인지 아바타 서비스 시스템과 어떻게 연결되는지를 예시하고 있다.
먼저 사용자로부터 얻어진 측정데이터는 입력신호 처리부(101)에서 신호처리되어(201) 감성인지용 인공지능에 적합한 형태의 입력데이터로 생성된다(202). 인공지능 알고리즘부(102)는 인공지능 관리부(105)가 로드한 인공지능 파라미터와(203) 입력신호 처리부(101)로부터 받은 입력데이터를 이용해 알고리즘 연산을 수행하여 출력단으로 지정된 각 감성 종류별 가중치를 계산한다(204). 다음으로 인공지능 알고리즘부(102)는 계산된 가중치를 이용해 최종적으로 감성을 도출하고(205) 그 결과를 감성 출력부(103)로 보낸다. 감성 출력부(103)는 미리 정의된 방식에 따라 도출된 감성을 사용자 인터페이스를 통해 사용자에게 표현한다(206). 사용자 입력부(104)는 표현된 감성에 대한 사용자(207)의 피드백을 받아(208) 인공지능 관리부(105)로 전달한다. 인공지능 관리부(105)는 전달된 피드백 결과에 따라 인공지능 파라미터를 수정하고(209) 이를 저장하고 인공지능 알고리즘부(102)에 제공한다(210).
도 3은 본 발명의 일실시예에 따른 인공지능을 이용한 감성인지 아바타 서비스 장치에서의 감성 출력부의 상세 기능을 보인 블록도이다.
도 3에서, 감성 출력부(103)는 감성별 출력 패턴 선택(301), 감성별 출력 패턴 관리(302), 아바타 행동 선택(303), 아바타 표정 선택(304), 아바타 대사 선택(305), 아바타 표현(306)으로 구성될 수 있다.
감성별 출력 패턴 선택(301) 및 감성별 출력 패턴 관리(302)는 사용자의 감성 상태를 아바타로 표현하는 수위나 방법 등을 결정하는 부분으로 같은 종류의 감성에 대한 표현이라도 사용자의 취향에 따라 다른 형태로 표현되게 하는 효과가 있다. 예를 들면, 같은 감성인 기쁨에 대한 표현이라도 사용자에 따라 크게 웃으며 기뻐하는 표현을 선호하는 경우와 살며시 미소짓는 표현을 선호하는 경우 등으로 나뉠 수 있는데 이러한 선호 정도를 감성별 출력 패턴 선택(301)과 감성별 출력 패턴 관리(302)에서 사용자 피드백을 이용한 학습을 통해 제공 가능하다. 이를 위해 감성별 출력 패턴 선택(301)과 감성별 출력 패턴 관리(302)는 별도의 인공지능 알고리즘으로 구현될 수도 있다.
아바타 행동 선택(303), 아바타 표정 선택(304), 아바타 대사 선택(305)은 감성인지 아바타를 좀더 인간에 가까운 형태로 표현하여 사용자와의 친밀도를 높이기 위한 것으로 같은 감성 출력 패턴에 대해 조금씩 다른 형태의 표현을 가능하게 한다. 예를 들면, 감성별 출력 패턴 선택(301)에서 주어진 사용자 감성상태인 기쁨에 대한 출력 패턴으로 크게 웃는 패턴이 선택된 경우, 크게 웃는 패턴에 대한 행동으로 손뼉을 치며 웃는 행동, 바닥을 치며 웃는 행동, 제자리 뛰기를 하며 웃는 행동 등 다양한 행동을 생각해 볼 수 있는데 이러한 행동에 대한 정의 및 선택을 담당하는 부분이 아바타 행동 선택(303)이다. 이와 같은 방식으로 아바타 표정 선택(304) 및 아바타 대사 선택(305)에 관한 선택도 생각할 수 있으며 행동, 표정, 대사 외에 다른 특징을 더 추가할 수도 있다. 그리고, 좀 더 고도화된 선택을 위해서 아바타 행동(303), 표정(304), 대사(305) 선택 기능을 사용자 피드백과 연계하여 별도의 인공지능 알고리즘으로 구현할 수도 있다.
아바타 표현(306)은 선택된 아바타 행동(303), 표정(304), 대사(305)를 사용자에게 출력하기 위한 부분으로 디스플레이 상에 그래픽 형태로 출력하거나 스피커를 통한 소리로 출력하는 등 서비스 상황에 맞추어 아바타를 출력하는 기능이다. 아바타 표현(306)은 서비스의 아바타 표현 방식에 따라 2D/3D 그래픽 혹은 이모티콘 등 다양한 형태의 아바타로 출력 가능하며 소리의 경우도 동물, 사람, 사물 등 다양한 종류의 소리를 통해 출력할 수 있다.
또한, 본 발명의 실시예들은 다양한 컴퓨터로 구현되는 동작을 수행하기 위한 프로그램 명령을 포함하는 컴퓨터 판독 가능 매체를 포함한다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 본 발명을 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다.
이상과 같이 본 발명에서는 구체적인 구성 요소 등과 같은 특정 사항들과 한정된 실시예 및 도면에 의해 설명되었으나 이는 본 발명의 보다 전반적인 이해를 돕기 위해서 제공된 것일 뿐, 본 발명은 상기의 실시예에 한정되는 것은 아니며, 본 발명이 속하는 분야에서 통상적인 지식을 가진 자라면 이러한 기재로부터 다양한 수정 및 변형이 가능하다. 따라서 본 발명의 사상은 설명된 실시예에 국한되어 정해져서는 아니되며, 후술하는 특허청구범위뿐 아니라 이 특허청구범위와 균등하거나 등가적 변형이 있는 모든 구성들은 본 발명 사상의 범주에 속한다고 할 것이다.
101 : 입력신호 처리부
102 : 인공지능 알고리즘부
103 : 감성 출력부
104 : 사용자 입력부
105 : 인공지능 관리부
102 : 인공지능 알고리즘부
103 : 감성 출력부
104 : 사용자 입력부
105 : 인공지능 관리부
Claims (1)
- 입력된 신호의 종류에 맞춰 정해진 처리과정을 거쳐 인공지능에 적합한 입력을 생성하는 입력신호 처리부;
상기 입력신호 처리부에 입력된 신호로부터 인공지능 알고리즘을 통해 사용자의 감성을 추론하는 인공지능 알고리즘부;
상기 인공지능 알고리즘부에서 추론된 감성을 아바타, 애완동물 등의 서비스형태를 통해 사용자에게 표현하는 감성 출력부;
상기 감성 출력부를 통해 출력된 감성에 대한 사용자의 응답을 수신하는 사용자 입력부; 및
상기 사용자의 응답을 참조하여 상기 인공지능 알고리즘이 실제 구현화되는데 필요한 각종 파라미터 및 상태 정보를 업데이트하고 관리하는 인공지능 관리부
를 포함하는 인공지능을 이용한 감성인지 아바타 서비스 장치.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020110134908A KR20130082701A (ko) | 2011-12-14 | 2011-12-14 | 인공지능을 이용한 감성인지 아바타 서비스 장치 및 방법 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020110134908A KR20130082701A (ko) | 2011-12-14 | 2011-12-14 | 인공지능을 이용한 감성인지 아바타 서비스 장치 및 방법 |
Publications (1)
Publication Number | Publication Date |
---|---|
KR20130082701A true KR20130082701A (ko) | 2013-07-22 |
Family
ID=48993896
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020110134908A KR20130082701A (ko) | 2011-12-14 | 2011-12-14 | 인공지능을 이용한 감성인지 아바타 서비스 장치 및 방법 |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR20130082701A (ko) |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2018057544A1 (en) * | 2016-09-20 | 2018-03-29 | Twiin, Inc. | Systems and methods of generating consciousness affects using one or more non-biological inputs |
CN108186033A (zh) * | 2018-01-08 | 2018-06-22 | 杭州草莽科技有限公司 | 一种基于人工智能的幼儿情绪监控方法及其系统 |
WO2018153359A1 (zh) * | 2017-02-27 | 2018-08-30 | 华为技术有限公司 | 预测情感状态的方法和机器人 |
WO2019054715A1 (ko) * | 2017-09-18 | 2019-03-21 | 삼성전자 주식회사 | 전자 장치 및 이의 피드백 정보 획득 방법 |
WO2019146866A1 (ko) * | 2018-01-29 | 2019-08-01 | 삼성전자주식회사 | 사용자 행동을 바탕으로 반응하는 로봇 및 그의 제어 방법 |
CN110570849A (zh) * | 2019-07-24 | 2019-12-13 | 中国地质大学(武汉) | 基于深度学习的个人专属ai电子宠物及其使用方法 |
CN114615319A (zh) * | 2018-01-05 | 2022-06-10 | 三星电子株式会社 | 电子设备及控制该电子设备的方法 |
KR20220117671A (ko) * | 2021-02-17 | 2022-08-24 | 상명대학교산학협력단 | 몰입도-추론 기반 교감-유도형 dht 생성 방법 및 이를 적용하는 시스템 |
WO2022196921A1 (ko) * | 2021-03-17 | 2022-09-22 | 주식회사 디엠랩 | 인공지능 아바타에 기초한 인터랙션 서비스 방법 및 장치 |
-
2011
- 2011-12-14 KR KR1020110134908A patent/KR20130082701A/ko not_active Application Discontinuation
Cited By (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11755172B2 (en) | 2016-09-20 | 2023-09-12 | Twiin, Inc. | Systems and methods of generating consciousness affects using one or more non-biological inputs |
WO2018057544A1 (en) * | 2016-09-20 | 2018-03-29 | Twiin, Inc. | Systems and methods of generating consciousness affects using one or more non-biological inputs |
WO2018153359A1 (zh) * | 2017-02-27 | 2018-08-30 | 华为技术有限公司 | 预测情感状态的方法和机器人 |
US11670324B2 (en) | 2017-02-27 | 2023-06-06 | Huawei Technologies Co., Ltd. | Method for predicting emotion status and robot |
WO2019054715A1 (ko) * | 2017-09-18 | 2019-03-21 | 삼성전자 주식회사 | 전자 장치 및 이의 피드백 정보 획득 방법 |
US11468270B2 (en) | 2017-09-18 | 2022-10-11 | Samsung Electronics Co., Ltd. | Electronic device and feedback information acquisition method therefor |
CN114615319A (zh) * | 2018-01-05 | 2022-06-10 | 三星电子株式会社 | 电子设备及控制该电子设备的方法 |
CN114615319B (zh) * | 2018-01-05 | 2024-05-14 | 三星电子株式会社 | 电子设备及控制该电子设备的方法 |
CN108186033A (zh) * | 2018-01-08 | 2018-06-22 | 杭州草莽科技有限公司 | 一种基于人工智能的幼儿情绪监控方法及其系统 |
WO2019146866A1 (ko) * | 2018-01-29 | 2019-08-01 | 삼성전자주식회사 | 사용자 행동을 바탕으로 반응하는 로봇 및 그의 제어 방법 |
KR20190098781A (ko) * | 2018-01-29 | 2019-08-23 | 삼성전자주식회사 | 사용자 행동을 바탕으로 반응하는 로봇 및 그의 제어 방법 |
US12005579B2 (en) | 2018-01-29 | 2024-06-11 | Samsung Electronics Co., Ltd | Robot reacting on basis of user behavior and control method therefor |
CN110570849A (zh) * | 2019-07-24 | 2019-12-13 | 中国地质大学(武汉) | 基于深度学习的个人专属ai电子宠物及其使用方法 |
KR20220117671A (ko) * | 2021-02-17 | 2022-08-24 | 상명대학교산학협력단 | 몰입도-추론 기반 교감-유도형 dht 생성 방법 및 이를 적용하는 시스템 |
WO2022196921A1 (ko) * | 2021-03-17 | 2022-09-22 | 주식회사 디엠랩 | 인공지능 아바타에 기초한 인터랙션 서비스 방법 및 장치 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Spezialetti et al. | Emotion recognition for human-robot interaction: Recent advances and future perspectives | |
KR20130082701A (ko) | 인공지능을 이용한 감성인지 아바타 서비스 장치 및 방법 | |
Yannakakis et al. | Player modeling | |
Sebe et al. | Multimodal emotion recognition | |
Sebe et al. | Multimodal approaches for emotion recognition: a survey | |
Szwoch et al. | Emotion recognition for affect aware video games | |
JP2020511324A (ja) | 育児ロボットのデータ処理方法及び装置 | |
Lin | An Assistive Handwashing System with Emotional Intelligence | |
CN109086860B (zh) | 一种基于虚拟人的交互方法及系统 | |
WO2002099545A1 (en) | Man-machine interface unit control method, robot apparatus, and its action control method | |
US20220101146A1 (en) | Neural network training with bias mitigation | |
KR101727592B1 (ko) | 감성추론 기반 사용자 맞춤형 실감미디어 재현 장치 및 방법 | |
Pan et al. | Video-based engagement estimation of game streamers: An interpretable multimodal neural network approach | |
JP2019133451A (ja) | 評価方法、評価装置、評価プログラム、および、評価システム | |
Böck et al. | Intraindividual and interindividual multimodal emotion analyses in human-machine-interaction | |
JP2022505836A (ja) | デジタルコンテンツ体験との改善されたヒューマンインタラクションのための共感的コンピューティングシステムおよび方法 | |
Spaulding et al. | Frustratingly easy personalization for real-time affect interpretation of facial expression | |
Mishra et al. | Uncanny valley for interactive social agents: An experimental study | |
Mishra et al. | Nadine robot in elderly care simulation recreational activity: using computer vision and observations for analysis | |
WO2018207619A1 (en) | Data collection apparatus and learning apparatus | |
Mousannif et al. | The human face of mobile | |
Roberts et al. | Learning to Influence Emotional Responses for Interactive Storytelling. | |
US20220284649A1 (en) | Virtual Representation with Dynamic and Realistic Behavioral and Emotional Responses | |
EP4427172A1 (en) | User experience modeling system | |
GB2572182A (en) | Emotion signals to train AI |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
WITN | Withdrawal due to no request for examination |