KR101727592B1 - 감성추론 기반 사용자 맞춤형 실감미디어 재현 장치 및 방법 - Google Patents

감성추론 기반 사용자 맞춤형 실감미디어 재현 장치 및 방법 Download PDF

Info

Publication number
KR101727592B1
KR101727592B1 KR1020130073621A KR20130073621A KR101727592B1 KR 101727592 B1 KR101727592 B1 KR 101727592B1 KR 1020130073621 A KR1020130073621 A KR 1020130073621A KR 20130073621 A KR20130073621 A KR 20130073621A KR 101727592 B1 KR101727592 B1 KR 101727592B1
Authority
KR
South Korea
Prior art keywords
effect
real
sensation
user
media
Prior art date
Application number
KR1020130073621A
Other languages
English (en)
Other versions
KR20150001038A (ko
Inventor
윤현진
박상욱
김지연
이용귀
장종현
Original Assignee
한국전자통신연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국전자통신연구원 filed Critical 한국전자통신연구원
Priority to KR1020130073621A priority Critical patent/KR101727592B1/ko
Priority to US14/224,740 priority patent/US20150004576A1/en
Publication of KR20150001038A publication Critical patent/KR20150001038A/ko
Application granted granted Critical
Publication of KR101727592B1 publication Critical patent/KR101727592B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • A61B5/165Evaluating the state of mind, e.g. depression, anxiety
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/24Detecting, measuring or recording bioelectric or biomagnetic signals of the body or parts thereof
    • A61B5/316Modalities, i.e. specific diagnostic methods
    • A61B5/369Electroencephalography [EEG]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7235Details of waveform analysis
    • A61B5/7264Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/20Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
    • G06F16/25Integrating or interfacing systems involving database management systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/174Facial expression recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/23Recognition of whole body movements, e.g. for sport training
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0048Detecting, measuring or recording by applying mechanical forces or stimuli
    • A61B5/0051Detecting, measuring or recording by applying mechanical forces or stimuli by applying vibrations
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/02Detecting, measuring or recording pulse, heart rate, blood pressure or blood flow; Combined pulse/heart-rate/blood pressure determination; Evaluating a cardiovascular condition not otherwise provided for, e.g. using combinations of techniques provided for in this group with electrocardiography or electroauscultation; Heart catheters for measuring blood pressure
    • A61B5/024Detecting, measuring or recording pulse rate or heart rate
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/107Measuring physical dimensions, e.g. size of the entire body or parts thereof
    • A61B5/1071Measuring physical dimensions, e.g. size of the entire body or parts thereof measuring angles, e.g. using goniometers
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems

Landscapes

  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Psychiatry (AREA)
  • General Health & Medical Sciences (AREA)
  • Theoretical Computer Science (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Molecular Biology (AREA)
  • Public Health (AREA)
  • Animal Behavior & Ethology (AREA)
  • Surgery (AREA)
  • Biophysics (AREA)
  • Pathology (AREA)
  • Biomedical Technology (AREA)
  • Veterinary Medicine (AREA)
  • Medical Informatics (AREA)
  • General Physics & Mathematics (AREA)
  • Social Psychology (AREA)
  • Artificial Intelligence (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Psychology (AREA)
  • Physiology (AREA)
  • Business, Economics & Management (AREA)
  • Educational Technology (AREA)
  • Hospice & Palliative Care (AREA)
  • Signal Processing (AREA)
  • Fuzzy Systems (AREA)
  • Mathematical Physics (AREA)
  • Developmental Disabilities (AREA)
  • Evolutionary Computation (AREA)
  • Child & Adolescent Psychology (AREA)
  • Databases & Information Systems (AREA)
  • Tourism & Hospitality (AREA)
  • General Engineering & Computer Science (AREA)
  • Cardiology (AREA)
  • Software Systems (AREA)
  • Computer Hardware Design (AREA)

Abstract

감성추론 기반 사용자 맞춤형 실감미디어 재현 장치 및 방법을 제공한다. 실감미디어 재현 장치는 실감미디어를 재현하는 실감미디어 재현부, 상기 실감미디어 재현 시 측정된 사용자의 복합감성신호를 기초로 상기 사용자의 감성 상태를 추론하는 감성추론부 및 상기 추론된 사용자의 감성 상태를 기초로 상기 실감미디어의 실감효과 속성을 결정하는 실감효과 결정부를 포함하고, 상기 실감미디어 재현부는 상기 결정된 실감효과 속성에 따라 상기 실감미디어를 재현할 수 있다.

Description

감성추론 기반 사용자 맞춤형 실감미디어 재현 장치 및 방법{APPARATUS AND METHOD FOR PERSONALIZED SENSORY MEDIA PLAY BASED ON THE INFERRED RELATIONSHIP BETWEEN SENSORY EFFECTS AND USER'S EMOTIONAL RESPONSES}
본 발명의 실시예들은 실감미디어를 체험하고 있는 사용자의 실감효과 자극에 대한 감성상태를 추론하여 해당 사용자가 만족감을 체감할 수 있도록 실감미디어를 재현하는 장치 및 방법에 관한 것이다.
실감미디어란 현실 세계를 가장 근접하게 재현하고자 개발된 차세대 미디어로, 인간의 오감을 자극하는 실감효과를 통해 동영상, 오디오, 텍스트로 이루어진 기존의 미디어보다 월등히 나은 표현력과 몰입감, 현장감, 현실감 등을 제공할 수 있다는 장점이 있다.
일반적으로 실감미디어는 기존의 동영상, 게임 등의 A/V(Audio/Video) 미디어에 모션, 바람, 진동, 안개, 향기 등과 같은 다양한 실감효과(sensory effect) 재현을 위한 실감효과 메타데이터(SEM: Sensory Effect Metadata)가 추가된 다감각 콘텐츠로, SEM을 기반으로 모션의자, 선풍기, 온도조절기, 진동기기, 조명기기, 발향기 등의 다양한 실감 디바이스를 A/V 미디어와의 동기화를 통해 적절하게 제어함으로써 재현된다.
초기의 실감미디어 서비스는 제작자가 전체 사용자를 대상으로 일방적으로 제작한 실감미디어를 일률적으로 재현하는 방식으로 제공되었다. 그러나, 성별, 나이, 신체, 질병 등에 따른 사용자 유형, 사용자의 일시적인 건강, 심리상태 또는 재현 환경(새벽시간, 실내/외 등)에 따라 사용자 마다 원하는 실감효과의 종류 및 강도가 상이할 수 있기 때문에, 사용자의 선호도를 고려하지 않은 획일화된 서비스로는 다양한 사용자의 실감 체험에 대한 요구를 만족시킬 수 없다.
이러한 문제를 해결하기 위하여, 일 예로 한국공개특허공보 제10-2010-0114857호(공개일 2012년 10월 26일) "사용자 실감 효과 선호정보를 이용한 실감 효과 표현 방법 및 장치"에는 사용자의 실감 효과에 대한 선호도 정보를 입력 받아 이를 기초로 실감미디어의 재현을 제어하는 것이 개시되어 있다.
하지만, 이러한 방법은 사용자가 자신의 실감 효과에 대한 선호도를 명시한 경우 사용자가 선호하는 실감효과를 제공할 수 있지만, 선호도를 명시하지 않은 상황에는 여전히 일률적인 재현만 가능하다는 문제가 있다. 따라서 사용자 입장에서는 만족할 만한 실감미디어 재현을 위해 모든 재현 조건에 대한 실감효과 선호도 정보를 미리 제공해야 하는 불편함이 있다.
이와 같이 종래 기술들은 사용자 맞춤형 실감미디어 재현을 위해 사용자로부터 선호도 정보를 입력 받거나 실감미디어 재현을 제어하는 명령(인터랙션)을 받는 등 사용자의 개입을 상당히 많이 필요로 하는 방법으로, 사용자의 적절한 정보제공 및 제어 없이는 사용자 맞춤형 실감미디어 서비스를 지속할 수 없다는 한계가 있다. 또한 사용자에게 자신이 선호하는 실감자극 속성에 대한 정확한 지식이 요구되는 문제도 가지고 있다.
따라서, 사용자가 실감효과를 체험하는 매 순간마다 사용자의 의도적인 개입 없이도 사용자가 만족할 수 있도록 실감미디어를 자동으로 재현함으로써 실감미디어의 효과를 극대화하고 사용자의 만족감을 지속할 수 있는 기술이 요구된다.
본 발명의 기술적 과제는 사용자의 실감효과 자극에 대한 감성 반응을 판단하는 감성추론을 통해 실감효과와 감성반응 간의 관계를 추정하여 실감미디어를 체험하는 사용자가 만족감을 체감할 수 있도록 실감미디어를 재현할 수 있는 감성추론 기반 사용자 맞춤형 실감미디어 재현 장치 및 방법을 제공함에 있다.
본 발명의 일 양태에 따르면, 실감미디어 재현 장치는 실감미디어를 재현하는 실감미디어 재현부, 상기 실감미디어 재현 시 측정된 사용자의 복합감성신호를 기초로 상기 사용자의 감성 상태를 추론하는 감성추론부 및 상기 추론된 사용자의 감성 상태를 기초로 상기 실감미디어의 실감효과 속성을 결정하는 실감효과 결정부를 포함하고, 상기 실감미디어 재현부는 상기 결정된 실감효과 속성에 따라 상기 실감미디어를 재현할 수 있다.
일 실시예로서, 상기 실감미디어는 A/V(Audio/Video) 미디어 및 상기 실감미디어의 실감효과 재현을 위한 실감효과 메타데이터로 구성될 수 있다.
다른 실시예로서, 상기 실감효과 메타데이터는 실감효과 재현 시점과 실감효과 종류를 포함하는 고정속성 정보 및 실감효과 재현 시간과 실감효과 강도를 포함하는 가변속성 정보를 포함할 수 있다.
또 다른 실시예로서, 상기 실감효과 결정부는 상기 추론된 사용자의 감성 상태를 기초로 기 저장된 실감효과 결정규칙을 이용하여 상기 실감효과 속성을 결정하고, 상기 결정된 실감효과 속성을 기초로 상기 실감효과 메타데이터의 가변속성 정보를 재설정함으로써 사용자 맞춤형 실감효과 메타데이터를 생성할 수 있다.
또 다른 실시예로서, 상기 실감미디어 재현부는 상기 사용자 맞춤형 실감효과 메타데이터를 기초로 상기 실감효과를 재현하는 실감 디바이스를 상기 A/V 미디어를 재현하는 A/V 디바이스와 동기화시켜 제어함으로써 상기 실감미디어를 재현할 수 있다.
또 다른 실시예로서, 상기 감성추론부는 상기 실감미디어 재현 시 상기 사용자의 동작, 음성, 생체 반응 중 적어도 하나를 센싱하는 센싱 디바이스로부터 수신한 상기 복합감성신호를 기초로 상기 사용자의 감성 상태를 추론할 수 있다.
또 다른 실시예로서, 상기 감성추론부는 상기 복합감성신호로부터 복합감성특징을 추출하는 복합감성특징 추출부, 상기 추출된 복합감성특징과 감성 간의 상관 관계를 추정하는 감성분류모델을 생성하는 감성분류모델 생성부 및 상기 생성된 감성분류모델을 이용하여 상기 사용자의 실감효과에 대한 감성 반응을 판단하는 감성반응 판단부를 포함할 수 있다.
또 다른 실시예로서, 상기 감성추론부는 상기 복합감성신호에 포함된 영상 신호를 기초로 상기 사용자의 성별 및 연령대 중 적어도 하나를 포함하는 사용자 기본정보를 추출하는 사용자 기본정보 추출부를 더 포함할 수 있다.
또 다른 실시예로서, 상기 추출된 사용자 기본정보, 상기 추출된 복합감성특징, 상기 판단된 사용자의 실감효과에 대한 감성 반응과 상기 생성된 감성분류모델을 포함하고 상기 사용자의 감성 상태를 추론 시 사용되는 감성 지식베이스 및 상기 추출된 사용자 기본정보, 상기 재현된 실감미디어의 실감효과에 대한 정보, 상기 사용자의 실감효과에 대한 감성 반응에 대한 정보, 상기 실감효과를 결정하기 위한 실감효과 결정모델과 상기 실감효과 결정모델을 통해 도출된 실감효과 결정규칙을 포함하고 상기 실감효과 속성을 결정 시 사용되는 감성 지식베이스를 더 포함할 수 있다.
본 발명의 다른 양태에 따르면, 실감미디어 재현 장치가 실감미디어를 재현하는 방법은 실감미디어 재현 시 측정된 사용자의 복합감성신호를 기초로 상기 사용자의 감성 상태를 추론하는 단계, 상기 추론된 사용자의 감성 상태를 기초로 상기 실감미디어의 실감효과 속성을 결정하는 단계 및 상기 결정된 실감효과 속성에 따라 상기 실감미디어를 재현하는 단계를 포함할 수 있다.
사용자의 동작, 표정, 음성, 생체신호 등을 센싱함으로써 획득한 복합감성신호를 기초로 실감효과 자극에 대한 사용자의 감성반응을 판단하는 감성추론을 기반으로 실감효과와 감성반응 간의 관계를 추정하여 사용자가 만족감을 지속적으로 체감할 수 있도록 실감미디어를 자동으로 재현할 수 있다.
따라서, 사용자의 실감효과 선호도 정보 제공 또는 인터랙션에 따른 불편함을 개선할 수 있으며, 사용자가 실감효과를 체험하는 매 순간마다 사용자의 의도적인 개입 없이도 사용자가 만족할 수 있도록 실감미디어를 자동으로 재현함으로써 실감미디어의 효과를 극대화할 수 있고, 미디어의 소비를 촉진시킬 수 있다.
도 1은 본 발명의 일실시예에 있어서, 실감미디어 재현 장치를 나타내는 블록도이다.
도 2는 본 발명의 일실시예에 있어서, 실감미디어 재현 장치의 감성 추론부의 세부 구성을 나타내는 블록도이다.
도 3은 본 발명의 일실시예에 있어서, 감성 지식베이스를 나타내는 예시도이다.
도 4는 본 발명의 일실시예에 있어서, 실감 지식베이스를 나타내는 예시도이다.
도 5는 본 발명의 일실시예에 있어서, 실감효과 결정 모델을 나타내는 예시도이다.
도 6은 본 발명의 일실시예에 있어서, 실감효과 결정 규칙을 나타내는 예시도이다.
도 7은 본 발명의 일실시예에 있어서, 실감미디어 재현 방법을 나타내는 흐름도이다.
도 8은 본 발명의 일실시예에 있어서, 감성 지식베이스를 초기화 하는 방법을 나타내는 흐름도이다.
도 9는 본 발명의 일실시예에 있어서, 실감 지식베이스를 초기화 하는 방법을 나타내는 흐름도이다.
아래에서는 첨부한 도면을 참고로 하여 본 발명의 실시예에 대하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.
명세서 전체에서, 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미한다. 또한, 명세서에 기재된 "...부" 등의 용어는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미하며, 이는 하드웨어나 소프트웨어 또는 하드웨어 및 소프트웨어의 결합으로 구현될 수 있다.
도 1은 본 발명의 일실시예에 있어서 실감미디어 재현 장치를 나타내는 블록도이고, 도 2는 실감미디어 재현 장치의 감성 추론부의 세부 구성을 나타내는 블록도이다.
도1을 참조하면, 본 발명에 따른 감성추론 기반 사용자 맞춤형 실감미디어 재현 장치(100)는 실감미디어 수신부(110), 실감미디어 재현부(120), 실감효과 결정부(130), 복합감성신호 수신부(140), 감성추론부(150) 및 실감-감성 지식베이스(160)를 포함할 수 있다.
실감미디어 수신부(110)는 미디어 제작자, 각종 단말 장치, 네트워크로 연결된 외부 송신 장치 등으로부터 동영상, 게임 등의 A/V(Audio/Video) 미디어와 모션, 바람, 진동, 안개, 향기 등의 다양한 실감효과를 재현하는데 필요한 정보인 실감효과 메타데이터(SEM: Sensory Effect Metadata)를 포함하는 실감미디어를 수신하여 실감미디어 재현부(120)로 전송한다.
실감미디어 재현부(120)는 실감미디어 수신부(110)로부터 수신한 실감미디어에 포함된 실감효과 메타데이터 또는 실감효과 결정부(130)로부터 수신한 사용자 맞춤형 실감효과 메타데이터(p-SEM: personalized SEM)를 기반으로 모션의자, 선풍기, 온도조절기, 진동기기, 조명기기, 발향기 등과 같은 다양한 실감 디바이스(210)를 A/V 미디어를 재현하는 A/V 디바이스(220)와 동기화시켜 제어함으로써 실감미디어를 재현한다. 그리고, 재현된 실감미디어의 실감효과 재현 정보를 실감효과 결정부(130)로 전송한다.
실감효과 메타데이터는 실감효과 재현 시점, 실감효과 종류, 실감효과 재현 시간(duration), 실감효과 강도 및 실감효과 별 추가 속성정보를 포함할 수 있다. 실감효과 재현 시점 및 실감효과 종류에 대한 정보는 초기 설정된 속성값의 변경이 허용되지 않는 고정속성 정보로 분류되고, 나머지 속성(실감효과 재현 시간, 실감효과 강도 및 실감효과 별 추가 속성정보)은 재현 시점에 사용자의 만족감 체감을 위해 변경이 가능한 가변속성 정보로 분류될 수 있다.
실감효과 결정부(130)는 실감-감성 지식베이스(160)에 저장된 실감효과 결정규칙을 이용하여 사용자의 감성상태에 따라 해당 사용자가 만족감을 체감할 수 있도록 실감효과를 결정하고, 결정된 실감효과에 따라 실감효과 메타데이터의 가변속성 정보를 재설정하여 사용자 맞춤형 실감효과 메타데이터(p-SEM)를 생성한 후 실감효과 재현부(120)로 전달한다.
사용자의 만족감은 실감미디어의 재현 목적에 따라 기쁨(happiness), 슬픔(sadness), 놀람(surprise), 공포(fear), 혐오(disgust), 분노(anger), 흥분(excitement), 흥미(interest), 허용(acceptance) 등의 기본감성(universal emotion) 중 하나 또는 이들 기본감성의 조합으로 정의될 수 있다. 예를 들어, 재현하고자 하는 실감미디어가 자동차 광고일 경우, 자동차 광고에 대한 사용자의 만족감은 기본감성 중 하나인 흥미로 정의될 수 있으며, 이 경우 실감효과 결정부(130)는 사용자가 흥미로운 감정을 최대로 느낄 수 있도록 실감효과 자극의 속성을 결정할 수 있다. 반면, 자동차 광고에 대한 사용자의 만족감이 기쁨과 흥미의 조합인 복합감성으로 정의되는 경우, 실감효과 결정부(130)는 사용자가 기쁘다는 감정과 흥미 모두를 최대로 체감할 수 있도록 실감효과 자극의 속성을 결정할 수 있다. 또한 실감효과 결정부(130)는 실감효과 결정규칙 간의 충돌을 감지하고 실감효과 결정규칙간의 일관성(consistency)을 보장할 수 있는 기능을 추가할 수 있다.
복합감성신호 수신부(140)는 실감효과 자극을 체험하고 있는 사용자의 동작, 음성, 생체 반응 등을 센싱하는 센싱 디바이스(230)로부터 영상, 음성, 생체신호 정보 등을 포함하는 복합감성신호를 수신하여 감성추론부(500)에 전달한다. 센싱 디바이스(230)에는 카메라, 마이크, 뇌파 센서, 맥파 센서, 온도 센서 등이 포함될 수 있다.
감성추론부(150)는 실감-감성 지식베이스(160)에 저장된 감성분류모델을 기반으로 복합감성신호 수신부(140)로부터 수신한 복합감성신호로부터 사용자의 감성상태를 추정한다.
감성추론부(150)는 일 예로, 도 2에 도시된 것과 같이 복합감성특징 추출부(152), 감성분류모델 생성부(154), 감성반응 판단부(156) 및 사용자 기본정보 추출부(158)를 포함할 수 있다.
복합감성특징 추출부(152)는 사용자가 특정 감성을 유도하는 자극(stimuli)을 통해 해당 감성을 체감하는 동안 측정된 복합감성신호를 센싱 디바이스(239)로부터 수신하여 이로부터 감성추론에 적합한 복합감성특징을 추출할 수 있다. 복합감성신호는 사용자의 얼굴표정, 전신 동작, 음성, 뇌파, 맥파 등을 센싱함으로써 측정된 영상, 음성, 생체신호 등을 포함할 수 있다.
감성분류모델 생성부(154)는 복합감성특징 추출부(152)에서 추출된 복합감성특징을 기초로 추출된 복합감성특징과 해당 감성 상태와의 상관관계를 가장 근접하게 추정하는 경험적 관계식인 감성분류모델을 생성하고, 생성한 감성분류모델을 실감-감성 지식베이스(160)에 저장한다.
감성반응 판단부(156)는 실감-감성 지식베이스(160)에 저장된 감성분류모델을 이용하여 실감미디어 재현부(120)에 의해 재현된 실감효과 자극에 대한 사용자의 감성 반응을 판단한다.
사용자 기본정보 추출부(158)는 복합감성신호 수신부(140)로부터 수신한 복합감성신호를 기초로 사용자의 성별과 연령대를 포함하는 사용자 기본정보를 추출하고, 추출한 사용자 기본정보를 실감-감성 지식베이스(160)에 저장한다. 일 예로, 사용자 기본정보 추출부(158)는 복합감성신호에 포함된 영상신호를 기초로 사용자의 성별 및 연령대를 추정할 수 있다.
실감-감성 지식베이스(160)는 감성상태별 복합감성신호 정보, 사용자 기본정보, 실감효과 재현정보, 감성분류모델, 실감효과 결정규칙 등을 포함한다. 실감-감성 지식베이스(160)는 감성추론부(150)의 의사결정에 사용되는 감성 지식베이스(610) 및 실감효과 결정부(130)의 의사결정에 사용되는 실감 지식베이스(620)로 구분될 수 있다. 이하, 도 3 내지 도 4를 참조하여 실감-감성 지식베이스에 대해 보다 상세히 설명한다.
도 3은 본 발명의 일실시예에 있어서 감성 지식베이스를 나타내는 예시도이고, 도 4는 본 발명의 일실시예에 있어서 실감 지식베이스를 나타내는 예시도이다. 한편, 도 5는 본 발명의 일실시예에 있어서 실감효과 결정 모델을 나타내는 예시도이고, 도 6은 본 발명의 일실시예에 있어서 실감효과 결정 규칙을 나타내는 예시도이다.
먼저 도 3을 참조하면, 감성 지식베이스는 감성추론부(150)가 복합감성신호 수신부(140)로부터 수신한 복합감성신호에서 복합감성특징을 추출한 결과를 저장한 감성 DB(DataBase) 및 감성 DB에 저장된 복합감성특징과 감성반응 간의 상관관계를 추정한 경험적 관계식(f)인 감성분류모델을 포함한다. 감성추론부(150)는 상기 감성분류모델을 기반으로 복합감성신호를 입력 받아 실감효과 자극에 대한 사용자의 감성 반응을 판단할 수 있다. 일 예로, 경험적 관계식(f)은 다중선형회귀모델, 인공신경망모델, 서포트벡터머신 모델 등의 회귀(regression)모델 중 하나로 수립하고, 감성DB를 이용하여 수립한 관계식의 파라미터를 추정함으로써 완성될 수 있다.
다음으로 실감 지식베이스는 도 4 내지 도 6에 도시된 것과 같이, 사용자 기본정보, 실감미디어 재현부(200)가 재현한 실감효과에 대한 실감효과 재현정보, 실감효과를 체험한 사용자의 감성반응 추론 결과로 구성된 실감DB, 실감 DB에서 실감효과 별로 감성반응을 분류하는 실감효과 결정모델 및 실감효과 결정모델에서 도출된 만족감에 해당되는 사용자 기본정보 및 실감효과 재현 조건인 실감효과 결정규칙을 포함한다. 실감효과 결정모델은 사용자의 성별과 연령대를 고려하여 사용자의 만족감을 유도하기 위한 실감효과 결정규칙의 도출이 용이한 의사결정 트리(decision tree) 모델을 기반으로 생성할 수 있다. 도 5에는 일 예로 실감효과가 진동효과인 경우의 실감효과 결정모델이 도시되어 있고, 도 6에는 실감효과가 진동효과인 경우의 실감효과 결정규칙이 도시되어 있다.
도 7은 본 발명의 일실시예에 있어서, 실감미디어 재현 방법을 나타내는 흐름도이다.
본 발명에 따른 실감미디어 재현 장치는 도 7에 도시된 바와 같이, 실감미디어 재현에 앞서 실감-감성 지식베이스의 초기화 여부를 판단할 수 있다(700). 실감-감성 지식베이스를 초기화하는 경우, 실감미디어 재현 장치는 감성 지식베이스를 생성하여 감성 지식베이스 초기화하고(800), 실감 지식베이스를 생성하여 실감 지식베이스 초기화한다(900). 실감-감성 지식베이스가 초기화되면, 실감미디어 재현 장치는 구축된 실감-감성 지식베이스를 기반으로 사용자가 만족감을 체감할 수 있도록 실감미디어를 재현할 수 있다.
일 예로, 실감미디어 재현 장치는 사용자가 만족감을 체감할 수 있도록 실감미디어를 재현하기 위하여 센싱 디바이스로부터 수신한 복합감성신호를 기초로 사용자의 성별, 연령대 등의 사용자 기본정보를 추출하여 실감-감성 지식베이스에 저장하고(710), 실감미디어를 수신하여 재현을 시작한다(720).
실감미디어 재현 장치의 실감미디어 재현부는 실감미디어 재현 중 해당 시점이 실감효과 재현 시점인지를 판단한다(730). 실감효과 재현 시점인 경우 실감미디어 재현부는 실감미디어 결정부로 사용자 맞춤형 실감효과 메타데이터(p-SEM) 전송을 요청할 수 있다. 실감효과 결정부는 사용자 맞춤형 실감효과 메타데이터를 요청 받으면, 실감 지식베이스에 저장된 실감효과 결정규칙을 이용하여 사용자가 만족감을 체감할 수 있도록 실감효과를 결정하고 이를 기초로 실감효과 메타데이터의 가변속성 정보를 재설정한다. 그리고, 재설정한 결과인 사용자 맞춤형 실감효과 메타데이터(p-SEM)를 실감미디어 재현부로 전송하여 실감미디어 재현부가 사용자 맞춤형 실감효과 메타데이터를 기초로 실감 디바이스를 제어하여 실감효과를 재현할 수 있도록 한다(740).
한편, 실감효과 재현 장치의 복합감성신호 수신부는 실감효과가 재현된 후 실감효과 자극에 대한 사용자의 감성반응을 센싱한 복합감성신호를 수신하여 감성추론부로 전송하고, 감성추론부는 감성 지식베이스에 저장된 감성분류모델을 기반으로 사용자의 감성반응을 추론한다(750). 그리고, 감성추론 결과가 만족감인지를 판단하여(760), 실감효과 자극에 대한 사용자의 감성반응이 만족감이 아닌 경우 최근의 복합감성신호, 사용자 기본정보, 실감효과 재현정보, 감성반응 추론결과로 실감 지식베이스의 실감DB, 실감효과 결정모델, 실감효과 결정규칙을 갱신하여 저장한다(770). 이러한 과정은 실감미디어 재현이 종료될 때까지 반복될 수 있다(780).
도 8은 본 발명의 일실시예에 있어서, 감성 지식베이스를 초기화하는 방법을 나타내는 흐름도이다.
도 8을 참조하면, 실감미디어 재현 장치는 감성 지식베이스 초기화 시 센싱 디바이스로부터 특정 감성(예를 들어, 기쁨, 슬픔 등의 기본감성)을 유도하는 음악, 그림, 영상 등의 자극(stimuli)이 사용자에게 제공되어 사용자가 해당 감성을 발현하는 동안 감지된 영상, 음성, 생체신호를 포함하는 복합감성신호를 수신하고 이로부터 사용자의 성별, 나이를 포함하는 사용자 기본정보를 추출하여 실감-감성 지식베이스에 저장하는 한편(810), 수신한 복합감성신호를 저장한다(820). 이어, 저장한 복합감성신호로부터 감성의 특성을 대표할 수 있는 복합감성특징을 추출하여 복합감성특징과 해당 감성상태 쌍(pair)을 감성 지식베이스에 저장한다(830). 그리고, 복합감성특징과 쌍이 되는 감성 상태와의 상관관계에 가장 근접한 경험적 관계식을 추정하여 감성분류모델을 생성하고, 그 결과인 감성분류모델을 감성 지식베이스에 저장하고(840) 종료한다.
도 9는 본 발명의 일실시예에 있어서, 실감 지식베이스를 초기화하는 방법을 나타내는 흐름도이다.
도 9를 참조하면, 실감미디어 재현 장치는 센싱 디바이스로부터 수신한 복합감성신호에서 사용자의 성별, 나이를 포함하는 기본정보를 추출하여 실감-감성 지식베이스에 저장한다(910). 이어, 다양한 실감효과를 포함하고 있는 훈련용 실감미디어를 수신하여 재현을 시작한다(920). 이후, 실감미디어 재현 중 실감효과 재현 시점인지를 판단하여(930), 실감효과 재현 직후 마다 재현한 실감효과에 대한 실감효과 종류, 시간, 세기를 포함하는 실감효과 재현 정보를 실감 지식베이스에 저장한다(940). 그리고, 재현한 실감효과 자극에 대한 사용자의 감성반응을 센싱한 복합감성신호를 수신하여 실감-감성 지식베이스에 저장하고(950), 감성 지식베이스에 저장된 감성분류모델을 기반으로 수신한 복합감성신호로부터 사용자의 감성반응을 추론하고 추론 결과를 실감 지식베이스에 저장한다(960). 이후, 훈련용 실감미디어의 재현 종료 여부를 판단하여, 실감미디어 재현 종료 전까지는 실감효과를 재현하고 실감효과를 체험한 사용자의 감성반응을 추론하는 과정(930~960)을 반복한다. 마지막으로 실감 지식베이스에 저장된 실감효과 재현 정보를 기초로 실감효과 종류 별로 사용자의 만족감 체감을 위한 실감효과 결정규칙을 생성하여 실감 지식베이스에 저장한다(980).
이상의 설명은 본 발명의 기술 사상을 예시적으로 설명한 것에 불과한 것으로서, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 다양한 수정 및 변형이 가능할 것이다. 따라서, 본 발명에 개시된 실시 예들은 본 발명의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시 예에 의하여 본 발명의 기술 사상의 범위가 한정되는 것은 아니다. 본 발명의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 발명의 권리범위에 포함되는 것으로 해석되어야 할 것이다.
100: 실감미디어 재현 장치
110: 실감미디어 수신부
120: 실감미디어 재현부
130: 실감효과 결정부
140: 복합감성신호 수신부
150: 감성추론부
160: 실감-감성 지식베이스
210: AV 디바이스
220: 실감 디바이스
230: 센싱 디바이스

Claims (18)

  1. 실감미디어를 재현하는 실감미디어 재현부;
    상기 실감미디어 재현 시 측정된 사용자의 복합감성신호를 기초로 상기 사용자의 감성 상태를 추론하는 감성추론부;
    상기 추론된 사용자의 감성 상태를 기초로 상기 실감미디어의 실감효과 속성을 결정하는 실감효과 결정부; 및
    상기 실감효과 별로 감성반응을 분류하는 실감효과 결정모델 및 상기 복합감성신호를 저장하는 실감-감성 지식베이스
    를 포함하고,
    상기 실감미디어 재현부는,
    상기 결정된 실감효과 속성에 따라 상기 실감미디어를 재현하며,
    상기 실감효과 결정모델은 의사결정 트리(decision tree) 모델을 기반으로 생성되는 것을 특징으로 하는 실감미디어 재현 장치.
  2. 제1항에 있어서,
    상기 실감미디어는,
    A/V(Audio/Video) 미디어 및 상기 실감미디어의 실감효과 재현을 위한 실감효과 메타데이터로 구성되는 것을 특징으로 하는 실감미디어 재현 장치.
  3. 제2항에 있어서,
    상기 실감효과 메타데이터는,
    실감효과 재현 시점과 실감효과 종류를 포함하는 고정속성 정보 및 실감효과 재현 시간과 실감효과 강도를 포함하는 가변속성 정보를 포함하는 것을 특징으로 하는 실감미디어 재현 장치.
  4. 제3항에 있어서,
    상기 실감효과 결정부는,
    상기 추론된 사용자의 감성 상태를 기초로 기 저장된 실감효과 결정규칙을 이용하여 상기 실감효과 속성을 결정하고, 상기 결정된 실감효과 속성을 기초로 상기 실감효과 메타데이터의 가변속성 정보를 재설정함으로써 사용자 맞춤형 실감효과 메타데이터를 생성하는 것을 특징으로 하는 실감미디어 재현 장치.
  5. 제4항에 있어서,
    상기 실감미디어 재현부는,
    상기 사용자 맞춤형 실감효과 메타데이터를 기초로 상기 실감효과를 재현하는 실감 디바이스를 상기 A/V 미디어를 재현하는 A/V 디바이스와 동기화시켜 제어함으로써 상기 실감미디어를 재현하는 것을 특징으로 하는 실감미디어 재현 장치.
  6. 제1항에 있어서,
    상기 감성추론부는,
    상기 실감미디어 재현 시 상기 사용자의 동작, 음성, 생체 반응 중 적어도 하나를 센싱하는 센싱 디바이스로부터 수신한 상기 복합감성신호를 기초로 상기 사용자의 감성 상태를 추론하는 것을 특징으로 하는 실감미디어 재현 장치.
  7. 제6항에 있어서,
    상기 감성추론부는,
    상기 복합감성신호로부터 복합감성특징을 추출하는 복합감성특징 추출부;
    상기 추출된 복합감성특징과 감성 간의 상관 관계를 추정하는 감성분류모델을 생성하는 감성분류모델 생성부; 및
    상기 생성된 감성분류모델을 이용하여 상기 사용자의 실감효과에 대한 감성 반응을 판단하는 감성반응 판단부
    를 포함하는 것을 특징으로 하는 실감미디어 재현 장치.
  8. 제7항에 있어서,
    상기 감성추론부는,
    상기 복합감성신호에 포함된 영상 신호를 기초로 상기 사용자의 성별 및 연령대 중 적어도 하나를 포함하는 사용자 기본정보를 추출하는 사용자 기본정보 추출부를 더 포함하는 것을 특징으로 하는 실감미디어 재현 장치.
  9. 제8항에 있어서,
    상기 실감-감성 지식베이스는,
    상기 추출된 사용자 기본정보, 상기 추출된 복합감성특징, 상기 판단된 사용자의 실감효과에 대한 감성 반응과 상기 생성된 감성분류모델을 포함하고 상기 사용자의 감성 상태를 추론 시 사용되는 감성 지식베이스; 및
    상기 추출된 사용자 기본정보, 상기 재현된 실감미디어의 실감효과에 대한 정보, 상기 사용자의 실감효과에 대한 감성 반응에 대한 정보, 상기 실감효과를 결정하기 위한 실감효과 결정모델과 상기 실감효과 결정모델을 통해 도출된 실감효과 결정규칙을 포함하고 상기 실감효과 속성을 결정 시 사용되는 실감 지식베이스
    를 포함하는 것을 특징으로 하는 실감미디어 재현 장치.
  10. 실감미디어 재현 장치가 실감미디어를 재현하는 방법에 있어서,
    실감미디어 재현 시 측정된 사용자의 복합감성신호를 기초로 상기 사용자의 감성 상태를 추론하는 단계;
    상기 추론된 사용자의 감성 상태를 기초로 상기 실감미디어의 실감효과 속성을 결정하는 단계;
    상기 실감효과 별로 감성반응을 분류하는 실감효과 결정모델 및 상기 복합감성신호를 실감-감성 지식베이스에 저장하는 단계; 및
    상기 결정된 실감효과 속성에 따라 상기 실감미디어를 재현하는 단계
    를 포함하며,
    상기 실감효과 결정모델은 의사결정 트리(decision tree) 모델을 기반으로 생성되는, 실감미디어 재현 방법.
  11. 제10항에 있어서,
    상기 실감미디어는,
    A/V(Audio/Video) 미디어 및 상기 실감미디어의 실감효과 재현을 위한 실감효과 메타데이터로 구성되는 것을 특징으로 하는 실감미디어 재현 방법.
  12. 제11항에 있어서,
    상기 실감효과 메타데이터는,
    실감효과 재현 시점과 실감효과 종류를 포함하는 고정속성 정보 및 실감효과 재현 시간과 실감효과 강도를 포함하는 가변속성 정보를 포함하는 것을 특징으로 하는 실감미디어 재현 방법.
  13. 제12항에 있어서,
    상기 결정하는 단계 이후에,
    상기 결정된 실감효과 속성을 기초로 상기 실감효과 메타데이터의 가변속성 정보를 재설정함으로써 사용자 맞춤형 실감효과 메타데이터를 생성하는 단계를 더 포함하는 것을 특징으로 하는 실감미디어 재현 방법.
  14. 제13항에 있어서,
    상기 재현하는 단계는,
    상기 사용자 맞춤형 실감효과 메타데이터를 기초로 상기 실감효과를 재현하는 실감 디바이스를 상기 A/V 미디어를 재현하는 A/V 디바이스와 동기화시켜 제어함으로써 상기 실감미디어를 재현하는 단계인 것을 특징으로 하는 실감미디어 재현 방법.
  15. 제10항에 있어서,
    상기 추론하는 단계는,
    상기 실감미디어 재현 시 상기 사용자의 동작, 음성, 생체 반응 중 적어도 하나를 센싱하는 센싱 디바이스로부터 수신한 상기 복합감성신호를 기초로 상기 사용자의 감성 상태를 추론하는 단계인 것을 특징으로 하는 실감미디어 재현 방법.
  16. 제15항에 있어서,
    상기 추론하는 단계는,
    상기 복합감성신호로부터 복합감성특징을 추출하는 단계;
    상기 추출된 복합감성특징과 감성 간의 상관 관계를 추정하는 감성분류모델을 생성하는 단계; 및
    상기 생성된 감성분류모델을 이용하여 상기 사용자의 실감효과에 대한 감성 반응을 판단하는 단계
    를 포함하는 것을 특징으로 하는 실감미디어 재현 방법.
  17. 제16항에 있어서,
    상기 추론하는 단계 이전에,
    상기 복합감성신호에 포함된 영상 신호를 기초로 상기 사용자의 성별 및 연령대 중 적어도 하나를 포함하는 사용자 기본정보를 추출하는 단계를 더 포함하는 것을 특징으로 하는 실감미디어 재현 방법.
  18. 제17항에 있어서,
    실감-감성 지식베이스에 저장하는 단계는,
    상기 추출된 사용자 기본정보, 상기 추출된 복합감성특징, 상기 판단된 사용자의 실감효과에 대한 감성 반응과 상기 생성된 감성분류모델을 포함하고 상기 사용자의 감성 상태를 추론 시 사용되는 감성 지식베이스를 구축하는 단계; 및
    상기 추출된 사용자 기본정보, 상기 재현된 실감미디어의 실감효과에 대한 정보, 상기 사용자의 실감효과에 대한 감성 반응에 대한 정보, 상기 실감효과를 결정하기 위한 실감효과 결정모델과 상기 실감효과 결정모델을 통해 도출된 실감효과 결정규칙을 포함하고 상기 실감효과 속성을 결정 시 사용되는 실감 지식베이스를 구축하는 단계;
    를 포함하는 것을 특징으로 하는 실감미디어 재현 방법.
KR1020130073621A 2013-06-26 2013-06-26 감성추론 기반 사용자 맞춤형 실감미디어 재현 장치 및 방법 KR101727592B1 (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020130073621A KR101727592B1 (ko) 2013-06-26 2013-06-26 감성추론 기반 사용자 맞춤형 실감미디어 재현 장치 및 방법
US14/224,740 US20150004576A1 (en) 2013-06-26 2014-03-25 Apparatus and method for personalized sensory media play based on the inferred relationship between sensory effects and user's emotional responses

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020130073621A KR101727592B1 (ko) 2013-06-26 2013-06-26 감성추론 기반 사용자 맞춤형 실감미디어 재현 장치 및 방법

Publications (2)

Publication Number Publication Date
KR20150001038A KR20150001038A (ko) 2015-01-06
KR101727592B1 true KR101727592B1 (ko) 2017-04-18

Family

ID=52115928

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020130073621A KR101727592B1 (ko) 2013-06-26 2013-06-26 감성추론 기반 사용자 맞춤형 실감미디어 재현 장치 및 방법

Country Status (2)

Country Link
US (1) US20150004576A1 (ko)
KR (1) KR101727592B1 (ko)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20150127933A (ko) * 2014-05-07 2015-11-18 한국전자통신연구원 실감효과 재현 장치 및 그 방법
US20160063874A1 (en) * 2014-08-28 2016-03-03 Microsoft Corporation Emotionally intelligent systems
JP6365229B2 (ja) * 2014-10-23 2018-08-01 株式会社デンソー 多感覚インタフェースの制御方法および多感覚インタフェース制御装置、多感覚インタフェースシステム
US9711056B1 (en) * 2016-03-14 2017-07-18 Fuvi Cognitive Network Corp. Apparatus, method, and system of building and processing personal emotion-based computer readable cognitive sensory memory and cognitive insights for enhancing memorization and decision making skills
KR102573933B1 (ko) * 2016-10-04 2023-09-05 한국전자통신연구원 기계 학습 기반의 실감 미디어 저작 방법 및 장치
KR102015017B1 (ko) * 2016-11-25 2019-08-28 한국표준과학연구원 생체신호 측정을 이용한 감성벡터 기반 몰입촉발 감성 실시간 추적방법
KR102651253B1 (ko) * 2017-03-31 2024-03-27 삼성전자주식회사 사용자 감정 판단을 위한 전자 장치 및 이의 제어 방법
KR102173554B1 (ko) 2019-02-22 2020-11-03 이정열 스포츠 스코어 관리 시스템
KR20220120022A (ko) 2021-02-22 2022-08-30 이정열 스포츠 스코어 관리 시스템

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20090002178A1 (en) * 2007-06-29 2009-01-01 Microsoft Corporation Dynamic mood sensing

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWI221574B (en) * 2000-09-13 2004-10-01 Agi Inc Sentiment sensing method, perception generation method and device thereof and software
WO2009051428A1 (en) * 2007-10-16 2009-04-23 Electronics And Telecommunications Research Institute Sensory effect media generating and consuming method and apparatus thereof
US20100275235A1 (en) * 2007-10-16 2010-10-28 Sanghyun Joo Sensory effect media generating and consuming method and apparatus thereof
WO2010008235A2 (ko) * 2008-07-16 2010-01-21 한국전자통신연구원 실감 효과 표현 방법 및 그 장치 및 실감 기기 제어 메타데이터가 기록된 컴퓨터로 읽을 수 있는 기록 매체
US8712958B2 (en) * 2008-07-16 2014-04-29 Electronics And Telecommunications Research Institute Method and apparatus for representing sensory effects and computer readable recording medium storing user sensory preference metadata
KR20100008774A (ko) * 2008-07-16 2010-01-26 한국전자통신연구원 실감 효과 표현 방법 및 그 장치 및 실감 효과 메타데이터가 기록된 컴퓨터로 읽을 수 있는 기록 매체
US20110125788A1 (en) * 2008-07-16 2011-05-26 Electronics And Telecommunications Research Institute Method and apparatus for representing sensory effects and computer readable recording medium storing sensory device capability metadata
KR20100033954A (ko) * 2008-09-22 2010-03-31 한국전자통신연구원 실감 효과 표현 방법 및 장치
WO2010120137A2 (ko) * 2009-04-15 2010-10-21 한국전자통신연구원 감각 효과를 위한 메타데이터 제공 방법 및 장치, 감각 효과를 위한 메타데이터가 기록된 컴퓨터로 읽을 수 있는 기록 매체, 감각 재생 방법 및 장치
KR20100114857A (ko) * 2009-04-16 2010-10-26 한국전자통신연구원 사용자 실감 효과 선호정보를 이용한 실감 효과 표현 방법 및 장치
US20100268745A1 (en) * 2009-04-16 2010-10-21 Bum-Suk Choi Method and apparatus for representing sensory effects using sensory device capability metadata
KR101303648B1 (ko) * 2009-12-08 2013-09-04 한국전자통신연구원 감성신호 감지 장치 및 그 방법
KR101262922B1 (ko) * 2009-12-10 2013-05-09 한국전자통신연구원 감성 변화에 따른 감성지수 결정 장치 및 그 방법
US20120167035A1 (en) * 2010-12-22 2012-06-28 Electronics And Telecommunications Research Institute Apparatus and method for developing customer-oriented emotional home application service
TWI489451B (zh) * 2012-12-13 2015-06-21 Univ Nat Chiao Tung 基於語音情感辨識之音樂播放系統及其方法

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20090002178A1 (en) * 2007-06-29 2009-01-01 Microsoft Corporation Dynamic mood sensing

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
고광은, 심귀보 ‘Multi-Modal 감정인식 기반 서비스추론 기술 개발’, 제어로봇시스템학회 국내학술대회 논문집, p 480-483, (2008.10.14)

Also Published As

Publication number Publication date
KR20150001038A (ko) 2015-01-06
US20150004576A1 (en) 2015-01-01

Similar Documents

Publication Publication Date Title
KR101727592B1 (ko) 감성추론 기반 사용자 맞춤형 실감미디어 재현 장치 및 방법
US11481946B2 (en) Information processing apparatus, information processing method, program, and information processing system for reinforcing target behavior
US11303976B2 (en) Production and control of cinematic content responsive to user emotional state
CN112118784B (zh) 用于检测神经生理状态的社交交互应用
EP3381175B1 (en) Apparatus and method for operating personal agent
JP4481682B2 (ja) 情報処理装置及びその制御方法
US9996973B2 (en) Augmented reality objects based on biometric feedback
US20190196576A1 (en) Virtual reality device and a virtual reality server
JP7424285B2 (ja) 情報処理システム、情報処理方法、および記録媒体
JP2019532374A (ja) ユーザの感情状態を用いて仮想画像生成システムを制御するための技術
JP6589880B2 (ja) 情報処理システム、制御方法、および記憶媒体
CN102473320A (zh) 通过学习到的来自用户的输入使视觉表示生动化
CA2673644A1 (en) Situated simulation for training, education, and therapy
Cheok et al. Human-robot intimate relationships
US20210312167A1 (en) Server device, terminal device, and display method for controlling facial expressions of a virtual character
US20230047787A1 (en) Controlling progress of audio-video content based on sensor data of multiple users, composite neuro-physiological state and/or content engagement power
KR20130082701A (ko) 인공지능을 이용한 감성인지 아바타 서비스 장치 및 방법
KR100580617B1 (ko) 오브젝트 성장제어 시스템 및 그 방법
Bisogni et al. Deep learning for emotion driven user experiences
Mavromoustakos-Blom et al. Personalized crisis management training on a tablet
CN114712862A (zh) 虚拟宠物交互方法、电子设备及计算机可读存储介质
Brambilla et al. StrEx: Towards a Modulator of Stressful Experience in Virtual Reality Games
KR102596322B1 (ko) 차량 내부 영상을 기반으로 콘텐츠를 저작하는 방법, 시스템 및 비일시성의 컴퓨터 판독 가능 기록 매체
US11822719B1 (en) System and method for controlling digital cinematic content based on emotional state of characters
WO2023189558A1 (ja) 情報処理システムおよび情報処理方法

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant