KR101116373B1 - 감정데이터 공유시스템 및 그 공유시스템을 이용한 감정데이터 공유방법 - Google Patents

감정데이터 공유시스템 및 그 공유시스템을 이용한 감정데이터 공유방법 Download PDF

Info

Publication number
KR101116373B1
KR101116373B1 KR1020080107961A KR20080107961A KR101116373B1 KR 101116373 B1 KR101116373 B1 KR 101116373B1 KR 1020080107961 A KR1020080107961 A KR 1020080107961A KR 20080107961 A KR20080107961 A KR 20080107961A KR 101116373 B1 KR101116373 B1 KR 101116373B1
Authority
KR
South Korea
Prior art keywords
emotion
data
integrated
emotion data
integrated data
Prior art date
Application number
KR1020080107961A
Other languages
English (en)
Other versions
KR20100048688A (ko
Inventor
민혜진
박종철
Original Assignee
한국과학기술원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국과학기술원 filed Critical 한국과학기술원
Priority to KR1020080107961A priority Critical patent/KR101116373B1/ko
Publication of KR20100048688A publication Critical patent/KR20100048688A/ko
Application granted granted Critical
Publication of KR101116373B1 publication Critical patent/KR101116373B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F15/00Digital computers in general; Data processing equipment in general
    • G06F15/02Digital computers in general; Data processing equipment in general manually operated with input through keyboard and computation using a built-in program, e.g. pocket calculators
    • G06F15/025Digital computers in general; Data processing equipment in general manually operated with input through keyboard and computation using a built-in program, e.g. pocket calculators adapted to a specific application
    • G06F15/0283Digital computers in general; Data processing equipment in general manually operated with input through keyboard and computation using a built-in program, e.g. pocket calculators adapted to a specific application for data storage and retrieval
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/0035User-machine interface; Control console
    • H04N1/00405Output means
    • H04N1/00408Display of information to the user, e.g. menus
    • H04N1/00472Display of information to the user, e.g. menus using a pop-up window

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Business, Economics & Management (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Tourism & Hospitality (AREA)
  • General Physics & Mathematics (AREA)
  • Economics (AREA)
  • Marketing (AREA)
  • General Engineering & Computer Science (AREA)
  • Computing Systems (AREA)
  • Computer Hardware Design (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Resources & Organizations (AREA)
  • Signal Processing (AREA)
  • Primary Health Care (AREA)
  • Strategic Management (AREA)
  • General Business, Economics & Management (AREA)
  • Computational Linguistics (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Acoustics & Sound (AREA)
  • Information Transfer Between Computers (AREA)

Abstract

본 발명은 특정 영상데이터 등에 대한 감정데이터집합부를 통해 집단감성정보를 얻을 수 있는 감성데이터 공유시스템 및 그러한 감정공유시스템을 이용한 감정데이터 공유방법에 대한 것이다. 보다 상세하게는, 감정데이터를 입력하는 입력수단을 구비하고, 입력수단에서 입력된 감정데이터를 저장하는 저장수단 및 감정데이터를 입력하기 위해 수신된 통합데이터를 디스플레이하는 디스플레이부를 갖는 복수의 클라이언트; 각각의 클라이언트가 입력한 감정데이터를 수신받아 감정데이터집합부를 형성하는 형성수단을 구비하고, 통합데이터를 클라이언트에 송신하는 공유서버; 및 공유서버와 연결되어 공유서버에서 형성된 감정데이터집합부 또는 통합데이터 중 적어도 어느 하나가 저장되는 메인데이터 베이스;를 포함하는 것을 특징으로 하는 감정데이터 공유시스템이다.
감정데이터, 클라이언트, 공유서버, 감정데이터집합부, 메인데이터베이스

Description

감정데이터 공유시스템 및 그 공유시스템을 이용한 감정데이터 공유방법{Sharing System of Emotion Data and Method Sharing Emotion Data}
본 발명은 특정 영상데이터 등에 대한 감정데이터집합부를 통해 집단감성정보를 얻을 수 있는 감정데이터 공유시스템 및 그러한 감정공유시스템을 이용한 감정데이터 공유방법에 대한 것이다. 보다 상세하게는, 클라이언트의 입력수단에 의해 감정데이터를 입력하고 복수의 클라이언트에서 전송된 감정데이터들을 감정데이터집합부로 집단감성정보를 가지는 데이터로 형성할 수 있다. 이러한 감정데이터집합부를 공유함으로써 사용자들이 통합데이터에 대한 집단감성정보를 알 수 있게 되는 감정데이터 공유시스템 및 감정데이터 공유방법이다
영상데이터 등을 디스플레이부에서 디스플레이하는 경우에 영상을 부분적으로 사용자가 원하는 부분만 보거나 영상데이터가 시간대별로 어떠한 영상들을 지니고 있는 지 확인할 필요성이 있다. 이러한 필요성은 영상데이터의 경우 정지화상과는 달리 한번에 컨텐츠를 확인할 수 없다는 특성 때문이다. 현재 영상데이터를 디스플레이할 때 속도를 조절하며 재생하는 것이 가능하나 재생속도의 변화로 이러한 사용자의 필요성을 충족해 줄 수 없다.
또한, 현재 보고 있는 영상부분을 다음에 다시 찾아볼 수 있도록 재생부분에 책갈피를 설정하는 기술이 있다. 이것은 영상데이터가 실행될 때 사용자가 인상깊은 부분이나 다시보고 싶거나 나중에 그 부분부터 다시 재생을 하고 싶을 때 이용하게 된다. 책갈피를 설정해 놓는 경우 시간정보를 가지고 있어 다음에 디스플레이하는 경우 책갈피를 설정해 놓은 부분을 재생할 수 있게 한다. 하지만 이러한 기술도 한번 본 영상에 대해서만 해당 기능을 활용할 수 있는 단점이 있다.
또한, 일반적인 영상데이터는 정지화상과 다르게 한번에 컨텐츠를 확인할 수 없다는 단점이 있는데 이를 극복하기 위해 특정 시간 구간별로 스냅샷을 보여주는 기능을 제공하는 플레이어도 존재한다. 해당 프로그램은 사용자가 특정영역에 마우스를 올려 놓으면 특정부분에 해당하는 정지화상을 확인할 수 있고, 마우스를 클릭하게 되면 그 정지화상이 있는 부분을 재생하게 된다. 이러한 재생 방식은 시간 간격별로 미리보기를 제공함으로써 사용자가 한 눈에 보기 어려운 영상데이터에서 원하는 정보를 찾도록 도와주고 있다.
그러나 해당 기술의 경우도 미리보기 간격이 정형화 되어 있어 원하는 부분이 포함되지 않을 수 있으며 처음 영상데이터를 접할 때 부분적인 정지화상으로 전체적인 영상데이터의 흐름 등을 파악하기 어려운 문제가 있다. 또한, 미리보기의 개수와 사용자가 미리보기를 통해 얻을 수 있는 정보의 양이 반비례하는 단점도 존재 하게 된다.
또한, 영상데이터를 시청하면서 특정구간에 댓글을 달 수 있는 플레이어가 존재하는데 이와 같은 서비스는 사용자가 인상깊은 장면에서 자신의 느낌을 기록할 수 있다는 장점을 가지고 있지만, 영상데이터에 따른 전체 댓글을 한눈에 파악하기 어렵고, 영상데이터 시청과 댓글을 다는 과정이 동시에 진행되면 영상데이터 시청에 집중하기 어려워져 감상흐름이 깨어질 가능성이 있으며, 여러 사용자가 달아놓은 댓글을 클러스터링하여 종합적인 정보를 전달하기 어려운 단점을 가지고 있다.
이와 같이 사용자의 편의 관점에서의 비디오 인덱싱은 관련기술의 진보에 비해 그 수준이 낮은 것이 사실이다. 따라서, 영상데이터의 전체적인 흐름을 파악하고 감정별로 사용자가 원하는 부분만 부분적으로 재생할 수 있는 사용자의 편의를 충족시켜줄 수 있는 새로운 인덱싱 방식이 요구되고 있다.
따라서, 본 발명은 상기와 같은 문제점을 해결하기 위하여 안출된 것으로 클라이언트가 감정데이터집합부를 전송받아 그와 관련된 통합데이터를 디스플레이할 때 통합데이터에 대한 전체적인 감정정보를 사용자에게 제공하여 통합데이터의 전체적인 흐름을 파악할 수 있는 인덱싱 기술을 제공하게 된다.
클라이언트의 입력수단을 이용해 사용자가 통합데이터를 디스플레이하는 동안 해당부분에 대한 감정데이터를 입력하고 공유서버에 감정데이터를 전송하게 된다. 공유서버에서 복수의 클라이언트에서 전송된 감정데이터들을 통합하여 집단감성정보를 가진 감정데이터집합부를 형성하게 된다.
사용자가 통합데이터를 접할 때 공유서버로부터 이러한 감정데이터집합부를 전송받아 통합데이터와 감정데이터집합부를 함께 실행하는 경우, 이러한 감정데이터집합부를 통합데이터와 함께 실행하는 경우 사용자는 전체적인 흐름과 영상데이터의 어느 부분에서 어떠한 내용이 있는 지, 주요부분은 어디에 있을 것인지를 한 번에 알 수 있게 되어 사용자에게 편의 정보를 주게 되는 감정데이터 공유시스템 및 그 시스템을 이용한 감정데이터 공유방법을 제공하게 된다.
본 발명의 그 밖에 목적, 특정한 장점들 및 신규한 특징들은 첨부된 도면들과 관련되어 이하의 상세한 설명과 바람직한 실시예로부터 더욱 명확해질 것이다.
상기와 같은 본 발명의 목적은, 감정데이터를 입력하는 입력수단을 구비하 고, 입력수단에서 입력된 감정데이터를 저장하는 저장수단 및 감정데이터를 입력하기 위해 수신된 통합데이터를 디스플레이하는 디스플레이부를 갖는 복수의 클라이언트; 각각의 클라이언트에서 입력한 감정데이터를 수신받아 감정데이터집합부를 형성하는 형성수단을 구비하고, 통합데이터를 클라이언트에 송신하는 공유서버; 및 공유서버와 연결되어 공유서버에서 형성된 감정데이터집합부 또는 통합데이터 중 적어도 어느 하나가 저장되는 메인데이터베이스;를 포함하는 것을 특징으로 하는 감정데이터 공유시스템으로 달성될 수 있다.
감정데이터는, 디스플레이부에서 통합데이터를 디스플레이할 때, 입력수단에 의해 실시간으로 통합데이터와 관계된 태그정보를 갖는 메타태그데이터로 이며, 형성수단은, 각각의 클라이언트에서 수신된 복수의 감정데이터를 집단감성정보로 통합하여 태그정보를 갖는 감정데이터집합부를 형성하는 것을 특징으로 할 수 있다.
공유서버는, 메인데이터베이스에 저장된 감정데이터집합부 또는 통합데이터 중 적어도 어느 하나를 클라이언트에 전송하는 것을 특징으로 할 수 있다.
통합데이터는 영상데이터를 포함하며 자막데이터, 문서데이터, 음성데이터 중 적어도 어느 하나를 더 포함할 수 있는 것을 특징으로 할 수 있다.
클라이언트 각각을 공유서버에 연결하는 정보통신망을 더 포함하고 정보통신망은 유선, 무선, 인터넷, DFMA, CDMA, GSM인 것을 특징으로 할 수 있다.
클라이언트에 수신된 감정데이터집합부는 디스플레이부에서 통합데이터가 디스플레이될 때 실시간으로 통합데이터와 함께 디스플레이되어 감정데이터집합부에 대한 집단감성정보를 제공하는 것을 특징으로 할 수 있다.
클라이언트에는, 공유서버와 연결되며 태그정보를 이용하여 통합데이터 및 감정데이터집합부에 대한 정보를 검색하는 검색수단을 더 포함하는 것을 특징으로 할 수 있다.
통합데이터가 디스플레이부에서 디스플레이되는 경우, 검색수단은 통합데이터에 관계된 감정데이터집합부가 메인데이터베이스에 존재하는 지를 검색하고, 그 검색결과를 디스플레이부에 팝업창으로 디스플레이하는 것을 특징으로 할 수 있다.
메인데이터베이스는 감정데이터집합부의 태그정보를 이용하여 통합데이터 및 감정데이터집합부를 특정 감정별로 분류하는 것을 특징으로 할 수 있다.
검색수단은 특정 감정별로 메인데이터베이스에 저장된 통합데이터 및 감정데이터를 검색하고, 공유서버에 의해 통합데이터 또는 감정데이터집합부 중 적어도 어느 하나를 클라이언트에 전송하는 것을 특징으로 할 수 있다.
공유서버는 통합데이터와 통합데이터와 관계된 감정데이터집합부를 클라이언트에 전송하고, 디스플레이부에서 디스플레이하는 경우, 디스플레이부에는 태그정보를 기반으로 한 선택재생수단을 더 포함하여, 태그정보에 따라 특정 감정별로 통합데이터를 부분적으로 디스플레이하는 것을 특징으로 할 수 있다.
검색수단은 음성인식수단에 해당하여, 음성인식수단에 사용자가 태그정보와 관련된 음성정보를 입력하는 경우, 음성인식수단은 음성정보로 태그정보를 인식하여, 메인데이터베이스에 저장된 통합데이터 및 감정데이터집합부를 검색하고, 공유서버에 의해 통합데이터 및 감정데이터집합부를 클라이언트에 전송하여, 디스플레이부에서 통합데이터 및 감정데이터집합부를 디스플레이하는 것을 특징으로 할 수 있다.
선택재생수단은 음성인식수단에 해당하여, 감정데이터집합부 및 통합데이터가 디스플레이부에서 디스플레이될 때, 음성인식수단에 사용자가 태그정보와 관련된 음성정보를 입력하는 경우, 음성인식수단은 음성정보로 태그정보를 인식하여, 디스플레이부에서 태그정보에 따라 특정 감정별로 통합데이터를 부분적으로 디스플레이하는 것을 특징으로 할 수 있다.
또한, 다른 카테고리로써 상기와 같은 본 발명의 목적은, 감정데이터 공유방법에 있어서, 공유서버에서 수신된 통합데이터를 디스플레이부에서 디스플레이하는 단계; 검색수단이 통합데이터와 관련된 감정데이터집합부가 메인데이터베이스에 존재하는지 검색하는 단계; 감정데이터집합부가 존재하는 경우, 감정데이터집합부를 전송받을 지 결정하는 단계; 전송받기를 원하는 경우, 공유서버가 메인데이터베이스에 저장된 감정데이터집합부를 클라이언트에 전송하는 단계; 및 디스플레이부에서 통합데이터와 함께 감정데이터집합부를 디스플레이하는 단계;를 포함하는 것을 특징으로 하는 감정데이터 공유 방법으로 달성될 수 있다.
또한, 공유서버에 의해 수신된 통합데이터를 디스플레이부에서 디스플레이하는 단계; 입력수단으로 태그정보를 가지는 감정데이터를 입력할 것인지를 결정하고, 감정데이터를 입력하는 경우 통합데이터에 대해 실시간으로 태그정보를 가지는 감정데이터를 입력하는 단계; 입력한 감정데이터를 저장수단에 저장하고, 공유서버로 감정데이터를 전송하는 단계; 공유서버가 복수의 감정데이터를 전송받는 경우, 감정데이터로 집단감성정보를 가진 감정데이터집합부를 형성하는 단계; 형성된 감 정데이터집합부를 메인테이터베이스에 저장하는 단계; 검색수단에서 통합데이터와 관계된 감정데이터집합부가 메인데베이스에 존재하는 지를 검색하는 단계; 통합데이터와 관계된 감정데이터집합부가 존재하는 경우, 감정데이터집합부를 전송받을 지 결정하는 단계; 전송받기를 원하는 경우, 공유서버가 메인데이터베이스에 존재하는 감정데이터집합부를 클라이언트에 전송하는 단계; 및 디스플레이부에서 통합데이터와 함께 감정데이터집합부를 디스플레이하는 단계;를 포함하는 것을 특징으로 하는 감정데이터 공유 방법으로 달성될 수 있다.
또한, 메인데이터베이스에서 감정데이터집합부와 관련된 통합데이터가 저장되어 있는 경우, 통합데이터 및 감정데이터집합부를 태그정보에 의해 특정 감정별로 분류하는 단계; 사용자가 특정감정에 대한 통합데이터 및 감정데이터집합부의 검색이 필요한 경우, 검색수단에서 특정 감정별로 분류된 통합데이터와 감정데이터집합부를 검색하는 단계; 검색된 통합데이터 및 감정데이터집합부를 전송받을 지를 결정하고, 전송받기를 원하는 경우, 검색된 통합데이터 및 감정데이터집합부 전부 또는 일부를 공유서버에 의해 클라이언트에 전송하는 단계; 및 디스플레이부에서 전송된 통합데이터 및 감정데이터집합부를 디스플레이하는 단계;를 포함하는 것을 특징으로 하는 감정데이터 공유방법으로 달성될 수 있다.
감정데이터집합부를 디스플레이하는 단계 후에, 통합데이터를 특정 감정별로 부분적으로 디스플레이할 것인지를 결정하는 단계; 및 통합데이터를 특정 감정별로 부분적으로 디스플레이하고자 하는 경우, 선택재생수단에 의해 감정별로 통합데이터가 부분적으로 디스플레이 되는 단계:를 더 포함하는 것을 특징으로 할 수 있다.
통합데이터는 영상데이터를 포함하며 자막데이터, 문서데이터, 음성데이터 중 적어도 어느 하나를 더 포함할 수 있는 것을 특징으로 할 수 있다.
전송하는 단계에서, 정보통신망으로 공유서버에서 통합데이터, 감정데이터집합부 중 적어도 어느 하나를 각각의 클라이언트로 전송하며, 정보통신망은 유선, 무선, 인터넷, DFMA, CDMA, GSM인 것을 특징으로 할 수 있다.
검색하는 단계 후에, 검색수단에 따른 검색결과를 디스플레이부에 팝업창으로 디스플레이하는 것을 특징으로 할 수 있다.
검색수단은 음성인식수단에 해당하여, 음성인식수단에 사용자가 태그정보와 관련된 음성정보를 입력하는 경우, 음성인식수단은 음성정보로 태그정보를 인식하여, 메인데이터베이스에 저장된 통합데이터 및 감정데이터집합부를 검색하고, 공유서버에 의해 통합데이터 또는 감정데이터집합부 중 적어도 어느 하나를 클라이언트에 전송하여, 디스플레이부에서 통합데이터 및 감정데이터집합부를 디스플레이하는 것을 특징으로 할 수 있다.
선택재생수단은 음성인식수단에 해당하여, 감정데이터집합부 및 통합데이터가 디스플레이부에서 디스플레이될 때, 음성인식수단에 사용자가 태그정보와 관련된 음성정보를 입력하는 경우, 음성인식수단은 음성정보로 태그정보를 인식하여, 디스플레이부에서 태그정보에 따른 감정별로 통합데이터를 부분적으로 디스플레이하는 것을 특징으로 할 수 있다.
따라서, 상기 설명한 바와 같은 본 발명의 일실시예에 의하면, 통합데이터에 관한 감정데이터집합부를 가지고 있어 통합데이터에 관한 집단감성정보를 알 수 있다는 효과를 가진다. 즉 이러한 감정데이터집합부는 사용자가 각각의 클라이언트에서 통합데이터를 디스플레이하는 동안 실시간으로 감정데이터를 입력하고, 감정데이터 공유시스템이 공유서버에 전송된 감정데이터들을 통합하는 과정을 통해 집단적인 감성정보를 갖는 데이터가 된다.
감정데이터집합부는 메인데이터베이스에 저장되고 공유서버에 연결된 다른 클라이언트에 전송할 수 있어 집단감성정보를 공유하게 된다. 따라서 자신도 감정데이터집합부를 구성하는 감정데이터를 제공할 수도 있고 형성된 감정데이터집합부를 전송받아 이용할 수 있는 장점을 가진다.
클라이언트에서 통합데이터와 함께 감정데이터집합부를 저장하고 있는 경우, 통합데이터를 디스플레이 하면서 사용자는 특정 부분에 집단적인 감정이 어떻게 된다는 정보를 얻게되고 처음보는 영상이라도 이러한 정보를 알 수 있는 효과가 있다. 따라서 사용자는 특정감정을 갖는 영상을 원하는 경우 바로 그 부분을 재생하여 볼 수 있게 된다. 여러 개의 프로그램을 동시에 시청하고자 할 때, 중요한 장면 또는 원하는 장면을 놓치지 않고 시청할 수 있다는 장점을 가진다.
또한, 통합데이터를 실행할 때 통합데이터에 대한 감정데이터집합부가 메인데이터베이스에 저장되어 있는 지를 검색할 수 있다. 따라서 편리하게 사용자가 통합데이터에 대한 집단감성정보를 얻고 싶은 경우, 공유서버에 의해 감정데이터집합부를 전송받을 수 있다는 장점을 가진다. 그리고, 메인데이터베이스에서는 감정별로 통합데이터 및 감정데이터집합부를 분류해 두어 클라이언트에서 원하는 감정별 통합데이터 및 감정데이터집합부를 검색 가능하고 원하는 데이터를 전송 받을 수 있는 효과를 가지고 있다.
또한, 통합데이터와 감정데이터를 디스플레이부에서 실행하는 동안 사용자는 선택재생수단을 이용하여 특정 감정별로 영상을 부분적으로 재생시킬 수 있어 사용자의 편의를 도모할 수 있는 장점을 가진다.
비록 본 발명이 상기에서 언급한 바람직한 실시예와 관련하여 설명되어졌지만, 본 발명의 요지와 범위로부터 벗어남이 없이 다른 다양한 수정 및 변형이 가능한 것은 당업자라면 용이하게 인식할 수 있을 것이며, 이러한 변경 및 수정은 모두 첨부된 특허 청구 범위에 속함은 자명하다.
(감정데이터 공유시스템의 구성)
이하에서는 첨부된 도면을 참고하여 본 발명에 따른 감정데이터 공유시스템의 구성에 대해 설명하도록 한다. 우선 도 1은 본 발명의 감정데이터 공유시스템에 대한 블록도를 도시한 것이다.
도 1에 도시된 바와 같이, 감정데이터 공유시스템에는 복수개의 클라이언트(100)가 공유서버(200)에 각각 정보통신망(150)으로 연결되어 있다. 이러한 정보통신망(150)은 유선, 무선, 인터넷, DFMA, CDMA 또는 GSM(global system for mobile communication) 등에 해당한다. 그리고, 공유서버(200)는 복수의 감정데이터(510)들을 통합하여 집단감성정보를 가지는 감정데이터집합부(500)를 형성하는 형성수단(210)을 구비하고 있다. 또한, 공유서버(200)는 통합데이터(400) 또는 감 성데이터집합부(500)를 저장하고 관리하는 메인데이터베이스(300)와 연결되어 있음을 알 수 있다.
사용자는 입력수단(110)으로 디스플레이부(140)에서 디스플레이되는 통합데이터(400)를 실시간으로 보면서 감정별로 유형을 나누어 데이터를 입력하게 된다. 감정별 유형은 이미 정해진 문자로 제 3자가 이러한 감정표현을 객관적으로 알 수 있는 것을 사용하게 된다. 구체적인 예로 `Happy`, `Sad`, `Angry`, `Fear`, `Joy` 또는 `Surprised` 등의 문자로 나타낼 수 있다. 이러한 감정을 통합데이터(400)가 디스플레이되는 실시간으로 입력하게 된다. 구체적인 예로 도 2에 도시된 테이블에 사용자가 감정을 입력하게 된다. 도 2에 도시된 바와 같이, 통합데이터 재생시간과 특정감정유형, 사용자 아이디, 감정세기, 통합데이터 아이디를 입력하게 된다. 이러한 입력내용은 변형가능함은 당업자에게 자명한 것으로 권리범위 해석에는 영향을 미치지는 않을 것이다. 이러한 로우데이터(raw data)형식이었던 감정데이터(510)는 사용자의 별도의 조작없이 자동적으로 메타파일형식으로 전환된다.
또 다른 구체적인 입력방법으로 Happy, Sad, Angry, Fear, Joy에 해당하는 단축키를 각각 지정하여(예:윈도우즈키+H(Happy), 윈도우즈키+S(Sad), 윈도우즈키+A(Angry), 윈도우즈키+F(Fear), 윈도우즈키+J(Joy))입력하면 시스템은 이를 공유서버(200)로 전송하여 사용자가 보다 편리하게 감정데이터(510)를 입력하게 된다.
또 다른 방법으로 통합데이터(400)를 실행하는 플레이어에서 특정감정의 유형을 나타내는 버튼을 가진 인터페이스를 제공하여 사용자가 해당 특정감정표시가 있는 버튼을 클릭하여 사용자가 원하는 특정감정을 쉽게 입력하고 공유서버(200)에 전송하게 된다.
도 3은 메타파일형식으로 전환된 감정데이터(510)를 도시한 것이다. 도 3에 도시된 바와 같이, <SYNC Start=439>는 통합데이터 재생시간정보를 <emotion>Angry</emotion>는 감정유형을 <id>hjmin</id>는 사용자 아이디를 나타낸 것이고, <target>강마에</target>은 감정이 향하는 대상을 나타낸 것이다. 또한, <intensity>Strong</intensity>는 감정세기를 나타낸다.
입력수단(110)에 의해 감정데이터(510)를 입력하고 감정데이터(510)에 대한 파일임을 나타내기 위해 마크업 언어로 구성하여 저장수단(120)에 저장하게 된다. 마크업 언어로 보통 영상데이터(410)의 경우, smi 파일의 형태로서 외국영상물에 자막데이터(420)를 제공하게 된다. 영상데이터(410)의 시작시점을 ms로 구분지어 해당지점에서 태그에 저장되어 있는 자막을 표현하게 된다. 마찬가지로 감정데이터(510) 또한 마크업언어를 사용하여 영상데이터(410)의 해당지점에 감정데이터(510)를 제공할 수 있게 된다. 구체적인 마크업언어의 예로 `esmi`를 사용할 수 있다.
디스플레이부(140)는 공유서버(200)에서 전송된 통합데이터(400)를 디스플레이하게 된다. 통합데이터(400)는 영상데이터(410)를 포함하며 이러한 영상데이터(410)에 자막데이터(420), 문서데이터(440), 음성데이터(430) 등이 더 포함될 수 있다. 따라서, 사용자는 디스플레이되는 영상데이터(410)를 보며 감정데이터(510)를 입력할 수 있게 된다.
도 1에 도시된 바와 같이, 클라이언트(100) 각각은 공유서버(200)에 연결되 어 있다. 공유서버(200)는 복수의 클라이언트(100)에 저장된 감정데이터(510)를 전송받게 된다. 공유서버(200)에 구비된 형성수단(210)은 복수의 클라이언트(100)에서 전송된 메타파일화된 감정데이터(510)들을 통합하여 집단감성정보를 갖는 감정데이터집합부(500)를 형성하게 된다. 이러한 감정데이터집합부(500) 또한, 메타파일화 되어 있다. 즉, 복수의 틀라이언트(100)에서 전송된 감정데이터를 통합하여 하나의 메타파일형식의 감정데이터집합부(500)가 형성된다.
감정데이터집합부(500)를 형성하여 집단감성정보로 통합하는 방법의 구체적인 예로는 전송받은 메타파일인 감정데이터(510)를 통합하여 모든 정보를 집합하여 형성할 수도 있고, 일정구간을 정하여 복수의 클라이언트(100)에서 전송한 감정데이터(510)를 클러스터링하여 대표감정만을 메타파일로 생성하는 것도 가능하다. 또한, 사용자의 아이디는 존재하지않고, 그룹화하여 그룹아이디를 형성하여 메타파일형식의 감정데이터집합부(500)를 형성할 수도 있다.
구체적으로 감정데이터집합부(500)를 형성하는 2가지방법으로 첫째, 모든 사용자의 감정데이터를 통합하여 생성하는 것과 둘째, 일정 구간에서의 감정데이터를 클러스터링하여 만들어진 대표 감정데이터(510)로 생성하는 방법이 있다. 첫번째 방법은 사용자가 늘어나면 모든 세밀한 구간(ms단위)로 정보가 퍼질 수 있으므로 효율성 측면에서 두번째 방법으로 보낼 수도 있다. 이러한 클러스터링 방식은, k-mean 클러스터링, PCA(Principle Component Analysis) 또는 Basic Linear Classification 등을 사용한다. 이러한 감정데이터집합부(500)가 집단감성정보를 가진 메타파일이라는 것이 본 발명의 기술적 특징으로 구체적인 통합방법은 앞서 설명한 구체적인 예에 한정되지는 않는다.
이러한 감정데이터집합부(500)는 메인데이터베이스(300)에 저장되며 사용자의 요청이 있는 경우, 공유서버에 의해 클라이언트(100)로 감정데이터집합부(500)를 전송하게 된다.
클라이언트(100)가 통합데이터(400)에 대응되는 감정데이터집합부(500)를 전송받은 경우, 디스플레이부(140)에서는 통합데이터(400)와 감정데이터집합부(500)를 디스플레이하게 된다. 도 4은 감정데이터집합부(500)가 디스플레이부에서 디스플레이된 모습의 구체적인 예를 도시한 것으로 시간에 따른 감정의 변화의 통계를 나타낸 그래프에 해당한다. 도 4에 도시된 바와 같이, 가로축은 시간에 해당하며 세로축은 감정별 빈도를 나타낸다. 이러한 감정데이터집합부(500)가 디스플레이된 모습은 다양할 것이며, 집단감성정보를 인식할 수 있다면 구체적인 모습이 본 발명의 권리범위 해석에 영향을 미치지 않음은 자명하다.
디스플레이된 간정데이터집합부(500)로 해당지점에 감정에 따른 집단적인 성향을 알 수 있다. 따라서, 통합데이터(400)의 해당지점과 관련되어 정보를 제공할 수 있다. 사용자는 아직 접하지 않은 영상물에 대한 전체적인 흐름을 한눈에 파악하는데 도움을 주며 전체적인 감정의 흐름을 분석할 수 있게 된다. 또한, 사용자가 원하는 특정감정에 해당하는 부분을 선택하여 볼 수 있다. 예를 들어 도 4에 도시된 감정데이터집합부(500)를 사용자가 보게 될 경우 통합데이터(400)의 전체적인 감정변화를 알게 될 것이고, 16분대에서 분노하게 되는 집단감정이 있음을 인식하게 된다. 따라서 이러한 감정부분을 보고 싶은 경우 16분대를 선택하여 재생할 수 있게 된다.
또한, 디스플레이부(140)에는 선택재생수단(145)을 포함하고 있다. 따라서, 감정데이터집합부(500)는 집단감성정보를 이용하여 선택재생이 가능하다. 예를들어, 해당지점에 감정데이터집합부(500)가 기 설정된 기준값에 의해 특정감정빈도(예:기쁨, happy)가 기준값을 넘어서는 경우, 그러한 부분에 해당하는 영상데이터(410) 부분을 특정감정에 해당되는 영상데이터(410)부분으로 분류하게 된다. 따라서, 사용자가 선택재생수단(145)에 의해 특정문자(예;H)등을 입력하거나 하는 경우, 원하는 특정감정(예:기쁨, happy)으로 분류된 영상데이터(410) 부분을 부분적으로 선택하여 재생하도록 한다. 구체적인 예로 도 4에 도시된 디스플레이부에서 디스플레이된 감정데이터집합부(500)에서 기준값을 2라고 할 때 특정감정별로 2를 넘어가는 부분을 감정별로 분류하게 되고, 선택재생수단(145)에 `H` 를 입력하는 경우 행복한 감정으로 분류된 부분의 영상을 부분적으로 재생되거나 그 지점부터 재생된다. 이어서 또 `H` 를 누르는 경우 다음 행복한 감정으로 분류된 부분을 재생하게 된다.
그리고 이러한 선택재생수단(145)은 PC상의 키보드 특정 키 뿐 아니라 음성인식수단(160)로 형성될 수 있다. 도 5a는 선택재생수단(145)이 음성인식수단(160)으로 구성된 감정데이터 공유시스템의 구성도를 도시한 것이다. 도 5a에 도시된 바와 같이, 통합데이터(400) 및 감정데이터집합부(500)가 디스플레이되고 있는 경우, 사용자는 음성으로 테그정보와 관련되는 음성정보를 입력하게 되고 그에 대응하여 감정별로 분류해 놓은 영상데이터(410)를 찾아 사용자가 원하는 특정감정을 가지는 영상 등을 부분적으로 디스플레이 하게 된다.
또한, 클라이언트(100)에는 검색수단(130)을 포함할 수 있다. 이러한 검색수단(130)은 공유서버(200)에 연결되어 메인데이터베이스(300)에 저장된 통합데이터(400) 및 감정데이터집합부(500)에서 사용자가 원하는 특정감정을 나타내는 데이터를 검색하게 된다. 그리고, 공유서버(200)는 원하는 통합데이터(400) 또는 감정데이터집합부(500)를 클라이언트(100)에 전송하게 된다.
먼저, 메인데이터베이스(300)는 저장된 통합데이터(400)와 그 통합데이터(400)에 관한 감정데이터집합부(500)를 감정별로 분류하게 된다. 즉 감정데이터집합부(500)의 집단감성정보부터 관계된 통합데이터(400)가 어떠한 특정감정을 대표하는 것인지 인식하게 된다. 구체적인 예로 도 4에 도시된 특정 통합데이터(400)에 대한 감정데이터집합부(500)가 디스플레이부(150)에서 디스플레이된 모습을 보면 가장 높은 빈도를 차지하는 특정감정은 `angry`가 될 것이다. 따라서 이러한 통합데이터(400)와 그에 관계된 감정데이터집합부(500)는 `angry`라는 감정으로 분류하게 된다. 이러한 분류는 메타파일형식으로 저장된 감정데이터집합부가 자동적으로 분류되게 된다.
또한 감정별 분류는 통합데이터(400) 전체마다 분류할 수 있는 것 뿐만 아니라 감정데이터집합부(500)의 특정감정에 해당하는 부분을 부분적으로 분류해 놓을 수 있다. 따라서, 복수의 통합데이터(400)들 중 특정감정에 해당하는 부분들을 모아 분류해 놓을 수 있다. 이는 통합데이터(400) 자체를 세그멘트해서 분류하는 것이 아니라 어떤구간이 특정감정에 해당하는지 감정데이터집합부(500)를 통해 인덱 싱하여 분류하는 것이다.
특정감정에 대한 통합데이터(400) 및 감정데이터집합부(500)를 원하는 경우, 사용자는 검색수단(130)으로 메인데이터베이스(300)에 분류된 데이터들을 검색하게 된다. 그 검색결과는 팝업창(170)으로 디스플레이될 수 있다. 검색수단(130)으로 특정감정으로 분류된 통합데이터(400) 자체들을 검색할 수도 있고, 특정감정을 나타내는 통합데이터(400) 부분들을 검색할 수도 있다. 검색결과에 따라 사용자는 원하는 통합데이터(400) 및 감정데이터집합부(500)를 공유서버(200)에 의해 전송받게 된다. 전송받은 사용자는 특정감정에 해당하는 통합데이터(400) 및 감정데이터집합부(500)를 디스플레이할 수 있다.
그리고, 검색수단(130)은 클라이언트(100)에서 통합데이터(400)만을 저장하고 있고 그러한 통합데이터(400)를 디스플레이하는 경우, 통합데이터(400)에 관련된 감정데이터집합부(500)가 메인데이터베이스(300)에 존재하는 지를 검색할 수 있다. 도 6은 검색수단(130)에서 해당되는 감정데이터집합부(500)가 존재하는 지에 대한 검색결과를 팝업창(170)에 디스플레이된 모습을 도시한 것이다. 도 6에 도시된 바와 같이, 감정데이터집합부(500)의 존재여부를 팝업창(170)으로 디스플레이하여 통합데이터에 관한 감정데이터집합부(500)가 메인데이터베이스(300)에 존재하는 지를 알려주게 된다. 그리고 사용자가 전송받기를 원하는 경우, 공유서버(200)에 의해 감정데이터집합부(500)를 클라이언트(100)에 전송하여 사용자는 통합데이터(400)에 대한 집단감성정보를 얻을 수 있다.
또한, 이러한 검색수단(130)은 PC상의 키보드 특정키 뿐 아니라 음성인식수 단(160)으로 구성될 수 있다. 도 5b는 검색수단(130)이 음성인식수단(160)으로 구성된 감정데이터 공유시스템의 구성도를 도시한 것이다. 따라서, 사용자다 특정감정을 인식할 수 있는 태그정보와 관련있는 음성정보를 입력하는 경우, 음성인식수단(160)은 메인데이터베이스(300)에 그러한 특정감정을 가지는 통합데이터(400) 및 감정데이터집합부(500)를 검색하게 된다. 그 검색결과를 팜업창(170)으로 디스플레이하고, 사용자는 원하는 통합데이터(400) 또는 감정데이터집합부(500)를 공유서버(200)에 의해 전송받을 수 있게 된다.
(감정데이터 공유시스템을 이용한 감정데이터 공유방법)
이하에서는 첨부된 도면을 참고하여 감정데이터 공유방법에 대한 제 1실시예, 제 2실시예 및 제 3실시예를 설명하도록 한다. 이는 본 발명을 당업자가 쉽게 실시하기 위한 구체적 실시예를 기재한 것일 뿐, 보호범위는 청구범위에 의해 정해지는 것(특허법 제97조)이므로 이하의 실시예로 보호범위가 제한되는 것은 아니다.
먼저 도 7은 본 발명의 제 1실시예에 따른 감정데이터 공유방법의 흐름도를 도시한 것이다. 도 7에 도시된 바와 같이, 먼저, 공유서버(200)에 의해 전송받은 통합데이터(400)를 클라이언트(100)의 디스플레이부(140)에서 디스플레이하게 된다(S10). 디스플레이되면 클라이언트(100)의 검색수단(130)은 디스플레이되는 통합데이터(400)에 관계된 감정데이터집합부(500)가 메인데이터베이스(300)에 저장되어 있는 지를 검색하게 된다(S20).
메인데이터베이스(300)에 감정데이터집합부(500) 존재여부를 검색하고, 그러 한 감정데이터집합부(500)의 검색결과를 팝업창(170)으로 디스플레이하게 된다(S30). 그리고, 감정데이터집합부(500)가 존재하는 경우, 사용자는 감정데이터집합부(500)를 전송받을 지를 결정하게 된다(S40). 전송받기를 원하는 경우, 클라이언트(100)는 공유서버(200)에 의해 메인데이터베이스(300)에 저장된 감정데이터집합부(500)를 전송받게 된다(S50). 전송받은 감정데이터집합부(500)는 통합데이터(400)와 함께 디스플레이되며 사용자에게 통합데이터(400)에 대한 집단감성정보를 실시간으로 제공하게 된다(S60). 따라서, 사용자는 감정데이터집합부(500)를 보고 전체적인 감정의 흐름을 파악하거나 주요영상을 부분적으로 재생하거나 원하는 감정에 해당되는 부분을 재생시킬 수 있다.
도 8은 본 발명인 감정데이터 공유방법에 대한 제 2실시예의 흐름도를 도시한 것이다. 도 8에 도시된 바와 같이, 먼저 공유서버(200)에 의해 전송된 통합데이터(400)를 클라이언트(100)의 디스플레이부(140)에서 디스플레이하게 된다(S100). 통합데이터(400)를 디스플레이하는 동안 사용자는 통합데이터(400)에 대한 감정데이터(510)를 입력할 것인지 결정하게 된다(S200).
사용자가 감정데이터(510) 입력을 원하는 경우, 앞서 설명한 바와 같이 사용자는 입력수단(110)으로 시간정보를 가지고 객관적으로 감정을 나타낼 수 있는 문자를 이용하여 감정데이터(510)를 입력하게 된다(S300). 구체적인 입력방법으로 Happy, Sad, Angry, Fear, Joy에 해당하는 단축키를 각각 지정하여(예:윈도우즈키+H(Happy), 윈도우즈키+S(Sad), 윈도우즈키+A(Angry), 윈도우즈키+F(Fear), 윈도우즈키+J(Joy))입력하면 시스템은 이를 공유서버(200)로 보내고 공유서버(200)는 이 를 문자 형태로 저장하게 되면 사용자가 보다 편리하게 감정데이터(510)를 입력하게 된다.
또 다른 방법으로 통합데이터(400)를 실행하는 플레이어에서 특정감정의 유형을 나타내는 버튼을 가진 인터페이스를 제공하여 사용자가 해당 특정감정표시가 있는 버튼을 클릭하여 사용자가 원하는 특정감정을 쉽게 입력하고 공유서버(200)에 전송하여 공유서버(200)는 이를 문자형태로 저장하게 된다.
그리고, 감정데이터(510)는 자동적으로 메타파일화 되어 클라이언트(100)의 저장수단(120)에 저장되고, 공유서버(200)로 전송되게 된다(S400). 감정데이터(510)를 전송받은 공유서버(200)는 다른 클라이언트(100)들과도 정보통신망(150)으로 연결이 되어 있어, 각각의 클라이언트(100)에서 입력된 감정데이터(510)들도 전송받게 된다.
공유서버(200)의 형성수단(210)은 전송받은 감정데이터(510)들을 메타파일 형태의 감정데이터집합부(500)로 형성하게 된다(S500). 이러한 감정데이터집합부(500)는 특정 통합데이터(400)에 대해 실시간에 따른 집단적인 감정을 나타내는 집단감성정보를 가지고 있다. 그리고, 감정데이터집합부(500)는 메인데이터베이스(300)에 저장된다(S600).
클라이언트(100)의 검색수단(130)은 디스플레이되는 통합데이터(400)에 관계된 감정데이터집합부(500)가 메인데이터베이스(300)에 저장되어 있는지 검색하게 된다(S700). 메인데이터베이스(300)에 감정데이터집합부(500)가 존재하는 지 검색하고, 검색결과를 팝업창(170)을 통해 디스플레이하게 된다(S800). 그리고, 통합데 이터(400)에 관계된 감정데이터집합부(500)가 메인데이터베이스(300)에 존재하는 경우, 사용자는 감정데이터집합부(500)를 전송받을 지를 결정하게 된다(S900). 전송받기를 원하는 경우, 클라이언트(100)는 공유서버(200)에 의해 메인데이터베이스(300)에 저장된 감정데이터집합부(500)를 전송받게 된다(S1000). 전송받은 감정데이터집합부(500)는 통합데이터(400)와 함께 디스플레이되며 사용자에게 통합데이터(400)에 대한 집단감성정보를 실시간으로 제공하게 된다(S1100). 따라서, 사용자는 감정데이터집합부(500)를 보고 전체적인 감정의 흐름을 파악하거나 주요영상을 부분적으로 재생하거나 원하는 감정에 해당되는 부분을 재생시킬 수 있다.
도 9는 본 발명인 감정데이터의 공유방법에 대한 제 3실시예의 흐름도를 도시한 것이다. 도 9에 도시된 바와 같이, 먼저 메인데이터베이스(300)에서 저장된 통합데이터(400) 및 감정데이터집합부(500)를 특정 감정별로 분류하게 된다(S1000). 앞서 설명한 바와 같이, 통합데이터(400) 전체 단위마다 분류할 수 있고, 통합데이터(400)의 특정감정에 대한 부분마다 분류할 수도 있다.
사용자가 특정 감정별 통합데이터(400) 및 감정데이터집합부(500)의 검색을 필요로 하는 경우, 검색수단(130)은 특정감정으로 분류된 통합데이터(400) 및 감정데이터집합부(500)를 검색하게 된다(S2000). 검색하는 방법은 앞서 설명한 바와 같이, 특정문자를 입력하여 검색하거나 검색수단(130)이 음성인식수단(160)으로 구성되어 음성을 입력하여 검색할 수도 있다. 검색결과는 팝업창(170)을 통해 디스플레이하여 사용자에게 검색결과를 알려 줄 수 있고(S3000), 사용자는 검색된 통합데이터(400) 또는 감정데이터집합부(500)를 전송받을 지를 결정하게된다(S4000).
전송받기를 원하는 경우, 사용자는 검색된 통합데이터(400) 또는 감정데이터집합부(500)를 전체 또는 선택적으로 공유서버(200)에 의해 클라이언트(100)로 전송받을 수 있다(S5000). 클라이언트(100)에 전송받은 경우 원하는 특정감정으로 분류된 통합데이터(400) 및 그와 관련된 감정데이터집합부(500)를 디스플레이부(140)에서 디스플레이하게 된다(S6000). 디스플레이되면 사용자는 선택재생수단(145)을 이용하여 디스플레이되는 통합데이터(400)에서 특정 감정별로 부분적으로 재생할 것인지를 결정한다(S7000).
사용자가 디스플레이되는 통합데이터(400)에서 특정감정별로 부분적 재생을 원하는 경우 선택재생장치를 이용하여 원하는 특정감정으로 분류된 부분을 선택적으로 디스플레이하게 된다.(S8000)
도 1은 감정데이터 공유시스템의 구성을 나타낸 블록도,
도 2는 감정데이터에 입력 내용을 나타낸 테이블표,
도 3은 메타파일 형태의 감정데이터 소스.
도 4은 감정데이터집합부가 디스플레이부에서 디스플레이된 그래프,
도 5a는 선택재생수단이 음성인식수단으로 구성된 감정데이터 공유시스템의 구성도,
도 5b는 검색수단이 음성인식수단으로 구성된 감정데이터 공유시스템의 구성도,
도 6는 메인테이터베이스에 특정 통합데이터에 관한 감정데이터집합부가 존재함을 팝업창에 디스플레이된 모습의 정면도,
도 7은 본 발명의 제 1실시예에 따른 감정데이터 공유방법의 흐름도,
도 8은 본 발명의 제 2실시예에 따른 감정데이터 공유방법의 흐름도,
도 9은 본 발명의 제 3실시예에 따른 감정데이터 공유방법의 흐름도를 도시한 것이다.
<도면의 주요부분에 대한 부호의 설명>
100:클라이언트
110:입력수단
120:저장수단
130:검색수단
140:디스플레이부
145:선택재생수단
150:정보통신망
160:음성인식수단
170:팝업창
200:공유서버
210:형성수단
300:메인데이터베이스
400:통합데이터
410:영상데이터
420:자막데이터
430:음성데이터
440:문서데이터
500:감정데이터집합부
510:감정데이터
520:재미있는 감정으로 분류된 통합데이터 및 감정데이터집합부
530:화나는 감정으로 분류된 통합데이터 및 감정데이터집합부
540:놀라는 감정으로 분류된 통합데이터 및 감정데이터집합부

Claims (25)

  1. 유형별 감성정보, 감정의 세기, 감정표현의 대상 및 입력자 정보를 포함하는 감정데이터를 입력하는 입력수단을 구비하고, 상기 입력수단에서 입력된 상기 감정데이터를 메타파일 형태로 저장하는 저장수단 및 상기 감정데이터를 입력하기 위해 수신된 통합데이터를 디스플레이하는 디스플레이부를 갖는 복수의 클라이언트;
    각각의 상기 클라이언트에서 입력한 상기 감정데이터를 수신받아 상기 감정데이터의 상기 감성정보 모두를 통합하거나, 일정구단 단위로 특정감정별로 상기 감정데이터를 클러스터링하여 각 클러스터의 대표감정들로서 집단감성정보로 통합하여 상기 메타파일 형태의 감정데이터 집합부를 형성하는 형성수단을 구비하고, 상기 통합데이터와 상기 감정데이터 집합부를 상기 클라이언트에 송신하는 공유서버; 및
    상기 공유서버와 연결되어 상기 공유서버에서 형성된 상기 감정데이터집합부 및 상기 통합데이터를 특정감정별로 분류하여 저장하는 메인데이터베이스; 및
    상기 클라이언트에 구비되고, 상기 공유서버와 연결되어 상기 통합데이터가 상기 디스플레이부에서 디스플레이되는 경우, 특정감정별로 상기 메인데이터베이스에 저장된 상기 통합데이터 및 상기 감정데이터를 검색하고, 그 검색결과를 상기 디스플레이부에서 디스플레이되게 하고, 상기 공유서버에 의해 상기 통합데이터 및 상기 감정데이터집합부를 상기 클라이언트에 전송하게 하는 검색수단;을 포함하는 것을 특징으로 하는 감정데이터 공유시스템.
  2. 삭제
  3. 제 1항에 있어서,
    상기 클러스터링 방식은,
    k-mean 클러스터링, PCA(Principle Component Analysis) 또는 Basic Linear Classification인 것을 특징으로 하는 감정데이터 공유시스템.
  4. 제 1항에 있어서,
    상기 대표감정은,
    시작점, 평균점, 피크점, 중간점 중 적어도 어느 하나로 측정될 수 있는 것을 특징으로 하는 감정데이터 공유시스템.
  5. 삭제
  6. 제 1항에 있어서,
    상기 통합데이터는 영상데이터를 포함하며 자막데이터, 문서데이터, 음성데이터 중 적어도 하나를 더 포함할 수 있는 것을 특징으로 하는 감정데이터 공유시스템.
  7. 청구항 7은(는) 설정등록료 납부시 포기되었습니다.
    제 1항에 있어서,
    상기 클라이언트 각각을 상기 공유서버에 연결하는 정보통신망을 더 포함하고 상기 정보통신망은 유선, 무선, 인터넷, DFMA, CDMA 또는 GSM인 것을 특징으로 하는 감정데이터 공유시스템.
  8. 청구항 8은(는) 설정등록료 납부시 포기되었습니다.
    제 1항에 있어서,
    상기 클라이언트에 수신된 상기 감정데이터집합부는 상기 디스플레이부에서 상기 통합데이터가 디스플레이될 때 실시간으로 통합데이터와 함께 디스플레이되어 감정데이터집합부에 대한 상기 집단감성정보를 제공하는 것을 특징으로 하는 감정데이터 공유 시스템.
  9. 삭제
  10. 삭제
  11. 삭제
  12. 삭제
  13. 제 1항에 있어서,
    상기 디스플레이부에는 선택재생수단을 더 포함하여,
    상기 공유서버가 상기 통합데이터와 상기 통합데이터와 관계된 상기 감정데이터집합부를 상기 클라이언트에 전송하고, 상기 디스플레이부에서 디스플레이하는 경우,
    상기 감정데이터집합부를 기반으로 상기 특정 감정별로 상기 통합데이터를 부분적으로 디스플레이하는 것을 특징으로 하는 감정데이터 공유 시스템.
  14. 제 1항에 있어서,
    상기 검색수단은 음성인식수단에 해당하여, 상기 음성인식수단에 사용자가 상기 특정감정에 관한 음성정보를 입력하는 경우,
    상기 음성인식수단은 상기 음성정보를 인식하여, 상기 메인데이터베이스에 저장된 상기 통합데이터 및 상기 감정데이터집합부를 검색하고,
    상기 공유서버에 의해 상기 통합데이터 및 상기 감정데이터집합부를 상기 클라이언트에 전송하여, 상기 디스플레이부에서 상기 통합데이터 및 상기 감정데이터집합부를 디스플레이하는 것을 특징으로 하는 감정데이터 공유시스템.
  15. 삭제
  16. 제 13항에 있어서,
    상기 선택재생수단은 음성인식수단에 해당하여, 상기 감정데이터집합부 및 상기 통합데이터가 디스플레이부에서 디스플레이될 때, 음성인식수단에 사용자가 상기 특정감정에 관련된 음성정보를 입력하는 경우,
    상기 음성인식수단은 상기 음성정보를 인식하여, 상기 디스플레이부에서 상기 특정 감정별로 상기 통합데이터를 부분적으로 디스플레이하는 것을 특징으로 하는 감정데이터 공유 시스템.
  17. 제 1항의 감정데이터 공유시스템을 이용한 감정데이터 공유방법에 있어서,
    공유서버에서 수신된 통합데이터를 디스플레이부에서 디스플레이하는 단계;
    클라이언트에 구비되고, 공유서버에 연결된 검색수단이 상기 통합데이터와 관련된 감정데이터집합부가 메인데이터베이스에 존재하는지 검색하는 단계;
    상기 감정데이터집합부가 존재하는 경우, 상기 공유서버가 상기 메인데이터베이스에 저장된 상기 감정데이터집합부를 클라이언트에 전송하는 단계; 및
    디스플레이부에서 상기 통합데이터와 함께 상기 감정데이터집합부를 디스플레이하는 단계;를 포함하는 것을 특징으로 하는 감정데이터 공유 방법.
  18. 제 17항에 있어서,
    입력수단으로 감정데이터를 입력할 것인지를 결정하고, 상기 감정데이터를 입력하는 경우, 상기 통합데이터에 대해 실시간으로 메타파일 형태의 상기 감정데이터가 입력되는 단계;
    입력된 상기 감정데이터를 저장수단에 저장하고, 공유서버로 상기 감정데이터를 전송하는 단계;
    상기 공유서버가 복수의 상기 감정데이터를 전송받는 경우, 상기 감정데이터로 집단감성정보를 가진 메타파일 형태의 감정데이터집합부를 형성하는 단계; 및
    형성된 상기 감정데이터집합부를 메인데이터베이스에 저장하는 단계;를 더 포함하는 것을 특징으로 하는 감정데이터 공유 방법.
  19. 제 18항에 있어서,
    상기 메인데이터베이스 저장단계에서, 상기 메인데이터베이스에 상기 감정데이터집합부와 관련된 상기 통합데이터가 저장되어 있는 경우, 상기 통합데이터 및 상기 감정데이터집합부를 특정 감정별로 분류하는 단계;를 더 포함하고,
    상기 검색단계에서, 사용자가 상기 특정감정에 대한 통합데이터 및 감정데이터집합부의 검색이 필요한 경우, 검색수단에서 상기 특정 감정별로 분류된 상기 통합데이터와 상기 감정데이터집합부를 검색하고, 검색된 상기 통합데이터 및 상기 감정데이터집합부 전부 또는 일부를 상기 공유서버에 의해 클라이언트에 전송하고,상기 디스플레이부에서 상기 전송된 상기 통합데이터 및 상기 감정데이터집합부를 디스플레이하는 것을 특징으로 하는 감정데이터 공유방법.
  20. 제 19항에 있어서,
    상기 감정데이터집합부를 디스플레이하는 단계 후에,
    상기 통합데이터를 상기 특정 감정별로 부분적으로 디스플레이하고자 하는 경우, 상기 디스플레이부에 구비된 선택재생수단에 의해 감정별로 상기 통합데이터가 부분적으로 디스플레이되는 단계:를 더 포함하는 것을 특징으로 하는 감정데이터 공유방법.
  21. 제 17항에 있어서,
    상기 통합데이터는 영상데이터를 포함하며 자막데이터, 문서데이터, 음성데이터 중 적어도 하나를 더 포함할 수 있는 것을 특징으로 하는 감정데이터 공유방법.
  22. 청구항 22은(는) 설정등록료 납부시 포기되었습니다.
    제 17항에 있어서,
    상기 감정데이터집합부를 클라이언트에 전송하는 단계에서,
    정보통신망으로 상기 공유서버에서 상기 통합데이터, 상기 감정데이터집합부 중 적어도 어느 하나를 각각의 상기 클라이언트로 전송하며, 상기 정보통신망은 유선, 무선, 인터넷, DFMA, CDMA 또는 GSM인 것을 특징으로 하는 감정데이터 공유방법.
  23. 청구항 23은(는) 설정등록료 납부시 포기되었습니다.
    제 17항에 있어서,
    상기 검색하는 단계 후에,
    상기 검색수단에 따른 검색결과를 상기 디스플레이부에 팝업창으로 디스플레이하는 것을 특징으로 하는 감정데이터 공유방법.
  24. 제 17항에 있어서,
    상기 검색수단은 음성인식수단으로 구성되고, 상기 음성인식수단에 사용자가 특정감정에 관련된 음성정보를 입력하는 경우,
    상기 음성인식수단은 상기 음성정보를 인식하여, 상기 메인데이터베이스에 저장된 상기 통합데이터 및 상기 감정데이터집합부를 검색하고,
    상기 공유서버에 의해 상기 통합데이터 또는 상기 감정데이터집합부 중 적어도 어느 하나를 상기 클라이언트에 전송하여, 상기 디스플레이부에서 상기 통합데이터 및 상기 감정데이터집합부를 디스플레이하는 것을 특징으로 하는 감정데이터 공유방법.
  25. 제 20항에 있어서,
    상기 선택재생수단은 음성인식수단으로 구성되고, 상기 감정데이터집합부 및 상기 통합데이터가 디스플레이부에서 디스플레이될 때, 상기 음성인식수단에 사용자가 특정감정에 관련된 음성정보를 입력하는 경우,
    상기 음성인식수단은 상기 음성정보를 인식하여, 상기 디스플레이부에서 상기 특정 감정별로 상기 통합데이터를 부분적으로 디스플레이하는 것을 특징으로 하는 감정데이터 공유방법.
KR1020080107961A 2008-10-31 2008-10-31 감정데이터 공유시스템 및 그 공유시스템을 이용한 감정데이터 공유방법 KR101116373B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020080107961A KR101116373B1 (ko) 2008-10-31 2008-10-31 감정데이터 공유시스템 및 그 공유시스템을 이용한 감정데이터 공유방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020080107961A KR101116373B1 (ko) 2008-10-31 2008-10-31 감정데이터 공유시스템 및 그 공유시스템을 이용한 감정데이터 공유방법

Publications (2)

Publication Number Publication Date
KR20100048688A KR20100048688A (ko) 2010-05-11
KR101116373B1 true KR101116373B1 (ko) 2012-03-19

Family

ID=42275420

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020080107961A KR101116373B1 (ko) 2008-10-31 2008-10-31 감정데이터 공유시스템 및 그 공유시스템을 이용한 감정데이터 공유방법

Country Status (1)

Country Link
KR (1) KR101116373B1 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101767974B1 (ko) 2015-11-25 2017-08-16 주식회사 디맨드 액티브 시니어 자립 생활 지원 시스템

Families Citing this family (59)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11704574B2 (en) 2010-06-07 2023-07-18 Affectiva, Inc. Multimodal machine learning for vehicle manipulation
US11073899B2 (en) 2010-06-07 2021-07-27 Affectiva, Inc. Multidevice multimodal emotion services monitoring
US11430260B2 (en) 2010-06-07 2022-08-30 Affectiva, Inc. Electronic display viewing verification
US11700420B2 (en) 2010-06-07 2023-07-11 Affectiva, Inc. Media manipulation using cognitive state metric analysis
US10482333B1 (en) 2017-01-04 2019-11-19 Affectiva, Inc. Mental state analysis using blink rate within vehicles
US11887352B2 (en) 2010-06-07 2024-01-30 Affectiva, Inc. Live streaming analytics within a shared digital environment
US11657288B2 (en) 2010-06-07 2023-05-23 Affectiva, Inc. Convolutional computing using multilayered analysis engine
US11292477B2 (en) 2010-06-07 2022-04-05 Affectiva, Inc. Vehicle manipulation using cognitive state engineering
US11823055B2 (en) 2019-03-31 2023-11-21 Affectiva, Inc. Vehicular in-cabin sensing using machine learning
US9934425B2 (en) 2010-06-07 2018-04-03 Affectiva, Inc. Collection of affect data from multiple mobile devices
US11017250B2 (en) 2010-06-07 2021-05-25 Affectiva, Inc. Vehicle manipulation using convolutional image processing
US10289898B2 (en) 2010-06-07 2019-05-14 Affectiva, Inc. Video recommendation via affect
US10474875B2 (en) 2010-06-07 2019-11-12 Affectiva, Inc. Image analysis using a semiconductor processor for facial evaluation
US11465640B2 (en) 2010-06-07 2022-10-11 Affectiva, Inc. Directed control transfer for autonomous vehicles
US10628741B2 (en) 2010-06-07 2020-04-21 Affectiva, Inc. Multimodal machine learning for emotion metrics
US9646046B2 (en) 2010-06-07 2017-05-09 Affectiva, Inc. Mental state data tagging for data collected from multiple sources
US11410438B2 (en) 2010-06-07 2022-08-09 Affectiva, Inc. Image analysis using a semiconductor processor for facial evaluation in vehicles
US10074024B2 (en) 2010-06-07 2018-09-11 Affectiva, Inc. Mental state analysis using blink rate for vehicles
US11318949B2 (en) 2010-06-07 2022-05-03 Affectiva, Inc. In-vehicle drowsiness analysis using blink rate
US11393133B2 (en) 2010-06-07 2022-07-19 Affectiva, Inc. Emoji manipulation using machine learning
US11935281B2 (en) 2010-06-07 2024-03-19 Affectiva, Inc. Vehicular in-cabin facial tracking using machine learning
US10869626B2 (en) 2010-06-07 2020-12-22 Affectiva, Inc. Image analysis for emotional metric evaluation
US10799168B2 (en) 2010-06-07 2020-10-13 Affectiva, Inc. Individual data sharing across a social network
US10614289B2 (en) 2010-06-07 2020-04-07 Affectiva, Inc. Facial tracking with classifiers
US10204625B2 (en) 2010-06-07 2019-02-12 Affectiva, Inc. Audio analysis learning using video data
US9642536B2 (en) 2010-06-07 2017-05-09 Affectiva, Inc. Mental state analysis using heart rate collection based on video imagery
US11056225B2 (en) 2010-06-07 2021-07-06 Affectiva, Inc. Analytics for livestreaming based on image analysis within a shared digital environment
US11232290B2 (en) 2010-06-07 2022-01-25 Affectiva, Inc. Image analysis using sub-sectional component evaluation to augment classifier usage
US9204836B2 (en) 2010-06-07 2015-12-08 Affectiva, Inc. Sporadic collection of mobile affect data
US10401860B2 (en) 2010-06-07 2019-09-03 Affectiva, Inc. Image analysis for two-sided data hub
US11587357B2 (en) 2010-06-07 2023-02-21 Affectiva, Inc. Vehicular cognitive data collection with multiple devices
US11067405B2 (en) 2010-06-07 2021-07-20 Affectiva, Inc. Cognitive state vehicle navigation based on image processing
US10592757B2 (en) 2010-06-07 2020-03-17 Affectiva, Inc. Vehicular cognitive data collection using multiple devices
US10517521B2 (en) 2010-06-07 2019-12-31 Affectiva, Inc. Mental state mood analysis using heart rate collection based on video imagery
US9503786B2 (en) 2010-06-07 2016-11-22 Affectiva, Inc. Video recommendation using affect
US11151610B2 (en) 2010-06-07 2021-10-19 Affectiva, Inc. Autonomous vehicle control using heart rate collection based on video imagery
US9723992B2 (en) 2010-06-07 2017-08-08 Affectiva, Inc. Mental state analysis using blink rate
US9247903B2 (en) 2010-06-07 2016-02-02 Affectiva, Inc. Using affect within a gaming context
US10143414B2 (en) 2010-06-07 2018-12-04 Affectiva, Inc. Sporadic collection with mobile affect data
US10843078B2 (en) 2010-06-07 2020-11-24 Affectiva, Inc. Affect usage within a gaming context
US11484685B2 (en) 2010-06-07 2022-11-01 Affectiva, Inc. Robotic control using profiles
US10108852B2 (en) 2010-06-07 2018-10-23 Affectiva, Inc. Facial analysis to detect asymmetric expressions
US10779761B2 (en) 2010-06-07 2020-09-22 Affectiva, Inc. Sporadic collection of affect data within a vehicle
US11511757B2 (en) 2010-06-07 2022-11-29 Affectiva, Inc. Vehicle manipulation with crowdsourcing
US10796176B2 (en) 2010-06-07 2020-10-06 Affectiva, Inc. Personal emotional profile generation for vehicle manipulation
US10911829B2 (en) 2010-06-07 2021-02-02 Affectiva, Inc. Vehicle video recommendation via affect
US10111611B2 (en) 2010-06-07 2018-10-30 Affectiva, Inc. Personal emotional profile generation
US10922567B2 (en) 2010-06-07 2021-02-16 Affectiva, Inc. Cognitive state based vehicle manipulation using near-infrared image processing
US10627817B2 (en) 2010-06-07 2020-04-21 Affectiva, Inc. Vehicle manipulation using occupant image analysis
US9959549B2 (en) 2010-06-07 2018-05-01 Affectiva, Inc. Mental state analysis for norm generation
US10897650B2 (en) 2010-06-07 2021-01-19 Affectiva, Inc. Vehicle content recommendation using cognitive states
CN103154953A (zh) * 2010-09-30 2013-06-12 阿弗科迪瓦公司 测量具有上网功能的应用程序的情感数据
EP2678820A4 (en) 2011-02-27 2014-12-03 Affectiva Inc VIDEO RECOMMENDATION BASED ON AN AFFECT
US10922566B2 (en) 2017-05-09 2021-02-16 Affectiva, Inc. Cognitive state evaluation for vehicle navigation
US20190172458A1 (en) 2017-12-01 2019-06-06 Affectiva, Inc. Speech analysis for cross-language mental state identification
US11887383B2 (en) 2019-03-31 2024-01-30 Affectiva, Inc. Vehicle interior object management
US11769056B2 (en) 2019-12-30 2023-09-26 Affectiva, Inc. Synthetic data for neural network training using vectors
KR102294692B1 (ko) 2020-01-07 2021-08-26 강필성 인공지능 답변사전 및 데이터 셋 전처리를 위한 개방형 유저 참여 플랫폼을 기반으로 공유 컨텐츠를 제공하는 장치 및 방법
KR102627509B1 (ko) * 2021-02-22 2024-01-18 김원강 감정 공유 콘텐츠 시스템

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20020000288A (ko) * 2000-06-22 2002-01-05 오재철 인터넷 방송 시청자 반응도 조사 시스템
JP2005142975A (ja) * 2003-11-10 2005-06-02 Nippon Telegr & Teleph Corp <Ntt> 視聴者反応情報収集システム及びその方法と、その視聴者反応情報収集システムで用いられるユーザ端末及び視聴者反応情報提供装置と、そのユーザ端末・視聴者反応情報提供装置の実現に用いられる視聴者反応情報作成用プログラム
KR20060099253A (ko) * 2005-03-11 2006-09-19 에스케이 텔레콤주식회사 인터넷 방송 시청 중 사용자간 의견 교환이 가능한 인터넷방송 시스템 및 방법

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20020000288A (ko) * 2000-06-22 2002-01-05 오재철 인터넷 방송 시청자 반응도 조사 시스템
JP2005142975A (ja) * 2003-11-10 2005-06-02 Nippon Telegr & Teleph Corp <Ntt> 視聴者反応情報収集システム及びその方法と、その視聴者反応情報収集システムで用いられるユーザ端末及び視聴者反応情報提供装置と、そのユーザ端末・視聴者反応情報提供装置の実現に用いられる視聴者反応情報作成用プログラム
KR20060099253A (ko) * 2005-03-11 2006-09-19 에스케이 텔레콤주식회사 인터넷 방송 시청 중 사용자간 의견 교환이 가능한 인터넷방송 시스템 및 방법

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101767974B1 (ko) 2015-11-25 2017-08-16 주식회사 디맨드 액티브 시니어 자립 생활 지원 시스템

Also Published As

Publication number Publication date
KR20100048688A (ko) 2010-05-11

Similar Documents

Publication Publication Date Title
KR101116373B1 (ko) 감정데이터 공유시스템 및 그 공유시스템을 이용한 감정데이터 공유방법
JP4664283B2 (ja) 番組選択支援装置
US10192583B2 (en) Video editing using contextual data and content discovery using clusters
US9253511B2 (en) Systems and methods for performing multi-modal video datastream segmentation
US20110179003A1 (en) System for Sharing Emotion Data and Method of Sharing Emotion Data Using the Same
US20160014482A1 (en) Systems and Methods for Generating Video Summary Sequences From One or More Video Segments
CN111158831B (zh) 基于即时通讯应用的数据处理方法、装置、设备及介质
CN100485721C (zh) 生成视频概要描述数据的方法、系统及浏览该数据的设备
JPWO2006019101A1 (ja) コンテンツ関連情報取得装置、コンテンツ関連情報取得方法、およびコンテンツ関連情報取得プログラム
CN106331779A (zh) 在播放视频过程中基于用户喜好推送主播的方法及系统
JP5106455B2 (ja) コンテンツ推薦装置及びコンテンツ推薦方法
CN101458703A (zh) 用于控制相对重要性的标签表示或标签组表示大小调整
KR20070007290A (ko) 지침서 생성 유닛
JP2010135925A (ja) コメント可視化装置およびコメント可視化プログラム
JP3307613B2 (ja) 映像検索システム
KR20140092352A (ko) 컨텐츠의 평가 재생 시스템
KR20100116412A (ko) 동영상 장면 기반 광고정보 제공장치 및 방법
US20120124473A1 (en) System and method for playing music using music visualization technique
JP4496690B2 (ja) 映像情報レコメンドシステム、方法及び装置、並びに、映像情報レコメンドプログラム及びプログラムの記録媒体
CN106713973A (zh) 搜索节目的方法及装置
KR102281266B1 (ko) 영상 내 자막 키워드 추출 및 순위 산정 시스템 및 방법
JP7158902B2 (ja) 情報処理装置、情報処理方法、及び情報処理プログラム
KR20100118896A (ko) 콘텐츠 내 객체 정보 및 객체 기반의 응용 콘텐츠를 제공하는 방법 및 장치
JP2014130536A (ja) 情報管理装置、サーバ及び制御方法
KR101624172B1 (ko) 컨텐츠 정보 관리 장치 및 방법

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
LAPS Lapse due to unpaid annual fee