KR20150007936A - 미디어 컨텐츠에 대한 사용자 피드백을 획득하는 시스템 및 방법, 컴퓨터 판독가능 기록매체 - Google Patents

미디어 컨텐츠에 대한 사용자 피드백을 획득하는 시스템 및 방법, 컴퓨터 판독가능 기록매체 Download PDF

Info

Publication number
KR20150007936A
KR20150007936A KR1020140056759A KR20140056759A KR20150007936A KR 20150007936 A KR20150007936 A KR 20150007936A KR 1020140056759 A KR1020140056759 A KR 1020140056759A KR 20140056759 A KR20140056759 A KR 20140056759A KR 20150007936 A KR20150007936 A KR 20150007936A
Authority
KR
South Korea
Prior art keywords
media content
user
personal
motion
user feedback
Prior art date
Application number
KR1020140056759A
Other languages
English (en)
Inventor
가리 광? 첸
셍보 구오
제프 밀러
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to EP14174589.3A priority Critical patent/EP2824630A1/en
Publication of KR20150007936A publication Critical patent/KR20150007936A/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/442Monitoring of processes or resources, e.g. detecting the failure of a recording device, monitoring the downstream bandwidth, the number of times a movie has been viewed, the storage space available from the internal hard disk
    • H04N21/44213Monitoring of end-user related data
    • H04N21/44218Detecting physical presence or behaviour of the user, e.g. using sensors to detect if the user is leaving the room or changes his face expression during a TV program
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04HBROADCAST COMMUNICATION
    • H04H60/00Arrangements for broadcast applications with a direct linking to broadcast information or broadcast space-time; Broadcast-related systems
    • H04H60/29Arrangements for monitoring broadcast services or broadcast-related services
    • H04H60/33Arrangements for monitoring the users' behaviour or opinions
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04HBROADCAST COMMUNICATION
    • H04H60/00Arrangements for broadcast applications with a direct linking to broadcast information or broadcast space-time; Broadcast-related systems
    • H04H60/35Arrangements for identifying or recognising characteristics with a direct linkage to broadcast information or to broadcast space-time, e.g. for identifying broadcast stations or for identifying users
    • H04H60/46Arrangements for identifying or recognising characteristics with a direct linkage to broadcast information or to broadcast space-time, e.g. for identifying broadcast stations or for identifying users for recognising users' preferences
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/25Management operations performed by the server for facilitating the content distribution or administrating data related to end-users or client devices, e.g. end-user or client device authentication, learning user preferences for recommending movies
    • H04N21/251Learning process for intelligent management, e.g. learning user preferences for recommending movies
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/25Management operations performed by the server for facilitating the content distribution or administrating data related to end-users or client devices, e.g. end-user or client device authentication, learning user preferences for recommending movies
    • H04N21/258Client or end-user data management, e.g. managing client capabilities, user preferences or demographics, processing of multiple end-users preferences to derive collaborative data
    • H04N21/25866Management of end-user data
    • H04N21/25891Management of end-user data being end-user preferences
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/42201Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS] biosensors, e.g. heat sensor for presence detection, EEG sensors or any limb activity sensors worn by the user
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/42203Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS] sound input device, e.g. microphone
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/4223Cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/439Processing of audio elementary streams
    • H04N21/4394Processing of audio elementary streams involving operations for analysing the audio stream, e.g. detecting features or characteristics in audio streams
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
    • H04N21/44008Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving operations for analysing video streams, e.g. detecting features or characteristics in the video stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/45Management operations performed by the client for facilitating the reception of or the interaction with the content or administrating data related to the end-user or to the client device itself, e.g. learning user preferences for recommending movies, resolving scheduling conflicts
    • H04N21/4508Management of client data or end-user data
    • H04N21/4532Management of client data or end-user data involving end-user characteristics, e.g. viewer profile, preferences

Landscapes

  • Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Databases & Information Systems (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Social Psychology (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Chemical & Material Sciences (AREA)
  • Analytical Chemistry (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Neurosurgery (AREA)
  • Computing Systems (AREA)
  • Computer Graphics (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

본 발명은 미디어 컨텐츠에 대한 사용자 피드백을 획득하는 시스템 및 방법, 컴퓨터 판독가능 기록매체에 관한 것으로서, 본 발명의 실시예에 따른 미디어 컨텐츠에 대한 사용자 피드백을 획득하는 시스템은 미디어 컨텐츠에 대한 사용자의 피드백을 처리하는 적어도 하나의 프로세서, 적어도 하나의 프로세서에 관계된 제어 명령(instructions) 및 처리 데이터 중 적어도 하나를 저장하는 저장부를 포함하며, 적어도 하나의 프로세서는, 미디어 컨텐츠 단말 장치에서 미디어 컨텐츠가 재생되는 동안, 움직임 센서에 의해 취득되는 움직임 데이터가 포함된 센서 데이터를 수신하고, 미디어 컨텐츠에 대한 사용자의 개인적인 상태가 반영되어 있는 움직임 데이터를 포함하는 수신한 센서 데이터를 분석하여 움직임 데이터의 분석 결과에 근거해 미디어 컨텐츠에 대한 사용자의 개인적인 상태를 판단할 수 있다.

Description

미디어 컨텐츠에 대한 사용자 피드백을 획득하는 시스템 및 방법, 컴퓨터 판독가능 기록매체{Systems and Method for Obtaining User Feedback to Media Content, and Computer-readable Recording Medium}
본 발명은 미디어 컨텐츠에 대한 사용자 피드백을 획득하는 시스템 및 방법, 컴퓨터 판독가능 기록매체에 관한 것으로서, 더 상세하게는 가령 미디어 컨텐츠 소비와 관련하여 미디어 컨텐츠에 관련된 사용자 피드백을 얻으려는 미디어 컨텐츠에 대한 사용자 피드백을 획득하는 시스템 및 방법, 컴퓨터 판독가능 기록매체에 관한 것이다.
영화 또는 TV 쇼와 같은 미디어 컨텐츠에 대한 사용자 피드백을 얻기 위한 전형적인 방법들은 미디어 컨텐츠를 시청한 후, 아니면 경험한 후에 사용자 피드백을 제공할지를 사용자에게 묻거나 요청하는 것을 포함한다. 예를 들어, 일부 미디어 컨텐츠 제공자들은 미디어 컨텐츠에 대한 명확한 평가기준들(ratings)을 제공하기 위하여 사용자에게 의존해서 특정 미디어 컨텐츠를 좋아하는지 좋아하지 않는지를 학습할 수 있다. 컨텐츠 제공자들은 사용자가 대부분을 즐긴 가령 영화와 같은 미디어 컨텐츠의 특성들에 대한 질문 목록을 사용자게 명확하게 요청할지 모른다.
전형적인 방법은 미디어 컨텐츠에 대한 사용자 피드백을 수집하는 것이 매우 제한되기도 한다. 많은 사용자들은 미디어 컨텐츠에 대한 사용자 피드백을 제공하라는 그런 요청들을 무시하기 때문에, 이러한 것은 시간 낭비가 될 수 있고, 미디어 컨텐츠에 대한 사용자 경험을 감소시킬 수 있다. 그러한 사용자 평가기준들은 종종 세세한 면도 없기 때문에 바라는 상세한 정보의 수준을 얻기에는 부족한 면이 없지않다. 나아가, 전형적인 방법으로 수집된 사용자 피드백은 사용자 피드백을 공유하기 위해 실질적으로 선택하는 소규모의 사용자들에게만 나타날 수 있다. 이러한 사용자들은 어떠한 공통된 특징들을 공유하려는 경향이 있거나, 대표적인, 어떤 경우에는 협소한 고객의 일부를 대표할 수 있다. 컨텐츠 제공자들은 컨텐츠를 소비하는 사용자들 대다수로부터 사용자 피드백을 받지는 못한다. 사용자 피드백은 미디어 컨텐츠가 소비된 후 발생하는 지연 방식으로 제공될 수 있다. 사용자 피드백은 사용자의 느낌이 시간이 지나 변화될 수 있기 때문에 미디어 컨텐츠에 대하여 사용자가 동시에 진심으로 느끼는 감정을 제대로 나타내지 못하게 된다.
사용자가 미디어 컨텐츠를 소비했다는 사실은 미디어 컨텐츠에 대한 실질적인 사용자 피드백을 반영하지 못하는 것이다. 예를 들어, 사용자가 영화를 재생했다는 사실은 사용자가 영화를 좋아하고, 또는 사용자가 심지어 영화를 시청했다는 것을 의미하지는 않는다. 일부의 경우에, 사용자는 다른 무언가에 주의를 기울이는 동안 미디어 컨텐츠에 대한 주의를 기울이지 않고 단순히 TV를 시청할 수 있다.
이러한 점에 근거해 볼 때, 모든 사용자로부터, 그리고 연속적인 방법으로, 하지만 사용자들에게 거슬리지 않게 사용자 피드백을 얻기 위한 방법이 적실히 요구되고 있다. 이로 인해 사용자 피드백은 미디어 컨텐츠가 소비된 후 그들만의 피드백을 제공하기 위해 사용자들이 활동적으로 선택하는 것에 그다지 의존하지 않아도 된다.
나아가, 미디어 컨텐츠가 소비된 후 지연되기 전에, 미디어 컨텐츠가 소비되는 동안 사용자 피드백을 얻는 것이 요구된다. 또한 사용자의 영화에 대한 전반적인 평가보다는 전반적으로 더 세세한 정보를 제공하는 사용자 피드백을 얻는 것이 요구된다.
뿐만 아니라, 미디어 컨텐츠에 대한 사용자의 진실된 느낌 또는 감정들을 더 나타내는 보다 폭넓은 사용자 피드백을 얻는 것이 요구되고 있다.
본 발명의 실시예는 가령 미디어 컨텐츠 소비와 관련하여 미디어 컨텐츠에 관련된 사용자 피드백을 얻으려는 미디어 컨텐츠에 대한 사용자 피드백을 획득하는 시스템 및 방법, 컴퓨터 판독가능 기록매체를 제공함에 그 목적이 있다.
본 발명의 실시예에 따른 미디어 컨텐츠에 대한 사용자 피드백을 획득하는 시스템은 미디어 컨텐츠에 대한 사용자의 피드백을 처리하는 적어도 하나의 프로세서, 상기 적어도 하나의 프로세서에 관계된 제어 명령(instructions) 및 처리 데이터 중 적어도 하나를 저장하는 저장부를 포함하며, 상기 적어도 하나의 프로세서는, 미디어 컨텐츠 단말 장치에서 미디어 컨텐츠가 재생되는 동안, 움직임 센서에 의해 취득되는 움직임 데이터가 포함된 센서 데이터를 수신하고, 상기 미디어 컨텐츠에 대한 사용자의 개인적인 상태가 반영되어 있는 상기 움직임 데이터를 포함하는 상기 수신한 센서 데이터를 분석하여 상기 움직임 데이터의 분석 결과에 근거해 상기 미디어 컨텐츠에 대한 상기 사용자의 개인적인 상태를 판단한다.
상기 사용자의 개인적인 상태는, 상기 미디어 컨텐츠의 시청 또는 청취 이외의 활동에 대한 사용자의 집중 상태(attention)에 관계될 수 있다.
상기 사용자의 개인적인 상태는 상기 미디어 컨텐츠에 반응하는 사용자의 감정에 관계될 수 있다.
상기 센서 데이터는 카메라에 의해 취득된 이미지 데이터를 더 포함하며, 상기 적어도 하나의 프로세서는, 상기 이미지 데이터를 근거로 상기 사용자의 개인적인 상태를 판단할 수 있다.
상기 센서 데이터는 마이크로폰에 의해 취득된 오디오 데이터를 더 포함하며, 상기 적어도 하나의 프로세서는, 상기 오디오 데이터를 근거로 상기 사용자의 개인적인 상태를 판단할 수 있다.
상기 적어도 하나의 프로세서는, 상기 사용자의 개인적인 상태에 근거하여 생성된 개인화된 미디어 컨텐츠를 상기 사용자에게 제공할 수 있다.
상기 개인화된 미디어 컨텐츠의 제공은, 상기 미디어 컨텐츠가 재생되는 동안 미디어 컨텐츠를 변경하는 동작을 포함할 수 있다.
상기 개인화된 미디어 컨텐츠의 제공은, 타겟 청중과 분리되어 있는 사용자들의 개인적인 상태에 근거하여, 타겟 청중의 미디어 컨텐츠를 변경하는 동작을 포함할 수 있다.
상기 적어도 하나의 프로세서는, 상기 미디어 컨텐츠가 시청 또는 청취되는 동안 상기 사용자의 개인적인 상태가 발생할 때에 상응하는 미디어 컨텐츠의 일부를 확인하며, 상기 미디어 컨텐츠의 일부를 상기 사용자의 개인적인 상태에 맵핑할 수 있다.
상기 확인 및 상기 맵핑은 상기 미디어 컨텐츠가 시청 또는 청취되는 동안 실시간으로 수행될 수 있다.
또한 본 발명의 실시예에 따른 미디어 컨텐츠에 대한 사용자 피드백을 획득하는 방법은 미디어 컨텐츠 단말 장치에서 미디어 컨텐츠가 재생되는 동안, 움직임 센서에 의해 취득되는 움직임 데이터가 포함된 센서 데이터를 수신하는 단계, 상기 미디어 컨텐츠에 대한 사용자의 개인적인 상태가 반영되어 있는 상기 움직임 데이터를 포함하는 상기 수신한 센서 데이터를 분석하는 단계, 및 상기 움직임 데이터의 분석 결과에 근거하여 상기 미디어 컨텐츠에 대한 상기 사용자의 개인적인 상태를 판단하는 단계를 포함한다.
상기 사용자의 개인적인 상태는, 상기 미디어 컨텐츠의 시청 또는 청취 이외의 활동에 대한 사용자의 집중 상태(attention)에 관계될 수 있다.
상기 사용자의 개인적인 상태는 상기 미디어 컨텐츠에 반응하는 사용자의 감정에 관계될 수 있다.
상기 센서 데이터는 카메라에 의해 취득된 이미지 데이터를 더 포함하며, 상기 판단하는 단계는, 상기 이미지 데이터를 근거로 상기 사용자의 개인적인 상태를 판단할 수 있다.
상기 센서 데이터는 마이크로폰에 의해 취득된 오디오 데이터를 더 포함하며, 상기 판단하는 단계는, 상기 오디오 데이터를 근거로 상기 사용자의 개인적인 상태를 판단할 수 있다.
한편, 본 발명의 실시예에 따른 컴퓨터 판독가능 기록매체는, 미디어 컨텐츠에 대한 사용자 피드백을 획득하는 방법을 실행하기 위한 컴퓨터 판독가능 매체에 있어서, 상기 미디어 컨텐츠에 대한 사용자 피드백을 획득하는 방법은, 미디어 컨텐츠 단말 장치에서 미디어 컨텐츠가 재생되는 동안, 움직임 센서에 의해 취득되는 움직임 데이터가 포함된 센서 데이터를 수신하는 단계, 상기 미디어 컨텐츠에 대한 사용자의 개인적인 상태가 반영되어 있는 상기 움직임 데이터를 포함하는 상기 수신한 센서 데이터를 분석하는 단계, 및 상기 움직임 데이터의 분석 결과에 근거하여 상기 미디어 컨텐츠에 대한 상기 사용자의 개인적인 상태를 판단하는 단계를 실행한다.
상기 사용자의 개인적인 상태는, 상기 미디어 컨텐츠의 시청 또는 청취 이외의 활동에 대한 사용자의 집중 상태(attention)에 관계될 수 있다.
상기 사용자의 개인적인 상태는 상기 미디어 컨텐츠에 반응하는 사용자의 감정에 관계될 수 있다.
상기 센서 데이터는 카메라에 의해 취득된 이미지 데이터를 더 포함하며, 상기 판단하는 단계는, 상기 이미지 데이터를 근거로 상기 사용자의 개인적인 상태를 판단할 수 있다.
도 1A는 본 발명의 실시예에 따른 사용자 피드백 시스템의 구조를 나타내는 블록다이어그램,
도 1B는 본 발명의 다른 실시예에 따른 사용자 피드백 시스템의 블록다이어그램,
도 2는 본 발명의 실시예에 따른 사용자 피드백 시스템(200)을 예시하여 나타낸 블록다이어그램,
도 3은 본 발명의 실시예에 따라 사용자 피드백을 획득하기 위한 방법을 예시하여 나타내는 흐름도, 그리고
도 4는 본 발명의 실시예에 따라 앞서 기술된 실시예들 중 적어도 하나를 실행하기 위해 사용될 수 있는 컴퓨터 시스템을 예시하여 나타낸 도면이다.
이하, 도면을 참조하여 본 발명의 실시예에 대하여 상세히 설명한다.
구체적인 설명에 앞서, 본 발명의 실시예에 따른 미디어 컨텐츠는 예를 들어, 오디오, 영상, 비디오 등을 포함하는 어떠한 형태의 컨텐츠이어도 무관하다. 예를 들어, 미디어 컨텐츠는 영화, 드라마, TV, 스포츠 이벤트, 콘서트, 광고, 비디오 게임 등을 포함할 수 있다. 본 발명의 실시예에 따라, 미디어 컨텐츠는 엄격하게는 스트리밍 음악 또는 라디오, 오디오 북, 오디오 표시, 오디오 스포츠 방송, 오디오 광고 등을 포함할 수 있다. 미디어 컨텐츠는 미디어 컨텐츠 단말 장치에서 재생되고 표시된다. 미디어 컨텐츠 단말 장치는 사용자에게 소비되는 미디어 컨텐츠를 나타내는 장치 또는 시스템을 포함할 수 있다. 사용자에 의한 소비는 예를 들어, 미디어 컨텐츠의 시청 또는 청취를 포함한다. 미디어 컨텐츠 단말 장치는 사용자가 미디어 컨텐츠를 시청하도록 하는 디스플레이 또는 사용자가 미디어 컨텐츠를 청취하도록 하는 스피커와 같이 미디어 컨텐츠를 소비하기 위한 메커니즘 또는 시스템을 포함한다. 미디어 컨텐츠 단말 장치는 예를 들어, 스마트 TV, 데스크탑 컴퓨터, 랩탑 컴퓨터, 태블릿 PC, 스마트폰, 게임기기 등을 포함할 수 있다.
본 발명의 실시예에 따른 시스템 및 방법은 미디어 컨텐츠가 미디어 컨텐츠 단말 장치에서 재생되는 동안, 오디오 데이터, 영상 데이터 및 움직임 데이터와 같은 다양한 센서 데이터를 획득하기 위하여 사용되는 마이크로폰, 카메라, 움직임 센서(혹은 모션 센서)와 같은 적어도 하나의 센서를 포함할 수 있다. 센서 데이터는 미디어 컨텐츠가 재생되는 동안, 사용자로부터의 오디오, 사용자로부터의 영상, 사용자에 의한 움직임들을 포함한다. 센서 데이터는 예를 들어, 사용자의 얼굴 표정과 같은 시각적 표현, 자세와 같은 사용자의 외모, 단어나 소리와 같은 사용자의 음성 표현, 또는 미디어 컨텐츠가 재생되는 동안 미디어 컨텐츠가 재생되는 곳에서의 존재, 제스처, 자세 등과 같은 사용자의 동작들을 취득하거나 반영할 수 있다. 그렇지 않으며, 센서 데이터는 예를 들어, 사용자로부터의 음성 부재, 사용자의 영상 또는 사용자에 의한 모션들을 취득하거나 반영할 수 있다.
미디어 컨텐츠와 관련한 사용자의 개인적인 상태는 센서 데이터에 근거해 판단(또는 결정)될 수 있다. 사용자의 개인적인 상태는 예를 들어, 미디어 컨텐츠와 관련한 사용자의 감정, 느낌, 분위기, 정서, 주의(혹은 집중 상태) 또는 관심 상태, 또는 찬성 상태 등을 포함할 수 있다. 센서 데이터는 사용자의 개인적인 상태 등에 대한 단초들을 제공할지 모른다. 예를 들어, 찌푸린 표정은 사용자가 미디어 컨텐츠가 슬프거나 불만족스럽다는 것을 알 수 있는 반면, 웃는 표정은 사용자가 미디어 컨텐츠를 재밌거나 익살스럽게 생각하는 것임을 알 수 있다. 사용자의 행동은 미디어 컨텐츠에서의 사용자의 주의 또는 관심을 나타낼 수 있다. 예를 들어, 미디어 컨텐츠를 소비하는 것 이외에 책이나 태블릿을 읽고, 집을 청소하는 것과 같은 사용자의 어떠한 수행 동작은 사용자의 주의가 미디어 컨텐츠에 있는 것이 아니며, 사용자가 미디어 컨텐츠에 낮은 수준의 관심을 갖는 것을 나타낸다. 이와 유사하게, 미디어의 중요 구간이 표시되는 동안의 사용자의 부재는 사용자가 미디어 컨텐츠에 낮은 수준의 관심을 갖는 것을 나타낸다. 오디오 데이터, 영상 데이터 및 움직임 데이터는 단독으로든 결합해서든 사용자의 개인적인 상태를 판단하는 데 사용될 수 있다. 이러한 유형의 다른 표현, 행동들, 부재는 미디어 컨텐츠와 관련한 사용자의 일치, 유사 또는 유사하지 않은 개인적인 상태를 의미할 수 있다.
사용자의 개인적인 상태는 가령 영화 전체에서 전반적으로 미디어 컨텐츠와 연계되거나, 사용자의 개인적인 상태가 발생하는 때에 상응하는 영화 속 장면, 미디어 컨텐츠의 하나 혹은 그 이상의 비디오 프레임과 같이 미디어 컨텐츠의 특정 부분과 연계될 수 있다. 예를 들어, 영화의 특정 장면에서의 사용자의 웃음은 사용자가 영화의 특정 장면을 웃기는 것으로 생각함을 알 수 있다. 미디어 컨텐츠가 재생되는 동안 사용자의 빈번한 부재 또는 더 만연한 부재는 사용자가 전반적으로 미디어 컨텐츠에 대한 낮은 수준의 관심을 갖는 것을 나타낸다. 그렇지만, 그러한 부재가 빈번하고 만연함에도 불구하고, 미디어 컨텐츠의 어떤 부분이 재생되는 동안의 사용자 존재는 사용자가 어떤 부분을 매우 즐겁게 생각한다는 것을 알 수 있다.
또한 하나의 개인적인 상태는 또 다른 개인적인 상태를 나타낼 수 있다. 예를 들어, 행복감을 느끼는 사용자의 감정은 사용자가 미디어 컨텐츠의 승인(또는 찬성, 지지)을 나타낸다. 사용자의 부산한 상태는 사용자가 그 미디어 컨텐츠를 승인하거나 지지하지 않는다는 것을 나타낼 수 있다.
사용자의 개인적인 상태는 미디어 컨텐츠와 관련한 사용자의 피드백으로서 제공된다. 사용자의 개인적인 상태는 영화와 같이 미디어 컨텐츠 전반적으로, 사용자 피드백이 발생하는 특정 장면이나 챕터(chapter)와 같은 미디어 컨텐츠의 특정 부분, 영화의 장르, 장면의 주제, 한 장면에서의 남녀 배우들과 같이 미디어 컨텐츠에 관련된 정보 등과 같은 미디어 컨텐츠의 다양한 속성들과 연계될 수 있다.
사용자의 개인적인 상태는 하나의 장면 또는 미디어 컨텐츠의 특징들, 실체(혹은 주체)(entities), 범주 또는 분류와 연계될 수 있다. 센서 데이터 및 사용자의 개인적인 상태는 센서 데이터 및 사용자의 개인적인 상태를 미디어 컨텐츠의 상응하는 부분에 연계, 가령 맵핑하는 마커들(markers), 타임 스탬프들 또는 다른 수단들을 포함할 수 있다. 사용자의 개인적인 상태는 사용자를 위한 사용자 프로파일과 연계될 수 있다. 본 발명의 실시예에 따라, 미디어 컨텐츠의 특정 비디오 프레임들 또는 장면들이 분석되고, 이를 통해 실체 또는 특징들이 추출될 수 있다. 그러한 실체 또는 특징들은 그 후에, 사용자 피드백의 개념으로서, 더 세세한 수준에서 사용자 선호를 이끌어 내기 위해 매칭될 수 있다.
센서 데이터는 적어도 한 명의 사용자들에 대한 정보를 반영할 수 있다. 한 명의 사용자를 위한 하나 이상의 개인적인 상태는 센서 데이터에 근거해 판단(혹은 결정)될 수 있다. 나아가, 많은 사용자들을 위한 개인적인 상태들은 센서 데이터에 근거해 판단되고, 사용자들을 위한 사용자 피드백으로서 제공될 수 있다.
미디어 컨텐츠와 관련한 사용자 특성들은 사용자의 개인적인 상태에 근거해 판단될 수 있다. 사용자 특성들은 예를 들어, 사용자의 관심들, 선호, 습관, 형태(patterns) 등을 포함한다. 예를 들어, 사용자가 공상과학영화를 좋아하는지, 공포 영화를 싫어하는지, 특정 배우가 출현하는 코미디를 선호하는지 등을 판단할 수 있다. 이러한 정보는 사용자 또는 유사한 사용자 특성들을 갖는 사용자들에게 특정화된 미디어 컨텐츠를 맞추기 위하여 미디어 컨텐츠 제공자 또는 미디어 컨텐츠 제작자에 의해 사용될 수 있다. 한 그룹의 사용자들을 위한 개인적인 사용자 특성들은 그룹 전체의 사용자들을 위한 집합적인 사용자 특성들을 형성하기 위해 종합(또는 누적)될 수 있다. 개인화 즉 맞춤화된 미디어 컨텐츠는 해당 그룹의 사용자들, 또는 유사한 사용자 특성들을 갖는 또 다른 사용자 그룹에게 제공될 수 있다. 여기서, 미디어 컨텐츠 제작자라는 것은 폭넓게 사용될 수 있는데, 미디어 컨텐츠를 창작하고, 연출(또는 설계)하고 또는 편집하는 것과 같은 미디어 컨텐츠의 창작, 형성 또는 변경에 포함된 어떤 개인 또는 엔티티 즉 실체를 포함하는 것이다.
도 1A는 본 발명의 실시예에 따른 사용자 피드백 시스템의 구조를 나타내는 블록다이어그램이다.
도 1A에 도시된 바와 같이, 본 발명의 실시예에 따른 사용자 피드백 시스템(100)은 오디오 분석 모듈(102)에 연결되어 통신하는 마이크로폰(혹은 더 넓은 개념의 음성 수신부)(101), 이미지 분석 모듈(104)에 연결되어 통신하는 카메라(혹은 더 넓은 의미의 촬상부)(103), 움직임 분석 모듈(106)에 연결되어 통신하는 움직임 센서(105) 및 미디어 컨텐츠 분석 모듈(108)에 연결되어 통신하는 미디어 컨텐츠 플레이어(107)의 일부 또는 전부를 포함한다.
여기서, 일부 또는 전부를 포함한다는 것은 일부 구성요소가 생략되어 구성되거나, 하나의 구성요소가 다른 구성요소에 통합되어 구성되는 것 등을 의미하는 것으로서, 발명의 충분한 이해를 돕기 위하여 전부 포함하는 것으로 설명한다.
본 발명의 실시예에 따른 마이크로폰(101), 오디오 분석 모듈(102), 카메라(103), 이미지 분석 모듈(104), 움직임 센서(105), 움직임 분석 모듈(106) 및 미디어 컨텐츠 분석 모듈(108)은 스마트 TV, 데스크탑 컴퓨터, 랩탑 컴퓨터, 태블릿 PC, 스마트폰, 게임기기 등과 같은 미디어 컨텐츠 단말장치(155) 내에 포함될 수 있다. 물론 도시된 구성요소들을 특별히 한정하려는 것은 아니며, 도면에 별도로 나타내지는 않았지만, 본 발명의 실시예를 좀더 명확히 하기 위하여, 미디어 컨텐츠 단말 장치(155)의 다른 구성요소들, 가령 디스플레이, 스피커, 통신부, 전송부, 처리부, 메모리 등이 본 발명의 실시예에 따른 시스템(100)에 더 포함될 수 있다.
본 발명의 다른 실시예로서, 미디어 컨텐츠 단말장치(155)는 도 1A에 도시된 기능 블록들의 다른 결합도 포함할 수 있다. 예를 들어, 적어도 하나의 마이크로폰(101), 오디오 분석 모듈(102), 카메라(103), 이미지 분석 모듈(104), 움직임 센서(105), 움직임 분석 모듈(106), 및 미디어 컨텐츠 분석 모듈(108)은 미디어 컨텐츠 단말장치(155) 내에 포함되지 않을 수 있다. 더 나아가, 본 발명의 다른 실시예로서, 적어도 하나의 미디어 컨텐츠 플레이어(107), 사용자 프로파일 모듈(115) 및 미디어 개인화 모듈(116)은 미디어 컨텐츠 단말장치(155) 내에 포함될 수 있다. 예를 들어, 또 다른 실시예로서, 도 1A에 도시된 미디어 컨텐츠 단말장치(155)는 미디어 컨텐츠 플레이어(107)를 또한 포함할 수 있을 것이다.
다양한 마이크로폰, 카메라 및 움직임 센서들이 실행 즉 동작할 수 있다. 예를 들어, 카메라(103)는 APS(Active Pixel Sensor) 또는 PPS(Passive Pixel Sensors)를 포함할 수 있다. 움직임 센서(105)는 예를 들어, 적외선 또는 광 검출기를 포함할 수 있다. 본 발명의 실시예에 따라 움직임 센서(105)는 예를 들어, 가속도 또는 자이로 센서를 포함하거나 이들의 결합에 의해 동작할 수 있다.
마이크로폰(101)은 오디오를 취득(또는 검출)한다. 취득된 오디오는 사용자들(150)에서 마이크로폰(101)까지의 선으로 나타내어진 바와 같이, 미디어 컨텐츠 단말 장치(155)에서 재생되는 미디어 컨텐츠를 소비하는 적어도 한 명의 사용자들(150)의 음성(또는 대화)을 포함한다. 취득된 오디오는 마이크로폰(101)에서 오디오 분석 모듈(102)까지 선으로 나타낸 바와 같이, 오디오 데이터로서 오디오 분석 모듈(102)로 제공된다. 오디오 분석 모듈(102)은 미디어 컨텐츠와 관련해 사용자의 개인적인 상태를 판단하기 위해 오디오 데이터를 수신 및 분석한다.
오디오 분석 모듈(102)은 음성인식 모듈(109) 및 분류(또는 분산) 모듈(110)을 포함한다. 음성인식 모듈(109)은 오디오 데이터가 사람의 음성을 포함하는지 검출한다. 검출된 어떠한 인간의 음성은 텍스트로 해석(또는 번역)될 수 있다. 분류 모듈(110)은 재생되는 미디어 컨텐츠와 관련하여 판단된 텍스트를 분류한다. 예를 들어, 분류 모듈(110)은 텍스트가 미디어 컨텐츠에 관련되는지 판단하기 위하여 텍스트를 범주화하고, 다양한 개념들 및 실체들을 추출한다. 만약 분류 모듈(110)이 미디어 컨텐츠에 대한 충분한 관련성을 발견하지 못하였다면, 음성에 해당되는 텍스트는 적절하지 않은 것으로 판단되어 폐기된다. 만약 텍스트가 관련 있는 것으로 판단되면, 해당 텍스트는 더 구체화되어 분류된다. 예를 들어, 텍스트는 연계된 음성의 대응하는 시간 때에 미디어에서 재생되는 특정 장면 또는 컨텐츠에 전반적으로 관련되는 것으로 더 분류될 수 있다. 음성인식 모듈(109) 및 분류 모듈(110)은 하나 이상의 음성 또는 도면에 나타내지는 않았지만 자연어 데이터베이스(DB)를 포함할 수 있다. 이러한 데이터베이스는 사용자 소리 또는 단어 등을 비교해서 음성을 인식하기 위해 사용될 수 있다. 음성 데이터베이스는 본 발명의 다양한 실시예에 따라 다양한 장소들에 위치할 수 있다. 예를 들어, 음성 데이터베이스는 미디어 컨텐츠 플레이어(107)에 위치하거나, 컨텐츠 제공자의 서버와 같은 원격 장치에 위치할 수 있다.
오디오 분석 모듈(102)은 또한 미디어 컨텐츠와 관련한 사용자의 개인적인 상태를 나타내는 가령 소리, 음성과 같은 음향의 단초들을 위한 오디오 데이터를 분석할 수 있다. 예를 들어, 인간의 음성은 감정을 나타내는 다양한 종류의 정보를 동반한다. 예를 들어, 비음성 사운드 즉 음성이 없는 소리(non-speech sound) 또는 음성은 말하는 사용자의 저변의 감정 상태에 대한 단초를 제공할 수 있는데, 이는 음향(acoustic) 수준에 맞게 인코딩될 수 있다. 특징들은 음성이 없는 소리 및 음성으로부터 추출될 수 있고, 가령 가우시안 혼합 모델들과 같은 분류기들이 감정 검출을 위해 실행, 즉 사용될 수 있다.
오디오 분석 모듈(102)은 사용자의 개인적인 상태와 연계된 오디오 데이터에서 단어들 또는 소리들을 확인할 수 있다. 예를 들어, 승인(혹은 찬성)은 "예스(yes)" 또는 "어허(uh-huh)와 같은 특정 단어들 또는 음성 없는 소리들을 내는 사용자나 환호하거나 박수를 치는 사용자에 의해 나타내어질 수 있다. 반감(disapproval)은 "아니오(No)" 또는 "부잉(booing)"과 같은 특정 단어들이나 비음성 사운드를 내는 사용자에 의해 나타내어질 수 있다. 본 발명의 실시예에 따라 특정 단어나 구문은 사용자가 "난 이게 좋아" 또는 "난 이게 싫어"라고 말하는 것과 같은 승인 또는 비승인을 각각 나타내도록 프로그램화될 수 있다. 다른 단어들과 소리들은 또한 다양한 감정을 나타낼 수 있다. 예를 들어, 괴성이나 숨막힘은 사용자가 두려워함을 나타내고, 웃음은 사용자가 미디어 컨텐츠를 재미있어 한다는 것을 의미할 수 있다.
카메라(103)는 미디어 컨텐츠가 재생되는 동안 적어도 하나의 이미지, 또는 영상을 취득한다. 본 발명의 실시예에 따라 카메라(103)는 사진들을 취득하는 카메라를 포함한다. 카메라(103)는 실례로, 5분, 10분, 또는 어떤 적합한 시간 기간 동안 주기적으로 사진을 촬영할 수 있다. 카메라(103)는 실례로 또한 사진을 비주기적으로도 촬영할 수 있을 것이다. 예를 들어, 카메라(103)는 사용자의 움직임이 있을 때, 또는 재생되는 미디어 컨텐츠가 높은 수준의 활동을 반영할 때 사진들을 촬영할 수 있다. 본 발명의 다른 실시예에 따르면, 카메라(103)는 비디오로서 일련의 영상들을 취득하는 비디오 카메라를 포함한다. 취득한 영상들은 영상 데이터로서 이미지 분석 모듈(104)로 제공된다. 이미지 분석 모듈(104)은 미디어 컨텐츠와 관련해 사용자의 개인적인 상태를 판단하기 위하여 해당 이미지 데이터를 분석한다.
이미지 분석 모듈(104)은 사용자의 개인적인 상태를 판단하기 위하여 이미지 데이터를 분석하고 얼굴의 특징들을 추출하는 얼굴 특징 추출 모듈(111)을 포함한다. 이미지 분석 모듈(104)은 이미지 데이터로부터 추출된 얼굴 특징들을 분석하는 얼굴인식 모듈(112)을 포함한다. 얼굴인식 모듈(112)은 얼굴 표정들을 확인하고 사용자의 개인적인 상태를 판단하기 위하여 이미지 데이터 내의 얼굴 특징들을 분석한다. 실례로, 얼굴 표정들은 사용자가 가령 흥분하는지, 공포를 느끼는지, 겁내는지, 슬픈지, 화나는지와 같은 사용자의 감정을 판단하기 위해 분석될 수 있다. 얼굴인식 모듈(112)은 이미지 데이터 내에 한 명 이상의 사용자들을 확인하기 위하여 이미지 데이터 내의 얼굴 특징들을 또한 분석한다. 실례로, 얼굴 특징들은 다양한 사용자 프로파일과 연계된 얼굴들 또는 얼굴 특징들의 데이터베이스와 비교될 수 있다. 얼굴 특징 추출 모듈(111) 및 얼굴 인식 모듈(112)은 도면에 나타내지는 않았지만 적어도 하나의 얼굴 또는 특징 인식 데이터베이스를 포함할 수 있다. 이러한 데이터베이스는 다른 사용자들의 특징들과 얼굴들을 인식하기 위해 사용될 수 있다. 데이터베이스들은 본 발명의 다른 실시예에 따라 다양한 장소들에 위치할 수 있다. 예를 들어, 데이터베이스들은 미디어 컨텐츠 플레이어(107)에 위치하거나, 컨텐츠 제공자의 서버와 같은 원격 장치에 위치할 수 있다.
이미지 분석 모듈(104)은 사용자의 동작을 판단하기 위하여 이미지 데이터를 또한 분석한다. 이미지 데이터가 사진에 관련되는 한, 사용자의 행동은 여전히 사진으로부터 판단될 수 있다. 예를 들어, 엄지를 올리거나 내리는 사용자의 제스처 또는 자세는 이미지에서 취득할 수 있다. 사용자가 가령 주위를 걷거나 책 또는 태블릿을 읽는 것, 집을 청소하는 것과 같은 행동을 하는 것은 또한 사진으로부터 판단될 수 있다. 사용자의 행동은 또한 미디어 컨텐츠가 재생되는 동안 사용자의 존재 및 부재를 포함할 수 있다. 예를 들어, 이미지 분석 모듈(104)은 적어도 한 명의 사용자가 존재하는지 판단하고, 미디어 컨텐츠가 재생되는 동안 어떠한 사용자들이 방을 떠나는지, 사용자가 얼마나 오래 존재하거나 부재 중인지 판단하기 위해 이미지를 분석할 수 있다.
이미지 분석 모듈(104)은 사용자의 개인적인 상태를 판단하기 위하여 사용자의 행동들에 해당되는 이미지 데이터를 분석할 수 있다. 예를 들어, 사용자의 행동들은 미디어 컨텐츠에서 사용자의 관심 수준을 나타낼 수 있다. 만약 사용자가 주위를 걷고, 책 또는 태블릿을 읽고, 집을 청소하는 등 다른 활동들을 수행한다면, 그러면 그것은 사용자가 부수적인 활동으로서 미디어 컨텐츠를 경험하고 있는 것이고, 사용자는 미디어 컨텐츠에 낮은 수준의 관심을 갖는다고 판단될 수 있다.
사용자의 활동은 미디어 컨텐츠에 대한 사용자의 승인 또는 비승인(혹은 호감이나 비호감)을 나타낼 수 있다. 예를 들어, 하나 또는 두 개의 엄지 손가락을 치켜 올리는 사용자를 반영하는 이미지 데이터는 사용자가 미디어 컨텐츠 또는 미디어 컨텐츠의 상응하는 일부를 좋아하거나 승인하는 것을 나타낸다. 사용자가 하나 또는 두 개의 엄지 손가락을 아래로 향하는 것은 사용자가 미디어 컨텐츠 또는 미디어 컨텐츠의 상응하는 부분을 싫어하거나 비승인하는 것을 나타낼 수 있다. 본 발명의 실시예에 따라 한 명 이상의 사용자 행동은 미디어 컨텐츠에 관계되거나, 미디어 컨텐츠에 대한 사용자의 승인 또는 비승인을 나타낼 수 있다.
사용자의 행동들은 사용자의 감정을 나타낼 수 있다. 예를 들어, 눈을 감는 사용자를 반영하는 이미지 데이터는 사용자가 겁내 한다는 것을 의미한다. 팔을 공중에 두는 사용자를 반영하는 이미지 데이터는 사용자가 흥분하거나 행복해 하는 것을 나타낸다. 다른 행동들은 또한 이미지 데이터에서 확인될 수 있고, 적어도 하나의 감정들을 나타낼 수 있다.
움직임 센서(105)는 움직임을 캡쳐 즉 취득한다. 움직임들은 사용자들(150)에서 움직임 센서(105)까지 선으로 나타낸 바와 같이, 미디어 컨텐츠가 재생되는 곳에서 적어도 한 명의 사용자에 의한 움직임을 포함한다. 취득된 움직임은 움직임 센서(105)에서 움직임 분석 모듈(106)까지 선으로 나타낸 바와 같이, 움직임 데이터로서 움직임 분석 모듈(106)로 제공될 수 있다. 움직임 분석 모듈(106)은 미디어 컨텐츠와 관련한 사용자의 개인적인 상태를 판단하기 위하여 움직임 데이터를 분석할 수 있다.
움직임 분석 모듈(106)은 움직임 데이터로부터 사용자를 확인하고 추출하는 움직임 특징 추출 모듈(113)을 포함한다. 움직임 분석 모듈(106)은 사용자에 의해 수행된 가령 제스처, 자세, 활동들과 같은 사용자 행동들에 해당되는 사용자 움직임을 분석하는 움직임 인식 모듈(114)을 포함한다. 사용자 행동들은 미디어 컨텐츠에서의 관심 수준과 같은 사용자의 개인적인 상태를 나타낸다. 만약, 사용자가 미디어 컨텐츠가 재생되는 동안 전화상으로 통화하거나, 쓰기 가능한 장치에서 타이핑하거나, 음식을 준비하는 등 다른 활동을 수행한다면, 그것은 사용자가 부수적인 활동으로서 미디어 컨텐츠를 경험하고 있고, 사용자가 미디어 컨텐츠에서 낮은 수준의 관심을 갖는 것으로 판단될 수 있다. 나아가, 사용자가 어떠한 활동을 수행하는 시간의 양은 움직임 데이터에 근거해 계산될 수 있다. 장시간 미디어 컨텐츠가 재생하는 동안 사용자가 다른 활동을 수행할 때, 사용자는 미디어 컨텐츠에 낮은 관심을 갖는 것으로 판단될 수 있다. 위에서 살펴본 바와 같이, 사용자의 행동은 미디어 컨텐츠의 승인 또는 비승인을 나타낼 수 있다. 또한 앞서 언급한 대로, 본 발명의 실시예에 따라, 한 명 이상의 사용자 행동들은 미디어 컨텐츠에 연계되거나 그렇지 않으면 미디어 컨텐츠의 승인 또는 비승인을 나타낼 수 있다. 움직임 특징 추출 모듈(113) 및 움직임 인식 모듈(114)은 도면에 나타내지는 않았지만, 적어도 하나의 움직임 인식 데이터베이스를 포함한다. 이러한 데이터베이스들은 다른 사용자들의 다양한 움직임들을 인식하기 위해 사용될 수 있다. 데이터베이스들은 본 발명의 다른 실시예에 따라 다양한 장소들에 위치할 수 있다. 예를 들어, 데이터베이스들은 미디어 컨텐츠 플레이어(107)에 위치하거나, 컨텐츠 제공자의 서버와 같은 원격장치에 위치할 수 있다.
사용자의 행동은 미디어 컨텐츠의 재생 동안 사용자의 감정을 나타낸다. 예를 들어, 박수를 치거나 하나 또는 두 팔을 공중으로 올리는 움직임은 사용자가 미디어 컨텐츠나 미디어 컨텐츠의 상응하는 부분에 흥분하거나 행복해하는 것을 나타낸다. 사용자가 머리를 흔들거나, 하나 또는 두 개의 엄지 손가락을 아래로 행하는 움직임은 사용자가 미디어 컨텐츠 또는 미디어 컨텐츠의 상응하는 부분을 싫어하거나 비승인하는 것을 나타낸다. 사용자가 눈을 감는 움직임은 사용자가 겁내 하는 것을 나타낸다. 움직임 데이터에 의해 확인된 다른 행동들은 적어도 하나의 감정들을 또한 나타낼 수 있다.
마이크로폰(101), 카메라(103) 및 움직임 센서(105)는 오디오, 이미지 및 움직임들을 각각 취득하기 위하여 다양한 장소들을 지향할 수 있다. 마이크로폰(101), 카메라(103) 및 움직임 센서(105)는 미디어 컨텐츠 단말장치(155)에 위치하고, 오디오, 이미지 및 움직임들을 각각 취득하기 위하여 지향할 수 있다. 미디어 컨텐츠 단말 장치(155)는 사용자가 미디어 컨텐츠를 소비할 것 같은 곳을 향하도록 카메라(103) 및 움직임 센서(105)를 지향할 수 있다. 실례로, 카메라(103) 및 움직임 센서(105)는 디스플레이부의 시청 주변부 내 사용자의 영상들 및 움직임들을 취득하기 위하여 디스플레이(또는 화면)와 같은 방향으로 향할 수 있다. 본 발명의 다른 실시예에 따라, 마이크로폰(101), 카메라(103), 움직임 센서(105) 또는 그들의 결합은 미디어 컨텐츠 단말 장치(155)와 분리되거나, 미디어 컨텐츠 단말 장치(155)에 근접하거나, 동일 공간 또는 반경(radius) 내에 위치할 수 있을 것이다. 미디어 컨텐츠 단말 장치(155)에서 분리될 때, 마이크로폰(101), 카메라(103), 움직임 센서(105)는 미디어 컨텐츠 단말 장치(155)와 유선 또는 무선으로 연결될 수 있다.
미디어 컨텐츠 플레이어(107)는 미디어 컨텐츠 단말 장치(155)에 재생되는 미디어 컨텐츠를 제공할 수 있다. 미디어 컨텐츠 플레이어(107)의 예들은 DVD 플레이어, 게임 콘솔(console) 등과 같은 미디어 컨텐츠 단말 장치(155)로부터 분리된 스탠드얼론(standalone) 즉 독립된 미디어 컨텐츠 플레이어를 포함할 수 있다. 미디어 컨텐츠 플레이어(107)의 다른 예들은 케이블망 가입자 박스, 온라인 스트리밍 미디어 가입자 박스, 디지털 비디오 레코더 등의 셋탑 박스를 포함할 수 있다.
본 발명의 실시예에 따라, 미디어 컨텐츠 플레이어(107)는 컨텐츠 제공자의 적어도 하나의 서버로부터 스트리밍 미디어 컨텐츠를 수신하는 셋탑 박스를 포함할 수 있다. 셋탑 박스는 미디어 컨텐츠 단말 장치(155)에 연결되어 통신할 수 있으며, 미디어 컨텐츠 단말 장치(155)에서 재생시키기 위해 스트리밍 미디어 컨텐츠를 제공할 수 있다.
또한 본 발명의 실시예에 따라 미디어 컨텐츠 플레이어(107)는 DVD 롬, 외부 하드드라이브, 메모리 스틱 또는 카드 등과 같이 미디어 컨텐츠 스토리지 장치로부터 미디어 컨텐츠를 수신하는 독립된 개별 미디어 컨텐츠 플레이어를 포함할 수 있다. 개별 미디어 컨텐츠 플레이어는 미디어 컨텐츠 단말 장치(155)에 연결되어 통신할 수 있으며, 미디어 컨텐츠 단말 장치(155)에서 재생시키기 위하여 미디어 컨텐츠를 제공할 수 있다.
본 발명의 실시예에 따른 미디어 컨텐츠 플레이어(107)는 미디어 컨텐츠 단말 장치(155)에 통합될 수 있다. 예를 들어, 미디어 컨텐츠 단말 장치(155)는 가령 컨텐츠 제공자의 적어도 하나의 서버 또는 미디어 컨텐츠 스토리지 장치와 같은 미디어 컨텐츠 제공원으로부터 미디어 컨텐츠를 수신하고, 미디어 컨텐츠 단말 장치(155)에서 미디어 컨텐츠를 재생하기 위한 회로부(circuitry)를 포함할 수 있다.
본 발명의 다른 실시예에 따라, 미디어 컨텐츠 플레이어(107)는 컨텐츠 제공자의 적어도 하나의 서버로부터 스트리밍 미디어 컨텐츠를 수신하고, 또한 미디어 컨텐츠 스토리지 장치로부터 미디어 컨텐츠를 수신할 수 있다. 이것은 어떠한 실시예에서는 미디어 컨텐츠 플레이어(107)가 플래쉬 메모리, 내부 하드드라이브 등과 같이 미디어 컨텐츠 플레이어(107)에 다양한 미디어 컨텐츠를 저장하고, 미디어 컨텐츠 플레이어(107)의 내부 메모리로부터 재생을 가능하도록 하기 위해 사용될 수 있는 내부 메모리를 또한 포함할 수 있다.
미디어 컨텐츠 분석 모듈(108)은 미디어 컨텐츠에 대한 정보를 제공하기 위하여 미디어 컨텐츠 및 그 미디어 컨텐츠의 메타데이터를 분석할 수 있다. 코미디, 드라마, 액션, 스릴러 등 미디어 컨텐츠의 장르, 미디어 컨텐츠에서의 특정 장면, 미디어 컨텐츠에서의 남녀 배우 또는 미디어 컨텐츠의 특정 장면, 액션, 폭력, 아름다운 경치(scenery), 공포, 코미디 등과 같은 장면의 주체, 또는 미디어 컨텐츠의 일부 또는 전체적으로 미디어 컨텐츠에 관련된 어떤 다른 정보들의 ID(identification)와 같은 다양한 정보들이 제공될 수 있다. 미디어 컨텐츠에 대한 정보는 미디어 컨텐츠의 상응하는 부분 또는 실체와 그 정보를 연계시키기 위한 마커, 타임스탬프, 프레임 카운트, 또는 다른 수단들을 포함한다.
미디어 컨텐츠 분석 모듈(108)은 사용자의 개인적인 상태와 제때(in time) 대응하는 영화에서의 장면 또는 챕터와 같은 미디어 컨텐츠의 부분들을 확인할 수 있다. 실례로, 사용자의 개인적인 상태는 영화에서 특정 장면과 연계될 수 있다. 미디어 컨텐츠에 대한 더 세세한 정보는 또한 더 나은 상황(context) 또는 사용자의 개인적인 상태가 무엇에 관련되는지에 대한 이해를 제공하기 위하여 미디어 컨텐츠 분석 모듈(108)에 의해 수집될 수 있다. 예를 들어, 사용자의 개인적인 상태는 미디어 컨텐츠의 가령 장면, 에피소드, 하나 이상의 비디오 프레임과 같은 특정 부분들과 연계 가령 매핑될 수 있지만, 또한 장면에서의 특정 남녀 배우들, 장면의 설정, 액션, 폭력, 아름다운 경치, 공포, 코미디와 같은 장면의 주체 등과 같은 더 세세한 정보와 연계될 수 있다. 예를 들어, 세세한 정보는 이전에 수집되어 상응하는 타임 스탬프 또는 마커와 연계될 수 있다. 세세한 정보 및 타임 스탬프는 실례로, 미디어 컨텐츠 내에 포함되거나, 컨텐츠 제공자의 하나 이상의 서버들에 저장될 수 있다. 사용자의 개인적인 상태가 확인될 때, 사용자의 개인적인 상태와 연계된 타임스탬프 또는 마커는 동일 타임 스탬프 또는 마커와 연계된 세세한 정보를 조사(또는 검색)하기 위해 사용될 수 있다. 이러한 방식으로, 사용자의 개인적인 상태는 미디어 컨텐츠 전반에 연계되는 것에 특별히 제한되지는 않는다.
본 발명의 실시예에 따라, 미디어 컨텐츠 분석 모듈(108)은 미디어 컨텐츠에 관계된 정보를 제공하기 위하여 미디어 컨텐츠 플레이어(107)로부터의 미디어 컨텐츠를 분석한다. 실례로, 미디어 컨텐츠의 특정 비디오 프레임들 또는 장면들이 분석되고, 다양한 실체나 특징들이 추출된다. 미디어 컨텐츠 분석 모듈(108)은 이미지 프레임(또는 일련의 이미지 프레임들)에 있는 남녀 배우들, 이미지 프레임(또는 일련의 이미지 프레임들)에 있는 장면의 주제 등과 같은 미디어 컨텐츠에 대한 정보를 판단하기 위하여 미디어 컨텐츠를 분석하는 하나 이상의 장면 인식 알고리즘을 실행할 수 있다. 예를 들어, 훈련 데이터(또는 교사 데이터)(training data)가 미디어 컨텐츠에서의 다양한 남녀 배우들을 확인하는 기계 학습 모델들(machine learning models)을 생성하기 위해 수집될 수 있다.
본 발명의 또 다른 실시예에 따라, 미디어 컨텐츠는 사용자에 의한 미디어 컨텐츠의 재생에 앞서 분석될 수 있다. 예를 들어, 미디어 컨텐츠 제공자 또는 미디어 컨텐츠 제작자는 미디어 컨텐츠를 분석하고, 그 미디어 컨텐츠에 대한 정보를 수집해 둘 수 있다. 다른 실시예로서, 미디어 컨텐츠에 관련된 정보는 미디어 컨텐츠와 함께 포함될 수 있다. 예를 들어, 미디어 컨텐츠에 관련된 정보는 스트리밍 컨텐츠와 함께 포함되거나, 미디어 컨텐츠를 갖는 미디어 컨텐츠 스토리지 장치에 저장될 수 있다. 미디어 컨텐츠 분석 모듈(108)은 예를 들어, 미디어 컨텐츠로부터 미디어 컨텐츠에 관련된 정보를 추출하여 확인할 수 있다.
미디어 컨텐츠 분석 모듈(108)은 사용자가 재생하는지, 멈추는지, 되감기하는지, 빨리감기 하는지 등과 같은 미디어 컨텐츠의 재생에 관련된 사용자의 행동을 분석한다. 그런 경우, 미디어 컨텐츠 분석 모듈(108)은 미디어 컨텐츠 재생과 관련한 사용자의 행동을 나타내는 데이터를 취득하는 센서를 제공할 수 있다. 이러한 사용자 행동은 미디어 컨텐츠 전반, 미디어 컨텐츠의 일부에 관련되거나, 또는 미디어 컨텐츠의 더 세세한 정보에 관련된 사용자의 개인적인 상태를 나타낼 수 있다.
예를 들어, 사용자가 만약 한번 이상 영화의 한 장면을 재생한다면, 이것은 사용자가 해당 영화의 그 장면 또는 미디어 컨텐츠의 그 장면에 대한 일부에 대하여 더 세세한 정보를 즐긴다는 것을 나타낼 수 있다. 실례로, 사용자는 코미디 장면과 같은 장면의 유형, 장면에서 특정 배우, 장면의 대화를 좋아하기 때문에 영화에서의 한 장면을 복수 번 재생할 수 있다. 다른 한편, 사용자가 미디어 컨텐츠의 부분들을 빨리감기하거나 건너뛰기를 한다면, 이것은 사용자가 건너뛴 미디어 컨텐츠의 그 부분들을 싫어하거나 관심이 별로 없다는 것을 나타낼 수 있다. 예를 들어, 사용자가 폭력적이거나 소름끼치는 장면들을 시청하는 것을 싫어해서 미디어 컨텐츠에서 그런 전체 장면들을 빨리감기할 수 있다.
본 발명의 실시예에 따라 미디어 컨텐츠 분석 모듈(108)은 미디어 컨텐츠 플레이어(107)에서 실행될 수 있다. 다른 실시예에 따라, 미디어 컨텐츠 분석 모듈(108)은 컨텐츠 제공자의 하나 이상의 서버들에서 실행될 수 있을 것이다.
마이크로폰, 카메라 및 움직임 센서 이외에 센서들은 다른 실시예에서 실행될 수 있다. 예를 들어, 본 발명의 실시예에 따라, 사용자 입력 장치는 사용자로부터 물리적인 사용자 입력을 수신하고, 센서 데이터를 생성하는 센서로서 실행될 수 있다. 예를 들어, 사용자 입력 장치는 미디어 컨텐츠에 대한 사용자의 승인 또는 비승인과 같은 사용자 피드백을 제공하기 위하여 사용자가 수동으로 누르는 버튼을 포함할 수 있다. 사용자 입력 장치는 다른 실시예에 따라 더 복합적일 수 있는데, 가령 사용자의 다른 개인적인 상태들을 위한 버튼을 추가로 포함할 수 있을 것이다. 예를 들어, 사용자 입력 장치는 컴퓨터, 패널, 터치스크린과 같이 사용자 피드백을 직간접적으로 반영하는 사용자 입력을 수신하는 어떠한 시스템일 수 있다. 사용자 입력 장치는 사용자가 버튼을 누를 때를 검출하거나 그렇지 않으면 피드백을 제공할 때를 검출하는 상응하는 분석 모듈에 연결되어 통신할 수 있을 것이다. 본 발명의 실시예에 따라, 사용자 입력 장치는 미디어 컨텐츠 분석 모듈(108)에 연결되어 통신할 수 있는데, 그것은 사용자가 사용자 피드백을 제공할 때를 검출하고, 사용자 피드백을 미디어 컨텐츠에 대한 더 세세한 정보와 맵핑할 수 있다.
본 발명의 실시예에 따라, 랩탑, 태블릿, 스마트폰 등과 같은 클라이언트 장치에서의 사용자 행동들은 미디어 컨텐츠가 재생되는 동안, 사용자의 개인적인 상태를 판단하기 위해 분석될 수 있다. 미디어 컨텐츠 분석 모듈(108)(또는 다른 분석 모듈)은 통신망을 통해 또는 직접적으로 클라이언트 장치에 연결되어 통신할 수 있다. 이런 경우, 미디어 컨텐츠 분석 모듈(108)은 클라이언트 장치에서 사용자의 행동을 나타내는 데이터를 취득하는 센서를 제공할 수 있다. 클라이언트 장치에서의 사용자 행동들은 재생되고 있는 미디어 컨텐츠에 대하여 사용자가 주의를 기울이고 있는지와 같은 사용자의 개인적인 상태를 나타낼 수 있다. 만약 사용자가 클라이언트 장치에서 인터넷 검색, 게임, 또 다른 온라인 비디오 시청, 기사 구독 등과 같은 활동을 수행하는 데에 집착한다면, 그것은 사용자가 미디어 컨텐츠에 대한 낮은 관심을 갖는 것으로 판단될 수 있다. 일부 실례로서, 클라이언트 장치에서의 사용자 행동은 미디어 컨텐츠에 관련된 컨텐츠들 또는 웹사이트를 검색하고, 소셜 네트워크에서 미디어 컨텐츠에 코멘트를 공유하는 등과 같이 사용자에 의해 소비되는 미디어 컨텐츠에 관련될 수 있다. 이러한 사용자 활동들은 미디어 컨텐츠와 관련하여 사용자의 개인적인 상태를 판단하기 위해 분석될 수 있다. 예를 들어, 소셜 네트워크에서 공유된 사용자 코멘트는 사용자가 미디어 컨텐츠에 대하여 어떤 것을 긍정적, 가령 기막히고, 환상적이고, 굉장한 행동이라고 쓰는지, 부정적, 가령 끔찍하고, 지루하고, 좋지 않은 행동이라고 쓰는지 판단하기 위해 분석될 수 있다. 코멘트들은 사용자가 특정 남녀 배우, 장면 및 감독 등에 대하여 긍정 또는 부정적 코멘트를 쓰는지 밝히기 위하여 또한 분석될 수 있다.
사용자 피드백 시스템(100)은 사용자들의 개인적 상태들을 사용자 프로파일에 맵핑하는 사용자 프로파일 모듈(115)을 포함할 수 있다. 각각의 사용자 프로파일은 특정 사용자에 연계된 사용자 ID에 매칭될 수 있다. 사용자 프로파일 모듈(115)은 예를 들어, 사용자 프로파일 정보를 저장하는 데이터베이스를 포함할 수 있다. 사용자의 다양한 개인적인 상태들은 그 사용자에 해당되는 사용자 프로파일에 매핑될 수 있다. 사용자의 개인적인 상태들은 미디어 컨텐츠에 대한 부가 정보와 연계될 수 있다. 부가 정보는 사용자 프로파일 모듈(115)에 의해 저장될 수 있다. 본 발명의 실시예에 따라, 사용자 ID와 사용자의 연계 및 관련 사용자 프로파일은 사생활 보호 차원에서 암호화될 수 있다. 사용자 피드백은 여전히 개별 토대에 근거하여 수집되고 분석되므로, 사용자 피드백은 개별 사용자들의 사생활을 보호하기 위하여 익명으로 처리될 수 있다.
다양한 미디어 컨텐츠에 관련된 사용자 특성들은 사용자의 개인적인 상태들에 근거하여 판단될 수 있다. 미디어 컨텐츠와 관련한 사용자의 개인적인 상태들은 센서 데이터에 근거하여 판단될 수 있다. 사용자의 개인적인 상태들은 오디오 분석 모듈(102), 이미지 분석 모듈(104), 또는 움직임 분석 모듈(106)에 의해 판단될 수 있다. 사용자의 개인적인 상태는 예를 들어, 미디어 컨텐츠와 관련한 사용자의 감정, 느낌, 분위기, 정서, 주의 또는 관심 상태, 승인 상태 등을 포함한다. 사용자 특성들은 사용자의 개인적인 상태들에 근거하여 판단될 수 있으며, 예를 들어, 사용자의 관심, 선호, 습관, (행동) 패턴 등을 포함할 수 있다. 예를 들어, 한 사용자에 해당되는 이력이 있는 패턴들은 일반적인 판단(혹은 결정)들을 사용자의 관심 또는 선호로 만들기 위해 확인될 수 있다. 이러한 판단들은 예를 들어, 사용자가 미디어 컨텐츠의 어떠한 장르, 특정 유형의 장면, 특정 남녀 배우들을 선호하거나 즐기는지를 포함한다. 본 발명의 실시예에 따라, 사용자 특성은 사용자 프로파일에 매핑된 사용자의 개인적인 상태에 근거하여 사용자 프로파일 모듈(115)에 의해 판단된다. 사용자 프로파일 모듈(115)은 사용자 프로파일 모듈(115)에 기록될 수 있는 사용자의 시청 이력 또는 행동과 같은 다른 요인들에 사용자 특정 판단의 근거를 둔다. 사용자의 특성들 또는 개인적인 상태들은, 단독적이든 결합에 의하든, 사용자 프로파일들에 매핑될 수 있는 사용자 피드백을 구성하고, 개인화, 즉 맞춤화된 미디어 컨텐츠를 제공하기 위해 사용된다. 사용자 피드백은 개별 사용자들을 위해 수집될 수 있다. 나아가, 개별 사용자 피드백은 사용자들의 그룹을 위해 수집되고, 그룹의 사용자 전체를 나타내는 집단적인 사용자 피드백을 형성하기 위하여 종합(또는 누적)될 수 있다. 본 발명의 실시예에 따라, 사용자 피드백은 나라, 지역, 나이, 성 등과 같은 사용자 인구통계에 근거하여 추적될 수 있다. 예를 들어, 집단적인 사용자 피드백은 사용자들 가운데에서 공통성(commonalities)을 추출해 내기 위하여 하나 이상의 인구통계(자료)를 취득하고, 이를 분석할 수 있을 것이다. 이러한 공통성은 동일 또는 유사한 인구통계(또는 인구구조) 내의 다른 사용자들에게 맞춤형 미디어 컨텐츠를 제공할 때 유용할 수 있다.
사용자 피드백 시스템(100)은 한 명 이상의 사용자의 개인적인 상태 또는 특성들과 같은 사용자 피드백에 근거하여 맞춤형 미디어 컨텐츠를 생성, 수정, 전송, 추천, 또는 그렇지 않으면 사용자들에게 제공하는 미디어 개인화 모듈(116)을 포함한다. 예를 들어, 다양한 미디어 컨텐츠의 속성(또는 특징)들은 사용자의 관심 또는 선호에 맞춘 유사한 속성을 갖는 미디어 컨텐츠를 찾기 위해 사용자의 관심 또는 선호들에 비교될 수 있다. 이러한 방식으로, 미디어 컨텐츠는 사용자의 관심 또는 선호들을 특별히 재단하거나, 사용자에게 추천하거나 제공할 수 있다. 다양한 미디어 컨텐츠의 속성은 하나 이상의 데이터베이스에 저장될 수 있다. 본 발명의 실시예에 따라, 다양한 미디어 컨텐츠의 속성들은 사용자 프로파일 모듈(115)에 저장될 수 있다. 사용자 프로파일 모듈(115) 및 미디어 개인화 모듈(116)은 서버(117)에 포함될 수 있다. 서버(117)는 예를 들어, 컨텐츠 제공자의 하나 이상의 서버들을 포함할 수 있다.
사용자 피드백 시스템(100)은 가령 스트리밍 영화들, 스트리밍 음악 등을 제공하는 온라인 미디어 컨텐츠 제공자들과 같은 미디어 컨텐츠 제공자들, 영화, 광고, 음악의 제작자와 같은 미디어 컨텐츠 제작자들과 같이 미디어 컨텐츠를 창작하고, 편집하고, 취급하고, 관리하며, 분배하는 다양한 실체들에 득이 될 수 있다. 사용자들 특성에 더 정확하게 맞는 미디어 컨텐츠를 제공함으로써 미디어 컨텐츠 제공자 및 미디어 컨텐츠 제작자들은 사용자가 즐기는 미디어 컨텐츠를 더 효과적으로 제공할 수 있을 것이다. 이것은 미디어 컨텐츠에 대한 만족과 구매를 더 많이 초래하고, 미디어 컨텐츠 제공자들과 미디어 컨텐츠 제작자들을 위해 수입을 더 많이 생성해 주게 된다.
본 발명의 실시예에 따라 사용자 피드백 시스템(100)은 광고를 포함하는 미디어 컨텐츠에 사용될 수 있다. 이러한 방식으로, 사용자 피드백 시스템(100)은 특정 광고들에 대한 사용자들의 반응을 이해하기 위해 사용될 수 있다. 사용자 반응은 예를 들어, 사용자가 광고를 좋아하는지 광고가 재미있다고 생각하는지, 가령 방을 떠나거나 광고 전체를 빨리감기 하는 것을 통해 광고를 무시하는지, 광고에 대하여 의문을 갖는지 등을 포함한다. 사용자들은 광고를 클릭하고, 광고에서 상응하는 제품이나 서비스를 위해 웹을 검색함으로써 광고에 대하여 의문을 가질 수 있다. 본 발명의 실시예에 따라, 사용자 피드백 시스템(100)은 예를 들어, 만약 광고가 재생되는 동안 방을 떠나면 광고의 재생 또는 전송을 멈추거나, 그렇지 않으면 사용자 피드백 시스템(100)은 광고에서 사용자에 의한 관심 부족으로 판단한다. 사용자 피드백 시스템(100)은 사용자가 요구하고, 즐기고 시청하는 등 관심을 갖기 쉬운 맞춤형 광고를 전송한다. 맞춤형 광고들을 전송하기 위한 이러한 가능성은 수입을 더 많이 생성할 수 있는 광고 효과를 개선시킬 수 있을 것이다. 컨텐츠 미디어 제공자들은 더 효과적이고 타겟팅된 광고들을 갖기 위하여 광고주들을 더 높은 등급으로 변경할 수 있는데, 그 결과 광고주들은 그들의 광고에 더 효과적이고 효율적으로 돈을 지불하게 될 것이다.
사용자 피드백 시스템(100)은 다양한 방식으로 사용자의 개인적인 상태 및 특성들과 같은 사용자 피드백을 적용할 수 있다. 사용자 피드백 시스템(100)은 그 특정 사용자들을 위한 컨텐츠를 개인화하기 위하여 특정 사용자를 위한 사용자 피드백을 수집할 것이다. 사용자 피드백 시스템(100)은 또한 관심 또는 선호와 같은 유사한 특성들을 갖는 또 다른 사용자를 위한 컨텐츠를 개인화하기 위하여 특정 사용자를 위한 사용자 피드백을 수집할 수 있다. 사용자 피드백 시스템(100)은 또한 그룹의 사용자 전체를 나타내는 집단적인 사용자 피드백을 형성하기 위하여 개별 사용들로부터 사용자 피드백을 수집하고 조합할 수 있다. 사용자의 그룹을 위한 집단적인 사용자 피드백은 사용자들의 그룹을 위한, 또는 유사한 특성들을 갖는 다른 사용자들의 그룹을 위한 미디어 컨텐츠를 개인화, 즉 맞춤화하기 위하여 사용될 수 있다. 사용자 피드백 시스템(100)은 크고 포괄적인 청중, 가령 컨텐츠 제공자의 서비스에 대한 사용자 전체 또는 대다수를 위한 사용자 피드백을 획득할 수 있다. 그러므로, 사용자 피드백 시스템(100)은 청중 전체의 관심 및 선호를 더 정확히 나타내는 결정을 학습하고 만들 수 있다. 반대로, 그들만의 피드백을 제공하기 위하여 활동적으로 선택하는 사용자들에 의존하는 전통적인 사용자 피드백 방법들은 소규모의 사용자들에 제한되는 경향이 있다.
사용자 피드백은 다양한 접근성의 측면에서 미디어 컨텐츠 제공자들 또는 미디어 컨텐츠 제작자들에게 유용한다. 예를 들어, 사용자 피드백은 대체 장면들 또는 대체 엔딩을 선택하고, 어떤 특정 장면들을 늘리고, 어떤 유형의 장면들을 삭제하는 것과 같이 미디어 컨텐츠 그 자체를 변경하는 데 사용될 수 있다. 구성가능한 미디어 컨텐츠는 미디어 컨텐츠를 더 바람직하게 제공하기 위하여 사용자 피드백에 따라 수정될 수 있다. 또 다른 예로서, 사용자 피드백은 사용자들에게 제공된 미디어 컨텐츠 서비스들을 변경하기 위해 사용될 수 있다. 유사한 관심과 선호를 갖는 청중들은 영화 채널을 제공받고, 영화 채널 패키지 유형이 제공되는 것과 같은 유사한 서비스 또는 제품들을 제공받을 수 있다.
본 발명의 실시예에 따라, 사용자 피드백 시스템(100)은 영화 극장과 같이 사용자들의 그룹이 어디에서 함께 컨텐츠 미디어를 소비하는지 설정되어 실행될 수 있다. 사용자 피드백은 개별 또는 집단을 토대로 분석될 수 있다. 사용자들 그룹으로부터의 집단적인 사용자 피드백은 미디어 컨텐츠를 타겟팅된 청중(혹은 표적 청중)에게 전송할 수 있도록 학습하고 결정을 내리는 데에 사용될 수 있다. 예를 들어, 사용자들 그룹으로부터의 사용자 피드백은 타겟팅된 청중에게 적용될 수 있는 기계 학습 모델을 위한 훈련 설정으로서 사용될 수 있다. 종합 가중 및 등급 알고리즘(aggregated weighting and ranking algorithm)은 타겟팅된 청중으로 미디어 컨텐츠의 관심 또는 선호를 최적화하는 방식으로 미디어 컨텐츠를 역동적으로 변경하는 데에 적용될 수 있다. 실례로, 영화에 대한 엔딩은 타겟팅된 청중에서 사용자의 대다수가 가장 선호하는 것의 예측에 근거해 선택될 수 있다. 기계 학습 기법을 통해 사용자 피드백을 종합하는 것은 관심 또는 선호가 전혀 없거나 거의 없는 다른 사용자들을 위해 사용자 관심 및 선호를 유추(또는 예측)하는 데 유익하다.
본 발명의 실시예에 따라 사용자 피드백 시스템(100)은 미디어 컨텐츠 제작자들을 위한 툴(tool)로서 사용될 수 있다. 사용자들 중 청중 샘플로부터 얻은 사용자 피드백은 타겟팅된 청중에 대하여 일반화하기 위하여 사용될 수 있다. 사용자 피드백 시스템(100)은 제작자가 청중 샘플로부터 얻은 사용자 피드백에 따라 가령, 필름(films), 영화 쇼들, 노래들과 같은 미디어 컨텐츠를 변경(또는 편집)하도록 도울 수 있다. 실례로, 사용자 피드백은 청중 샘플의 관심 및 선호와 같은 특성들을 확인하기 위해 사용될 수 있는데, 그것은 미디어 컨텐츠 제작자가 타겟팅된 청중을 위해 차례로 미디어 컨텐츠를 변경하는 것을 가능케 한다. 영화 제작자는 타겟팅된 청중에게 더 호소할 수 있도록 예상되는 대체 엔딩을 갖기 위하여 필름들을 변경하거나, 타겟팅된 즉 표적 청중들에게 너무 잔인한 것으로 예측된 폭력적인 장면을 누그러뜨리기 위해 필름을 변경할 수 있다.
본 발명의 실시예에 따라, 가령 필름과 같은 미디어 컨텐츠에 대한 변경은 미디어 컨텐츠의 제작 동안 및 개봉에 앞서 미디어 컨텐츠에 수행될 수 있다. 이러한 방식으로, 해당 필름은 변경이 더 바람직하게 이루어져 개봉될 수 있다. 예를 들어, 사용자 피드백 시스템(100)은 필름의 상영(또는 시험 시청)에 대하여 사용자 피드백을 얻기 위하여 실행될 수 있다. 실례로, 해당 필름은 그 필름의 시험 버전과 관련하여 사용자 피드백을 수집하기 위하여 시사회 청중들(screening audiences)에게 보여질 수 있다. 시사회 청중으로부터의 사용자 피드백은 더 커다란 표적 청중들의 관심 및 선호들의 예측으로 사용될 수 있다. 이러한 방식으로서, 해당 필름은 표적 청중의 예측된 관심 및 선호에 근거하여 극장 개봉 버전으로 적절히 변경될 수 있다. 예를 들어, 다른 나라들에서의 시사회 청중들로부터의 사용자 피드백은 다른 나라들에서의 해당 필름의 다른 버전을 생성하기 위해 사용될 수 있다. 유사하게, 해당 필름은 상영, 극장 필름 개봉으로부터 산출된 사용자 피드백에 근거한 필름의 다양한 DVD 버전을 제작하도록 변경될 수 있다. 미디어 컨텐츠 제작자들은 다른 나라들의 청중들, 연령, 성, 또는 다른 인구통계와 같은 다수의 다른 표적 청중들의 관심 및 선호들에 따라 미디어 컨텐츠의 다양한 버전을 제작할 수 있을 것이다.
본 발명의 실시예에 따라, 사용자 피드백 시스템(100)은 미디어 컨텐츠가 재생되는 동안 획득된 사용자 피드백에 근거하여 대충(on the fly) 미디어 컨텐츠를 역동적으로 변경하기 위해 사용될 수 있다. 이것은 실시간(또는 대략 실시간)으로 발생할 수 있다. 이러한 방식으로, 예를 들어, 필름은 사용자가 미디어 컨텐츠를 소비하는 동안 획득된 사용자 피드백에 따라 화면들, 스토리들, 엔딩 등을 역동적으로 조정하기 위해 대충 변경될 수 있다.
본 발명의 실시예에 따라, 미디어 컨텐츠는 이력이 있는(historical) 사용자 피드백과 같이 이전에 취득된 사용자 피드백에 근거해 역동적으로 변경될 수 있다. 예를 들어, 사용자가 만약 이력상 선호한 액션 장면들이 있다면, 미디어 컨텐츠는 액션 장면들을 더 길고 더 많이 포함하도록 변경할 수 있다. 미디어 컨텐츠 제공자들은, 실례로 사용자 경험을 개선하기 위하여 사용자 피드백에 근거하여 미디어 컨텐츠를 변경할 수 있다. 이러한 변경들은 예를 들어, 기구성된 룰 엔진(preconfigured rules engine)을 확립해서 또는 기계적인 학습(machine learning)에 의해 이루어질 수 있을 것이다.
사용자 피드백 시스템(100)은 미디어 컨텐츠가 소비되는 동안 사용자의 개인적인 상태와 연계된 자발적인 사용자 피드백을 제공할 수 있다. 이러한 사용자 피드백은 사용자로부터의 자연스러운 응답이며, 이것은 사용자가 미디어 컨텐츠를 소비할 때에 사용자의 진실된 느낌들을 자세히 나타낼 수 있다. 그래서, 사용자 피드백 시스템(100)은 미디어 컨텐츠의 소비에 부수적으로 발생하고 시간이 지나 변경되는 사용자의 뒷 생각(after thoughts)에 의해 그다지 영향을 받지 않게 된다.
사용자 피드백 시스템(100)은 미디어 컨텐츠 소비에 있어서 사용자에게 지대하게 충격을 주지는 않을 것이다. 예를 들어, 사용자 피드백 시스템(100)은 백그라운드에서 연속적이고 비주입적(nonintrusively)으로 동작할 수 있다. 나아가, 사용자 피드백 시스템(100)은 자동화되어 사용자에게 특별한 무언가를 하거나 부가 효과를 제공하도록 요구하지는 않을 것이다. 실례로, 사용자는 미디어 컨텐츠의 시청을 멈출 필요는 없지만, 그렇지 않다면 사용자 피드백을 제공하기 위하여 미디어 컨텐츠를 떠나, 가령 사용자 피드백 명령들을 확정적이고 신중하게 제공해서 사용자의 초점을 지향하게 된다.
물론 도 1A에 나타낸 본 발명의 실시예에 특별히 한정할 의도는 없다. 따라서, 다른 구성들이 다른 실시예로서 시행될 수 있다. 예를 들어, 도 1B는 본 발명의 다른 실시예에 따른 사용자 피드백 시스템(100')의 블록다이어그램을 나타낸다. 도 1B에 도시된 사용자 피드백 시스템(100')에서, 마이크로폰(101), 오디오 분석 모듈(102), 이미지 분석 모듈(104), 움직임 센서(105) 및 움직임 분석 모듈(106)은 미디어 컨텐츠 플레이어(107)에 포함될 수 있다. 미디어 컨텐츠 플레이어(107)는 미디어 컨텐츠 단말 장치(155)에 연결되어 통신할 수 있고, 사용자에게 나타내기 위해 미디어 컨텐츠 단말 장치(155)로 미디어 컨텐츠를 제공할 수 있다. 예를 들어, 미디어 컨텐츠 플레이어(107)는 스트리밍 미디어를 스마트 TV로 제공하기 위해 스마트 TV에 연결되어 통신하는 셋탑 박스일 수 있다. 도 1A의 사용자 피드백 시스템(100)과 도 1B의 사용자 피드백 시스템(100')에 도시된 공통의 구성요소들은 유사한 방식으로 동작할 수 있다. 도 1A의 사용자 피드백 시스템(100)을 위해 여기서 논의하려는 것은 도 1B의 사용자 피드백 시스템(100')에 또한 적용될 수 있다는 것이다. 발명을 간결하고 명확히 하기 위하여, 도 1A의 사용자 피드백 시스템(100)을 위해 기술된 공통의 구성요소들에 대한 특징 및 기능들과 관련한 설명은 생략하도록 한다.
도 2는 본 발명의 실시예에 따른 사용자 피드백 시스템(200)을 예시하여 나타낸 블록다이어그램이다.
사용자 피드백 시스템(200)은 가령 스마트 TV, 태블릿, 스마트폰, 게임 기기 등과 같은 미디어 컨텐츠 단말 장치(155)를 포함하는 것을 나타낸다. 미디어 컨텐츠 단말 장치(155)는 마이크로폰(101), 카메라(103) 및 움직임 센서(105)를 포함할 수 있다.
미디어 컨텐츠 단말 장치(155)는 미디어 컨텐츠 단말 장치(155)를 홈 영역 네트워크(또는 LAN)(255)를 통해 로컬 액세스포인트(254)에 연결하는 통신부(253)를 포함할 수 있다. 여기서, 통신부(253)는 가령 유선 또는 무선의 전송기를 포함하고, 로컬 액세스포인트(254)는 라우터를 포함할 수 있다. 미디어 컨텐츠 단말 장치(155)는 홈 영역 네트워크(255) 및 인터넷과 같은 네트워크(252)를 경유하여 미디어 컨텐츠 제공원(251)에 연결되어 통신할 수 있다. 여기서, 미디어 컨텐츠 제공원(251)은 적어도 하나의 서버를 포함한다. 미디어 컨텐츠 단말 장치(155)는 예를 들어, 미디어 컨텐츠 제공원(251)으로부터 스트리밍 미디어 컨텐츠를 수신한다. 본 발명의 실시예에 따라, 미디어 컨텐츠 단말 장치(155)는 통합 스트리밍 미디어 플레이어와 같이 통합 미디어 컨텐츠 플레이어를 포함할 수 있다.
본 발명의 실시예에 따라, 통신부(253)는 통신부(253)에서 네트워크(252)까지 점선으로 나타낸 바와 같이, 미디어 컨텐츠 단말 장치(155)를 네트워크(252)에 직접적으로 연결하여 통신할 수 있다. 본 발명의 실시예에 따라, 통신부(253)는 점선 박스로 나타낸 바와 같이, 미디어 컨텐츠 단말 장치(155)를 미디어 컨텐츠 플레이어 또는 셋탑 박스(259)에 연결하여 통신할 수 있다. 물론 여기서, 셋탑 박스(259)는 DVD 플레이어, 케이블망 가입자 박스, 온라인 스트리밍 미디어 가입자 박스, 게임 콘솔 등으로 대체될 수 있을 것이다. 미디어 컨텐츠 플레이어 또는 셋탑 박스(259)는 미디어 컨텐츠 플레이어 또는 셋탑 박스(259)에서 홈 영역 네트워크(255)까지 점선으로 나타낸 바와 같이, 홈 영역 네트워크(255)에 연결되어 통신할 수 있다.
스마트폰(256), 태블릿(257), 랩탑(258)과 같은 다양한 클라이언트 장치들은 미디어 컨텐츠 단말 장치(155) 및 홈 영역 네트워크(255)를 경유하여 미디어 컨텐츠 제공원(251)에 연결되어 통신할 수 있다. 도 1A을 참조하여 설명한 클라이언트 장치와 관련해 논의된 사항은 클라이언트 장치들(256-258) 중 일부 또는 전부에 적용될 수 있을 것이다. 예를 들어, 클라이언트 장치들(256-258)에서의 사용자 행동들은 사용자가 미디어 컨텐츠 단말 장치(155)에서 미디어 컨텐츠를 소비하는 동안 판단될 수 있다. 이는 다른 실시예들에도 적용될 수 있는데, 클라이언트 장치들(256-258) 중 일부 또는 전부는 홈 영역 네트워크(255)의 일부가 아닐 수 있으며, 대신 미디어 컨텐츠 단말 장치(155) 또는 네트워크(252)를 경유해 서버(251)에 연결되어 통신할 수 있다.
본 발명의 실시예에 따라, 클라이언트 장치들(256-258) 중 적어도 하나는 또한 미디어 컨텐츠 단말 장치(155)에 대하여 앞서 설명한 대로, 사용자들(260)에게 미디어 컨텐츠를 제공하고, 센서 데이터를 취득하기 위하여 마이크로폰, 카메라 및 움직임 센서를 포함하고, 미디어 컨텐츠 단말 장치(155)와 유사한 방식으로 동작할 수 있다.
본 발명의 다른 실시예에 따라, 마이크로폰(101), 카메라(103), 움직임 센서(105) 또는 이들에 의한 결합은 미디어 컨텐츠 단말 장치(155)에 통합되는 것이 아니라, 오히려 미디어 컨텐츠 단말 장치(155)와 유선 또는 무선으로 연결되어 통신할 수 있다. 예를 들어, 마이크로폰(101), 카메라(103) 및 움직임 센서(105)는 미디어 컨텐츠 단말 장치(155)에 근접하여 지향하거나, 미디어 컨텐츠 단말 장치(155)와 동일 공간 내에 있을 수 있다. 본 발명의 실시예에 따라, 마이크로폰(101), 카메라(103), 움직임 센서(105), 또는 이들에 의한 결합 중 적어도 하나는 미디어 컨텐츠 플레이어 또는 셋탑 박스(259) 내에서 통합될 수 있을 것이다.
오디오 분석 모듈(102), 이미지 분석 모듈(104), 움직임 분석 모듈(106), 미디어 컨텐츠 분석 모듈(108), 사용자 프로파일 모듈(115) 및 미디어 개인화 모듈(116) 각각은 미디어 컨텐츠 단말 장치(155), 미디어 컨텐츠 플레이어 또는 셋탑 박스(259), 클라이언트 장치들(256-258) 및 서버(251) 중 적어도 하나에서 실행될 수 있다. 이와 같이 다양한 변형(permutations)이 다른 실시예들에서 실행될 수 있음은 주지하는 바이다.
어떠한 실시예들에서는, 오디오 분석 모듈(102), 이미지 분석 모듈(104) 및 움직임 분석 모듈(106)이 각각 미디어 컨텐츠 단말 장치(155) 및 미디어 컨텐츠 플레이어 또는 셋탑 박스(250) 내에서 실행될 수 있다. 본 발명의 실시예에 따라, 오디오 분석 모듈(102), 이미지 분석 모듈(104) 및 움직임 분석 모듈(106)은 미디어 컨텐츠 단말 장치(155) 내에서만 실행될 수 있다.
어떤 실시예들에서는, 사용자 프로파일 모듈(115)이 미디어 컨텐츠 단말 장치(155), 미디어 컨텐츠 플레이어 또는 셋탑 박스(259) 및 서버(251)에서 실행될 수 있다. 본 발명의 실시예에 따라, 사용자 프로파일 모듈(115)은 서버(251)에서만 실행될 수 있다.
어떠한 실시예들에서는, 미디어 컨텐츠 분석 모듈(108)이 미디어 컨텐츠 단말 장치(155), 미디어 컨텐츠 플레이어 또는 셋탑 박스(259) 및 서버(251)에서 실행될 수 있다. 본 발명의 실시예에 따라, 미디어 컨텐츠 분석 모듈(108)은 미디어 컨텐츠 단말 장치(155)에서만 실행될 수 있다.
어떠한 실시예들에서는, 미디어 개인화 모듈(116)이 미디어 컨텐츠 플레이어 또는 셋탑 박스(259) 및 서버(251)에서 실행될 수 있다. 본 발명의 실시예에서 미디어 개인화 모듈(116)은 서버(251)에서만 실행될 수 있을 것이다.
어떠한 실시예들에서는, 사용자 피드백의 실시간 분석이 미디어 컨텐츠 단말 장치(155), 미디어 컨텐츠 플레이어 또는 셋탑 박스(259) 또는 이들에 의한 결합에서와 같이 프론트 엔드에서 실행될 수 있다. 본 발명의 실시예에 따라, 더 많은 양의 데이터에 관련된 더 광범위한 분석 및 계산들이 서버(251)에서와 같은 백 엔드에서 수행될 수 있다. 물론 이러한 구성들은 예시적인 것이며, 다른 구성들이 다른 실시예들에서 실행될 수 있으므로 위의 내용에 특별히 한정하지는 않을 것이다. 여기서, 분석은 가령 거대한 청중의 사용자들을 위한 집단적인 사용자 피드백을 분석하는 것을 포함한다.
본 발명의 실시예에 따라, 사용자 피드백 시스템(200)은 극장 무대(theater setting)에서 실행될 수 있다. 그런 경우, 예를 들어, 미디어 컨텐츠 단말 장치(155)는 극장 스크린 및 스피커들을 포함할 수 있다. 앞서 설명한 마이크로폰(101), 카메라(103) 및 움직임 센서(105)는 극장 내의 다양한 장소들에 위치할 수 있다. 마이크로폰(101), 카메라(103) 및 움직임 센서(105)는 센서 데이터를 취득하고, 그것을 오디오 분석 모듈(102), 이미지 분석 모듈(104) 및 움직임 분석 모듈(106)을 포함하는 셋탑 박스(259)로 제공할 수 있다. 이런 경우, 예를 들어, 영사기(film projector)는 셋탑 박스(259)가 센서 데이터를 수집하는 동안 미디어 컨텐츠 플레이어로서 동작할 수 있다. 센서 데이터에 근거한 사용자 피드백은 가령 영화 회사나 제작자의 서버(251)로 전송될 수 있다. 서버(251)는 실례로 미디어 컨텐츠 분석 모듈(108), 사용자 프로파일 모듈(115) 및 미디어 개인화 모듈(116)을 포함할 수 있다. 이러한 구성은 하나의 예에 불과하며, 다른 구성요소들이 다른 실시예들에서 실행될 수 있다는 것은 주지하는 바이다.
도 2에 도시된 사용자 피드백 시스템(200)은 하나의 예시에 불과하며, 다른 구성들이 다른 실시예들에서 실행될 수 있다는 것은 주지하는 바이다. 예를 들어, 본 발명의 다른 실시예에 따라, 도 2에 도시된 사용자 피드백 시스템(200)의 가령 마이크로폰, 카메라 또는 움직임 검출기와 같은 적어도 하나의 구성요소들이 반드시 포함될 필요는 없으며, 네트워크의 구성은 다양할 수 있다. 나아가, 도 2에 도시되지 않은 부가적인 구성요소들은 또한 추가적인 서버들, 클라이언트 장치들 및 네트워크들과 같은 다른 구성요소들에 포함될 수 있다. 도 1A의 사용자 피드백 시스템(100)과 관련하여 여기서 논의하려는 것은 도 2의 사용자 피드백 시스템(200)과 관련해 논의된 것에 또한 적용될 수 있다는 것은 주지하는 바이다. 도 1A에서 모든 참고사항들은 도 1B에 공평하게 적절히 적용될 수 있을 것이다.
도 3은 본 발명의 실시예에 따라 사용자 피드백을 획득하기 위한 방법을 예시하여 나타내는 흐름도이다.
도 1A 내지 도 2를 참조하여 앞서 설명한 사항들은 도 3에 동일하게 적용될 수 있다. 발명을 간결하고 명확히 하기 위하여, 도 3에 적용될 수 있는 모든 특징 및 기능은 반복하여 기술하지 않도록 한다.
본 발명의 실시예에 따른 사용자 피드백을 획득하는 방법은 다양한 센서들이 미디어 컨텐츠가 미디어 컨텐츠 단말 장치에서 재생되는 동안 오디오, 이미지 및 움직임을 취득하기 위해 제공된다(S301). 마이크로폰(101), 카메라(103), 움직임 센서(105)는 미디어 컨텐츠 단말 장치(155)에 근접하거나 동일 공간에 제공될 수 있다. 본 발명의 다른 실시예에서는 적어도 하나의 이러한 센서들이 포함되지 않을 수 있다는 것은 주지하는 바이다.
다른 센서들은 다른 실시예들에서 실행될 수 있다. 예를 들어, 미디어 컨텐츠 분석 모듈(108)은 앞서 논의된 대로, 미디어 컨텐츠의 재생과 연계된 사용자의 행동들을 모니터링하는 센서로서 동작할 수 있다. 클라이언트 장치들(256-258)은 앞서 논의된 대로, 클라이언트 장치들(256-258)에서의 사용자의 활동을 모니터링하는 센서로 동작할 수 있다.
S301 단계에서 제공된 센서로부터의 센서 데이터가 수신된다(S303). 본 발명의 실시예에 따라, 도 1A의 오디오 데이터, 이미지 데이터 및 움직임 데이터가 오디오 분석 모듈(102), 이미지 분석 모듈(104) 및 움직임 분석 모듈(106)에 의해 각각 수신될 수 있다.
미디어 컨텐츠의 재생과 연계된 사용자의 행동들 또는 클라이언트 장치에서의 사용자의 활동에 관련된 데이터가 또한 수신될 수 있다. 여기서 사용자의 행동들은 가령 장면을 재생하기 위해 되감기하고, 장면을 건너뛰기 위해 빨리 감기를 하며, 멈추는 것 등을 의미하고, 사용자의 활동은 웹에서 관련없는 컨텐츠를 읽고, 온라인에서 미디어 컨텐츠에 관해 코멘트하는 것을 의미할 수 있다. 본 발명의 실시예에 따라, 미디어 컨텐츠의 재생과 연계된 사용자의 행동들, 또는 클라이언트 장치에서의 사용자 활동은 도 1A의 미디어 컨텐츠 분석 모듈(108)에 의해 수신될 수 있다.
또한 미디어 컨텐츠에 대한 정보가 수집될 수 있다(S305). 미디어 컨텐츠에 대한 정보는 미디어 컨텐츠의 전반에 대한, 미디어의 특정 부분들에 대한 다양한 정보를 포함하며, 미디어 컨텐츠의 장르, 장면의 주제, 한 장면에서의 남녀 배우와 같은 미디어 컨텐츠에 관련된 더 세세한 정보를 포함할 수 있다. 미디어 컨텐츠는 가령, 미디어 컨텐츠가 재생되는 동안 미디어 컨텐츠에 대한 정보를 판단하기 위해 분석될 수 있다. 본 발명의 실시예에 따라, 미디어 컨텐츠에 대한 정보는 데이터베이스, 또는 미디어 컨텐츠와 함께 포함된 메타 데이터로부터 획득될 수 있다. 본 발명의 실시예에 따라, S305 단계에서, 도 1A의 미디어 컨텐츠 분석 모듈(108)에 의해 수행될 수 있다.
S303 단계에서 수신된 센서 데이터는 미디어 컨텐츠와 관련해 한 명 이상의 사용자들에 대한 개인적인 상태를 판단하기 위해 분석될 수 있다(S307). 예를 들어, 오디오 데이터는 미디어 컨텐츠와 관련해 사용자의 개인적인 상태를 나타내는 음향의 단초, 가령 소리나 음성을 위해 분석될 수 있다. 본 발명의 실시예에 따라 오디오 데이터는 도 1A에서 설명한 바와 같이 오디오 분석 모듈(102)에 의해 수신되어 분석될 수 있다.
이미지 데이터는 미디어 컨텐츠와 관련해 사용자의 개인적인 상태를 판단하기 위해 분석된다. 예를 들어, 얼굴의 특징들은 사용자가 흥분하는지, 공포를 느끼는지, 겁내 하거나, 슬퍼하는지, 화를 내는지와 같은 사용자의 감정을 나타낼 수 있다. 영상들은 가령 제스처, 자세, 활동 등과 같은 사용자 행동들을 위해 분석될 수 있는데, 여기서 사용자 행동들은 사용자의 개인적인 상태를 나타낼 수 있다. 예를 들어, 사용자의 존재는 미디어 컨텐츠에서 사용자의 관심 수준을 나타낸다. 본 발명의 실시예에 따라, 이미지 데이터는 도 1A에서 설명한 대로, 이미지 분석 모듈(104)에 의해 수신되어 분석될 수 있다.
움직임 데이터는 미디어 컨텐츠와 관련해 사용자의 개인적인 상태를 판단하기 위해 분석될 수 있다. 예를 들어, 사용자의 움직임들은 사용자에 의해 수행된 제스처, 자세 및 활동들과 같은 행동들을 위해 분석될 수 있는데, 행동들은 미디어 컨텐츠에서의 사용자의 관심 수준, 미디어 컨텐츠의 승인, 미디어 컨텐츠에 관련된 감정들을 나타낸다. 본 발명의 실시예에 따라, 움직임 데이터는 도 1A에서 설명한 바와 같이 움직임 분석 모듈(106)에 의해 수신 및 분석될 수 있다.
미디어 컨텐츠의 재생과 연계된 사용자 행동들, 가령 반복 시청, 멈춤, 장면들 전체를 빨리 감기 하는 것은 S305 단계에서 S307 단계까지 화살표로 나타낸 바와 같이, 미디어 컨텐츠와 관련해 사용자의 개인적인 상태를 판단하기 위해 분석될 수 있다. 본 발명의 실시예에 따라 미디어 컨텐츠의 재생과 연계된 사용자 행동들은 도 1A에서 설명한 바와 같이 미디어 컨텐츠 분석 모듈(108)에 의해 분석될 수 있다.
사용자가 미디어 컨텐츠를 소비하는 동안 다른 클라이언트 장치들 또는 서비스들에서의 사용자 행동들은 S305 단계에서 S307 단계까지 화살표로 나타낸 바와 같이, 미디어 컨텐츠와 관련한 사용자의 개인적인 상태를 판단하기 위해 분석될 수 있다. 본 발명의 실시예에 따라, 다른 클라이언트 장치들 또는 서비스들에서의 사용자 행동들은 도 1A에서 설명한 바와 같이, 미디어 컨텐츠 분석 모듈(108)에 의해 분석될 수 있다.
미디어 컨텐츠에 대한 정보는 또한 S305 단계에서 S307 단계까지 화살표로 나타낸 바와 같이, 사용자의 개인적인 상태들에 세세한 사항을 더 추가하기 위해 제공될 수 있다. 예를 들어, 사용자의 개인적인 상태가 판단될 때, 그것이 발생된 상응하는 장면, 그 장면 내의 남녀 배우들, 미디어 컨텐츠 전반의 장르 등과 연계될 수 있다.
사용자 피드백은 사용자 피드백을 제공한 상응하는 사용자들을 위한 사용자 프로파일들에 맵핑될 수 있다(S309). S307 단계로부터의 사용자의 개인적인 성향들은 상응하는 사용자들을 위한 사용자 프로파일들에 맵핑될 수 있다. 사용자의 개인적인 상태들은 대개 미디어 컨텐츠와 관련한 사용자 특성들, 가령 사용자의 관심, 선호, 습관 및 패턴들을 판단하기 위해 분석될 수 있는데, 이러한 특성은 사용자 프로파일들에 맵핑되도록 추가적인 사용자 피드백을 구성할 수 있을 것이다. 사용자 피드백은 S305 단계에서 S309 단계까지 화살표로 나타낸 바와 같이, S305 단계에서 획득된 미디어 컨텐츠와 관련된 연관 정보와 매핑될 수 있다. 이러한 맵핑들은 예를 들어, 데이터베이스에 저장될 수 있다. 본 발명의 실시예에 따라, S309 단계는 도 1A의 사용자 프로파일 모듈(115)에 의해 수행될 수 있다.
개인화된 미디어 컨텐츠는 사용자 피드백에 근거하여 한 명의 사용자를 위해 생성될 수 있다(S311). 예를 들어, 다양한 미디어 컨텐츠의 속성들(또는 특징들)은 사용자의 관심들 및 선호들에 맞는 유사한 속성들을 갖는 미디어 컨텐츠를 찾기 위해 사용자의 관심들 및 선호들에 비교될 수 있다. 이러한 방식으로, 미디어 컨텐츠는 사용자의 관심들 및 선호들로 특별히 재단되어 해당 사용자에게 제공될 수 있다. 다양한 미디어 컨텐츠의 속성들은 적어도 하나의 데이터베이스에 저장될 수 있다.
특정 사용자를 위한 사용자 피드백은 특정 사용자를 위해 컨텐츠를 개인화, 즉 맞춤화하기 위해 사용될 수 있다. 특정 사용자를 위한 사용자 피드백은 유사한 특성들을 갖는 다른 사용자를 위해 컨텐츠를 개인화하기 위해 사용될 수 있다. 개별 사용자들로부터의 사용자 피드백은 그룹의 전체 사용자들은 나타내는 집단적인 사용자 피드백을 형성할 수 있다. 사용자들의 그룹을 위한 집단적인 사용자 피드백은 사용자들의 그룹, 또는 유사한 특성들을 갖는 다른 사용자들의 그룹을 위해 컨텐츠를 개인화하기 위해 사용될 수 있다.
본 발명의 실시예에 따라, 사용자 피드백은 더 개인화된 미디어 컨텐츠를 제공하기 위하여 다른 방식으로 미디어 컨텐츠 제공자들 또는 미디어 컨텐츠 제작자들에 의해 사용될 수 있다. 예를 들어, 사용자 피드백은 대체 엔딩을 선택하고, 장면들을 수정 또는 삭제하는 것과 같이 미디어 컨텐츠 그 자체를 변경하기 위해 사용될 수 있다. 본 발명의 실시예에 따라, S311 단계는 도 1A의 미디어 개인화 모듈(116)에 의해 수행될 수 있다.
개인화된 미디어 컨텐츠는 사용자에게 전송될 수 있다(S313). 예를 들어, 사용자들은 셋탑 박스, 데스크탑 또는 모바일 애플리케이션 또는 소프트웨어, 웹사이트 등을 경유하여 사용자들에게 미디어 컨텐츠를 제공하는 미디어 서비스에 가입할 수 있다. 여기서, 셋탑 박스는 케이블망 가입자 박스, 온라인 스트리밍 미디어 가입자 박스로 대체될 수 있을 것이다. 미디어 서비스는 스마트 TV, 태블릿 및 스마트폰과 같은 사용자의 미디어 컨텐츠 단말 장치에 표시되는 사용자 인터페이스를 포함할 수 있다. 사용자 인터페이스는 개인화된 미디어 컨텐츠를 사용자에게 전송할 수 있다.
개인화된 미디어 컨텐츠는 수정된 미디어 컨텐츠의 형태로 전송될 수 있다. 예를 들어, 미디어 컨텐츠 제공자 또는 미디어 컨텐츠 제작자는 사용자 경험을 개선하기 위하여 사용자 피드백에 근거해 미디어 컨텐츠를 변경할 수 있다.
개인화된 미디어 컨텐츠는 한 명의 사용자에게 특정된 추천 미디어 컨텐츠의 형태로서 사용자에게 전송될 수 있다. 예를 들어, 개인화된 미디어 컨텐츠의 추천은 미디어 컨텐츠 단말 장치의 사용자 인터페이스 상에서 해당 사용자에게 표시될 수 있다 예를 들어, 사용자 인터페이스는 사용자가 추천된 미디어 컨텐츠를 검색(browse)하고, 추천들 중 하나를 선택하거나 구매하는 것을 가능하게 한다. 추천된 미디어 컨텐츠를 영화, TV 쇼, 라이브 TV, 스포츠 이벤트, 음악, 책, 게임 등을 포함할 수 있다 본 발명의 실시예에 따라, 사용자 피드백에 근거한 개인화된 미디어 컨텐츠의 전송은 또한 광고와 같은 미디어 컨텐츠를 포함할 수 있다.
본 발명의 실시예에 따라, S313 단계는 도 1A의 미디어 컨텐츠 플레이어, 도 2의 미디어 컨텐츠 플레이어 또는 셋탑 박스(259), 도 1A의 미디어 컨텐츠 단말 장치(155), 미디어 컨텐츠 제공원(251) 또는 이들의 결합에 의해 수행될 수 있다.
본 발명의 실시예에 따른 방법은 적어도 한 명의 사용자가 미디어 컨텐츠를 소비하는 동안 사용자 피드백에 근거해 미디어 컨텐츠를 역동적으로 변경하기 위해 실시간으로 수행될 수 있다. 예를 들어, 사용자 피드백은 사용자들이 미디어 컨텐츠를 소비하는 동안 실시간으로 수집될 수 있다. 사용자들에 의해 소비되는 미디어 컨텐츠는 사용자 피드백에 따라, 장면들, 스토리들, 엔딩 등을 역동적으로 조정하기 위해 대충 변경될 수 있다.
계속해서 하드웨어의 실행에 대하여 살펴보도록 한다. 앞서 기술한 과정들과 특징들은 폭넓은 범위의 기계, 컴퓨터 시스템 아키텍쳐 및 폭넓은 범위의 네트워크 및 컴퓨팅 환경들에 의해 실행될 수 있다.
도 4는 본 발명의 실시예에 따라 앞서 기술된 실시예들 중 적어도 하나를 실행하기 위해 사용될 수 있는 컴퓨터 시스템을 예시하여 나타낸 도면이다.
컴퓨터 시스템(400)은 해당 시스템(400)이 앞서 논의된 과정들과 특징들을 수행하도록 하기 위한 일련의 명령들을 포함한다. 컴퓨터 시스템(400)은 다른 기계(혹은 기구)들에 연결될 수 있다. 이를 통해 통신을 수행할 수 있을 것이다. 네트워크 상에 적용되어, 컴퓨터 시스템(400)은 클라이언트 서버 간 네트워크 환경에서 서버 장치 또는 클라이언트 장치의 자격으로 동작할 수 있다. 또는 피어 투 피어(P2P) 환경에서 피어 장치로서 동작할 수 있다. 본 발명의 실시예에 따라 컴퓨터 시스템(400)은 앞서 언급한 대로 네트워킹 시스템의 구성요소일 수 있다. 또한 본 발명의 실시예에 따라 컴퓨터 시스템(400)은 네트워킹 시스템의 일부 또는 전부를 구성하는 많은 구성요소들 가운데 하나의 서버일 수 있다.
본 발명의 실시예에 따라 클라이언트 시스템(400)은 도 1A 내지 도 3의 미디어 컨텐츠 단말 장치(155), 클라이언트 장치들(256-258) 또는 미디어 컨텐츠 플레이어 또는 셋탑 박스(259)로서 실행될 수 있을 것이다.
컴퓨터 시스템(400)은 프로세서(402), 캐쉬(404) 및 실행가능한 적어도 하나의 모듈 및 드라이버들을 포함할 수 있으며, 컴퓨터 판독가능 기록매체에 저장될 수 있고, 앞서 기술한 과정들 및 특징들을 지향할 수 있다. 추가로, 컴퓨터 시스템(400)은 고성능 입출력(I/O) 버스(406) 또는 표준(또는 기준) I/O 버스(408)를 포함할 수 있다. 호스트 브리지(410)는 프로세서(402)를 고성능 I/O 버스(406)에 연결하고, I/O 버스 브리지(412)는 2개의 버스(406, 408)를 서로 연결한다. 시스템 메모리(414) 및 적어도 하나의 네트워크 인터페이스들(416)은 고성능 I/O 버스(406)에 연결된다. 컴퓨터 시스템(400)은 나아가 도면에 나타내지는 않았지만, 비디오 메모리 및 비디오 메모리에 연결된 디스플레이 장치를 포함할 수 있다. 대용량 스토리지(418) 및 I/O 포트들(420)은 표준 I/O 버스(408)에 연결된다. 컴퓨터 시스템(400)은 키보드, 포인팅 장치, 디스플레이 장치, 또는 표준 I/O 버스(408)에 연결된 다른 입출력 장치들을 선택적으로 포함할 수 있다. 종합적으로 이러한 요소들은 컴퓨터 하드웨어 시스템들의 폭넓은 범주를 나타낼 수 있는데, 가령 인텔사의 x-86 호환 프로세서들에 근거한 컴퓨터 시스템들 및 AMD(Advanced Micro Devices) 사에 의해 제조된 x-86 호환 프로세서 및 다른 적절한 프로세서들을 포함할 수 있다.
동작 시스템은 도면에 나타내지는 않았지만, 컴퓨터 시스템(400)의 동작을 관리 및 제어하는데, 이러한 동작에는 소프트웨어 애플리케이션으로부터 입력되고 또는 해당 애플리케이션으로 출력되는 것을 포함한다. 동작 시스템은 시스템에서 실행되는 소프트웨어와 시스템의 하드웨어 구성요소 사이에 인터페이스를 제공한다. 리눅스 동작 시스템, 애플 매킨토시 동작 시스템, 유닉스 동작 시스템, 마이크로소프트 사의 윈도우, BSD 동작 시스템 및 이와 유사한 것들이 적절한 동작 시스템으로 사용될 수 있다. 물론 다른 것들도 얼마든지 가능할 수 있다.
계속해서 컴퓨터 시스템(400)의 요소들에 대하여 자세히 살펴보기로 한다. 네트워크 인터페이스(416)는 컴퓨터 시스템(400)과 이더넷 네트워크, 백플랜 등과 같은 광의의 네트워크들 사이에 통신을 수행한다. 여기서, 이더넷은 IEEE 802.3을 포함할 수 있다. 대용량 스토리지(418)는 앞서 확인한 각 컴퓨팅 시스템들에 의해 실행된 앞서 기술된 과정들 및 특징들을 수행하기 위해 데이터 및 프로그래밍 명령들을 위해 영구적인 저장이 이루어진다. 반면, DRAM와 같은 시스템 메모리(414)는 프로세서(402)에 의해 실행될 때, 데이터 및 프로그램 명령들을 위한 일시적인 저장소를 제공한다. I/O 포트들(420)은 추가적인 주변 장치들 사이에 통신을 제공하는 직/병렬 통신 포트들일 수 있는데, 이러한 포트들은 컴퓨터 시스템(400)에 연결될 수 있다.
컴퓨터 시스템(400)은 다양한 시스템 아키텍쳐들을 포함할 수 있고, 컴퓨터 시스템(400)의 다양한 구성요소들은 재정렬될 수 있다. 예를 들어, 캐쉬(404)는 프로세서(402)와 함께 칩(chip) 상에 있을 수 있다. 또는 캐쉬(404)와 프로세서(402)는 프로세서 코어로서 참조되는 프로세서(402)와 함께 프로세서 모듈로서 함께 패키징될 수 있다. 나아가, 본 발명의 어떠한 실시예에서는 위의 구성요소들을 모두 필요로 하지 않거나 포함하지 않을 수 있다. 예를 들어, 표준 I/O 버스(408)에 연결된 주변 장치들은 고성능 I/O 버스(406)에 연결될 수 있다. 게다가, 일부 실시예들에서는, 단일 버스만이 해당 단일 버스에 연결되는 컴퓨터 시스템(400)의 구성요소들과 함께 존재할 수 있다. 나아가, 컴퓨터 시스템(400)은 추가 프로세서들, 스토리지 장치들 또는 메모리들과 같은 추가 구성요소들을 포함할 수 있다.
대체로, 여기에서 기술되는 과정 및 특징들은 동작 시스템 또는 특정 애플리케이션, 구성요소, 프로그램, 오브젝트, 모듈, 프로그램들로서 참조되는 일련의 명령들의 일부로서 실행될 수 있다. 예를 들어, 적어도 하나의 프로그램들은 특정 과정들을 실행하기 위해 사용될 수 있다. 프로그램들은 컴퓨터 시스템(400) 내의 다양한 메모리 및 스토리지 장치들에 있는 적어도 하나의 명령들을 포함하는데, 이러한 명령은 적어도 하나의 프로세서들에 의해 명령들이 독출되어 실행될 때, 컴퓨터 시스템(400)이 앞서 기술한 과정들과 특징들을 실행하기 위한 동작을 수행하도록 할 수 있다. 앞서 기술된 과정들 및 특징들은 소프트웨어, 펌웨어, 하드웨어에서 실행되거나, 이들의 결합에 의해 실행될 수 있다. 여기서, 하드웨어는 애플리케이션 특정 통합 회로를 의미한다.
본 발명의 실시예에 따라, 앞서 기술한 과정들 및 특징들은 개별 또는 집단적으로 분배 컴퓨팅 환경에서 컴퓨터 시스템(400)에 의해 운용되는 일련의 실행가능한 모듈들로서 실행될 수 있다. 앞서의 모듈들은 하드웨어, 컴퓨터 판독가능 기록매체에 저장된 실행가능한 모듈들, 또는 이들의 결합에 의해 실현될 수 있다. 예를 들어, 모듈들은 프로세서(402)와 같은 하드웨어 시스템의 프로세서에 의해 실행되는 복수 또는 일련의 명령들을 포함할 수 있다. 최초에 이러한 일련의 명령들은 대용량 스토리지(418)와 같은 스토리지 장치에 저장될 수 있다. 그렇지만, 일련의 명령들은 적절한 컴퓨터 판독가능 기록매체에 저장될 수 있다. 나아가, 일련의 명령들은 국부적으로(locally) 저장될 필요는 없으며, 네트워크 인터페이스(416)를 경유하여 네트워크 상에서 서버와 같은 원격 스토리지 장치로부터 수신할 수 있다. 명령들은 대용량 스토리지(418)와 같은 스토리지 장치로부터 시스템 메모리(414)로 복사될 수 있고, 프로세서(402)에 의해 접근하여 실행될 수 있다. 본 발명의 실시예에 따라 모듈 또는 모듈들은 유사한 처리 환경에 있는 복수의 서버들과 같은 적어도 하나의 장소에 있는 프로세서 또는 복수의 프로세서들에 의해 실행될 수 있다.
물론 본 발명의 실시예는 컴퓨터 판독가능 기록매체에 특별히 한정하지는 않지만, 휘발성 및 비휘발성 메모리 장치들, 고체 상태 메모리들, 플로피 및 다른 제거가능한 디스크들, 하드디스크 드라이버들, 마그네틱 미디어, CD ROM과 같은 광학 디스크, 디지털 다목적 디스크(DVD), 다른 유사한 비일시적(또는 일시적), 접촉 가능한(또는 가능하지 않은) 스토리지 매체, 또한 앞선 과정들 및 특징들 중 적어도 하나를 수행하기 위해 컴퓨터 시스템(400)에 의해 실행될 수 있는 일련의 명령들을 저장, 인코딩 또는 전송하기에 적합한 다른 유형의 매체들을 포함할 수 있을 것이다.
101: 마이크로폰 102: 오디오 분석 모듈
103: 카메라 104: 이미지 분석 모듈
105: 움직임 센서 106: 움직임 분석 모듈
107: 미디어 컨텐츠 플레이어 108: 미디어 컨텐츠 분석 모듈
115: 사용자 프로파일 모듈 116: 미디어 개인화 모듈
117: 서버 155: 미디어 컨텐츠 단말 장치
251: 서버, 미디어 컨텐츠 제공원 252: 네트워크
253: 통신부 254: 로컬 액세스포인트
255: 홈 영역 네트워크 256, 257, 258: 클라이언트 장치
402: 프로세서 404: 캐쉬
406: 고성능 I/O 버스 408: 표준 I/O 버스
410: 호스트 브리지 412: I/O 버스 브리지
414: 시스템 메모리 416: 네트워크 인터페이스
418: 대용량 스토리지 420: I/O 포트들

Claims (20)

  1. 미디어 컨텐츠에 대한 사용자의 피드백을 처리하는 적어도 하나의 프로세서; 및
    상기 적어도 하나의 프로세서에 관계된 제어 명령(instructions) 및 처리 데이터 중 적어도 하나를 저장하는 저장부;를 포함하며,
    상기 적어도 하나의 프로세서는,
    미디어 컨텐츠 단말 장치에서 미디어 컨텐츠가 재생되는 동안, 움직임 센서에 의해 취득되는 움직임 데이터가 포함된 센서 데이터를 수신하고, 상기 미디어 컨텐츠에 대한 사용자의 개인적인 상태가 반영되어 있는 상기 움직임 데이터를 포함하는 상기 수신한 센서 데이터를 분석하여 상기 움직임 데이터의 분석 결과에 근거해 상기 미디어 컨텐츠에 대한 상기 사용자의 개인적인 상태를 판단하는 것을 특징으로 하는 미디어 컨텐츠에 대한 사용자 피드백을 획득하는 시스템.
  2. 제1항에 있어서,
    상기 사용자의 개인적인 상태는, 상기 미디어 컨텐츠의 시청 또는 청취 이외의 활동에 대한 사용자의 집중 상태(attention)에 관계되는 것을 특징으로 하는 미디어 컨텐츠에 대한 사용자 피드백을 획득하는 시스템.
  3. 제1항에 있어서,
    상기 사용자의 개인적인 상태는 상기 미디어 컨텐츠에 반응하는 사용자의 감정에 관계되는 것을 특징으로 하는 미디어 컨텐츠에 대한 사용자 피드백을 획득하는 시스템.
  4. 제1항에 있어서,
    상기 센서 데이터는 카메라에 의해 취득된 이미지 데이터를 더 포함하며,
    상기 적어도 하나의 프로세서는, 상기 이미지 데이터를 근거로 상기 사용자의 개인적인 상태를 판단하는 것을 특징으로 하는 미디어 컨텐츠에 대한 사용자 피드백을 획득하는 시스템.
  5. 제1항에 있어서,
    상기 센서 데이터는 마이크로폰에 의해 취득된 오디오 데이터를 더 포함하며,
    상기 적어도 하나의 프로세서는, 상기 오디오 데이터를 근거로 상기 사용자의 개인적인 상태를 판단하는 것을 특징으로 하는 미디어 컨텐츠에 대한 사용자 피드백을 획득하는 시스템.
  6. 제1항에 있어서,
    상기 적어도 하나의 프로세서는, 상기 사용자의 개인적인 상태에 근거하여 생성된 개인화된 미디어 컨텐츠를 상기 사용자에게 제공하는 것을 특징으로 하는 미디어 컨텐츠에 대한 사용자 피드백을 획득하는 시스템.
  7. 제6항에 있어서,
    상기 개인화된 미디어 컨텐츠의 제공은, 상기 미디어 컨텐츠가 재생되는 동안 미디어 컨텐츠를 변경하는 동작을 포함하는 것을 특징으로 하는 미디어 컨텐츠에 대한 사용자 피드백을 획득하는 시스템.
  8. 제6항에 있어서,
    상기 개인화된 미디어 컨텐츠의 제공은, 타겟 청중과 분리되어 있는 사용자들의 개인적인 상태에 근거하여, 타겟 청중의 미디어 컨텐츠를 변경하는 동작을 포함하는 것을 특징으로 하는 미디어 컨텐츠에 대한 사용자 피드백을 획득하는 시스템.
  9. 제1항에 있어서,
    상기 적어도 하나의 프로세서는, 상기 미디어 컨텐츠가 시청 또는 청취되는 동안 상기 사용자의 개인적인 상태가 발생할 때에 상응하는 미디어 컨텐츠의 일부를 확인하며, 상기 미디어 컨텐츠의 일부를 상기 사용자의 개인적인 상태에 맵핑하는 것을 특징으로 하는 미디어 컨텐츠에 대한 사용자 피드백을 획득하는 시스템.
  10. 제9항에 있어서,
    상기 확인 및 상기 맵핑은 상기 미디어 컨텐츠가 시청 또는 청취되는 동안 실시간으로 수행되는 것을 특징으로 하는 미디어 컨텐츠에 대한 사용자 피드백을 획득하는 시스템.
  11. 미디어 컨텐츠 단말 장치에서 미디어 컨텐츠가 재생되는 동안, 움직임 센서에 의해 취득되는 움직임 데이터가 포함된 센서 데이터를 수신하는 단계;
    상기 미디어 컨텐츠에 대한 사용자의 개인적인 상태가 반영되어 있는 상기 움직임 데이터를 포함하는 상기 수신한 센서 데이터를 분석하는 단계; 및
    상기 움직임 데이터의 분석 결과에 근거하여 상기 미디어 컨텐츠에 대한 상기 사용자의 개인적인 상태를 판단하는 단계;를
    포함하는 미디어 컨텐츠에 대한 사용자 피드백을 획득하는 방법.
  12. 제11항에 있어서,
    상기 사용자의 개인적인 상태는, 상기 미디어 컨텐츠의 시청 또는 청취 이외의 활동에 대한 사용자의 집중 상태(attention)에 관계되는 것을 특징으로 하는 미디어 컨텐츠에 대한 사용자 피드백을 획득하는 방법.
  13. 제11항에 있어서,
    상기 사용자의 개인적인 상태는 상기 미디어 컨텐츠에 반응하는 사용자의 감정에 관계되는 것을 특징으로 하는 미디어 컨텐츠에 대한 사용자 피드백을 획득하는 방법.
  14. 제11항에 있어서,
    상기 센서 데이터는 카메라에 의해 취득된 이미지 데이터를 더 포함하며,
    상기 판단하는 단계는,
    상기 이미지 데이터를 근거로 상기 사용자의 개인적인 상태를 판단하는 것을 특징으로 하는 미디어 컨텐츠에 대한 사용자 피드백을 획득하는 방법.
  15. 제11항에 있어서,
    상기 센서 데이터는 마이크로폰에 의해 취득된 오디오 데이터를 더 포함하며,
    상기 판단하는 단계는,
    상기 오디오 데이터를 근거로 상기 사용자의 개인적인 상태를 판단하는 것을 특징으로 하는 미디어 컨텐츠에 대한 사용자 피드백을 획득하는 방법.
  16. 미디어 컨텐츠에 대한 사용자 피드백을 획득하는 방법을 실행하기 위한 컴퓨터 판독가능 매체에 있어서,
    상기 미디어 컨텐츠에 대한 사용자 피드백을 획득하는 방법은,
    미디어 컨텐츠 단말 장치에서 미디어 컨텐츠가 재생되는 동안, 움직임 센서에 의해 취득되는 움직임 데이터가 포함된 센서 데이터를 수신하는 단계;
    상기 미디어 컨텐츠에 대한 사용자의 개인적인 상태가 반영되어 있는 상기 움직임 데이터를 포함하는 상기 수신한 센서 데이터를 분석하는 단계; 및
    상기 움직임 데이터의 분석 결과에 근거하여 상기 미디어 컨텐츠에 대한 상기 사용자의 개인적인 상태를 판단하는 단계;를
    실행하는 컴퓨터 판독가능 기록매체.
  17. 제16항에 있어서,
    상기 사용자의 개인적인 상태는, 상기 미디어 컨텐츠의 시청 또는 청취 이외의 활동에 대한 사용자의 집중 상태(attention)에 관계되는 것을 특징으로 하는 컴퓨터 판독가능 기록매체.
  18. 제16항에 있어서,
    상기 사용자의 개인적인 상태는 상기 미디어 컨텐츠에 반응하는 사용자의 감정에 관계되는 것을 특징으로 하는 컴퓨터 판독가능 기록매체.
  19. 제16항에 있어서,
    상기 센서 데이터는 카메라에 의해 취득된 이미지 데이터를 더 포함하며,
    상기 판단하는 단계는,
    상기 이미지 데이터를 근거로 상기 사용자의 개인적인 상태를 판단하는 것을 특징으로 하는 컴퓨터 판독가능 기록매체.
  20. 제16항에 있어서,
    상기 센서 데이터는 마이크로폰에 의해 취득된 오디오 데이터를 더 포함하며,
    상기 판단하는 단계는,
    상기 오디오 데이터를 근거로 상기 사용자의 개인적인 상태를 판단하는 것을 특징으로 하는 컴퓨터 판독가능 기록매체.
KR1020140056759A 2013-07-11 2014-05-12 미디어 컨텐츠에 대한 사용자 피드백을 획득하는 시스템 및 방법, 컴퓨터 판독가능 기록매체 KR20150007936A (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
EP14174589.3A EP2824630A1 (en) 2013-07-11 2014-06-26 Systems and methods for obtaining user feedback to media content

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
US201361845313P 2013-07-11 2013-07-11
US61/845,313 2013-07-11
US14/178,233 US20150020086A1 (en) 2013-07-11 2014-02-11 Systems and methods for obtaining user feedback to media content
US14/178,233 2014-02-11

Publications (1)

Publication Number Publication Date
KR20150007936A true KR20150007936A (ko) 2015-01-21

Family

ID=52278215

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020140056759A KR20150007936A (ko) 2013-07-11 2014-05-12 미디어 컨텐츠에 대한 사용자 피드백을 획득하는 시스템 및 방법, 컴퓨터 판독가능 기록매체

Country Status (2)

Country Link
US (1) US20150020086A1 (ko)
KR (1) KR20150007936A (ko)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20160143422A (ko) * 2015-06-05 2016-12-14 (주)인클라우드 학습자 감성 기반의 스마트 교육 시스템
KR20180064578A (ko) * 2016-11-30 2018-06-15 동국대학교 산학협력단 유아 지능 계발을 위한 교육 시스템 및 그 운영방법
WO2019054715A1 (ko) * 2017-09-18 2019-03-21 삼성전자 주식회사 전자 장치 및 이의 피드백 정보 획득 방법
RU2746037C1 (ru) * 2020-05-13 2021-04-06 Федеральное государственное автономное образовательное учреждение высшего образования "Белгородский государственный национальный исследовательский университет" (НИУ "БелГУ") Способ осуществления сеансов биологической обратной связи для задач группового взаимодействия индивидуумов

Families Citing this family (180)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8554868B2 (en) 2007-01-05 2013-10-08 Yahoo! Inc. Simultaneous sharing communication interface
US9190110B2 (en) 2009-05-12 2015-11-17 JBF Interlude 2009 LTD System and method for assembling a recorded composition
US11232458B2 (en) 2010-02-17 2022-01-25 JBF Interlude 2009 LTD System and method for data mining within interactive multimedia
EP2732383B1 (en) 2011-07-12 2018-04-04 Snap Inc. Methods and systems of providing visual content editing functions
US8972357B2 (en) 2012-02-24 2015-03-03 Placed, Inc. System and method for data collection to validate location data
US11734712B2 (en) 2012-02-24 2023-08-22 Foursquare Labs, Inc. Attributing in-store visits to media consumption based on data collected from user devices
US10155168B2 (en) 2012-05-08 2018-12-18 Snap Inc. System and method for adaptable avatars
US10820293B2 (en) * 2013-10-10 2020-10-27 Aura Home, Inc. Digital picture frame with improved display of community photographs
US9628950B1 (en) 2014-01-12 2017-04-18 Investment Asset Holdings Llc Location-based messaging
KR102163850B1 (ko) * 2014-01-29 2020-10-12 삼성전자 주식회사 디스플레이장치 및 그 제어방법
EP2927826B1 (en) * 2014-04-04 2022-06-29 Avid Technology, Inc. Method of consolidating, synchronizing, and streaming production content for distributed editing of media compositions
US20150319506A1 (en) * 2014-04-30 2015-11-05 Netflix, Inc. Displaying data associated with a program based on automatic recognition
US9396354B1 (en) 2014-05-28 2016-07-19 Snapchat, Inc. Apparatus and method for automated privacy protection in distributed images
US9537811B2 (en) 2014-10-02 2017-01-03 Snap Inc. Ephemeral gallery of ephemeral messages
EP2953085A1 (en) 2014-06-05 2015-12-09 Mobli Technologies 2010 Ltd. Web document enhancement
US9113301B1 (en) 2014-06-13 2015-08-18 Snapchat, Inc. Geo-location based event gallery
US9607507B1 (en) * 2014-06-25 2017-03-28 Amazon Technologies, Inc. User activity-based actions
US9225897B1 (en) 2014-07-07 2015-12-29 Snapchat, Inc. Apparatus and method for supplying content aware photo filters
US10423983B2 (en) 2014-09-16 2019-09-24 Snap Inc. Determining targeting information based on a predictive targeting model
US10824654B2 (en) 2014-09-18 2020-11-03 Snap Inc. Geolocation-based pictographs
US11216869B2 (en) 2014-09-23 2022-01-04 Snap Inc. User interface to augment an image using geolocation
US10284508B1 (en) 2014-10-02 2019-05-07 Snap Inc. Ephemeral gallery of ephemeral messages with opt-in permanence
US9792957B2 (en) 2014-10-08 2017-10-17 JBF Interlude 2009 LTD Systems and methods for dynamic video bookmarking
US10225591B2 (en) * 2014-10-21 2019-03-05 Comcast Cable Communications, Llc Systems and methods for creating and managing user profiles
US9015285B1 (en) 2014-11-12 2015-04-21 Snapchat, Inc. User interface for accessing media at a geographic location
US10592926B2 (en) * 2014-12-18 2020-03-17 Nbcuniversal Media, Llc System and method for multimedia content composition
US10311916B2 (en) 2014-12-19 2019-06-04 Snap Inc. Gallery of videos set to an audio time line
US9385983B1 (en) 2014-12-19 2016-07-05 Snapchat, Inc. Gallery of messages from individuals with a shared interest
US9754355B2 (en) 2015-01-09 2017-09-05 Snap Inc. Object recognition based photo filters
US11388226B1 (en) 2015-01-13 2022-07-12 Snap Inc. Guided personal identity based actions
US10133705B1 (en) 2015-01-19 2018-11-20 Snap Inc. Multichannel system
US9521515B2 (en) 2015-01-26 2016-12-13 Mobli Technologies 2010 Ltd. Content request by location
US10223397B1 (en) 2015-03-13 2019-03-05 Snap Inc. Social graph based co-location of network users
KR102035405B1 (ko) 2015-03-18 2019-10-22 스냅 인코포레이티드 지오-펜스 인가 프로비저닝
US9692967B1 (en) 2015-03-23 2017-06-27 Snap Inc. Systems and methods for reducing boot time and power consumption in camera systems
US10034050B2 (en) 2015-03-31 2018-07-24 At&T Intellectual Property I, L.P. Advertisement generation based on a user image
US9881094B2 (en) 2015-05-05 2018-01-30 Snap Inc. Systems and methods for automated local story generation and curation
US10135949B1 (en) 2015-05-05 2018-11-20 Snap Inc. Systems and methods for story and sub-story navigation
US9467718B1 (en) 2015-05-06 2016-10-11 Echostar Broadcasting Corporation Apparatus, systems and methods for a content commentary community
US9967618B2 (en) * 2015-06-12 2018-05-08 Verizon Patent And Licensing Inc. Capturing a user reaction to media content based on a trigger signal and using the user reaction to determine an interest level associated with a segment of the media content
US10595087B2 (en) * 2015-07-14 2020-03-17 DISH Technologies L.L.C. Media content skipping
US10993069B2 (en) 2015-07-16 2021-04-27 Snap Inc. Dynamically adaptive media content delivery
US10817898B2 (en) 2015-08-13 2020-10-27 Placed, Llc Determining exposures to content presented by physical objects
US10223742B2 (en) * 2015-08-26 2019-03-05 Google Llc Systems and methods for selecting third party content based on feedback
US10460765B2 (en) 2015-08-26 2019-10-29 JBF Interlude 2009 LTD Systems and methods for adaptive and responsive video
US9652896B1 (en) 2015-10-30 2017-05-16 Snap Inc. Image based tracking in augmented reality systems
US9984499B1 (en) 2015-11-30 2018-05-29 Snap Inc. Image and point cloud based tracking and in augmented reality systems
US10474321B2 (en) 2015-11-30 2019-11-12 Snap Inc. Network resource location linking and visual content sharing
US10354425B2 (en) 2015-12-18 2019-07-16 Snap Inc. Method and system for providing context relevant media augmentation
US10268689B2 (en) 2016-01-28 2019-04-23 DISH Technologies L.L.C. Providing media content based on user state detection
US10285001B2 (en) 2016-02-26 2019-05-07 Snap Inc. Generation, curation, and presentation of media collections
US11023514B2 (en) 2016-02-26 2021-06-01 Snap Inc. Methods and systems for generation, curation, and presentation of media collections
US10679389B2 (en) 2016-02-26 2020-06-09 Snap Inc. Methods and systems for generation, curation, and presentation of media collections
US10530714B2 (en) 2016-02-29 2020-01-07 Oracle International Corporation Conditional automatic social posts
US10339365B2 (en) 2016-03-31 2019-07-02 Snap Inc. Automated avatar generation
US11856271B2 (en) 2016-04-12 2023-12-26 JBF Interlude 2009 LTD Symbiotic interactive video
US10984036B2 (en) 2016-05-03 2021-04-20 DISH Technologies L.L.C. Providing media content based on media element preferences
US9681265B1 (en) 2016-06-28 2017-06-13 Snap Inc. System to track engagement of media items
US10430838B1 (en) 2016-06-28 2019-10-01 Snap Inc. Methods and systems for generation, curation, and presentation of media collections with automated advertising
US10733255B1 (en) 2016-06-30 2020-08-04 Snap Inc. Systems and methods for content navigation with automated curation
US10650593B2 (en) 2016-07-12 2020-05-12 Tyco Fire & Security Gmbh Holographic technology implemented security solution
US10855632B2 (en) 2016-07-19 2020-12-01 Snap Inc. Displaying customized electronic messaging graphics
EP3800618B1 (en) 2016-08-30 2022-12-07 Snap Inc. Systems and methods for simultaneous localization and mapping
US10390096B2 (en) * 2016-09-16 2019-08-20 DISH Technologies L.L.C. Collecting media consumer data
US10432559B2 (en) 2016-10-24 2019-10-01 Snap Inc. Generating and displaying customized avatars in electronic messages
CN112738408B (zh) 2016-11-07 2022-09-16 斯纳普公司 图像修改器的选择性识别和排序
US10203855B2 (en) 2016-12-09 2019-02-12 Snap Inc. Customized user-controlled media overlays
US10503805B2 (en) 2016-12-19 2019-12-10 Oracle International Corporation Generating feedback for a target content item based on published content items
US10380610B2 (en) 2016-12-20 2019-08-13 Oracle International Corporation Social media enrichment framework
US11196826B2 (en) * 2016-12-23 2021-12-07 DISH Technologies L.L.C. Communications channels in media systems
US10764381B2 (en) 2016-12-23 2020-09-01 Echostar Technologies L.L.C. Communications channels in media systems
US10390084B2 (en) 2016-12-23 2019-08-20 DISH Technologies L.L.C. Communications channels in media systems
US11050809B2 (en) 2016-12-30 2021-06-29 JBF Interlude 2009 LTD Systems and methods for dynamic weighting of branched video paths
US11616745B2 (en) 2017-01-09 2023-03-28 Snap Inc. Contextual generation and selection of customized media content
US10454857B1 (en) 2017-01-23 2019-10-22 Snap Inc. Customized digital avatar accessories
US10915911B2 (en) 2017-02-03 2021-02-09 Snap Inc. System to determine a price-schedule to distribute media content
US10319149B1 (en) 2017-02-17 2019-06-11 Snap Inc. Augmented reality anamorphosis system
US11250075B1 (en) 2017-02-17 2022-02-15 Snap Inc. Searching social media content
US10074381B1 (en) 2017-02-20 2018-09-11 Snap Inc. Augmented reality speech balloon system
US10565795B2 (en) 2017-03-06 2020-02-18 Snap Inc. Virtual vision system
US10523625B1 (en) 2017-03-09 2019-12-31 Snap Inc. Restricted group content collection
US10582277B2 (en) 2017-03-27 2020-03-03 Snap Inc. Generating a stitched data stream
US10581782B2 (en) 2017-03-27 2020-03-03 Snap Inc. Generating a stitched data stream
US11170393B1 (en) 2017-04-11 2021-11-09 Snap Inc. System to calculate an engagement score of location based media content
US10387730B1 (en) 2017-04-20 2019-08-20 Snap Inc. Augmented reality typography personalization system
CN111010882B (zh) 2017-04-27 2023-11-03 斯纳普公司 在基于地图的社交媒体平台上的位置隐私关联
US10212541B1 (en) 2017-04-27 2019-02-19 Snap Inc. Selective location-based identity communication
US11893647B2 (en) 2017-04-27 2024-02-06 Snap Inc. Location-based virtual avatars
US10467147B1 (en) 2017-04-28 2019-11-05 Snap Inc. Precaching unlockable data elements
US10755724B2 (en) * 2017-05-04 2020-08-25 Rovi Guides, Inc. Systems and methods for adjusting dubbed speech based on context of a scene
US10803120B1 (en) 2017-05-31 2020-10-13 Snap Inc. Geolocation based playlists
US11601715B2 (en) * 2017-07-06 2023-03-07 DISH Technologies L.L.C. System and method for dynamically adjusting content playback based on viewer emotions
US20190068477A1 (en) * 2017-08-25 2019-02-28 Microsoft Technology Licensing, Llc Communication polling and analytics
US11475254B1 (en) 2017-09-08 2022-10-18 Snap Inc. Multimodal entity identification
US10740974B1 (en) 2017-09-15 2020-08-11 Snap Inc. Augmented reality system
US10499191B1 (en) 2017-10-09 2019-12-03 Snap Inc. Context sensitive presentation of content
US10171877B1 (en) 2017-10-30 2019-01-01 Dish Network L.L.C. System and method for dynamically selecting supplemental content based on viewer emotions
US10573043B2 (en) 2017-10-30 2020-02-25 Snap Inc. Mobile-based cartographic control of display content
US11265273B1 (en) 2017-12-01 2022-03-01 Snap, Inc. Dynamic media overlay with smart widget
US11017173B1 (en) 2017-12-22 2021-05-25 Snap Inc. Named entity recognition visual context and caption data
US11270071B2 (en) 2017-12-28 2022-03-08 Comcast Cable Communications, Llc Language-based content recommendations using closed captions
US10678818B2 (en) 2018-01-03 2020-06-09 Snap Inc. Tag distribution visualization system
US10257578B1 (en) 2018-01-05 2019-04-09 JBF Interlude 2009 LTD Dynamic library display for interactive videos
US11507614B1 (en) 2018-02-13 2022-11-22 Snap Inc. Icon based tagging
US10885136B1 (en) 2018-02-28 2021-01-05 Snap Inc. Audience filtering system
US10979752B1 (en) 2018-02-28 2021-04-13 Snap Inc. Generating media content items based on location information
US10327096B1 (en) 2018-03-06 2019-06-18 Snap Inc. Geo-fence selection system
KR102574151B1 (ko) 2018-03-14 2023-09-06 스냅 인코포레이티드 위치 정보에 기초한 수집가능한 항목들의 생성
US11163941B1 (en) 2018-03-30 2021-11-02 Snap Inc. Annotating a collection of media content items
WO2019195112A1 (en) * 2018-04-05 2019-10-10 Bitmovin, Inc. Adaptive media playback based on user behavior
US10219111B1 (en) 2018-04-18 2019-02-26 Snap Inc. Visitation tracking system
US11151600B2 (en) * 2018-04-23 2021-10-19 International Business Machines Corporation Cognitive analysis of user engagement with visual displays
US10896197B1 (en) 2018-05-22 2021-01-19 Snap Inc. Event detection system
US11601721B2 (en) * 2018-06-04 2023-03-07 JBF Interlude 2009 LTD Interactive video dynamic adaptation and user profiling
US11451875B2 (en) * 2018-06-04 2022-09-20 Samsung Electronics Co., Ltd. Machine learning-based approach to demographic attribute inference using time-sensitive features
US10679393B2 (en) 2018-07-24 2020-06-09 Snap Inc. Conditional modification of augmented reality object
WO2020031102A1 (en) * 2018-08-09 2020-02-13 Vivi International Pty Ltd Real time synchronization of client device actions with presented content
US10997760B2 (en) 2018-08-31 2021-05-04 Snap Inc. Augmented reality anthropomorphization system
US11012748B2 (en) * 2018-09-19 2021-05-18 International Business Machines Corporation Dynamically providing customized versions of video content
US10698583B2 (en) 2018-09-28 2020-06-30 Snap Inc. Collaborative achievement interface
JP7078743B2 (ja) * 2018-10-09 2022-05-31 株式会社ソニー・インタラクティブエンタテインメント 情報処理システム、情報処理装置およびコンテンツファイルの生成方法
US10778623B1 (en) 2018-10-31 2020-09-15 Snap Inc. Messaging and gaming applications communication platform
US11199957B1 (en) 2018-11-30 2021-12-14 Snap Inc. Generating customized avatars based on location information
US11037550B2 (en) 2018-11-30 2021-06-15 Dish Network L.L.C. Audio-based link generation
US10939236B1 (en) 2018-11-30 2021-03-02 Snap Inc. Position service to determine relative position to map features
CN109753993A (zh) * 2018-12-11 2019-05-14 东软集团股份有限公司 用户画像方法、装置、计算机可读存储介质及电子设备
US11032670B1 (en) 2019-01-14 2021-06-08 Snap Inc. Destination sharing in location sharing system
US10939246B1 (en) 2019-01-16 2021-03-02 Snap Inc. Location-based context information sharing in a messaging system
US11294936B1 (en) 2019-01-30 2022-04-05 Snap Inc. Adaptive spatial density based clustering
US11972529B2 (en) 2019-02-01 2024-04-30 Snap Inc. Augmented reality system
US10936066B1 (en) 2019-02-13 2021-03-02 Snap Inc. Sleep detection in a location sharing system
US10838599B2 (en) 2019-02-25 2020-11-17 Snap Inc. Custom media overlay system
US10964082B2 (en) 2019-02-26 2021-03-30 Snap Inc. Avatar based on weather
US10852918B1 (en) 2019-03-08 2020-12-01 Snap Inc. Contextual information in chat
US11868414B1 (en) 2019-03-14 2024-01-09 Snap Inc. Graph-based prediction for contact suggestion in a location sharing system
US11852554B1 (en) 2019-03-21 2023-12-26 Snap Inc. Barometer calibration in a location sharing system
US11249614B2 (en) 2019-03-28 2022-02-15 Snap Inc. Generating personalized map interface with enhanced icons
US10810782B1 (en) 2019-04-01 2020-10-20 Snap Inc. Semantic texture mapping system
ES2785304A1 (es) * 2019-04-03 2020-10-06 Aguilar Francisco Arribas Aparato y procedimiento de medición de audiencias
US10582453B1 (en) 2019-05-30 2020-03-03 Snap Inc. Wearable device location systems architecture
US10560898B1 (en) 2019-05-30 2020-02-11 Snap Inc. Wearable device location systems
US10893385B1 (en) 2019-06-07 2021-01-12 Snap Inc. Detection of a physical collision between two client devices in a location sharing system
US11307747B2 (en) 2019-07-11 2022-04-19 Snap Inc. Edge gesture interface with smart interactions
US11821742B2 (en) 2019-09-26 2023-11-21 Snap Inc. Travel based notifications
US11490047B2 (en) 2019-10-02 2022-11-01 JBF Interlude 2009 LTD Systems and methods for dynamically adjusting video aspect ratios
US11638049B2 (en) 2019-10-16 2023-04-25 Dish Network L.L.C. Systems and methods for content item recognition and adaptive packet transmission
US11218838B2 (en) 2019-10-31 2022-01-04 Snap Inc. Focused map-based context information surfacing
US11645578B2 (en) * 2019-11-18 2023-05-09 International Business Machines Corporation Interactive content mobility and open world movie production
US11128715B1 (en) 2019-12-30 2021-09-21 Snap Inc. Physical friend proximity in chat
US11429618B2 (en) 2019-12-30 2022-08-30 Snap Inc. Surfacing augmented reality objects
US11169658B2 (en) 2019-12-31 2021-11-09 Snap Inc. Combined map icon with action indicator
US11343323B2 (en) 2019-12-31 2022-05-24 Snap Inc. Augmented reality objects registry
US11228551B1 (en) 2020-02-12 2022-01-18 Snap Inc. Multiple gateway message exchange
US11245961B2 (en) 2020-02-18 2022-02-08 JBF Interlude 2009 LTD System and methods for detecting anomalous activities for interactive videos
JP2021135803A (ja) * 2020-02-27 2021-09-13 富士フイルムビジネスイノベーション株式会社 文書作成装置、及びプログラム
US11516167B2 (en) 2020-03-05 2022-11-29 Snap Inc. Storing data based on device location
US11619501B2 (en) 2020-03-11 2023-04-04 Snap Inc. Avatar based on trip
US10956743B1 (en) 2020-03-27 2021-03-23 Snap Inc. Shared augmented reality system
US11430091B2 (en) 2020-03-27 2022-08-30 Snap Inc. Location mapping for large scale augmented-reality
US11012737B1 (en) * 2020-04-27 2021-05-18 Dish Network L.L.C. Systems and methods for audio adaptation of content items to endpoint media devices
US11483267B2 (en) 2020-06-15 2022-10-25 Snap Inc. Location sharing using different rate-limited links
US11314776B2 (en) 2020-06-15 2022-04-26 Snap Inc. Location sharing using friend list versions
US11503432B2 (en) 2020-06-15 2022-11-15 Snap Inc. Scalable real-time location sharing framework
US11290851B2 (en) 2020-06-15 2022-03-29 Snap Inc. Location sharing using offline and online objects
US11816678B2 (en) * 2020-06-26 2023-11-14 Capital One Services, Llc Systems and methods for providing user emotion information to a customer service provider
US11308327B2 (en) 2020-06-29 2022-04-19 Snap Inc. Providing travel-based augmented reality content with a captured image
US11349797B2 (en) 2020-08-31 2022-05-31 Snap Inc. Co-location connection service
CN114515428A (zh) * 2020-11-18 2022-05-20 华为技术有限公司 一种体感交互方法及电子设备
US11606756B2 (en) 2021-03-29 2023-03-14 Snap Inc. Scheduling requests for location data
JP2022152630A (ja) * 2021-03-29 2022-10-12 パナソニックIpマネジメント株式会社 オンライン映像配信支援方法およびオンライン映像配信支援装置
US11645324B2 (en) 2021-03-31 2023-05-09 Snap Inc. Location-based timeline media content system
US11762934B2 (en) 2021-05-11 2023-09-19 Oracle International Corporation Target web and social media messaging based on event signals
US11882337B2 (en) 2021-05-28 2024-01-23 JBF Interlude 2009 LTD Automated platform for generating interactive videos
US11934477B2 (en) 2021-09-24 2024-03-19 JBF Interlude 2009 LTD Video player integration within websites
US11829834B2 (en) 2021-10-29 2023-11-28 Snap Inc. Extended QR code
CA3240951A1 (en) * 2021-12-03 2023-06-08 Awes.Me, Inc. Ai-powered raw file management
US11935076B2 (en) * 2022-02-02 2024-03-19 Nogueira Jr Juan Video sentiment measurement
US12001750B2 (en) 2022-04-20 2024-06-04 Snap Inc. Location-based shared augmented reality experience system
US12020384B2 (en) 2022-06-21 2024-06-25 Snap Inc. Integrating augmented reality experiences with other components
US12020386B2 (en) 2022-06-23 2024-06-25 Snap Inc. Applying pregenerated virtual experiences in new location

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB0618978D0 (en) * 2006-09-27 2006-11-08 Malvern Scient Solutions Ltd Method of employing gaze direction tracking for cursor control in a computer
US8401248B1 (en) * 2008-12-30 2013-03-19 Videomining Corporation Method and system for measuring emotional and attentional response to dynamic digital media content
JP5347549B2 (ja) * 2009-02-13 2013-11-20 ソニー株式会社 情報処理装置および情報処理方法
JP5609160B2 (ja) * 2010-02-26 2014-10-22 ソニー株式会社 情報処理システム、コンテンツ合成装置および方法、並びに記録媒体
US8949871B2 (en) * 2010-09-08 2015-02-03 Opentv, Inc. Smart media selection based on viewer user presence
US8438590B2 (en) * 2010-09-22 2013-05-07 General Instrument Corporation System and method for measuring audience reaction to media content

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20160143422A (ko) * 2015-06-05 2016-12-14 (주)인클라우드 학습자 감성 기반의 스마트 교육 시스템
KR20180064578A (ko) * 2016-11-30 2018-06-15 동국대학교 산학협력단 유아 지능 계발을 위한 교육 시스템 및 그 운영방법
WO2019054715A1 (ko) * 2017-09-18 2019-03-21 삼성전자 주식회사 전자 장치 및 이의 피드백 정보 획득 방법
US11468270B2 (en) 2017-09-18 2022-10-11 Samsung Electronics Co., Ltd. Electronic device and feedback information acquisition method therefor
RU2746037C1 (ru) * 2020-05-13 2021-04-06 Федеральное государственное автономное образовательное учреждение высшего образования "Белгородский государственный национальный исследовательский университет" (НИУ "БелГУ") Способ осуществления сеансов биологической обратной связи для задач группового взаимодействия индивидуумов

Also Published As

Publication number Publication date
US20150020086A1 (en) 2015-01-15

Similar Documents

Publication Publication Date Title
KR20150007936A (ko) 미디어 컨텐츠에 대한 사용자 피드백을 획득하는 시스템 및 방법, 컴퓨터 판독가능 기록매체
US10419790B2 (en) System and method for video curation
US11902629B2 (en) Optimizing timing of display of a video overlay
CN112602077A (zh) 交互式视频内容分发
US9465435B1 (en) Segmentation of a video based on user engagement in respective segments of the video
TWI581128B (zh) 基於媒體反應來控制媒體節目的方法、系統及電腦可讀取儲存記憶體
CN109118290B (zh) 方法、系统和计算机可读非暂时性存储介质
TWI536844B (zh) 基於興趣的視訊資料流
US20200273485A1 (en) User engagement detection
US20140255003A1 (en) Surfacing information about items mentioned or presented in a film in association with viewing the film
US20140337868A1 (en) Audience-aware advertising
CN109299384A (zh) 场景推荐方法、装置及系统、存储介质
JP7496479B2 (ja) ビデオゲームのコンテンツに含めるためのグラフィックインターチェンジフォーマットファイル識別
US20140331242A1 (en) Management of user media impressions
US20140325540A1 (en) Media synchronized advertising overlay
US20170048597A1 (en) Modular content generation, modification, and delivery system
JP2006012171A (ja) 生体認識を用いたレビュー管理システム及び管理方法
JP2008529338A (ja) プロダクトプレイスメントを含むトレイラの自動生成
US20200336791A1 (en) Systems and methods for playback responsive advertisements and purchase transactions
EP2824630A1 (en) Systems and methods for obtaining user feedback to media content
US11869039B1 (en) Detecting gestures associated with content displayed in a physical environment
US11838592B1 (en) Rendering a dynamic endemic banner on streaming platforms using content recommendation systems and advanced banner personalization
JP2023519608A (ja) ユーザデバイスからデータを収集するシステム及び方法
WO2022201198A1 (en) Artificially intelligent perceptive entertainment companion system

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E601 Decision to refuse application