KR20140101428A - 다수 관심 기반 사용자 상호작용 모드 지원 - Google Patents

다수 관심 기반 사용자 상호작용 모드 지원 Download PDF

Info

Publication number
KR20140101428A
KR20140101428A KR1020147019142A KR20147019142A KR20140101428A KR 20140101428 A KR20140101428 A KR 20140101428A KR 1020147019142 A KR1020147019142 A KR 1020147019142A KR 20147019142 A KR20147019142 A KR 20147019142A KR 20140101428 A KR20140101428 A KR 20140101428A
Authority
KR
South Korea
Prior art keywords
user
user interaction
information
server
message
Prior art date
Application number
KR1020147019142A
Other languages
English (en)
Other versions
KR101655002B1 (ko
Inventor
니트야 나라심한
실비우 치리세스쿠
베누고팔 바수데반
조셉 에프. 워드카
Original Assignee
제너럴 인스트루먼트 코포레이션
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 제너럴 인스트루먼트 코포레이션 filed Critical 제너럴 인스트루먼트 코포레이션
Publication of KR20140101428A publication Critical patent/KR20140101428A/ko
Application granted granted Critical
Publication of KR101655002B1 publication Critical patent/KR101655002B1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/442Monitoring of processes or resources, e.g. detecting the failure of a recording device, monitoring the downstream bandwidth, the number of times a movie has been viewed, the storage space available from the internal hard disk
    • H04N21/44213Monitoring of end-user related data
    • H04N21/44218Detecting physical presence or behaviour of the user, e.g. using sensors to detect if the user is leaving the room or changes his face expression during a TV program
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/442Monitoring of processes or resources, e.g. detecting the failure of a recording device, monitoring the downstream bandwidth, the number of times a movie has been viewed, the storage space available from the internal hard disk
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/60Network structure or processes for video distribution between server and client or between remote clients; Control signalling between clients, server and network components; Transmission of management data between server and client, e.g. sending from server to client commands for recording incoming content stream; Communication details between server and client 
    • H04N21/65Transmission of management data between client and server
    • H04N21/654Transmission by server directed to the client
    • H04N21/6543Transmission by server directed to the client for forcing some client operations, e.g. recording
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/60Network structure or processes for video distribution between server and client or between remote clients; Control signalling between clients, server and network components; Transmission of management data between server and client, e.g. sending from server to client commands for recording incoming content stream; Communication details between server and client 
    • H04N21/65Transmission of management data between client and server
    • H04N21/654Transmission by server directed to the client
    • H04N21/6547Transmission by server directed to the client comprising parameters, e.g. for client setup

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Social Psychology (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Databases & Information Systems (AREA)
  • Information Transfer Between Computers (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Prostheses (AREA)
  • User Interface Of Digital Computer (AREA)
  • Paints Or Removers (AREA)

Abstract

본 발명은 사용자의 활동을 모니터하여 하나 이상의 장치에 얼마나 많은 관심이 주목되고 있는지를 결정한다. 사용자의 현재 "관심 프로파일"에 관하여 수집된(300, 302) 정보에 기초하여, 사용자의 관심이 집중되는 것 및, 이상적으로는, 각 장치에 얼마나 많은 관심을 갖는지를 반영한 "사용자 상호작용 파라미터"가 설정된다(304). 그 후, 사용자 상호작용 파라미터에 기초하여, 사용자 장치 중의 적어도 하나의 사용자 인터페이스가 이 사용자 인터페이스에 대해 사용자가 현재 주목하고 있는 관심의 양을 고려하여 사용자의 상호작용을 최적화하도록 구성(306)된다. 사용자가 자신의 관심의 대부분을 예를 들어 텔레비전(114)에 기울이면, 동반 장치(108, 116)의 사용자 인터페이스는 동반 장치(108, 116)를 활발히 시청하지 않는 사용자에게 이용가능한 상호작용의 타입을 강조하도록 구성될 수 있다.

Description

다수 관심 기반 사용자 상호작용 모드 지원{SUPPORTING MULTIPLE ATTENTION-BASED, USER-INTERACTION MODES}
본 발명은 일반적으로 컴퓨터 통신에 관한 것으로, 특히, 상호작용 텔레비전에 관한 것이다.
개인 통신 장치(예를 들어, 휴대 전화)가 점점 더 많은 기능을 지원하도록 개발됨에 따라, 사람들은 그 개인 통신 장치를 이용하여 말하는 것보다 훨씬 더 많은 것을 한다. 공지된 바와 같이, 이들 장치는 현재 통상 그 사용자가 (예를 들어, 장치 상의 카메라를 이용하여 비디오를 기록하거나 사진을 찍음으로써) 미디어 파일을 생성하고 (장치에 의해 지원되는 웹 인터페이스를 통해) 원격 서버로부터 미디어 파일을 다운로드하고 상호작용 애플리케이션을 액세스할 수 있게 한다.
그러나, 사람들이 온라인에 더 많은 시간을 소비하는 경우에도, 전통적인 미디어는 매우 중요하게 남아 있다. 실제로, 전통적인 미디어 시간을 온라인 시간으로 단순히 대체하기보다는, 많은 사람들은 "멀티태스크", 즉, 전통적인 및 새로운 미디어를 결합하기 시작하고 있다. 예를 들어, 사람들이 텔레비전을 보는 동안 자신의 개인 통신 장치는, 항상은 아니지만, 종종 텔레비전 상에 표시되는 콘텐츠에 관련된 콘텐츠를 디스플레이하는 "동반 장치(companion device)"가 된다. 마찬가지로, 사람들이 자신의 동반 장치 상에서 상호작용 애플리케이션에 관여하는 동안, 사람들은 텔레비전이 디스플레이하고 있는 콘텐츠를 적어도 말초적으로(peripherally) 알고 있다.
텔레비전 및 동반 장치는 동일한 타입의 사용자 상호작용을 최적화하도록 설계되지 않았다. 용어는 이 차이를 반영한다: 텔레비전 프로그래밍은 "시청자"를 겨냥하지만, 동반 장치는 "사용자"를 초대한다. 즉, 텔레비전 프로그래밍은 대부분 시청자가 자신의 긴 의자에서 "뒤로 젖히면서(lean back)" 수동적으로 시청하도록 설계된다. 완전 상호작용 애플리케이션(fully interactive applications)을 지원하는 동반 장치는 "앞으로 구부려(lean forward)" 더 활발히 애플리케이션과 상호작용하는 사용자를 초대한다.
위의 고려사항 및 다른 것은 명세서, 도면 및 청구범위를 참조함으로써 이해될 수 있는 본 발명에 의해 다루어진다. 본 발명은 사용자의 활동을 모니터하여 그가 하나 이상의 장치(예를 들어, 텔레비전 및 스마트폰, 태블릿 컴퓨터 또는 게임 콘솔 등의 동반 장치)에 얼마나 많이 관심을 기울이는지를 결정한다. 사용자의 현재 "관심 프로파일"에 관하여 수집된 정보에 기초하여, 사용자의 관심이 집중되는 곳 및, 이상적으로, 각 장치에 얼마나 많은 관심을 기울이는지를 반영한 "사용자 상호작용 파라미터"가 설정된다. 그 후, 사용자 상호작용 파라미터에 기초하여, 사용자의 장치들 중 적어도 하나의 사용자 인터페이스는 사용자가 사용자 인터페이스에 대해 현재 기울이고 있는 관심의 양을 고려하여 사용자의 상호작용을 최적화하도록 구성된다.
사용자에 의한 명시적 설정, 다양한 장치와의 사용자의 상호작용의 이력 및 장치와의 사용자의 최근 상호작용을 포함하는 사용자 상호작용 파라미터를 설정하는데 많은 타입의 정보가 사용될 수 있다.
예를 들어, 사용자가 자신의 관심의 대부분을 텔레비전에 기울이면, 동반 장치의 사용자 인터페이스는 동반 장치를 활발히 시청하지 않는 사용자에게 이용가능한 상호작용의 타입을 강조하도록 구성될 수 있다. 즉, 터치 또는 모션 센서는 사용자 입력을 위한 키패드에 대해 강조될 수 있다. 화면 표시는 적절한 경우 사용자의 눈을 사로잡기 위해 더 적지만 잠재적으로 더 밝은 아이콘으로 덜 풍부하게 될 수 있다.
반대로, 사용자의 관심이 동반 장치에 대부분 주어지면, 그 장치의 사용자 인터페이스는 더 상세한 정보를 제시하는 스크린 디스플레이 및 키보드 등의 더 풍부하고 더 정밀한 입력 및 출력을 강조하도록 구성될 수 있다.
사용자 장치가 미디어 콘텐츠(예를 들어, 광고 또는 이메일)을 수신하면, 그 콘텐츠의 장치 디스플레이는 사용자 상호작용 파라미터에 의존한다. 장치는 사용자의 현재 관심 프로파일에 기초하여 디스플레이할 콘텐츠(또는 실행할 애플리케이션)도 선택할 수 있다.
본 발명의 양태를 구현하는 몇 개의 장치 타입이 고려된다. 어떤 사용자 장치는, 관심 프로파일 정보를 수집하고, 사용자 상호작용 파라미터를 설정하고 나서 적절히 설정에 응답하기에 충분하도록 정교하다. 다른 장치는 사용자 상호작용 파라미터를 설정할 수 없지만 또 다른 장치가 자신에게 파라미터를 전송하면 적절히 응답할 수 있다. 원격 서버에게 파라미터(및 가능하게는 다른 관련된 정보)가 전해지면, 사용자 장치로 적절한 콘텐츠(또는 명령)를 전송함으로써 응답할 수 있다. 다른 타입의 원격 서버는 사용자 장치로부터 관심 프로파일 정보를 수집하고 사용자 상호작용 파라미터 자체를 결정할 수 있다. 이들의 모든 타입 및 다른 타입의 장치가 함께 동작하여 본 발명의 유용성을 향상시킬 수 있다.
첨부된 청구범위는 상세히 본 발명의 특징을 나타내지만, 그 목적 및 이점과 함께 본 발명은 첨부된 도면과 결합하여 취해진 다음의 상세한 설명으로부터 가장 잘 이해될 것이다.
도 1은 본 발명이 실시될 수 있는 대표적인 환경의 개요를 나타내는 도면.
도 2는 도 1에 도시된 장치의 일부의 일반화된 개략도.
도 3a 및 3b는 엔드 사용자 장치가 사용자 상호작용 파라미터를 설정하는 대표적인 방법의 플로우챠트를 함께 형성하는 도면.
도 4는 엔드 사용자 장치가 자신에게 전송된 사용자 상호작용 파라미터에 응답하는 대표적인 방법의 플로우챠트.
도 5는 서버가 자신에게 전송된 사용자 상호작용 파라미터에 응답하는 대표적인 방법의 플로우챠트.
도 6은 서버가 사용자 상호작용 파라미터를 설정하는 대표적인 방법의 플로우챠트.
동일한 참조 번호가 동일한 소자를 지칭하는 도면을 참조하면, 본 발명은 적절한 환경에서 구현되는 것으로 도시된다. 다음의 설명은 본 발명의 실시예에 기초하며 여기에 명시적으로 기재되지 않은 다른 실시예에 대하여 본 발명을 제한하는 것은 아니다.
본 발명의 양태는 도 1의 대표적인 통신 환경(100)에서 실시될 수 있다. 다양한 공지된 네트워킹 기술(102) 중 임의의 것 또는 모두를 통해 서버(104 및 106)가 함께 접속된다. 이들 서버(104, 106)의 일부는 케이블 텔레비전 전달 시스템(110)을 헤드엔드(head-end)할 수 있다. 나머지는 웹 서버일 수 있다. 설명의 용이함을 위하여, 단 2개의 서버(104, 106)만이 도시되지만, 후술하는 바와 같이 수많은 서버(104, 106)가 존재할 수 있고 함께 동작할 수 있다.
헤드엔드 서버는 네트워킹 기술(102)을 통해 미디어 다운로드 및 텔레비전 서비스를 엔드 사용자 장치에 제공한다. 엔드 사용자 장치의 일예는 셀룰러 전화(108)이다. 이 전화(108)는 무선 기지국(도시되지 않지만 본 기술분야에 공지됨)과 무선 통신하여 공중 교환 전화망, 인터넷 또는 다른 네트워크에 액세스하여 헤드엔드 서버 및 웹 서버에 의해 제공되는 서비스를 액세스한다.
비-무선 엔드 사용자 장치는 "와이어라인" 네트워크 기술(예를 들어, 파이버, 와이어 및 케이블)(110)에 의해 지원된다. 예를 들어, 셋탑 박스(112)는 일반적으로 헤드엔드 서버로부터 텔레비전 프로그래밍을 수신하고 헤드엔드 서버로부터 콘텐츠를 선택하고 시청하기 위한 사용자 인터페이스(예를 들어, 상호작용 프로그램 가이드)를 제공한다. 디지털 비디오 레코더(미도시)는 나중의 시청을 위해 프로그래밍을 저장할 수 있다. 비디오 콘텐츠는 텔레비전 모니터(114) 상에서 시청할 수 있다. 일부 상황에서, 랩탑 컴퓨터(116)는 무선으로 또는 유선 네트워크(110)를 통해 웹 기반 서비스를 액세스한다. 홈 게이트웨이, 키오스크, 디지털 서명 또는 미디어 리스트리밍(media-restreaming) 장치(미도시)가 다른 가능한 엔드 사용자 장치이다.
(미디어 리스트리밍 장치는 이질적인 타입의 네트워크 사이에서 콘텐츠를 전달한다. 예를 들어, 케이블 시스템(110)으로부터 콘텐츠를 수신하고 나서 그 콘텐츠를 WiFi 등의 로컬 무선 링크를 통해 셀룰러 전화(108)로 송신한다. 미디어 리스트리밍 장치는 통상 양방향으로 동작하여 네트워크 사이에서 메시지를 전달한다. 일부 실시예에서, 본 발명의 양태는 미디어 리스트리밍 장치에 의해 실시된다.)
사용자는 거의 동일한 시간에 또는 시간적으로 중첩하는 방식으로 엔드 사용자 장치(108, 112, 114, 116) 중 임의의 것 또는 전부와 상호작용함으로써 자신의 관심을 나눌 수 있다. 본 설명의 예에서, 보통 사용자는 텔레비전 모니터(114)를 보고 있고 가능하게는 셋탑 박스(112)를 통해 텔레비전 모니터와 상호작용하는 것으로 가정한다. 적어도 가끔, 사용자의 관심의 일부가 또한 스마트폰(108)에 주목된다.
엔드 사용자 장치의 일부는, 사용자의 관심 프로파일에 관한 정보를 수집하고 그 프로파일을 나타내는 사용자 상호작용 파라미터를 설정하고 나서 설정에 적절하게 응답하기에 충분하도록 정교하다. 본 설명의 목적을 위하여, 이들 장치는 "클래스 A" 장치라 하고, 순전히 임의적인 할당에서, 스마트폰(108)은 이 클래스의 대표로서 취해진다. (도 3의 플로우챠트 및 첨부된 설명은 클래스 A 장치의 동작을 나타낸다.)
다른 엔드 사용자 장치는 사용자 상호작용 파라미터를 설정할 수 없지만 또 다른 장치가 자신에게 파라미터를 전송하면 적절하게 응답할 수 있다. 본 설명의 목적을 위하여, 이들은 "클래스 B" 장치라 하고, 셋탑 박스(112)는 (도 4에 도시된) 이 클래스를 나타내는데 사용된다. 또 다른 엔드 사용자 장치는 사용자 상호작용 파라미터를 설정하지 못하거나 그에 응답하지 못할 수 있다. 여전히, 이들 종래 기술 "클래스 C" 장치는 사용자의 관심의 일부를 차지할 수 있기 때문에 통신 환경(100)에서 중요하다. 텔레비전 모니터(114)는 여기서 클래스 C 장치로 묘사된다.
"클래스 Y" 서버는, 사용자 상호작용 파라미터(및 가능하게는 다른 관련된 정보)가 전해지면, 적절한 콘텐츠(또는 명령)를 사용자 장치로 전송함으로써 응답할 수 있다. (서버(104)는 도 5에 도시된 클래스 Y를 나타낸다.) 엔드 사용자 장치(108, 112, 114, 116)로부터 관심 프로파일 정보를 수집하고 사용자 상호작용 파라미터 자체를 결정할 수 있는 서버는 "클래스 Z" 장치이고 도 6에 의해 도시된다.
본 발명의 양태를 설명하는데 유용하지만, 장치의 클래스 간의 구별은 실세계에서 그다지 명백하지 않다는 점에 주목한다. 장치는 임의의 상황에서 하나의 클래스로 동작하고 다른 상황에서 다른 클래스로 동작할 수 있다.
이들 타입 모두 및 다른 타입의 장치가 함께 동작하여 본 발명의 유용성을 향상시킬 수 있다.
도 2는 대표 서버(104, 106) 또는 엔드 사용자 장치(108, 112, 114, 116)의 주요 컴포넌트를 나타낸다. 네트워크 인터페이스(200)는 미디어 표시, 관련 정보 및 다운로드 요청을 전송 및 수신한다. 프로세서(202)는 장치의 동작을 제어하고, 특히, 후술하는 도 3 내지 6에 도시된 바와 같이 본 발명의 양태를 지원한다. 사용자 인터페이스(204)는 장치와의 사용자(또는 관리자) 상호작용을 지원한다. 특정한 장치에 의한 이들 컴포넌트의 특정 사용은 이하에서 적절하게 설명한다.
도 3은 클래스 A 엔드 사용자 장치가 사용자 상호작용 파라미터를 설정하고 사용하는 방법을 나타낸다. 도 3a의 단계(300)에서, 엔드 사용자 장치(108)는 사용자가 현재 이 장치(108)에 기울이는 관심의 양에 관한 정보를 수집한다. 이 정보의 일부는 장치(108) 자체에 의해 생성될 수 있다. 예를 들어, 장치(108)가 사용자 인터페이스(204)와의 상당한 양의 상호작용(예를 들어, 지난 몇 분 동안 입력된 다수의 키스트로크)를 검출하면, 사용자는 장치(108)에 상당한 관심을 기울인다. 이력 정보 또는 사용자 프로파일이 또한 여기에서 유용할 수 있다. 일부 실시예에서, 사용자는, 예를 들어, 사용자 인터페이스(204)에 의해 제시된 소프트웨어 "슬라이더(slider)"를 이동함으로써, 관심 파라미터를 명시적으로 설정할 수 있다: 슬라이더는 2개(또는 그 이상의) 사용자 장치의 각각에 얼마나 많은 관심을 기울이는지의 사용자 추정을 제공한다.
사실상, 슬라이더는 사용자의 현재 관심 프로파일에 관하여 수집된 다른 정보를 오버라이드(override)하는데 사용될 수 있다. 즉, 슬라이더로, 사용자가 실제로 그렇게 하든지에 관계없이, 사용자는 사용자의 관심이 주어진 방식으로 분리되는 것처럼 엔드 사용자 장치(108)가 동작하도록 지시할 수 있다. (이 동일한 오버라이드 효과는 사용자 설정 선호도 또는 폴리시(policy)에 의해 달성될 수 있다.) 사용자가 이것을 수행하고 싶어하는 이유는 사용자 상호작용 파라미터가 이용되는 단계(306)와 관련하여 이하에서 설명한다.
단계(300)에서, 장치(108)는 또한 "장치(108) 자체 이외에서(off the device 108 itself)" 정보를 수신할 수 있다. 예를 들어, 사용자가 텔레비전 모니터(114) 상에 제시된 전자 프로그램 가이드와 활발히 상호작용하는 것에 셋탑 박스(112)가 주목하면, 셋탑 박스(112)는 이 정보를 장치(108)로 전송할 수 있다. 엔드 사용자 장치(108, 112, 114, 116) 중의 임의의 것 상의 카메라가 사용자의 눈을 보고 그가 보는 곳에 주목할 수 있다. 이러한 직접적인 정보가 이용가능하지 않을 때에도, 간접 정보가 도움을 줄 수 있다. 예를 들어, 셋탑 박스(112)가 사용자로부터의 이전의 명령에 응답하여 텔레비전 모니터(114) 상에서 영화를 렌더링하는 것을 보고한다. 온라인 시청률은 현재 장면이 많은 사람에 의해 매우 흥미롭게 고려되는 것을 나타낸다. 이 정보가 엔드 사용자 장치(108)에 이용가능해지면, 그 장치(108)는 임의의 상쇄(countervailing) 정보의 부재시 사용자의 관심이 아마도 모니터(114) 상에 집중되는 것으로 결론 내릴 수 있다. 요컨대, 사용자의 관심 프로파일을 결정하거나 심지어 추측하는데 사용될 수 있는 임의의 정보가 단계(300)에서 사용될 수 있다.
단계(302)에서 엔드 사용자 장치(108)는 엔드 사용자 장치(108) 이외의 장치(또는 장치들)에 대해 사용자가 기울이고 있는 관심의 양에 대한 정보를 수집한다. 얻을 수 있고 유용할 수 있는 임의의 타입의 정보가 여기에서 적절하다. "네거티브(negative)" 정보도 존재할 수 있다. 예를 들어, 장치(108)가 사용자가 그에 대해 임의의 관심을 집중하고 있는 임의의 정보를 최근에 수신하지 않았으면, 그것은 사용자가 텔레비전 모니터(114)에 관심을 집중하고 있는 것으로 가정할 수 있다. 물론, 네거티브 정보는, 사용자가 엔드 사용자 장치(108, 112, 114, 116) 중의 임의의 것에 임의의 관심을 기울이지 않기 때문에, 통상 매우 약하다. 많은 상황에서, 도 3의 방법을 적용할 때 엔드 사용자 장치(108)는 제한된 정보로 최선을 다할 수 있다.
단계(300 및 302)에서 수집할 수 있는 모든 정보에 기초하여, 단계(304)에서 엔드 사용자 장치(108)는 사용자 상호작용 파라미터를 설정한다. 단 2개의 장치(108, 114)에 의한 가장 간단한 시나리오에서, 엔드 사용자 장치(108)는, 수집된 정보가 이것을 부정하지 않으면, 사용자의 전체 관심이 이들 2개의 장치(108, 114) 사이에서 나누어지는 것으로 가정할 수 있다. 상술한 바와 같이, 이러한 간단한 가정은 사용자가 엔드 사용자 장치(108, 112, 114, 116) 중의 임의의 것에 큰 관심을 기울지지 않을 때처럼 부정확할 수 있다. 즉, 사용자는 "무계장(uninstrumented)" 클래스 C 장치에 많은 또는 모든 관심을 기울일 수 있지만, 엔드 사용자 장치(108)가 그것이 사실이라는 것을 결정하기 위한 충분한 정보가 없다.
더 많은 정보 또는 더 많은 장치로, 엔드 사용자 장치(108)는 사용자의 관심이 어떻게 다수의 장치로 분산되는지를 나타내는 다차원 사용자 상호작용 파라미터를 생성할 수 있다. 사용자 상호작용 파라미터의 품질은 수집된 정보의 품질 및 양 및 특히 일부 정보에 기여하는 엔드 사용자 장치(108, 112, 114, 116)의 수에 기초한다.
단계(304)에서 사용자 상호작용 파라미터를 설정하는데 있어서 가장 좋은 작업을 수행한 후에, 엔드 사용자 장치(108)는 단계(306)에서 그 파라미터를 이용하여 사용자가 현재 장치(108)에 기울이는 관심의 양에 대하여 적절하다고 생각되는 일부 방식으로 그의 사용자 인터페이스(204)를 구성한다. 여기에서 많은 변형이 가능하며 몇 개의 예는 가능성 범위를 나타낸다.
엔드 사용자 장치(108)가 결정할 수 있는 한, 사용자의 관심의 전체가 텔레비전 모니터(114) 및 스마트폰(108) 사이에서 분리되는 상황을 먼저 고려한다. 그러면 사용자 상호작용 파라미터는 1차원 양, 심지어, 가장 간단한 경우, 사용자의 관심의 대부분이 모니터(114) 또는 폰(108)에 있는지를 나타내는 1비트 양일 수 있다. 사용자가 모니터(114)에 일차적으로 집중하면, 이것은 전형적인 "린 백(lean-back)" 시나리오이다. 즉, 사용자가 자신의 긴 의자에 기대어 텔레비전을 보고 있다. 이 경우, 폰(108)의 사용자 인터페이스(204)는 사용자를 산만하게 하지 않도록 매우 간단해질 수 있다. 폰(108)의 사용자 인터페이스(204)는 모니터(114)로부터 사용자의 주요 관심이 멀어지지 않고 사용자가 편리하게 사용할 수 있는 입력을 강조하도록 구성된다. 이들 입력은 (요동(shaking) 또는 제스쳐 입력을 위한) 모션 센서, 음성 입력을 위한 마이크로폰 및 다른 사용자 입력을 기다리는 카메라를 포함할 수 있다. (일부 집중도(some degree of concentration)를 요구하는) 키보드 및 마우스 입력은 완전히 강조해제(de-emphasized)되거나 턴오프(turned off)된다. 폰(108)에 대한 출력은 또한 사용자를 불필요하게 산만하게 하지 않도록 구성된다. 폰(108)의 화면 상의 작은 아이콘은 아마도 결코 의식되지 않을 것이므로, 넌-어전트(non-urgent) 디스플레이 또는 메시지가 간단히 폐기되거나 나중의 검토를 위해 저장될 수 있다. 사용자 인터페이스(204)의 양식(modalities)은 또한 변경될 수 있다: 예를 들어, 사용자의 즉각적인 행동을 요구하는 토네이도 경고 메시지가 들어오면, 폰(108)의 화면 상에 정적 아이콘을 디스플레이하기 보다는, 폰(108)의 스피커를 통해 경고를 발하거나 큰 진동(pulsating) 아이콘을 디스플레이함으로써 사용자의 관심을 "사로잡을" 수 있다. (이것은 선택적인 단계(308)의 예이다.)
다음으로, 상기와 동일한 물리적 레이아웃이지만, 스마트폰(108)이 사용자가 텔레비전 모니터(114)에 이차적인 관심만을 제공하면서 사용자의 일차적 관심이 스마트폰(108)에 주어지는 것으로 결정한 경우를 고려한다. 이것은 "린 포워드(lean forward)"라 하고, 사용자가 폰(108)의 화면을 활발하게 보기 때문에, 훨씬 더 풍부한 인터페이스가 적절하다. 더 작은 아이콘, 및 그것들 중의 더 많은 것이 사용자에 의해 주목될 것이라는 기대로 디스플레이될 수 있다. 제스쳐보다 더 미세한 제어를 허용하는 키보드 및 마우스 인터페이스가 강조된다.
스마트폰(108)이 사용자의 관심이 텔레비전 모니터(114) 및 폰(108) 사이에서 어떻게 분리되는지를 추정할 수 있다면, 스마트폰(108)은 "린 백" 및 "린 포워드"의 극단 사이의 어딘가에서 그 인터페이스(204)를 구성할 수 있다. 마찬가지로, 사용자의 관심이 2보다 많은 장치(108, 114) 사이에서 분리되는 것을 폰(108)이 인지(또는 의심)하면, 폰(108)은 그에 따라 적절한 사용자 인터페이스(204)를 제시할 수 있다.
상기 단계(300)의 설명에서, 사용자가 "슬라이더"를 설정(또는 다른 방식으로 엔드 사용자 장치(108)의 사용자 인터페이스(204)와 상호작용)하여 사용자 상호작용 파라미터에 대한 특정 값을 강요(force)할 수 있다는 것에 주목하였다. 이 옵션은 특히 정보의 부족을 통해 도 3의 절차가 사용자의 실제 관심 파일을 반영하지 않는 사용자 상호작용파라미터를 산출할 때 유용하다. 사용자는 또한 자신이 자신의 관심의 집중을 끊임없이 변경하면 파라미터를 "록 다운(lock down)"하기를 원할 수 있고 장치(108, 112, 114, 116)가 자신에게 그것들 자체를 맞추도록 시도하기보다는, 오히려 자신을 장치(108, 112, 114, 116)에 맞출 수 있다. 이러한 명시적 설정은 본질적으로 단계(304)의 동작을 무효화하지만(또는 사소하게 쉽게 만들지만), 특히 단계(306)의 사용자 인터페이스 구성을 포함하는 본 발명의 양태는 여전히 적용가능하고 유용하다.
위의 예들은 엔드 사용자 장치(108)(클래스 A 장치)의 인터페이스(204)가 구성되는 방법만을 설명한다는 점에 주목한다. 다른(넌-클래스 A) 장치의 구성은 이하에서 설명한다.
엔드 사용자 장치(108)는 그 사용자 인터페이스(204)를 구성하는 것 이외의 목적을 위해 사용자 상호작용 파라미터를 적용할 수 있다. 단계(308)의 다른 예로서, 미디어 콘텐츠가 수신되면, 장치(108)는 콘텐츠의 긴급함을 분석하고 나서, 사용자 상호작용 파라미터에 기초하여 콘텐츠를 가장 적절한 엔드 사용자 장치(108, 112, 114, 116)로 보낼 수 있다. 토네이도 경고의 예를 참조하면, 경고는 현재 사용자의 관심의 대부분을 받고 있는 어느 장치(108, 112, 114, 116), 또는 심지어 모든 가능한 장치(108, 112, 114, 116)로 전송되어, 사용자는 가능한 한 빨리 경고를 인지한다. 제스쳐 입력의 의미를 재맵핑하는 것과 같은 사용자 상호작용 파라미터의 다른 사용이 또한 고려된다.
사용자 상호작용 파라미터는 선택적 단계(310)에서 렌더링될 특정 미디어 표시 또는 실행될 애플리케이션을 선택하는데 사용될 수 있다. 예를 들어, 사용자가 텔레비전 모니터(114) 상에 디스플레이되는 축구 게임에 일차적으로 집중하면, 그 게임에 관한 콘텐츠(예를 들어, 광고, 플레이어의 전기(biographies), 해설 트랙(commentary track))가 엔드 사용자 장치(108) 상에 디스플레이될 수 있다.
도 3b는 사용자 상호작용 파라미터의 다른 선택적인 사용을 나타낸다. 현재의 애플리케이션이 사용자 상호작용 파라미터를 이용하는 방법을 고려하도록 기입되지 않기 때문에, 상기 단계(306)는 일반적으로 엔드 사용자 장치(108)의 오퍼레이팅 시스템에 의해 수행될 수 있다. 미래에 적어도 일부의 애플리케이션이 단계(312)에서 사용자 상호작용 파라미터를 수락하고 그에 따라 동작을 구성할 수 있을 것으로 기대된다.
단계(314)에서, 사용자 상호작용 파라미터를 산출한 후에, 엔드 사용자 장치(108)는 그 파라미터를 또 다른 장치로 전송한다. 다른 장치는 아마 (도 4와 관련하여 후술하는) 클래스 B 엔드 사용자 장치 또는 클래스 Y 서버(도 5)일 수 있다. 일부 상황에서, 장치(108)는 단계(314)에서 실제 사용자 상호작용 파라미터를 전송하지 않고, 대신, 그 파라미터에 기초한 값을 전송한다. 예를 들어, 장치(108)는 사용자 상호작용 파라미터에 포함되는 정보를 검토하고 클래스 B 엔드 사용자 장치에 맞추어진 값을 전송할 수 있다.
단계(314)에서 사용자 상호작용 파라미터를 서버로 전송하는 것에 더하여, 단계(316)에서 엔드 사용자 장치(108)는 추가의 정보를 전송할 수 있다. 일반적으로, 이 추가의 정보는 수신 서버가 사용자의 현재의 관심 프로파일을 더 잘 이해하도록 한다. 도 5의 단계(502) 및 도 6의 단계(604)를 참조하여 특정한 예가 후술되며, 여기서, 서버는 추가의 정보를 수신하여 적용한다.
단계(318)에서, 서버는 명령을 엔드 사용자 장치(108)로 전송하고, 장치(108)는 그에 응답한다. 이 단계는 명령이 (단계(314)에서 서버로 전송된) 사용자 상호작용 파라미터에 기초할 수 있기 때문에 적절하고, 장치(108)에 의한 특정 응답은 또한 사용자 상호작용 파라미터에 기초할 수 있다.
실제 시나리오에서, 도 3의 단계는 중첩 방식으로 반복적으로 및 가능하게 수행될 수 있다. 사용자의 관심 프로파일은 항상 모니터되고, 변화가 주목될 때, 이 변화는 사용자 인터페이스(204) 및 애플리케이션에 대한 변화를 유발할 수 있는 사용자 상호작용 파라미터에 대한 변화에 반영된다. 예를 들어, 엔드 사용자 장치(108)는 사용자가 막 린 백 모드로부터 린 포워드 모드로 변경했다는 것에 주목할 수 있다. 린 포워드 모드에서 사용자의 상호작용을 최적화하도록 장치(108)의 사용자 인터페이스(204)를 구성하는 것에 더하여, 장치(108)는 모드 변화에 기초하여 특정한 동작을 취할 수 있다. 장치(108)는 예를 들어 (사용자가 지금 덜 관심을 갖는) 텔레비전 모니터(114) 상에서 재생하는 미디어가 중지되거나 미래의 재생을 위해 기록되는 것을 추천할 수 있다. 특정 린 백 구성 설정이 저장되어 사용자가 모니터(114)에 대하여 관심을 다시 집중하면 다시 시작되도록 할 수 있다.
도 4는 클래스 B 장치에 적용가능한 동작의 방법을 제시한다. 셋탑 박스(112)가 이러한 장치이면, 단계(400)에서, 다른 장치, 가능하게는, 파라미터를 설정하는 클래스 A 엔드 사용자 장치(108)로부터(또는 서버로부터: 이하의 도 5 및 6의 설명을 참조) 사용자 상호작용 파라미터(또는 그 파라미터에 기초한 값)를 수신한다. 수신된 값은 특정 수신 장치(112)에 대하여 맞추어질 수 있다. 예를 들어, 장치(112)에게 사용자의 관심의 전체 프로파일을 전하기보다는, 값은 사용자가 가령, 장치(112)에 대한 자신의 관심의 30%를 기울이는 것으로 간단히 말할 수 있다.
쓸 수 있는(in hand) 파라미터로, 단계(306)에서 장치(112)는 자신의 사용자 인터페이스(204)를 구성한다. 현재 클래스 B 장치(112)는 자신의 사용자 인터페이스(204)를 설정할 때 동일한 고려사항을 적용하기 때문에, 이 단계는 클래스 A 장치(108)의 절차(도 3a)에서 동등한 단계와 동일한 넘버링을 사용한다. 그러한 점을 강조하기 위하여, 단계(402)에서, 클래스 B 장치(112)는 도 3a 및 3b의 선택적 단계(308 내지 318)의 임의의 것 또는 전부를 수행할 수 있다.
요컨대, 도 4의 클래스 B 장치(112)는 사용자 상호작용 파라미터를 실제로 도출하는 것을 제외하고 도 3의 클래스 A 장치(108)가 수행하는 모든 것을 수행할 수 있다. 물론, 상이한 장치가 상이한 제한을 가지고 형성되어, 모든 클래스 B 장치(112)(및 그 점에 대해서, 모든 클래스 A 장치(108))가 모든 선택적 단계(308 내지 318)를 수행하지 않을 수 있다.
일반적으로, 이 클래스 B 장치(112)는 사용자의 관심 프로파일에 관련된 모든 정보를 수집하고 그 정보를 클래스 A 장치(108)로 전송한다는 점에 주목한다. 이 정보는 명시적 사용자 설정, 프로파일 정보, 이력 및 현재 사용자 상호작용 패턴 및 사용자 선호도 및 폴리시를 포함할 수 있다. 이것은 도 3a의 단계(302)에 관련하여 상술하였다. 클래스 A 장치(108)는 도 3a의 단계(304)에서 사용자 상호작용 파라미터를 설정할 때 이 정보를 이용한다.
클래스 Y 서버(104)는 도 5의 예시적인 방법에 따라 동작할 수 있다. 단계(500)에서, 서버(104)는 아마도 파라미터를 산출한 클래스 A 엔드 사용자 장치(108)로부터(또는 클래스 Z 서버로부터: 도 6 및 수반되는 설명 참조) 사용자 상호작용 파라미터(또는 그에 기초한 값)를 수신한다. 일부 상황에서, 1보다 많은 엔드 사용자 장치(108, 112, 114, 116)가 클래스 A 장치이고, 이 경우, 단계(500)에서 서버(104)가 다수의 사용자 상호작용 파라미터를 수신할 수 있다.
단계(502)에서 서버(104)는 또한 사용자 상호작용 파라미터, 컨텍스트 정보 및 전송 장치가 사용자 상호작용 파라미터에 어떻게 응답하는지에 대한 정보를 전송하는 장치의 식별 정보 등의 다른 관련된 정보를 수신할 수 있다. (도 3b의 단계(316)의 설명을 참조한다.)
단계(500 및 502)에서 수신된 정보에 기초하여, 단계(504)에서 서버(104)는 메시지를 엔드 사용자 장치(108, 112, 114, 116)로 전송한다. 예를 들어, 메시지는 클래스 B 장치(112)에 충분한 정보를 제공하여 장치(112)가 그의 사용자 인터페이스(204)를 구성할 수 있다. 클래스 C 엔드 사용자 장치에 대하여, 메시지는 그의 사용자 인터페이스(204)를 구성하는 방법을 장치에게 정확하게 전하도록 더 명시적일 수 있다. (클래스 C 장치는 사용자 상호작용 파라미터에 응답하는 방법을 모르는 것에 유념하지만, 그 사용자 인터페이스(204)는 여전히 적절하게 구성가능하다.) 즉, 사용자가 린 백 모드에 있다는 것이 클래스 B 장치(112)에 전해질 수 있고, 그에 따라서, 클래스 B 장치(112)는 사용자 인터페이스(204)를 구성한다. 반면에, 클래스 C 장치에는 사용자의 린 백을 수용하도록 자신의 사용자 인터페이스(204)를 구성하는 명시적 명령이 주어진다. 상이한 클래스 B 및 C 장치는 상이한 제한을 갖지만, 대부분의 일반적인 경우, 클래스 A 장치(108)가 자체를 구성하는 것처럼 많은 방식으로 구성될 수 있다. (도 3a의 단계(306)의 설명을 참조한다.)
단계(504)에서 서버(104)는 구성 메시지 이외의 메시지를 전송할 수 있다. 서버(104)는 단계(500 및 502)에서 수신된 정보에 기초하여 미디어 콘텐츠 또는 애플리케이션을 선택하여 단계(504)에서 그것을 전송할 수 있다.
마지막으로, 도 6은 클래스 Z 서버(106)에 대한 방법을 제시한다. 방법은, 서버(106)가 다수의 사용자 장치(108, 112, 114, 116)로부터 관심 정보를 수신하는 단계(600 및 602)에서 시작한다. 이것은 도 3a의 단계(302)에서 클래스 A 장치(108)가 수신한 동일한 종류의 정보이다. 단계(604)에서, 서버(106)는 또한 도 5의 단계(502)와 관련하여 상술한 정보 등의 추가의 정보를 엔드 사용자 장치(108, 112, 114, 116)로부터 수신할 수 있다.
그 후, 단계(606)에서, 서버(106)는 이용가능한 모든 정보에 기초하여 사용자 상호작용 파라미터를 설정한다. 여기서, 서버(106)는 클래스 A 장치(108)가 도 3a의 단계(304)에서 사용하는 절차의 많은 부분을 이용할 수 있다.
이제 사용자 상호작용 파라미터가 설정되었으므로, 서버(106)는 단계(608)에서 (상술한) 도 5의 단계(504)에서 클래스 Y 서버(104)가 수행한 것처럼 엔드 사용자 장치(108, 112, 114, 116) 중의 하나 이상과 통신을 진행한다.
상기 설명은 장치를 A, B, C, Y 및 Z 클래스로 분명하게 분리한다. 장치가 하나의 상황에서 하나의 클래스로 동작하는 동안, 다른 상황에서, 동일한 장치가 다른 클래스로 동작할 수 있음을 유념하는 것이 중요하다. 또한, 임의의 장치로부터 이용가능한 임의의 정보는 이론적으로 사용자 상호작용 파라미터의 설정에서의 입력으로서 유용해질 수 있다.
본 발명의 원리가 적용될 수 있는 많은 가능한 실시예를 고려하여, 도면을 참조하여 여기에 기재된 실시예는 단지 예시적인 것이며 본 발명의 범위를 제한하는 것을 의미하지 않는다는 것을 인식해야 한다. 예를 들어, 다양한 클래스의 다수의 장치는 모두 함께 동작하여 사용자 상호작용 파라미터를 설정하고 일단 설정되면 그 파라미터에 응답할 수 있다. 그러므로, 여기에 기재된 본 발명은 다음의 청구범위 및 그 동등물의 범위 내에 있는 이러한 모든 실시예를 고려한다.

Claims (11)

  1. 사용자가 제1 미디어 소비 장치(media-consumption device)(108, 112, 114, 116) 및 제2 미디어 소비 장치(108, 112, 114, 116) 양자에 대해 액세스하고 상기 2개의 장치들(108, 112, 114, 116)은 구별되는 통신 환경(100)에서, 상기 제1 장치 및 제2 장치(108, 112, 114, 116)와 구별되는 서버(104, 106)가 다수의 사용자 상호작용 모드(multiple user-interaction mode)들을 지원하는 방법으로서,
    상기 서버(104, 106)에 의해 상기 제1 장치(108, 112, 114, 116)로부터 사용자 상호작용 파라미터를 수신하는 단계(500); 및
    상기 서버(104, 106)에 의해 메시지를 수신 장치(108, 112, 114, 116)로 전송하는 단계(504) - 상기 메시지는 상기 수신된 사용자 상호작용 파라미터에 적어도 부분적으로 기초함 -
    를 포함하고,
    상기 수신 장치(108, 112, 114, 116)는 상기 제1 장치(108, 112, 114, 116) 및 상기 제2 장치(108, 112, 114, 116)로 구성되는 그룹으로부터 선택되는, 방법.
  2. 제1항에 있어서,
    상기 메시지는 상기 수신 장치 상에 사용자 인터페이스를 구성(configure)하도록 지시하며, 상기 구성은 장치가 상기 사용자 상호작용 파라미터에 적어도 부분적으로 기초하는, 방법.
  3. 제2항에 있어서,
    상기 사용자 상호작용 파라미터는 린 포워드(lean-forward)로 설정되고,
    상기 사용자 인터페이스를 구성하는 것은 키보드 입력 및 디스플레이 출력을 가능하게 하는 것을 포함하는, 방법.
  4. 제2항에 있어서,
    상기 사용자 상호작용 파라미터는 린 백(lean-back)으로 설정되고,
    상기 사용자 인터페이스를 구성하는 것은 센서 입력을 가능하게 하는 것을 포함하고, 상기 센서는 터치 센서, 마이크로폰, 모션 센서, 카메라 및 위치 센서로 구성되는 그룹으로부터 선택되는, 방법.
  5. 제2항에 있어서,
    상기 사용자 인터페이스를 구성하는 것은 상기 사용자 인터페이스의 디스플레이 양식(display modality)을 설정하는 것을 포함하는, 방법.
  6. 제1항에 있어서,
    상기 서버에 의해 미디어 콘텐츠를 선택하는 단계
    를 더 포함하고,
    상기 메시지는 상기 선택된 미디어 콘텐츠를 포함하고,
    상기 선택하는 단계는 상기 수신된 사용자 상호작용 파라미터에 적어도 부분적으로 기초하는, 방법.
  7. 제1항에 있어서,
    상기 서버에 의해 활동(activity)을 선택하는 단계
    를 더 포함하고,
    상기 메시지는 상기 선택된 활동을 수행하라는 명령을 포함하고,
    상기 선택하는 단계는 상기 수신된 사용자 상호작용 파라미터에 적어도 부분적으로 기초하는, 방법.
  8. 제1항에 있어서,
    상기 서버에 의해 상기 제1 장치로부터 추가의 정보를 수신하는 단계
    를 더 포함하고,
    상기 메시지는 또한 상기 수신된 추가의 정보에 적어도 부분적으로 기초하고,
    상기 추가의 정보는 상호작용 컨텍스트 정보(interaction-context information), 장치 정보, 상기 제1 장치에 의해 설정된 사용자 인터페이스 구성에 대한 정보, 및 상기 제1 장치에 의해 상기 사용자 상호작용 파라미터에 적어도 부분적으로 기초하여 행해진 선택에 관한 정보로 구성되는 그룹으로부터 선택되는, 방법.
  9. 사용자가 제1 미디어 소비 장치(108, 112, 114, 116) 및 제2 미디어 소비 장치(108, 112, 114, 116) 양자에 대해 액세스하고 상기 2개의 장치들(108, 112, 114, 116) 및 서버(104, 106)가 모두 구별되는 통신 환경(100)에서 다수의 사용자 상호작용 모드들을 지원하도록 구성되는 서버(104, 106)로서,
    상기 제1 장치(108, 112, 114, 116)로부터 사용자 상호작용 파라미터를 수신(500)하도록 구성되는 트랜스시버(200); 및
    상기 트랜스시버(200)에 연결되어 동작하는 프로세서(202)
    를 포함하며, 상기 프로세서(202)는,
    상기 트랜스시버를 통해 메시지를 수신 장치(108, 112, 114, 116)로 전송(504)하도록 구성되고, 상기 메시지는 상기 수신된 사용자 상호작용 파라미터에 적어도 부분적으로 기초하며, 상기 수신 장치(108, 112, 114, 116)는 상기 제1 장치(108, 112, 114, 116) 및 상기 제2 장치(108, 112, 114, 116)로 구성되는 그룹으로부터 선택되는, 서버.
  10. 사용자가 제1 미디어 소비 장치(108, 112, 114, 116) 및 제2 미디어 소비 장치(108, 112, 114, 116) 양자에 대해 액세스하고 상기 2개의 장치들(108, 112, 114, 116)이 구별되는 통신 환경(100)에서, 상기 제1 장치 및 제2 장치(108, 112, 114, 116)와 구별되는 서버(104, 106)가 다수의 사용자 상호작용 모드를 지원하는 방법으로서,
    상기 서버(104, 106)에 의해 상기 제1 장치(108, 112, 114, 116)로부터 상기 제1 장치(108, 112, 114, 116)에 주어진 관심(attention)의 양과 연관된 제1 정보를 수신하는 단계(600);
    상기 서버(104, 106)에 의해 상기 제2 장치(108, 112, 114, 116)로부터 상기 제2 장치(108, 112, 114, 116)에 주어진 관심의 양과 연관된 제2 정보를 수신하는 단계(602);
    수신된 제1 관심 정보 및 제2 관심 정보에 적어도 부분적으로 기초하여, 수신 장치(108, 112, 114, 116)에 대한 사용자 상호작용 파라미터를 설정하는 단계(606); 및
    상기 서버(104, 106)에 의해 메시지를 상기 수신 장치(108, 112, 114, 116)로 전송하는 단계 - 상기 메시지는 상기 사용자 상호작용 파라미터에 적어도 부분적으로 기초함 - (608)
    를 포함하고,
    상기 수신 장치(108, 112, 114, 116)는 상기 제1 장치(108, 112, 114, 116) 및 상기 제2 장치(108, 112, 114, 116)로 구성되는 그룹으로부터 선택되는, 방법.
  11. 사용자가 제1 미디어 소비 장치(108, 112, 114, 116) 및 제2 미디어 소비 장치(108, 112, 114, 116) 양자에 대해 액세스하고 상기 2개의 장치들(108, 112, 114, 116) 및 서버(104, 106)가 모두 구별되는 통신 환경(100)에서 다수의 사용자 상호작용 모드들을 지원하도록 구성되는 서버(104, 106)로서,
    상기 제1 장치(108, 112, 114, 116)로부터 상기 제1 장치(108, 112, 114, 116)에 주어진 관심의 양과 연관된 제1 정보를 수신(600)하고, 상기 제2 장치(108, 112, 114, 116)로부터 상기 제2 장치(108, 112, 114, 116)에 주어진 관심의 양과 연관된 제2 정보를 수신(602)하도록 구성되는 트랜스시버(200); 및
    상기 트랜스시버(200)에 연결되어 동작하는 프로세서(202)
    를 포함하며, 상기 프로세서(202)는,
    수신된 제1 관심 정보 및 제2 관심 정보에 적어도 부분적으로 기초하여 수신 장치(108, 112, 114, 116)에 대한 사용자 상호작용 파라미터를 설정(606)하고,
    상기 트랜스시버(200)를 통해 메시지는 상기 수신 장치(108, 112, 114, 116)로 전송(608)하도록 구성되며,
    상기 메시지는 상기 사용자 상호작용 파라미터에 적어도 부분적으로 기초하고, 상기 수신 장치(108, 112, 114, 116)는 상기 제1 장치(108, 112, 114, 116) 및 상기 제2 장치(108, 112, 114, 116)로 구성되는 그룹으로부터 선택되는, 서버.
KR1020147019142A 2011-12-15 2012-11-16 다수 관심 기반 사용자 상호작용 모드 지원 KR101655002B1 (ko)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US13/326,574 2011-12-15
US13/326,574 US9554185B2 (en) 2011-12-15 2011-12-15 Supporting multiple attention-based, user-interaction modes
PCT/US2012/065410 WO2013089965A1 (en) 2011-12-15 2012-11-16 Supporting multiple attention-based, user-interaction modes

Publications (2)

Publication Number Publication Date
KR20140101428A true KR20140101428A (ko) 2014-08-19
KR101655002B1 KR101655002B1 (ko) 2016-09-06

Family

ID=47295190

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020147019142A KR101655002B1 (ko) 2011-12-15 2012-11-16 다수 관심 기반 사용자 상호작용 모드 지원

Country Status (7)

Country Link
US (1) US9554185B2 (ko)
EP (1) EP2792156B1 (ko)
KR (1) KR101655002B1 (ko)
CN (1) CN104115502B (ko)
CA (1) CA2859540C (ko)
MX (1) MX342114B (ko)
WO (1) WO2013089965A1 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20180091826A (ko) * 2015-10-30 2018-08-16 차이나 모바일 커뮤니케이션즈 그룹 컴퍼니 리미티드 인터랙티브 애플리케이션을 트리거하는 방법 및 장치

Families Citing this family (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8763042B2 (en) 2012-10-05 2014-06-24 Motorola Mobility Llc Information provision
US9544647B2 (en) 2012-11-21 2017-01-10 Google Technology Holdings LLC Attention-based advertisement scheduling in time-shifted content
US9729920B2 (en) 2013-03-15 2017-08-08 Arris Enterprises, Inc. Attention estimation to control the delivery of data and audio/video content
US9693030B2 (en) 2013-09-09 2017-06-27 Arris Enterprises Llc Generating alerts based upon detector outputs
BR112016006860B8 (pt) 2013-09-13 2023-01-10 Arris Entpr Inc Aparelho e método para criar um único fluxo de dados de informações combinadas para renderização em um dispositivo de computação do cliente
US20190026212A1 (en) * 2013-10-04 2019-01-24 Verto Analytics Oy Metering user behaviour and engagement with user interface in terminal devices
US9361005B2 (en) 2013-12-27 2016-06-07 Rovi Guides, Inc. Methods and systems for selecting modes based on the level of engagement of a user
DE102014211882A1 (de) * 2014-06-20 2015-12-24 Robert Bosch Gmbh Verfahren zur Ermittlung der Herzfrequenz des Fahrers eines Fahrzeugs
KR102300435B1 (ko) 2015-01-09 2021-09-09 삼성전자주식회사 디스플레이 장치 및 디스플레이 방법
US10097882B2 (en) 2015-08-11 2018-10-09 Arris Enterprises Llc Back-end content analysis system to initiate second-screen confirmation
US9628839B1 (en) 2015-10-06 2017-04-18 Arris Enterprises, Inc. Gateway multi-view video stream processing for second-screen content overlay
US10404697B1 (en) 2015-12-28 2019-09-03 Symantec Corporation Systems and methods for using vehicles as information sources for knowledge-based authentication
US10326733B2 (en) 2015-12-30 2019-06-18 Symantec Corporation Systems and methods for facilitating single sign-on for multiple devices
US10116513B1 (en) 2016-02-10 2018-10-30 Symantec Corporation Systems and methods for managing smart building systems
US10375114B1 (en) 2016-06-27 2019-08-06 Symantec Corporation Systems and methods for enforcing access-control policies
US10462184B1 (en) 2016-06-28 2019-10-29 Symantec Corporation Systems and methods for enforcing access-control policies in an arbitrary physical space
US10469457B1 (en) 2016-09-26 2019-11-05 Symantec Corporation Systems and methods for securely sharing cloud-service credentials within a network of computing devices
US10812981B1 (en) 2017-03-22 2020-10-20 NortonLifeLock, Inc. Systems and methods for certifying geolocation coordinates of computing devices
US11310296B2 (en) * 2018-11-06 2022-04-19 International Business Machines Corporation Cognitive content multicasting based on user attentiveness

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09244781A (ja) * 1996-03-12 1997-09-19 Hitachi Ltd 環境適合情報アクセス方法
KR20020084232A (ko) * 2001-01-23 2002-11-04 소니 가부시끼 가이샤 통신 장치 및 통신 방법, 전자 기기 및 그 제어 방법 및기억 매체
US20060192775A1 (en) * 2005-02-25 2006-08-31 Microsoft Corporation Using detected visual cues to change computer system operating states
US20090320073A1 (en) * 2002-05-10 2009-12-24 Richard Reisman Method and Apparatus for Browsing Using Multiple Coordinated Device Sets

Family Cites Families (51)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6889382B1 (en) 1999-07-27 2005-05-03 Mediaone Group, Inc. Remote TV control system
US20020173721A1 (en) 1999-08-20 2002-11-21 Novasonics, Inc. User interface for handheld imaging devices
US20020026359A1 (en) 2000-02-22 2002-02-28 Long Kenneth W. Targeted advertising method and system
US7908172B2 (en) 2000-03-09 2011-03-15 Impulse Radio Inc System and method for generating multimedia accompaniments to broadcast data
US20020144259A1 (en) 2001-03-29 2002-10-03 Philips Electronics North America Corp. Method and apparatus for controlling a media player based on user activity
US7409423B2 (en) 2001-06-28 2008-08-05 Horvitz Eric J Methods for and applications of learning and inferring the periods of time until people are available or unavailable for different forms of communication, collaboration, and information access
US7158943B2 (en) 2001-09-04 2007-01-02 Ramon Van Der Riet Marketing communication and transaction/distribution services platform for building and managing personalized customer relationships
US7284201B2 (en) 2001-09-20 2007-10-16 Koninklijke Philips Electronics N.V. User attention-based adaptation of quality level to improve the management of real-time multi-media content delivery and distribution
US7289606B2 (en) 2001-10-01 2007-10-30 Sandeep Sibal Mode-swapping in multi-modal telephonic applications
US7383283B2 (en) 2001-10-16 2008-06-03 Joseph Carrabis Programable method and apparatus for real-time adaptation of presentations to individuals
US20030097659A1 (en) 2001-11-16 2003-05-22 Goldman Phillip Y. Interrupting the output of media content in response to an event
US20030018969A1 (en) 2002-06-21 2003-01-23 Richard Humpleman Method and system for interactive television services with targeted advertisement delivery and user redemption of delivered value
US7365651B2 (en) 2002-08-20 2008-04-29 Motorola, Inc. Method and apparatus for selecting a user interface
US7460940B2 (en) 2002-10-15 2008-12-02 Volvo Technology Corporation Method and arrangement for interpreting a subjects head and eye activity
JP4261895B2 (ja) 2002-12-13 2009-04-30 キヤノン株式会社 デジタル放送受信機及びデジタル放送受信機の制御方法
JP2005013713A (ja) 2003-04-30 2005-01-20 National Institute Of Information & Communication Technology 注意機能の測定と学習方法及び装置
US8214256B2 (en) 2003-09-15 2012-07-03 Time Warner Cable Inc. System and method for advertisement delivery within a video time shifting architecture
US20050099492A1 (en) 2003-10-30 2005-05-12 Ati Technologies Inc. Activity controlled multimedia conferencing
US8429696B2 (en) 2003-10-31 2013-04-23 Microsoft Corporation Multimedia presentation resumption within an environment of multiple presentation systems
US8232962B2 (en) 2004-06-21 2012-07-31 Trading Technologies International, Inc. System and method for display management based on user attention inputs
US20070005752A1 (en) 2005-06-29 2007-01-04 Jitendra Chawla Methods and apparatuses for monitoring attention of a user during a collaboration session
US7689167B2 (en) 2005-07-22 2010-03-30 Intel Corporation Methods and apparatus for operating an ensemble of wireless electronic devices based on user activity
US20070094083A1 (en) 2005-10-25 2007-04-26 Podbridge, Inc. Matching ads to content and users for time and space shifted media network
US20080127246A1 (en) 2006-09-14 2008-05-29 Nortel Networks Limited Digital media recorder based advertising
US7890849B2 (en) 2006-09-15 2011-02-15 Microsoft Corporation Concurrent presentation of media and related content lists
US8467445B2 (en) 2007-01-12 2013-06-18 Civolution B.V. Video watermarking
US7743075B2 (en) 2007-03-23 2010-06-22 Research In Motion Limited Method and system for orchestration of content processing in mobile delivery frameworks
US20080243610A1 (en) 2007-03-28 2008-10-02 Microsoft Corporation Attention estimation through incremental impression interaction for precise advertisement monetization
US8185581B2 (en) 2009-05-19 2012-05-22 Nholdings Sa Providing a local device with computing services from a remote host
US8381122B2 (en) 2007-06-08 2013-02-19 Apple Inc. Multi-dimensional application environment
US20090132276A1 (en) 2007-11-13 2009-05-21 Petera Michael G Methods and systems for clinical documents management by vocal interaction
US20090132339A1 (en) 2007-11-21 2009-05-21 Microsoft Corporation Signature-Based Advertisement Scheduling
EP2243293B1 (en) 2008-02-13 2013-08-14 NDS Limited Advertisement shifting system
US8060904B1 (en) 2008-02-25 2011-11-15 Qurio Holdings, Inc. Dynamic load based ad insertion
WO2009142624A1 (en) 2008-05-20 2009-11-26 Hewlett-Packard Development Company, L.P. User interface modifier
US20080276270A1 (en) 2008-06-16 2008-11-06 Chandra Shekar Kotaru System, method, and apparatus for implementing targeted advertising in communication networks
US8737916B2 (en) 2008-07-21 2014-05-27 Samsung Electronics Co., Ltd. Metadata display control method and system for broadcast receiver
US8763020B2 (en) 2008-10-14 2014-06-24 Cisco Technology, Inc. Determining user attention level during video presentation by monitoring user inputs at user premises
WO2010112072A1 (en) 2009-04-01 2010-10-07 Telefonaktiebolaget Lm Ericsson (Publ) Method and system for managing television adverts in time shifted broadcast content
EP2242259A1 (en) 2009-04-16 2010-10-20 Panasonic Corporation Content recommendation
US20120102233A1 (en) 2009-05-27 2012-04-26 Ajay Shah Synchronized delivery of interactive content using standardized vectors
US8875168B2 (en) 2009-07-30 2014-10-28 Avaya Inc. Audio/Video monitoring service using set-top boxes and application servers
EP2478697B1 (en) 2009-09-15 2020-04-08 InterDigital CE Patent Holdings Method and device for providing complementary information
US8572753B2 (en) 2009-12-22 2013-10-29 Ncr Corporation Methods and apparatus for selecting and delivering content
US9668030B2 (en) 2010-04-28 2017-05-30 Qualcomm Incorporated Synchronization of interactivity with linear advertisement in a mobile broadcast network
US20130144709A1 (en) 2011-12-05 2013-06-06 General Instrument Corporation Cognitive-impact modeling for users having divided attention
US20130160036A1 (en) 2011-12-15 2013-06-20 General Instrument Corporation Supporting multiple attention-based, user-interaction modes
US8763042B2 (en) 2012-10-05 2014-06-24 Motorola Mobility Llc Information provision
US9544647B2 (en) 2012-11-21 2017-01-10 Google Technology Holdings LLC Attention-based advertisement scheduling in time-shifted content
US20140143043A1 (en) 2012-11-21 2014-05-22 General Instrument Corporation Multi-screen advertisement correlation based on purchases
US8484676B1 (en) 2012-11-21 2013-07-09 Motorola Mobility Llc Attention-based, multi-screen advertisement scheduling

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09244781A (ja) * 1996-03-12 1997-09-19 Hitachi Ltd 環境適合情報アクセス方法
KR20020084232A (ko) * 2001-01-23 2002-11-04 소니 가부시끼 가이샤 통신 장치 및 통신 방법, 전자 기기 및 그 제어 방법 및기억 매체
US20090320073A1 (en) * 2002-05-10 2009-12-24 Richard Reisman Method and Apparatus for Browsing Using Multiple Coordinated Device Sets
US20060192775A1 (en) * 2005-02-25 2006-08-31 Microsoft Corporation Using detected visual cues to change computer system operating states

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20180091826A (ko) * 2015-10-30 2018-08-16 차이나 모바일 커뮤니케이션즈 그룹 컴퍼니 리미티드 인터랙티브 애플리케이션을 트리거하는 방법 및 장치
US10511396B2 (en) 2015-10-30 2019-12-17 China Mobile Communications Group Co., Ltd. Method and device for triggering interactive application

Also Published As

Publication number Publication date
CN104115502B (zh) 2019-02-12
MX2014007234A (es) 2015-05-15
CN104115502A (zh) 2014-10-22
CA2859540A1 (en) 2013-06-20
US9554185B2 (en) 2017-01-24
MX342114B (es) 2016-09-14
KR101655002B1 (ko) 2016-09-06
EP2792156B1 (en) 2018-04-04
WO2013089965A1 (en) 2013-06-20
EP2792156A1 (en) 2014-10-22
CA2859540C (en) 2017-05-16
US20130159876A1 (en) 2013-06-20

Similar Documents

Publication Publication Date Title
KR101655002B1 (ko) 다수 관심 기반 사용자 상호작용 모드 지원
US20210337246A1 (en) Apparatus and method for aggregating video streams into composite media content
US20130160036A1 (en) Supporting multiple attention-based, user-interaction modes
EP3266190B1 (en) Presenting a message in a communication session
US9866902B2 (en) Social sharing and unlocking of reactions to content
KR102006741B1 (ko) 디바이스의 액티비티 공유 방법 및 시스템
US10169904B2 (en) Systems and methods for presenting intermediaries
US20160029094A1 (en) Enabling interaction between social network users during synchronous display of video channgel
US9288518B2 (en) Information processing system, information processing apparatus, and information processing method
CA2999064A1 (en) Systems and methods for ensuring continued access to media of a playlist for multiple users
US20190272082A1 (en) Personalized timeline presentation
US20160205427A1 (en) User terminal apparatus, system, and control method thereof
US10433011B2 (en) Apparatus and method for providing programming information for media content to a wearable device
KR20110092411A (ko) 네트워크 커뮤니티 제공 장치 및 방법
US9338508B2 (en) Preserving a consumption context for a user session
US20240236404A1 (en) User aware automated content capture and augmentation
WO2022066604A1 (en) Content casting from digital televisions
JP2024510736A (ja) ユーザ定義のコンテンツアウェア動作を可能にする方法
KR20240009467A (ko) 사용자 인식 자동화된 콘텐츠 캡처 및 증강

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right