BR112015032568B1 - METHOD FOR CONTROLLING AT LEAST ONE COMPONENT DEVICE IN A HOME ENTERTAINMENT SYSTEM - Google Patents

METHOD FOR CONTROLLING AT LEAST ONE COMPONENT DEVICE IN A HOME ENTERTAINMENT SYSTEM Download PDF

Info

Publication number
BR112015032568B1
BR112015032568B1 BR112015032568-8A BR112015032568A BR112015032568B1 BR 112015032568 B1 BR112015032568 B1 BR 112015032568B1 BR 112015032568 A BR112015032568 A BR 112015032568A BR 112015032568 B1 BR112015032568 B1 BR 112015032568B1
Authority
BR
Brazil
Prior art keywords
user
event
home entertainment
interface
component devices
Prior art date
Application number
BR112015032568-8A
Other languages
Portuguese (pt)
Other versions
BR112015032568A2 (en
Inventor
Arsham Hatambeiki
Paul D. Arling
Original Assignee
Universal Electronics Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from US13/925,966 external-priority patent/US9137570B2/en
Application filed by Universal Electronics Inc filed Critical Universal Electronics Inc
Priority claimed from PCT/US2014/042687 external-priority patent/WO2014209674A1/en
Publication of BR112015032568A2 publication Critical patent/BR112015032568A2/en
Publication of BR112015032568B1 publication Critical patent/BR112015032568B1/en

Links

Abstract

SISTEMA E MÉTODO PARA MONITORAMENTO DE USUÁRIO E DETERMINAÇÃO DE INTENÇÃO A presente invenção refere-se a interfaces de detecção associadas a um sistema de entretenimento doméstico que são utilizadas para automatizar uma resposta de sistema aos eventos que ocorrem em uma área de visualização associada com o sistema de entretenimento doméstico. Os dados derivados de tais interfaces de detecção também podem ser utilizados para aumentar a prontidão de resposta de um ou mais componentes do sistema. Ademais, a presença de usuário derivados de tais interfaces de detecção podem ser utilizada para capturar e relatar hábitos visualizando hábitos e/ou preferências de visualização do usuário.SYSTEM AND METHOD FOR USER MONITORING AND DETERMINING INTENTION The present invention relates to sensing interfaces associated with a home entertainment system that are used to automate a system response to events that occur in a display area associated with the system. home entertainment. Data derived from such detection interfaces can also be used to increase the responsiveness of one or more system components. Furthermore, user presence derived from such detection interfaces can be used to capture and report user viewing habits and/or viewing preferences.

Description

INFORMAÇÃO DE PEDIDO RELACIONADORELATED ORDER INFORMATION

[0001] Este pedido reivindica o benefício de, e é uma continuação em parte do Pedido US No. 13/758.307, depositado em 4 de fevereiro de 2013, cuja descrição é aqui incorporada por referência em sua totalidade.[0001] This application claims the benefit of, and is a continuation in part of, US Application No. 13/758,307, filed February 4, 2013, the description of which is incorporated herein by reference in its entirety.

FUNDAMENTOS DA INVENÇÃOFUNDAMENTALS OF THE INVENTION

[0002] Sistemas de entretenimento domésticos compostos por vários aparelhos e/ou os dispositivos de controle utilizados para emitir comandos para tais aparelhos podem ser fornecidos com dispositivos para detectar a presença de usuário e/ou interação com o usuário através de métodos tais como reconhecimento de gestos, voz falada e facial, análise espacial, etc., como é conhecido na técnica. Ademais, a crescente utilização de dispositivos de comunicação pessoal tais como smartphones, computadores tablet, etc., pode fornecer meios adicionais para a identificação da presença de usuário através da detecção de tais dispositivos de comunicação pessoal em uma rede local sem fio tal como uma rede Wi-Fi, uma rede Bluetooth, etc. Enquanto várias fontes de mídia e vários dispositivos de renderização de mídia podem ser acoplados em muitos desses sistemas de entretenimento doméstico através de um aparelho de roteamento central tal como um receptor AV, aparelho de conexão à internet via TV, smart TV, etc., não há sistemas ou métodos existentes atualmente para o uso da detecção de presença do usuário e/ou detecção de interação isoladamente ou em conjunto com um aparelho de roteamento central para fornecer funcionalidades do sistema de entretenimento doméstico aprimoradas.[0002] Home entertainment systems composed of several appliances and/or the control devices used to issue commands to such appliances may be provided with devices to detect the presence of the user and/or interaction with the user through methods such as recognition of gestures, spoken and facial voice, spatial analysis, etc., as is known in the art. Furthermore, the increasing use of personal communication devices such as smartphones, tablet computers, etc., may provide additional means for identifying user presence through detection of such personal communication devices on a wireless local area network such as a wireless network. Wi-Fi, a Bluetooth network, etc. While multiple media sources and multiple media rendering devices can be coupled into many of these home entertainment systems via a centrally routed device such as an AV receiver, internet connection TV device, smart TV, etc., there is no there are currently existing systems or methods for using user presence detection and/or interaction detection alone or in conjunction with a central routing apparatus to provide enhanced home entertainment system functionality.

SUMÁRIO DA INVENÇÃOSUMMARY OF THE INVENTION

[0003] Esta invenção refere-se genericamente a sistemas de entretenimento doméstico e métodos de controle para esse fim e, em particular, para funcionalidades aprimoradas para tais sistemas de entretenimento doméstico que são habilitados pela disponibilidade de métodos de entrada relacionados ao usuário adicionais para tais sistemas. Por exemplo, em um aspecto da invenção, interfaces de detecção tais como uma interface de detecção de imagem (por exemplo, uma interface associada com uma câmera), uma interface de detecção de som (por exemplo, uma interface associada com o microfone), e/ou uma interface para detectar a presença de um dispositivo RF, tal como um smartphone, pode ser usada para automatizar total ou parcialmente uma resposta do sistema aos eventos comuns que podem ocorrer durante uma sessão de visualização de TV, tal como um usuário ou usuários saindo ou entrando na área de visualização, um usuário respondendo a uma chamada telefônica, a detecção de um toque de campainha ou de um alarme de monitoramento de bebê, etc. Em outro aspecto da invenção, os dados derivados de tais interfaces de detecção podem ser utilizados para aprimorar a responsividade de um ou mais componentes do sistema, por exemplo, detectando quando um usuário está chegando em uma unidade de controle remoto física ou preparando um componente para emitir um comando de voz ou gesto. Em ainda outro aspecto da invenção, os dados de presença de usuário derivados de tais interfaces de detecção podem ser utilizados por um aparelho de roteamento central em conjunto com a informação de fluxo de mídia de modo a capturar e relatar hábitos e/ou preferências de visualização de usuário.[0003] This invention relates generally to home entertainment systems and control methods therefor, and in particular to enhanced functionality for such home entertainment systems that are enabled by the availability of additional user-related input methods for such systems. For example, in one aspect of the invention, sensing interfaces such as an image sensing interface (e.g., an interface associated with a camera), a sound sensing interface (e.g., an interface associated with a microphone), and/or an interface to detect the presence of an RF device, such as a smartphone, can be used to fully or partially automate a system response to common events that may occur during a TV viewing session, such as a user or users leaving or entering the viewing area, a user answering a phone call, detection of a ringing doorbell or a baby monitor alarm, etc. In another aspect of the invention, data derived from such sensing interfaces can be used to improve the responsiveness of one or more system components, for example, detecting when a user is arriving at a physical remote control unit or preparing a component for issue a voice command or gesture. In yet another aspect of the invention, user presence data derived from such sensing interfaces can be used by a central routing apparatus in conjunction with media stream information in order to capture and report viewing habits and/or preferences. of user.

[0004] Uma melhor compreensão dos objetivos, vantagens, características, propriedades e relações da invenção será obtida a partir da seguinte descrição detalhada e desenhos em anexo que apresentam modalidades ilustrativas e que são indicativos das várias maneiras nas quais os princípios da invenção podem ser empregados.[0004] A better understanding of the objects, advantages, characteristics, properties and relationships of the invention will be obtained from the following detailed description and attached drawings that present illustrative embodiments and that are indicative of the various ways in which the principles of the invention can be employed .

BREVE DESCRIÇÃO DOS DESENHOSBRIEF DESCRIPTION OF THE DRAWINGS

[0005] Para uma melhor compreensão dos vários aspectos da invenção, referência pode ser feita às modalidades preferenciais mostradas nos desenhos em anexo nos quais:[0005] For a better understanding of the various aspects of the invention, reference can be made to the preferred embodiments shown in the attached drawings in which:

[0006] A Figura 1 ilustra um sistema exemplificativo em que os ensinamentos da presente invenção podem ser utilizados.[0006] Figure 1 illustrates an exemplary system in which the teachings of the present invention can be used.

[0007] A Figura 2 ilustra um sistema exemplificativo adicional em que os ensinamentos da presente invenção podem ser utilizados.[0007] Figure 2 illustrates a further exemplary system in which the teachings of the present invention can be used.

[0008] A Figura 3 ilustra, na forma de diagrama de blocos, uma arquitetura de hardware exemplificativa para um aparelho que pode ser uma parte componente dos sistemas ilustrados nas Figuras 1 e 2.[0008] Figure 3 illustrates, in block diagram form, an exemplary hardware architecture for a device that can be a component part of the systems illustrated in Figures 1 and 2.

[0009] A Figura 4 ilustra, em forma de diagrama de blocos, uma arquitetura de software exemplificativa para o aparelho ilustrativo da Figura 3.[0009] Figure 4 illustrates, in block diagram form, an exemplary software architecture for the device shown in Figure 3.

[0010] A Figura 5 ilustra, em forma de fluxograma, a operação de um módulo de processamento de eventos exemplificativo da arquitetura de software ilustrada na Figura 4.[0010] Figure 5 illustrates, in flowchart form, the operation of an exemplary event processing module of the software architecture illustrated in Figure 4.

DESCRIÇÃO DETALHADA DA INVENÇÃODETAILED DESCRIPTION OF THE INVENTION

[0011] Com relação à Figura 1, um sistema de entretenimento doméstico exemplificado em que os métodos da presente invenção podem ser aplicados pode compreender um receptor AV 100, que serve como um hub para direcionar um fluxo de mídia de vídeo e/ou áudio selecionado a partir de um aparelho de origem, tal como, por exemplo, um aparelho de conexão à internet via TV de sistema a cabo ou por satélite e/ou dispositivo DVR (“STB”) 104, um leitor de DVD 106, um leitor de CD 108, ou um console de jogos 110 para um dispositivo de destino, tal como um aparelho de TV 102, onde o fluxo de mídia de áudio e/ou vídeo selecionado será renderizado. Em uma modalidade preferencial, as conexões 130, 132 entre os aparelhos 102 a 110 e receptor AV 100 podem compreender, em geral, conexões para carregar sinais digitais compatíveis com HDMI, embora seja apreciado que outros padrões de interface tal como vídeo componente, áudio PCM, etc., podem ser substituídas onde necessário pelas limitações de um aparelho particular. Em algumas modalidades, os fluxos de conteúdo AV adicionais também podem também estar disponíveis a partir de um serviço de transmissão 118, tal como, por exemplo, Netflix, Vudu, YouTube, NBC online, etc., através de uma rede de área ampla tal como a Internet 116, à qual o receptor AV final 100 pode ser fornecido com uma conexão 112 a um dispositivo de gateway de Internet, tal como, por exemplo, o roteador 114. Como será apreciado, a conexão entre o receptor AV 100 e o dispositivo de gateway de Internet 114 pode por fio como ilustrada, ou pode ser sem fio, por exemplo, uma rede de área local WiFi, conforme o caso. Para suportar chamada telefônica de áudio e/ou vídeo, conferências, etc., e de acordo com certos ensinamentos da presente invenção, um sistema de entretenimento doméstico exemplificado também pode ser fornecido com uma ou mais interfaces de detecção, tais como interfaces associadas com o microfone 120 e a câmera 122, adequado para a captura de eventos audíveis e/ou visíveis dentro do ambiente do sistema de entretenimento doméstico. Os usuários 124, 126 do sistema de entretenimento ilustrativo podem selecionar o fluxo de mídia sendo atualmente visualizado por meio de qualquer método conveniente tal como através do uso de um controle remoto como é conhecido na técnica, um comando de voz, um gesto, etc. Em algumas modalidades, os dados com relação a essas seleções, incluindo, sem limitação, fonte de mídia, canal, faixa, título, etc., juntamente com a duração de visualização, a presença do usuário, etc. podem ser acumulados e relatados a um servidor de banco de dados 128 para a agregação e a análise dos hábitos e preferências de visualização do usuário como discutido em mais detalhes abaixo.[0011] Referring to Figure 1, an exemplified home entertainment system in which the methods of the present invention can be applied may comprise an AV receiver 100, which serves as a hub for directing a selected video and/or audio media stream from a source device, such as, for example, a cable or satellite Internet connection device and/or DVR ("STB") device 104, a DVD player 106, a CD 108, or a game console 110 to a target device, such as a TV set 102, where the selected audio and/or video media stream will be rendered. In a preferred embodiment, connections 130, 132 between appliances 102 to 110 and AV receiver 100 may generally comprise connections for carrying HDMI-compatible digital signals, although it is appreciated that other interface standards such as component video, PCM audio , etc., can be replaced where necessary by the limitations of a particular device. In some embodiments, additional AV content streams may also be available from a streaming service 118, such as, for example, Netflix, Vudu, YouTube, NBC online, etc., via a wide area network such as such as the Internet 116, to which the final AV receiver 100 may be provided with a connection 112 to an Internet gateway device, such as, for example, the router 114. As will be appreciated, the connection between the AV receiver 100 and the Internet gateway device 114 may be wired as illustrated, or may be wireless, for example, a WiFi local area network, as the case may be. To support audio and/or video telephone calling, conferencing, etc., and in accordance with certain teachings of the present invention, an exemplified home entertainment system may also be provided with one or more sensing interfaces, such as interfaces associated with the microphone 120 and camera 122, suitable for capturing audible and/or visible events within the environment of the home entertainment system. Users 124, 126 of the illustrative entertainment system can select the media stream currently being viewed by any convenient method such as through use of a remote control as is known in the art, a voice command, a gesture, etc. In some embodiments, data with respect to these selections, including, without limitation, media source, channel, track, title, etc., along with viewing duration, user presence, etc. may be accumulated and reported to a database server 128 for the aggregation and analysis of user viewing habits and preferences as discussed in more detail below.

[0012] Voltando agora à Figura 2, em uma segunda modalidade ilustrativa, um dispositivo de TV “smart” 200 pode incorporar tanto funcionalidades de renderização de conteúdo quanto de seleção de fluxo de origem. Nesta configuração, aparelhos locais 104 a 110 podem ser conectados diretamente a várias portas de entrada de TV via 200, por exemplo, conexões HDMI 130. Como é característico do gênero de TV smart, a TV 200 pode também suportar uma conexão 112 para uma rede de área ampla tal como a Internet 116 pela qual o conteúdo AV de transmissão e outros dados podem ser recebidos. Os meios para entrada de comando de usuário na TV 200 e aparelhos 104 a 110 podem assumir a forma de um dispositivo de controle 204, por exemplo, um controle remoto convencional ou um aplicativo de smartphone em comunicação com os aparelhos via qualquer protocolo infravermelho conveniente (IR), de radiofrequência (RF), com fio, ponto a ponto, ou protocolo de rede, como necessário para fazer com que os respectivos aparelhos alvo executem as funções operacionais desejadas. Adicionalmente, em certas modalidades, a entrada de usuário pode também compreender comandos de fala e/ou gesto em lugar de ou suplementar a controlar sinais de dispositivo, sons e gestos que podem ser recebidos pelo microfone 120 e pela câmara 122, processados e decodificados por um dos aparelhos, por exemplo, a TV 200, e quando necessário transmitidos para outros aparelhos alvo via, por exemplo, comandos CEC HDMI, sinais IR ou RF, etc., como descrito, por exemplo, no Pedido de Patente Copendente US 13/657.176 “System and Method for Optimized Appliance Control”, de propriedade comum e incorporado aqui por referência em sua totalidade.[0012] Returning now to Figure 2, in a second illustrative embodiment, a "smart" TV device 200 can incorporate both content rendering functionality and source stream selection. In this configuration, local devices 104 to 110 can be directly connected to various TV input ports via 200, for example HDMI connections 130. As is characteristic of the smart TV genre, the TV 200 can also support a 112 connection to a network area such as the Internet 116 over which streaming AV content and other data can be received. The means for user command input to TV 200 and appliances 104 to 110 may take the form of a control device 204, for example a conventional remote control or a smartphone application communicating with the appliances via any convenient infrared protocol ( IR), radio frequency (RF), wired, point-to-point, or network protocol, as necessary to cause the respective target devices to perform the desired operational functions. Additionally, in certain embodiments, user input may also comprise speech and/or gesture commands in lieu of or in addition to controlling device signals, sounds and gestures that may be received by microphone 120 and camera 122, processed and decoded by one of the devices, for example the TV 200, and when necessary transmitted to other target devices via, for example, CEC HDMI commands, IR or RF signals, etc., as described, for example, in Copending Patent Application US 13/ 657,176 “System and Method for Optimized Appliance Control,” commonly owned and incorporated herein by reference in its entirety.

[0013] Para abreviar, as discussões que se seguem serão geralmente com relação à configuração do equipamento exemplificativo da Figura 2, entendendo-se, no entanto, que em outras modalidades, por exemplo, as ilustradas na Figura 1, as etapas dos métodos aqui apresentados podem ser realizadas, com as mudanças necessárias, por vários aparelhos ou combinações de aparelhos, conforme apropriado para uma configuração de equipamento particular.[0013] For brevity, the discussions that follow will generally be in relation to the configuration of the exemplary equipment in Figure 2, it being understood, however, that in other modalities, for example, those illustrated in Figure 1, the steps of the methods here presented can be performed, with necessary changes, by various apparatus or combinations of apparatus, as appropriate for a particular equipment configuration.

[0014] Como ilustrado na Figura 3, um aparelho de roteamento central exemplificado, tal como aparelho de smart TV 200, pode incluir, conforme necessário para uma aplicação particular, capacidades de renderização, por exemplo, processador de mídia e mecanismo de TV 300 (sendo apreciado que este pode compreender um ou mais do que um processador físico, dependendo da modalidade particular); memória 302 que pode compreender qualquer tipo de mídia de leitura/escrita, tais como RAM, ROM, FLASH, EEPROM, disco rígido, um disco óptico, etc., ou uma combinação destes; uma interface USB 304; interface e portas de entrada AV digitais 306, por exemplo, DVI ou HDMI; interface e portas de entrada AV analógicas 308, por exemplo, composto ou vídeo componente com áudio analógico associado; uma interface Ethernet e/ou WiFi 310; uma interface Bluetooth 328; uma interface de câmera digital 312 com câmera associada 122 que pode ser conectada externamente ou construída no gabinete da TV 200; uma interface de microfone 314 com microfone associado 120, que pode ser conectada externamente ou construída no gabinete de TV 200; uma interface de controle remoto 316 para receber comandos operacionais iniciados pelo usuário via sinais IR ou RF 326; uma saída de tela 318 conectada à tela de TV 322; e uma saída de áudio 320 conectada a alto-falantes internos ou externos 324.[0014] As illustrated in Figure 3, an exemplified core routing appliance, such as smart TV appliance 200, may include, as needed for a particular application, rendering capabilities, e.g., media processor and TV engine 300 ( it being appreciated that this may comprise one or more than one physical processor, depending on the particular embodiment); memory 302 which may comprise any type of read/write media, such as RAM, ROM, FLASH, EEPROM, hard disk, an optical disk, etc., or a combination thereof; a USB interface 304; 306 digital AV interface and input ports, eg DVI or HDMI; 308 analog AV interface and input ports, eg, composite or component video with associated analog audio; an Ethernet interface and/or WiFi 310; a Bluetooth interface 328; a digital camera interface 312 with associated camera 122 which may be externally connected or built into the TV cabinet 200; a microphone interface 314 with associated microphone 120, which may be externally connected or built into the TV cabinet 200; a remote control interface 316 for receiving user-initiated operational commands via IR or RF signals 326; a screen output 318 connected to the TV screen 322; and an audio output 320 connected to internal or external speakers 324.

[0015] Para fazer com que o aparelho de smart TV 200 execute uma ação, as instruções de programação apropriadas podem ser armazenadas na memória 302 (em seguida a “programação de TV”) para execução pelo processador(es) de mídia e mecanismo de TV 300. Uma arquitetura exemplificada para tal programação de TV é apresentada na Figura 4. Como ilustrado, a programação de TV exemplificada pode incluir, conforme necessário para uma aplicação particular, um sistema operacional subjacente 402, tal como, por exemplo LINUX, que pode suportar um conjunto de módulos de software implementando as várias funcionalidades dispositivo de smart TV. Esses módulos de software podem incluir uma camada de abstração de hardware 404 para fornecer uma interface independente de dispositivo entre os vários módulos de software de aplicativo e os módulos de software dependentes de hardware, tal como acionador de saída de vídeo 406, acionador de saída de áudio 408, interface HDMI 410, entrada/saída analógica ADC/DAC 412, interface WiFi e/ou Ethernet 414, interface Bluetooth 416; interface USB 418, interface de controle remoto 420, e acionadores de câmera e microfone 422 e 423. Os módulos de aplicativo exemplificados que residem acima da camada de abstração 404 podem incluir, conforme necessário para uma modalidade particular de gerenciamento de interface e protocolo de camada de sessão e transporte 428; gerenciamento de saída AV 424; processamento e roteamento de entrada/saída 440; um módulo de serviços diversos 426 para suportar legenda oculta, configuração de exibição, OSD, etc.; decodificador de comando de controle remoto 430; e gerenciamento de recursos de dispositivo 442. Adicionalmente, de acordo com os ensinamentos desta invenção, a programação de TV exemplificada pode incluir módulos detectores de eventos de áudio e visuais 432, 434, por exemplo, mecanismos de reconhecimento de imagem e/ou voz ou similares; processamento de eventos de usuário 436; e módulo de relatório e reunião de estatísticas de usuário 438.[0015] To cause the smart TV set 200 to perform an action, the appropriate programming instructions can be stored in memory 302 (hereinafter "TV programming") for execution by the media processor(s) and streaming engine. TV 300. An exemplary architecture for such TV programming is shown in Figure 4. As illustrated, the exemplary TV programming may include, as needed for a particular application, an underlying operating system 402, such as, for example, LINUX, which can support a set of software modules implementing the various smart TV device functionalities. These software modules may include a hardware abstraction layer 404 to provide a device-independent interface between the various application software modules and hardware-dependent software modules, such as video output trigger 406, video output trigger audio 408, HDMI interface 410, analog ADC/DAC input/output 412, WiFi and/or Ethernet interface 414, Bluetooth interface 416; USB interface 418, remote control interface 420, and camera and microphone triggers 422 and 423. The exemplified application modules that reside above abstraction layer 404 may include, as needed for a particular modality of layer interface and protocol management session and transport 428; AV output management 424; input/output processing and routing 440; a miscellaneous services module 426 to support closed captioning, display configuration, OSD, etc.; remote control command decoder 430; and device resource management 442. Additionally, in accordance with the teachings of this invention, the exemplified TV programming may include audio and visual event detector modules 432, 434, e.g., image and/or voice recognition mechanisms or similar; user event processing 436; and user statistics gathering and reporting module 438.

[0016] Sob o controle de tal programação de TV, o aparelho de smart TV 200 pode, por exemplo, receber um fluxo de mídia AV de entrada a partir de uma das portas de entrada 306, 308 a ser processado, armazenado, separado em componentes de áudio e vídeo, e roteado para as saídas 318, 320 para renderização na tela de TV 322 e alto-falante(s) 324; pode receber comandos a partir da interface de controle remoto 316 que são decodificados e postos em prática, por exemplo, para selecionar um fluxo de mídia de entrada, ajustar o volume de áudio, etc.; pode gerenciar uma conexão com a Internet através de interface WiFi ou Ethernet 310 para habilitar a navegação por conteúdo, transferência de atualizações de software, telefonia com vídeo utilizando entradas a partir da câmera 122 e microfone 120; etc. Adicionalmente, de acordo com os ensinamentos fornecidos aqui, a programação de TV exemplificada pode receber e processar sinais de entrada a partir do dispositivo de controle 204, câmera 122 da câmara e/ou microfone 120 de modo a detectar a presença do usuário, identificar usuários individuais, e/ou receber a entrada de comando de usuário, como será descrito em seguida. Como será apreciado, enquanto na modalidade ilustrativa, a fonte de sinais de entrada de áudio pode compreender um microfone 120 e a interface associada 314 fornecida como parte de um aparelho de smart TV 200, em modalidades alternativas, os sinais de entrada de áudio podem ser capturados por qualquer outro aparelho no sistema e encaminhados para o aparelho 200 para processamento, ou podem se originar de um microfone fornecido em um dispositivo de controle, tal como controle remoto ou aparelho 204, a saída cujo microfone pode, a título de exemplo, ser digitalizada e/ou processada pelo dispositivo de controle 204 encaminhada sem fio para o aparelho de smart TV 200 via a interface de controle remoto 326, a interface WiFi 310, a interface Bluetooth 328, ou quaisquer outros meios adequados para uma implementação particular. Em uma modalidade exemplificada, o módulo de processamento do evento de usuário 436 da programação de TV do aparelho de TV 200 (em seguida “processamento de eventos”) pode atuar como ilustrado no fluxograma da Figura 5 mediante a ocorrência de um evento relacionado ao usuário. Primeiro, na etapa 502, pode ser determinado se o evento constitui no recebimento de um comando de controle remoto, tal como pode ser relatado pelo decodificador de comando de controle remoto 430. Como será apreciado, os comandos de controle remoto podem ser recebidos via qualquer ou toda a interface RC 420 (por exemplo, sinais infravermelhos ou RF4CE ou similares), interface Ethernet/Wi-Fi 414, ou interface Bluetooth 416, dependendo da modalidade particular do dispositivo de controle particular em uso atualmente. Se for determinado que o evento constitui a recepção de um comando de controle remoto, na etapa 540, a operação funcional solicitada pode ser executada. A título de exemplo, sem limitação, tais operações podem incluir o ajuste do volume de áudio de saída a ser executado pelo módulo de gerenciamento de AV 424, a seleção de um novo fluxo de entrada de mídia a ser executado pelo módulo de roteamento e I/O 440, etc. Em algumas modalidades, os comandos do controle remoto recebidos também podem incluir solicitações para direcionar a operação funcional de outros aparelhos conectados, por exemplo, o controle de leitor de DVD 106 ou STB 104 via comandos CEC a serem emitidos pelo módulo de gerenciamento de interface 428 através de conexões HDMI 130; ou, alternativamente, através de um queimador IR conectado ou uma LAN, como descrito, por exemplo, no pedido copendente Pedido de Patente US 13/657.176 “System and Method for Optimized Appliance Control”, de propriedade comum e aqui incorporado por referência em sua totalidade. Mediante a conclusão da função de comando solicitada, na etapa 542, pode ser determinado em seguida se a função de comando que acabou de ser executada compreendida uma mudança no fluxo de mídia sendo renderizado pela TV 200, por exemplo, a seleção de uma nova porta de entrada de 306, 308; uma mudança para o canal de transmissão selecionado ou a reprodução de DVR de STB 104; uma mudança para uma fonte de mídia de internet, etc. Se assim for, na etapa 544, os dados em relação a este evento podem ser conduzidos para o módulo de estatísticas de usuário 438 para registrar e por fim relatar para o servidor de banco de dados 128. Como será apreciado, os dados registrados sobre o novo fluxo de conteúdo podem compreender alguns ou todos os próprios parâmetros de comando, por exemplo, um número de canal de STB e estampa de tempo; itens de metadados podem ser obtidos a partir do dispositivo fonte de conteúdo ou canal, tal como um título de DVD, URL de vídeo, etc.; uma amostra do próprio conteúdo de áudio ou de vídeo para análise, como é conhecido na técnica e descrito, por exemplo, nas Patentes US 7.986.913, 7.627.477 ou 7.346.512; ou quaisquer outros dados que podem ser adequados para propósitos de identificação. Se for determinado que a função executada não compreendeu qualquer mudança no fluxo de mídia atual, na etapa 546, pode em seguida ser determinado se a função executada compreendia um evento relatável, tal como, por exemplo, ligar ou desligar a TV 200 (ou qualquer outro dispositivo conectado), emitir um comando de avanço rápido durante a reprodução de DVR, etc. Se assim for, esse evento também poderá ser relatado ao módulo de estatísticas do usuário 438 para registrar, após o que o processamento do comando de controle remoto está completo. Nesse aspecto, dever-se-ia apreciar que os eventos de aparelho relatáveis, tais como ligar ou desligar um dispositivo acoplado, podem também ser iniciados separadamente, por exemplo, através de comunicação direta com um aparelho a partir de seu próprio controle remoto. Consequentemente, embora não ilustrado, quando tais eventos são detectáveis, por exemplo, via estado de HDMI, ausência ou presença de sinais de áudio ou vídeo, etc., esses eventos podem também ser relatados e registados.[0016] Under the control of such TV programming, the smart TV set 200 can, for example, receive an incoming AV media stream from one of the input ports 306, 308 to be processed, stored, sorted into audio and video components, and routed to outputs 318, 320 for rendering to TV screen 322 and speaker(s) 324; can receive commands from remote control interface 316 that are decoded and acted upon, for example, to select an input media stream, adjust audio volume, etc.; can manage an Internet connection via WiFi or Ethernet interface 310 to enable content browsing, download of software updates, video telephony using inputs from camera 122 and microphone 120; etc. Additionally, in accordance with the teachings provided herein, the exemplified TV programming can receive and process input signals from the control device 204, camera camera 122 and/or microphone 120 in order to detect user presence, identify users individual files, and/or receive user command input, as will be described below. As will be appreciated, while in the illustrative embodiment, the source of audio input signals may comprise a microphone 120 and associated interface 314 provided as part of a smart TV set 200, in alternative embodiments, the audio input signals may be captured by any other apparatus in the system and forwarded to apparatus 200 for processing, or may originate from a microphone provided in a control device, such as remote control or apparatus 204, the output of which microphone may, by way of example, be scanned and/or processed by the control device 204 wirelessly forwarded to the smart TV set 200 via the remote control interface 326, the WiFi interface 310, the Bluetooth interface 328, or any other means suitable for a particular implementation. In an exemplary embodiment, the TV programming user event processing module 436 of the TV set 200 (hereinafter "event processing") can act as illustrated in the flowchart of Figure 5 upon the occurrence of a user related event. . First, at step 502, it may be determined whether the event constitutes the receipt of a remote control command, as may be reported by remote control command decoder 430. As will be appreciated, remote control commands may be received via any or the entire RC 420 interface (eg infrared signals or RF4CE or similar), Ethernet/Wi-Fi interface 414, or Bluetooth interface 416, depending on the particular modality of the particular control device currently in use. If the event is determined to constitute the receipt of a remote control command, at step 540, the requested functional operation may be performed. By way of example, without limitation, such operations may include adjusting the output audio volume to be performed by the AV management module 424, selecting a new media input stream to be performed by the routing module, and I /O 440, etc. In some embodiments, received remote control commands may also include requests to direct the functional operation of other connected apparatus, for example, control DVD player 106 or STB 104 via CEC commands to be issued by interface management module 428 through HDMI 130 connections; or, alternatively, via a connected IR burner or a LAN, as described, for example, in copending application US Patent Application 13/657,176 “System and Method for Optimized Appliance Control”, commonly owned and incorporated herein by reference in its entirety. Upon completion of the command function requested in step 542, it can then be determined whether the command function just executed comprised a change in the media stream being rendered by the TV 200, for example, the selection of a new port input from 306, 308; a switch to the selected broadcast channel or DVR playback from STB 104; a switch to an internet media source, etc. If so, at step 544, data relating to this event may be piped to user statistics module 438 for logging and ultimately reporting to database server 128. As will be appreciated, data logged about the new content stream may comprise some or all of the command parameters themselves, for example, an STB channel number and timestamp; metadata items can be retrieved from the content source device or channel, such as a DVD title, video URL, etc.; a sample of the audio or video content itself for analysis, as known in the art and described, for example, in US Patents 7,986,913, 7,627,477 or 7,346,512; or any other data that may be suitable for identification purposes. If it is determined that the executed function did not comprise any change in the current media stream, at step 546 it can next be determined whether the executed function comprised a reportable event, such as, for example, turning on or off TV 200 (or any connected device), issue a fast forward command during DVR playback, etc. If so, this event can also be reported to user statistics module 438 for logging, after which remote control command processing is complete. In this regard, it should be appreciated that reportable device events, such as turning a docked device on or off, may also be initiated separately, for example, by directly communicating with a device from its own remote control. Consequently, although not illustrated, when such events are detectable, for example via HDMI status, absence or presence of audio or video signals, etc., these events can also be reported and logged.

[0017] Se o evento relatado não é um comando de controle remoto, na etapa 504, o processamento de eventos pode em seguida determinar se o evento relatado constitui um evento de mudança de imagem relatado pelo módulo de detecção de evento visual 432 em resposta à análise de dados de imagem recebidos a partir da câmara 122 via o acionador da câmara 422. Tal processamento de imagem pode utilizar, por exemplo, as técnicas descritas nas Patentes US 5.534.917, 6.829.384, 8.274.535, Publicação de Pedido de Patente WIPO (PCT) WO 2010/057683A1, ou similar, e pode, por exemplo, monitorar periodicamente uma imagem que compreende o campo de visão da câmara 122, de modo a iniciar a análise de imagem, em resposta à detecção de qualquer variação nos dados de imagem que excedam um certo valor limite. Se for determinado que o evento é um relatório de uma mudança de imagem detectada, na etapa 518, é determinado em seguida se o evento compreende a saída ou saída iminente de um usuário a partir do ambiente de visualização da televisão 200. Se assim for, várias ações podem ser realizadas pelo processador de eventos 436, conforme adequado. A título de exemplo, se o usuário de partida é o único visualizador (ou, em algumas modalidades, o usuário primário, por exemplo, o usuário que iniciou a sessão de visualização atual, o usuário que é fornecido dentro do sistema com uma prioridade mais elevada em relação aos usuários restantes, ou similares) no processamento de evento pode ser adaptado para emitir um comando “pause” à fonte do fluxo de mídia atual. Outras ações podem incluir, sem limitação, ativar a função de gravação de um DVR, fazer logoff de um sítio da rede, etc., conforme apropriado para uma modalidade e configuração particulares. Se tal ação for realizada, na etapa 520 na modalidade ilustrativa, o processamento de eventos pode causar a exibição de uma solicitação por confirmação na tela de TV 322, por exemplo, “Would you like to pause this show? (Y/N)”. Se confirmado pelo usuário na etapa 522, que a confirmação pode assumir a forma de um gesto, comando falado, entrada de controle remoto, etc., ou, nas modalidades em que o padrão é realizar uma ação, um tempo esgotado, na etapa 528 a ação indicada pode ser executada. Neste contexto dever-se-ia notar que, em modalidades onde são esperadas respostas de voz ou gesto, a precisão de desempenho de módulos de detecção de evento de áudio e/ou visual 432, 434 pode ser aprimorada indicando uma gama de possíveis respostas (por exemplo, “yes” ou “no” neste caso) para esses módulos com antecedência, limitando assim o número de modelos de som ou gestos que precisam ser combinados. Também, em algumas modalidades em que a entrada de voz pode ser utilizada, o nível de som da saída de áudio de TV 320 pode ser temporariamente reduzido para reduzir o ruído de fundo. Em seguida, na etapa 530, os dados relativos à mudança de usuário, incluindo a identidade do usuário onde esta pode ser determinada, por exemplo, através da utilização de técnicas como descrito nas Patentes US 7.551.756, 7.702.599, ou similares, podem ser transmitidos ao módulo de reunião de estatísticas 438 para o registro, depois o qual o processamento está completo.[0017] If the reported event is not a remote control command, in step 504, event processing may next determine whether the reported event constitutes an image change event reported by the visual event detection module 432 in response to the analysis of image data received from camera 122 via camera trigger 422. Such image processing may utilize, for example, the techniques described in US Patents 5,534,917, 6,829,384, 8,274,535, Publication Application for WIPO patent (PCT) WO 2010/057683A1, or similar, and may, for example, periodically monitor an image comprising the field of view of camera 122, in order to initiate image analysis, in response to detection of any variation in the image data that exceeds a certain threshold value. If it is determined that the event is a report of a detected image change, at step 518, it is next determined whether the event comprises a user's exit or imminent exit from the viewing environment of television 200. If so, various actions may be performed by the 436 event processor, as appropriate. By way of example, if the starting user is the only viewer (or, in some embodiments, the primary user, for example, the user who initiated the current viewing session, the user who is provided within the system with a higher priority high relative to remaining users, or similar) in event processing can be adapted to issue a “pause” command to the source of the current media stream. Other actions may include, but are not limited to, activating a DVR's recording function, logging off a web site, etc., as appropriate for a particular modality and configuration. If such an action is performed, at step 520 in the illustrative embodiment, event processing may cause a request for confirmation to be displayed on TV screen 322, for example, “Would you like to pause this show? (Y/N)”. If confirmed by the user in step 522, that confirmation may take the form of a gesture, spoken command, remote control input, etc., or, in embodiments where the default is to perform an action, a timeout, in step 528 the indicated action can be performed. In this context it should be noted that, in modalities where voice or gesture responses are expected, the performance accuracy of audio and/or visual event detection modules 432, 434 can be improved by indicating a range of possible responses ( e.g. “yes” or “no” in this case) for these modules in advance, thus limiting the number of sound models or gestures that need to be combined. Also, in some embodiments where voice input may be used, the sound level of TV audio output 320 may be temporarily reduced to reduce background noise. Then, at step 530, the data relating to the user change, including the identity of the user where this can be determined, for example, through the use of techniques as described in US Patents 7,551,756, 7,702,599, or similar, may be transmitted to statistics gathering module 438 for recording, after which processing is complete.

[0018] Se o evento de mudança de imagem detectado não é uma partida de usuário, na etapa 524, o processador de evento pode determinar em seguida se o evento relatado compreende a chegada de um usuário novo ou adicional no ambiente de visualização de TV e se assim for, tomar as medidas adequadas. A título de exemplo, algumas modalidades podem ser adaptadas para permitir que um visualizador invoque um estado de “visualização privada” que pode fazer com que o conteúdo atual seja automaticamente tornado mudo, pausado, trocado, etc. no caso em que um usuário adicional entra no ambiente de visualização. Em ainda outra modalidade, a entrada de um usuário em um ambiente de visualização pode desencadear uma oferta para reiniciar a reprodução do conteúdo anteriormente pausado; ou em um ambiente doméstico de vários cômodos e vários dispositivos em que os aparelhos são ligados em rede e equipados com reconhecimento de visualizador, a entrada de um usuário em um ambiente de visualização pode fazer com que o processador de evento nesse ambiente consulte outros processadores de eventos e/ou módulos de estatísticas em outras partes do ambiente doméstico para determinar se esse usuário saiu recentemente de outro ambiente, e se assim for, oferecer-se para retomar a reprodução de um fluxo de conteúdo que foi pausado nesse outro ambiente.[0018] If the detected image change event is not a user departure, in step 524, the event processor may next determine whether the reported event comprises the arrival of a new or additional user in the TV viewing environment and if so, take appropriate action. For example, some modalities can be adapted to allow a viewer to invoke a “private view” state that can cause the current content to be automatically muted, paused, swapped, etc. in case an additional user enters the preview environment. In yet another embodiment, a user's entry into a viewing environment may trigger an offer to resume playback of previously paused content; or in a multi-room, multi-device home environment where appliances are networked and equipped with viewer awareness, a user entering a viewing environment may cause the event processor in that environment to query other viewer processors. events and/or statistics modules in other parts of the home environment to determine if that user recently left another environment, and if so, offer to resume playback of a content stream that was paused in that other environment.

[0019] Observa-se que a ação(ões) a serem realizadas mediante um usuário entrar no ambiente de visualização podem ser definidas como sendo específicas para a identidade da pessoa que chega, por exemplo, ser executada somente quando um indivíduo especificamente reconhecido ou tipo/categoria de indivíduo reconhecido, tal como uma criança, entra no ambiente de visualização. Similarmente, a ação(ões) a ser realizada mediante a chegada de um usuário no ambiente de visualização pode ser definida como sendo específica para a identidade e/ou tipo do usuário ou usuários atualmente assistindo. Nesse caso, uma ação a ser executada pode ser uma para inibir o desempenho de quaisquer novas ações pelo usuário ou usuários assistindo atualmente, por exemplo, para inibir uma criança de mudar um canal que está sendo assistido atualmente para permitir, assim, que um pai tenha a oportunidade de ver o que a criança está assistindo atualmente. Neste último exemplo, a inibição de qualquer ação(ões) pode ser efetuada após um determinado período de tempo expirar, mediante o novo usuário novamente sair da área de visualização, mediante o novo usuário substituir a ação (por exemplo, através de um gesto, voz, nova ação, ou similar - na medida em que o usuário está autorizado a executar tal ação), etc. Em outros casos ainda, as ações a serem realizadas quando um usuário entra na área de visualização podem ser priorizadas com base nas identidades do usuário recém-chegado e do usuário ou usuários atualmente assistindo. Ademais, as ações a serem realizadas pelo sistema mediante um “evento de entrada de usuário” detectado podem ser usadas para fornecer um ou mais aparelhos dentro do sistema com estados desejados, por exemplo, para estabelecer definições de nível de volume, definições legenda oculta, definições de pular comercial, ajuste SAP, definições de nível de iluminação, e/ou o tipo similar de definições de preferências do usuário sem limitação. Assim, a partir dos exemplos anteriores, aprecia-se que várias combinações de ações podem ser especificadas para o sistema executar a detecção de um “evento de entrada de usuário”, ações que podem ou não considerar as identidades de usuário e/ou as prioridades de identidade de usuário, e, como tal, os exemplos aqui fornecidos não são destinados a serem limitantes de forma alguma.[0019] It is noted that the action(s) to be performed upon a user entering the viewing environment can be defined as being specific to the identity of the arriving person, for example, to be performed only when a specifically recognized individual or type /category of recognized individual, such as a child, enters the viewing environment. Similarly, the action(s) to be performed upon a user's arrival in the viewing environment can be defined as being specific to the identity and/or type of user or users currently watching. In this case, an action to be taken might be one to inhibit the performance of any further actions by the currently watching user or users, for example to inhibit a child from changing a channel that is currently being watched to thereby allow a parent to have the opportunity to see what the child is currently watching. In this last example, the inhibition of any action(s) can be carried out after a certain period of time has expired, through the new user leaving the visualization area again, through the new user replacing the action (for example, through a gesture, voice, new action, or similar - to the extent the user is authorized to perform such action), etc. In still other cases, the actions to be taken when a user enters the viewing area can be prioritized based on the identities of the newly arrived user and the user or users currently watching. Furthermore, actions to be taken by the system upon a detected “user input event” can be used to provide one or more devices within the system with desired states, for example to set volume level settings, closed caption settings, business skip settings, SAP tuning, light level settings, and/or similar type of user preference settings without limitation. Thus, from the previous examples, it is appreciated that various combinations of actions can be specified for the system to perform the detection of a “user input event”, actions that may or may not consider user identities and/or priorities. of user identity, and as such, the examples provided herein are not intended to be limiting in any way.

[0020] A título de ainda outro exemplo, as ações a serem realizadas pelo sistema mediante a chegada detectada de um novo usuário à área de visualização podem fazer com que o sistema combine as listas de canais favoritos (como mostrado em um guia eletrônico de programação) que foram estabelecidos para os vários visualizadores em uma única lista ou para fornecer uma única lista que incluirá apenas os programas e/ou canais que são comumente encontrados dentro das listas de canais favoritos que foram estabelecidas para cada um dos vários visualizadores. Da mesma forma, o acesso a vídeos, jogos, programas, canais ou similares (tal como definido por meio da utilização de um chip de controle parental) pode ser limitado a apenas esses vídeos, jogos, programas, canais ou similares que são normalmente acessíveis a cada dos vários visualizadores. Ademais, na medida em que as preferências foram estabelecidas para os usuários reconhecidos não entram em conflito, o sistema pode realizar a ação(ões) apropriada(s) para estabelecer dentro do sistema, uma ou mais dessas preferências mediante a detecção de um “evento de entrada de usuário”.[0020] As yet another example, the actions to be performed by the system upon the detected arrival of a new user to the viewing area may cause the system to combine the lists of favorite channels (as shown in an electronic program guide ) that have been established for the various viewers in a single list or to provide a single list that will only include those programs and/or channels that are commonly found within the favorite channel lists that have been established for each of the various viewers. Likewise, access to videos, games, programs, channels or the like (as defined through the use of a parental control chip) may be limited to only those videos, games, programs, channels or the like that are normally accessible to each of the multiple viewers. Furthermore, to the extent that the preferences established for recognized users do not conflict, the system may take the appropriate action(s) to establish within the system one or more of these preferences upon detection of an "event". user input”.

[0021] É para os propósitos mencionados acima na etapa 526 que pode ser determinado se tais preferências de ação de “evento de entrada de usuário” foram definidas e, em caso afirmativo, na etapa 528 a ação apropriada(s) pode ser executada, após a qual os dados relativos à chegada do usuário, incluindo a identidade do usuário onde esta pode ser determinada, podem ser conduzidos para o módulo de reunião de estatísticas 438 para registro, e o processamento de eventos está completo.[0021] It is for the purposes mentioned above in step 526 that it can be determined whether such “user input event” action preferences have been set and, if so, in step 528 the appropriate action(s) can be taken, after which data relating to the arrival of the user, including the identity of the user where it can be determined, can be conveyed to statistics gathering module 438 for recording, and event processing is complete.

[0022] Está claro também que, enquanto o anterior descreve várias ações que podem ser realizadas mediante uma detecção de um “evento de entrada de usuário”, entende-se que ações similares podem ser realizadas quando o sistema é iniciado pela primeira vez na presença de múltiplos visualizadores.[0022] It is also clear that, while the above describes various actions that can be performed upon detection of a “user input event”, it is understood that similar actions can be performed when the system is started for the first time in the presence from multiple viewers.

[0023] No caso em que é detectado que um usuário responsável por um “evento de entrada de usuário” sai ou está no processo de sair da área de visualização, isto é, um “evento de saída de usuário” é detectado, as ações realizadas acima tomadas em conjunto com o “evento de entrada de usuário” podem ser automaticamente revertidas (ou o usuário(s) restante pode ser avisado se uma ação de reversão está para ocorrer). Por exemplo, o vídeo que foi pausado pode ser reiniciado, guias eletrônicos de programação/listas de canais favoritos podem ser restaurados, etc. De modo semelhante, um “evento de saída de usuário” indicativo de um ou mais usuários saindo ou se preparando para sair da área de visualização pode ser usado pelo sistema para realizar ações que removeriam consideração da preferência do usuário existente, para colocar o sistema em um estado que é apropriado para os usuários restantes, etc. Como antes, as ações a serem realizadas pelo sistema mediante a detecção de um “evento de saída de usuário” podem ser definidas de modo a serem específicas para a identidade do usuário ou usuários saindo, a identidade do usuário ou usuários restantes, e/ou podem ser priorizadas com base nas identidades do usuário ou usuários saindo e o usuário ou usuários restantes sem limitação. É novamente para estes propósitos que na etapa 518 pode ser determinado se tais preferências de ação de “eventos de saída de usuário” foram definidas e, em caso afirmativo, na etapa 520, a ação(ões) apropriada(s) pode ser executada, após o qual os dados sobre o usuário saindo, incluindo a identidade do usuário onde essa pode ser determinada, podem ser conduzidos ao módulo de reunião de estatísticas 438 para registro, e o processamento de evento está completo.[0023] In the event that it is detected that a user responsible for a “user entry event” leaves or is in the process of leaving the visualization area, that is, a “user exit event” is detected, the actions The above actions taken in conjunction with the “user input event” can be automatically reverted (or the remaining user(s) can be warned if a reversal action is about to occur). For example, video that has been paused can be restarted, electronic program guides/favorite channel lists can be restored, etc. Similarly, a “user exit event” indicative of one or more users exiting or preparing to leave the viewing area can be used by the system to take actions that would remove consideration of the existing user preference, to put the system into a state that is appropriate for the remaining users, etc. As before, the actions to be taken by the system upon detection of a "logout event" can be defined to be specific to the identity of the user or users leaving, the identity of the user or users remaining, and/or may be prioritized based on the identities of the leaving user or users and the remaining user or users without limitation. It is again for these purposes that at step 518 it may be determined whether such "user exit events" action preferences have been set and, if so, at step 520 the appropriate action(s) may be taken, after which data about the exiting user, including the identity of the user where it can be determined, can be passed to statistics gathering module 438 for recording, and event processing is complete.

[0024] Se o evento de mudança de imagem detectado não é uma chegada ou partida de usuário, nas etapas 532, 534 e 536, pode ser determinado em seguida se o evento relatado compreende um gesto detectável, um gesto detectável neste contexto compreende uma ação ou movimento do usuário que ou por processo de pré-programação ou de aprendizagem foi identificado para o módulo de detecção de evento visual 432 como tendo importância como entrada do usuário. Se o evento relatado é determinado como estando associado com uma função de comando operacional, por exemplo, “pause”, “mute”, “channel up”, etc., o processamento pode continuar na etapa 540 para executar o comando como descrito anteriormente. Se o evento relatado é determinado como sendo um gesto de preparação, ação antecipatória apropriada pode ser realizada na etapa 538. Nesse contexto, um gesto de preparação pode compreender, sem limitação, qualquer movimento ou gesto preliminar por um usuário que pode ser interpretado como uma possível indicação dessa intenção do usuário para executar uma ação, por exemplo, de pé, pegando ou usando um dispositivo de controle remoto, acenando para uma pessoa entrar na sala, pegar um telefone, etc. As ações antecipatórias podem incluir, por exemplo, pré-condicionar módulos de detecção visual e/ou de áudio 432,434 para favorecer certos subconjuntos de modelos para propósitos de correspondência; modificar um menu na tela de um formato otimizado para controle de gesto para um formato otimizado para navegação através de um dispositivo com teclado tal como um controle remoto, ou vice-versa; reduzir ou silenciar o volume do áudio; sinalizar um dispositivo de controle remoto saindo de um estado quiescente, ligar ou desligar sua luz de fundo, ou similares; etc.[0024] If the detected image change event is not a user arrival or departure, in steps 532, 534 and 536, it can then be determined whether the reported event comprises a detectable gesture, a detectable gesture in this context comprises an action or user movement which either by pre-programming or learning process has been identified to the visual event detection module 432 as having significance as user input. If the reported event is determined to be associated with an operational command function, eg, "pause", "mute", "channel up", etc., processing may continue at step 540 to execute the command as previously described. If the reported event is determined to be a readiness gesture, appropriate anticipatory action may be taken at step 538. In this context, a readiness gesture may comprise, without limitation, any preliminary movement or gesture by a user that could be interpreted as a possible indication of that user's intention to perform an action, e.g. standing, picking up or using a remote control device, waving a person into the room, picking up a phone, etc. Anticipatory actions may include, for example, pre-conditioning visual and/or audio detection modules 432,434 to favor certain subsets of models for matching purposes; modify an on-screen menu from a format optimized for gesture control to one optimized for navigation using a keyboard-based device such as a remote control, or vice versa; reduce or mute audio volume; signal a remote control device coming out of a quiescent state, turn its backlight on or off, or the like; etc.

[0025] Se o evento relatado não é um evento de mudança de imagem, na etapa 506, o processamento de evento pode determinar em seguida se o evento relatado constitui um evento de reconhecimento de som relatado pelo módulo de detecção de evento de áudio 434. O reconhecimento de som e fala pelo módulo 434 pode utilizar, por exemplo, as técnicas descritas na Patente US 7.603.276, Publicação de Pedido de Patente WIPO (PCT) WO 2002/054382A1, ou similares. Se o evento é um evento de reconhecimento de som, na etapa 512, pode ser determinado se o som decodificado constitui um comando de voz emitido pelo usuário. Em caso afirmativo, o processamento pode continuar na etapa 540 para executar o comando desejado como descrito anteriormente. Se não for um comando de voz, na etapa 514, pode ser determinado se o evento relatado constitui um som gatilho. Neste contexto, um som gatilho pode ser uma ocorrência de um sinal de áudio não vocal recebido através do microfone 120 que, ou por pré-programação ou via um processo de aprendizagem, foi atribuído um comando ou uma ação antecipatória. A título de exemplo, sem limitação, os sons gatilho podem incluir um telefone ou campainha tocando, um monitor de bebê, alarme de fumaça, carrilhão de micro-ondas, etc. Se o som evento de som relatado é um som gatilho, a ação apropriada, tal como o silenciamento da televisão, etc., pode ser realizada na etapa 516. O sistema pode também ser programado para reconhecer vários sons e/ou frases/palavras faladas como sendo indicativos de um evento preparatório mediante o qual um ou mais dos componentes do sistema estarão prontos via uma ação antecipatória como descrito acima. A título de exemplo, uma frase falada tal como “let’s see what else is on” pode ser reconhecida como um evento preparatório mediante o qual uma ação antecipatória pode ser executada para colocar um dispositivo de controle remoto em um estado em que o dispositivo de controle remoto está pronto para receber entrada em antecipação de sua utilização ou uma frase falada como “come here”, o som de uma campainha de porta ou similar pode ser reconhecido como um evento preparatório mediante o qual uma ação antecipatória pode ser executada para preparar o sistema para procurar um evento antecipado, por exemplo, um gesto específico, tal como um usuário em pé, deixando a área de visualização, etc. mediante o qual a ação de resposta apropriada para o evento captado que foi antecipado, por exemplo, pausando a mídia, pode ser realizada.[0025] If the reported event is not an image change event, in step 506, the event processing can next determine whether the reported event constitutes a sound recognition event reported by the audio event detection module 434. Sound and speech recognition by module 434 can use, for example, the techniques described in US Patent 7,603,276, WIPO Patent Application Publication (PCT) WO 2002/054382A1, or the like. If the event is a sound recognition event, at step 512, it may be determined whether the decoded sound constitutes a voice command issued by the user. If so, processing can continue at step 540 to execute the desired command as previously described. If it is not a voice command, at step 514, it may be determined whether the reported event constitutes a trigger sound. In this context, a trigger sound may be an occurrence of a non-vocal audio signal received through microphone 120 which, either by pre-programming or via a learning process, has been assigned a command or anticipatory action. By way of example, without limitation, trigger sounds may include a ringing telephone or doorbell, a baby monitor, smoke alarm, microwave chime, etc. If the reported sound event sound is a trigger sound, the appropriate action, such as muting the television, etc., can be performed at step 516. The system can also be programmed to recognize various sounds and/or phrases/spoken words as being indicative of a preparatory event whereby one or more of the system components will be ready via an anticipatory action as described above. By way of example, a spoken phrase such as “let's see what else is on” can be recognized as a preparatory event whereby an anticipatory action can be taken to place a remote control device in a state where the control device remote is ready to receive input in anticipation of its use or a spoken phrase such as “come here”, the sound of a doorbell or similar can be recognized as a preparatory event whereby an anticipatory action can be taken to prepare the system to look for an anticipated event, for example a specific gesture, such as a user standing up, leaving the preview area, etc. whereby the appropriate response action for the anticipated captured event, for example pausing the media, can be performed.

[0026] No caso em que um evento antecipado não é realizado dentro de um período de tempo predeterminado, o sistema pode executado, se necessário, outras ações, tais como ação de reparação, para colocar o sistema em um estado como desejado, por exemplo, para retornar um ou mais componentes do sistema de entretenimento doméstico para um estado onde o componente(s) não está mais procurando pela ocorrência do evento de antecipação.[0026] In the case that an anticipated event is not realized within a predetermined period of time, the system can execute, if necessary, other actions, such as repair action, to put the system in a state as desired, for example , to return one or more components of the home entertainment system to a state where the component(s) is no longer looking for the anticipation event to occur.

[0027] Se o evento relatado não é um evento de reconhecimento de som, na etapa 508, o processamento de eventos pode determinar em seguida se o evento relatado compreende um dispositivo sem fio, tal como, por exemplo, um smartphone, computador tablet, controlador de jogos, etc., aderindo ou saindo de uma LAN ou PAN associada à smart TV 200 ou outro aparelho no sistema. Se esses dispositivos foram previamente registrados com a programação de TV, tal atividade pode ser usada para inferir a presença ou ausência de usuários particulares. Tal informação pode então ser processada de maneira similar à detecção de imagem do usuário (por exemplo, processada como um usuário sendo adicionado ou partindo) continuando na etapa 518 tal como descrito anteriormente.[0027] If the reported event is not a sound recognition event, at step 508, the event processing can next determine whether the reported event comprises a wireless device, such as, for example, a smartphone, tablet computer, game controller, etc., by joining or leaving a LAN or PAN associated with the smart TV 200 or other device in the system. If these devices were previously registered with TV programming, such activity can be used to infer the presence or absence of particular users. Such information may then be processed in a manner similar to user image detection (e.g., processed as a user being added or leaving) by continuing to step 518 as described above.

[0028] Finalmente, na etapa 510, o processador de evento pode processar qualquer outra atividade de relatório de evento como consistente com uma modalidade particular. Por exemplo, em algumas modalidades, aos usuários podem ser fornecidos dispositivos de controle remoto pessoais que incorporam dados de identificação do usuário em suas transmissões de comando, como descrito no Pedido de Patente Copendente US. 13/225.635 “Controlling Devices Used to Provide na Adaptive User Interface”, de propriedade comum e incorporado aqui por referência em sua totalidade, caso em que a presença do usuário relatando eventos pode ser gerada pela interface de controle remoto 420. Em outras modalidades, as tecnologias, tais como o detecção infravermelho de calor corporal tal como proposto na técnica para a utilização em aplicações de desligamento autônomo automático, podem ainda ser adaptadas para os propósitos descritos aqui. Fontes adicionais de eventos de atividade também podem incluir dados recebidos a partir de outro equipamento doméstico, tal como sistemas de controle de segurança, iluminação, HVAC equipados com sensores de presença; câmeras de entrada, sensores de garagem, etc., quando apropriado.[0028] Finally, in step 510, the event processor may process any other event reporting activity as consistent with a particular modality. For example, in some embodiments, users may be provided with personal remote control devices that incorporate user identification data into their command transmissions, as described in the Copending US Patent Application. 13/225635 "Controlling Devices Used to Provide an Adaptive User Interface," commonly owned and incorporated herein by reference in its entirety, in which case user presence reporting events may be generated by remote control interface 420. In other embodiments, technologies, such as infrared body heat detection as proposed in the art for use in automatic autonomous shutdown applications, may further be adapted for the purposes described herein. Additional sources of activity events can also include data received from other home equipment such as security, lighting, HVAC control systems equipped with occupancy sensors; entrance cameras, garage sensors, etc., where appropriate.

[0029] O módulo de reunião de estatísticas 438 pode ser adaptado para relatar os dados conduzidos para ele durante as etapas de processamento de evento descritas acima para um serviço centralizado, por exemplo, hospedado no dispositivo servidor conectado à Internet 128, para a agregação e análise dos hábitos de visualização e preferências do usuário. Dependendo da modalidade particular, tais relatórios podem ser realizados em uma base evento a evento, ou, alternativamente, os dados podem ser acumulados e relatados em intervalos de tempo predeterminados ou somente mediante o recebimento de uma solicitação a partir do dispositivo servidor.[0029] The statistics gathering module 438 can be adapted to report the data conducted to it during the event processing steps described above to a centralized service, for example hosted on the Internet connected server device 128, for aggregation and analysis of user viewing habits and preferences. Depending on the particular embodiment, such reports may be performed on an event-by-event basis, or, alternatively, data may be accumulated and reported at predetermined time intervals or only upon receipt of a request from the server device.

[0030] A título de exemplo, em uma modalidade ilustrativa, os dados relatados ao módulo de reunião de estatísticas 438 podem ser formatados em várias classes e tipos de registro de eventos diferentes para carregar no dispositivo servidor 128. As classes de registro exemplificadas podem incluir eventos de usuário, por exemplo, como pode ser relatado na etapa 530 da Figura 5; eventos de aparelho, por exemplo, como pode ser relatado na etapa 548 da Figura 5; e eventos de conteúdo, por exemplo, como pode ser relatado na etapa 544 da Figura 5. Como será apreciado, classes de evento diferentes ou adicionais podem ser apropriadas em modalidades alternativas e, portanto, as classificações acima são apresentadas a título de exemplo somente e sem limitação.[0030] By way of example, in an illustrative embodiment, the data reported to the statistics gathering module 438 may be formatted into various classes and different event record types for loading into the server device 128. The exemplified record classes may include user events, for example, as may be reported in step 530 of Figure 5; apparatus events, for example, as may be reported in step 548 of Figure 5; and content events, for example, as may be reported in step 544 of Figure 5. As will be appreciated, different or additional event classes may be appropriate in alternative embodiments, and therefore the above classifications are presented by way of example only and without limitation.

[0031] Com relação à Tabela 1 abaixo, os tipos de registro de evento de usuário pode incluir adição (isto é, chegada) do usuário à área de visualização e deleção (isto é, partida) de um usuário da área de visualização. Como ilustrado, cada um desses tipos de registro pode incluir dados de estampa de tempo e um ID de usuário. A estampa de tempo ilustrada é adequada para uso em aplicações onde o dispositivo servidor já tem conhecimento da localização geográfica do sistema de relatório, por exemplo, como um resultado de um processo de configuração inicial, por decodificação de URL, etc. Em modalidades onde este não é o caso, o campo de estampa de tempo pode incluir dados adicionais tais como um fuso horário, código postal, etc., sempre que necessário. A identidade do usuário pode ser qualquer item de dados que serve para identificar exclusivamente usuários individuais para facilitar a visualização de hábitos e análise de preferência no servidor 128. A título de exemplo, os dados de ID do usuário podem compreender identidades explicitamente atribuídas durante um processo de definição/configuração; números aleatórios atribuídos pelo sistema à medida que cada usuário distinto é inicialmente detectado; um valor de verificação gerado por um algoritmo de reconhecimento facial ou de voz; um endereço MAC ou número de série atribuído a um smartphone ou computador tablet; etc. conforme apropriado para uma modalidade particular. Tabela 1 : Registro de evento de usuário[0031] Referring to Table 1 below, user event record types can include addition (ie, arrival) of the user to the preview area and deletion (ie, departure) of a user from the preview area. As illustrated, each of these record types can include timestamp data and a user ID. The illustrated timestamp is suitable for use in applications where the server device already has knowledge of the geographic location of the reporting system, for example as a result of an initial setup process, by URL decoding, etc. In embodiments where this is not the case, the timestamp field can include additional data such as a time zone, postal code, etc., whenever necessary. The user identity can be any data item that serves to uniquely identify individual users to facilitate visualization of habits and preference analysis at server 128. By way of example, the user ID data can comprise identities explicitly assigned during a process definition/configuration; random numbers assigned by the system as each distinct user is initially detected; a check value generated by a facial or voice recognition algorithm; a MAC address or serial number assigned to a smartphone or tablet computer; etc. as appropriate for a particular modality. Table 1 : User event log

[0032] Com relação agora à Tabela 2, os registros de evento do aparelho podem compreender os tipos de registro indicativos de eventos relatados para, comandos funcionais emitidos para, e/ou operações realizadas por vários aparelhos controlados, por exemplo, como relatado na etapa 548 da Figura 5. Esses eventos podem incluir, sem limitação, comandos de ligar/desligar aparelhos, comandos de controle de reprodução, etc., conforme necessário para um entendimento completo dos hábitos e preferências do usuário. A título de exemplo, além de capturar o estado de alimentação para um aparelho DVR, os comandos de avanço rápido também podem ser registrados de modo a monitorar a atividade de pular comercial. Como ilustrado, cada tipo de registro de evento de aparelho pode também incluir um campo de estampa de tempo como descrito acima e um campo de ID/tipo de aparelho que compreende um indicador do tipo de aparelho (por exemplo, STB/DVR, DVD, fluxo de Internet, etc.), juntamente com um ID única ou valor de subtipo que pode ser atribuído pelo módulo de monitoramento e/ou de reunião de estatísticas de modo a distinguir entre vários aparelhos do mesmo tipo, por exemplo, um aparelho doméstico com vários aparelhos de DVD, ou com STBs por cabo ou por satélite. Tabela 2: Registro de evento de aparelho[0032] Referring now to Table 2, device event records may comprise record types indicative of events reported to, functional commands issued to, and/or operations performed by various controlled devices, for example, as reported in step 548 of Figure 5. These events may include, without limitation, device on/off commands, playback control commands, etc., as necessary for a complete understanding of user habits and preferences. For example, in addition to capturing the power state for a DVR set, fast forward commands can also be logged in order to monitor commercial skipping activity. As illustrated, each type of device event record may also include a timestamp field as described above and a device type/ID field that comprises an indicator of device type (e.g., STB/DVR, DVD, Internet stream, etc.), together with a unique ID or subtype value that may be assigned by the monitoring and/or statistics gathering module in order to distinguish between multiple appliances of the same type, for example a domestic appliance with several DVD players, or with cable or satellite STBs. Table 2: Device event log

[0033] Com relação agora à Tabela 3, os tipos de registro de evento de conteúdo podem incluir, sem limitação, um tipo de registro de informação de mudança de canal ou trilha; um tipo de registro de informação de título contendo, por exemplo, um título de show recuperado a partir dos dados do guia de programação, ou informação do título de vídeo sob demanda, etc.; um tipo de registro de metadados contendo valores de metadados obtidos a partir de um DVD ou CD, serviço de transmissão de vídeo, ou similares; um tipo de registro de amostra de conteúdo contendo um clipe de amostra de conteúdo de áudio e/ou vídeo para comparação com um banco de dados de identificação de conteúdo; ou em modalidades alternativas quaisquer outros dados que podem ser utilizados para determinar a identidade de um fluxo de conteúdo particular. Cada tipo de registro pode compreender campos de estampa de tempo e aparelhos fonte, como descrito acima, em conjunto com um campo contendo dados de identidade, que pode compreender dados numéricos, de texto, ou binários, conforme necessário. Como será apreciado, os tipos de registro e/ou de campo adicionais podem ser utilizados em outras modalidades, quando necessário, para permitir uma identificação confiável dos fluxos de conteúdo de mídia. Tabela 3: Registro de evento de conteúdo[0033] Referring now to Table 3, the content event record types may include, without limitation, a track or channel change information record type; a title information record type containing, for example, a show title retrieved from program guide data, or video-on-demand title information, etc.; a type of metadata record containing metadata values obtained from a DVD or CD, streaming video service, or the like; a content sample record type containing a sample audio and/or video content clip for comparison to a content identification database; or in alternative embodiments any other data that can be used to determine the identity of a particular content stream. Each record type may comprise timestamp fields and source apparatus, as described above, along with a field containing identity data, which may comprise numeric, text, or binary data, as required. As will be appreciated, additional record and/or field types may be used in other embodiments, where necessary, to allow reliable identification of media content streams. Table 3: Content event log

[0034] Está claro que, embora as estruturas de dados exemplificadas das Tabelas 1 a 3 sejam apresentadas aqui utilizando um formato tabular para facilidade de referência, na prática, essas podem ser implementadas em várias formas usando qualquer representação de dados conveniente, por exemplo, uma base de dados estruturada, arquivo XML, serviço baseado em nuvem, etc., conforme apropriado para uma modalidade particular. Ademais, também está claro que, embora a funcionalidade de reunião e registro de estatísticas da modalidade ilustrativa seja implementada como parte da programação de um aparelho exemplificado 200, ou seja, no módulo de software 438, em outras modalidades esta funcionalidade pode ser fornecida em uma localização diferente, por exemplo, em um dos outros aparelhos que formam parte de um sistema de entretenimento, em um PC local, em um servidor remoto ou central de recepção do sistema a cabo, etc., ou em qualquer outra localização conveniente para a qual o aparelho de programação particular pode ser capaz de relatar eventos do usuário.[0034] It is clear that although the exemplified data structures of Tables 1 to 3 are presented here using a tabular format for ease of reference, in practice these can be implemented in various forms using any convenient data representation, for example, a structured database, XML file, cloud-based service, etc., as appropriate for a particular modality. Furthermore, it is also clear that, although the functionality of gathering and recording statistics of the illustrative embodiment is implemented as part of the programming of an exemplified apparatus 200, that is, in the software module 438, in other embodiments this functionality can be provided in a different location, for example, on one of the other devices forming part of an entertainment system, on a local PC, on a remote server or cable system head office, etc., or in any other convenient location to which the particular programming apparatus may be able to report user events.

[0035] Enquanto vários conceitos foram descritos em detalhes, está claro para os versados na técnica que várias modificações e alternativas a esses conceitos poderiam ser desenvolvidas face aos ensinamentos da descrição. Por exemplo, em modalidades alternativas, as etapas dos métodos descritos acima podem ser vantajosamente realizadas em vários outros aparelhos, conforme apropriado, por exemplo, um receptor AV ou um STB por cabo/satélite. Ademais, em um sistema interconectado tal como ilustrado nas Figuras 1 ou 2, especialmente quando tal interconexão é digital, deve compreender-se que as várias etapas dos métodos podem ser realizadas por diferentes aparelhos. Por exemplo, sem limitação, a análise de imagem e/ou reconhecimento de fala pode ser realizada por um dispositivo de smart TV, um computador pessoal conectado localmente, um sistema de segurança doméstico, etc., ou mesmo “na nuvem”, ou seja, por um serviço baseado na Internet, com os resultados relatados para um módulo de reunião de estatísticas de usuário e/ou um módulo de processamento de evento residente em um receptor AV conectado ou STB.[0035] While various concepts have been described in detail, it is clear to those skilled in the art that various modifications and alternatives to these concepts could be developed in light of the teachings of the description. For example, in alternative embodiments, the method steps described above may advantageously be performed on various other apparatus, as appropriate, for example, an AV receiver or a cable/satellite STB. Furthermore, in an interconnected system as illustrated in Figures 1 or 2, especially when such interconnection is digital, it should be understood that the various steps of the methods may be carried out by different devices. For example, without limitation, image analysis and/or speech recognition can be performed by a smart TV device, a locally connected personal computer, a home security system, etc., or even “in the cloud”, i.e. , by an Internet-based service, with the results reported to a user statistics gathering module and/or an event processing module residing in a connected AV receiver or STB.

[0036] Ademais, embora descrito no contexto de módulos funcionais e ilustrado usando o formato de diagrama de blocos, entende-se que, a menos que indicado ao contrário, uma ou mais das funções e/ou características descritas podem ser integradas em um único dispositivo físico e/ou um módulo de software, ou uma ou mais funções e/ou características podem ser implementadas em dispositivos físicos separados, ou módulos de software. Também está claro que uma discussão detalhada da implementação real de cada módulo não é necessária para uma compreensão da invenção. Em vez disso, a implementação real de tais módulos estaria bem dentro da rotina de um engenheiro, dada aqui a descrição dos atributos, funcionalidade, e inter-relação dos vários módulos funcionais no sistema. Portanto, um versado na técnica, aplicando seus conhecimentos, será capaz de praticar a invenção apresentada nas reivindicações sem experimentação indevida. Será adicionalmente apreciado que os conceitos particulares descritos sejam ilustrativos somente e não limitantes para o escopo da invenção que será dada a amplitude completa das reivindicações em anexo e seus equivalentes.[0036] Furthermore, although described in the context of functional modules and illustrated using the block diagram format, it is understood that, unless otherwise indicated, one or more of the functions and/or features described may be integrated into a single physical device and/or a software module, or one or more functions and/or features may be implemented in separate physical devices, or software modules. It is also clear that a detailed discussion of the actual implementation of each module is not necessary for an understanding of the invention. Rather, the actual implementation of such modules would be well within an engineer's routine, given here a description of the attributes, functionality, and interrelationship of the various functional modules in the system. Therefore, one skilled in the art, applying his knowledge, will be able to practice the invention presented in the claims without undue experimentation. It will be further appreciated that the particular concepts described are illustrative only and not limiting to the scope of the invention which will be given the full breadth of the appended claims and their equivalents.

[0037] Todas as patentes citadas neste documento são aqui incorporadas por referência em sua totalidade.[0037] All patents cited herein are hereby incorporated by reference in their entirety.

Claims (1)

1. Método para controlar pelo menos um dispositivo componente (300) em um sistema de entretenimento doméstico constituído por uma pluralidade de dispositivos componentes, compreendendo: receber dados de evento via uma interface de detecção de imagem (312) enquanto o pelo menos um da pluralidade de dispositivos componentes (200) está em um estado de ajuste; determinar, a partir dos dados de evento recebidos, pelo menos um número e identidade de visualizadores, em uma área de visualização associada com o sistema de entretenimento doméstico; e quando é determinado, a partir dos dados de evento recebidos, que o número e a identidade de visualizadores, na área de visualização associada com o sistema de entretenimento doméstico, de acordo com uma regra predeterminada, mudaram fazendo com que uma ação de comando seja executada em que o pelo menos um da pluralidade de dispositivos componentes (200) é levado a realizar uma função operacional para evitar, desse modo, uma mudança do estado de ajuste do pelo menos um da pluralidade de dispositivos componentes (200); caracterizado pelo fato de que o pelo menos um da pluralidade de dispositivos componentes (200) é tornado temporariamente não responsivo aos comandos de ajuste fornecidos a ele por pelo menos um período de tempo predeterminado em relação à execução da ação de comando e em que, após uma expiração do período de tempo predeterminado, o pelo menos um da pluralidade de dispositivos componentes (200) retorna automaticamente a ser responsivo aos comandos de ajuste fornecidos ao mesmo.1. A method for controlling at least one component device (300) in a home entertainment system comprised of a plurality of component devices, comprising: receiving event data via an image detection interface (312) while the at least one of the plurality of component devices (200) is in a tuning state; determining, from the received event data, at least a number and identity of viewers in a viewing area associated with the home entertainment system; and when it is determined from the received event data that the number and identity of viewers in the viewing area associated with the home entertainment system, in accordance with a predetermined rule, have changed causing a command action to be performed wherein the at least one of the plurality of component devices (200) is caused to perform an operational function to thereby prevent a change of setting state of the at least one of the plurality of component devices (200); characterized in that the at least one of the plurality of component devices (200) is temporarily rendered unresponsive to adjustment commands provided to it for at least a predetermined period of time in connection with executing the command action and wherein, after Upon expiration of the predetermined period of time, the at least one of the plurality of component devices (200) automatically returns to being responsive to adjustment commands provided thereto.
BR112015032568-8A 2013-06-25 2014-06-17 METHOD FOR CONTROLLING AT LEAST ONE COMPONENT DEVICE IN A HOME ENTERTAINMENT SYSTEM BR112015032568B1 (en)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US13/925,966 2013-06-25
US13/925,966 US9137570B2 (en) 2013-02-04 2013-06-25 System and method for user monitoring and intent determination
PCT/US2014/042687 WO2014209674A1 (en) 2013-06-25 2014-06-17 System and method for user monitoring and intent determination

Publications (2)

Publication Number Publication Date
BR112015032568A2 BR112015032568A2 (en) 2017-07-25
BR112015032568B1 true BR112015032568B1 (en) 2023-06-27

Family

ID=

Similar Documents

Publication Publication Date Title
US11949947B2 (en) System and method for user monitoring and intent determination
US9137570B2 (en) System and method for user monitoring and intent determination
US11671662B2 (en) Methods and systems for controlling media display in a smart media display environment
US10999641B2 (en) Methods, systems and devices for monitoring and controlling media content using machine learning
US11122338B2 (en) First-screen navigation with channel surfing, backdrop reviewing and content peeking
US9215507B2 (en) Volume customization
US8955002B2 (en) Tracking and responding to distracting events
AU2017432641B2 (en) System and methods for navigating internet appliances using a media guidance application
US10028023B2 (en) Methods and systems for automatic media output based on user proximity
US9237323B2 (en) Media rendering device providing uninterrupted playback of content
US11849176B2 (en) Systems and methods for facilitating voice interaction with content receivers
WO2014209674A1 (en) System and method for user monitoring and intent determination
BR112015032568B1 (en) METHOD FOR CONTROLLING AT LEAST ONE COMPONENT DEVICE IN A HOME ENTERTAINMENT SYSTEM
US20180048940A1 (en) Systems and methods for using a home security system to alert a user about a media event