BR112012004830B1 - Aparelho de exibição e método de controle - Google Patents

Aparelho de exibição e método de controle Download PDF

Info

Publication number
BR112012004830B1
BR112012004830B1 BR112012004830-9A BR112012004830A BR112012004830B1 BR 112012004830 B1 BR112012004830 B1 BR 112012004830B1 BR 112012004830 A BR112012004830 A BR 112012004830A BR 112012004830 B1 BR112012004830 B1 BR 112012004830B1
Authority
BR
Brazil
Prior art keywords
user
image
display
child
distance
Prior art date
Application number
BR112012004830-9A
Other languages
English (en)
Other versions
BR112012004830A2 (pt
BR112012004830B8 (pt
Inventor
Haruo Oba
Yusuke Sakai
Eijiro Mori
Kenichi Okada
Katsunori Tanaka
Shinichi Hayashi
Tomohiko Gotoh
Shingo Tsurumi
Asako Tadenuma
Original Assignee
Sony Corporation
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corporation filed Critical Sony Corporation
Publication of BR112012004830A2 publication Critical patent/BR112012004830A2/pt
Publication of BR112012004830B1 publication Critical patent/BR112012004830B1/pt
Publication of BR112012004830B8 publication Critical patent/BR112012004830B8/pt

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
    • H04N21/44008Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving operations for analysing video streams, e.g. detecting features or characteristics in the video stream
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/36Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/002Specific input/output arrangements not covered by G06F3/01 - G06F3/16
    • G06F3/005Input arrangements through a video camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/22Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of characters or indicia using display control signals derived from coded signals representing the characters or indicia, e.g. with a character-code memory
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/4223Cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/441Acquiring end-user identification, e.g. using personal code sent by the remote control or by inserting a card
    • H04N21/4415Acquiring end-user identification, e.g. using personal code sent by the remote control or by inserting a card using biometric characteristics of the user, e.g. by voice recognition or fingerprint scanning
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/488Data services, e.g. news ticker
    • H04N21/4882Data services, e.g. news ticker for displaying messages, e.g. warnings, reminders
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/14Picture signal circuitry for video frequency region
    • H04N5/144Movement detection
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/16Analogue secrecy systems; Analogue subscription systems
    • H04N7/173Analogue secrecy systems; Analogue subscription systems with two-way working, e.g. subscriber sending a programme selection signal
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2320/00Control of display operating conditions
    • G09G2320/02Improving the quality of display appearance
    • G09G2320/0261Improving the quality of display appearance in the context of movement of objects on the screen or movement of the observer relative to the screen
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2320/00Control of display operating conditions
    • G09G2320/02Improving the quality of display appearance
    • G09G2320/028Improving the quality of display appearance by changing the viewing angle properties, e.g. widening the viewing angle, adapting the viewing angle to the view direction
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2354/00Aspects of interface with display user

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Signal Processing (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Computer Hardware Design (AREA)
  • Biomedical Technology (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Control Of Indicators Other Than Cathode Ray Tubes (AREA)
  • User Interface Of Digital Computer (AREA)
  • Studio Devices (AREA)

Abstract

APARELHO DE EXIBIÇÃO E MÉTODO DE CONTROLE São divulgados um novo e melhorado dispositivo de exibição capaz de prevenir visualização por um usuário em uma posição imprópria para visualização, e um método de controle. É divulgado especificamente um dispositivo de exibição fornecido com uma unidade de captura de imagem que captura uma imagem em movimento dentro de uma faixa predeterminada em uma direção de exibição de imagem, uma unidade de análise de imagem que analisa a imagem em movimento capturada pela unidade de captura de imagem e calcula a posição de um objeto a ser guiado a uma posição de visualização apropriada, e uma unidade de controle de exibição a qual, quando a posição do objeto calculado pela unidade de análise de imagem for uma posição de visualização imprópria, faz com que uma unidade de exibição realize uma exibição para guiar o objeto à posição de visualização apropriada.

Description

Campo Técnico
[001] A presente invenção diz respeito a um aparelho de exibição e um método de controle.
Fundamentos da Técnica
[002] Recentemente, com a expansão de um mercado de aparelho de televisão de tela plana, tem havido um aumento em uma demanda para um aparelho de exibição de imagem, tal como um aparelho de televisão de tela grande, que é para ser instalado em uma sala de estar. Em tal situação, foi proposto um aparelho de exibição de imagem incluindo várias funções.
Sumário da Invenção Problema Técnico
[003] Porque um usuário pode ver uma imagem exibida no aparelho de exibição de imagem em qualquer posição, às vezes o usuário vê a imagem exibida no aparelho de exibição de imagem em uma posição imprópria.
[004] Por exemplo, às vezes uma criança se aproxima de uma tela de televisão porque criança tende a facilmente superdosar um conteúdo de difusão. Quando a criança continuamente vê a imagem enquanto aproxima da tela da televisão, um foco é fixado, que causa um risco de enfraquecer visão ou gerar epilepsia. Quando a criança excessivamente aproxima da tela da televisão, o aparelho de televisão pode cair, causando lesão à criança. Porque criança dificilmente reconhece tais riscos, é necessário mantê-las longe da tela da televisão. Ainda, possivelmente elas aproximam da tela da televisão para quebrar uma porção de exibição do aparelho de televisão, e são lesionadas pela porção de exibição do aparelho de televisão quebrado, é necessário mantê-las longe da tela da televisão.
[005] Em face do exposto, um objeto da presente invenção é fornecer novo e melhorado aparelho de exibição e método de controle capaz de prevenir o usuário de visualizar a imagem na posição de visualização imprópria.
Solução para o Problema
[006] De acordo com um aspecto da presente invenção, de modo a alcançar o objeto acima mencionado, é fornecido um aparelho de exibição incluindo: uma unidade de formação de imagem que captura uma imagem em movimento em uma faixa predeterminada com respeito a uma direção de exibição de imagem; um analisador de imagem que analisa a imagem em movimento capturada pela unidade de formação de imagem, e calcula uma posição de um alvo que deve ser guiado a uma posição de visualização apropriada; e um controlador de exibição que faz com que uma unidade de exibição realize exibição de modo a guiar o alvo para a posição de visualização apropriada quando a posição do alvo calculada pelo analisador de imagem estiver em uma posição de visualização imprópria.
[007] O controlador de exibição pode fazer a unidade de exibição exibir uma mensagem que guia o alvo à posição de visualização apropriada.
[008] O controlador de exibição pode fazer com que a unidade de exibição exiba um gráfico ilustrando uma distância entre o alvo e a unidade de exibição.
[009] O controlador de exibição pode diminuir luminância da unidade de exibição.
[0010] O aparelho de exibição deve ainda incluir um controlador de som que faça com que uma unidade de emissão de som emita um tom de modo a guiar o alvo à posição de visualização apropriada quando a posição do alvo detectada pelo analisador de imagem estiver em uma posição de visualização imprópria.
[0011] Quando uma determinação de se o alvo deve ser guiado à posição de visualização apropriada é feita analisando a imagem em movimento capturada pela unidade de formação de imagem, o analisador de imagem pode fazer uma determinação por uma combinação de uma determinação se o alvo deve ser guiado à posição de visualização apropriada e uma determinação se o alvo não necessita ser guiado à posição de visualização apropriada.
[0012] O analisador de imagem pode fazer uma determinação usando um histórico de determinação passada quando uma determinação se o alvo deve ser guiado à posição de visualização apropriada é feita analisando a imagem em movimento capturada pela unidade de formação de imagem.
[0013] O analisador de imagem pode calcular a posição usando um histórico de cálculo passado quando uma posição do alvo que deve ser guiado à posição de visualização apropriada é calculada analisando a imagem em movimento capturada pela unidade de formação de imagem.
[0014] De acordo com outro aspecto da presente invenção, de modo a alcançar o objetivo acima mencionado, é fornecido um método de controle incluindo: capturar uma imagem em movimento em uma faixa predeterminada com respeito a uma direção de exibição de imagem; analisar a imagem em movimento capturada para calcular uma posição de um alvo que pode ser guiado para uma posição de visualização apropriada; e fazer com que uma unidade de exibição realize exibição de modo a guiar o alvo à posição de visualização apropriada quando a posição de alvo calculada estiver em uma posição de visualização imprópria.
Efeitos Vantajosos da Invenção
[0015] Como descrito acima, de acordo com a presente invenção, o novo e melhorado aparelho de exibição e método de controle capaz de prevenir o usuário de visualizar a imagem em uma posição de visualização imprópria podem ser fornecidos.
Breve descrição dos desenhos
[0016] A Fig. 1 é uma vista ilustrando uma aparência de um aparelho de exibição de imagem 100 de acordo com uma modalidade da presente invenção.
[0017] A Fig. 2 é uma vista ilustrando uma configuração do aparelho de exibição de imagem 100 de acordo com uma modalidade da presente invenção.
[0018] A Fig. 3 é uma vista ilustrando uma configuração de um controlador 110.
[0019] A Fig. 4(A) é uma vista ilustrando aquele caso onde um usuário 1 e um usuário 2 estão presentes em uma faixa de formação de imagem de uma unidade de formação de imagem 104, e Fig. 4(B) é uma vista ilustrando uma posição de detecção de face [al, bl] e um tamanho de face [wl, hl] do usuário 1, e uma posição de detecção de face [a2, b2] e um tamanho de face [w2, h2] do usuário 2, que são incluídos em uma imagem capturada pela unidade de formação de imagem 104.
[0020] A Fig. 5(A) é uma vista ilustrando o caso onde um usuário está presente em uma distância de referência d0 e uma distância dl na faixa de formação de imagem da unidade de formação de imagem 104, Fig. 5(B) é uma vista ilustrando o tamanho de face [wl, hl] do usuário na distância dl na imagem capturada pela unidade de formação de imagem 104, e Fig. 5(C) é uma vista ilustrando um tamanho de face de referência [w0, h0] do usuário na distância de referência d0 na imagem capturada pela unidade de formação de imagem.
[0021] A Fig. 6 é um diagrama de fluxo ilustrando um exemplo de processamento de prevenção de aproximação de criança realizado pelo aparelho de exibição de imagem 100 de acordo com uma modalidade da presente invenção.
[0022] As Figs. 7(A) a 7(D) são vistas ilustrando um método para guiar uma criança a uma posição de visualização ótima.
[0023] As Figs. 8(A) a 8(C) são vistas ilustrando um método para corrigir o tamanho de face de referência [w0, h0] na distância de referência d0 calculando uma distância do usuário.
[0024] A Fig. 9 é uma vista ilustrando uma flutuação de séries de tempo de informação atribuída em um usuário.
[0025] As Figs. 10(A) e 10(B) são vistas ilustrando o caso onde uma face de usuário sai de um ângulo de vista da unidade de formação de imagem 104 porque o usuário se torna excessivamente próximo da unidade de formação de imagem 104.
[0026] A Fig. 11 é uma vista ilustrando um resultado de uma determinação se o usuário é uma criança.
[0027] A Fig. 12 é uma vista ilustrando um método para determinar se o usuário é uma criança.
Descrição das Modalidades
[0028] A seguir, modalidades preferidas da presente invenção serão descritas em detalhe com referência aos desenhos anexos. Note que, nesta especificação e desenhos, elementos que tem substancialmente a mesma função e estrutura são denotados com os mesmos sinais de referência, e explicação repetida é omitida.
[0029] A explicação será feita na seguinte ordem. <1. Uma Modalidade da Invenção [1-1. Estrutura do aparelho de exibição de imagem] [1-2. Configuração do controlador] [1-3. Processamento de prevenção de aproximação de criança] <1. Uma Modalidade da Invenção> [1-1. Estrutura do aparelho de exibição de imagem]
[0030] Uma configuração de um aparelho de exibição de imagem de acordo com uma modalidade da presente invenção será descrito abaixo. Fig. 1 é uma vista ilustrando uma aparência de um aparelho de imagem de exibição 100 da modalidade. Fig. 1 é uma vista frontal do aparelho de exibição de imagem 100 quando visto de um lado frontal. A aparência do aparelho de exibição de imagem 100 da modalidade será descrita abaixo com referência à Fig. 1.
[0031] Como ilustrado na Fig. 1, o aparelho de exibição de imagem 100 da modalidade da presente invenção inclui unidades de formação de imagem 104 que capturam uma imagem em movimento em uma porção central superior e porções de centro direita e esquerda de um painel de exibição 102 que exibe uma imagem parada ou uma imagem em movimento. A unidade de formação de imagem 104 captura a imagem em movimento com respeito à direção na qual o aparelho de exibição de imagem 100 exibe a imagem parada ou imagem em movimento no painel de exibição 102. O aparelho de exibição de imagem 100 da modalidade analisa a imagem capturada pela unidade de formação de imagem 104, e detecta uma face de usuário na imagem. O aparelho de exibição de imagem 100 analisa a imagem da face de usuário detectada para calcular outras peças de informação de característica com idade, sexo, e semelhante. Com base nas peças calculadas de informação de característica, o aparelho de exibição de imagem 100 determina se o usuário é uma criança ou um adulto. O aparelho de exibição de imagem 100 também analisa a imagem da face de usuário detectada para detectar uma posição de detecção de face e um lado de face. O aparelho de exibição de imagem 100 calcula uma posição do usuário com base em um resultado de determinação se o usuário é uma criança ou um adulto e a detecção resulta na posição de detecção da face e tamanho da face do usuário. Uma das carcaterísticas do aparelho de exibição de imagem 100 da modalidade é que, quando o usuário que é uma criança é localizado em uma posição imprópria do aparelho de detecção de imagem 100, por exemplo, dentro de uma faixa de lm do painel de exibição 102, uma exibição ou som é emitido de modo a guiar a criança à posição de visualização ótima, por exemplo, que é pelo menos 1 m distante do painel de exibição 102.
[0032] O aparelho de exibição de imagem 100 da modalidade da presente invenção inclui um sensor 106 em uma porção central inferior do painel de exibição 102. O sensor 106 detecta presença ou ausência de um humano na frente do aparelho de exibição de imagem 100.
[0033] Na Fig. 1, o aparelho de exibição de imagem 100 inclui a unidade de formação de imagem 104 que captura a imagem em movimento em três pontos em torno do painel de exibição 102. É desnecessário dizer que, na presente invenção, o local onde a unidade de formação de imagem 104 captura a imagem em movimento não é limitado aos três pontos mencionados acima. Por exemplo, outro dispositivo é fornecido independentemente do aparelho de exibição de imagem 100, e o dispositivo pode ser conectado ao aparelho de exibição de imagem 100 para capturar a imagem em movimento. O número de unidades de formação de imagem 104 não é, claro, limitado a três, mas um ou dois ou pelo menos quatro unidades de formação de imagem 104 devem ser fornecidas para capturar a imagem em movimento. O número de sensores 106 não é limitado a um, mas dois ou mais sensores podem ser fornecidos.
[0034] Embora não ilustrado na Fig. 1, o aparelho de formação de imagem 100 pode ainda incluir uma unidade de recepção de sinal que pode receber um sinal de controle de um controlador remoto (não ilustrado) de modo de infravermelho ou sem fio.
[0035] A aparência do aparelho de exibição de imagem 100 tem sido descrito acima com referência à Fig. 1. Uma configuração do aparelho de exibição de imagem 100 da presente invenção será descrita abaixo.
[0036] Fig. 2 é uma vista ilustrando a configuração do aparelho de exibição de imagem 100 da modalidade da presente invenção. A configuração do aparelho de exibição de imagem 100 da modalidade será descrito abaixo com referência à Fig. 2.
[0037] Como ilustrado na Fig. 2, o aparelho de exibição de imagem 100 da modalidade inclui o painel de exibição 102, as unidades de formação de imagem 104, o sensor 106, um alto-falante 108, e um controlador 110.
[0038] O controlador 110 é configurado para incluir uma unidade de entrada de som 112, um processador de imagem 114, um analisador de estado de visualização 116, um gravador de estado de visualização 118, um processador de otimização de sistema 120, e um controlador de sistema 122.
[0039] O painel de exibição 102 é um exemplo de uma unidade de exibição da presente invenção, e exibe a imagem parada ou a imagem em movimento com base em um sinal de acionamento de painel. Na modalidade, o painel de exibição 102, a imagem parada ou a imagem em movimento é exibida em um painel de exibição de cristal líquido. Não é necessário dizer que, o painel de exibição 102 não é limitado ao painel de exibição de cristal líquido. O painel de exibição 102 deve exibir a imagem parada ou a imagem em movimento usando um dispositivo de exibição com luz própria, tal como um EL orgânico (Eletro Luminescência).
[0040] Como descrito acima, as unidades de formação de imagem 104 são incluídas na porção central superior e porções centrais direita e esquerda do painel de exibição 102 que exibe a imagem parada ou a imagem em movimento. As unidades de formação de imagem 104 capturam a imagem em movimento com respeito à direção na qual o aparelho de exibição de imagem 100 exibe a imagem em movimento no painel de exibição 102 quando o sinal de acionamento do painel é fornecido ao painel de exibição 102 e a imagem em movimento é exibida no painel de exibição 102. A unidade de formação de imagem 104 pode capturar a imagem em movimento usando um CCD (Dispositivo Acoplado de Carga), ou captura a imagem em movimento usando um sensor de imagem CMOS (Semicondutor de Oxido de Metal Complementar). A imagem em movimento capturada pela unidade de formação de imagem 104 é transmitida ao controlador 110.
[0041] Como descrito acima, o sensor 106 é incluído na porção central inferior do painel de exibição 102 que exibe a imagem parada ou a ausência de um humano na frente do aparelho de exibição de imagem 100. O sensor 106 pode detectar uma distância entre o aparelho de exibição de imagem 100 e o humano quando o humano estiver presente na frente do aparelho de exibição de imagem 100. O resultado de detecção e informação de distância do sensor 106 são transmitidos ao controldor 110. O alto-falante 108 é um exemplo da unidade de emissão de som da invenção, e emite o som com base em um sinal de emissão de som.
[0042] O controlador 110 controla uma operação do aparelho de exibição de imagem 100. Cada unidade do controlador 110 será descrita abaixo.
[0043] A unidade de recepção de imagem 112 recebe a imagem em movimento capturada pela unidade de formação de imagem 104. A imagem em movimento recebida pela unidade de recepção de imagem 112 é transmitida ao processador de imagem 114, e usada no processamento de imagem realizado pelo processador de imagem 114.
[0044] O processador de imagem 114 é um exemplo do analisador de imagem da presente invenção. O processador de imagem 114 realiza cárias peças do processamento de imagem para a imagem em movimento, que é capturada pela unidade de formação de imagem 104 e transmitida a partir da unidade de recepção de imagem 112. As peças do processamento de imagem realizado pelo processador de imagem 114 incluem o processamento de detectar um corpo dinâmico incluído na imagem em movimento capturada pela unidade de formação de imagem 104, processamento de detecção do número de humanos incluídos na imagem em movimento, e processamento de detecção de face e uma expressão facial que são incluídas na imagem em movimento. Resultados de várias peças do processamento de imagem realizado pelo processador de imagem 114 são transmitidos ao analisador de estado de visualização 116, e usados para analisar a presença ou ausência de uma pessoa que vê o aparelho de exibição de imagem 100 e um estado de visualização e uma posição de visualização da pessoa que vê o aparelho de exibição de imagem 100.
[0045] No processador de imagem 114, por exemplo, uma tecnologia divulgada no Pedido de Patente Japonês em aberto 2007-65766 (JP-A) ou JP- A-2005-44330 pode ser usada como o processamento de detecção de face incluída na imagem. O processamento de detecção de face será brevemente descrito abaixo.
[0046] De modo a detectar a face do usuário a partir da imagem, uma posição da face, um tamanho da face, e uma direção da face são detectados na imagem fornecida. Quando a posição e tamanho da face são detectados, uma porção da imagem da face pode ser cortada para fora da imagem. Porções de característica facial (posições de característica facial) taios como uma sobrancelha, um olho, um nariz, e uma boca são detectados da imagem de face cortada e a informação na direção da face. De modo a detectar posições de característica facial, por exemplo, um método chamado AAM (Modelos de Aparência Ativa) podem ser adotados para detectar a posição característica.
[0047] Quando as posições de característica facial são detectadas, uma quantidade de característica local é calculada com respeito a cada posição característica facial detectada. A quantidade característica local é calculada, e a quantidade característica local calculada é armazenada ao longo com a imagem da face, que permite a face a ser identificada a partir da imagem capturada pela unidade de formação de imagem 104. Por exemplo, uma tecnologia divulgada em JP-A-2007-65766 ou JP-A-2005-44330 pode ser usada no método de identificação de face. Assim, a descrição detalhada é omitida aqui. Se a face da imagem fornecida é um homem ou mulher, ou quão velha a pessoa é pode ser determinada pela imagem da face e a posição característica facial. Quando informação de face é anteriormente gravada, a pessoa da imagem fornecida é procurada das gravadas e um indivíduo pode ser identificado.
[0048] O analisador de estado de visualização 116 é um exemplo de analisador de imagem da presente invenção. O analisador de estado de visualização 116 recebe o resultado de várias peças do processamento de imagem realizado pelo processador de imagem 114 bem como o resultado de detecção e informação de distâncioa detectada pelo sensor 106, e analisa se a pessoa que vê a imagem exibida pelo aparelho de exibição de imagem 100 é uma criança ou um adulto e o estado de visualização e posição de visualização da pessoa que vê a imagem usando os resultados das várias peças do processamento de imagem realizado pelo processador de imagem 114 bem como o resultado de detecção e informação de distância detectador pelo sensor 106. O analisador de estado de visualização 116 analisa se a pessoa que vê a imagem exibida pelo aparelho de exibição de imagem 100 é uma criança ou um adulto e o estado de visualização e posição de visualização da pessoa que vê a imagem, que permite o aparelho de visualização de imagem 100 a diminuir a luminância do painel de exibição 102, conteúdos de exibição de controle do painel de exibição 102, e controles de conteúdo de som com base em se a pessoa que vê o aparelho de exibição de imagem 100 é uma criança ou um adulto e a posição de visualização da pessoa. O resultado de análise do processamento de análise realizada pelo analisador de estado de visualização 116 é transmitido ao gravador de estado de visualização 118 e ao processador de otimização de sistema 120.
[0049] O analisador de estado de visualização 116 pode detectar o corpo dinâmico do resultado de detecção e informação de distância detectada pelo sensor 106. Alternativamente, o corpo dinâmico pode ser ajustado fora do alvo de detecção quando a distância entre o sensor 106 e o corpo dinâmico for maior que uma distância predeterminada.
[0050] O gravador de estado de visualização 118 grava o resultado de análise que é obtido através de processamento de análise do analisador de estado de exibição 116. O resultado de análise do analisador de estado de visualização 116, que tem sido gravado no gravador de estado de visualização 118, é usado no processamento de otimização de sistema realizado pelo processador de otimização de sistema 120. O resultado de análise do analisador de estado de visualização 116, que tem sido gravado no gravador de estado de visualização 118, deve ser transmitido a um servidor de porta de informação externa 200.
[0051] O processador de otimização de sistema 120 é um exemplo do analisador de imagem da presente invenção. Usando o resultado de análise que é obtido através de processamento de análise realizado pelo analisador de estado de visualização 116, o processador de otimização de sistema 120 calcula informação de controle de sistema de modo a realizar o processamento de otimização de sistema a cada unidade do aparelho de exibição de imagem 100. Exemplos do processamento de otimizaçaõ de sistema realizados a cada unidade do aparelho de exibição de imagem 100 incluem controle de luminância do painel de exibição 102, controle de conteúdos de exibição do painel de exibição 102, controle dos conte-udos de som emitidos a partir do alto-falante 108, e controle de volume do som.
[0052] O aparelho de exibição de imagem 100 pode realizar processamento de prevenção de aproximação de criança com base na informaçaõ de controle de sistema calculada pelo processador de otimização de sistema 120. A informação de controle de sistema calculada pelo processador de otimização de sistema 120 é transmitida ao controlador de sistema 122.
[0053] O controlador de sistema 122 é um exemplo de controlador de exibição e o controlador de som da presente invenção, e realiza processamento de otimização de sistema a cada uniadde do aparelho de exibição de imagem 100 com base na informação de controle de sistema calculada pelo processador de otimização de sistema 120. Especificamente, com base na informação de controle de sistema calculada pelo processador de ortimização de sistema 120, o controlador de sistema 122 realiza o controle de luminância do painel de exibição 102, o controle dos conteúdos de exibição do painel de exibição 102, o controle dos conteúdos de som emitidos do alto- falante 108, o controle de volume do som, e semelhantes.
[0054] A configuração do aparelho de exibição de imagem 100 de acordo com a modalidade da presente invenção tem sido descrito acima com referência à Fig. 2. A seguir, uma estrutura do controlador 110 incluída no aparelho de exibição de imagem 100 da modalidade serão descritos em detalhe abaixo.
[1-2. Configuração do controlador]
[0055] Fig. 3 é uma vista ilustrando a configuraçaõ do controlador 110 incluído no aparelho de exibição de imagem 100 de acordo com a modalidade da presente invenção. Fig. 3 ilustra a configuração do, especialmente, analisador de estado de visualização 116 incluído no controlador 110. A configuração do analisador de estado de visualização 116 serã descrita abaixo com referência à Fig. 3.
[0056] Como ilustrado na Fig. 3, o analisador de estado de visualização 116 é configurado para incluir um calculador de direção/distância 132 e um calculador atribuído a usuário 134.
[0057] O calculador de direção/distância 132 recebe o resultado de várias peças do processamento de imagem realizado pelo processador de imagem 114 bem como peças de informação óptica tais como o ângulo de visão e a resolução da unidade de formação de imagem 104, e calcula uma posição relativa (direção [ψl, ol] e distância dl) do usuário com respeito a um eixo óptico da unidade de formação de imagem 104 usando os resultados das várias peças do processamento de imagem realizado pelo processador de imagem 114 bem como as peças da informação óptica na unidade de formação de imagem 104. Fig. 4(A) é uma vista ilustrando o caso onde um usuário 1 e um usuário 2 estão presentes em uma faixa de formação de imagem de uma unidade de formação de imagem 104, e Fig. 4(B) é uma vista ilustrando uma posição de detecção de face [al, bl] e um tamanho de face [wl, hl] do usuário 1 e uma posição de face [a2, b2] e um tamanho de face [w2, h2] do usuário 2, que estão incluídos em uma imagem capturada pela unidade de formação de imagem 104. Fig. 5(A) [e uma vista ilustrando o caso onde um usuário está presente na distância de referência d0 e uma distância dl na faixa de formação de imagem da unidade de formação de imagem 104, Fig. 5(B) é uma vista ilustrando o tamanho de face [wl, hl] do usuário a uma distância dl na imagem capturada pela unidade de formação de imagem 104, e Fig. (C) é uma vista ilustrando um tamanho de face de referência [w0, h0] do usuário na distância de referência d0 na imagem capturada pela unidade de formação de imagem 104.
[0058] Quanto a direção [$1, ol], a direção horizontal: ψl=ψθ*al e a direção vertical: 0=00*bl são calculados da posição de detecção de face [al, bl] normalizada por um tamanho de imagem capturada [xmax, ymax] e o ângulo de vista [<j)l, 01] da unidade de formaçaõ de imagem 104. Quanto à distância dl, a distância: dl=dO*(wO/wl) é calculada do tamanho fe face de referência [wo, h0] na distância de referência d0.
[0059] O calculador de característica de usuário 134 recebe os resultados de várias peças de processamento de imagem realizadas pelo processador de imagem 114 e peças da informação de característica, tais como uma idade do usuário, que são obtidas pelo processador de imagem 114.0 calculador de característica do usuário 134 determina se o usuário é uma criança ou um adulto usando os resultados de várias peças de processamento de imagem realizado pelo processador de imagem 114 e peças de informação de característica obtidas pelo processador de imagem 114.
[0060] Neste ponto, o processador de imagem 114 transmite a imagem capturada e informação de determinação de face (tais como posição de detecção de face [al, bl], tamanho de face [wl, hl], e outras peças de informação de característica tais como a idade e o sexo) em cada usuário que utilize o aparelho de exibição de imagem 100 na imagem capturada para o calculador de direção/distâmncia do usuário 132 e calculador de característica do usuário 134 do analisador de estado de visualização 116. No analisador de estado de visualizaçaõ 116, o calculador de direção/distândia do usuário 132 realiza procerssamento da an[alise da posiçaõ de visualização do humano que vê o aparelho de exibição de imagem 100 usando as peças de informação transmitidas do processador de imagem 114. O calculador de característica 134 realiza proecssamento da analise se um humano que vê o aparelho de exibição de imagem 100 é uma criança ou um adulto usando as peças de informação transmitidas do processador de imagem 114.
[0061] Quando uma criança é localizadaq na posição de visualização imprópria do aparelho de exibição de imagem 100, o processador de otimização de sistema 120 calcula informação de controle de sistema para processamento (processamento de implementação de guia de criança) de guiar a criança para a posição de visualização apropriada do aparelho de exibição de imagem 100 usando os resultados das peças de processamento de análise que são realizadas pelo calculador de direção/distância do usuário 132 e o calculador de característica do usuário 134. Exemplos de processamento de ser capaz de guiar a criança à posiçaõ de visualização apropriada do aparelho de visualização de imagem 100 incluem processamento de exibição de uma mensagem guia em uma posição de visualização ótima no painel de exibição 102 enquanto abaixando a luminância do painel de exibição 102 e processando a exibição de um gráfico de uma distância de aproximação e uma mensagem de alerta no painel de exibição 102. Exemplos do processamento sendo capaz de guiar a criança a uma posição de visualização apropriada do aparelho de exibição de imagem 100 também incluem processamento da visualização da mensagem de guia na posição de visualização ótima no painel de exibição 102 enquanto escurecendo o painel de exibição 102 e processando a produção do som de alerta do alto-falante 108. A informação de controle de sistema para o processamento de implementação de guia de criança, que foi calculado pelo processador de otimização de sistema 120, é transmitida ao controlador de sistema 122 e usada no processamento de prevenção de aproximação de criança.
[0062] A estrutura do controlador 110 incluída no aparelho de exibição de imagem 100 de acordo com a modalidade da presente invenção foi descrita acima com referência à Fig. 3. A seguir, o processamento de prevenção de aproximação de criança realizado pelo aparelho de exibição de imagem 100 da modalidade será descrito abaixo.
[1-3. Processamento de prevenção de aproximação de criança]
[0063] Fig. 6 é um diagrama de fluxo ilustrando um exemplo do processamento de prevenção de aproximação de criança realizado pelo aparelho de exibição de imagem 100 de acordo com uma modalidade da presente invenção. O processamento de prevenção de aproximação de criança realizado pelo aparelho de exibição de imagem 100 da modalidade será descrito abaixo com referência à Fig. 6.
[0064] Referindo à Fig. 6, quando a unidade de formação de imagem 104 do aparelho de exibição de imagem 100 inicia a captura da imagem, o processador de imagem 114 do aparelho de exibição de imagem 100 realiza o processamento de detecção de face incluída na imagem capturada pela unidade de formação de imagem 104, e reconhece a face da pessoa que vê a imagem exibida pelo aparelho de exibição de imagem 100 (Etapa S602).
[0065] Então, usando as peças de informação transmitidas do processador de imagem 113, o analisador de estado de visualização 116 do aparelho de exibição de imagem 100 realiza o processamento de analisar a posição de visualização do humano que vê o aparelho de exibição de imagem 100 e o processamento de analisar se o humano é uma criança ou um adulto. Usando o resultado do processamento de análise realizado pelo analisador de estado de visualização 116, o processador de otimização de sistema 120 do aparelho de exibição de imagem 100 determina se a criança está localizada na posição de visualização imprópria do aparelho de exibição de imagem 100, isto é, se a criança aproxima do aparelho de exibição de imagem 100. Especificamente, o processador de otimização de sistema 120 determina se a face da criança é detectada, e determina se o tamanho da face da criança, isto é, o tamanho da face é igual ou maior que um valor predeterminado (S604). Assume-se que um tamanho de face de referência da criança na posição de referência é anteriormente registrado no aparelho de exibição de imagem 100. O valor predeterminado é um tamanho de face da criança na posição de visualização imprópria do aparelho de exibição de imagem 100.
[0066] Como resultado da determinaçaõ na Etapa S604, quando a face da criança é detectada e quando o tamanho de face da criança [e igual ou maior que o valor predeterminado (SIM na Etapa S604), o processador de otimização de sistema 120 determina se o número de vezes de aproximação de criança detectado em um tempo predeterminado passado é igual ou maior que um valor predeterminado (Etapa S606). Quando o número de vezes de aproximação da criança detectado em um tempo predeterminado passado é menor que o valor predeterminado (NÃO na Etapa S606), o fluxo retorna ao processamento na Etapa S602. O tempo predeterminado pode propriamente ser ajustado. O valor predeterminado pode propriamente ser mudado de acordo com o tempo predeterminado ajustado.
[0067] Como um resultado da determinação na Etapa S606, quando o número de vezes de aproximação da criança detectado no tempo predeterminado passado for igual ou maior que o valor predeterminado (SIM na Etapa S606), o processador de otimização de sistema 120 determina que a criança aproxime do aparelho de exibição de imagem (Etapa S608).
[0068] Então o processador de otimização de sistema 120 calcula a informação de controle de sistema para o processamento de implementação de guia de criança descrito acima, e transmite a informação de controle de sistema calculada ao controlador de sistema 122. Com base na informação de controle de sistema recebida do processador de otimização de sistema 120, o controlador de sistema 122 realiza o controle de luminância do painel de exibição 102, o controle do conteúdo de exibição do painel de exibição 102, o controle da emissão de conteúdos de som do alto-falante 108, o controle de volume do som, e semelhantes (Etapa S610). Como ilustrado na Fig. 7(A), uma mensagem para guiar a criança para a posição de visualização ótima é exibida no painel de exibição 102 enquanto a luminância do painel de exibição 102 é diminuída. Como ilustrado na Fig. 7(B), a mensagem para guiar a criança para a posição de visualização ótima é exibida no painel de exibição 102 enquanto o painel de exibição 102 é escurecido. Como ilustrado na Fig. 7(C),um gráfico de uma distância de aproximação entre o aparelho de exibição de imagem 100 e o usuário e uma mensagem de alerta são exibidos no painel de exibição 102 enquanto a luminância do painel de exibição 102 é diminuída.
[0069] Como ilustrado na Fig. 7(D), um som de alerta é produzido do alto-falante 108 enquanto o painel de exibição é escurecido. O controlador remoto (não ilustrado) deve ser vibrado ao longo com as peças acima do processamento. O fluxo retorno ao processamento na Etapa S602.
[0070] Como um resultado da determinação na Etapa S604, quando a face da criança é detectada e quando o tamanho da face da criança é menor que o valor predeterminado (NÃO na Etapa S604), o processador de otimização de sistema 120 determina se a criança tendo o tamanho de face menor que o valor predeterminado ou qualquer face exceto uma face de criança foi detectada (Etapa S612). Quando a criança tendo o tamanho de face menor que o valor predeterminado ou a face exceto uma face de criança não foi detectada (NÃO na Etapa S612), o fluxo retorna ao processamento na Etapa S602.
[0071] Como resultado da determinação na Etapa S612, quando a criança tendo o tamanho de face menor que o valor predeterminado ou a face exceto uma face de criança for detectada (SIM na Etapa S612), o processador de otimização de sistema 120 determina se o número de vezes de aproximação de criança detectado no tempo predeterminado passado é igual a ou menor que o valor predeterminado (Etapa S614). Quando o número de vezes de aproximação de criança detectado no tempo predeterminado passado é maior que o valor predeterminado (NÃO na Etapa S614), o fluxo retorna ao processamento na Etapa S602.
[0072] Como um resultado da determinação na Etapa S614, quando o número de vezes de aproximação de criança detectado no tempo predeterminado passado é igual ou menor que o valor predeterminado (SIM na Etapa 614), o processador de otimização de sistema 120 determina que a criança não se aproxima do aparelho de exibição de imagem 100 (Etapa S616).
[0073] Subsequentemente, quando o controlador de sistema 122 realiza o controle de luminância do painel de exibição 102, o controle dos conteúdos de exibição do painel de exibição 102, o controle da emissão dos conteúdos de som a partir do alto-falante, o controle de volume do som, e semelhantes com base na informação de controle de sistema para o processamento de implementação de guia de criança, o processador de otimização de sistema 120 calcula a informação de controle de sistema para retornar ao processamento de exibição normal, e transmite a informação de controle de sistema calculada ao controlador de sistema 122. Com base na informação de controle de sistema recebida do processador de otimização de sistema 120, o controlador de sistema 122 realiza processamento de retorno de luminância e exibe conteúdo do painel de exibição 102 e emite conteúdo de som do alto-falante 108 ao estado normal (Etapa S618). Então, o fluxo retorna ao processamento na Etapa S602.
[0074] De acordo com o processamento de prevenção de aproximação de criança na Fig. 6, quando o número de vezes de aproximação de criança detectado no tempo predeterminado passado é igual ou maior que o valor predeterminado, o processador de otimização de sistema 120 determina que a criança aproxime do aparelho de exibição de imagem 100. O controlador de sistema 122 realiza o processamento de guiar a criança para a posição de visualização apropriada do aparelho de exibição de imagem 100, por exemplo, processando no qual a mensagem de guia é exibida no painel de exibição 102 enquanto a luminância do painel de exibição 102 é reduzida como ilustrado na Fig. 7(A). Assim, a criança pode ser prevenida de aproximar do aparelho de exibição de imagem 100 e de visualizar e ouvir na posição imprópria para o aparelho de exibição de imagem 100. Consequentemente, o enfraquecimento da visão e a geração de epilepsia, que são atribuídos ao fato de que o foco da criança é fixado quando a criança continuamente vê a imagem enquanto aproxima do aparelho de exibição de imagem 100 podem ser prevenidos. A queda do aparelho de exibição de imagem 100, que é causada pela aproximação excessiva da criança ao aparelho de exibição de imagem 100, pode ser prevenida. O risco que a criança aproxime do aparelho de exibição de imagem 100 para quebrar a unidade de exibição do aparelho de exibição de imagem 100 ou o risco que a criança seja lesionada pela unidade de exibição quebrada do aparelho de exibição de imagem 100 pode ser eliminada.
[0075] Na modalidade, como ilustrado nas Figs. 8(A) a 8(C), calculando a posição de visualização do usuário, uma variação no tamanho de face de referência [w0, h0] na distância de referência d0 pode ser corrigida usando a seguinte tabela de correção. Por exemplo, uma tabela de dados de um tamanho de face médio na idade do usuário é anteriormente armazenada da informaçaõ de característica na idade do usuário, o tamanho de face de referência [w0, h0] é ajustado a um tamanho de face [wOC, hOC] menor que o tamanho de face de referência como ilustrado na Fig. 8(C) quando o usuário é uma criança, e o tamanho de face de referência [w0, h0] é ajustado para um tamanho de face [wOA, hOA] maior que o tamanho de face de referência como ilustrado na Fig. 8(B) quando o usuário é um adulto.
[0076] Na modalidade, calculando a posição de visualização do usuário, quando o usuário que utiliza o aparelho de exibição de imagem 100, por exemplo, uma família do local de instalação do aparelho de exibição de imagem 100 é previamente registrada no aparelho de exibição de imagem 100, o tamanho de face de cada usuário deve ser registrado em uma tabela de dados. Assim, o tamanho de face de referência pode ser mudado para cada usuário. Um método para registrar o tamanho de face do usuário de cada usuário pode ser implementado em uma maneira tal que a imagem do usuário é capturada ao longo com a informação de distância em conjunção com outro sensor de distância (não ilustrado), de modo que a imagem do usuário é capturada após o usuário ser guiado a uma distância dada, ou de modo que a imagem do usuário seja capturada na mesma distância que uma escala que serve como referência.
[0077] Como ilustrado na Fig. 9, até para o mesmo usuário, a informação de característica do usuário é oscilada em séries de tempo. Assim, na modalidade, quando o processador de otimização de sistema 120 determina se o usuário é uma criança ou um adulto, a determinação é feita com base em uma tendência de série de tempo, isto é, usando um histórico de determinação passado. Por exemplo, como ilustrado na Fig. 9, assume-se que a informação de característica sobre o usuário pe a informação de característica sobre uma criança em um ponto de tempo tl, que a informação de característica sobre o usuárioé informação de característica sobre um adulto em um ponto de tempo t2, que a informação de característica sobre o usuário é a informação de característica sobre uma criança em um ponto de tempo t3. Neste caso, durante um tempo predeterminado, durane um período entre o ponto de tempo tl e o ponto de tempo t3, a determinação que o usuário é uma criança pode ser feita por causa da determinaçaõ que o usuário é uma criança pode ser feita um dado número de vezes, por exemplo, pelo menos duas.
[0078] Na modalidade, a determinação da aproximação da criança é feita quando o número de vezes de aproximação de criança detectar no tempo predeterminado passado for igual ou maior que o valor predeterminado. Entretanto, como ilustrado nas Figs. 10(A) e 10(B), o usuário pode ocasionalmente excessivamente aproximar da unidade de formação de imagem 104 como mostrado no ponto de tempo t3 e a face do usuário sai do ângulo de visão da unidade de formaçaõ de imagem 104, assim a face é dificilmente detectada. Assim, na modalidade, usando as peças de informação nos pontos de tempo tl e t2 imediatamente antes do ponto de tempo t3 no qual a face do usuário não é mais detectada, isto é, os históricos de cálculo de posição passada, a determinação que o usuário aproxima do aparelho de exibiçaõ de imagem 100 sobre a faixa de formação de imagem da unidade de formaçaõ de imagem 104 pode ser feita calculando ou presumindo a posição no ponto de tempo t3. Quando parte do corpo do usuário cobrir a unidade de formação de imagem 104, precisão da deteterminação de se o usuário acima mencionado aproxima do aparelho de exibição de imagem 100 sobre a faixa de formação de imagem da unidade de formação de imagem 104 pode ser melhorada por, por exemplo, uma diferença no segundo plano ou detecção de corpo dinâmico (um tamanho de área de movimento).
[0079] Na modalidade, Quando a determinaçaõ de se o usuário é uma criança ou um adulto é feita usando a informação de característica na idade do usuário e semelhantes, uma taxa de uma determinaçaõ falsa é reduzida na determinação da criança por uma combinação de uma determinação de se o usuário é uma criança e uma determinação de se o usuário é um adulto. Um método para reduzir a taxa da determinação falsa na determinação da criança irá especificamente ser descrita abaixo.
[0080] Como ilustrado na Fig. 11, os seguintes quatro casos são possíveis como os resultados da determinação de se o usuário é uma criança.
[0081] Caso A: Verdadeiro Positivo (a determinação de que o usuário é uma criança foi corretamente feita)
[0082] Caso B: Falso Negativo (a determinação de que o usuário é uma criança não foi feita quando tal determinação deveria ser feita)
[0083] Caso C: Falso Positivo (a determinação de que o usuário é uma criança foi feita quaqndo tal determinação não deveria ser feita)
[0084] Caso D: Verdadeiro Negativo (a determinação de que o usuário não é uma criança foi corretamente feita)
[0085] Na modalidade, de modo que a determinação de que a criança aproxime do aparelho de exibição de imagem 100 é corretamente feita, o caso C, no qual a determinação de que o usuário é uma criança é feita quando tal determinaçaõ deveria ser feita, necessita ser eliminado na determinação de se o usuário é uma criança. Por exemplo, assume-se que 85%@FPR10% é a precisão de determinação da determinação de se o usuário é uma criança. É aqui assumido que FPR (Taxa de Falso Positivo)=Caso C^Caso C+Caso D), e Precisão=Caso A/(Caso A+Caso C).
[0086] No caso onde a determinação de se um usuário é uma criança é feita em 100 pessoas que são realmente crianças e 150 pessoas que são realmente adultos na precisão de determinação acima, quando é determinado que 100 pessoas são crianças, 85 pessoas caem no Caso A, 15 pessoas caem no Caso B, 15 pessoas caem no caso C, e 135 pessoas caem no Caso D. Consequentemente, 85 pessoas estão corretamente determinadas a serem crianças dentre as 100 pessoas que são realmente crianças, e 15 pessoas que são falsamente determinadas como crianças dentre as 150 pessoas que são realmente adultos.
[0087] Na modalidade, como ilustrado na Fig. 12, a determinaçaõ de se o usuário é um adulto é feita após a determinação de se o usuário é uma criança. Por exemplo, como descrito acima, as 85 realmente crianças foram determinadas a serem crianças e os 15 realmente adultos foram determinados a serem crianças na determinação de se o usuário é uma criança. No caso onde eles estão então sujeitos à determinação onde o usuário é um adulto, porque é esperado que a pessoa que é realmente adulto ser mais provável a ser determinado a ser um adulto comparado com a pessoa que é realmente uma criança, por exemplo, isto pode ser esperado que 10 pessoas são falsamente determinadas a serem adultos dentre 85 realmente crianças e que 10 pessoas são corretamente determinadas a serem adultos dentre 15 realmente adultos. Consequentemente, as 75 pessoas são corretamente determinadas a serem não adultos dentre 85 realmente crianças, e 5 pessoas são falsamente determinadas a serem não adultos nos 15 realmente adultos. Assim, na modalidade, a determinação de se o usuário é uma criança é feita por combinação da determinaçaõ de se o usuário é uma criança e da determinação de se o usuário é um adulto. Assim, como ilustrado na Fig. 12, a precisão de determinação da determinação de se um usuário é uma criança pode ser aumentada da precisão de determinação de 85% com a determinação unicamente se o usuário é a criança a precisão de determinação de 93,75% com a combinação de determinação de se o usuário é uma criança e a determinação de se o usuário é um adulto.
[0088] As séries acima das peças de processamento podem ser realizadas por tanto hardware ou software. No caso de se as séries de peças de processamento podem ser realizadas pelo software, um programa constituindo o software é instalado de um meio de gravação de programa dentro de um computador incorporado no hardware dedicado. Alternativamente, o programa é instalado de um computador pessoal de fins gerais que pode executar várias funções instalando vários programas.
[0089] As modalidades preferidas da presente invenção foram descritas acima com referência aos desenhos que acompanham, enquanto a presente invenção não é limitada aos exemplos acima, é claro. Uma pessoa versada na técnica pode achar várias alternações e modificações dentro do escopo das reivindicações que seguem, e deve ser entendido que eles irão naturalmente vir sobre o escopo da técnica da presente invenção. Lista de Sinal de Referência 100 Aparelho de exibição de imagem 102 Painel de exibição 104 Unidade de formação de imagem 106 Sensor 108 Alto-falante 110 Controlador 112 Unidade de recepção de imagem 114 Processador de imagem 116 Analisador de estado de visualização 118 Gravador de estado de visualização 120 Processador de otimização de sistema 122 Controlador de sistema 132 Calculador de direção/distância do usuário 134 Calculador de característica de usuário

Claims (8)

1. Aparelho de exibição (100), compreendendo: uma unidade de exibição (102) adaptado para exibir imagens; uma unidade de formação de imagem (104) que captura uma imagem em movimento em uma faixa predeterminada com respeito a uma direção de exibição de imagem; um analisador de imagem (114) que analisa a imagem em movimento capturada pela unidade de formação de imagem (104) para detectar uma face de um usuário na imagem em movimento, em que o aparelho de exibição (100) é adaptado para calcular uma distância entre a unidade de formação de imagem (104) e um usuário que deve ser guiado a uma posição de visualização apropriada; e, um controlador de exibição (122) adaptado para controlar a unidade de exibição (102) para realizar a exibição de modo a guiar o usuário à posição de visualização apropriada; caracterizadopelo fato de que o aparelho de exibição (100) é adaptado para: calcular a posição de visualização do usuário incluindo a direção em relação ao eixo óptico da unidade de formação de imagem (104) e distância da posição de visualização a partir de um plano através da unidade de formação de imagem (104) e perpendicular ao eixo óptico da unidade de formação de imagem (104), em que a distância é calculada comparando o tamanho da face do usuário detectada na imagem em movimento com um tamanho de face de referência de uma face de referência a uma distância de referência; determinar se o usuário é uma criança ou um adulto baseado na face detectada na imagem em movimento; determinar que o usuário deve ser guiado para uma posição de visualização apropriada quando o usuário for uma criança e quando a distância da posição de visualização calculada for menor do que uma distância mínima predeterminada e a distância de visualização calculada caindo então dentro de uma área de alerta de aproximação predeterminada, em que cálculos anteriores de posições de visualização do usuário são utilizados se a face do usuário sai do ângulo de visão da unidade de formação de imagem (104) assumindo ou calculando a posição de visualização a partir dos cálculos anteriores.
2. Aparelho de exibição (100), de acordo com a reivindicação 1, caracterizadopelo fato de que o controlador de exibição (122) é adaptado para controlar a unidade de exibição (102) exiba uma mensagem que guie o usuário à posição de visualização apropriada.
3. Aparelho de exibição (100), de acordo com a reivindicação 1 ou 2, caracterizadopelo fato de que a controlador de exibição (122) é adaptado para controlar a unidade de exibição (102) exiba um gráfico ilustrando uma distância entre o usuário e a unidade de exibição (102).
4. Aparelho de exibição (100), de acordo com qualquer uma das reivindicações 1 a 3, caracterizadopelo fato de que o controlador de exibição (122) é adaptado para controlar a unidade de exibição (102) para exibir uma mensagem que guie o usuário para a posição de visualização predeterminada enquanto diminui luminância da unidade de exibição (102).
5. Aparelho de exibição (100), de acordo com qualquer uma das reivindicações 1 a 4, caracterizadopelo fato de que compreende ainda um controlador de som que faz com que uma unidade de emissão de som (108) emita um tom de modo a guiar o usuário à posição de visualização apropriada quando a posição do usuário detectada estiver na posição de visualização imprópria e o usuário é uma criança.
6. Aparelho de exibição (100), de acordo com qualquer uma das reivindicações 1 a 5, caracterizadopelo fato de que o aparelho de exibição (100) é adaptado para determinar se o usuário é uma criança ou um adulto baseado na face detectada na imagem em movimento e em um histórico de determinação passada.
7. Aparelho de exibição (100), de acordo com qualquer uma das reivindicações 1 a 6, caracterizado pelo fato de que o aparelho de exibição (100) é adaptado para calcular a posição de visualização usando histórico de cálculo passado quando uma determinação de se o usuário deve ser guiado para a posição de visualização apropriada é feita analisando a imagem capturada pela unidade de formação de imagem (104).
8. Método de controle, compreendendo: capturar uma imagem em movimento em uma faixa predeterminada com respeito a uma direção de exibição de imagem por uma unidade de formação de imagem (104); analisar a imagem em movimento capturada para detectar uma face de um usuário na imagem em movimento; calcular distância entre a unidade de formação de imagem (104) e o usuário que deve ser guiado para uma posição de visualização apropriada; e, fazer com que uma unidade de exibição (102) realize exibição de modo a guiar o usuário para a posição de visualização apropriada ; caracterizado pelo fato de que a etapa de calcular inclui: calcular a posição de visualização do usuário incluindo a direção em relação ao eixo óptico da unidade de formação de imagem (104) e distância da posição de visualização a partir de um plano através da unidade de formação de imagem (104) e perpendicular ao eixo óptico da unidade de formação de imagem (104), em que a distância é calculada comparando o tamanho da face do usuário detectada na imagem em movimento com um tamanho de face de referência de uma face de referência a uma distância de referência; determinar se o usuário é uma criança ou um adulto baseado na face detectada na imagem em movimento; determinar que o usuário deve ser guiado para uma posição de visualização apropriada quando o usuário for uma criança e quando a distância da posição de visualização calculada for menor do que uma distância mínima predeterminada e a distância de visualização calculada caindo então dentro de uma área de alerta de aproximação predeterminada, em que cálculos anteriores de posições de visualização do usuário são utilizados se a face do usuário sai do ângulo de visão da unidade de formação de imagem (104) assumindo ou calculando a posição de visualização a partir dos cálculos anteriores.
BR112012004830A 2009-09-11 2010-07-22 aparelho de exibição, e, método de controle BR112012004830B8 (pt)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2009210988A JP5418093B2 (ja) 2009-09-11 2009-09-11 表示装置および制御方法
JP2009-210988 2009-09-11
PCT/JP2010/062310 WO2011030624A1 (ja) 2009-09-11 2010-07-22 表示装置および制御方法

Publications (3)

Publication Number Publication Date
BR112012004830A2 BR112012004830A2 (pt) 2016-03-15
BR112012004830B1 true BR112012004830B1 (pt) 2020-10-27
BR112012004830B8 BR112012004830B8 (pt) 2020-11-24

Family

ID=43732298

Family Applications (1)

Application Number Title Priority Date Filing Date
BR112012004830A BR112012004830B8 (pt) 2009-09-11 2010-07-22 aparelho de exibição, e, método de controle

Country Status (9)

Country Link
US (2) US8913007B2 (pt)
EP (1) EP2477183B1 (pt)
JP (1) JP5418093B2 (pt)
KR (1) KR101719845B1 (pt)
CN (2) CN104602120B (pt)
BR (1) BR112012004830B8 (pt)
IN (1) IN2012DN01889A (pt)
RU (1) RU2549165C2 (pt)
WO (1) WO2011030624A1 (pt)

Families Citing this family (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012028884A1 (en) * 2010-09-02 2012-03-08 Elliptic Laboratories As Motion feedback
JP5011431B2 (ja) * 2010-12-21 2012-08-29 株式会社東芝 映像信号処理装置および処理方法ならびに映像表示装置
JP5810590B2 (ja) * 2011-04-01 2015-11-11 セイコーエプソン株式会社 プロジェクターおよび投写方法
JP2015200682A (ja) * 2012-08-30 2015-11-12 シャープ株式会社 表示装置及びその制御方法
JP6058978B2 (ja) * 2012-11-19 2017-01-11 サターン ライセンシング エルエルシーSaturn Licensing LLC 画像処理装置及び画像処理方法、撮影装置、並びにコンピューター・プログラム
KR102121592B1 (ko) * 2013-05-31 2020-06-10 삼성전자주식회사 시력 보호 방법 및 장치
CN104244053A (zh) * 2013-06-18 2014-12-24 联想(北京)有限公司 一种输出控制方法和电子设备
JP2015082753A (ja) * 2013-10-23 2015-04-27 キヤノン株式会社 情報処理システム、撮影装置及びその制御方法、並びにプログラム
KR20150104711A (ko) * 2014-03-06 2015-09-16 엘지전자 주식회사 디스플레이 장치 및 그의 동작 방법
KR101658629B1 (ko) * 2014-05-02 2016-09-22 삼성전자주식회사 디스플레이 장치 및 그 제어 방법
KR102151206B1 (ko) * 2014-07-07 2020-09-03 삼성디스플레이 주식회사 이동 단말기 및 그 제어방법
CN106469036B (zh) * 2015-08-14 2021-02-05 腾讯科技(深圳)有限公司 信息显示方法及客户端
CN105549967A (zh) * 2015-12-09 2016-05-04 北京用友政务软件有限公司 一种智能电子设备预防近视的方法
EP3493533B1 (en) 2016-08-01 2024-04-03 Sony Group Corporation Information processing device, information processing method, and program
KR101758040B1 (ko) * 2017-01-03 2017-07-14 (주)셀텍 텔레비젼 시청 제어 장치
IT201700044945A1 (it) * 2017-04-26 2018-10-26 Sebastiano Borrelli television hight interactive sistem
JP7312598B2 (ja) * 2019-04-24 2023-07-21 セコム株式会社 監視表示装置
JP2021107886A (ja) * 2019-12-27 2021-07-29 富士フイルムビジネスイノベーション株式会社 制御装置およびプログラム
JP7041211B2 (ja) * 2020-08-03 2022-03-23 パラマウントベッド株式会社 画像表示制御装置、画像表示システム及びプログラム
JP7011762B1 (ja) 2021-08-17 2022-01-27 株式会社アップリーチ 情報処理装置、情報処理方法及びプログラム
CN113992954A (zh) * 2021-10-25 2022-01-28 深圳Tcl数字技术有限公司 观看距离提示方法、装置、电视设备和存储介质
TW202332246A (zh) * 2021-12-20 2023-08-01 日商索尼集團公司 顯示裝置、顯示方法及顯示程式

Family Cites Families (41)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07118008B2 (ja) 1989-08-18 1995-12-18 松下電器産業株式会社 画像変形方法と画像変形装置
EP0656730B1 (en) * 1993-12-03 2000-04-26 Terumo Kabushiki Kaisha Stereoscopic image display system
JPH07303195A (ja) 1994-05-09 1995-11-14 Kazuo Matsumura 画像表示装置の制御装置
JP3350721B2 (ja) 1994-10-07 2002-11-25 シャープ株式会社 着衣量測定装置および着衣量計測方法
GB2306826A (en) * 1995-10-18 1997-05-07 Sharp Kk Display, method of calibrating an observer tracking display and observer tracking autostereoscopic 3D display
JP3075971B2 (ja) 1995-12-28 2000-08-14 三洋電機株式会社 ラジオ受信機
JP3968477B2 (ja) * 1997-07-07 2007-08-29 ソニー株式会社 情報入力装置及び情報入力方法
US6076928A (en) * 1998-06-15 2000-06-20 Fateh; Sina Ideal visual ergonomic system for computer users
JP2000152109A (ja) * 1998-11-11 2000-05-30 Matsushita Electric Ind Co Ltd テレビ受像機
JP2001016514A (ja) * 1999-06-30 2001-01-19 Matsushita Electric Ind Co Ltd 認識機能付表示装置
TW455769B (en) * 1999-08-18 2001-09-21 Jian Huei Jiuan Eye-protection method and apparatus set up for monitor screen
JP3788394B2 (ja) * 2002-06-13 2006-06-21 ソニー株式会社 撮像装置および撮像方法、並びに表示装置および表示方法
US8123616B2 (en) * 2003-03-25 2012-02-28 Igt Methods and apparatus for limiting access to games using biometric data
JP2005044330A (ja) 2003-07-24 2005-02-17 Univ Of California San Diego 弱仮説生成装置及び方法、学習装置及び方法、検出装置及び方法、表情学習装置及び方法、表情認識装置及び方法、並びにロボット装置
JP3781028B2 (ja) * 2003-10-01 2006-05-31 松下電器産業株式会社 目画像撮像装置
US7176888B2 (en) * 2004-03-23 2007-02-13 Fujitsu Limited Selective engagement of motion detection
RU2370817C2 (ru) * 2004-07-29 2009-10-20 Самсунг Электроникс Ко., Лтд. Система и способ отслеживания объекта
JP3918854B2 (ja) * 2004-09-06 2007-05-23 オムロン株式会社 基板検査方法および基板検査装置
KR100986660B1 (ko) * 2004-10-20 2010-10-11 후지쓰 텐 가부시키가이샤 표시 장치
JP4013943B2 (ja) * 2004-11-22 2007-11-28 船井電機株式会社 放送信号受信システム
US20060164682A1 (en) * 2005-01-25 2006-07-27 Dspv, Ltd. System and method of improving the legibility and applicability of document pictures using form based image enhancement
US20080246759A1 (en) * 2005-02-23 2008-10-09 Craig Summers Automatic Scene Modeling for the 3D Camera and 3D Video
JP2007006165A (ja) * 2005-06-24 2007-01-11 Fujifilm Holdings Corp 撮像装置、撮像方法、及び撮像プログラム
JP4165540B2 (ja) * 2005-06-27 2008-10-15 セイコーエプソン株式会社 投写画像の位置調整方法
JP4595750B2 (ja) 2005-08-29 2010-12-08 ソニー株式会社 画像処理装置および方法、並びにプログラム
JP4225307B2 (ja) * 2005-09-13 2009-02-18 船井電機株式会社 テレビジョン受信装置
US8218080B2 (en) * 2005-12-05 2012-07-10 Samsung Electronics Co., Ltd. Personal settings, parental control, and energy saving control of television with digital video camera
JP2007158787A (ja) * 2005-12-06 2007-06-21 Sharp Corp 表示装置及び表示制御方法
JP2007236668A (ja) * 2006-03-09 2007-09-20 Matsushita Electric Ind Co Ltd 撮影装置および認証装置ならびに撮影方法
US8340365B2 (en) * 2006-11-20 2012-12-25 Sony Mobile Communications Ab Using image recognition for controlling display lighting
JP5045136B2 (ja) * 2007-02-14 2012-10-10 三菱電機株式会社 大画面表示装置
US20080316372A1 (en) 2007-06-20 2008-12-25 Ning Xu Video display enhancement based on viewer characteristics
CN101409784A (zh) * 2007-10-10 2009-04-15 联想(北京)有限公司 摄像装置及信息提示装置
WO2009067676A1 (en) * 2007-11-21 2009-05-28 Gesturetek, Inc. Device access control
NO331839B1 (no) * 2008-05-30 2012-04-16 Cisco Systems Int Sarl Fremgangsmate for a fremvise et bilde pa et display
WO2010021373A1 (ja) 2008-08-22 2010-02-25 ソニー株式会社 画像表示装置、制御方法およびコンピュータプログラム
US20100295782A1 (en) * 2009-05-21 2010-11-25 Yehuda Binder System and method for control based on face ore hand gesture detection
EP2445200B1 (en) * 2009-06-16 2015-07-01 LG Electronics Inc. Viewing range notification method and tv receiver for implementing the same
JP5263092B2 (ja) * 2009-09-07 2013-08-14 ソニー株式会社 表示装置および制御方法
JP5568929B2 (ja) * 2009-09-15 2014-08-13 ソニー株式会社 表示装置および制御方法
JP5296218B2 (ja) * 2009-09-28 2013-09-25 株式会社東芝 立体映像表示方法及び立体映像表示装置

Also Published As

Publication number Publication date
CN104602120B (zh) 2019-01-15
US20120218179A1 (en) 2012-08-30
JP5418093B2 (ja) 2014-02-19
EP2477183B1 (en) 2018-03-28
WO2011030624A1 (ja) 2011-03-17
CN104602120A (zh) 2015-05-06
EP2477183A4 (en) 2013-09-11
IN2012DN01889A (pt) 2015-07-24
US20150054738A1 (en) 2015-02-26
KR20120064070A (ko) 2012-06-18
EP2477183A1 (en) 2012-07-18
BR112012004830A2 (pt) 2016-03-15
US9298258B2 (en) 2016-03-29
KR101719845B1 (ko) 2017-03-24
BR112012004830B8 (pt) 2020-11-24
RU2012108121A (ru) 2013-09-10
RU2549165C2 (ru) 2015-04-20
US8913007B2 (en) 2014-12-16
JP2011059528A (ja) 2011-03-24
CN102577425A (zh) 2012-07-11
CN102577425B (zh) 2015-02-04

Similar Documents

Publication Publication Date Title
BR112012004830B1 (pt) Aparelho de exibição e método de controle
US10796178B2 (en) Method and device for face liveness detection
KR102333101B1 (ko) 관심 객체에 대한 외부 광원의 속성 정보를 제공하는 방법을 지원하는 전자 장치
US10217286B1 (en) Realistic rendering for virtual reality applications
US9355301B2 (en) Enhanced face recognition in video
US8730164B2 (en) Gesture recognition apparatus and method of gesture recognition
WO2015172514A1 (zh) 图像采集装置和方法
BR112012005231A2 (pt) dispositivo de exibição e método de controle
US9298246B2 (en) Information processing device, system, and information processing method
CN104137028A (zh) 控制被显示图像的旋转的设备和方法
BR112012004835A2 (pt) método e aparelho de exibição
US20220004748A1 (en) Video display method, device and system, and video camera
KR20110014450A (ko) 얼굴 인식률 개선 장치 및 방법
KR20130137507A (ko) 착용형 디스플레이 장치를 위한 인터랙션 제공 장치 및 방법
JP6299113B2 (ja) 画像表示装置、画像表示制御方法及び画像表示制御プログラム
JP2020140637A (ja) 瞳孔検出装置
US20120081533A1 (en) Real-time embedded vision-based eye position detection
JP7540822B2 (ja) 情報提示システム、情報提示方法、コンピュータプログラム、及び認証システム
JP2014078956A (ja) 表示装置および制御方法
JP2022053871A (ja) 測距センサ、および、距離測定方法
JP7007323B2 (ja) 監視表示装置
US20240045498A1 (en) Electronic apparatus
JP2020153083A (ja) 自動ドア装置、自動ドア制御方法、制御装置および情報提示装置
KR20230015141A (ko) 대상체 위치 추적 로봇
KR20210061312A (ko) 불상스크린을 갖는 프로젝터명상시스템

Legal Events

Date Code Title Description
B06F Objections, documents and/or translations needed after an examination request according [chapter 6.6 patent gazette]
B06U Preliminary requirement: requests with searches performed by other patent offices: procedure suspended [chapter 6.21 patent gazette]
B09A Decision: intention to grant [chapter 9.1 patent gazette]
B16A Patent or certificate of addition of invention granted [chapter 16.1 patent gazette]

Free format text: PRAZO DE VALIDADE: 10 (DEZ) ANOS CONTADOS A PARTIR DE 27/10/2020, OBSERVADAS AS CONDICOES LEGAIS.

B09W Correction of the decision to grant [chapter 9.1.4 patent gazette]

Free format text: CORRECAO DO TITULO.

B16C Correction of notification of the grant [chapter 16.3 patent gazette]

Free format text: REF. RPI 2599 DE 27/10/2020 QUANTO AO TITULO.