BR112012005231A2 - dispositivo de exibição e método de controle - Google Patents

dispositivo de exibição e método de controle Download PDF

Info

Publication number
BR112012005231A2
BR112012005231A2 BR112012005231-4A BR112012005231A BR112012005231A2 BR 112012005231 A2 BR112012005231 A2 BR 112012005231A2 BR 112012005231 A BR112012005231 A BR 112012005231A BR 112012005231 A2 BR112012005231 A2 BR 112012005231A2
Authority
BR
Brazil
Prior art keywords
section
image
user
display device
calculates
Prior art date
Application number
BR112012005231-4A
Other languages
English (en)
Inventor
Yuichi IIDA
Shinichi Hayashi
Yusuke Sakai
Junji Ooi
Daijiro Sakuma
Shingo Tsurumi
Original Assignee
Sony Corporation.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corporation. filed Critical Sony Corporation.
Publication of BR112012005231A2 publication Critical patent/BR112012005231A2/pt

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/4223Cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/178Human faces, e.g. facial parts, sketches or expressions estimating age from face image; using age information for improving recognition
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G3/00Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
    • G09G3/20Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes for presentation of an assembly of a number of characters, e.g. a page, by composing the assembly by combination of individual elements arranged in a matrix no fixed position being assigned to or needed to be assigned to the individual characters or partial characters
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/431Generation of visual interfaces for content selection or interaction; Content or additional data rendering
    • H04N21/4312Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations
    • H04N21/4314Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations for fitting data in a restricted space on the screen, e.g. EPG data in a rectangular grid
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
    • H04N21/4402Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving reformatting operations of video signals for household redistribution, storage or real-time display
    • H04N21/440263Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving reformatting operations of video signals for household redistribution, storage or real-time display by altering the spatial resolution, e.g. for displaying on a connected PDA
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/442Monitoring of processes or resources, e.g. detecting the failure of a recording device, monitoring the downstream bandwidth, the number of times a movie has been viewed, the storage space available from the internal hard disk
    • H04N21/44213Monitoring of end-user related data
    • H04N21/44218Detecting physical presence or behaviour of the user, e.g. using sensors to detect if the user is leaving the room or changes his face expression during a TV program
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/44Receiver circuitry for the reception of television signals according to analogue transmission standards
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/64Constructional details of receivers, e.g. cabinets or dust covers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/64Circuits for processing colour signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S7/00Indicating arrangements; Control arrangements, e.g. balance control
    • H04S7/30Control circuits for electronic adaptation of the sound field
    • H04S7/301Automatic calibration of stereophonic sound system, e.g. with test microphone
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S7/00Indicating arrangements; Control arrangements, e.g. balance control
    • H04S7/30Control circuits for electronic adaptation of the sound field
    • H04S7/302Electronic adaptation of stereophonic sound system to listener position or orientation
    • H04S7/303Tracking of listener position or orientation
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2320/00Control of display operating conditions
    • G09G2320/02Improving the quality of display appearance
    • G09G2320/028Improving the quality of display appearance by changing the viewing angle properties, e.g. widening the viewing angle, adapting the viewing angle to the view direction
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2354/00Aspects of interface with display user
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • H04N23/84Camera processing pipelines; Components thereof for processing colour signals

Landscapes

  • Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Social Psychology (AREA)
  • General Engineering & Computer Science (AREA)
  • Acoustics & Sound (AREA)
  • Computer Hardware Design (AREA)
  • Databases & Information Systems (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Human Computer Interaction (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Devices For Indicating Variable Information By Combining Individual Elements (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

DISPOSITIVO DE EXIBIÇÃO E MÉTODO DE CONTROLE É fornecido um novo e melhorado dispositivo de exibição e método de controle, em que o estado de um dispositivo de exibição de imagem pode ser otimizado para um usuário em uma posição arbitrária. É divulgado especificamente um dispositivo de exibição fornecido com: uma unidade de captura de imagem que captura imagens de vídeo dentro de uma faixa prescrita na direção de exibição de imagem, uma unidade de análise de imagem que analisa as imagens de vídeo capturadas pela unidade de captura de imagem anteriormente mencionada, e calcula a posição do usuário, uma unidade de processamento de otimização de sistema que calcula informação de controle de sistema para otimizar o sistema, com base na posição de usuário anteriormente mencionada calculada pela unidade de análise de imagem anteriormente mencionada; e uma unidade de controle de sistema que otimiza o sistema, com base na informação de controle de sistema anteriormente calculada pela unidade de processamento de otimização de sistema anteriormente mencionada.

Description

“DISPOSITIVO DE EXIBIÇÃO E MÉTODO DE CONTROLE” Campo Técnico A presente invenção diz respeito a um dispositivo de exibição e um método de controle. 5 Fundamentos da Técnica Nos anos recentes, acompanhando uma expansão de um mercado de televisão de tela plana, há demanda por um dispositivo de exibição de imagem tal como uma televisão de tela grande para instalar em por exemplo uma sala de estar está crescendo.
Em tal situação, um dispositivo de exibição de imagem tendo várias funções está sendo proposto.
Sumário da Invenção Problema Técnico Incidentalmente, desde que um usuário pode ver uma imagem que um dispositivo de exibição de imagem está exibindo em qualquer posição desejada, dependendo de uma posição de visualização do usuário, um estado do dispositivo de exibição de imagem, a saber uma propriedade de áudio tal como um balanço de volume de saída de som da seção de saída de áudio, uma propriedade de imagem de uma seção de exibição de imagem do dispositivo de exibição de imagem e conteúdos de exibição, uma direção de exibição do dispositivo de exibição e semelhantes podem não ser ótimos para o uso na posição desejada.
Assim, a presente invenção tem sido feita em vista do problema acima, e um objetivo da presente invenção é fornecer um novo e melhorado dispositivo de exibição de imagem e método de controle capaz de otimizar o estado do dispositivo de exibição de imagem para o usuário na posição desejada.
Solução ao Problema Para resolver o problema acima mencionado, de acordo com um aspecto da presente invenção, um dispositivo de exibição incluindo uma seção de formação de imagem que tira uma imagem de uma faixa predeterminada de uma imagem dinâmica com respeito a uma direção de exibição de imagem, uma seção de análise de imagem que analisa a imagem dinâmica obtida pela seção de formação de imagem e calcula uma posição de 5 um usuário, uma seção de processamento de otimização de sistema que calcula informação de controle de sistema para otimizar um sistema com base na posição do usuário calculada pela seção de análise de imagem, e uma seção de controle de sistema que otimiza o sistema com base na informação de controle de sistema calculada pela seção de processamento de otimização de sistema são fornecidos.
A seção de processamento de otimização de sistema pode calcular informação de controle de sistema para otimizar um balanço de volume de saída de som a partir de uma seção de saída de áudio com base na posição do usuário calculada pela seção de análise de imagem.
A seção de processamento de otimização de sistema pode calcular informação de controle de sistema para otimizar uma propriedade de imagem de uma seção de exibição de imagem com base na posição do usuário calculada pela seção de análise de imagem.
A seção de processamento de otimização de sistema pode calcular informação de controle de sistema para otimizar conteúdos de exibição de uma seção de exibição de imagem com base na posição do usuário calculada pela seção de análise de imagem.
A seção de processamento de otimização de sistema pode calcular informação de controle de sistema para otimizar uma direção de dispositivo de um próprio dispositivo com base na posição do usuário calculada pela seção de análise de imagem.
A seção de análise de imagem pode analisar a imagem dinâmica obtida pela seção de formação de imagem e calcula uma posição tridimensional do usuário.
A seção de análise de imagem pode analisar a imagem dinâmica obtida pela seção de formação de imagem e calcula posições respectivas de uma pluralidade de usuários, e a seção de processamento de otimização de sistema pode calcular posições do centro do balanço da 5 pluralidade de usuários com base nas posições da pluralidade de usuários calculada pela seção de análise de imagem, e calcula informação de controle de sistema para otimizar um sistema com base nas posições calculadas do centro do balando da pluralidade de usuários.
Adicionalmente, para resolver o problema acima, de acordo com outro aspecto da presente invenção, um método de controle incluindo uma etapa de formação de imagem de tirar uma imagem de uma faixa predeterminada de uma imagem dinâmica com respeito a uma direção de exibição de imagem; uma etapa de análise de imagem para analisar a imagem dinâmica obtida e calcular uma posição de um usuário; uma etapa de processamento de otimização de sistema de calcular informação de controle de sistema para otimizar um sistema com vase na posição calculada do usuário; e uma etapa de controle de sistema de otimizar o sistema com base na informação de controle de sistema calculada são fornecidos.
Efeitos Vantajosos da Invenção Como explicado acima, de acordo com a presente invenção, um novo e melhorado dispositivo de exibição de imagem e método de controle capaz de otimizar o estado do dispositivo de exibição de imagem para o usuário na posição desejada pode ser fornecido.
Breve descrição dos Desenhos Fig. 1 é um diagrama explicativo que explica uma aparência externa de um dispositivo de exibição de imagem 100 em uma modalidade da presente invenção.
Fig. 2 é um diagrama explicativo que explica uma configuração do dispositivo de exibição de imagem 100 da modalidade da presente invenção.
Fig. 3 é um diagrama explicativo que explica uma 5 configuração de uma seção de controle 110. Fig. 4 é um diagrama explicativo que explica a configuração da seção de controle 110. Fig. 5(A) é um diagrama explicativo para explicar um caso onde um usuário 1 e um usuário 2 estão presentes em uma área de formação de imagem de uma seção de formação de imagem 104, e Fig. 5(B) é um diagrama explicativo para explicar uma posição de detecção de face [a1, b1] e um tamanho de face [w1, h1] do usuário 1, e uma posição de detecção de face [a2, b2] e um tamanho de face [w2, h2] do usuário 2 que são incluídos em uma imagem obtida pela seção de formação de imagem 104. Fig. 6(A) é um diagrama explicativo para explicar um caso onde usuários estão presentes em uma distância de referência d0 e uma distância d1 na área de formação de imagem da seção de formação de imagem 104, Fig. 6(B) é um diagrama explicativo para explicar o tamanho da face [w1, h1] do usuário em uma distância d1 na imagem obtida pela seção de formação de imagem 104, e Fig. 6(C) é um diagrama explicativo para explicar um tamanho de face de referência [w0, h0] do usuário na distância de referência d0 na imagem obtida pela seção de formação de imagem 104. Fig. 7(A) é um diagrama explicativo para explicar um centro de dispositivo [0, 0, 0] do dispositivo de exibição de imagem 100 e uma posição de câmera [∆x, ∆y, ∆z] da seção de formação de imagem 104, e Fig. 7(B) é um diagrama explicativo para explicar o centro do dispositivo[0, 0, 0] do dispositivo de exibição de imagem 100, em um eixo frontal [0, 0], a posição da câmera [∆x, ∆y, ∆z] da seção de formação de imagem 104, e um ângulo de instalação [∆ϕ, ∆θ].
Fig. 8 é um diagrama de fluxo mostrando um exemplo da um processo de otimização de acordo com uma posição do usuário pelo dispositivo de exibição de imagem 100 da modalidade da presente invenção.
Fig. 9 é um diagrama de fluxo mostrando um exemplo de um 5 processo de otimização de acordo com posições de um ou mais usuários pelo dispositivo de exibição de imagem 100 da modalidade da presente invenção.
Fig. 10 é um diagrama de fluxo mostrando um exemplo de um processo de otimização de acordo com idades de um ou mais usuários pelo dispositivo de exibição de imagem 100 da modalidade da presente invenção.
Fig. 11 é um diagrama explicativo para explicar um processo de otimização de um balanço de volume.
Fig. 12 é um diagrama explicativo para explicar um método de cálculo de posições de centro do balanço de um grupo de usuários.
Fig. 13 (A) é um diagrama explicativo para explicar uma posição [D0, Ah0] de um usuário A e uma posição [D1, Ah1] de um usuário B em uma direção horizontal, e Fig. 13(B) é um diagrama explicativo para explicar uma posição [D0, Av0] do usuário A e uma posição [D, Av1] do usuário B em uma direção vertical.
Fig. 14(A) e Fig. 14(B) são diagramas explicativos para explicar um processo de otimização de um tamanho de lera de um GUI.
Fig. 15(A) a Fig. 15(C) são diagramas explicativos para explicar um método de correção do tamanho de face de referência [w0, h0] na distância de referência d0 em um cálculo de distância de usuário.
Descrição das Modalidades A seguir, modalidades preferidas da presente invenção serão descritas em detalhe com referência aos desenhos que seguem.
Note que, nesta especificação e nos desenhos, elementos que tem substancialmente a mesma função e estrutura são denotados com os mesmos sinais de referência, e explicação repetida é omitida.
Note que, explicação será dada na seguinte ordem. <1. Uma Modalidade da Presente Invenção> [1-1. Configuração do Dispositivo de Exibição de Imagem] [1-2. Configuração da Seção de Controle] 5 [1-3. Processo de Otimização de acordo com Posição do Usuário] [1-4. Processo de Otimização de acordo com Posições de Usuário de Um ou Mais Usuários] [1-5. Processo de Otimização de acordo com Idades de Um ou Mais Usuários] <1. Uma Modalidade da Presente Invenção> [1-1. Configuração do Dispositivo de Exibição de Imagem] Primeiramente, uma configuração de um dispositivo de exibição de imagem de uma modalidade da presente invenção será explicado.
Fig. 1 é um diagrama explicativo que explica uma aparência externa de um dispositivo de exibição de imagem 100 na modalidade da presente invenção.
Fig. 1 é um diagrama de vista frontal na visualização do dispositivo de exibição de imagem 100 de um lado frontal.
Adiante, a aparência externa do dispositivo de exibição de imagem 100 da modalidade da presente invenção será explicada com referência à Fig. 1. Como mostrado na Fig. 1, o dispositivo de exibição de imagem 100 da modalidade da presente invenção inclui seções de formação de imagem 104 que tiram uma imagem dinâmica arranjada em uma posição de centro superior e posições de centro esquerdo e direito de uma seção de painel de exibição 102 que exibe uma imagem parada ou uma imagem dinâmica.
As seções de formação de imagem 104 obtidas da imagem dinâmica com respeito a uma direção pela qual o dispositivo de exibição de imagem 100 exibe a imagem parada ou a imagem dinâmica na seção de painel de exibição 102. O dispositivo de exibição de imagem 100 da modalidade analisa uma imagem obtida pelas seções de formação de imagem 104, e detecta uma face de um usuário obtida da imagem.
O dispositivo de exibição de imagem 100 analisa a face detectada do usuário, e detecta uma posição de detecção de face e um tamanho de face.
O dispositivo de exibição de imagem 5 100 calcula uma posição relativa do usuário com respeito a um eixo óptico de uma câmera das seções de formação de imagem respectivas 104 com base na posição de detecção de face detectada e tamanho de face.
Assim, o dispositivo de exibição de imagem 100 calcula uma posição do usuário com respeito a um centro de dispositivo e um eixo fronteiro do dispositivo de exibição de imagem 100 com base em um resultado de cálculo da posição relativa com respeito ao eixo óptico da câmera das seções de formação de imagem respectivas 104 e informação anexa tal como uma posição, um ângulo da câmera e as respectivas seções de formação de imagem 104. O dispositivo de exibição de imagem 100 da modalidade caracteristicamente otimiza um estado do dispositivo de exibição de imagem 100 de acordo com a posição do usuário; isto é, uma propriedade de áudio como volume de som, uma propriedade de imagem, conteúdos de exibição, uma direção de dispositivo com respeito à posição do usuário.
Adicionalmente, o dispositivo de exibição de imagem 100 da modalidade inclui uma seção de sensor 106 arranjada em uma posição de centro inferior da seção de painel de exibição 102. A seção de sensor 106 detecta presença/ausência de uma pessoa na frente do dispositivo de exibição de imagem 100. Note que, na Fig. 1, embora o dispositivo de exibição de imagem 100 tenha seções de formação de imagem 104 que tiram a imagem dinâmica em três porções em torno da seção de painel de exibição 102, é desnecessário dizer que posições das seções de formação de imagem 104 que tiram a imagem dinâmica não são limitadas aos exemplo9s acima na presente invenção, por exemplo, um dispositivo independente do dispositivo de exibição de imagem 100 pode ser fornecido, o dispositivo pode estar conectado ao dispositivo de exibição de imagem 100, e a imagem dinâmica pode ser obtida por este dispositivo.
Adicionalmente, é desnecessário dizer que o número da seção de formação de imagem 104 não é limitado a três; 5 imagens podem ser obtidas fornecendo duas ou menos, ou quatro ou mais seções de formação de imagem 104. Mais ainda, é desnecessário dizer que um número da seção de sensor 106 não é limitado a um, e duas ou mais seções de sensor podem ser fornecidas.
Adicionalmente, embora não mostrado na Fig. 1, o dispositivo de exibição de imagem 100 pode ainda incluir uma seção de recepção de sinal que pode receber sinal de controle de um controlador remoto (não mostrado) através de um esquema de infravermelho, um esquema sem fio.
Como acima, a aparência externa do dispositivo de exibição de imagem 100 da modalidade da presente invenção tem sido explicado com referência à Fig. 1. A seguir, uma configuração do dispositivo de exibição de imagem 100 da modalidade da presente invenção será explicado.
Fig. 2 é um diagrama explicativo que explica a configuração do dispositivo de exibição de imagem 100 da modalidade da presente invenção.
Adiante, a configuração do dispositivo de exibição de imagem 100 da modalidade da presente invenção será explicado com referência à Fig. 2. Como mostrado na Fig. 2, o dispositivo de exibição de imagem 100 da modalidade da presente invenção é configurado incluindo a seção de painel de exibição 102, as seções de formação de imagem 104, a seção de sensor 106, uma seção de alto-falante 108, uma seção de mecanismo 109, e uma seção de controle 110. Adicionalmente, a seção de controle 110 é configurada por incluir uma seção de entrada de imagem 112, uma seção de processamento de imagem 114, uma seção de análise de estado de visualização 116, uma seção de armazenamento de informação de posição de usuário 117, uma seção de gravação de estado de visualização 118, uma seção de processamento de otimização de sistema 120, e uma seção de controle de sistema 122. A seção de painel de exibição 102 exibe a imagem parada ou a imagem dinâmica com base em um sinal de acionamento de painel. Na 5 modalidade, a seção de painel de exibição 102 exibe a imagem parada ou a imagem dinâmica usando cristais líquidos. É claro que na invenção, é desnecessário dizer que a seção de painel de exibição 102 não é limitada aos exemplos acima. A seção de painel de exibição 102 pode exibir a imagem parada ou a imagem dinâmica usando um dispositivo de exibição de auto- emissão tal como um EL orgânico (eletroluminescência). Como descrito acima, as seções de formação de imagem 104 são arranjadas na posição central superior e nas posições centrais esquerda e direita da seção de painel de exibição 102 que exibe a imagem parada ou a imagem dinâmica. As seções de formação de imagem 104 obtidas pela imagem dinâmica com respeito à direção na qual o dispositivo de exibição de imagem 100 exibe a imagem dinâmica na seção de painel de exibição 102 quando o sinal de acionamento de painel é fornecido à seção de painel de exibição 102 e a seção de painel de exibição 102 está exibindo a imagem dinâmica. As seções de formação de imagem 104 podem obter a imagem dinâmica por sensores de imagem de CCD (Dispositivo Acoplado de Carga), ou podem obter a imagem dinâmica por sensores de imagem de CMOS (Semicondutor de Óxido de Metal Complementar). A imagem dinâmica obtida pelas seções de formação de imagem 104 é enviada à seção de controle
110. A seção de sensor 106 é fornecida em uma posição central inferior da seção de painel de exibição 102 que exibe a imagem parada ou a imagem dinâmica, e é por exemplo para detectar a presença/ausência de uma pessoa na frente do dispositivo de exibição de imagem 100. Adicionalmente se uma pessoa está presente na frente do dispositivo de exibição de imagem
100, a seção de sensor 106 pode detectar uma distância entre o dispositivo de exibição de imagem 100 e aquela pessoa. Um resultado de detecção e informação de distância pela seção de sensor 106 são enviados para a seção de controle 110. A seção de alto-falante 108 emite sons com base em um sinal 5 de emissão de som. A seção de mecanismo 109 controla uma direção de exibição do painel de exibição 102 do dispositivo de exibição de imagem 100 por exemplo com base em um sinal de acionamento. A seção de controle 110 controla operações do dispositivo de exibição de imagem. A seguir, seções respectivas da seção de controle 110 serão explicadas. A seção de entrada de imagem 112 recebe a imagem dinâmica obtida nas seções de formação de imagem 104. A imagem dinâmica recebida pela seção de entrada de imagem 112 é enviada à seção de processamento de imagem 114, e é usada em processos de imagem na seção de processamento de imagem 114. A seção de processamento de imagem 114 é um exemplo de uma seção de análise de imagem da presente invenção, e realiza os respectivos processos de imagem na imagem dinâmica que é obtida pelas seções de formação de imagem e enviadas da seção de entrada de imagem
112. Os processos de imagem realizados pela seção de processamento de imagem 114 incluem um processo de detecção para um objeto incluído na imagem dinâmica obtida pelas seções de formação de imagem 104, um processo de detecção para um número de pessoas incluídas na imagem dinâmica, e um processo de detecção para uma face e uma expressão facial incluídas na imagem dinâmica. Resultados dos respectivos processos de imagem pela seção de processamento de imagem 114 são enviados à seção de análise de estado de visualização 116, e são usados para análises da presença/ausência de uma pessoa assistindo o dispositivo de exibição de imagem 100, e um estado de visualização e uma posição de visualização da pessoa.
Como para o processo de detecção detectar a face incluída na imagem pela seção de processamento de imagem 114, técnicas descritas por 5 exemplo na Publicação de Pedido de Patente Japonês No. 2007-65766 e Publicação de Pedido de Patente Japonês No. 2005-44330 podem ser usadas.
A seguir, o processo de detecção de face será brevemente explicado.
De modo a detectar a face do usuário de uma imagem, primeiramente, uma posição de face, um tamanho de face, e uma direção de face na imagem fornecida são respectivamente detectados.
Detectando a posição e tamanho da face, uma porção de imagem de face pode ser cortada da imagem.
Assim, com base no corte de imagem de face e informação da direção da face, porções características da face (posições características faciais), por exemplo, sobrancelhas, olhos, nariz, boca, e semelhantes, são detectados.
Na detecção de posições características faciais, por exemplo, um método chamado um AAM (Modelos de Aparência Ativa) pode ser adaptado de modo a ser capaz de detectar as posições características.
Quando as posições características faciais são detectadas, um valor característico local é calculado para cada das posições características faciais.
Calculando os valores característicos e armazenando os valores característicos locais calculados junto com a imagem de face, reconhecimento de face se torna possível de uma imagem obtida pela seção de formação de imagem 104. Como para o método de reconhecimento de face, desde que técnicas descritas por exemplo na Publicação de Pedido de Patente Japonês No. 2007-65766 e Publicação de Pedido de Patente Japonês No. 2005-44330 possam ser usadas, assim uma descrição detalhada dos mesmos será aqui omitida.
Adicionalmente, é possível determinar se a face obtida na imagem fornecida é um homem ou uma mulher, e quantos anos a pessoa tem, pela imagem de face e posição característica de face.
Adicionalmente, pela informação de gravação predeterminadamente de faces, a pessoa obtida na imagem fornecida pode ser procurada dentre as faces, e um indivíduo pode ser especificado.
A seção de análise de estado de visualização 116 é um 5 exemplo de uma seção de análise de imagem da presente invenção.
Ela recebe um resultado dos processos de imagem respectivos pela seção de processamento de imagem 114 e um resultado de detecção e informação de distância pela detecção da seção de sensor 106, e realiza uma análise do estado de visualização e da posição de visualização da pessoa assistindo a imagem exibida pelo dispositivo de exibição de imagem 100 usando o resultado dos processos de imagem respectivos pela seção de processamento de imagem 114 e o resultado de detecção e a informação de distância pela seção de sensor 106. Pela seção de análise de estado de visualização 116 analisando o estado de visualização e a posição de visualização da pessoa assistindo, o dispositivo de exibição de imagem 100 pode controlar a propriedade de áudio tal como um balanço de som de uma saída da seção de alto-falante 108, controle da propriedade de imagem da seção de painel de exibição 102, controle dos conteúdos de exibição da seção de painel de exibição 102, e controle da direção de exibição da seção de painel de exibição 102 usando a seção de mecanismo 109 de acordo com a posição de visualização do usuário assistindo o dispositivo de exibição de imagem 100. Um resultado de análise de um processo de análise pela seção de análise de estado de visualização 116 é enviado à seção de gravação de estado de visualização 118, a seção de armazenamento de informação de posição de usuário 117 e a seção de processo de otimização de sistema 120. Note que, em um caso onde embora um corpo dinâmica é detectado do resultado de detecção e a informação de distância pela detecção da seção de sensor 106 mas uma distância entre a seção de sensor 106 e aquele corpo dinâmico está em ou excedendo uma distância predeterminada, a seção de análise de estado de visualização 116 pode excluir que objeto seja um alvo de detecção.
A seção de gravação de estado de visualização 118 grava o resultado de análise obtido pelo processo de análise pela seção de análise de 5 estado de visualização 116. O resultado de análise na seção de análise de estado de visualização 116 gravada pela seção de gravação de estado de visualização 118 é usada no processo de otimização de sistema pela seção de processamento de otimização de sistema 120. Adicionalmente, o resultado de análise na seção de análise de estado de visualização 116 gravado pela seção de gravação de estado de visualização 118 pode ser enviado a um servidor de coleção de dados externo 200. A seção de armazenamento de informação de posição de usuário 117 armazena o resultado de análise de um processo de análise pela seção de análise de estado de visualização 116. A seção de processamento de otimização de sistema 120 clcula a informação de controle de sistema para realizar o processo de otimização de sistema nas seções respectivas do dispositivo de exibição de imagem 100 usando o resultado de análise obtido pelo processo de análise da seção de análise de estado de visualização 116. O processo de otimização de sistema nas seções respecgtivas do dispositivo de exibição de imagem 100 inclui o controle da propriedade de áudio tal como o balanço do som da saída da seção de alto-falante 108, o controle da propriedade de imagem da seção de painel de exibição 102, o controle do conteúdo de exibição da seção de painel de exibição 102, e o controle da direção de exibição da seção de painel de exibição 102 do dispositivo de exibição de imagem 100 pela seção de mecanismo 109. O dispositivo de exibição de imagem 100 pode realizar processo de otimização de acordo com a posição do usuário com base na informação de controle de sistema calculada pela seção de processamento de otimização de sistema 120. A informaçaõ de controle de sistema calculada pela seção de processamento de otimização de sistema 120 é enviada à seção de controle de sistema 122. A seção de controle de sistema 122 realiza o processo de 5 otimização de sistema nas respectivas seções do dispositivo de exibição de imagem 100 com base na informação de controle de sistema calculada pela seção de processamento de otimização de sistema 120. Por exemplo, a seção de controle de sistema 122 realiza o controle do balanço de volume da saída da seção de alto-falante 108, o controle de propriedade de imagem da seção de painel de exibição 102, o controle do conteúdo de exibição da seção de painel de exibição 102, o controle da direção de exibição da seção de painel de exibição 102 do dispositivo de exibição de imagem 100 pela seção de mecanismo 100 e semelhantes com base na informação de controle de sistema calculada pela seção de processamento de otimização de sistema 120. Como acima, a configuração do dispositivo de exibição de imagem 100 da modalidade da presente invenção tem sido explicado com referência à Fig. 2. A seguir, uma configuração da seção de controle 119 incluída no dispositivo de exibição de imagem 100 da modalidade da presente invenção será explicada em mais detalhe. [1-2. Configuração da Seção de Controle] Fig. 3 é um diagrama explicativo que explica a configuração da seção de controle 110 incluída no dispositivo de exibição de imagem 100 da modalidade da presente invenção.
Dentro da seção de controle 110, Fig. 3 explica uma configuração da seção de análise de estado de visualizaçaõ 116 incluída na seção de controle 110. A seguir, a configuração da seção de análise de estado de visualização 116 será explicada com referência à Fig. 3. Como mostrado na Fig. 3, a seção de análise de estado de visualização 116 é configurada incluindo uma seção de cálculo de direção/distância de usuário 132 e seção de cálculo de informação de posição de usuário 134. A seção de cálculo de direção/distância de usuário 132 recebe os resultados dos processos de imagem respectivos pela seção de 5 processamento de imagem 114 e informação óptica tal como informação de um ângulo de visualização e uma resolução de cada câmera das seções de formação de imagem 104, e calcula uma posição relativa do usuário (direção [ϕ1, θ1], distância d1) com respeito ao eixo óptico de cada câmera das seções de formação de imagem 104 usando os resultados dos processos de imagem respectivos pela seção de processamento de imagem 114 e informação óptica das seções de formação de imagem 104. Aqui, a imagem obtida, bem como uma informação de detecção de face (por exemplo, informação tal como a posição de detecção de face [a1, b1], o tamanho de face [w1, h1], e outras informações de atributo tais como a imagem e sexo) para cada usuário usando o dispositivo de exibição de imagem 100 são enviadas da seção de processamento de imagem 114 para a seção de cálculo de direção/distância de usuário 132 da seção de análise de estado de visualização 116. Fig. 5(A) é um diagrama explicativo para explicar um caso onde um usuário 1 e um usuário 2 estão presentes na área de formação de imagem da seção de formação de imagem 104, e Fig. 5(B) é um diagra,a explicativo para explicar a posição de detecção de face [a1, b1] e tamanho de face [w1, h1] do usuário 1, e a posição de detecção de face [a2, b2] e tamanho de face [w2, h2] do usuário 2 que estão incluídos na imagem obtida pela seção de formaão de imagem 104. Adicionalmente, Fig. 6(A) é um diagrama explicativo para explicar um caso onde usuários estão presentes em uma distância de referência d0 e uma distância d1 na área de formação de imagem das seções de formação de imagem 104, Fig. 6(B) é um diagrama explicativo para explicar o tamanho de face [w1, h1] do usuário na distância d1 na imagem obtida pela seção de formaçaõ de imagem 104, e Fig. 6(C) é um diagrama explicativo para explicar um tamanho de face de referência [w0, h0] do usuário na distância de referência d0 na imagem obtida pela seção de formação de imagem 104. A direção [ϕ1, θ1] é calculado como segue da posição de detecção de face [a1, b1] normalizada pelo tamanho da imagem obtida [xmax, 5 ymax] e o ângulo de visualização [ϕ0, θ0] da câmera da seção de formaçaõ de imagem 104. Direção horizontal: ϕ1=ϕ0*a1 Direção vertical: θ1=θ0*b1 Adicionalemente, a distância d1 é calculada como segue do tamanho de face de referência [w0, h0] na distância de referência d0. Distância: d1=d0*(w0/w1) A seção de cálculo de informação de posição de usuário 134 recebe um resultado de cálculo da posição relativa do usuário com respeito ao eixo óptico da câmera das seções de formação de imagem respectivas 104 pela seção de cálculo de direção/distância de usuário 132 e a informação anexa tal como a posiçãom, o ângulo da câmera das seções de formação de imagem respectivas 104, e calcula uma posição tridimensional do usuário com respeito ao centro do dispositivo do dispositivo de exibição de imagem 100 e o eixo frontal usando o resultado de cálculo da posição relativa ao usuário pela seção de cálculo de direção/distância de usuário 132 e a informação anexa das seções de formação de imagem respectivas 104. A informaçaõ de posição de usuário calculada pela seção de cálculo de informação de posição de usuário 134 é enviada à seção de armazenamento de informaçaõ de posição de usuário 117. Fig. 7(A) é um diagrama explicativo para explicar o centro do dispositivo [0, 0, 0] do dispositivo de exibição de imagem 100 e uma posição de câmera [Δx, Δy, Δz] da seção de formaçaõ de imagem 104, e Fig. 7(B) é um diagrama explicativo para explicar o centro de dispositivo [0, 0, 0] do dispositivo de exibição de imagem 100, o eixo frontal
[0, 0], a posição da câmera [Δx, Δy, Δz] da seção de formação de imagem 104, e um ângulo de instalação [Δϕ, Δθ]. Quando a posição relativa do usuário com respeito ao eixo óptico da câmera da seção de formação de imagem 104 é da direção [ϕ1, θ1] e 5 distância d1, o centro do dispositivo do dispositivo de exibição de imagem 100 é [0, 0, 0], e, com respeito ao eioxo frontal [0, 0], uma diferença posicional [Δx, Δy, Δz] é a posição da câmera da seção de formaçaõ de imagem 104, uma diferença angular [Δϕ, Δθ] é o ângulo de instalação, uma posição [x1, y1, z1] do usuário com respeito ao centro do dispositivo [0, 0, 0] do dispositivo de exibição de imagem 100 é calculado como segue: x1 = d1 * cos(θ1-Δθ) * tan(ϕ1-Δϕ) - Δx y1 = d1 * tan(θ1-Δθ) - Δy z1 = d1 * cos(θ1-Δθ) * cos(ϕ1-Δϕ) - Δz Fig. 4 é um diagrama explicativo que explica a configuração da seção de controle 110 incluída no dispositivo de exibição de imagem 100 da modalidade da presente invenção.
Dentro da seção de controle 110, Fig. 4 explica configurações da seção de armazenamento de informação de posição de usuário 117, a seção de processamento de otimização de sistema 120 e a seção de controle de sistema 122 incluídas na seção de controle 110. A seguir, as configurações da seção de armazenamento de informação de posição de usuário 117, a seção de processamento de otimização de sistema 120 e a seção de controle de sistema 122 serão explicadas com referência à Fig. 3. Como mostrado na Fig. 4, a seção de processamento de otimização de sistema 120 é configurada por incluir uma seção de processamento de otimização de propriedade de áudio 142, uma seção de processamento de otimização de propriedade de imagem 144, e uma seção de processamento de otimização de direção de dispositivo 146. Adicionalmente, a seção de controle de sistema 122 é confgurada por incluir uma seção de controle de propriedade de áudio 152, uma seção de controle de propriedade de imagem154, e uma seção de controle de direção de dispositivo 156. A seção de armazenamento de informaçaõ de posição de usuário 117 armazena informação de posição de usuário que é resultado de 5 cálculo da posição do usuário com respeito ao centro do dispositivo e ao eixo frontal do dispositivo de exibição de imagem 100 pela seção de cálculo de informaão de posição de usuário 134 da seção de análise de estado de visualização 116. A informação de posição de usuário armazenada na seção de armazenamento de informação de posição de usuário 117 é enviada à seção de processamento de otimização de sistema 120. A seção de processamento de otimização de propriedade de áudio 142 da seção de processamento de otimização de sistema 120 calcula informação de controle de propriedade de áudio para realizar um processo de otimização de propriedade de audio na seção de alto-falante 108 do dispositivo de exibição de imagem 100 com base na informação de posição de usuário enviada da seção de armazenamento de informação de posição 117, de modo a otimizar a propriedade de áudio do dispositivo de exibição de imagem 100 para o usuário na posição desejada.
A informação de controle de propriedade de áudio calculada pela seção de processamento de otimização da propriedade de áudio 142 é enviada à seção de controle de propriedade de áudio 152 da seção de controle de sistema 122. Como o processo da otimização de propriedade de áudio, existe um processo para otimização do balanço de volume da saída de som estéreo da seção de alto-falante 108 nos lados direito e esquerdo, e um processo de otimização relacionado a um efeito circundante da saída de som estéreo da seção de alto-falante 108. Uma vez que a diferença é gerada no balanço de volume dos lados direito e esquerdo da saída de som estéreo de uma seção de alto falante 108 dependendo na posição do usuário, o processo de otimização otimiza ganhos nos lados direito e esquerdo.
Por exemplo,
como mostrado na Fig. 11, uma diferença de um ponto de referência é calculada como segue de acordo com um princípio que o volume da saída de som estéreo da seção de alto-falante 108 atenua em proporção inversa a um quadrado da distância; a diferença (gain_dif_ no volume na seção de alto- 5 falante 108 nos lados direito e esquerdo é calculada, e o balanço de volume nos lados direito e esquerdo pode ser otimizado. gain_Lch = 20 * log(d_Lch/d_org_LRch) gain_Rch = 20 * log(d_Rch/d_org_LRch) gain_dif = gain_Rch - gain_Lch = 20 * log(d_Rch) - 20 * log(d_Lch) = 20 * log(d_Lch/d_Rch) Aqui, note que: gain_Lch : a diferença do ganho de Lch gain_Rch : a diferença do ganho de Rch d_org_LRch : a distância das seções de alto-falante direito e esquerdo ao ponto de referência d_Lch : a distância da seção de alto-falante Lch ao usuário d_Rch : a distância da seção de alto-falante Rch ao usuário gain_dif : diferença de ganho de voltagem de L/R
Adicionalmente, se uma pluralidade de usuários está presente, o balanço de volume esquerdo e direito da saída de som da seção de alto- falante 108 pode otimizar o balanço de volume direito e esquerdo da saída de som da seção de alto-falante 108 com prioridade para um usuário particular. 5 Como um método de calcular o centro do balanço do grupo do usuário, quando uma pluralidade de usuários, a saber usuários A, B, C e D como mostrado na Fig. 12 está presente, o cálculo pode ser realizado como segue. d_cent_dif = 0; temp_CAM_DIS = 0; if(CAM_AUDIENCE ʈ= 0){ for(int i=0;i < CAM_AUDIENCE;i++){ d_cent_dif += CAM_DIS[i]* tan(CAM_HOR_ANGLE[i]* PI/180); temp_CAM_DIS += CAM_DIS[i]; } } d_cent_dif = d_cent_dif/CAM_AUDIENCE; // retorna (usa) centro de valor do ângulo processado de balanço CAM_DIS = temp_CAM_DIS/CAM_AUDIENCE; // retorna (usa) centro de valor da distância processada de balanço
Aqui, note que CAM_AUDIENCE : Usuário dentro da área de formação de imagem das seções de formação de imagem 104 CAM_HOR_ANGLE[0] 5 : Ângulo do usuário A CAM_HOR_ANGLE[1] : Ângulo do usuário B CAM_HOR_ANGLE[2] : Ângulo do usuário C CAM_HOR_ANGLE[3] : Ângulo do usuário D CAM_DIS[0] : distância do usuário A CAM_DIS[1] : distância do usuário B CAM_DIS[2] : distância do usuário C CAM_DIS[3] : distância do usuário D A seção de processamento de otimização de propriedade de imagem 114 da seção de processamento de otimização de sistema 120 calcula informação de controle de propriedade de imagem com respeito ao usuário na posição desejada para realizar o processo de otimização de propriedade de imagem no painel de exibição 102 do dispositivo de exibição de imagem 100 com base na informação de posição de usuário enviada da seção de armazenamento de informação de posição de usuário 117 que é para otimizar a propriedade de imagem do dispositivo de exibição de imagem 100. A informação de controle de propriedade de imagem calculada pela seção de processamento de otimização de propriedade de imagem 114 é enviada À seção de controle de propriedade 154 da seção de controle de sistema 122. Como o processo de otimização de propriedade de imagem, existem processos tais como correção gama para otimizar uma aparência de 5 preto, e uma correção para ganho de cor para cumprir com uma mudança de cor.
Por exemplo, a correção gama é realizada como segue. γ=2,2 + correção de qualidade de imagem – 0,1 x direção do usuário Adicionalmente, por exemplo, a correção do ganho de cor é realizada como segue.
Ganho de Cor = Cor do usuário + correção de qualidade de imagem ±α x direção do usuário R(G,B) Ganho = R(G,B) x correção de qualidade de imagem ±α x direção do usuário Adicionalmente, se a pluralidade de usuários está presente, a correção gama e a correção de ganho de cor podem ser realizadas no centro do balanço do grupo de usuário, ou alternativamente a correção gama e a correção do ganho de cor podem ser realizadas com prioridade para um usuário particular.
Assumindo que uma posição do usuário A é [D0, Ah0] e uma posição do usuário B é [D1, Ah1] na direção horizontal como mostrado na Fig. 13(A), e uma posição do usuário A é [D0, Av0] e uma posição do usuário B é [D1, Av1] na direção vertical como mostrado na Fig. 13(B), um coeficiente de correção de ângulo de visualização médio e dados de ajuste para o processo de otimização de sistema são calculados pela seguinte fórmula.
Coeficiente de correção de ângulo de visualização médio = {(1/D0 * (Ah0 + Av0) + 1/D1 * (Ah1 + Av1) + 1/Dn * (Ahn +Avn))/n} * valor de correção
Dados de ajuste = (dados básicos) * {1 + (valor de correção no ângulo de visualização máximo) * (coeficiente de correção de ângulo de visualização médio)} 5 Um ângulo de visualização médio dá peso a usuários próximos, e calcula uma média de um ângulo horizontal e um ângulo vertical para um número de usuários.
O coeficiente de correção é calculado multiplicando o valor de correção ao ângulo de visualização médio, e uma quantidade de correção total é calculada multiplicando o coeficiente de correção ao valor de correção máximo.
Os dados de ajuste são calculados adicionando ou subtraindo a quantidade de correção para ou a partir dos dados básico (dados sem correção: γ=2,2 + correção de qualidade de imagem). Adicionalmente, na otimização da propriedade de imagem, desde que valor ótimo varia dependendo na idade e sexo do usuário, o processo de otimização pode ser realizado usando a informação de atributo tal como a idade e sexo obtidos da seção de processamento de imagem em adição à informação de posição de usuário.
Por exemplo, uma correção de luminância do painel de exibição 102 é realizada como segue.
BackLight = valor de ajuste básico* valor de correção Valor de correção = 10 ^ (A * log iluminação da tela + B * log ângulo de visualização + C * log nível médio da imagem+ D * idade)/iluminação da tela Adicionalmente, em um experimento, uma luminância ótima é conhecida por ter uma relação com a iluminação da tela, ângulo de visualização, nível de luminância médio da imagem, e idade como segue.
Log luminância ótima = A * log iluminação da tela + B * log ângulo de visualização + C * log nível médio da imagem + D * idade.
A seção de processamento de otimização de direção de dispositivo 146 da seção de processamento de otimização de sistema 120 calcula informação de controle de direção de dispositivo para realizar um processo de otimização de direção de dispositivo a uma seção de mecanismo 5 109 do dispositivo de exibição de imagem 100 com respeito ao usuário na posição desejada com base na informação de posição de usuário enviada da seção de armazenamento de informação de posição de usuário 117, para otimizar a direção de dispositivo do dispositivo de exibição de imagem 100. A informação de controle de direção de dispositivo calculada pela seção de processamento de otimização de direção de dispositivo 146 é enviada à seção de controle de direção de dispositivo 156 da seção de controle de sistema 122. Como o processo de controle de direção de dispositivo, se a seção de mecanismo 109 é equipada com um mecanismo giratório na direção vertical e horizonta, o dispositivo de exibição de imagem 100 é rotacionado de modo que o eixo frontal [0, 0] do dispositivo de exibição de imagem 100 vem a estar na direção [ϕ1, θ1] do usuário.
Devido a isso, o painel de exibição 102 do dispositivo de exibição de imagem 100 pode ser otimizado a uma direção que é na cabeça como visto do usuário.
A seção de controle de propriedade de áudio 152 da seção de controle de sistema 122 realiza o processo de otimização de propriedade de áudio com base na informação de controle de propriedade de áudio enviada da seção de processamento de otimização de propriedade de áudio 142. Por exemplo, a seção de controle de propriedade de áudio 152 realiza o controle do balanço de volume da saída de som da seção de alto-falante 108 com base na informação de controle de propriedade de áudio enviada da seção de processamento de otimização de propriedade de áudio 142. A seção de controle de propriedade de imagem 154 da seção de controle de sistema 122 realiza o processo de otimização de propriedade de imagem com base na informação de controle de propriedade de imagem enviada da seção de processamento de otimização de propriedade de imagem
144. Por exemplo, a seção de controle de propriedade de imagem 154 realiza o controle da propriedade de formação de imagem da seção do painel de exibição 102 com base na informação de controle de propriedade de imagem enviada da 5 seção de processamento de otimização de propriedade de imagem 144. A seção de controle de direção de dispositivo 156 da seção de controle de sistema 122 realiza o processo de otimização de direção de dispositivo com base na informação de controle de direção de dispositivo enviada da seção de processamento de otimização de direção de dispositivo
146. Por exemplo, a seção de controle de direção de dispositivo 156 realiza o controle da seção de mecanismo 109 do dispositivo de exibição de imagem 100 com base na informação de controle de direção de dispositivo enviada da seção de processamento de otimização de direção de dispositivo 146. Como acima, a configuração da seção de controle 110 incluída no dispositivo de exibição de imagem 100 da modalidade da presente invenção tem sido explicado com referência à Fig. 3 e Fig. 4. A seguir, o processo de otimização de acordo com a posição do usuário pelo dispositivo de exibição de imagem 100 da modalidade da presente invenção será explicado. [1-3. Processo de Otimização de acordo com a Posição do Usuário] Fig. 8 é um diagrama de fluxo mostrando um exemplo do processo de otimização de acordo com a posição do usuário pelo dispositivo de otimização de imagem 100 da modalidade da presente invenção. A seguir, o processo de otimização de acordo com a posição do usuário pelo dispositivo de exibição de imagem 100 da modalidade da presente invenção será explicado com referência à Fig. 8. Na Fig. 8, primeiramente, quando as seções de formação de imagem 104 do dispositivo de exibição de imagem 100 inicia obtendo uma imagem, a seção de entrada de imagem 112 da unidade de controle 11o recebe a imagem obtida pelas seções de formação de imagem 104 (etapa S802). Então, a seção de processamento de imagem 114 da seção de controle 110 realiza o processo de detectar a face incluída na imagem 5 recebida pela seção de entrada de imagem 112 (etapa S804). Então, a seção de análise de estado de visualização 116 da seção de controle 110 calcula a posição relativa do usuário com respeito ao eixo óptico da câmera das seções de formação de imagem respectivas 104 na seção de cálculo de direção/distância de usuário e calcula a posição do usuário com respeito ao centro do dispositivo e o eixo frontal do dispositivo de exibição de imagem 100 na seção de cálculo de informação de posição de usuário 134 (etapa S806). Então, a seção de processamento de otimização de sistema 120 da seção de controle 110 calcula informação de controle de sistema para realizar o processo de otimização de sistema para otimizar um estado do dispositivo de exibição de imagem 100 com respeito ao usuário na posição desejada com base na informação de posição de usuário calculada na etapa S806 (etapa S808). Por exemplo, na etapa S808. A informação de controle de sistema para realizar a otimização do balanço de volume da saída de som da seção de alto-falante 108 nos lados esquerdo e direito é calculada.
Adicionalmente, na etapa S808, a informação de controle de sistema para realizar o processo tal como a correção gama para otimização da aparência do preto e a correção do ganho de cor para obedecer a mudança de cor é calculada.
Adicionalmente, na etapa S808, a informação de controle de sistema para realizar o processo para otimizar a direção de dispositivo do dispositivo de exibição de imagem 100 é calculada.
Assim, a seção de controle de sistema 122 da seção de controle 110 realiza o processo de otimização de sistema com base na informação de controle de sistema calculada na etapa S808 (etapa S810), e termina este processo.
Pelo processo de otimização de acordo com a posição do usuário na Fig. 8, o estado do dispositivo de exibição de imagem 100 com 5 respeito ao usuário na posição desejada pode ser otimizado.
Por exemplo, o balanço de volume esquerdo e direito da saída de som da seção de alto-falante 108 é otimizado, de modo que o usuário pode assistir ao dispositivo de exibição de imagem 100 sem se sentir desconfortável.
Adicionalmente, a aparência do preto e da mudança de cor são otimizados, de modo que o usuário pode satisfatoriamente assistir à imagem exibida no dispositivo de exibição de imagem 100. Adicionalmente, o dispositivo de exibição de imagem 100 é otimizado para a direção em que fica na altura da cabeça do usuário, de modo que o usuário pode satisfatoriamente assistir à imagem exibida no dispositivo de exibição de imagem 100. [1-4. Processo de Otimização de acordo com Posições de Usuário de Um ou Mais Usuários] A seguir, um processo de otimização de acordo com posições de um ou mais usuários pelo dispositivo de exibição de imagem 100 da modalidade da presente invenção será explicado.
Fig. 9 é um diagrama de fluxo mostrando um exemplo de um processo de otimização de acordo com as posições de um ou mais usuários pelo dispositivo de exibição de imagem 100 da modalidade da presente invenção.
Na Fig. 9, primeiramente, quando as seções de formação de imagem 104 do dispositivo de exibição de imagem 100 começam a obter uma imagem, a seção de entrada de imagem 112 da unidade de controle 110 recebe a imagem obtida pela seção de formação de imagem 104, e a seção de processamento de imagem 114 da seção de controle 110 realiza o processo de detecção da face incluído na imagem recebida pela seção de entrada de imagem 112 e semelhante (etapa S902).
Então, a seção de análise de estado de visualização 116 da seção de controle 110 recebe um resultado do processo de detecção de face pela seção de processamento de imagem 114, e determina se um número detectado do usuário é um ou mais usando o resultado da detecção de face 5 pela seção de processamento de imagem 114 (etapa S904). Como um resultado da determinação da etapa S904, se um número detectado do usuário é um, a seção de análise de estado de visualização 116 da seção de controle 110 calcula um ângulo horizontal e um ângulo vertical do usuário (etapa S960). Assim, a seção de processamento de otimização de sistema 120 da seção de controle 110 calcula um coeficiente de correção para a informação de controle de sistema para realizar o processo de otimização de sistema com base no ângulo horizontal e no ângulo vertical do usuário calculado na etapa S906 (etapa S908). Como um resultado da determinação da etapa S904, se um número detectado do usuário é uma pluralidade, a seção de análise de estado de visualização 116 da seção de controle 110 determina se a pluralidade de usuários está no centro da imagem ou não (etapa S910). Como um resultado da determinação da etapa S910, se uma pluralidade de usuários não está no centro da imagem (NÃO na etapa S1910), a seção de análise de estado de visualização 116 da seção de controle 110 calcula o ângulo horizontal, o ângulo vertical e a distância para uns respectivos da pluralidade de usuários, e coloca-os em média (etapa S912). Adicionalmente, na etapa S912, o ângulo horizontal, o ângulo vertical, e a distância podem ser calculadas de uns respectivos da pluralidade de usuários, e posições do centro do balanço para a pluralidade de usuários pode ser calculada.
Então, a seção de processamento de otimização de sistema 120 da seção de controle 110 calcula o coeficiente de correção para a informação de controle de sistema para realizar o processo de otimização de sistema (etapa S914). Como um resultado da determinação da etapa S910, se a pluralidade de usuários no centro da imagem (SIM na etapa S910), a seção de 5 processamento de otimização de sistema 120 da seção de controle 110 calcula o coeficiente de correção sem o coeficiente de correção para a informação de controle de sistema para o processo de otimização de sistema, ou mudando uma ponderação no mesmo (etapa S916). Após tendo calculado os coeficientes de correção nas etapas S908, S914, e S916, a seção de processamento de otimização de sistema 120 da seção de controle 110 calcula a informação de controle de sistema adicionando os coeficientes de correção aos dados básicos da informação de controle de sistema para o processo de otimização de sistema (etapa S918), e termina o processo.
Pelo processo de otimização de acordo com as posições de um ou mais usuários na Fig. 9, o estado do dispositivo de exibição de imagem 100 com respeito à pluralidade de usuários nas posições desejadas pode ser otimizado. [1-5. Processo de Otimização de acordo com Idades de Um ou Mais Usuários] A seguir, um processo de otimização de acordo com idades de um ou mais usuários pelo dispositivo de exibição de imagem 100 da modalidade da presente invenção será explicado.
Fig. 10 é um diagrama de fluxo mostrando um exemplo de processo de otimização de acordo com as idades de um ou mais usuários pelo dispositivo de exibição de imagem 100 da modalidade da presente invenção.
Na Fig. 10, primeiramente, quando as seções de formação de imagem 104 do dispositivo de exibição de imagem 100 começa obtendo uma imagem, a seção de entrada imagem 112 da unidade de controle 110 recebe a imagem obtida pela seção de formação de imagem 104, e a seção de processamento de imagem 114 na seção de controle 110 realiza o processo de detecção das faces incluídas na imagem recebida pela seção de entrada de imagem 112 e semelhantes (etapa S1002). 5 Então, a seção de análise de estado de visualização 116 da seção de controle 110 recebe um resultado do processo de detecção de face pela seção de processamento de imagem 114, e determina se um número detectado de usuários é um ou mais usando o resultado da detecção de face pela seção de processamento de imagem 114 (etapa S1004). Como resultado da determinação da etapa S1004, se o número detectado do usuário é um, a seção de análise de estado de visualização 116 da seção de controle 110 analisa a idade do usuário (etapa S1006). Então, a seção de processamento de otimização de sistema 120 da seção de controle 110 calcula o coeficiente de correção para a informação de controle de sistema para o processo de otimização de sistema com base em um resultado de análise da idade na etapa S1006 (etapa S1008). Como um resultado da determinação da etapa S1004, se o número detectado do usuário é uma pluralidade, a seção de análise de estado de visualização 116 da seção de controle 110 analisa as idades dos usuários respectivos (etapa S1010). Então, a seção de análise de estado de visualização 116 da seção de controle 110 calcula um coeficiente de correção sem a correção da informação de controle de sistema para o processo de otimização de sistema, ou calcula coeficientes de correção independentemente, e médias dos mesmos (etapa S1012). Após etapas S1008, S1012, a seção de processamento de otimização de sistema 120 da seção de controle 110 calcula a informação de controle de sistema adicionando o coeficiente de correção aos dados básicos da informação de controle de sistema para o processo de otimização de sistema (etapa S1014), e termina o processo.
Pelo processo de otimização de acordo com as idades dos um ou mais usuários na Fig. 10, o estado do dispositivo de exibição 100 com 5 respeito à pluralidade de usuários de idades variadas pode ser otimizado.
Adicionalmente, na modalidade, a seção de processamento de otimização de sistema 120 pode calcular informação de controle de sistema para otimizar um tamanho de letra de uma GUI exibida na seção de painel de exibição 102 com base na informação de posição de usuário.
A informação de controle de sistema calculada pela seção de processamento de otimização de sistema 120 é enviada à seção de controle de sistema 122, e o processo de otimização para otimizar o tamanho de letra da GUI é exibido na seção de painel de exibição 102 é realizado pela seção de controle de sistema 122. Como o processo de otimização de tamanho de letra da GUI, como mostrado na FIG. 14(A), existe um processo para aumentar o tamanho da letra da GUI exibida na seção de painel de exibição 102 quando o usuário aproxima do dispositivo de exibição de imagem.
Neste caso, o tamanho da letra da GUI é aumentado quando o usuário aproxima do dispositivo de exibição de imagem 100, e o tamanho de letra da GUI é reduzido quando o usuário se afasta do dispositivo de exibição de imagem 100. Por exemplo, quando o tamanho da letra da GUI é pequeno e causa dificuldade em ler, o tamanho da letra da GUI aumenta conforme o usuário se aproxima, assim o usuário pode facilmente reconhecer a GUI.
Adicionalmente, como o processo de otimização do tamanho da letra da GUI, como mostrada na Fig. 14(B), existe um processo para refinar informação a ser exibida, que é, para aumentar quantidade de informação, reduzindo o tamanho da letra da GUI exibida na seção de painel de exibição 102 quando o usuário aproxima do dispositivo de exibição de imagem 100. Neste caso, o tamanho da letra da GUI é reduzido e a informação a ser exibida é aumentada quando o usuário se aproxima do dispositivo de exibição de imagem 100, e o tamanho da letra da GUI é aumentado quando o usuário se afasta do dispositivo de exibição de imagem
100. Por exemplo, se o usuário estiver longe quando uma lista de programa é 5 exibida na seção de painel de exibição 102, a quantidade de informação é reduzida aumentando o tamanho da letra, e quando o usuário se aproxima, a quantidade de informação é aumentada reduzindo o tamanho da letra. Adicionalmente, na presente modalidade, como mostrado nas Figs. 15(A) a 15(C), no cálculo das posições de visualização dos usuários, a variação no tamanho da face pode ser corrigida usando o tamanho de face de referência [w0, h0] na distância de referência d0 em uma seguinte tabela de correção. Por exemplo, da informação atribuída tal como a idade do usuário, uma tabela de dados de um tamanho de face médio da idade é predeterminadamente armazenado, por exemplo, se o usuário é uma criança, o tamanho de face de referência [w0, h0] pode ser feito para ser um tamanho de face [w0C, h0C] que é menor que o tamanho de face de referência mostrado na Fig. 15(C), e se o usuário é um adulto, o tamanho de face de referência [w0, h0] pode ser feito para ser um tamanho de face [w0A, h0A] que é maior que o tamanho de face de referência mostrado na Fig. 15(B). Adicionalmente, na presente modalidade, no cálculo da posição de visualização do usuário, predeterminadamente registrando o usuário que usa o dispositivo de exibição de imagem 100 no dispositivo de exibição de imagem 100, por exemplo uma família de um local de instalação do dispositivo de exibição de imagem 100, o tamanho de face de cada usuário pode ser registrado como uma tabela de dados. Devido a isto, o tamanho de face de referência pode ser mudado para cada usuário. Um método para registrar o tamanho de face para cada usuário pode ser realizado obtendo imagens juntas com informação de distância em cooperação com outro sensor de distância (não mostrado), obtendo imagens guiando o usuário a uma distância predeterminada, ou obtendo imagens na mesma distância como uma escala a ser a referência.
Adicionalmente, na presente modalidade, até se o usuário estiver fora da área de formação de imagem da seção de formação de imagem 5 104 estimando a posição do usuário fora da área de formação de imagem da informação de transição cronológica, o processo de otimização de sistema anteriormente mencionado pode ser continuado.
Adicionalmente, na presente modalidade, no processo de otimização de sistema, uma constante de tempo apropriada pode ser ajustada de acordo com um ambiente de visualização do usuário.
Devido a isto, até se o usuário realizar uma transmissão posicional de etapa, o processo de otimização de sistema pode ser continuado.
Note que, as séries anteriormente mencionadas dos processos podem ser realizadas por hardware, ou podem ser realizadas por software.
Tendo o software para realizar as séries dos processos, um programa configurando o software é instalado de um meio de armazenamento de programa a um computador instalado em um hardware dedicado, ou por exemplo a um computador pessoal de fins gerais que é capaz de realizar várias funções instalando vários programas.
A modalidade preferida da presente invenção tem sido descrita acima com referência aos desenhos anexos, mas a presente invenção não é limitada aos mesmos.
Deve ser entendido por aqueles versados na técnica que várias modificações, combinações, subcombinações e alterações podem ocorrer dependendo nos requerimentos de projeto e outros fatores enquanto eles estiverem dentro do escopo das reivindicações anexas ou equivalentes das mesmas.
Lista de Sinais de Referência 100 Dispositivo de exibição de imagem 102 Seção de painel de exibição 102 Seção de formação de imagem
106 Seção de sensor 108 Seção de alto-falante 109 Seção de mecanismo 110 Seção de controle 5 112 Seção de entrada de imagem 114 Seção de processamento de imagem 116 Seção de análise de estado de visualização 117 Seção de armazenamento de informação de posição de usuário 118 Seção de gravação de estado de visualização 120 Seção de processamento de otimização de sistema 122 Seção de controle de sistema 132 Seção de cálculo de direção/distância de usuário 134 Seção de cálculo de informação de posição de usuário 142 Seção de processamento de otimização de propriedade de áudio 144 Seção de processamento de otimização de propriedade de imagem 146 Seção de processamento de otimização de direção de dispositivo 152 Seção de controle de propriedade de áudio 154 Seção de controle de propriedade de imagem 156 Seção de controle de direção de dispositivo 200 Servidor de coleta de dados

Claims (7)

REIVINDICAÇÕES
1. Dispositivo de exibição caracterizado pelo fato de compreender: uma seção que pega uma imagem de uma faixa 5 predeterminada de uma imagem dinâmica com respeito a uma direção de exibição de imagem; uma seção de análise de imagem que analisa a imagem dinâmica obtida pela seção de formação de imagem e calcula uma posição de um usuário; uma seção de processamento de otimização de sistema que calcula informação de controle de sistema para otimizar um sistema com base na posição do usuário calculada pela seção de análise de imagem; e uma seção de controle de sistema que otimiza o sistema com base na informação de controle de sistema calculada pela seção de processamento de otimização de sistema, em que a seção de analise de imagem analiza a imagem dinâmica obtida pela seção de formação de imagem e calcula uma posição de um usuário particular, e em que a seção de processamento de otimização de sistema calcula informação de controle de sistema para otimizar um sistema com base na posição do usuário particular calculado pela seção de analise de imagem.
2. Dispositivo de exibição de acordo com a reivindicação 1, caracterizado pelo fato de que a seção de processamento de otimização de sistema calcula informação de controle de sistema para otimizar um balanço de volume de saída de som de uma seção de saída de áudio com base na posição do usuário calculada pela seção de análise de imagem.
3. Dispositivo de exibição de acordo com a reivindicação 1, caracterizado pelo fato de que a seção de processamento de otimização de sistema calcula informação de controle de sistema para otimizar uma propriedade de imagem de uma seção de exibição de imagem com base na posição do usuário calculada pela seção de análise de imagem. 5
4. Dispositivo de exibição de acordo com a reivindicação 1, caracterizado pelo fato de que a seção de processamento de otimização de sistema calcula informação de controle de sistema para otimizar conteúdos de exibição de uma seção de exibição de imagem com base na posição do usuário calculada pela seção de análise de imagem.
5. Dispositivo de exibição de acordo com a reivindicação 1, caracterizado pelo fato de que a seção de processamento de otimização calcula informação de controle de sistema para otimizar uma direção de dispositivo do dispositivo de exibição ele mesmo com base na posição do usuário calculada pela seção de análise de imagem.
6. Dispositivo de exibição de acordo com a reivindicação 1, caracterizado pelo fato de que a seção de análise de imagem analisa a imagem dinâmica obtida pela seção de formação de imagem e calcula uma posição tridimensional do usuário.
7. Método de controle caracterizado pelo fato de que compreende: uma etapa de formação de imagem de tirar uma imagem de uma faixa predeterminada de uma imagem dinâmica com respeito a uma direção de exibição de imagem; uma etapa de análise de imagem de analisar a imagem dinâmica obtida e calcular uma posição de um usuário;
uma etapa de processamento de otimização de sistema de calcular informação de controle de sistema para otimizar um sistema com base na posição calculada do usuário; e uma etapa de controle de sistema de otimizar o sistema com 5 base na informação de controle de sistema calculada, em que a etapa de analise de imagem analisa a imagem dinâmica obtida na etapa de formação de imagem e calcula uma posição posição de usuário particular, e em que a etapa de processamento de otimização de sistema calcula informação de sistema de controle para otimizar um sistema com base na posição do usuário particular na etapa de analise de informação.
BR112012005231-4A 2009-09-15 2010-07-22 dispositivo de exibição e método de controle BR112012005231A2 (pt)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2009213377A JP5568929B2 (ja) 2009-09-15 2009-09-15 表示装置および制御方法
JP2009-213377 2009-09-15
PCT/JP2010/062311 WO2011033855A1 (ja) 2009-09-15 2010-07-22 表示装置および制御方法

Publications (1)

Publication Number Publication Date
BR112012005231A2 true BR112012005231A2 (pt) 2020-08-04

Family

ID=43758468

Family Applications (1)

Application Number Title Priority Date Filing Date
BR112012005231-4A BR112012005231A2 (pt) 2009-09-15 2010-07-22 dispositivo de exibição e método de controle

Country Status (8)

Country Link
US (2) US8952890B2 (pt)
EP (1) EP2472863A4 (pt)
JP (1) JP5568929B2 (pt)
KR (1) KR101784754B1 (pt)
CN (1) CN102687522B (pt)
BR (1) BR112012005231A2 (pt)
RU (1) RU2553061C2 (pt)
WO (1) WO2011033855A1 (pt)

Families Citing this family (33)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9330589B2 (en) * 2011-11-16 2016-05-03 Nanolumens Acquisition, Inc. Systems for facilitating virtual presence
JP5263092B2 (ja) 2009-09-07 2013-08-14 ソニー株式会社 表示装置および制御方法
JP5418093B2 (ja) 2009-09-11 2014-02-19 ソニー株式会社 表示装置および制御方法
JP2013031013A (ja) * 2011-07-28 2013-02-07 Toshiba Corp 電子機器、電子機器の制御方法、電子機器の制御プログラム
CN102314848A (zh) * 2011-09-09 2012-01-11 深圳Tcl新技术有限公司 液晶显示装置背光控制方法和系统
JP5892797B2 (ja) * 2012-01-20 2016-03-23 日本放送協会 送受信システム及び送受信方法、受信装置及び受信方法
KR20130117525A (ko) * 2012-04-18 2013-10-28 삼성디스플레이 주식회사 영상 표시 시스템 및 이의 구동방법
CN104412607A (zh) * 2012-07-06 2015-03-11 Nec显示器解决方案株式会社 显示设备以及用于显示设备的控制方法
US9412375B2 (en) 2012-11-14 2016-08-09 Qualcomm Incorporated Methods and apparatuses for representing a sound field in a physical space
JP6058978B2 (ja) * 2012-11-19 2017-01-11 サターン ライセンシング エルエルシーSaturn Licensing LLC 画像処理装置及び画像処理方法、撮影装置、並びにコンピューター・プログラム
CN104798129B (zh) * 2012-11-27 2018-10-19 索尼公司 显示装置、显示方法和计算机可读介质
US20140153753A1 (en) * 2012-12-04 2014-06-05 Dolby Laboratories Licensing Corporation Object Based Audio Rendering Using Visual Tracking of at Least One Listener
JP6297985B2 (ja) * 2013-02-05 2018-03-20 Toa株式会社 拡声システム
WO2014126991A1 (en) * 2013-02-13 2014-08-21 Vid Scale, Inc. User adaptive audio processing and applications
US10139925B2 (en) * 2013-03-04 2018-11-27 Microsoft Technology Licensing, Llc Causing specific location of an object provided to a device
DE102013206569B4 (de) * 2013-04-12 2020-08-06 Siemens Healthcare Gmbh Gestensteuerung mit automatisierter Kalibrierung
WO2015100205A1 (en) * 2013-12-26 2015-07-02 Interphase Corporation Remote sensitivity adjustment in an interactive display system
CN104298347A (zh) * 2014-08-22 2015-01-21 联发科技(新加坡)私人有限公司 电子显示设备屏幕的控制方法、控制装置及显示系统
US10462517B2 (en) * 2014-11-04 2019-10-29 Sony Corporation Information processing apparatus, communication system, and information processing method
JP2016092765A (ja) * 2014-11-11 2016-05-23 株式会社リコー 情報処理装置、ユーザー検知方法、プログラム
CN106713793A (zh) * 2015-11-18 2017-05-24 天津三星电子有限公司 一种声音播放控制方法及其装置
US10291949B2 (en) * 2016-10-26 2019-05-14 Orcam Technologies Ltd. Wearable device and methods for identifying a verbal contract
WO2018155354A1 (ja) * 2017-02-21 2018-08-30 パナソニックIpマネジメント株式会社 電子機器の制御方法、電子機器の制御システム、電子機器、及び、プログラム
EP3396226B1 (en) * 2017-04-27 2023-08-23 Advanced Digital Broadcast S.A. A method and a device for adjusting a position of a display screen
CN107632708B (zh) * 2017-09-22 2021-08-17 京东方科技集团股份有限公司 一种屏幕可视角度的控制方法、控制装置及柔性显示装置
US11011095B2 (en) * 2018-08-31 2021-05-18 Chongqing Hkc Optoelectronics Technology Co., Ltd. Display panel, and image control device and method thereof
KR20200027394A (ko) * 2018-09-04 2020-03-12 삼성전자주식회사 디스플레이 장치 및 이의 제어 방법
US11032508B2 (en) * 2018-09-04 2021-06-08 Samsung Electronics Co., Ltd. Display apparatus and method for controlling audio and visual reproduction based on user's position
CN110503891A (zh) * 2019-07-05 2019-11-26 太仓秦风广告传媒有限公司 一种基于距离变化的电子广告牌变换方法及其系统
JP2021015203A (ja) * 2019-07-12 2021-02-12 富士ゼロックス株式会社 画像表示装置、画像形成装置及びプログラム
CN112073804B (zh) * 2020-09-10 2022-05-20 深圳创维-Rgb电子有限公司 电视声音调整方法、电视及存储介质
TW202333491A (zh) * 2021-12-28 2023-08-16 日商索尼集團公司 資訊處理裝置、資訊處理方法、以及程式
CN114999335B (zh) * 2022-06-10 2023-08-15 长春希达电子技术有限公司 基于超宽带、一维包络峰值的led拼接屏修缝方法

Family Cites Families (52)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4973149A (en) * 1987-08-19 1990-11-27 Center For Innovative Technology Eye movement detector
JPH07106839B2 (ja) * 1989-03-20 1995-11-15 株式会社日立製作所 エレベーター制御システム
JPH05137200A (ja) * 1991-11-14 1993-06-01 Sony Corp ステレオ音量バランス自動調整装置
JPH09247564A (ja) * 1996-03-12 1997-09-19 Hitachi Ltd テレビジョン受像機
DE19613178A1 (de) * 1996-04-02 1997-10-09 Heinrich Landert Verfahren zum Betrieb einer Türanlage und eine nach dem Verfahren arbeitende Türanlage
JP3968477B2 (ja) * 1997-07-07 2007-08-29 ソニー株式会社 情報入力装置及び情報入力方法
US6611297B1 (en) * 1998-04-13 2003-08-26 Matsushita Electric Industrial Co., Ltd. Illumination control method and illumination device
US6215471B1 (en) * 1998-04-28 2001-04-10 Deluca Michael Joseph Vision pointer method and apparatus
US6076928A (en) * 1998-06-15 2000-06-20 Fateh; Sina Ideal visual ergonomic system for computer users
US6243076B1 (en) * 1998-09-01 2001-06-05 Synthetic Environments, Inc. System and method for controlling host system interface with point-of-interest data
US6603491B2 (en) * 2000-05-26 2003-08-05 Jerome H. Lemelson System and methods for controlling automatic scrolling of information on a display or screen
JP3561463B2 (ja) * 2000-08-11 2004-09-02 コナミ株式会社 3dビデオゲームにおける擬似カメラ視点移動制御方法及び3dビデオゲーム装置
US7348963B2 (en) * 2002-05-28 2008-03-25 Reactrix Systems, Inc. Interactive video display system
US7627139B2 (en) * 2002-07-27 2009-12-01 Sony Computer Entertainment Inc. Computer image and audio processing of intensity and input devices for interfacing with a computer program
EP1426919A1 (en) * 2002-12-02 2004-06-09 Sony International (Europe) GmbH Method for operating a display device
AU2003301043A1 (en) * 2002-12-13 2004-07-09 Reactrix Systems Interactive directed light/sound system
US8123616B2 (en) * 2003-03-25 2012-02-28 Igt Methods and apparatus for limiting access to games using biometric data
JP2005044330A (ja) 2003-07-24 2005-02-17 Univ Of California San Diego 弱仮説生成装置及び方法、学習装置及び方法、検出装置及び方法、表情学習装置及び方法、表情認識装置及び方法、並びにロボット装置
US7117380B2 (en) * 2003-09-30 2006-10-03 International Business Machines Corporation Apparatus, system, and method for autonomic power adjustment in an electronic device
EP1551178A1 (en) * 2003-12-18 2005-07-06 Koninklijke Philips Electronics N.V. Supplementary visual display system
EP1566788A3 (en) 2004-01-23 2017-11-22 Sony United Kingdom Limited Display
EP1596271A1 (en) * 2004-05-11 2005-11-16 Hitachi Europe S.r.l. Method for displaying information and information display system
JP4734855B2 (ja) * 2004-06-23 2011-07-27 株式会社日立製作所 情報処理装置
RU2370817C2 (ru) * 2004-07-29 2009-10-20 Самсунг Электроникс Ко., Лтд. Система и способ отслеживания объекта
JP4107288B2 (ja) * 2004-12-10 2008-06-25 セイコーエプソン株式会社 制御システム及びこのシステムに適合する被制御装置並びに遠隔制御装置
JP4899334B2 (ja) * 2005-03-11 2012-03-21 ブラザー工業株式会社 情報出力装置
KR101112735B1 (ko) * 2005-04-08 2012-03-13 삼성전자주식회사 하이브리드 위치 추적 시스템을 이용한 입체 디스플레이장치
WO2006122004A1 (en) * 2005-05-06 2006-11-16 Omnilink Systems, Inc. System and method of tracking the movement of individuals and assets
JP4595750B2 (ja) 2005-08-29 2010-12-08 ソニー株式会社 画像処理装置および方法、並びにプログラム
JP4225307B2 (ja) * 2005-09-13 2009-02-18 船井電機株式会社 テレビジョン受信装置
US8218080B2 (en) * 2005-12-05 2012-07-10 Samsung Electronics Co., Ltd. Personal settings, parental control, and energy saving control of television with digital video camera
CN101379455B (zh) * 2006-02-03 2011-06-01 松下电器产业株式会社 输入装置及其方法
JP4876687B2 (ja) * 2006-04-19 2012-02-15 株式会社日立製作所 注目度計測装置及び注目度計測システム
US8340365B2 (en) * 2006-11-20 2012-12-25 Sony Mobile Communications Ab Using image recognition for controlling display lighting
JP2008301167A (ja) * 2007-05-31 2008-12-11 Sharp Corp 液晶テレビジョン受像機
CN101952818B (zh) * 2007-09-14 2016-05-25 智慧投资控股81有限责任公司 基于姿态的用户交互的处理
WO2009038149A1 (ja) * 2007-09-20 2009-03-26 Nec Corporation 映像提供システム、および映像提供方法
CN101874404B (zh) * 2007-09-24 2013-09-18 高通股份有限公司 用于语音和视频通信的增强接口
JP2009094723A (ja) * 2007-10-05 2009-04-30 Mitsubishi Electric Corp テレビ受像機
US8539357B2 (en) * 2007-11-21 2013-09-17 Qualcomm Incorporated Media preferences
WO2009067676A1 (en) * 2007-11-21 2009-05-28 Gesturetek, Inc. Device access control
JP4702377B2 (ja) * 2008-02-18 2011-06-15 セイコーエプソン株式会社 制御システムおよび被制御装置
JP5169403B2 (ja) * 2008-04-07 2013-03-27 ソニー株式会社 画像信号生成装置、画像信号生成方法、プログラム及び記憶媒体
JP2010004118A (ja) * 2008-06-18 2010-01-07 Olympus Corp デジタルフォトフレーム、情報処理システム、制御方法、プログラム及び情報記憶媒体
CN102119530B (zh) * 2008-08-22 2013-08-21 索尼公司 图像显示设备、控制方法
US8400322B2 (en) * 2009-03-17 2013-03-19 International Business Machines Corporation Apparatus, system, and method for scalable media output
JP5263092B2 (ja) 2009-09-07 2013-08-14 ソニー株式会社 表示装置および制御方法
JP5556098B2 (ja) * 2009-09-11 2014-07-23 ソニー株式会社 表示方法及び表示装置
JP2011107899A (ja) * 2009-11-16 2011-06-02 Sony Corp 情報処理装置、設定変更方法及び設定変更プログラム
US8523667B2 (en) * 2010-03-29 2013-09-03 Microsoft Corporation Parental control settings based on body dimensions
JP2012104871A (ja) * 2010-11-05 2012-05-31 Sony Corp 音響制御装置及び音響制御方法
US9288387B1 (en) * 2012-09-11 2016-03-15 Amazon Technologies, Inc. Content display controls based on environmental factors

Also Published As

Publication number Publication date
US20150185830A1 (en) 2015-07-02
KR20120082406A (ko) 2012-07-23
EP2472863A1 (en) 2012-07-04
EP2472863A4 (en) 2013-02-06
JP2011066516A (ja) 2011-03-31
RU2012108872A (ru) 2013-09-20
US8952890B2 (en) 2015-02-10
WO2011033855A1 (ja) 2011-03-24
US20120293405A1 (en) 2012-11-22
CN102687522A (zh) 2012-09-19
US9489043B2 (en) 2016-11-08
RU2553061C2 (ru) 2015-06-10
CN102687522B (zh) 2015-08-19
JP5568929B2 (ja) 2014-08-13
KR101784754B1 (ko) 2017-10-16

Similar Documents

Publication Publication Date Title
BR112012005231A2 (pt) dispositivo de exibição e método de controle
TWI675583B (zh) 擴增實境系統及其色彩補償方法
US10643359B2 (en) Transparent display device, control method thereof and controller thereof
US8913005B2 (en) Methods and systems for ergonomic feedback using an image analysis module
US10217286B1 (en) Realistic rendering for virtual reality applications
TWI398796B (zh) Pupil tracking methods and systems, and correction methods and correction modules for pupil tracking
US10565720B2 (en) External IR illuminator enabling improved head tracking and surface reconstruction for virtual reality
EP3136826B1 (en) Information processing device, information processing method and program
BR112012004830B1 (pt) Aparelho de exibição e método de controle
JP2016149660A (ja) 情報処理装置、情報処理方法、およびプログラム
US20210166437A1 (en) Compute amortization heuristics for lighting estimation for augmented reality
BR112012004835A2 (pt) método e aparelho de exibição
US10831238B2 (en) Display method for flexible display screen and flexible display device
US10996751B2 (en) Training of a gaze tracking model
US10719059B2 (en) Systems and methods for control of output from light output apparatus
JP6915537B2 (ja) 情報処理装置および方法、並びに、投影撮像装置および情報処理方法
TWI659334B (zh) 透明顯示裝置、使用其之控制方法以及其之控制器
US11749141B2 (en) Information processing apparatus, information processing method, and recording medium
WO2021146113A1 (en) Combined light intensity based cmos and event detection sensor for high speed predictive tracking and latency compensation in virtual and augmented reality hmd systems
WO2016036370A1 (en) Projection alignment
JP2010266510A (ja) ミラーシステム
US10741147B1 (en) Driving display device with voltage compensation based on load estimation
US20240013688A1 (en) Image processing apparatus, display apparatus, image processing method, and storage medium
US20240112608A1 (en) Display system and display method
US11949843B1 (en) System and method for enhancing three-dimensional (3D) depth acquisition

Legal Events

Date Code Title Description
B06U Preliminary requirement: requests with searches performed by other patent offices: procedure suspended [chapter 6.21 patent gazette]
B15K Others concerning applications: alteration of classification

Free format text: AS CLASSIFICACOES ANTERIORES ERAM: H04N 5/64 , H04N 7/173

Ipc: H04N 5/64 (2006.01), H04N 21/4223 (2011.01), H04N

B11B Dismissal acc. art. 36, par 1 of ipl - no reply within 90 days to fullfil the necessary requirements
B350 Update of information on the portal [chapter 15.35 patent gazette]