BRPI0715227A2 - aparelho de exibiÇço, e, mÉtodo de exibiÇço usado no mesmo - Google Patents

aparelho de exibiÇço, e, mÉtodo de exibiÇço usado no mesmo Download PDF

Info

Publication number
BRPI0715227A2
BRPI0715227A2 BRPI0715227-2A BRPI0715227A BRPI0715227A2 BR PI0715227 A2 BRPI0715227 A2 BR PI0715227A2 BR PI0715227 A BRPI0715227 A BR PI0715227A BR PI0715227 A2 BRPI0715227 A2 BR PI0715227A2
Authority
BR
Brazil
Prior art keywords
display
image
information
section
outside world
Prior art date
Application number
BRPI0715227-2A
Other languages
English (en)
Inventor
Yoichiro Sako
Masaaki Tsuruta
Taiji Ito
Masamichi Asukai
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Publication of BRPI0715227A2 publication Critical patent/BRPI0715227A2/pt

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B27/0172Head mounted characterised by optical features
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/02Viewing or reading apparatus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/50Lighting effects
    • G06T15/80Shading
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G3/00Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
    • G09G3/20Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes for presentation of an assembly of a number of characters, e.g. a page, by composing the assembly by combination of individual elements arranged in a matrix no fixed position being assigned to or needed to be assigned to the individual characters or partial characters
    • G09G3/34Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes for presentation of an assembly of a number of characters, e.g. a page, by composing the assembly by combination of individual elements arranged in a matrix no fixed position being assigned to or needed to be assigned to the individual characters or partial characters by control of light from an independent source
    • G09G3/36Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes for presentation of an assembly of a number of characters, e.g. a page, by composing the assembly by combination of individual elements arranged in a matrix no fixed position being assigned to or needed to be assigned to the individual characters or partial characters by control of light from an independent source using liquid crystals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/64Constructional details of receivers, e.g. cabinets or dust covers
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0118Head-up displays characterised by optical features comprising devices for improving the contrast of the display / brillance control visibility
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0138Head-up displays characterised by optical features comprising image capture systems, e.g. camera
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B2027/0178Eyeglass type
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0185Displaying image at variable distance
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0187Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2320/00Control of display operating conditions
    • G09G2320/02Improving the quality of display appearance
    • G09G2320/0233Improving the luminance or brightness uniformity across the screen
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2320/00Control of display operating conditions
    • G09G2320/06Adjustment of display parameters
    • G09G2320/0626Adjustment of display parameters for control of overall brightness
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2320/00Control of display operating conditions
    • G09G2320/06Adjustment of display parameters
    • G09G2320/0686Adjustment of display parameters with two or more screen areas displaying information with different brightness or colours

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Optics & Photonics (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Chemical & Material Sciences (AREA)
  • Crystallography & Structural Chemistry (AREA)
  • Computer Graphics (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Control Of Indicators Other Than Cathode Ray Tubes (AREA)
  • Liquid Crystal Display Device Control (AREA)

Abstract

APARELHO DE EXIBIÇçO, E, METODO DE EXIBIÇçO USADO NO MESMO. Controle de operação de exibição adequado dependendo da situação do mundo exterior é realizado. Por exemplo, o usuário usa uma unidade de vestir do tipo óculos ou do tipo em cima da cabeça para ver qualquer tipo de imagem em uma seção de exibição imediatamente em frente dos olhos. Imagens capturadas, imagens reproduzidas, e imagens recebidas são fornecidas. Controle sobre várias operações de exibição tal como liga 1 desliga da operação de exibição, modo de operação de exibição, e mudança de fonte é realizado de acordo com informação do mundo exterior.

Description

"APARELHO DE EXIBIÇÃO, Ε, MÉTODO DE EXIBIÇÃO USADO NO
MESMO"
Campo Técnico
A presente invenção se relaciona a um aparelho de exibição para exibir uma imagem com meios de exibição arranjados em frente a um olho de um usuário enquanto o aparelho de exibição é montado pelo usuário usando, por exemplo, uma unidade de vestir na forma de óculos ou uma unidade de vestir a ser montada na cabeça do usuário. A presente invenção Também se relaciona a um método de exibição. Fundamentos da Técnica
Como divulgado nas Patentes Japonesas abertas ao público No. Hei 8-126031, Hei 9-27970, e Hei 9-185009, vários tipos de aparelhos para exibir uma imagem com uma seção de exibição arranjada em frente a um olho de um usuário através do uso de uma unidade em forma de óculos ou de vestir na cabeça já foi proposto.
Contudo, nenhum aparelho conhecido é capaz de efetuar uma operação de exibição desejável de acordo com a situação sem a necessidade do usuário de operar uma unidade de operação, tal como uma chave de operação.
Conseqüentemente, o objeto da presente invenção é permitir uma operação de mostrador apropriada ou divertida a ser efetuada de acordo com uma situação do mundo exterior (e.g., um ambiente circundante, uma dados e hora, um local, uma imagem de entrada, etc.). Divulgação da Invenção
Um aparelho de exibição da presente invenção inclui: meios de exibição a serem arranjados em frente a um olho de um usuário para exibir uma imagem; meios de aquisição de informação do mundo exterior para adquirir informação do mundo exterior ; e meios de controle e para controle ar uma operação dos meios de exibição com base na informação adquirida através dos meios de aquisição de informação do mundo exterior .
Adicionalmente, ele ainda inclui meios de formação de imagem para fotografar uma imagem. Ainda, neste caso, os meios de controle e controla os dados da imagem fotografada pelos meios de formação de imagem a serem exibidos nos meios de exibição, com base na informação adquirida através dos meios de aquisição de informação do mundo exterior .
Também, ele ainda inclui meios de reprodução para reproduzir os dados a partir de um meio de armazenamento. Ainda, neste caso, os meios de controle controlam os dados reproduzidos através dos meios de reprodução a serem exibidos nos meios de exibição, com base na informação adquirida pelos meios de aquisição de informação do mundo exterior .
Também, ele ainda inclui meios de recepção para se comunicar com um dispositivo externo para receber os dados. Ainda, neste caso, os meios de controle e controla os dados recebidos através dos meios de recepção a serem exibidos nos meios de exibição, com base na informação adquirida através dos meios de aquisição de informação do mundo exterior .
Também, os meios de exibição podem comutar entre um estado entre translúcido ou transparente e um estado de exibição no qual os dados fornecidos são exibidos. Também, os meios de aquisição de informação do mundo
exterior é um sensor para detectar uma situação de um ambiente circundante conforme a informação do mundo exterior .
Também, os meios de aquisição de informação do mundo exterior é um sensor para detectar informação com relação a um objeto de formação de imagem dos meios de formação de imagem conforme a informação do mundo exterior.
Também, os meios de aquisição de informação do mundo exterior adquirem informação de posição atual conforme a informação do mundo exterior. Também, os meios de aquisição de informação do mundo exterior adquirem uma data e hora atual conforme a informação do mundo exterior.
Também, os meios de aquisição de informação do mundo exterior adquirem a informação do mundo exterior através da comunicação com um dispositivo externo.
Também, os meios de aquisição de informação do mundo exterior adquirem a informação do mundo exterior através da análise de imagem efetuada com relação a uma imagem fornecia aos meios de exibição. Também, a informação do mundo exterior, adquirida pelos
meios de aquisição de informação do mundo exterior é informação de uma luminosidade, temperatura, umidade, pressão atmosférica, ou clima dos arredores.
Também, a informação do mundo exterior, adquirida pelos meios de aquisição de informação do mundo exterior é informação de um local correspondendo a uma posição atual.
Também, a informação do mundo exterior, adquirida pelos meios de aquisição de informação do mundo exterior é informação de uma estrutura ou objeto natural em uma área correspondendo a uma posição atual. Também, a informação do mundo exterior, adquirida pelos
meios de aquisição de informação do mundo exterior é informação para identificar um objeto especificado incluído nos dados de imagem de entrada.
Também, a informação do mundo exterior adquirida pelos meios de aquisição de informação do mundo exterior é informação para identificar uma pessoa, um animal, uma estrutura, um objeto natural, ou um dispositivo como um objeto especificado incluído nos dados de imagem de entrada.
Também, a informação do mundo exterior adquirida pelos meios de aquisição de informação do mundo exterior é informação de um movimento de um objeto incluído nos dados de imagem de entrada.
Também, a informação do mundo exterior adquirida pelos meios de aquisição de informação do mundo exterior é informação para identificar uma pessoa individual incluída nos dados de imagem de entrada.
Também, a informação do mundo exterior adquirida pelos
meios de aquisição de informação do mundo exterior é informação para determinar se os dados de imagem de entrada incluem ou não uma imagem de escrita.
Também, a informação do mundo exterior adquirida pelos meios de aquisição de informação do mundo exterior é informação de luminosidade ou nitidez dos dados de imagem de entrada.
Também, a informação do mundo exterior adquirida pelos meios de aquisição de informação do mundo exterior é informação de luminosidade ou nitidez de uma parte de uma imagem dos dados de imagem de entrada.
Também, os meios de controle e controla início / término de uma operação de exibição nos meios de exibição.
Também, os meios de controle e controla os meios de exibição para comutar entre o estado de passagem e o estado de exibição. Também, os meios de controle e controla comutação de uma
fonte da qual os dados a serem exibidos nos meios de exibição são fornecidos.
Também, os meios de controle e controla aumento / redução da imagem exibida nos meios de exibição.
Também, os meios de controle e controla exibição em realce de uma parte de uma tela exibida nos meios de exibição.
Também, os meios de controle controlam exibição em tela dividida efetuada nos meios de exibição.
Também, os meios de controle e controla a luminosidade do mostrador nos meios de exibição. Também, os meios de controle e controla o processamento de sinal efetuado em um sinal da imagem a ser exibida através dos meios de exibição.
Também, ainda inclui meios de síntese de fala para efetuar síntese de fala com base em uma escrita incluída na imagem a ser fornecida aos meios de exibição , e meios de saída de áudio para emitir áudio gerado através dos meios de síntese de fala.
Um método de exibição da presente invenção inclui, como um método de exibição empregado em um aparelho de exibição incluindo meios de exibição a serem arranjados em frente a um olho de um usuário para exibir uma imagem, um passo de informação do mundo exterior para adquirir informação do mundo exterior, e um passo de controle e para exercitar controle relacionado a uma operação de exibição efetuado nos meios de exibição com base na informação adquirida no passo de aquisição de informação do mundo exterior.
Na presente invenção acima, um usuário usa o aparelho de exibição usando, por exemplo, uma unidade em forma de óculos ou de vestir na cabeça ou o similar, tal que o usuário pode ver os meios de exibição arranjados em frente dos olhos. Isto é, enquanto usando o aparelho de exibição, o usuário é capaz de ver a imagem fotografada através dos meios de formação de imagem, a imagem dos dados reproduzidos através dos meios de reprodução, a imagem dos dados recebidos através dos meios de recepção, ou o similar através dos meios de exibição.
Aqui, é preferível que controles relacionado à operação de exibição, tal como controle de liga / desliga / passagem da operação de exibição, seleção da fonte dos dados de imagem a serem exibidos, controle de vários tipos de modos de operação de exibição (e.g., exibição em tela dividida, aumento / redução da exibição, controle de qualidade de imagem de mostrador tal como controle da luminosidade do mostrador, realce de uma parte da imagem, etc.), ou comutação da entrada para os meios de exibição, a ser efetuada de acordo com a situação. De acordo com a presente invenção, vários tipos de controle são efetuados com base na informação do mundo exterior, em vez do usuário operando uma unidade de operação.
De acordo com a presente invenção, várias imagens são exibidas nos os meios de exibição arranjados em frente dos olhos do usuário. Nessa hora, controle relacionado à operação de exibição é efetuado com base na informação do mundo exterior sem a necessidade do usuário efetuar qualquer operação, tal que uma operação de exibição apropriada ou divertida adequada para uma situação é efetuada. Assim sendo, o aparelho de exibição é conveniente para o usuário, e é capaz de fornecer uma variedade de cenas dentro de seu campo de visão.
Mais ainda, já que os meios de exibição são capazes de entrar em um estado de passagem translúcido ou transparente, é possível prevenir uma ocorrendo na vida diária do usuário mesmo enquanto o usuário está usando o aparelho de exibição. Assim sendo, as vantagens do aparelho de exibição de acordo com a presente invenção pode ser desfrutados eficazmente na vida diária do usuário. Descrição Breve dos Desenhos
FIG. 1 é uma ilustração de um exemplo de aparência de um aparelho de exibição de acordo com a presente invenção.
FIG. 2 mostra diagramas ilustrando formas de uso do aparelho de exibição de acordo com uma modalidade.
FIG. 3 é um diagrama em bloco ilustrando um exemplo de estrutura de um aparelho de exibição de acordo com uma modalidade.
FIG. 4 é um diagrama em bloco ilustrando um outro exemplo de estrutura de um aparelho de exibição de acordo com uma modalidade.
FIG. 5 ilustra um estado de passagem e estados nos quais imagens fotografadas estão sendo exibidas, de acordo com uma modalidade. FIG. 6 ilustra cada estado no qual uma imagem obtida de uma seção de armazenagem de acordo com uma modalidade está sendo exibida.
FIG. 7 ilustra cada estado no qual uma imagem obtida de uma seção de comunicação de acordo com uma modalidade está sendo exibida.
FIG. 8 ilustra cada estado no qual uma imagem obtida de uma
seção de comunicação de acordo com uma modalidade está sendo exibida.
FIG. 9 ilustra uma exibição em tela dividida de acordo com uma modalidade.
FIG. 10 ilustra cada estado no qual uma imagem ampliada está sendo exibida, de acordo com uma modalidade.
FIG. 11 ilustra cada estado no qual uma imagem ajustada em luminosidade está sendo exibida, de acordo com uma modalidade.
FIG. 12 mostra vistas para ilustrar processamento de imagem de acordo com uma modalidade. FIG. 13 é um fluxograma ilustrando um procedimento de
controle de acordo com uma modalidade.
FIG. 14 é um fluxograma ilustrando um procedimento para determinar ocorrência de um acionador de controle de exibição de acordo com uma modalidade. FIG. 15 é um fluxograma ilustrando um procedimento para
determinar ocorrência de um acionador de controle de exibição de acordo com uma modalidade.
FIG. 16 é um fluxograma ilustrando um procedimento para determinar ocorrência de um acionador de controle de exibição de acordo com uma modalidade.
FIG. 17 é um fluxograma ilustrando um procedimento para determinar ocorrência de um acionador de controle de exibição de acordo com uma modalidade.
FIG. 18 é um fluxograma ilustrando um procedimento para determinar ocorrência de um acionador de controle de exibição de acordo com uma modalidade.
FIG. 19 mostra fluxogramas ilustrando procedimentos para determinar ocorrência de um acionador de controle de exibição de acordo com uma modalidade.
FIG. 20 mostra fluxogramas ilustrando procedimentos para determinar ocorrência de um acionador de controle de exibição de acordo com uma modalidade.
FIG. 21 mostra fluxogramas ilustrando procedimentos para determinar ocorrência de um acionador de controle de exibição de acordo com uma modalidade.
FIG. 22 mostra fluxogramas ilustrando procedimentos para determinar ocorrência de um acionador de comutação de fonte de acordo com uma modalidade.
FIG. 23 mostra fluxogramas ilustrando procedimentos para determinar ocorrência de um acionador de comutação de fonte de acordo com uma modalidade.
Melhor Modo para Realizar a Invenção
Daqui em diante, aparelhos de exibição e um método de exibição de acordo com as modalidades da presente invenção serão descritos na seguinte ordem.
1. Exemplos de aparência de aparelho de exibição e relações com dispositivos externos
2. Exemplos de estruturas de aparelho de exibição
3. Exemplos de exibição
4. Detecção de informação do mundo exterior
5. Vários exemplo de operações
6. Efeitos de modalidades, exemplos de variantes, e exemplos
de expansões 1. Exemplos de aparência de aparelho de exibição e relações com dispositivos externos
De acordo com uma modalidade, FIG. 1 mostra um exemplo de aparência de um aparelho de exibição 1 formado como um mostrador em forma de óculos. O aparelho de exibição 1 tem uma unidade de vestir tendo uma estrutura de quadro que se estende a meio caminho em volta de uma cabeça a partir de ambas as regiões temporais para uma região occipital, por exemplo, e é vestido por um usuário com a unidade de vestir colocada sobre os ouvidos como ilustrado nesta figura.
O aparelho de exibição 1 tem um par de seções de mostrador
2, 2 designados para os olhos esquerdo e direito olhos, e as seções de mostrador 2 são arranjadas em frente dos olhos do usuário, i.e., nas posições onde lentes de óculos comuns estariam localizados, quando o aparelho de exibição 1 é vestido em uma maneira como ilustrado na FIG. 1. Painéis de
cristal líquido, por exemplo, são usados para as seções de mostrador 2, e as seções de mostrador 2 são capazes de entrar em um estado de passagem, i. e., um estado translúcido ou transparente, como ilustrado nesta figura através de controle de capacidade de transmissão. A capacidade das seções de mostrador 2 para entrar no estado de passagem permite ao usuário vestir a toda a hora,
como ele ou ela que usam óculos, com nenhuma interferência ocorrendo em seu dia a dia.
Em adição, uma lente fotográfica 3a é arranjada voltada para a frente a fim de fotografar em uma direção que o usuário vai ver como uma direção para um objeto quando o usuário a usa.
Em adição, uma seção de iluminação 4a para fornecer
iluminação em uma direção a fotografar através da lente fotográfica 3a é fornecida. A seção de iluminação 4a é formada por um diodo de emissão de luz (LED), por exemplo.
Em adição, um par de alto-falantes de fone de ouvido 5a que podem ser inseridos nos buracos do ouvido direito e esquerdo do usuário quando o usuário o usa é fornecido. Note que somente o alto-falante do fone de ouvido esquerdo 5a é mostrado na figura.
Em adição, os microfones 6a e 6b para coletar sons externos é fornecido. Eles são arranjados à direita da seção de exibição direito 2 para o olho direito e à esquerda da seção de exibição esquerdo 2 para o olho esquerdo, respectivamente.
Note que a FIG. 1 somente mostra um exemplo, e que várias estruturas são possíveis para o usuário usar o aparelho de exibição 1. Em geral, um requisito para a unidade de vestir é que seja no formato de óculos ou de um tipo de montar na cabeça. Pelo menos, um requisito na presente modalidade é que isto permite as seções de mostrador 2 serem arranjados em frente e perto dos olhos do usuário. Também note que, em vez de ter o par de seções de mostrador 2 fornecido para ambos os olhos, somente uma das seções de mostrador 2 para um olho pode ser fornecida.
Também note que os alto-falantes do fone de ouvido 5a não têm de ser alto-falantes direito e esquerdo, mas podem ter somente um dos alto-falantes do fone de ouvido 5a a ser inserido em somente um buraco de ouvido. Também note que o número de microfones pode ser somente um dos microfones 6a e 6b.
Também note que, embora a FIG. 1 mostre um exemplo no qual uma função de formação de imagem está incluída, um exemplo sem uma função de formação de imagem é concebível.
Também note que o aparelho de exibição 1 não necessita ter qualquer microfone ou alto-falante de fone de ouvido. Também note que a configuração em que a seção de iluminação 4a não é fornecida é concebível.
Entretanto, exemplos de estruturas internas do aparelho de exibição 1 serão descritos abaixo. Contudo, o aparelho de exibição 1 pode ter uma função de reprodução (uma seção de armazenamento 25 descrita abaixo com referência às FIGS. 3 e 4) para reproduzir dados a partir de um meio de armazenamento, e uma função de comunicação (uma seção de comunicação 26 descrita abaixo com referência às FIGS. 3 e 4) para se comunicar com um dispositivo externo.
Assim sendo, fontes de dados concebíveis de uma imagem a
serem exibidas nas seções de mostrador 2 incluem uma porção de função de formação de imagem, uma porção de função de reprodução, e uma porção de função de comunicação.
FIG. 2 mostra exemplos de modos de uso do aparelho de exibição 1 em relação aos dispositivos externos.
(a) da FIG. 2 mostra um caso no qual o aparelho de exibição 1 é usado de modo único. Neste caso, se o aparelho de exibição 1 tem a função de formação de imagem, o aparelho de exibição 1 é capaz de exibir os dados da imagem fotografada nas seções de mostrador 2. Entretanto, se o aparelho
de exibição 1 tem a função de reprodução, o aparelho de exibição 1 é capaz de exibir uma imagem com base nos dados reproduzidos a partir do meio de armazenamento nas seções de mostrador 2. Exemplos dos dados reproduzidos a partir do meio de armazenamento incluem uma variedade de dados que podem ser armazenados no meio de armazenamento para serem exibidos, tal como: um conteúdo de vídeo tal como um filme ou um clipe de vídeo; um conteúdo de imagem fixa fotografada por uma câmera fixa digital ou o similar e armazenado no meio de armazenamento; dados de um livro eletrônico ou o similar; dados de uso de computador tal como dados de imagem, dados de texto, ou dados de planilha de cálculo criados pelo usuário usando um computador pessoal ou o similar e armazenados no meio de armazenamento; e uma imagem de jogo com base em um programa de jogo armazenado no meio de armazenamento.
(b) da FIG. 2 mostra um caso onde o aparelho de exibição 1 tem a função de comunicação e se comunica com um aparelho de formação de imagem externo 70. Neste caso, o aparelho de exibição 1 recebe uma imagem (vídeo ou um imagem fixa) fotografada através do aparelho de formação de imagem 70, e exibe a imagem recebida nas seções de mostrador 2. Exemplos do aparelho de formação de imagem externo 70 incluem uma câmera de vídeo e uma câmera fixa digital tendo a função de comunicação. Em adição, o aparelho de exibição 1 tendo a função de formação de imagem como ilustrado na FIG. 1 pode ser concebido como o aparelho de formação de imagem externo 70 para um determinado aparelho de exibição 1.
Mais ainda, vários tipos de aparelhos de formação de imagem externos 70 são concebíveis. Por exemplo, este pode ser um aparelho de formação de imagem de propriedade do usuário que usa o aparelho de exibição 1, um aparelho de formação de imagem de propriedade de um familiar do usuário do aparelho de exibição 1, ou um aparelho de formação de imagem de propriedade de uma instituição pública, uma companhia de serviço, ou o similar que forneça imagens e que seja capaz de se comunicar com o aparelho de exibição 1.
(c) da FIG. 2 mostra um caso onde o aparelho de exibição 1 tem a função de comunicação e se comunica com um dispositivo de fonte de conteúdo externo 71. Neste caso, o aparelho de exibição 1 recebe uma imagem (vídeo ou uma imagem fixa) fornecida do dispositivo de fonte de conteúdo 71, e exibe a imagem recebida nas seções de mostrador 2.
Exemplos dos dispositivos de fonte de conteúdo 71 incluem: equipamento de AV (áudio-visual) tal como equipamento de vídeo, um sintonizador de televisão, ou um servidor doméstico; e aparelhos de processamento de informação tal como o computador pessoal, um PDA (assistente digital pessoal), ou um telefone de comunicação móvel. Similarmente, vários tipos de dispositivo de fonte de conteúdos 71 são concebíveis, tal como: um dispositivo de propriedade do usuário que usa o aparelho de exibição 1, um dispositivo de propriedade de um familiar do usuário que usa o aparelho de exibição 1, ou um dispositivo servidor de uma instituição pública, uma companhia de serviço, ou o similar que fornece vários conteúdos.
Exemplos de dados transmitidos a partir do dispositivo de fonte de conteúdo 71 para o aparelho de exibição 1 incluem uma variedade de dados que podem ser exibidos, tais como: o conteúdo de vídeo tal como o filme ou o clipe de vídeo, o conteúdo de imagem fixa fotografada através das câmeras fixas digitais ou o similar e armazenados no meio de armazenamento; os dados da livro eletrônico ou o similar; os dados legíveis de computador tal como os dados de imagem, os dados de texto, ou os dados de planilha de cálculo criados pelo usuário usando o computador pessoal ou o similar; e a imagem de jogo.
(d) da FIG. 2 mostra um caso onde o aparelho de exibição 1 tem a função de comunicação, em particular, uma função de acesso a uma rede 73 tal como a Internet, e por meio disso, se comunica com o aparelho de formação de imagem externo 70 ou o dispositivo de fonte de conteúdo 71 conectado ao aparelho de exibição 1 através da rede 73. Neste caso, o aparelho de exibição 1 recebe vários dados através da rede 73, e exibe uma imagem dos dados recebidos nas seções de mostrador 2. 2. Exemplo de estruturas de aparelho de exibição
FIG. 3 mostra um exemplo de estrutura interna do aparelho de
exibição 1.
Um controlador de sistema 10 é formado por um micro- computador que inclui uma CPU (unidade de processamento central), uma ROM (memória de somente leitura), uma RAM (memória de acesso aleatório), uma seção de memória não volátil, e uma seção de interface, por exemplo, e controla uma operação completa do aparelho de exibição 1.
Com base em uma situação do mundo exterior, o controlador de sistema 10 controla cada parte do aparelho de exibição 1. Isto é, o controlador de sistema 10 opera de acordo com um programa operacional para detectar e determinar a situação do mundo exterior e controlar uma operação de cada parte do aparelho de exibição 1 de acordo com uma situação do mundo exterior detectada e determinada. Por conseguinte, do ponto de vista das funções, o aparelho de exibição 1 tem, como mostrado na figura, uma função de determinação da situação do mundo exterior IOa para determinar a situação do mundo exterior, e uma função de controle da operação IOb para emitir uma instrução de controle para cada parte do aparelho de exibição 1 de acordo com a situação do mundo exterior determinada através da função de determinação da situação do mundo exterior.
O aparelho de exibição 1 inclui, como unidades para fotografar uma cena à frente do usuário, uma seção de formação de imagem 3, uma seção de controle de formação de imagem 11, e uma seção de processamento de sinal de formação de imagem 15.
A seção de formação de imagem 3 inclui: um sistema de lente formado através da lente fotográfica 3a ilustrada na FIG. 1, um diafragma, um lente de aproximação, uma lente de foco, e o similar; um sistema de operação para permitir ao sistema de lente efetuar uma operação de foco, uma operação de aproximação, e o similar; e uma matriz de dispositivos de formação de imagem em estado sólido para detectar luz para formação de imagem obtida através do sistema de lente, e submeter a luz detectada à conversão de óptica para elétrica para gerar um sinal de formação de imagem. A matriz de dispositivos de formação de imagem em estado sólido is, por exemplo, uma matriz de sensor de CCD (dispositivo de carga acoplada) ou uma matriz de sensor de CMOS (semicondutor de óxido de metal complementar).
A seção de processamento de sinal de formação de imagem 15 inclui um circuito de obtenção de amostra / AGC (controle de ganho automático) para submeter o sinal obtido através do dispositivo de formação de imagem em estado sólido em uma seção de formação de imagem 3 para ganhar controle e moldar forma de onda, e um conversor A/D de vídeo, e obtém um sinal de formação de imagem na forma digital. Em adição, a seção de processamento de sinal de formação de imagem 15 efetua processamento de balanceamento do branco, processamento de luminosidade, processamento de sinal de cor, processamento de correção de borradela, e o similar no sinal de formação de imagem.
Com base na instrução emitida do controlador de sistema 10, a seção de controle de formação de imagem 11 controla as operações da seção de formação de imagem 3 e da seção de processamento de sinal de formação de imagem 15. Por exemplo, a seção de controle de formação de imagem 11 controla ativação e desativação das operações da seção de formação de imagem 3 e da seção de processamento de sinal de formação de imagem 15. Em adição, a seção de controle de formação de imagem 11 exerce controle (controle de motor ) para permitir à seção de formação de imagem 3 efetuar operações tal como auto-foco, ajuste de exposição automático, ajuste de abertura, e aproximação.
A seção de controle de formação de imagem 11 inclui um gerador de sincronismo, e usa um sinal de sincronismo gerado através do gerador de sincronismo para controlar as operações de processamento de sinal efetuadas através dos dispositivos de formação de imagem em estado sólido, e do circuito de obtenção de amostra / AGC e do conversor A/D de vídeo em uma seção de processamento de sinal de formação de imagem 15. Mais ainda, este controle de sincronização permite controle variável de uma taxa de quadro de formação de imagem.
Em adição, a seção de controle de formação de imagem 11 controla a sensibilidade de formação de imagem e o processamento de sinal no dispositivo de formação de imagem em estado sólido e na seção de processamento de sinal de formação de imagem 15. Por exemplo, como controle da sensibilidade de formação de imagem, a seção de controle de formação de imagem 11 é capaz de efetuar o controle de ganho no sinal lido do dispositivo de formação de imagem em estado sólido, e configuração de nível escuro, controle de vários coeficientes no processamento do sinal de formação de imagem na forma digital, controle de um valor de correção no processamento de correção de borradela, e o similar. Com relação ao controle da sensibilidade de formação de imagem, ajuste total da sensibilidade com nenhuma relação a qualquer particular intervalo de comprimento de onda, e ajuste de sensibilidade para ajustar a sensibilidade de formação de imagem de um particular intervalo de comprimento de onda tal como um intervalo de infravermelho ou um intervalo de ultravioleta (por exemplo, formação de imagem que envolve cortar o particular intervalo de comprimento de onda) são possíveis, por exemplo. Ajuste de sensibilidade de acordo com o comprimento de onda é alcançado através da inserção de um filtro de comprimento de onda em um sistema de lente fotográfica ou um processo de operação de filtro de comprimento de onda filtro efetuado no sinal de formação de imagem. Nestes casos, a seção de controle de formação de imagem 11 alcança o controle de sensibilidade controlando a inserção do filtro de comprimento de onda, especificação de um coeficiente de operação de filtro, ou o similar.
O sinal de formação de imagem (i.e., os dados de imagem fotografados) obtido através de formação de imagem pela seção de formação de imagem 3 e do processamento através da seção de processamento de sinal de formação de imagem 15 é fornecido para uma seção de controle de entrada / saída de imagem 27.
Sob controle do controlador de sistema 10, a seção de controle de entrada / saída de imagem 27 controla a transferência dos dados de imagem. Especificamente, a seção de controle de entrada / saída de imagem 27 controla a transferência dos dados de imagem entre um sistema de formação de imagem (i.e., a seção de processamento de sinal de formação de imagem 15), um sistema de exibição (i.e., uma seção de processamento de imagem do mostrador 12), uma seção de armazenamento 25, e a seção de comunicação 26.
Por exemplo, a seção de controle de entrada / saída de imagem 27 efetua uma operação de fornecimento do sinal de formação de imagem (i.e., os dados de imagem) processado através da seção de processamento de sinal de formação de imagem 15 para a seção de processamento de imagem do mostrador 12, para a seção de armazenamento 25, ou para a seção de comunicação 26.
Também, a seção de controle de entrada / saída de imagem 27 efetua uma operação de fornecimento dos dados de imagem reproduzidos a partir da seção de armazenamento 25 para a seção de processamento de imagem do mostrador 12 ou para a seção de comunicação 26, por exemplo.
Também, a seção de controle de entrada / saída de imagem 27 efetua uma operação de fornecimento dos dados de imagem recebidos através da seção de comunicação 26 para a seção de processamento de imagem do mostrador 12 ou para a seção de armazenamento 25, por exemplo.
O aparelho de exibição 1 inclui, como unidades para apresentação de um mostrador ao usuário, a seção de exibição 2, a seção de processamento de imagem do mostrador 12, a seção de acionamento de exibição 13, e a seção de controle do mostrador 14.
Por exemplo, os dados de imagem conforme o sinal de formação de imagem obtido pela formação de imagem através da seção de formação de imagem 3 e pelo processamento através da seção de processamento de sinal de formação de imagem 15 podem ser fornecidos para a seção de processamento de imagem do mostrador 12 através da seção de controle de entrada / saída de imagem 27. A seção de processamento de imagem do mostrador 12 é, por exemplo, um assim chamado processador de vídeo, e é capaz de efetuar vários processos do mostrador nos dados de imagem fornecidos. Por exemplo, a seção de processamento de imagem do mostrador é capaz de efetuar controle de nível de luminosidade, correção de cor, controle de contraste, controle de nitidez (aprimoramento de borda), e o similar nos dados de imagem. Em adição, a seção de processamento de imagem do mostrador 12 é Também capaz de: geração de uma imagem ampliada na qual uma parte dos dados de imagem fornecidos é ampliada; geração de uma imagem reduzida; divisão ou combinação de uma imagem(s) para exibir em tela separada dos dados de imagem fornecidos; processamento de imagem para realçar (enfatizar) exibição de uma parte de uma imagem exibida; geração de uma imagem de caracteres ou uma imagem conceituai; combinação de uma imagem gerada com os dados de imagem fornecidos; e o similar. Em resumo, a seção de processamento de imagem do mostrador 12 é capaz de efetuar vários processos nos dados de imagem recebidos.
A seção de acionamento de exibição 13 é formada por um circuito de acionamento de pixel para permitir aos dados de imagem fornecidos a partir da seção de processamento de imagem do mostrador 12 a serem exibidos na seção de exibição (e.g., um mostrador de cristal líquido) 2. Isto is, a seção de acionamento de exibição 13 aplica sinais de acionamento com base em um sinal de vídeo aos pixéis arranjados em uma matriz na seção de exibição 2 com sincronismo de acionamento horizontal / vertical especificado para exibição. Em adição, a seção de acionamento de exibição 13 é capaz de controlar a capacidade de transmissão de cada um dos pixéis na seção de exibição 2 para forçar a seção de exibição 2 a entrar no estado de passagem.
Com base na instrução emitida a partir do controlador de sistema 10, a seção de controle do mostrador 14 controla uma operação de processamento da seção de processamento de imagem do mostrador 12 e uma operação da seção de acionamento de exibição 13. Especificamente, a seção de controle do mostrador 14 controla a seção de processamento de imagem do mostrador 12 para efetuar os supracitados vários processos. Também, a seção de controle do mostrador 14 controla a seção de acionamento de exibição 13 para comutar entre o estado de passagem e um estado de exibição de imagem.
Os dados de imagem reproduzidos na seção de armazenamento
e os dados de imagem recebidos através da seção de comunicação 26 Também podem ser fornecidos para a seção de processamento de imagem do mostrador 12 através da seção de controle de entrada / saída de imagem 27. Neste caso, a imagem reproduzida ou a imagem recebida é emitida pela seção de exibição 2 através das operações acima descritas da seção de processamento de imagem do mostrador 12 e da seção de acionamento de exibição 13.
O aparelho de exibição 1 ainda inclui uma seção de entrada de áudio 6, uma seção de processamento de sinal de áudio 16, e uma seção de saída de áudio 5.
A seção de entrada de áudio 6 inclui os microfones 6a e 6b ilustrados na FIG. 1, uma seção de amplificador de microfone para amplificar sinais de áudio obtidos através dos microfones 6a e 6b, e um conversor de A/D, e emite dados de áudio . Os dados de áudio obtidos através da seção de entrada de
áudio 6 são fornecidos para uma seção de controle de entrada e saída de áudio 28.
Sob controle do controlador de sistema 10, a seção de controle de entrada e saída de áudio 28 controla a transferência dos dados de áudio. Especificamente, a seção de controle de entrada e saída de áudio 28 controla a transferência do sinal de áudio entre a seção de entrada de áudio 6, a seção de processamento de sinal de áudio 16, a seção de armazenamento 25, e a seção de comunicação 26.
Por exemplo, a seção de controle de entrada e saída de áudio 28 efetua uma operação de fornecimento dos dados de áudio obtidos através da seção de entrada de áudio 6 para a seção de processamento de sinal de áudio 16, para a seção de armazenamento 25, ou para a seção de comunicação 26.
Também, a seção de controle de entrada e saída de áudio 28
efetua uma operação de fornecimento dos dados de áudio reproduzidos na seção de armazenamento 25 para a seção de processamento de sinal de áudio 16 ou para a seção de comunicação 26, por exemplo.
Também, a seção de controle de entrada e saída de áudio 28 efetua uma operação de fornecimento dos dados de áudio recebidos através da seção de comunicação 26 para a seção de processamento de sinal de áudio 16 ou para a seção de armazenamento 25, por exemplo.
A seção de processamento de sinal de áudio 16 é formada por um processador de sinal digital, um conversor de D / A, e o similar, por exemplo. Os dados de áudio obtidos através da seção de entrada de áudio 6, os dados de áudio reproduzidos na seção de armazenamento 25, ou os dados de áudio recebidos através da seção de comunicação 26 são fornecidos para a seção de processamento de sinal de áudio 16 através da seção de controle de entrada e saída de áudio 28. Sob controle do controlador de sistema 10, a seção de processamento de sinal de áudio 16 efetua um processo tal como controle de volume, controle de tom, ou aplicação de um efeito de som sobre os dados de áudio fornecidos. Então, a seção de processamento de sinal de áudio 16 converte os dados de áudio processados em um sinal analógico, e fornece o sinal analógico para a seção de saída de áudio 5. Note que a seção de processamento de sinal de áudio 16 não é limitada a uma unidade que efetua processamento de sinal digital, mas pode ser uma unidade que efetua o processamento de sinal usando um amplificador analógico, um filtro analógico, ou o similar.
A seção de saída de áudio 5 inclui o par de alto-falantes do fone de ouvido 5a ilustrado na FIG. 1 e um circuito de amplificador para os alto-falantes do fone de ouvido 5a.
A seção de entrada de áudio 6, a seção de processamento de sinal de áudio 16, e a seção de saída de áudio 5 permite ao usuário ouvir um som externo, o áudio reproduzido na seção de armazenamento 25, ou o áudio recebido através da seção de comunicação 26. Note que a seção de saída de áudio 5 pode ser formada por um assim chamado alto-falante de condução de osso.
A seção de armazenamento 25 é uma seção para gravar dados ou reproduzir dados a partir do meio de armazenamento pré-determinado. Por exemplo, a seção de armazenamento 25 é formada um mecanismo de disco rígido (HDD). Não é necessário dizer que, como este meio de armazenamento, vários tipos de mídia de armazenamento são adotáveis tal como: uma memória em estado sólido tal como uma memória flash, um cartão de memória contendo uma memória fixa, um disco óptico, um disco óptico magnético, e uma memória de holograma. Um requisito para a seção de armazenamento 25 é ser capaz de gravar e reproduzir os dados de acordo com o meio de armazenamento adotado.
Os dados de imagem como o sinal de formação de imagem obtido pela formação de imagem através da seção de formação de imagem 3 e do processamento através da seção de processamento de sinal de formação de imagem 15 e os dados de imagem recebido através a seção de comunicação 26 podem ser fornecidos ser fornecidos para a seção de armazenamento 25 através da seção de controle de entrada / saída de imagem 27. Em adição, os dados de áudio obtidos através da seção de entrada de áudio 6 e os dados de áudio recebidos através da seção de comunicação 26 podem ser fornecidos para a seção de armazenamento 25 através da seção de controle de entrada e saída de áudio 28.
Sob controle do controlador de sistema 10, a seção de armazenamento 25 codifica a imagem ou dados de áudio fornecidos para os dados a serem gravados no meio de armazenamento, e grava os dados codificados no meio de armazenamento.
Em adição, sob controle do controlador de sistema 10, a seção de armazenamento 25 reproduz a imagem ou dados de áudio a partir do meio de armazenamento. Os dados de imagem reproduzidos são emitidos para a seção de controle de entrada / saída de imagem 27, ao passo que os dados de áudio reproduzidos é emitidos para a seção de controle de entrada e saída de áudio 28.
A seção de comunicação 26 transmite e recebe dados para e do dispositivo externo. Como o dispositivo externo, vários dispositivos como o aparelho de formação de imagem 70 ou o dispositivo de fonte de conteúdo 71 como descrito acima com referência à FIG. 2, ou o similar são concebíveis.
A seção de comunicação 26 pode ser configurada para efetuar comunicação de rede através de comunicações de curto alcance sem fio para um ponto de acesso de rede, por exemplo, de acordo com um sistema tal como uma LAN sem fio, Bluetooth, ou o similar. Alternativamente, a seção de comunicação 26 pode efetuar comunicação sem fio diretamente com um dispositivo externo tendo uma correspondente função de comunicação.
Os dados de imagem como o sinal de formação de imagem obtido pela formação de imagem através da seção de formação de imagem 3 e do processamento através da seção de processamento de sinal de formação de imagem 15 e os dados de imagem reproduzidos na seção de armazenamento podem ser fornecidos para a seção de comunicação 26 através da seção de controle de entrada / saída de imagem 27. Em adição, os dados de áudio obtidos através da seção de entrada de áudio 6 e os dados de áudio reproduzidos na seção de armazenamento 25 pode ser fornecidos para a seção de comunicação 26 através da seção de controle de entrada e saída de áudio 28. Sob controle do controlador de sistema 10, a seção de comunicação 26 submete a imagem ou dados de áudio fornecidos para codificar, modulação, e o similar para transmissão, e transmite os dados resultantes para o dispositivo externo.
A seção de comunicação 26 também efetua uma operação de receber dados do dispositivo externo. Os dados de imagem recebidos e desmodulados são emitidos para a seção de controle de entrada / saída de imagem 27, ao passo que os dados de áudio recebidos e desmodulados são emitidos para a seção de controle de entrada e saída de áudio 28.
O aparelho de exibição 1 ainda inclui uma seção de síntese de fala 29. De acordo com a instrução emitida a partir do controlador de sistema 10, a seção de síntese de fala 29 efetua síntese de fala para emitir um sinal de áudio.
O sinal de áudio emitido a partir da seção de síntese de fala 29 é fornecido para a seção de processamento de sinal de áudio 16 através da seção de controle de entrada e saída de áudio 28 e processado na seção de processamento de sinal de áudio 16, e o sinal de áudio resultante é fornecido para a seção de saída de áudio 5 para ser emitido ao usuário como som.
A seção de síntese de fala 29 gera um sinal de áudio para uma fala lida descrita abaixo, por exemplo.
O aparelho de exibição 1 ainda inclui uma seção de iluminação 4 e uma seção de controle de iluminação 18. A seção de iluminação 4 é formada através da seção de iluminação 4a ilustrada na FIG. 1 e um circuito de iluminação para permitir à seção de iluminação 4a (e.g., o LED) para emitir luz. Com base na instrução emitida a partir do controlador de sistema 10, a seção de controle de iluminação 18 faz a seção de iluminação 4 efetuar a operação de iluminação.
Porque a seção de iluminação 4a na seção de iluminação 4 é arranjada para iluminar uma cena à frente do usuário como ilustrado na FIG. 1, a seção de iluminação 4 efetua uma operação de fornecimento de iluminação na direção em que o usuário vê.
O aparelho de exibição 1 inclui, como unidades para adquirir informação do mundo exterior, um sensor de ambiente circundante 19, um sensor de objeto de formação de imagem 20, uma seção de receptor de GPS 21, uma seção de cálculo de dada / hora 22, uma seção de análise de imagem 17, e a seção de comunicação 26.
Exemplos específicos do sensor de ambiente circundante 19 incluem um sensor de iluminação, um sensor de temperatura, um sensor de umidade, e um sensor de pressão atmosférica. O sensor de ambiente circundante 19 é um sensor para obter informação para detectar a luminosidade, temperatura, umidade, clima, ou o similar dos arredores, como o ambiente circundante do aparelho de exibição 1.
O sensor de objeto de formação de imagem 20 é um sensor para detectar informação com relação a um objeto de formação de imagem, i.e., um objeto de uma operação de formação de imagem na seção de formação de imagem 3. Exemplos do sensor de objeto de formação de imagem 20 incluem: um sensor de medida de distância para detectar informação sobre a distância do aparelho de exibição 1 para o objeto de formação de imagem; e um sensor (e.g., um sensor de infravermelho tal como um sensor piroelétrico) para detectar informação ou energia de, por exemplo, um particular comprimento de onda em raios infravermelhos emitidos através dos objetos de formação de imagem. No caso do sensor piroelétrico, é possível detectar se o objeto de formação de imagem é ou não um corpo vivo tal como sendo um humano ou um animal.
Ainda, um sensor (e.g., vários tipos de sensores de UV (ultra violeta)) para detectar informação ou energia de, por exemplo, um particular comprimento de onda em raios ultravioletas emitidas através do objeto de formação de imagem também pode ser suposto. Neste caso, é possível, por exemplo, detectar se o objeto de formação de imagem é ou não uma substância fluorescente ou um corpo fluorescente, e para detectar a quantidade de raios ultravioletas no mundo exterior, que é necessário para evitar queimaduras solares.
A seção de receptor de GPS 21 recebe uma onda de rádio a partir de um satélite de GPS (sistema de posicionamento global), e emite informação sobre a latitude e longitude da posição atual.
A seção de cálculo de dada / hora 22 serve como uma assim chamada seção de relógio para calcular a data e hora (ano, mês, dia, hora, minuto, segundo), e emite informação sobre a data e hora atual.
A seção de análise de imagem 17 submete os dados de imagem para análise de imagem. Os dados de imagem são fornecidos para a seção de análise de imagem 17 através da seção de controle de entrada / saída de imagem 27. Exemplos dos dados de imagem submetidos à análise de imagem na seção de análise de imagem 17 inclui: os dados de imagem da imagem fotografada obtida através da seção de formação de imagem 3 e da seção de processamento de sinal de formação de imagem 15; os dados de imagem recebidos através da seção de comunicação 26; e os dados de imagem reproduzidos a partir do meio de armazenamento na seção de armazenamento 25. Em outras palavras, quaisquer dados de imagem entrados para o aparelho de exibição 1 a serem exibidos na seção de exibição 2 pode ser submetidos à análise de imagem na seção de análise de imagem 17. Então, a seção de análise de imagem 17 analisa os dados de imagem para obter informação sobre a imagem incluída nos dados de imagem.
A seção de comunicação 26 efetua comunicação de dados com o dispositivo externo. Exemplos do dispositivo externo incluem vários dispositivos tendo processamento de informação e funções de comunicação, tal como um dispositivo de comunicação, um assistente digital pessoal (PDA), um telefone de comunicação móvel, equipamento de vídeo, um sistema de áudio, e dispositivo sintonizador.
Em adição, outros exemplos incluem um dispositivo terminal e um dispositivo servidor conectado à rede tal como a Internet.
Ainda, outros exemplos incluem um cartão de IC não de contato que contém um chip de IC, um código de barra em duas dimensões tal como um código de QR, e uma memória de holograma. Nesses casos, a seção de comunicação 26 lê informação a partir desses dispositivos externos.
Ainda, um outro aparelho de exibição 1 é também concebível como o dispositivo externo.
A seção de comunicação 26 pode ser configurada para efetuar comunicação de rede através de comunicação sem fio de curto alcance para o ponto de acesso da rede, por exemplo, de acordo com um sistema tal como a LAN sem fio, o Bluetooth, ou o similar. Alternativamente, a seção de comunicação 26 pode efetuar comunicação sem fio diretamente com o dispositivo externo tendo a correspondente função de comunicação.
Informação considerando o mundo exterior para o aparelho de exibição 1 é adquirida através do sensor de ambiente circundante 19, do sensor de objeto de formação de imagem 20, da seção de receptor de GPS 21, da seção de cálculo de dada / hora 22, da seção de análise de imagem 17, e da seção de comunicação 26, e a informação adquirida é fornecida para o controlador de sistema 10.
De acordo com a informação do mundo exterior adquirida através do processamento da função de determinação da situação do mundo exterior 10a, o controlador de sistema 10 exerce controle relacionado à operação de formação de imagem ou a operação de exibição através do processamento da função de controle de operação 10b. Especificamente, o controlador de sistema 10 instrui a seção de controle do mostrador 14 para controlar as operações da seção de processamento de imagem do mostrador 12 e da seção de acionamento de exibição 13, seleciona a fonte dos dados a serem exibidos, controla a operação de reprodução da seção de armazenamento 25, ou controla a operação de comunicação da seção de comunicação 26.
Note que embora o sensor de ambiente circundante 19, o sensor de objeto de formação de imagem 20, a seção de receptor de GPS 21, a seção de cálculo de dada / hora 22, a seção de análise de imagem 17, e a seção de comunicação 26 terem sido descritas acima como as unidades para adquirir a informação do mundo exterior, não é necessário que todas essas unidades sejam incluídas. Também note que um outro sensor, tal como uma seção de análise de áudio para detectar e analisar som ambiente pode ser incluída .
FIG. 4 mostra um exemplo de estrutura de um aparelho de exibição 1 que não tem a função de formação de imagem. Note que, na FIG. 4, aos blocos tendo correspondentes blocos na FIG. 3 são atribuídos os mesmos numerais de referência que na FIG. 3, e a descrição redundante é evitada.
A estrutura da FIG. 4 é diferente da estrutura da FIG. 3 no fato que a seção de formação de imagem 3, a seção de processamento de sinal de formação de imagem 15, a seção de controle de formação de imagem 11, a seção de iluminação 4, a seção de controle de iluminação 18, a seção de entrada de áudio 6, e o sensor de objeto de formação de imagem 20 são omitidos.
No caso do exemplo de estrutura da FIG. 3 descrita acima, há três possíveis fontes dos dados a serem exibidos na seção de exibição 2: um sistema de função de formação de imagem (i.e., a seção de formação de imagem 3, a seção de processamento de sinal de formação de imagem 15, e a seção de controle de formação de imagem 11), um sistema de função de reprodução (i.e., a seção de armazenamento 25), e um sistema de função de recepção (i.e., a seção de comunicação 26). Entretanto, no caso do exemplo de estrutura da FIG. 4, há dois possíveis fontes dos dados a serem exibidos na seção de exibição 2: um sistema de função de reprodução (i.e., a seção de armazenamento 25) e o sistema de função de recepção (i.e., a seção de comunicação 26).
Em outras palavras, FIG. 3 corresponde ao caso onde o aparelho de exibição 1 contém três tipos de fontes de imagens de exibição, ao passo que a FIG. 4 corresponde ao caso onde o aparelho de exibição 1 contém dois tipos de fontes das imagens de exibição.
No último caso, os dados de imagem a serem submetidos à análise de imagem na seção de análise de imagem 17 são os dados de imagem recebidos através da seção de comunicação 26 ou dos dados de imagem reproduzidos a partir do meio de armazenamento na seção de armazenamento 25.
Embora não mostrado na figuras, há outras possíveis estruturas do aparelho de exibição 1 do que aquelas ilustradas nas FIGS. 3 e 4. Por exemplo, como a fonte(s) das imagens de exibição dentro do aparelho de exibição 1, o aparelho de exibição 1 pode ter somente o sistema de função de formação de imagem, somente o sistema de função de reprodução, somente o sistema de função de recepção, o sistema de função de formação de imagem e o sistema de função de reprodução sistema, ou o sistema de função de formação de imagem e o sistema de função de recepção. 3. Exemplo de exibição
Como um resultado do controlador de sistema 10 exercendo controle relacionado à operação de exibição de acordo com a informação do mundo exterior adquirida para, por exemplo, selecionando a fonte dos dados a serem exibidos ou processando a imagem de exibição, o usuário ser capaz de ver várias imagem em vários modos de exibição exibidos na seção de exibição 2. Vários exemplo de exibições serão agora descritos abaixo com referência às FIGS. 5 to 12.
(a) da FIG. 5 ilustra um caso onde a seção de exibição 2 está no estado de passagem. Nessa hora, a seção de exibição 2 está em um estado de ser simplesmente uma placa transparente, e o usuário é capaz de ver uma cena dentro de seu campo de visão através da seção de exibição 2 transparente.
(b) da FIG. 5 ilustra um estado em que a imagem fotografada através da seção de formação de imagem 3 está sendo exibida na seção de exibição 2. A seção de exibição 2 vai entrar neste estado se, quando a seção de exibição 2 está no estado como ilustrado em (a) da FIG. 5, a seção de formação de imagem 3, a seção de processamento de sinal de formação de imagem 15, a seção de processamento de imagem do mostrador 12, e a seção de acionamento de exibição 13 operam para exibir a imagem fotografada na seção de exibição 2 em uma maneira regular, por exemplo. A imagem fotografada (i.e., uma imagem fotografada regular) exibida na seção de exibição 2 neste caso está próxima a mesma que uma cena que o usuário viria através da seção de exibição 2 no estado de passagem. Isto é, neste estado, o usuário vê uma imagem fotografada que representa a cena regular dentro de seu campo de visão.
(c) da FIG. 5 ilustra um caso onde o controlador de sistema 10 controlou a seção de controle de formação de imagem 11 para controlar a seção de formação de imagem 3 para tirar uma telefoto, e a imagem de telefoto está sendo exibida na seção de exibição 2.
Embora não mostrado nas figuras, se o controlador de sistema controla a seção de controle de formação de imagem 11 para controlar a seção de formação de imagem 3 para tirar uma fotografia de amplo ângulo, uma imagem de amplo ângulo de uma cena próxima será exibida na seção de exibição 2. Note que controle de telefoto / amplo ângulo pode ser alcançado operando o controle da lente de aproximação na seção de formação de imagem 3 assim como através do processamento de sinal na seção de processamento de sinal de formação de imagem 15. Enquanto (b) e (c) da FIG. 5 ilustram exemplos de casos onde a fonte da imagem exibida na seção de exibição 2 é um sistema de função de formação de imagem, FIG. 6 ilustra exemplos de casos onde a fonte da imagem exibida na seção de exibição 2 é a seção de armazenamento 25.
(a) da FIG. 6 ilustra um exemplo de caso onde um conteúdo de imagem tal como o vídeo ou a imagem adicional é armazenada no meio de armazenamento na seção de armazenamento 25, e um conteúdo de imagem reproduzido a partir dele está sendo exibido em uma seção de exibição 2.
(b) da FIG. 6 ilustra um exemplo de caso onde o programa de jogo é armazenado no meio de armazenamento na seção de armazenamento 25, e a imagem com base no programa de jogo está sendo exibido na seção de exibição 2.
(c) da FIG. 6 ilustra um exemplo de caso onde um conteúdo de livro eletrônico é armazenado no meio de armazenamento na seção de armazenamento 25, e o conteúdo de livro eletrônico reproduzido a partir dele está sendo exibido na seção de exibição 2.
Como ilustrado na (a), (b), e (c) da FIG. 6, o usuário é capaz de usar o aparelho de exibição 1 para obter a imagem reproduzida dos dados armazenada no meio de armazenamento.
A seguir, FIG. 7 e FIG. 8 ilustram exemplos de casos onde a fonte da imagem exibida na seção de exibição 2 é a seção de comunicação 26.
FIG. 7 ilustra exemplos de casos onde as imagens transmitidas a partir do aparelho de formação de imagem externo 70 e recebidas pela seção de comunicação 26 através da comunicação como ilustrado na (b) da FIG. 2 ou (d) da FIG. 2 estão sendo exibidos.
(a) da FIG. 7 ilustra um exemplo de caso onde, quando o usuário está vendo a cena como ilustrado na (a) da FIG. 5, i.e., quando o usuário está na poltrona do estádio e está assistindo a um jogo de futebol, por exemplo, o vídeo fotografado por um aparelho de formação de imagem 70 colocado em um local diferente no estádio é recebido através da seção de comunicação 26 e está sendo exibido na seção de exibição 2. Por exemplo, o aparelho de formação de imagem 70 pode ser colocado próximo de uma poltrona do treinador do time , ou um aparelho de formação de imagem 70 de tamanho pequeno pode ser usado pelo árbitro. Em tal um caso, se o vídeo transmitido a partir de tal um aparelho de formação de imagem 70 é recebido e é exibido na seção de exibição 2, o usuário é capaz de gozar ver o jogo mais completamente.
(b) da FIG. 7 ilustra um exemplo de caso onde o vídeo fotografado por um aparelho de formação de imagem 70 colocado em um lugar de férias ou por um aparelho de formação de imagem 70 carregado por um familiar que está viajando, tem sido recebido através da seção de comunicação 26 e está sendo exibido na seção de exibição 2. Como um resultado de tal vídeo sendo exibido na seção de exibição 2, o usuário, estando em casa, por exemplo, é capaz de gozar ver o vídeo fotografado em várias áreas.
(c) da FIG. 7 ilustra um exemplo de caso onde vídeo de solo ( vídeo da vista por olho de um pássaro) fotografado por um aparelho de formação de imagem 70 montado em um aeroplano ou um satélite tem sido recebido através da seção de comunicação 26 e está sendo exibido na seção de exibição 2. Como um resultado de tal vídeo sendo exibido na seção de exibição 2, o usuário é capaz de gozar ver uma cena que normalmente não pode ser vista.
FIG. 8 ilustra exemplos de casos onde imagens transmitidas a partir do dispositivo de fonte de conteúdo externo 71 e recebidas pela seção de comunicação 26 através de comunicação como ilustrada na (c) da FIG. 2 ou (d) da FIG. 2 estão sendo exibidas.
(a) da FIG. 8 ilustra um exemplo de caso onde um conteúdo de imagem tal como vídeo ou uma imagem fixa tem sido recebido a partir do dispositivo de fonte de conteúdo 71 tal como equipamento de AV, um computador pessoal, ou o similar, e o conteúdo de imagem recebida está sendo exibido na seção de exibição 2.
(b) da FIG. 8 ilustra um exemplo de caso onde o dispositivo de fonte de conteúdo 71 tal como o computador pessoal ou o similar tem transmitido dados de imagem de uma tela de navegador de um site da web sendo acessado ou uma tela de uma aplicação em execução para o aparelho de exibição 1, por exemplo, e o aparelho de exibição 1 recebeu os dados de imagem recebidos através da seção de comunicação 26 e está exibindo os dados de imagem recebidos na seção de exibição 2.
(c) da FIG. 8 ilustra um exemplo de caso onde o dispositivo de fonte de conteúdo 71 tal como o computador pessoal ou o similar tem transmitido uma imagem de uma lista de imagens fotografadas que pode ser vista no dispositivo de fonte de conteúdo 71, para o aparelho de exibição 1, por exemplo, e o aparelho de exibição 1 recebeu a imagem transmitida através da seção de comunicação 26 e está exibindo a imagem recebida na seção de exibição 2.
Como descrito acima, o aparelho de exibição 1 pode receber, como a imagem obtida do dispositivo de fonte de conteúdo 71, os dados a partir do equipamento de AV tal como um tocador de vídeo ou um aparelho de processamento de informação tal como o computador pessoal, e exibir a imagem, por exemplo. Assim sendo, o usuário é capaz de verificar a imagem ou efetuar várias operações usando o aparelho de exibição 1 que ele ou ela usa.
A fonte das imagens ilustrada na FIG. 6 e a fonte das imagens ilustradas na FIG. 8 têm sido assumidas serem a seção de armazenamento 25 e a seção de comunicação 26, respectivamente. Note, contudo, que as imagens ilustradas na FIG. 8 também podem ser concebidas como imagens reproduzidas a partir da seção de armazenamento 25, e que as imagens ilustradas na FIG. 6 também pode ser concebidas como imagens transmitidas a partir do dispositivo externo e recebidas através da seção de comunicação 26, por exemplo.
Com referência às FIGS. 9 à 12, processos efetuado nas imagens obtidas a partir das várias fontes descritas acima (i.e., um sistema de formação de imagem, um sistema de função de reprodução, e o sistema de função de recepção) e que são relacionados aos modos de exibição e os dados de imagem serão agora descritos abaixo.
(a) da FIG. 9 ilustra um caso onde a seção de exibição 2 está no estado de passagem.
O controlador de sistema 10 é capaz de instruir a seção de controle do mostrador 14 (a seção de processamento de imagem do mostrador 12 e a seção de acionamento de exibição 13) para apresentar uma exibição em tela dividida para exibir uma imagem como ilustrado na (b) da FIG. 9 na seção de exibição 2. Isto é, é um exemplo de caso onde uma tela da seção de exibição 2 está dividida em áreas ARl e AR2, e a área ARl está no estado de passagem ou está exibindo uma imagem regular, enquanto a área AR2 está exibindo uma imagem obtida da seção de armazenamento 25 ou da seção de comunicação 26 (e.g., uma imagem de um conteúdo de vídeo que tem sido reproduzida ou recebida), por exemplo.
(c) da FIG. 9 ilustra um outro exemplo de exibição em tela dividida, na qual a tela da seção de exibição 2 está dividida nas áreas ARl, AR2, AR3, e AR4, e cada uma das áreas exibe um separado de quadros de imagem extraídos em intervalos de um tempo pré-determinado. Por exemplo, a seção de processamento de imagem do mostrador 12 é forçada a extrair quadros dos dados de imagem em intervalos de 0,5 segundos, e imagens de exibição dos quadros extraídos seqüencialmente nas áreas na seguinte ordem: ARl —> AR2 —> AR3 —> AR4 ARl —»■ AR2 e assim por diante. Este é um exemplo no qual a assim chamada exibição estroboscópica de imagens é alcançada através da exibição em tela dividida na seção de exibição 2.
Não é necessário dizer que, áreas diferentes da tela podem exibir imagens obtidas de diferentes fontes.
(a) da FIG. 10 ilustra um caso onde uma imagem obtida a partir do sistema de função de formação de imagem, do sistema de função de reprodução, ou do sistema de função de recepção está sendo exibida na seção de exibição 2 em tamanho normal.
Nesta, o controlador de sistema 10 é capaz de instruir a seção de processamento de imagem do mostrador 12 através da seção de controle do mostrador 14 para efetuar um processo de ampliação de imagem para exibir uma imagem ampliada como ilustrado na (b) da FIG. 10 na seção de exibição 2.
(a) da FIG. 11 ilustra um caso onde uma imagem obtida a partir do sistema de função de formação de imagem, do sistema de função de reprodução, ou do sistema de função de recepção, está sendo exibida na seção de exibição 2 em uma maneira regular.
E assumido que esta imagem de exibição é uma imagem com baixa luminosidade, que não pode ser vista pelo usuário confortavelmente.
Em tal um caso, o controlador de sistema 10 é capaz de instruir a seção de controle do mostrador 14 (a seção de processamento de imagem do mostrador 12 e a seção de acionamento de exibição 13) para aumentar a luminosidade ou controlar o contraste ou nitidez, por exemplo, para exibir uma imagem mais clara como ilustrado na (b) da FIG. 11 na seção de exibição 2.
(a) da FIG. 12 ilustra um caso onde uma imagem obtida a partir do sistema de função de formação de imagem, do sistema de função de reprodução, ou o sistema de função de recepção está sendo exibida na seção de exibição 2 em uma maneira regular, ou um caso onde a seção de exibição 2 está no estado de passagem. Nesta imagem, uma fronteira entre uma região sombreada e uma região ensolarada aparece em um pedaço no estádio de futebol, por exemplo, resultando em visibilidade pobre.
O controlador de sistema 10 instrui a seção de processamento de imagem do mostrador 12 para aumentar a luminosidade de exibição dos pixéis em uma área correspondendo à região sombreada e diminuir a luminosidade de exibição dos pixéis em uma área correspondendo à região ensolarada, por exemplo, para exibir uma imagem como ilustrado na (b) da FIG. 12 no qual a influência das regiões ensolaradas e sombreadas sobre a visibilidade pobre é reduzida.
(c) da FIG. 12 ilustra um exemplo de exibição no qual um objeto especificado (i.e., um pássaro neste exemplo,) incluído em uma imagem é destacado tal que o objeto especificado será sobressaído na imagem.
Quando a imagem é exibida tal que o pássaro detectado na imagem é destacado, é fácil para o usuário encontrar o pássaro, i.e., um exemplo do objeto especificado.
Há vários possíveis métodos para destacar o objeto especificado na imagem, tal como: um método para aumentar a luminosidade de somente uma parte da imagem na qual atenção deve ser concentrada; um método para diminuir a luminosidade das outras partes da imagem do que a parte na qual a atenção deve ser concentrada; e um método de exibir a parte da imagem na qual a atenção deve ser concentrada em cor e as outras partes da imagem em preto e branco. Alternativamente, a parte especificada da imagem pode ser destacada exibindo um quadro realçado ou cursor, uma marca de ponteiro, ou alguma outra imagem de caracteres na parte da imagem na qual a atenção deve ser concentrada.
Embora vários exemplos de exibição têm sido descritos acima, eles são simplesmente exemplos. Na presente modalidade, vários modos de exibição podem ser alcançados através da seleção da fonte (i.e., o sistema de função de formação de imagem, o sistema de função de reprodução, ou o sistema de função de recepção), controle das operações do sistema de função de formação de imagem e do sistema de função de reprodução, e controle do processamento e operações da seção de processamento de imagem do mostrador 12 e da seção de acionamento de exibição 13.
No caso onde a fonte da imagem de exibição é o sistema de função de formação de imagem, por exemplo, os seguintes tipos de exibição são possíveis, por exemplo: exibição de telefotografia; exibição em amplo angulo; exibição envolvendo aproximação para perto e aproximação para longe; exibição ampliada, exibição reduzida; exibição envolvendo controle variável da taxa de quadro (e.g., formação de imagem com uma alta taxa de quadro ou uma baixa taxa de quadro); exibição em alta luminosidade; exibição em baixa luminosidade; exibição envolvendo controle variável do contraste; exibição envolvendo controle variável da nitidez; exibição com sensibilidade de formação de imagem aumentada; exibição com sensibilidade de formação de imagem de infravermelho aumentada; exibição com sensibilidade de formação de imagem de ultravioleta aumentada; e exibição de uma imagem na qual um intervalo particular de comprimento de onda é cortada.
No caso onde a fonte da imagem de exibição é o sistema de função de reprodução ou o sistema de função de recepção, os seguintes tipos de exibição são possíveis, por exemplo: exibição de imagem envolvendo reprodução com velocidade variável, tal como reprodução rápida, reprodução lenta, reprodução quadro a quadro ou o similar; e os mesmos tipos de exibição que são alcançados no computador pessoal ou o similar, tal como comutação de uma pagina de exibição, rolar, e o similar.
Também é concebível que o processamento através da seção de processamento de imagem do mostrador 12 realiza exibição de uma imagem com efeito ampliado, tal como uma imagem de mosaico, uma imagem de luminosidade invertida, uma imagem de foco suave, uma imagem com uma parte da imagem realçada, uma imagem com atmosfera geral de cores variadas, ou uma imagem para a qual qualquer combinação dos efeitos acima é aplicada.
Ainda, uma grande variedade de outros modos de exibição são também concebíveis tal como: exibição em tela dividida que combina alguns tipos de exibição de imagem mencionados acima; exibição em tela dividida que combina o estado de passagem e a imagem fotografada (ou a imagem reproduzida ou a imagem recebida); e ainda exibição de imagem em que a exibição de um quadro da imagem fotografada (ou a imagem reproduzida ou a imagem recebida) é forçada a continuar. 4. Detecção de informação do mundo exterior
Como descrito acima, o aparelho de exibição 1 de acordo com a presente modalidade tem, como as unidades para adquirir a informação do mundo exterior, o sensor de ambiente circundante 19, o sensor de objeto de formação de imagem 20, a seção de receptor de GPS 21, a seção de cálculo de dada / hora 22, a seção de análise de imagem 17, e a seção de comunicação 26.
Exemplos do sensor de ambiente circundante 19 incluem o sensor de iluminação, o sensor de temperatura, o sensor de umidade, e o sensor de pressão atmosférica.
O sensor de iluminação é capaz de detectar a informação sobre a luminosidade dos arredores do aparelho de exibição 1.
O sensor de temperatura, o sensor de umidade, e o sensor de pressão atmosférica são capazes de obter informação para determinar a temperatura, a umidade, a pressão atmosférica, ou clima.
Usando esses sensores de ambiente circundante 19, o aparelho de exibição 1 é capaz de determinar a luminosidade dos arredores ou, quando lugares externos localizados, condições de clima ou o similar. Consequentemente, o controlador de sistema 10 é capaz de usar tal informação como a informação do mundo exterior para controlar a operação de exibição apropriadamente de acordo com a luminosidade ou condições de clima dos arredores.
No caso da estrutura como ilustrado na FIG. 3, o aparelho de exibição 1 inclui o sensor de objeto de formação de imagem 20 para detectar a informação considerando o objeto de formação de imagem. Exemplos do sensor de objeto de formação de imagem 20 incluem o sensor de medida de distância e o sensor piroelétrico, e nesses casos, é possível obter a distância para o objeto de formação de imagem ou informação para identificar o próprio objeto de formação de imagem.
Detectando a distância para o objeto de formação de imagem, o controlador de sistema 10 é capaz de controlar a operação de exibição de acordo com a distância detectada. Detectando que o objeto de formação de imagem é um corpo vivo tal como sendo um humano, o controlador de sistema 10 é capaz de controlar a operação de exibição de acordo com o objeto de formação de imagem.
A seção de receptor de GPS 21 adquire a informação sobre a latitude e longitude da posição atual. Quando a latitude e longitude tem sido detectado, é possível obter informação considerando um local (ou a vizinhança de um local) na posição atual se referindo a um banco de dados de mapa ou o similar. Embora nenhuma particular menção tenha sido feita quando descrevendo as estruturas da FIGS. 3 e 4, como um meio de armazenamento que o controlador de sistema 10 é capaz de se referir a, por exemplo, um meio de armazenamento tendo uma capacidade relativamente grande tal como um HDD (mecanismo de disco rígido), memória flash, ou o similar pode ser incluído, e este meio de armazenamento pode armazenar o banco de dados de mapa. Isto torna possível adquirir informação relacionada à posição atual. Não é necessário, contudo, que o aparelho de exibição 1 contenha o banco de dados de mapa. Por exemplo, o aparelho de exibição 1 pode acessar um servidor de rede ou um dispositivo que contém o banco de dados de mapa através da seção de comunicação 26, transmitir a latitude e longitude da posição atual dele para solicitar a informação relacionada à posição atual, e receber a informação.
Exemplos da informação relacionada a posição atual inclui informação de nome tal como um nome de um local, um nome de uma estrutura, um nome de uma facilidade, um nome de uma loja, e um nome de uma estação na ou próximo à posição atual.
Outros exemplos da informação relacionada à posição atual inclui informação representando o tipo da estrutura tal como um parque, um parque temático, um ambiente para concertos, um teatro, um cinema, uma estrutura para esporte, ou o similar.
Outros exemplos da informação relacionada à posição atual inclui informação sobre o tipo ou nome de um objeto natural, tal como uma praia, um mar, um rio, uma região montanhosa, um pico de montanha, uma floresta, um lago, uma planície ou o similar.
Ainda, como informação de posição mais detalhada, é possível adquirir informação sobre uma área dentro do parque temático, da arquibancada no campo de beisebol, o estádio de futebol, ou o similar, assentos no ambiente de concerto, e o similar, como a informação considerando a posição atual.
Adquirindo a informação considerando a posição atual, o controlador de sistema 10 é capaz de controlar a operação de exibição de acordo com condições ou facilidades geográficas na ou próxima da posição atual.
A seção de cálculo de dada / hora 22 calcula a data e hora (ano, mês, dia, hora, minuto, segundo), por exemplo. Usando a seção de cálculo de dada / hora 22, o controlador de sistema 10 é capaz reconhecer a hora atual, se agora é dia ou noite, o mês, uma estação e o similar. Consequentemente, o controlador de sistema 10 é capaz de controlar a operação de exibição apropriadamente de acordo com se é dia ou noite (i.e., a hora) ou de acordo com a estação atual, por exemplo.
A seção de análise de imagem 17 é capaz de detectar os seguintes vários tipos de informação a partir dos dados de imagem de entrada, tal como a imagem fotografada, a imagem recebida, ou a imagem reproduzida.
Primeiro, é possível identificar uma pessoa, um animal, um objeto natural, uma estrutura, um dispositivo, e o similar incluído na imagem dos dados de imagem fornecidos a partir de qualquer das fontes. Com relação ao animal, por exemplo, é possível reconhecer a situação na qual um pássaro é incluído na imagem, a situação na qual um gato é incluído na imagem, e assim por diante. Com relação ao objeto natural, é possível identificar um mar, uma montanha, uma árvore, um rio, um lago, o céu, o sol, a lua e assim por diante. Com relação a estrutura, é possível, de identificar uma casa, uma edificação, um estádio, e assim por diante. Com relação ao dispositivo, é possível reconhecer a situação na qual um computador pessoal, equipamento audiovisual (AV), um telefone de comunicação móvel, um PDA, um cartão de IC, um código de barra de duas dimensões, ou o similar é incluído na imagem. No caso onde um objeto a ser analisado são os dados da imagem fotografada através da seção de formação de imagem 3 ou os dados da imagem fotografada através do aparelho de formação de imagem externo 70, por exemplo, é possível determinar se qualquer dos objetos especificados acima é ou não o objeto de formação de imagem.
A identificação do tipo de tal um objeto especificado é possível registrar características das formas dos vários tipos de objetos de antemão, e determinar se os dados de imagem de entrada incluem um objeto que coincide na forma com quaisquer dos vários tipos de objetos em forma com quaisquer dos vários tipos de objetos.
A análise da imagem efetuada pela seção de análise de imagem 17 é capaz de detectar um movimento, e.g., um movimento rápido, de um objeto na imagem usando um método para detectar diferenças entre quadros adjacentes da imagem. No caso onde a imagem analisada é uma imagem de um esporte ou uma imagem de um carro ou o similar que está se movendo, por exemplo, é possível detectar a situação na qual um objeto que se move rápido é incluído na imagem.
Em adição, no caso onde os dados da imagem fotografada através da seção de formação de imagem 3 são submetidos à análise de imagem na seção de análise de imagem 17, também é possível determinar as condições do ambiente circundante. Por exemplo, é possível determinar condições de luminosidade, que variam dependendo se agora é dia ou noite e dependendo do clima, e também é possível reconhecer a intensidade de chuva e o similar.
Em adição, a análise de imagem efetuada pela seção de análise de imagem 17 é capaz de determinar que uma imagem de livro, de jornal, de carta, ou o similar é incluída nos dados de imagem de entrada, tal como uma imagem fotografada , a imagem recebida, a imagem reproduzida, ou o similar. Isto é alcançada efetuando o reconhecimento de caracteres na imagem, ou reconhecendo a forma do livro, do jornal, ou o similar, por exemplo.
No caso onde a seção de análise de imagem 17 efetuou o reconhecimento de caracteres, o controlador de sistema 10 é capaz de fornecer uma escrita reconhecida para a seção de síntese de fala 29 como dados de texto.
Em adição, no caso onde os dados de imagem incluem uma pessoa, uma análise de imagem efetuada pela seção de análise de imagem 17 é capaz de identificar a pessoa com base na face da pessoa. Como é conhecido, faces humanas podem ser analisadas para obter informação sobre posições relativas dos componentes da face, e esta informação pode ser usada como dados de características pessoais. Por exemplo, uma proporção (Ed/EN) de uma distância Ed entre olhos para a distância EN entre o centro de um olho e um nariz, e uma proporção (Ed/EM) da distância Ed entre os olhos para a distância EM entre o centro do olho e uma boca são conhecidas por ser informação que é particular a cada indivíduo e não é afetado por mudanças na aparência causada pelo estilo de cabelo, um objeto de uso tal como óculos, ou o similar. Também é conhecido que essas proporções não são mudadas com o tempo.
Assim sendo, no caso onde uma face de uma determinada pessoa é incluída nos dados de imagem, a seção de análise de imagem 17 é capaz de analisar os dados de imagem para detectar os dados de características pessoais como descrito acima.
Suponha que o aparelho de exibição 1 inclui, como o meio de armazenamento que o controlador de sistema 10 é capaz de referir a, por exemplo, o mecanismo de disco rígido (HDD), a memória flash, ou o similar, e que um bancos de dados de pessoas é armazenado neste meio de armazenamento. Neste caso, quando os dados de características pessoais são detectados a partir dos dados de imagem, é possível adquirir informação de um indivíduo incluído nos dados de imagem. Contudo, não é necessário que o aparelho de exibição 1 contenha o bancos de dados de pessoas . Por exemplo, o aparelho de exibição 1 pode acessar o servidor de rede ou um dispositivo que contém o bancos de dados de pessoas, por exemplo, através da seção de comunicação 26, transmitir os dados de características pessoais dele para solicitar a informação, e receber a informação sobre a particular pessoa.
Por exemplo, o usuário pode registrar informação pessoal sobre uma pessoa com quem o usuário encontrou no passado, tal como o nome, posição, ou o similar daquela pessoa, nos bancos de dados de pessoas s junto com os dados de características pessoais daquela pessoa. Neste caso, quando esta pessoa é incluída nos dados de imagem, o controlador de sistema é capaz de recuperar a informação sobre esta pessoa.
Ainda, os bancos de dados de pessoas s na qual informação sobre celebridades e os dados de características pessoais das celebridades são registrados podem ser preparados. Neste caso, quando qualquer das celebridades é incluída nos dados de imagem, o controlador de sistema 10 é capaz de recuperar a informação sobre aquela celebridade.
A seção de comunicação 26 é capaz de adquirir vários tipos de informação conforme a informação do mundo exterior.
Por exemplo, a seção de comunicação 26 é capaz de adquirir informação que foi recuperada no dispositivo externo de acordo com a latitude e longitude da posição atual, os dados de características pessoais, ou o similar transmitido a partir do aparelho de exibição 1 como descrito acima.
Ainda, a seção de comunicação 26 é capaz de adquirir, a partir do dispositivo externo, a informação com relação às condições de clima, acima, tal como a informação de clima, informação de temperatura, informação de umidade, ou o similar.
Ainda mais, a seção de comunicação 26 é capaz de adquirir, a partir do dispositivo externo, informação considerando uso de uma localidade, informação sobre se fotografia é proibida ou permitida na localidade, informação de guia, ou o similar.
Ainda mais, a seção de comunicação 26 é capaz de adquirir informação de identificação sobre o dispositivo externo. Exemplos de informação de identificação sobre o dispositivo externo incluem um tipo, um ID de dispositivo, e o similar de um dispositivo que é identificado como um dispositivo de rede no protocolo de comunicações pré-determinado.
Ainda mais, a seção de comunicação 26 é capaz de adquirir dados de imagem armazenada no dispositivo externo, dados de imagem reproduzidos ou exibidos no dispositivo externo, dados de imagem recebidos através dos dispositivo externo, e assim por diante.
Exemplos da informação que pode ser adquirida por cada um, do sensor de ambiente circundante 19, do sensor de objeto de formação de imagem 20, da seção de receptor de GPS 21, da seção de cálculo de dada / hora 22, da seção de análise de imagem 17, e da seção de comunicação 26 foram descritos acima. Alguns tipos de informação do mundo exterior podem ser detectados por duas ou mais das unidades acima.
Por exemplo, a combinação da informação sobre a umidade ou o similar adquirida através dos sensores de ambiente circundante 19 e a informação de clima recebida através da seção de comunicação 26 pode ser usada para reconhecer o clima atual mais precisamente.
Ainda, a combinação da informação com relação à posição atual adquirida através das operações da seção de receptor de GPS 21 e da seção de comunicação 26 e da informação adquirida pela seção de análise de imagem 17 pode ser usada para reconhecer as condições da posição atual ou do objeto de formação de imagem mais precisamente. 5. Vários exemplos de operações
No aparelho de exibição 1 de acordo com a presente modalidade, o controlador de sistema 10 exerce controle relacionado à operação de exibição de acordo com a informação do mundo exterior que pode ser adquirida através do sensor de ambiente circundante 19, do sensor de objeto de formação de imagem 20, da seção de receptor de GPS 21, da seção de cálculo de dada / hora 22, da seção de análise de imagem 17, ou da seção de comunicação 26 como descrito acima para apresentar uma exibição apropriada ou divertida de acordo com a situação sobre uma seção de exibição 2. Assim sendo, uma variedade de imagens pode ser fornecida ao usuário.
Vários exemplo de operações para alcançar o acima com base sobre o controle exercido através do controlador de sistema 10 será agora descrito abaixo.
FIG. 13 ilustra um procedimento de controle efetuado através do controlador de sistema 10 como a função de controle da operação 10b.
No passo Fl01, o controlador de sistema 10 controla a seção de controle do mostrador 14 para forçar a seção de exibição 2 a entrar no estado de passagem. Quando o aparelho de exibição 1 está em um estágio inicial, i.e., quando a energia do aparelho de exibição 1 foi ligado, por exemplo, o controlador de sistema 10 controla a seção de exibição 2 para entrar no estado de passagem no passo F101.
Enquanto a seção de exibição 2 está no estado de passagem, o controlador de sistema 10 continua a verificar se um acionador de início de exibição foi acionado ou não no passo Fl02. Embora não ilustrada na FIG. 3 ou 4, por exemplo, uma unidade de operação operável pelo usuário pode ser incluída tal que o usuário pode operar uma unidade de operação pre- determinada para forçar a seção de exibição 2 a começar a exibição. Quando o usuário operou esta pré-determinada unidade de operação, o controlador de sistema 10 pode determinar que o acionador de início de exibição foi acionado, por exemplo. Note, contudo, que o controlador de sistema 10 pode determinar que o acionador de início de exibição foi acionado com base na informação do mundo exterior. Exemplos específicos deles serão fornecidos mais tarde.
Se é determinado que o acionador de início de exibição foi acionado, o controlador de sistema 10 prossegue ao passo F103, e efetua controle do início da exibição. Isto é,o controlador de sistema 10 instrui a seção de controle do mostrador 14 para controlar a seção de processamento de imagem do mostrador 12 e a seção de acionamento de exibição 13 para exibir os dados fornecidos na seção de exibição 2 no modo da imagem fotografada regular.
Os dados de imagem são fornecidos para a seção de processamento de imagem do mostrador 12 através da seção de controle de entrada / saída de imagem 27. No caso onde uma grande quantidade de fontes dos dados de imagem como ilustrados na FIGS. 3 e 4 são incluídos, por exemplo, podem ser assim arranjados que, neste ponto, os dados de imagem são fornecidos a partir de um de um sistema de função de formação de imagem (i.e., a seção de formação de imagem 3 e a seção de processamento de sinal de formação de imagem 15), um sistema de função de reprodução (i.e., a seção de armazenamento 25), e o sistema de função de recepção (i.e., a seção de comunicação 26) que é selecionado como uma fonte padrão para a seção de processamento de imagem do mostrador 12. No caso onde o sistema de função de formação de imagem é selecionado como a fonte padrão, por exemplo, o controlador de sistema 10, na hora do controle do início da exibição no passo F103, emite uma instrução para iniciar formação de imagem para a seção de controle de formação de imagem 11 e força a seção de formação de imagem 3 e a seção de processamento de sinal de formação de imagem 15 a efetuarem uma operação de formação de imagem, e força o sinal de formação de imagem resultante (i.e., os dados de imagem) a ser fornecido para a seção de processamento de imagem do mostrador 12 através da seção de controle de entrada / saída de imagem 27. Neste caso, a seção de exibição 2 comuta do estado de passagem como ilustrado na (a) da FIG. 5, por exemplo, para o estado na qual a imagem fotografada regular é exibida conforme ilustrado na (b) da FIG. 5, por exemplo.
Entretanto, no caso onde a seção de armazenamento 25 é selecionada como a fonte padrão, o controlador de sistema 10, na hora do controle do início da exibição, pode controlar a seção de armazenamento 25 da mesma forma e forçar a seção de exibição 2 para exibir uma tela de menu para reprodução do conteúdo, seleção do conteúdo, e o similar. Entretanto, no caso onde a seção de comunicação 26 é selecionada como a fonte padrão, o controlador de sistema 10, na hora do controle do início da exibição, pode controlar a operação da seção de comunicação 26 da mesma forma e forçar a seção de exibição 2 para exibir uma tela a ser usada para comunicação ou apresentar uma exibição com base nos dados recebidos a partir do dispositivo externo.
Não é necessário dizer que, no caso onde o aparelho de exibição 1 tem somente uma fonte dos dados de imagem, os dados de imagem podem ser fornecidos a partir daquela fonte para a seção de processamento de imagem do mostrador 12.
Ainda, é possível que, na hora do controle do início da exibição no passo F103,o fornecimento dos dados de imagem a partir da fonte de imagem não é realizado e que o controlador de sistema 10 controla uma tela de menu, uma tela de seleção de fonte, ou o similar a ser exibida na seção de exibição 2 como uma tela inicial.
Embora uma operação para emitir áudio através da seção de saída de áudio 5 não seja descrita nesta descrição do procedimento da FIG. 13, deve ser notado que, quando a seção de exibição 2 efetua a operação de exibição, o controlador de sistema 10 pode controlar a seção de controle de entrada e saída de áudio 28 e a seção de processamento de sinal de áudio 16 para realizar a saída do áudio com base nos dados de áudio fornecidos a partir da mesma fonte que aquela da imagem de exibição.
Enquanto a seção de exibição 2 está exibindo uma imagem obtida a partir de uma determinada fonte, o controlador de sistema 10 monitora se um acionamento de controle do mostrador ocorreu ou não no passo F104, monitora se um acionamento de comutação de fonte ocorreu ou não no passo F105, e monitora se um acionamento de termino de exibição ocorreu ou não no passo F106.
Ocorrência do acionador de controle de exibição significa que, com base na situação do mundo exterior determinada através da função de determinação da situação do mundo exterior 10a, o próprio controlador de sistema 10 decide fazer uma mudança para o processamento relacionado ao modo da imagem de exibição na operação de exibição ou os dados de imagem a serem exibidos, por exemplo.
Ocorrência do acionador de comutação de fonte significa que, no caso onde o aparelho de exibição 1 inclui uma grande quantidade de fontes como ilustrado nas FIGS. 3 e 4, por exemplo, o próprio controlador de sistema 10 decide comutar a fonte dos dados de imagem a serem exibidos, com base na situação do mundo exterior determinada através da função de determinação da situação do mundo exterior 10a.
Exemplos específicos de maneiras para determinar se o acionador de controle de exibição ou o acionador de comutação de fonte foi acionado e exemplos específicos de controle serão descritos mais tarde.
O acionador de término de exibição é um acionador que inicia o término da exibição de uma seção de exibição 2 e da comutação de uma seção de exibição 3 para o estado de passagem. O controlador de sistema 10 pode determinar que o acionador de término de exibição operou com base em uma operação de usuário (uma operação pré-determinada para terminar a exibição), por exemplo. Em adição, o controlador de sistema 10 pode determinar que o acionador de término de exibição foi acionado com base na informação do mundo exterior. Exemplos delas serão descritos mais tarde.
Se é determinado que o acionador de controle de exibição foi acionado, o controlador de sistema 10 prossegue do passo F104 para o passo F107, e efetua controle relacionado à operação de exibição da imagem. Isto é, o controlador de sistema 10 emite uma instrução pré-determinada para a seção de controle do mostrador 14 para forçar a seção de exibição 2 a apresentar uma exibição no modo apropriado para a situação do mundo exterior na hora. Dependendo da fonte selecionada na hora, o controlador de sistema 10 pode efetuar controle do sistema de função de formação de imagem, controle da operação relacionada à seção de armazenamento 25, ou controle da operação relacionada à seção de comunicação 26.
Após efetuar o controle da operação de exibição no passo F107, o controlador de sistema 10 monitora a ocorrência dos acionadores nos passos F104, F105, e F106.
Se é determinado que o acionador de comutação de fonte foi acionado, o controlador de sistema 10 prossegue do passo F105 para o passo F108, e efetua controle de comutação da fonte. Neste caso, o controlador de sistema 10 efetua controle da operação relacionada à fonte que está sendo selecionada antes da comutação de fonte e a fonte que será selecionada após a comutação de fonte, e controla a seção de controle de entrada / saída de imagem 27 e / ou a seção de controle de entrada e saída de áudio 28 tal que os dados de imagem e / ou os dados de áudio serão fornecidos a partir da recente fonte selecionada para a seção de processamento de imagem do mostrador 12 e / ou a seção de processamento de sinal de áudio 16.
Como um resultado do desempenho deste controle de comutação da fonte, o estado da seção de exibição 2 é comutado de um estado no qual a imagem fotografada através da seção de formação de imagem 3 está sendo exibida, para o estado no qual a imagem reproduzida na seção de armazenamento 25 está sendo exibida, por exemplo.
Após efetuar o controle de comutação da fonte no passo F108, o controlador de sistema 10 monitora a ocorrência dos acionadores nos passos F104, F105, e F106.
Se é determinado que o acionador de término de exibição foi acionado, o controlador de sistema 10 retorna do passo F106 para o passo F101, e instrui a seção de controle do mostrador 14 para forçar a seção de exibição 2 para entrar no estado de passagem. Em adição, o controlador de sistema 10 instrui a fonte de imagem selecionada na hora para terminar a operação de fornecimento da imagem.
Enquanto o usuário está usando o aparelho de exibição 1 e mantendo a energia dele ligada, a função de controle da operação IOb do controlador de sistema 10 continua a efetuar o procedimento de controle como ilustrado na FIG. 13, por exemplo.
De acordo com este procedimento, o controle inicial da exibição é efetuado quando é determinado que o acionador inicial da exibição foi acionado; o controle do modo de exibição é efetuado quando é determinado que o acionador de controle de exibição foi acionado; um controle de comutação da fonte é efetuado quando é determinado que o acionador de comutação de fonte foi acionado; e controle de terminar a exibição de uma seção de exibição 2 e de forçar a seção de exibição 2 a entrar no estado de passagem é efetuado quando é determinado que o acionador de término de exibição foi acionado. Exemplos específicos das maneiras de determinar se esses acionadores foram acionados e exemplos específicos do controle serão agora descritos abaixo com referência à FIG. 14 e figuras subseqüentes.
FIGS. 14 à 23 ilustram exemplos de procedimentos efetuados através do controlador de sistema 10 conforme a função de determinação da situação do mundo exterior 10a. É assumido que esses procedimentos são efetuados em paralelo com o procedimento da FIG. 13 efetuado através da função de controle da operação 10b. O processamento paralelo é alcançado, por exemplo, através dos procedimentos de detecção conforme ilustrado nas FIGS. 14 à 23 sendo regularmente tratado como interrupções enquanto o controlador de sistema 10 está efetuando o procedimento da FIG. 13. Programas para os procedimentos conforme ilustrados na FIGS. 13 à 19 podem ou ser incorporados no programa para executar o procedimento da FIG. 13, ou ser programas separados que são chamados regularmente. Isto é, as formas dos programas não são limitadas.
FIGS. 14 à 21 ilustram exemplos de procedimentos relacionados à determinação do acionamento do acionador de controle de exibição efetuado no passo F104 na FIG. 13. Primeiro, com referência a FIG. 14, um exemplo de procedimento para determinar a ocorrência do acionador de controle de exibição com base na informação obtida do sensor de ambiente circundante 19 ou da seção de análise de imagem 17 será agora descrita abaixo.
No passo F201 na FIG. 14, o controlador de sistema 10 monitora um ou ambos da informação obtida através do sensor de ambiente circundante 19 e a informação obtida através da seção de análise de imagem 17. E assumido aqui que o sensor de ambiente circundante 19 é o sensor de iluminação, e que a seção de análise de imagem 17 está efetuando um processo para analisar a imagem fotografada para determinar a luminosidade dos arredores.
Note que na estrutura da FIG. 4, a seção de análise de imagem 17 não é capaz de analisar os dados da imagem fotografada de um local próximo ao menos que o aparelho de formação de imagem externo 70 esteja colocado próximo, e por conseguinte o controlador de sistema 10 normalmente verifica somente o sensor de ambiente circundante 19.
Com base em um ou ambos da informação obtida a partir do sensor de ambiente circundante 19 e a informação obtida a partir da seção de análise de imagem 17, o controlador de sistema 10 determina se está ou não escuro nos arredores, ou se estão ou não bastante claro nos arredores. Por exemplo, a iluminação detectada é convertida em forma numérica, e quando a iluminação detectada é menor do que χ lux, o controlador de sistema 10 determina que está escuro nos arredores, e quando a iluminação detectada é maior do que y lux, o controlador de sistema 10 determina que está bastante claro nos arredores.
Se é determinado que está escuro nos arredores, o controlador de sistema 10 prossegue do passo F202 para o passo F204, e determina que o acionador de controle de exibição foi acionado. Então, no passo F205, o controlador de sistema 10 calcula um valor de ajuste de acordo com a iluminação atual (escuridão) nos arredores. Por exemplo, um valor de ajuste para a luminosidade do mostrador, o contraste, a nitidez, ou o similar é calculado.
Se é determinado que é bastante claro nos arredores, o controlador de sistema 10 prossegue do passo F203 para o F206, e determina que o acionador de controle de exibição foi acionado. Então, no passo F207, o controlador de sistema 10 calcula um valor de ajuste para a luminosidade, o contraste, a nitidez ou o similar do mostrador de acordo com a iluminação atual nos arredores.
Como um resultado dos processos dos passos F204 e F205 ou dos processos dos passos F206 e F207, o controle no procedimento da FIG. 13 efetuado através do controlador de sistema 10 prossegue do passo F104 para o passo F107, e neste caso, o controlador de sistema 10 instrui a seção de processamento de imagem do mostrador 12 para efetuar um processo tal como o controle de luminosidade, o controle de contraste, ou o controle de nitidez.
Como um resultado deste processo, a qualidade de imagem da imagem exibida na seção de exibição 2 é ajustada, tal que uma imagem ajustada de acordo com a luminosidade dos arredores é exibida nele. Como um exemplo de ajuste de acordo com a luminosidade dos arredores, é concebível que, no caso onde a tela é dividida tal que a imagem fotografada do conteúdo de vídeo ou o similar é exibida na parte da tela enquanto a parte remanescente da tela está no estado de passagem ou está exibindo a imagem fotografada regular (i.e., a imagem da cena do lado de fora visualizada pelo usuário) como ilustrado na (b) da FIG. 9, por exemplo, a qualidade de imagem da imagem do conteúdo de vídeo é ajustada. Por exemplo, a qualidade de imagem da imagem do conteúdo de vídeo é ajustada tal que a parte de passagem da tela e a imagem do conteúdo de vídeo estejam equilibradas em termos de luminosidade, e que o usuário não poderia sentir desconforto na visão. No caso onde está escuro nos arredores e, por conseguinte, a parte de passagem da tela é escura, por exemplo, a qualidade de imagem do conteúdo de vídeo pode conseqüentemente ser forçada a diminuir em luminosidade a fim de não ser muito ofuscante. Ao contrário, no caso onde está claro nos arredores, se por conseguinte, a luminosidade da parte de passagem da tela é alta, por exemplo, a qualidade de imagem do conteúdo de vídeo pode ser forçada a aumentar em luminosidade, ou o contraste ou nitidez podem ser aprimorados tal que a visibilidade será melhorada. Alternativamente, a parte de passagem da tela pode ser forçada a diminuir em capacidade de transmissão.
Ainda, mesmo se a exibição em tela dividida não está sendo efetuada, a exibição na tela da seção de exibição 2 é afetada pela luz do lado de fora quando a imagem recebida obtida da seção de comunicação 26 ou da imagem reproduzida obtida da seção de armazenamento 25 está sendo exibida na seção de exibição 2. Por conseguinte, é preferível que a luminosidade, o contraste, a nitidez, ou o similar do mostrador seja ajustados de acordo com a luminosidade dos arredores tal que o usuário pode visualizar a imagem mais claramente.
No caso onde a imagem fotografada obtida do sistema de função de formação de imagem está sendo exibida na seção de exibição 2, se está escuro nos arredores, a luminosidade, o contraste, e a nitidez do mostrador podem ser forçados a aumentar tal que o usuário pode visualizar os arredores mais claramente através da imagem exibida na seção de exibição 2. Por exemplo, é concebível que quando está escuro nos arredores e assim sendo a imagem de exibição na seção de exibição 2 está no estado como ilustrado na (a) da FIG. 11, o ajuste é efetuado para alcançar o estado de boa visibilidade como ilustrado na (b) da FIG. 11.
Note que no caso onde foi determinado que está escuro nos arredores, o controlador de sistema 10 pode controlar a seção de iluminação 4 para fornecer iluminação.
No caso onde a imagem obtida do sistema de função de formação de imagem está sendo exibida na seção de exibição 2 e está muito claro nos arredores, a luminosidade do mostrador pode ser forçada a diminuir tal que o usuário não poderia sentir seu olhos ofuscados.
FIG. 15 ilustra um exemplo de procedimento para determinar o acionamento do acionador de controle de exibição com base na informação obtida do sensor de ambiente circundante 19 ou da informação obtida da seção de comunicação 26.
No passo F301 na FIG. 15, o controlador de sistema 10 monitora um ou ambos da informação detectada através do sensor de ambiente circundante 19 e da informação recebida através da seção de comunicação 26. Exemplos de sensor de ambiente circundante 19 incluem o sensor de temperatura, o sensor de umidade, e o sensor de pressão atmosférica. É assumido aqui que a seção de comunicação 26 regularmente recebe a informação de clima do servidor de rede ou o similar, por exemplo.
O controlador de sistema 10 é capaz de determinar as condições de clima dos arredores com base na informação sobre a pressão atmosférica, a umidade, e a temperatura obtida através do sensor de ambiente circundante 19, por exemplo. Em adição, o controlador de sistema 10 é capaz de determinar as condições de clima com base na informação de clima recebida através da seção de comunicação 26. Note que, de modo a receber a informação das condições de clima a partir do servidor da rede, o controlador de sistema 10 pode transmitir a informação, sobre a posição atual obtida pela seção de receptor de GPS 2, regularmente para o servidor, para receber, a partir do servidor da rede, a informação de clima sobre uma área a qual a posição atual pertence.
O controlador de sistema 10 é capaz de determinar as condições de clima dos arredores com base na informação detectada através do sensor de ambiente circundante 19 ou da informação recebida através da seção de comunicação 26, mas o uso de ambas a informação torna possível reconhecer as condições de clima mais precisamente.
O controlador de sistema 10 determina se ajuste de imagem é
ou não requerido de acordo com as condições de clima, tal como tempo bom, tempo nublado, tempo chuvoso, uma trovoada, um tufão, ou uma precipitação de neve, ou uma mudança nas condições de clima, tal como início de precipitação de chuva, parada de precipitação de chuva, ou escurecimento do céu. Se é determinado que um ajuste de imagem é requerido, o controlador de sistema 10 prossegue do passo F302 para o passo F303, e determina que o acionador de controle de exibição foi acionado. Então, no passo F304, o controlador de sistema 10 calcula um valor de ajuste de acordo com o clima atual. Por exemplo, um valor de ajuste para a luminosidade, o contraste, a nitidez, o processamento de cor, ou o similar do mostrador é calculado.
Como um resultado dos processos dos passos F303 e F304, o controle no procedimento da FIG. 13 efetuado através do controlador de sistema 10 prossegue do passo F104 para o passo F107, e neste caso, o controlador de sistema 10 instrui a seção de processamento de imagem do mostrador 12 a efetuar um processo tal como o controle da luminosidade, o controle de contraste, o controle de nitidez, o processamento de cor, ou o similar. Como um resultado deste processo, a qualidade de imagem da imagem exibida na seção de exibição 2 é ajustada a fim de ser adequada para as condições do campo. Por exemplo, a qualidade de imagem da imagem exibida na
seção de exibição 2 é ajustada de acordo com a luminosidade dos arredores, que varia dependendo do clima, tal que o usuário vai sentir a imagem de exibição na seção de exibição 2 mais clara.
Em adição, é concebível que a qualidade de imagem seja ajustada a fim de ter uma atmosfera adequada para uma imagem do clima. Quando está nevando, por exemplo, azul pode ser aprimorado para exibir uma imagem que é adequada a uma imagem da temperatura dos arredores, ou ao contrário, vermelho pode ser aprimorado para permitir a qualidade de imagem dar um impressão de calor como oposto ao frio.
Note que no caso onde o aparelho de exibição 1 tem a estrutura como ilustrado na FIG. 3 e a imagem fotografada está sendo exibida na seção de exibição 2, o controlador de sistema 10 pode controlar a seção de iluminação 4 para fornecer iluminação dependendo do clima. Também note que embora tenha sido assumido aqui que o
clima é determinado com base na informação obtida através do sensor de ambiente circundante 19 ou da informação recebida através da seção de comunicação 26, reconhecimento de uma imagem de chuva pela seção de análise de imagem 17 permite detecção precisa do início ou parada de precipitação de chuva, ocorrência de iluminação, ou o similar.
A seguir, com referência a FIG. 16, um exemplo de procedimento para determinar a ocorrência do acionador de controle de exibição com base na informação obtida do sensor de ambiente circundante 19 será agora descrita abaixo. No passo F401 na FIG. 16, o controlador de sistema 10
monitora a informação obtida através do sensor de ambiente circundante 19. É assumido aqui que o sensor de ambiente circundante 19 é composto do sensor de temperatura e do sensor de umidade.
Com base na informação detectada através do sensor de ambiente circundante 19, o controlador de sistema 10 detecta a condições de temperatura e umidade atual dos arredores, e determina se os arredores estão ou não com alta temperatura e alta umidade, e se ou não os arredores estão ou não com baixa temperatura, por exemplo.
Se é determinado que os arredores estão com alta temperatura e alta umidade, fazendo o usuário se sentir desconfortável, o controlador de sistema 10 prossegue do passo F402 para o passo F404, e determina que o acionador de controle de exibição foi acionado. Então, no passo F405, o controlador de sistema 10 calcula um valor de ajuste para a nitidez, o processamento de cor, um efeito de imagem, ou o similar, por exemplo.
Entretanto, se é determinado que os arredores estão com baixa temperatura, fazendo o usuário sentir frio, o controlador de sistema 10 prossegue do passo F403 para o passo F406, e determina que o acionador de controle de exibição foi acionado. Então, no passo F407, o controlador de sistema 10 calcula um valor de ajuste para a nitidez, o processamento de cor, um efeito de imagem ou o similar, por exemplo.
Como um resultado dos processos dos passos F404 e F405 ou processos dos passos F406 e F407, o controle no procedimento da FIG. 13 efetuado através do controlador de sistema 10 prossegue do passo F104 para o passo F107, e o controlador de sistema 10 instrui a seção de processamento de imagem do mostrador 12 para ajustar os dados de imagem com relação a luminosidade, o contraste, a nitidez, o processamento de cor, um efeito de imagem, ou o similar do mostrador.
No caso onde a imagem fotografada, a imagem reproduzida, ou a imagem recebida são exibidas, se os arredores estão com alta temperatura e alta umidade, por exemplo, o processo de ajuste acima pode mudar a imagem em uma imagem colorida com a sombra fria de azul ou cores similares, por exemplo, e se os arredores estão com baixa temperatura, o processo de ajuste acima pode mudar a imagem em uma imagem que dá uma impressão de calor através de um processo de colorir a imagem com uma sombra de vermelho ou cores similares, aplicando um efeito de foco suave para a imagem, ou o similar, por exemplo.
Note que embora, no exemplo acima, a determinação tem sido feita com relação às condições de "alta temperatura e alta umidade" e "baixa temperatura" , determinação adicional pode ser feita com relação à condição e "baixa umidade". Por exemplo, pode ser então arranjado que seja determinado se os arredores estão ou não com "alta temperatura e alta umidade" e se os arredores estão ou não com "baixa temperatura e baixa umidade", e que o controle de imagem é efetuado de acordo com as determinações. Ainda, por exemplo, pode ser então arranjado que a determinação seja feita com relação a quatro condições de "alta temperatura e alta umidade", "alta temperatura e baixa umidade", "baixa temperatura e alta umidade" e "baixa temperatura e baixa umidade" e que o controle de imagem é efetuado de acordo com as determinações.
FIG. 17 ilustra um exemplo de procedimento para determinar o acionamento do acionador de controle de exibição com base na informação sobre o tempo atual obtida através da seção de cálculo de dada / hora 22.
No passo F501 na FIG. 17, o controlador de sistema 10 verifica a data e hora atual calculada através da seção de cálculo de dada / hora 22. Com base na hora atual, o controlador de sistema 10 determina um período de tempo dentro do qual a hora atual se enquadra. Exemplos do período de tempo incluem período de madrugada, período de manhã cedo, período diurno, período da tarde, e período noturno. Por exemplo, um período de madrugada é assumido para o intervalo de 4 às 7, um período de manhã cedo de 7 às 9 , o período diurno de 9 às 17, um período da tarde de 17 às 19, e um período noturno de 19 às 4.
Note que um critério para separar o tempo em períodos de tempo pode ser mudado dependendo do mês e dia. Por exemplo, considerando que o nascer do sol e o por do sol diferem dependendo do mês e dia, um intervalo de tempo de qualquer dos períodos de tempo acima pode ser mudado. Por exemplo, o período de tempo "madrugada" pode ser determinado para variar de 4 às 7 no verão e de 6 às 8 no inverno.
O controlador de sistema 10 determina se o período de tempo da data e hora atual mudou, com base no período de tempo do tempo atual determinado através da verificação da date e hora efetuada no passo F501. Se é determinado que o período de tempo da data e hora atual mudou, o controlador de sistema 10 prossegue do passo F502 para o passo F503 e passos subseqüentes.
Por exemplo, quando a hora atual se enquadra dentro do período da madrugada, o controlador de sistema 10 prossegue do passo F503 para o passo F507, e determina que o acionador de controle de exibição para a operação de exibição para o período da madrugada foi acionado.
Quando a hora atual se enquadra no período da manhã cedo, o controlador de sistema 10 prossegue do passo F504 para o passo F508, e determina que o acionador de controle de exibição para a operação de exibição para o período de manhã cedo foi acionado.
Quando a hora atual se enquadra dentro do período diurno, o controlador de sistema 10 prossegue do passo F505 para o passo F509, e determina que o acionador de controle de exibição para a operação de exibição para o período diurno foi acionado.
Quando a hora atual se enquadra dentro do período da tarde, o controlador de sistema 10 prossegue do passo F506 para o passo F510, e determina que o acionador de controle de exibição para a operação de exibição para o período da tarde foi acionado.
Quando a hora atual se enquadra dentro do período noturno, o controlador de sistema 10 prossegue para o passo F511, e determina que o acionador de controle de exibição para a operação de exibição para o período noturno foi acionado.
Se é determinado em qualquer dos passos F507, F508, F509, F510, e F511 que o acionador de controle de exibição foi acionado, o controle no procedimento da FIG. 13 efetuado através do controlador de sistema 10 prossegue do passo F104 para o passo F107, e o controlador de sistema 10 instrui a seção de controle do mostrador 14 para efetuar a operação de exibição de acordo com o período de tempo atual. Por exemplo, o controlador de sistema 10 instrui a seção de controle do mostrador 14 para efetuar a processo tal como o controle da luminosidade, o controle do contraste, controle da nitidez, controle da cor, ou o similar do mostrador. Em adição, o controlador de sistema 10 pode instruir a seção de controle do mostrador 14 para aplicar um efeito de imagem, tal como exibição de foco suave.
Como um resultado deste processo, uma imagem que dá um impressão adequada do período de tempo atual é apresentada ao usuário como a imagem fotografada, a imagem reproduzida, ou a imagem recebida. Por exemplo, uma imagem tendo uma qualidade de imagem suave é apresentada no período da madrugada, um imagem forte de alto contraste é apresentada no período diurno, uma imagem tendo uma qualidade de imagem com tom de sépia é apresentada no período da tarde, e uma imagem tendo uma qualidade de imagem escura é apresentada no período noturno. Assim sendo, imagens divertidas que vão de encontro ao humor do usuário nos respectivos períodos de tempo podem ser apresentados ao usuário.
Não é necessário dizer que, o controle de qualidade de imagem para ajustar a qualidade de imagem de acordo com a luminosidade do período de tempo atual de modo a melhorar visibilidade é também concebível.
Ainda, em adição ao período de tempo, as condições de clima e se o usuário está atualmente em um lugar interno ou externo pode ser determinado para ajustar a qualidade de imagem apropriadamente de acordo com as condições.
Ainda mais, pode ser então arranjado que o clima, em vez do período de tempo, seja determinado com base na informação sobre a data e hora, e que a qualidade de imagem é ajustada de acordo com o clima. Por exemplo, imagens com um sentimento do clima podem ser apresentadas ao usuário, exibindo nas imagens, componentes de azul reforçado no verão , componentes de vermelho na precipitação de chuva, componentes de branco no inverno, e verde / rosa ou cores similares na primavera, por exemplo.
FIG. 18 ilustra um exemplo de procedimento para determinar o acionamento do acionador de controle de exibição com base na informação recebida através da seção de receptor de GPS 21 e a informação recebida através da seção de comunicação 26.
No passo F601 na FIG. 18, o controlador de sistema 10 transmite a informação sobre a latitude e longitude da posição atual obtida através da seção de receptor de GPS 21 para o servidor de rede ou o dispositivo que contém o banco de dados de mapa através da seção de comunicação 26, e recebe informação considerando a posição atual recuperada no servidor de rede ou o dispositivo que contém o banco de dados de mapa. Note que no caso onde o aparelho de exibição 1 contém o banco de dados de mapa, o controlador de sistema 10 é capaz de recuperar informação considerando a posição atual deste banco de dados de mapa com base na informação sobre a latitude e longitude da posição atual obtida da seção de receptor de GPS 21.
Com base na informação adquirida considerando a posição atual, o controlador de sistema 10 determina se o usuário está ou não atualmente em um lugar onde pré-determinado controle de exibição deve ser efetuado. Se é determinado que a posição atual é um lugar onde o pré- determinado controle de exibição deve ser efetuado, o controlador de sistema prossegue do passo F602 para o passo F603, e determina que a acionador de controle de exibição para efetuar o pré-determinado controle do mostrador foi acionado.
Como um resultado disto sendo determinado no passo F603 que o acionador de controle de exibição foi acionado, o controle no procedimento da FIG. 13 efetuado através do controlador de sistema 10 prossegue do passo F104 para o passo F107, e o controlador de sistema 10 instrui a seção de controle do mostrador 14 para efetuar pré-determinado processamento de imagem.
Exemplos do controle de exibição a ser efetuado neste caso são como a seguir.
Suponha, por exemplo, que uma praia, uma montanha, uma área urbana, uma área rural, ou o similar é identificado na região da posição atual. Neste caso, a qualidade de imagem da imagem exibida na seção de exibição 2 pode ser ajustada de acordo com uma imagem da praia, da montanha, da área urbana, da área rural, ou o similar.
Também, com base na informação adquirida considerando a posição atual, um nome de lugar, o nome da localidade, a loja, ou o similar que está sendo fotografada, ou o similar pode ser , na forma de uma imagem de caracteres ou uma escrita, na imagem exibida na seção de exibição 2. Também é concebível que informação de propaganda, a informação de guia na localidade, informação de alarme considerando uma área em volta, ou o similar é exibida na seção de exibição 2.
Também é concebível que a luminosidade do mostrador ou o similar seja controlado dependendo se o usuário está em local interno ou externo.
Também, no caso onde a imagem de visão aérea de olho de pássaro como ilustrado na (c) da FIG. 7 está sendo exibida, é concebível que uma nova imagem é adquirida através da seção de comunicação 26 conforme a posição atual muda, e que a imagem atual é recolocada através da nova imagem adquirida.
(a) da FIG. 19 ilustra um exemplo de procedimento para determinar o acionamento do acionador de controle de exibição com base na informação obtida da seção de análise de imagem 17. Mais particularmente, neste exemplo de procedimento, é determinado se os dados de imagem incluem ou não uma escrita. Exemplos de dados que incluem uma escrita incluem dados de uma imagem do jornal, dados de uma imagem do livro, e os dados de imagem do livro eletrônico como ilustrado na (c) da FIG. 6.
No passo F701 em (a) da FIG. 19, o controlador de sistema 10 monitora a informação obtida da seção de análise de imagem 17. É assumido aqui que a seção de análise de imagem 17 efetua análise de imagem para detectar se os dados de imagem incluem ou não uma escrita.
O controlador de sistema 10 determina se os dados de imagem incluem ou não uma escrita com base na informação sobre um resultado da análise efetuada pela seção de processamento de imagem 17.
Se é determinado que os dados de imagem incluem uma escrita, o controlador de sistema 10 prossegue do passo F702 para o passo F703, e determina que o acionador de controle de exibição foi acionado.
Então, no passo F704, o controlador de sistema 10 calcula um valor de ajuste que é adequado ao caso onde a imagem da escrita é lida pelo usuário. Por exemplo, um valor de ajuste para a luminosidade, o contraste, a nitidez, ou o similar do mostrador é calculado tal que o usuário pode ler confortavelmente a escrita exibida na tela do mostrador.
Como um resultado dos processos de passos F703 e F704, o controle no procedimento da FIG. 13 efetuado através do controlador de sistema 10 prossegue do passo F104 para o passo F107, e neste caso, o controlador de sistema 10 instrui a seção de processamento de imagem do mostrador 12 para efetuar um processo tal como um controle de luminosidade, o controle de contraste, um controle de nitidez, ou o similar. Como um resultado deste processo, a qualidade de imagem da imagem exibida na seção de exibição 2 é ajustada tal que as escritas na imagem como ilustrado em (c) da FIG. 6, por exemplo, se torna mais fácil de ler.
Note que pode ser então arranjado que, em adição a detecção se a imagem inclui ou não uma escrita, a luminosidade dos arredores é detectada, e a luminosidade dos arredores detectada é levada em conta quando calculando o valor de ajuste.
Também é concebível que, em vez de ajustar a qualidade de imagem, a seção de processamento de imagem do mostrador 12 efetua o processo de ampliação, por exemplo, para exibir a imagem ampliada, e por meio disso, fornecer ao usuário uma imagem com que o usuário é capaz de ler a escrita facilmente.
No caso onde a imagem fotografada obtida do sistema de função de formação de imagem está sendo exibida na seção de exibição 2, o reconhecimento da forma do livro ou jornal na análise da imagem pode ser adicionado à para condição para prosseguir para o passo F703. Neste caso, se é determinado que o objeto de formação de imagem é o jornal ou o similar, o controlador de sistema 10 pode controlar a seção de iluminação 4 para fornecer iluminação.
No caso onde a imagem inclui uma escrita, a seção de análise de imagem 17 pode identificar a escrita e fornecer a escrita para o controlador de sistema 10 como os dados de texto. Neste caso, o controlador de sistema controla a seção de síntese de fala 29 para efetuar o processo de síntese de fala com base nos dados de texto detectados a partir da imagem.
Como um resultado, o sinal de áudio para a fala de leitura da escrita incluída nos dados de imagem é gerado na seção de síntese de fala 29. O controlador de sistema 10 controla a fala da leitura a ser emitida através da seção de saída de áudio 5. Como um resultado, o usuário é capaz de ouvir a fala da leitura enquanto visualizando a imagem incluindo a escrita exibida na seção de exibição 2.
(b) da FIG. 19 também ilustra um exemplo de procedimento para determinar o acionamento do acionador de controle de exibição com base na informação obtida da seção de análise de imagem 17. De acordo com este exemplo de procedimento, a visibilidade dos dados de imagem obtida a partir de determinada fonte é melhorada. No passo F710 em (b) da FIG. 19, o controlador de sistema 10 monitora a informação obtida da seção de análise de imagem 17. A seção de análise de imagem 17 analisa os dados de imagem para determinar se a imagem está ou não em um estado de luminosidade apropriado, ou se a imagem tem ou não nitidez apropriada.
Se é determinado que a imagem tem muito baixa luminosidade ou muita baixa nitidez, o controlador de sistema 10 prossegue do passo F711 para o passo F712, e determina que o acionador de controle de exibição foi acionado.
Então, no passo F713, o controlador de sistema 10 calcula um valor de ajuste para melhorar a visibilidade. Por exemplo, um valor de ajuste para a luminosidade, o contraste, a nitidez, ou o similar do mostrador é calculado que possibilita ao usuário confortavelmente visualizar a imagem na tela do mostrador.
Como um resultado dos processos dos passos F712 e F713, o controle no procedimento da FIG. 13 efetuado através do controlador de sistema 10 prossegue do passo F104 para o passo F107, e neste caso, o controlador de sistema 10 instrui a seção de processamento de imagem do mostrador 12 para efetuar um processo tal como o controle de luminosidade, o controle de contraste, o controle da nitidez, ou o similar. Como um resultado deste processo, a qualidade de imagem da imagem exibida na seção de exibição 2 é ajustada, tal que uma imagem que é fácil de ver é fornecida ao usuário.
(a) da FIG. 20 também ilustra um exemplo de procedimento para determinar o acionamento do acionador de controle de exibição com base na informação obtida a partir da seção de análise de imagem 17.
No passo F801, em (a) da FIG. 20, o controlador de sistema 10 monitora a informação obtida a partir da seção de análise de imagem 17. E assumido aqui que a seção de análise de imagem 17 analisa a imagem fotografada para determinar se os dados de imagem incluem ou não um objeto especificado.
Se, como um resultado da análise da imagem, é determinado que a imagem fotografada inclui o objeto especificado, o controlador de sistema 10 prossegue do passo F802 para o passo F803, e determina que o acionador de controle de exibição foi acionado.
Como um resultado disso, sendo determinado no passo F803 que o acionador de controle de exibição foi acionado, o controle no procedimento da FIG. 13 efetuado através do controlador de sistema 10 prossegue do passo F104 para o passo F107, e o controlador de sistema 10 instrui a seção de controle do mostrador 14 para efetuar pré-determinado processamento de imagem.
Exemplos concebíveis de controle de processamento de imagem neste caso são como a seguir.
No caso onde o objeto especificado é um pássaro, por exemplo, se um pássaro é detectado nos dados de imagem, o controlador de sistema 10 pode instruir a seção de processamento de imagem do mostrador 12 para realçar o pássaro na imagem como ilustrado na (c) da FIG. 12. Como um resultado, a imagem fotografada, a imagem recebida, ou a imagem reproduzida é exibida na seção de exibição 2 em tal uma maneira que o usuário pode encontrar o pássaro facilmente. Não é necessário dizer que, isto não é limitado ao pássaro, mas pode ser aplicado a quaisquer outros animais.
No caso onde o objeto especificado é uma pessoa, se a pessoa é detectada nos dados de imagem, o controlador de sistema 10 pode instruir a seção de processamento de imagem do mostrador 12 para permitir a pessoa aparecer na imagem realçando a pessoa, ou ampliando a pessoa, por exemplo.
No caso onde o objeto especificado é uma pessoa, um animal, uma estrutura, ou o similar, uma imagem pode ser exibida na qual somente o objeto especificado seja exibido enquanto uma cena em volta do objeto especificado tal como uma pessoa, está borrada em sua totalidade.
Também é concebível que quando a pessoa é detectada como o objeto especificado, a imagem seja processada tal que somente a pessoa esteja na imagem. Por exemplo, uma imagem de uma cena natural na qual um objeto artificial tal como uma pessoa, um carro, ou o similar é excluído (mascarado) pode ser exibida. Neste caso, um processo de interpolação pode ser efetuado tal que os pixéis correspondendo ao objeto especificado serão preenchidos usando os pixéis que envolvem o objeto especificado que é para ser mascarado.
No caso onde o objeto especificado é uma pessoa ou o similar,
também é concebível aplicar um efeito de imagem tal como exibição em mosaico.
(b) da FIG. 20 também ilustra um exemplo de procedimento para determinar o acionamento do acionador de controle de exibição com base na informação obtida a partir da seção de análise de imagem 17.
No passo F810 em (b) da FIG. 20, o controlador de sistema 10 monitora a informação obtida da seção de análise de imagem 17. A seção de análise de imagem 17 analisa a imagem fotografada para detectar se um movimento rápido está ou não ocorrendo nos dados de imagem. Por exemplo, a velocidade de um movimento pode ser determinada com base nas diferenças entre os quadros dos dados de vídeo.
Se, como um resultado da análise da imagem, um objeto que se move rápido é detectado, o controlador de sistema 10 prossegue do passo F811 para o passo F812, e determina que o acionador de controle de exibição foi acionado.
Como um resultado disto sendo determinado no passo F812 que o acionador de controle de exibição foi acionado, o controle no procedimento da FIG. 13 efetuado através do controlador de sistema 10 prossegue do passo F104 para o passo F107, e o controlador de sistema 10 instrui a seção de controle do mostrador 14 para efetuar o processamento de imagem.
Por exemplo, é concebível que, de modo a possibilitar ao usuário verificar o movimento rápido facilmente, o controlador de sistema 10 instrui a seção de controle do mostrador 14 para efetuar o processamento de imagem tal que uma exibição estroboscópica como ilustrada na (c) da FIG. 9 será apresentado.
Também é concebível que o controlador de sistema 10 instrua a seção de controle do mostrador 14 para efetuar o processamento de imagem tal como realçando ou ampliando um objeto em movimento rápido para atrair a atenção do usuário para o objeto em movimento rápido.
No caso onde os dados de imagem reproduzidos obtidos da seção de armazenamento 25 são exibidos, é concebível que o controlador de sistema 10 instrua a seção de armazenamento 25 para efetuar reprodução lenta para apresentar uma versão lenta do movimento rápido ao usuário.
(a) da FIG. 21 também ilustra um exemplo de procedimento para determinar o acionamento do acionador de controle de exibição com base na informação obtida da seção de análise de imagem 17. Mais particularmente, neste exemplo de procedimento, quando a pessoa foi fotografada, aquela pessoa é identificada.
No passo F901 em (a) da FIG. 21, o controlador de sistema 10 monitora a informação obtida da seção de análise de imagem 17. A seção de análise de imagem 17 analisa a imagem fotografada para determinar se os dados de imagem incluem a face de uma pessoa, e, se a imagem fotografada inclui a face da pessoa, gera os dados de características pessoais a partir de uma imagem da face. Como notado anteriormente, os exemplos dos dados de características pessoais incluem a proporção (Ed / EN) da distância Ed entre os olhos para a distância EN entre o centro do olho e o nariz, e a proporção (Ed / EM) da distância Ed entre os olhos para a distância EM entre o centro do olho e a boca.
Se os dados de características pessoais são extraídos, o controlador de sistema 10 prossegue do passo F902 para o passo F903, e procura por informação pessoal com base nos dados de características pessoais.
Por exemplo, o controlador de sistema 10 transmite os dados de características pessoais para o servidor de rede ou o dispositivo que contém o bancos de dados de pessoas através da seção de comunicação 26, e recebe um resultado de procura efetuada no servidor de rede ou no dispositivo que contém o bancos de dados de pessoas para a informação pessoal. No caso onde o aparelho de exibição 1 contém o bancos de dados de pessoas , o controlador de sistema 10 é capaz de procurar o bancos de dados de pessoas com base nos dados de características pessoais.
Se a informação pessoal sobre a pessoa especificada é encontrada como um resultado da pesquisa efetuada através do dispositivo externo ou do próprio controlador de sistema 10, o controlador de sistema 10 prossegue do passo F904 para o passo F905, e determina que um acionador de controle de exibição para exibir a informação pessoal foi acionado.
Como um resultado disto, sendo determinado no passo F905 que o acionador de controle de exibição foi acionado, o controle no procedimento da FIG. 13 efetuado através do controlador de sistema 10 prossegue do passo F104 para o passo F107, e o controlador de sistema 10 instrui a seção de controle do mostrador 14 para, por exemplo, exibir a informação pessoal recuperada a fim de ser sobreposta na imagem.
No caso onde a imagem fotografada, a imagem reproduzida, ou a imagem recebida sendo exibida inclui um pessoa que o usuário encontrou no passado ou uma celebridade que é registrada nos bancos de dados de pessoas, a informação sobre a pessoa ou celebridade (i.e., informação registrada no banco de dados de pessoas, tal como o nome ou posição da pessoa ou celebridade, um local no qual o usuário encontrou a pessoa, ou o similar) é exibida na seção de exibição 2 junto com uma imagem da pessoa ou celebridade como um resultado do processo acima, tal que o usuário pode reconhecer a pessoa ou celebridade com precisão.
(b) da FIG. 21 também ilustra um exemplo de procedimento
para determinar o acionamento do acionador de controle de exibição com base na informação obtida a partir da seção de análise de imagem 17. Este exemplo de procedimento corresponda ao caso onde a imagem é difícil de ver por causa da influência de regiões ensolaradas ou sombreadas como ilustrado na (a) da FIG. 12.
No passo F910 in (b) da FIG. 21, o controlador de sistema 10 monitora a informação obtida a partir da seção de análise de imagem 17. A seção de análise de imagem 17 analisa os dados de imagem para determinar se regiões claras ou escuras estão ou não presentes na imagem por causa da luz do sol.
Se, quando a imagem fotografada, a imagem reproduzida, ou a imagem recebida está sendo exibida, a análise de imagem dos dados de imagem delas determina que variações de luminosidade estão ocorrendo na imagem pro causa da presença das regiões ensolaradas e sombreadas, o controlador de sistema 10 prossegue do passo F911 para o passo F912, e determina que o acionador de controle de exibição foi acionado.
Como um resultado disto, sendo determinado no passo F912 que o acionador de controle de exibição foi acionado, o controle no procedimento da FIG. 13 efetuado através do controlador de sistema 10 prossegue do passo F104 para o passo F107, e o controlador de sistema 10 instrui a seção de controle do mostrador 14 para efetuar o processamento de imagem para eliminar as variações de luminosidade forçadas através das regiões ensolaradas e sombreadas, e.g., uma mudança parcial no nível de luminosidade do mostrador. Como um resultado deste processo, uma imagem que seja fácil de ver e que não é influenciada pelas regiões ensolaradas e sombreadas, de forma significativa, pode ser fornecida para o usuário como ilustrado na (b) da FIG. 12, por exemplo.
Também é concebível que, no caso onde a influência de uma lâmpada na casa ou localidade, por exemplo, em vez da influência da luz do sol, força variações de luminosidade parciais significativas a ocorrer na imagem ou torna a imagem, de forma parcial, não clara, um controle de luminosidade, o controle de sensibilidade de formação de imagem, o controle de contraste, ou o similar com relação a parte da imagem pode ser efetuado.
Como os procedimentos da FIGS. 14 à 21, exemplos dos processos de processamento, quando exibindo a imagem fotografada, a imagem reproduzida, ou a imagem recebida, o modo de exibição da imagem a ser exibida ou os dados de imagem a serem exibida de acordo com a informação do mundo exterior foram descritos acima, mas esses exemplos são somente ilustrativos e não restritivos. Uma grande variedade de outros exemplos é concebível como exemplo da determinação de se o acionador de controle de exibição foi ou não acionado ou de exemplos de controle .
Como para o acionador de controle de exibição, a situação do mundo exterior é detectada com base na informação obtida proveniente do sensor de ambiente circundante 19, do sensor de objeto de formação de imagem 20, da seção de receptor de GPS 21, da seção de cálculo de dada / hora 22, da seção de análise de imagem 17, ou da seção de comunicação 26, e se uma condição pré-determinada é satisfeita, é determinado que um acionador foi acionado.
Como exemplos do controle a ser efetuado quando foi determinado com base em várias condições que o acionador de controle de exibição foi acionado, e conforme controle a ser exercido sobre a seção de processamento de imagem do mostrador 12, os seguinte tipos of controle podem ser efetuados de acordo com a situação do mundo exterior, por exemplo: controle de aumento / redução; controle de luminosidade, do contraste, da nitidez, ou o similar; exibição de uma imagem com um efeito aplicado, tal como a imagem de mosaico, a imagem de luminosidade reversa, a imagem de foco suave ou o similar; e controle da exibição em tela dividida ou a exibição estroboscópica como ilustrada na FIG. 9.
Um modo de exibição que combina o estado de passagem e a imagem (i.e., a imagem reproduzida, a imagem recebida, ou a imagem fotografada) é também concebível. Por exemplo, a seção de exibição 2 pode ser forçada a entrar em estado de semi-passagem (cerca de 50% de capacidade de transmissão) enquanto a imagem é exibida na seção de exibição 2.
No caso onde a imagem fotografada obtida a partir do sistema de função de formação de imagem está sendo exibida na seção de exibição 2, é concebível que, como controle das operações da seção de formação de imagem 3 e da seção de processamento de sinal de formação de imagem 15, um processo de tele-foto / de aproxima de ângulo amplo, controle da sensibilidade de formação de imagem, comutação da taxa de quadro de formação de imagem, mudança de sensibilidade de infravermelho de formação de imagem ou de sensibilidade de ultravioleta de formação de imagem, ou o similar é efetuado.
No caso onde a imagem reproduzida obtida a partir da seção de armazenamento 25 ou a imagem recebida obtida a partir da seção de comunicação 26 está sendo exibida na seção de exibição 2, é concebível que o acionador de controle de exibição seja tratado como um acionador para reprodução de velocidade variável tal como avançar rápido para frente / rápido para trás, sugestão, avanço de quadro, reprodução lenta e pausa, e como um acionador para avanço de página, rolar página, movendo uma seleção em uma lista sendo exibida, movimento de cursor, uma operação de decisão, uma operação de jogo, ou o similar , e que o controlador de sistema controla a seção de armazenamento 25 ou a seção de comunicação 26 para efetuar uma operação desejada.
Isto é, conforme condições para determinar que o acionador de controle de exibição foi acionado e controle de acordo com elas, qualquer combinação do acima é concebivel.
Referindo a (b) da FIG. 9, quando a exibição na seção de exibição 2 é comutada em resposta ao acionamento do acionador de controle de exibição como descrito acima, a área ARl na seção de exibição 2, onde a tela está no estado de passagem ou a imagem fotografada regular está sendo exibida, pode ser deixada imutável enquanto uma imagem em unidade modo diferente é exibida na área AR2, i.e., uma parte da seção de exibição 2. Não é necessário dizer que, ao contrário, uma imagem de acordo com o acionador de controle de exibição pode ser exibida na área mais ampla ARI. Também, pode ser então arranjado que a tela seja dividida em duas partes de tamanhos iguais, e que a imagem fotografada regular é exibida em uma das partes enquanto a imagem de acordo com o acionador de controle de exibição é exibida na outra das duas partes.
A seguir, com referência às FIGS. 22 e 23, exemplos de procedimentos para determinar o acionamento do acionador de comutação de fonte no passo F105 na FIG. 13 serão agora descritos a seguir.
(a) da FIG. 22 ilustra um exemplo de procedimento para determinar o acionamento do acionador de comutação de fonte com base nas análises efetuadas pela seção de análise de imagem 17.
No passo FlOOl na FIG. 22, o controlador de sistema 10 monitora a informação obtida a partir da seção de análise de imagem 17. É assumido aqui que o aparelho de exibição 1 inclui um sistema de função de formação de imagem como ilustrado na FIG. 3, e que a seção de análise de imagem 17 analisa os dados de imagem da imagem fotografada através da seção de formação de imagem 3 para detectar se o objeto da seção de formação de imagem 3 inclui ou não um dispositivo eletrônico com o qual o aparelho de exibição 1 é capaz de se comunicar. Por exemplo, um dispositivo, tal como o computador pessoal, o telefone de comunicação móvel, o equipamento de AV, ou o PDA, com que o aparelho de exibição pode ser capaz de efetuar comunicação de dados é identificado com base em sua aparência.
Se, como um resultado da análise da imagem, é determinado que o dispositivo eletrônico foi fotografada, o controlador de sistema 10 prossegue do passo F1002 para o passo F1003, e instrui a seção de comunicação 26 para transmitir ao dispositivo eletrônico a solicitação para estabelecimento de comunicação. Se o dispositivo eletrônico fotografado é um dispositivo que é capaz de se comunicar com o aparelho de exibição 1 de acordo com a presente modalidade, a resposta à solicitação para o estabelecimento de comunicação será obtida, tal que a comunicação é estabelecida entre o aparelho de exibição 1 e o dispositivo eletrônico. Quando é determinado que o dispositivo externo eletrônico é um dispositivo compatível que seja capaz de se comunicar com o aparelho de exibição 1 como descrito acima, o controlador de sistema 10 prossegue do passo F1004 para o passo F1005, e determina que um acionador de comutação de fonte para designar a seção de comunicação 26 como a fonte, foi acionado. Como um resultado disto, sendo determinado no passo F1005
que o acionador de comutação de fonte foi acionado, o controle no procedimento da FIG. 13 efetuado através do controlador de sistema 10 prossegue do passo F105 para o passo F108, e o controlador de sistema 10 comuta a fonte de imagem para a seção de comunicação 26. Como um resultado desta comutação, a seção de exibição 2 vai entrar em um estado no qual os dados de imagem recebidos através da seção de comunicação 26 são exibidos nele.
O processo acima torna isto possível, quando um dispositivo externo (e.g., o aparelho de formação de imagem 70 ou o dispositivo de fonte de conteúdo 71, como ilustrado na FIG. 2) com o qual o aparelho de exibição 1 é capaz de se comunicar existe na área em volta, para exibir a imagem recebida do dispositivo externo na seção de exibição 2.
(b) da FIG. 22 ilustra um exemplo de procedimento para comutar a fonte em resposta à solicitação transmitida do dispositivo externo em um lugar especificado.
No passo FlOlO em (b) da FIG. 22, o controlador de sistema transmite a informação sobre a latitude e longitude da posição atual obtida através da seção de receptor de GPS 21 para o servidor de rede ou o dispositivo que contém o banco de dados de mapa através da seção de comunicação 26, e recebe a informação considerando a posição atual recuperada no servidor de rede ou no dispositivo que contém o banco de dados de mapa. Note que no caso onde o aparelho de exibição 1 contém o banco de dados de mapa, o controlador de sistema 10 é capaz de recuperar a informação considerando a posição atual a partir deste banco de dados de mapa com base na informação sobre a latitude e longitude da posição atual obtida a partir da seção de receptor de GPS 21.
Com base na informação adquirida considerando a posição atual, o controlador de sistema 10 determina se a posição atual está ou não dentro da região ou localidade especificada. Se é determinado que a posição atual está na região ou localidade especificada, o controlador de sistema 10 prossegue do passo FlOll para o passo F1012, e determina se a solicitação para comunicação foi ou não recebida do dispositivo externo. Por exemplo, o controlador de sistema 10 pode esperar por um tempo pré-determinado pela solicitação para comunicação a ser recebida proveniente do dispositivo externo.
Se a solicitação para comunicação foi recebida do dispositivo externo, o controlador de sistema 10, no passo F1013, permite a seção de comunicação 26 estabelecer comunicação com o dispositivo externo, e efetua uma operação de comunicação.
Quando a operação de comunicação é iniciada, o controlador de sistema 10 determina no passo F1014 que o acionador de comutação de fonte para designar a seção de comunicação 26 como a fonte, foi acionado.
Como um resultado disto, sendo determinado no passo F1014 que o acionador de comutação de fonte foi acionado, o controle no procedimento da FIG. 13 efetuado através do controlador de sistema 10 prossegue do passo F105 para o passo F108, e o controlador de sistema 10 comuta a fonte de imagem para a seção de comunicação 26 para exibir os dados de imagem recebidos através da seção de comunicação 26 na seção de exibição 2.
O processo acima torna isto possível, quando um dispositivo externo (e.g., o aparelho de formação de imagem 70 ou o dispositivo de fonte de conteúdo 71 como ilustrado na FIG. 2) tenha acessado o aparelho de exibição 1 na região ou localidade especificada, para exibir a imagem recebida do dispositivo externo na seção de exibição 2.
Por exemplo, é concebível que uma imagem guia, um imagem de alarme, um imagem de serviço da região ou localidade seja fornecida ao usuário.
Também é concebível que, quando o usuário está assistindo a um esporte, a imagem como ilustrado na (a) da FIG. 7 fornecido por um promotor, por exemplo, é fornecido ao usuário do aparelho de exibição 1.
Também é concebível que, dependendo da região, a imagem de visão de olho de pássaro como ilustrado na (c) da FIG. 7 é fornecido ao usuário.
(a) da FIG. 23 ilustra um exemplo de procedimento para determinar o acionamento do acionador de comutação de fonte com base na análise efetuado através do sensor de objeto de formação de imagem 20 ou da seção de análise de imagem 17. Este exemplo de procedimento pode ser adotado quando o aparelho de exibição 1 tem o sistema de função de formação de imagem como ilustrado na FIG. 3.
No passo FllOl em (a) da FIG. 23, o controlador de sistema determina se a imagem fotografada está ou não sendo exibida na seção de exibição 2 com o sistema de função de formação de imagem como a fonte. Quando a imagem fotografada está sendo exibida, o processo de (a) da FIG. 23 não é efetuado. Entretanto, quando a imagem reproduzida na seção de armazenamento 25 ou a imagem recebida através da seção de comunicação 26 está sendo exibida na seção de exibição 2, por exemplo, o controlador de sistema 10 prossegue para o passo Fl 102.
No passo Fl 102, o controlador de sistema 10 monitora a informação obtida a partir da seção de análise de imagem 17 ou a informação obtida a partir do sensor de objeto de formação de imagem 20. É assumido aqui que a seção de análise de imagem 17 está analisando os dados da imagem fotografada através da seção de formação de imagem 3, e detecta se a imagem fotografada inclui um objeto especificado como um objeto da seção de formação de imagem 3. Exemplos do objeto especificado incluem uma pessoa, um animal, uma estrutura, e um objeto natural. Alternativamente, pode ser então arranjado que o sensor de objeto de formação de imagem 20 é o sensor piroelétrico, e que é determinado se o objeto de formação de imagem é ou não um corpo vivo tal como uma pessoa ou um animal como o objeto especificado.
Se o controlador de sistema 10 determina, com base na informação obtida a partir da seção de análise de imagem 17 ou da informação obtida a partir do sensor de objeto de formação de imagem 20, que a imagem fotografada inclui o objeto especificado, o controlador de sistema 10 prossegue do passo Fl 103 para o passo Fl 104, e determina que um acionador de comutação de fonte para designar um sistema de função de formação de imagem (i.e., uma seção de formação de imagem 3 e uma seção de processamento de sinal de formação de imagem 15) como a fonte, foi acionado.
Como um resultado disto, sendo determinado no passo Fl 104 que o acionador de comutação de fonte foi acionado, o controle no procedimento da FIG. 13 efetuado através do controlador de sistema 10 prossegue do passo F105 para o passo F108, e o controlador de sistema 10 comuta a fonte de imagem para o sistema de função de formação de imagem para exibir a imagem fotografada através da seção de formação de imagem 3 na seção de exibição 2.
O processo acima torna isto possível, quando o objeto especificado aparece em frente ao usuário enquanto o usuário está visualizando a imagem reproduzida ou a imagem recebida, por exemplo, para comutar a exibição na seção de exibição 2 para a imagem fotografada.
(b) da FIG. 23 ilustra um exemplo de procedimento para determinar o acionamento do acionador de comutação de fonte com base na hora e na posição atual.
No passo FlllO em (b) da FIG. 23, o controlador de sistema adquire a hora atual a partir da seção de cálculo de dada / hora 22. No passo Fllll, o controlador de sistema 10 adquire a informação sobre a posição atual com base na latitude e longitude da posição atual obtida através da seção de receptor de GPS 21.
No passo Fl 112, o controlador de sistema 10 determina se a hora atual é ou não uma hora especificada e o usuário está atualmente em um lugar especificado. Se é determinado no passo Fl 112 que o usuário esta no lugar especificado e na hora especificada, o controlador de sistema 10 prossegue para o passo Fl 113, e determina que o acionador de comutação de fonte foi acionado.
Como um resultado disto, sendo determinado no passo Fl 113 que o acionador de comutação de fonte foi acionado, o controle no procedimento da FIG. 13 efetuado através do controlador de sistema 10 prossegue do passo F105 para o passo F108, e o controlador de sistema 10 comuta a fonte de imagem.
Por exemplo, quando o usuário está no lugar especificado e na hora especificada, a fonte de imagem pode ser comutada para a seção de armazenamento 25, tal que a imagem reproduzida na seção de armazenamento 25 é exibida.
Alternativamente, quando o usuário está no lugar especificado e na hora especificada, a fonte de imagem pode ser comutada para o sistema de função de formação de imagem, tal que a imagem fotografada é exibida.
Alternativamente, quando o usuário está no lugar especificado e na hora especificada, a fonte de imagem pode ser comutada para a seção de comunicação 26, tal que a imagem recebida através da seção de comunicação 26 é exibida. Esta operação pode ser aplicada a um serviço fornecido através de um sistema de serviço de conteúdo que fornece um conteúdo no lugar especificado e na hora especificada.
Conforme os procedimentos das FIGS. 22 e 23, exemplos dos processos para determinar se o acionador de comutação de fonte foi ou não acionado com base na informação do mundo exterior foram descritos acima, mas esses exemplos são somente ilustrativos e não restritivos. Uma grande variedade de outros exemplos são concebíveis como exemplos da determinação de se o acionador de comutação de fonte foi ou não acionado.
A determinação de se o acionador de comutação de fonte foi acionado torna possível comutar a fonte de imagem de acordo com a situação, tal que uma imagem apropriada para o usuário pode ser fornecida ao usuário.
Retornando à FIG. 13, imagem acionamento ocorrência do acionador de início de exibição determinada no passo F102 e o acionamento do acionador de término de exibição determinado no passo F106 também pode ser determinado através do controlador de sistema 10 com base na informação do mundo exterior.
Por exemplo, pode ser então arranjado que a luminosidade dos arredores é detectada como no procedimento da FIG. 14, e que quando é determinado que está escuro nos arredores, o controlador de sistema 10 determina que o acionador de início de exibição foi acionado, e conseqüentemente comuta do estado de passagem para o estado de exibição na qual a imagem é exibida.
Pode ser então arranjado que o clima seja detectado como no procedimento da FIG. 15, e que o controlador de sistema 10 determina se o acionador de início de exibição foi acionado de acordo com o clima detectado.
Pode ser então arranjado que a temperatura e umidade são detectadas como no procedimento da FIG. 16, e que o controlador de sistema determina que o acionador de início de exibição foi acionado quando uma condição pré-determinada é satisfeita.
Pode ser então arranjado que o acionamento do acionador de início de exibição é determinado com base no período de tempo, o mês e dia, o clima, ou o similar como no procedimento da FIG. 17.
Pode ser então arranjado que o acionamento do acionador de início de exibição é determinado quando a posição atual se tornou um lugar pré-determinado como no procedimento da FIG. 18. Isto torna possível ativar uma função de exibição em um lugar especificado ou com base no tipo da localidade.
No caso onde a informação obtida pela seção de análise de imagem 17 é detectada como nos procedimentos das FIGS. 19 to 21, e quando a seção de análise de imagem 17 analisa os dados de imagem fotografados, o acionamento do acionador de início de exibição pode ser determinado quando o objeto especificado é detectado, quando o movimento rápido é detectado, quando a pessoa especificada é detectada, ou quando variações de luminosidade são detectadas, por exemplo.
No caso onde o acionamento de um acionador para iniciar monitoração da exibição é determinado em tais maneiras como descrito acima e o controle no procedimento da FIG. 13 é forçado a prosseguir para o passo F103 quando é determinado que o acionador foi acionado, o usuário, que está usando o aparelho de exibição 1 cuja seção de exibição 2 está no estado de passagem, vai ver a operação de exibição iniciada de acordo com a situação sem a necessidade do usuário efetuar qualquer particular operação, e o usuário será capaz de ver uma imagem adequada para a situação.
A ocorrência do acionador de término de exibição também pode ser determinada em maneiras similares.
No caso onde a luminosidade dos arredores é detectada como no procedimento da FIG. 14, por exemplo, o acionamento do acionador de término de exibição pode ser determinado com base na luminosidade dos arredores.
Pode ser então arranjado que o clima é detectado como no procedimento da FIG. 15, e que o controlador de sistema 10 determina se o acionador de término de exibição foi acionado de acordo com o clima detectado.
Pode ser então arranjado que a temperatura e umidade sejam detectadas como no procedimento da FIG. 16, e que o controlador de sistema determine que o acionador de término de exibição foi acionado quando uma condição pré-determinada é satisfeita.
Pode ser então arranjado que o acionamento do acionador de término de exibição é determinado com base no período de tempo, o mês e dia, o clima, ou o similar como no procedimento da FIG. 17.
Pode ser então arranjado que o acionamento do acionador de término de exibição é determinado quando a posição atual se tornou um lugar pré-determinado como no procedimento da FIG. 18. Isto torna possível desativar a função de exibição em um lugar especificado ou com base no tipo de localidade.
No caso onde a informação obtida pela seção de análise de imagem 17 é detectada como nos procedimentos das FIGS. 19 à 21, e quando a seção de análise de imagem 17 analisa os dados de imagem fotografados, o acionamento do acionador de término de exibição pode ser determinado com base em um resultado da análise.
No caso onde o acionamento de um acionador para terminar a exibição do monitor é determinado em tais maneiras como descrito acima e o controle no procedimento da FIG. 13 é forçado a retornar para o passo FlOl quando é determinado que o acionador foi acionado, a seção de exibição 2 do aparelho de exibição 1 é capaz de automaticamente entrar no estado de passagem quando a necessidade sentida pelo usuário para a exibição do monitor foi reduzida ou eliminada, ou quando o usuário deseja proibir uma função de exibição do monitor, por exemplo.
6. Efeitos das modalidades, exemplo de variantes, e exemplos de expansões
Modalidades da presente invenção foram descritas acima. Nas modalidades descritas acima, a imagem é exibida em frente dos olhos do usuário através da seção de exibição 2 presa a unidade de vestir montada na cabeça ou na forma de óculos, e com base na informação do mundo exterior, tal como a luminosidade dos arredores conforme a situação do mundo exterior, o clima, uma condição do objeto, reconhecimento do objeto especificado nos dados de imagem, o movimento do objeto, o lugar, ou a data e hora, o controle da operação de exibição ou a seleção da fonte de exibição é efetuada, tal que uma operação precisa do mostrador adequada para a situação ou uma operação de entretenimento do mostrador é efetuada sem a necessidade para o usuário de efetuar qualquer operação. Assim sendo, o aparelho de exibição 1 é um aparelho conveniente para o usuário, e é capaz de fornecer uma variedade de cenas dentro de seu campo de visão. Mais ainda, a capacidade de transmissão da seção de exibição 2 pode ser controlada para forçar a seção de exibição 2 a entrar no estado de passagem transparente ou translúcido. Isto serve para prevenir uma interferência de ocorrer no dia a dia do usuário mesmo enquanto o usuário está usando o aparelho de exibição 1 através da unidade de vestir. Assim sendo, as vantagens do aparelho de exibição 1 de acordo com as modalidades descritas acima pode ser aproveitadas efetivamente no dia a dia do usuário.
Nas modalidades descritas acima, o controle considerando a operação de exibição, entre outras, foram descritas. Note, contudo, que a comutação entre liga, desliga, e estados de espera, controle dados de áudio qualidade do volume ou som do áudio emitido através da seção de saída de áudio 5, ou o similar podem ser efetuados com base na informação do mundo exterior. Por exemplo, é concebível que o controle de volume seja efetuado de acordo com a hora ou lugar, ou que o volume do som em volta seja detectado e o volume de uma saída de alto-falante seja controlado de acordo com o volume detectado do som em volta.
Note que a aparência e estrutura do aparelho de exibição 1 não são limitadas àquela ilustrada na FIGS. 1, 3, e 4, mas que várias variantes são possíveis.
O exemplo que a unidade de vestir montada na cabeça ou em
forma de óculos sendo incluída como a imagem de exibição 1 é descrita acima; contudo, o aparelho de exibição da presente invenção tem somente de ser configurado para exibir a imagem em frente ao olho(s) do usuário, e pode ser a unidade de vestir usada pelo usuário para usar o aparelho de exibição de qualquer tipo, tal como um tipo de fone de cabeça, um tipo de uso envolta do pescoço, um tipo de por trás do ouvido, ou o similar. Ainda, o aparelho de exibição pode ser preso a óculos comum, visor, fone de ouvido, ou o similar através de um dispositivo de fixação tal com um clipe tal que o aparelho de exibição será usado pelo usuário.

Claims (34)

1. Aparelho de exibição, caracterizado pelo fato de compreender: - meios de exibição a serem arranjados em frente a um olho de um usuário para exibir uma imagem; - meios de aquisição de informação do mundo exterior para adquirir informação do mundo exterior; e - meios de controle para controlar uma operação dos mencionados meios de exibição com base na informação adquirida pelos mencionados meios de aquisição de informação do mundo exterior.
2. Aparelho de exibição de acordo com a reivindicação 1, caracterizado pelo fato de ainda compreender - meios de formação de imagem para fotografar uma imagem.
3. Aparelho de exibição de acordo com a reivindicação 2, caracterizado pelo fato de que, com base na informação adquirida pelos mencionados meios de aquisição de informação do mundo exterior, os mencionados meios de controle controlam os dados da imagem fotografada através dos mencionados meios de formação de imagem a ser exibida nos mencionados meios de exibição.
4. Aparelho de exibição de acordo com a reivindicação 1, caracterizado pelo fato de ainda compreender - meios de reprodução para reproduzir dados a partir de um meio de armazenamento.
5. Aparelho de exibição de acordo com a reivindicação 4, caracterizado pelo fato de que, com base na informação adquirida pelos mencionados meios de aquisição de informação do mundo exterior, os mencionados meios de controle controla, os dados reproduzidos pelos mencionados meios de reprodução a serem exibidos nos mencionados meios de exibição.
6. Aparelho de exibição de acordo com a reivindicação 1, caracterizado pelo fato de ainda compreender - meios de recepção para se comunicar com um dispositivo externo para receber dados do dispositivo externo.
7. Aparelho de exibição de acordo com a reivindicação 6, caracterizado pelo fato de que, com base na informação adquirida pelos mencionados meios de aquisição de informação do mundo exterior, os mencionados meios de controle controlam os dados recebidos pelos meios de recepção a serem exibidos nos mencionados meios de exibição.
8. Aparelho de exibição de acordo com a reivindicação 1, caracterizado pelo fato de que os mencionados meios de exibição são capazes de comutar entre o estado de passagem transparente ou translúcido e um estado de exibição no qual os dados fornecidos são exibidos.
9. Aparelho de exibição de acordo com a reivindicação 1, caracterizado pelo fato de que os mencionados meios de aquisição de informação do mundo exterior é um sensor para detectar a situação de um ambiente circundante conforme a informação do mundo exterior.
10. Aparelho de exibição de acordo com a reivindicação 2, caracterizado pelo fato de que os mencionados meios de aquisição de informação do mundo exterior é um sensor para detectar informação considerando um objeto de formação de imagem dos mencionados meios de formação de imagem conforme a informação do mundo exterior.
11. Aparelho de exibição de acordo com a reivindicação 1, caracterizado pelo fato de que os mencionados meios de aquisição de informação do mundo exterior adquiram informação de posição atual conforme a informação do mundo exterior.
12. Aparelho de exibição de acordo com a reivindicação 1, caracterizado pelo fato de que os mencionados meios de aquisição de informação do mundo exterior adquiram a data e hora atual conforme a informação do mundo exterior.
13. Aparelho de exibição de acordo com a reivindicação 1, caracterizado pelo fato de que os mencionados meios de aquisição de informação do mundo exterior adquiram a informação do mundo exterior através da comunicação com um dispositivo externo.
14. Aparelho de exibição de acordo com a reivindicação 1, caracterizado pelo fato de que os mencionados meios de aquisição de informação do mundo exterior adquiram a informação do mundo exterior através da análise de imagem efetuada nos dados de imagem de entrada.
15. Aparelho de exibição de acordo com a reivindicação 1, caracterizado pelo fato de que a informação do mundo exterior adquirida pelos mencionados meios de aquisição de informação do mundo exterior é informação sobre a luminosidade, temperatura, umidade, pressão atmosférica, ou clima dos arredores.
16. Aparelho de exibição de acordo com a reivindicação 1, caracterizado pelo fato de que a informação do mundo exterior adquirida pelos mencionados meios de aquisição de informação do mundo exterior é informação sobre um lugar correspondendo à posição atual.
17. Aparelho de exibição de acordo com a reivindicação 1, caracterizado pelo fato de que a informação do mundo exterior adquirida pelos mencionados meios de aquisição de informação do mundo exterior é informação sobre uma estrutura ou objeto natural em uma área correspondendo à posição atual.
18. Aparelho de exibição de acordo com a reivindicação 1, caracterizado pelo fato de que a informação do mundo exterior adquirida pelos mencionados meios de aquisição de informação do mundo exterior é informação para identificar um objeto especificado incluída nos dados de imagem de entrada.
19. Aparelho de exibição de acordo com a reivindicação 1, caracterizado pelo fato de que a informação do mundo exterior adquirida pelos mencionados meios de aquisição de informação do mundo exterior é informação para identificar uma pessoa, um animal, uma estrutura, um objeto natural, ou um dispositivo como um objeto especificado incluído nos dados de imagem de entrada.
20. Aparelho de exibição de acordo com a reivindicação 1, caracterizado pelo fato de que a informação do mundo exterior adquirida pelos mencionados meios de aquisição de informação do mundo exterior é informação sobre um movimento de um objeto imagem incluído nos dados de imagem de entrada.
21. Aparelho de exibição de acordo com a reivindicação 1, caracterizado pelo fato de que a informação do mundo exterior adquirida pelos mencionados meios de aquisição de informação do mundo exterior é informação para identificar uma pessoa individual incluído nos dados de imagem de entrada.
22. Aparelho de exibição de acordo com a reivindicação 1, caracterizado pelo fato de que a informação do mundo exterior adquirida pelos mencionados meios de aquisição de informação do mundo exterior é informação para determinar se os dados de imagem de entrada incluem ou não uma imagem de escrita.
23. Aparelho de exibição de acordo com a reivindicação 1, caracterizado pelo fato de que a informação do mundo exterior adquirida pelos mencionados meios de aquisição de informação do mundo exterior é informação sobre a luminosidade ou nitidez dos dados de imagem de entrada.
24. Aparelho de exibição de acordo com a reivindicação 1, caracterizado pelo fato de que a informação do mundo exterior adquirida pelos mencionados meios de aquisição de informação do mundo exterior é informação sobre a luminosidade ou nitidez de uma parte de uma imagem dos dados de imagem de entrada.
25. Aparelho de exibição de acordo com a reivindicação 1, caracterizado pelo fato de que os mencionados meios de controle controlam o início / término da operação de exibição nos mencionados meios de exibição.
26. Aparelho de exibição de acordo com a reivindicação 1, caracterizado pelo fato de que - os mencionados meios de exibição são capazes de comutar entre um estado de passagem transparente ou translúcido e um estado de exibição no qual os dados fornecidos são exibidos, e - os mencionados meios de controle controlam os mencionados meios de exibição para comutar entre o estado de passagem e o estado de exibição.
27. Aparelho de exibição de acordo com a reivindicação 1, caracterizado pelo fato de que os mencionados meios de controle controlam a comutação de uma fonte da qual os dados a serem exibidos nos mencionados meios de exibição são fornecidos.
28. Aparelho de exibição de acordo com a reivindicação 1, caracterizado pelo fato de que os mencionados meios de controle controlam o aumento / redução da imagem exibida nos mencionados meios de exibição.
29. Aparelho de exibição de acordo com a reivindicação 1, caracterizado pelo fato de que os mencionados meios de controle controlam o realce de uma parte da tela exibido nos mencionados meios de exibição.
30. Aparelho de exibição de acordo com a reivindicação 1, caracterizado pelo fato de que os mencionados meios de controle controlam a exibição em tela dividida efetuada nos mencionados meios de exibição.
31. Aparelho de exibição de acordo com a reivindicação 1, caracterizado pelo fato de que os mencionados meios de controle controlam a luminosidade do mostrador nos mencionados meios de exibição.
32. Aparelho de exibição de acordo com a reivindicação 1, caracterizado pelo fato de que os mencionados meios de controle controlam o processamento de sinal efetuado em um sinal da imagem a ser exibida pelos mencionados meios de exibição.
33. Aparelho de exibição de acordo com a reivindicação 1, caracterizado pelo fato de ainda compreender: - meios de síntese de fala para efetuar síntese de fala com base em uma escrita incluída na imagem a ser fornecida aos mencionados meios de exibição; e - meios de saída de áudio para emitir áudio gerado pelos mencionados meios de síntese de fala.
34. Método de exibição usado em um aparelho de exibição incluindo meios de exibição a serem arranjado em frente a um olho of um usuário para exibir uma imagem, caracterizado pelo fato de compreender: - passo de informação do mundo exterior para adquirir informação do mundo exterior; e - passo de controle para exercitar controle relacionado à operação de exibição efetuada nos meios de exibição com base na informação adquirida no mencionado passo de aquisição de informação do mundo exterior.
BRPI0715227-2A 2006-09-27 2007-08-17 aparelho de exibiÇço, e, mÉtodo de exibiÇço usado no mesmo BRPI0715227A2 (pt)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2006261976A JP5119636B2 (ja) 2006-09-27 2006-09-27 表示装置、表示方法
JPP2006-261976 2006-09-27
PCT/JP2007/066001 WO2008038473A1 (fr) 2006-09-27 2007-08-17 Appareil et procédé d'affichage

Publications (1)

Publication Number Publication Date
BRPI0715227A2 true BRPI0715227A2 (pt) 2013-06-18

Family

ID=39229913

Family Applications (1)

Application Number Title Priority Date Filing Date
BRPI0715227-2A BRPI0715227A2 (pt) 2006-09-27 2007-08-17 aparelho de exibiÇço, e, mÉtodo de exibiÇço usado no mesmo

Country Status (9)

Country Link
US (3) US8982013B2 (pt)
EP (1) EP2071558B1 (pt)
JP (1) JP5119636B2 (pt)
KR (1) KR20090060421A (pt)
CN (1) CN101512632B (pt)
BR (1) BRPI0715227A2 (pt)
RU (1) RU2009111141A (pt)
TW (1) TWI384256B (pt)
WO (1) WO2008038473A1 (pt)

Families Citing this family (143)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5119636B2 (ja) * 2006-09-27 2013-01-16 ソニー株式会社 表示装置、表示方法
JP5017989B2 (ja) * 2006-09-27 2012-09-05 ソニー株式会社 撮像装置、撮像方法
JP2008096868A (ja) 2006-10-16 2008-04-24 Sony Corp 撮像表示装置、撮像表示方法
JP5228307B2 (ja) 2006-10-16 2013-07-03 ソニー株式会社 表示装置、表示方法
JP4458131B2 (ja) 2007-08-23 2010-04-28 ソニー株式会社 画像撮像装置、撮像方法
US8130204B2 (en) * 2007-09-27 2012-03-06 Visteon Global Technologies, Inc. Environment synchronized image manipulation
JP4458151B2 (ja) 2007-11-06 2010-04-28 ソニー株式会社 自動撮像装置、自動撮像制御方法、画像表示システム、画像表示方法、表示制御装置、表示制御方法
US8125163B2 (en) 2008-05-21 2012-02-28 Manufacturing Resources International, Inc. Backlight adjustment system
JP5056744B2 (ja) * 2008-12-23 2012-10-24 ブラザー工業株式会社 ヘッドマウントディスプレイ
JP2010164782A (ja) * 2009-01-15 2010-07-29 Brother Ind Ltd 画像表示装置
JP5201015B2 (ja) * 2009-03-09 2013-06-05 ブラザー工業株式会社 ヘッドマウントディスプレイ
JP5263092B2 (ja) * 2009-09-07 2013-08-14 ソニー株式会社 表示装置および制御方法
JP4585601B1 (ja) * 2009-09-14 2010-11-24 株式会社東芝 映像表示装置及び映像表示方法
JP5218354B2 (ja) * 2009-09-16 2013-06-26 ブラザー工業株式会社 ヘッドマウントディスプレイ
US8730219B2 (en) 2009-10-30 2014-05-20 Sharp Kabushiki Kaisha Display device
JP2011124898A (ja) * 2009-12-14 2011-06-23 Brother Industries Ltd ヘッドマウントディスプレイ
US20110193964A1 (en) * 2010-02-07 2011-08-11 Mcleod Gregory F Method and System for Wireless Monitoring
GB201002428D0 (en) * 2010-02-15 2010-03-31 Bamidele Michael O eBook reader device,eBook cartridges and eBook lens system
US8472120B2 (en) 2010-02-28 2013-06-25 Osterhout Group, Inc. See-through near-eye display glasses with a small scale image source
US9285589B2 (en) 2010-02-28 2016-03-15 Microsoft Technology Licensing, Llc AR glasses with event and sensor triggered control of AR eyepiece applications
US9366862B2 (en) 2010-02-28 2016-06-14 Microsoft Technology Licensing, Llc System and method for delivering content to a group of see-through near eye display eyepieces
US9182596B2 (en) 2010-02-28 2015-11-10 Microsoft Technology Licensing, Llc See-through near-eye display glasses with the optical assembly including absorptive polarizers or anti-reflective coatings to reduce stray light
US9134534B2 (en) 2010-02-28 2015-09-15 Microsoft Technology Licensing, Llc See-through near-eye display glasses including a modular image source
US9128281B2 (en) 2010-09-14 2015-09-08 Microsoft Technology Licensing, Llc Eyepiece with uniformly illuminated reflective display
US10180572B2 (en) 2010-02-28 2019-01-15 Microsoft Technology Licensing, Llc AR glasses with event and user action control of external applications
US20120249797A1 (en) 2010-02-28 2012-10-04 Osterhout Group, Inc. Head-worn adaptive display
US8488246B2 (en) 2010-02-28 2013-07-16 Osterhout Group, Inc. See-through near-eye display glasses including a curved polarizing film in the image source, a partially reflective, partially transmitting optical element and an optically flat film
US8477425B2 (en) 2010-02-28 2013-07-02 Osterhout Group, Inc. See-through near-eye display glasses including a partially reflective, partially transmitting optical element
US9129295B2 (en) 2010-02-28 2015-09-08 Microsoft Technology Licensing, Llc See-through near-eye display glasses with a fast response photochromic film system for quick transition from dark to clear
US9097891B2 (en) 2010-02-28 2015-08-04 Microsoft Technology Licensing, Llc See-through near-eye display glasses including an auto-brightness control for the display brightness based on the brightness in the environment
US20120206335A1 (en) * 2010-02-28 2012-08-16 Osterhout Group, Inc. Ar glasses with event, sensor, and user action based direct control of external devices with feedback
US9091851B2 (en) 2010-02-28 2015-07-28 Microsoft Technology Licensing, Llc Light control in head mounted displays
US9341843B2 (en) 2010-02-28 2016-05-17 Microsoft Technology Licensing, Llc See-through near-eye display glasses with a small scale image source
AU2011220382A1 (en) 2010-02-28 2012-10-18 Microsoft Corporation Local advertising content on an interactive head-mounted eyepiece
US20150309316A1 (en) 2011-04-06 2015-10-29 Microsoft Technology Licensing, Llc Ar glasses with predictive control of external device based on event input
US8482859B2 (en) 2010-02-28 2013-07-09 Osterhout Group, Inc. See-through near-eye display glasses wherein image light is transmitted to and reflected from an optically flat film
US9223134B2 (en) 2010-02-28 2015-12-29 Microsoft Technology Licensing, Llc Optical imperfections in a light transmissive illumination system for see-through near-eye display glasses
US9759917B2 (en) 2010-02-28 2017-09-12 Microsoft Technology Licensing, Llc AR glasses with event and sensor triggered AR eyepiece interface to external devices
US9097890B2 (en) 2010-02-28 2015-08-04 Microsoft Technology Licensing, Llc Grating in a light transmissive illumination system for see-through near-eye display glasses
US20120212499A1 (en) * 2010-02-28 2012-08-23 Osterhout Group, Inc. System and method for display content control during glasses movement
US8467133B2 (en) 2010-02-28 2013-06-18 Osterhout Group, Inc. See-through display with an optical assembly including a wedge-shaped illumination system
US9229227B2 (en) 2010-02-28 2016-01-05 Microsoft Technology Licensing, Llc See-through near-eye display glasses with a light transmissive wedge shaped illumination system
JP6016322B2 (ja) * 2010-03-19 2016-10-26 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム
JP2011205513A (ja) * 2010-03-26 2011-10-13 Aisin Seiki Co Ltd 車両周辺監視装置
JP5499854B2 (ja) 2010-04-08 2014-05-21 ソニー株式会社 頭部装着型ディスプレイにおける光学的位置調整方法
JP5494153B2 (ja) * 2010-04-08 2014-05-14 ソニー株式会社 頭部装着型ディスプレイにおける画像表示方法
US8908043B2 (en) * 2010-04-12 2014-12-09 Symbol Technologies, Inc. System and method for location-based operation of a head mounted display
JP5434848B2 (ja) 2010-08-18 2014-03-05 ソニー株式会社 表示装置
TWI423654B (zh) * 2010-09-16 2014-01-11 Acer Inc 控制立體眼鏡所接收之環境亮度的方法、立體眼鏡以及視訊顯示裝置
JP5258862B2 (ja) 2010-10-19 2013-08-07 キヤノン株式会社 画像形成装置
KR101843337B1 (ko) 2010-10-28 2018-03-30 삼성전자주식회사 디스플레이 모듈 및 디스플레이 시스템
JP5810540B2 (ja) * 2011-02-04 2015-11-11 セイコーエプソン株式会社 頭部装着型表示装置および頭部装着型表示装置の制御方法
JP4926301B1 (ja) * 2011-05-11 2012-05-09 パイオニア株式会社 画像描画装置、画像描画方法及び画像描画プログラム
US8670000B2 (en) * 2011-09-12 2014-03-11 Google Inc. Optical display system and method with virtual image contrast control
KR20190130079A (ko) 2011-09-23 2019-11-20 매뉴팩처링 리소시스 인터내셔널 인코포레이티드 디스플레이 특성들의 환경 적응을 위한 시스템 및 방법
US9881528B2 (en) 2011-10-13 2018-01-30 Manufacturing Resources International, Inc. Transparent liquid crystal display on display case
US8183997B1 (en) 2011-11-14 2012-05-22 Google Inc. Displaying sound indications on a wearable computing system
US9229231B2 (en) 2011-12-07 2016-01-05 Microsoft Technology Licensing, Llc Updating printed content with personalized virtual data
US9182815B2 (en) 2011-12-07 2015-11-10 Microsoft Technology Licensing, Llc Making static printed content dynamic with virtual data
US9183807B2 (en) 2011-12-07 2015-11-10 Microsoft Technology Licensing, Llc Displaying virtual data as printed content
US20130169513A1 (en) * 2012-01-04 2013-07-04 Google Inc. Wearable computing device
US9372343B2 (en) * 2012-01-12 2016-06-21 Htc Corporation Head-up display, vehicle and controlling method of head-up display
JP2013171074A (ja) * 2012-02-17 2013-09-02 Nec Corp 自動表示調整装置および自動表示調整方法
US9165381B2 (en) 2012-05-31 2015-10-20 Microsoft Technology Licensing, Llc Augmented books in a mixed reality environment
US9219901B2 (en) * 2012-06-19 2015-12-22 Qualcomm Incorporated Reactive user interface for head-mounted display
CN103517226A (zh) * 2012-06-29 2014-01-15 联想(北京)有限公司 信息处理方法、装置及电子设备
JP5935640B2 (ja) 2012-10-01 2016-06-15 ソニー株式会社 情報処理装置、表示制御方法及びプログラム
US20140098226A1 (en) * 2012-10-08 2014-04-10 Google Inc. Image capture component on active contact lens
WO2014061388A1 (ja) 2012-10-17 2014-04-24 ソニー株式会社 携帯端末
EP2924659A4 (en) 2012-11-22 2016-07-13 Sony Corp INFORMATION PROCESSING DEVICE, SYSTEM, INFORMATION PROCESSING AND PROGRAM
KR101370027B1 (ko) * 2012-11-29 2014-03-06 주식회사 매크론 안경형 디스플레이 디바이스용 마우스 장치 및 그 구동 방법
JP5954147B2 (ja) 2012-12-07 2016-07-20 ソニー株式会社 機能制御装置およびプログラム
US9411160B2 (en) * 2013-02-12 2016-08-09 Seiko Epson Corporation Head mounted display, control method for head mounted display, and image display system
CN104020843B (zh) * 2013-03-01 2017-07-25 联想(北京)有限公司 一种信息处理方法及一种电子设备
US20140253702A1 (en) 2013-03-10 2014-09-11 OrCam Technologies, Ltd. Apparatus and method for executing system commands based on captured image data
US9025016B2 (en) 2013-03-15 2015-05-05 Orcam Technologies Ltd. Systems and methods for audible facial recognition
CN104063038A (zh) * 2013-03-18 2014-09-24 联想(北京)有限公司 信息处理方法、装置及电子设备
CN104063039A (zh) * 2013-03-18 2014-09-24 朱慧灵 一种穿戴式计算机智能终端的人机交互方法
JP6361649B2 (ja) 2013-03-29 2018-07-25 ソニー株式会社 情報処理装置、通知状態制御方法及びプログラム
JP5786900B2 (ja) * 2013-06-13 2015-09-30 横河電機株式会社 情報表示装置及び情報表示方法
JP6268778B2 (ja) * 2013-07-11 2018-01-31 セイコーエプソン株式会社 頭部装着型表示装置および頭部装着型表示装置の制御方法
US9360672B2 (en) * 2013-07-11 2016-06-07 Seiko Epson Corporation Head mounted display device and control method for head mounted display device
JP6398157B2 (ja) * 2013-08-19 2018-10-03 セイコーエプソン株式会社 頭部装着型表示装置および頭部装着型表示装置の制御方法
KR102160650B1 (ko) 2013-08-26 2020-09-28 삼성전자주식회사 사용자의 의도를 자동으로 인지하여 정보를 제공하는 모바일 장치 및 그의 동작 방법
JP5786910B2 (ja) * 2013-08-29 2015-09-30 ソニー株式会社 頭部装着型ディスプレイにおける光学的位置調整方法
JP5751315B2 (ja) * 2013-11-20 2015-07-22 ソニー株式会社 頭部装着型ディスプレイにおける画像表示方法
FR3013852B1 (fr) * 2013-11-22 2017-05-19 Airbus Operations Sas Methode et dispositif d'affichage d'information a lisibilite amelioree
CN104683683A (zh) * 2013-11-29 2015-06-03 英业达科技有限公司 拍摄影像的系统及其方法
JP6331374B2 (ja) * 2013-12-17 2018-05-30 セイコーエプソン株式会社 頭部装着型表示装置
JP6264014B2 (ja) * 2013-12-17 2018-01-24 セイコーエプソン株式会社 頭部装着型表示装置
US10386637B2 (en) * 2014-01-15 2019-08-20 Maxell, Ltd. Information display terminal, information display system, and information display method
KR101591937B1 (ko) * 2014-02-11 2016-02-05 (주)그린광학 수술용 헤드 마운트 디스플레이
GB2523345B (en) * 2014-02-20 2018-01-17 Samsung Electronics Co Ltd Detecting user viewing difficulty from facial parameters
TWI503577B (zh) * 2014-03-20 2015-10-11 Syndiant Inc 頭戴式擴增實境顯示系統
WO2015152923A1 (en) * 2014-04-03 2015-10-08 Empire Technology Development Llc Color smear correction based on inertial measurements
US9851575B2 (en) 2014-05-15 2017-12-26 Omnivision Technologies, Inc. Wafer-level liquid-crystal-on-silicon projection assembly, systems and methods
TWI497149B (zh) * 2014-05-30 2015-08-21 Super Electronics Co Ltd 智慧型眼鏡
US9633366B2 (en) 2014-06-16 2017-04-25 Manufacturing Resources International, Inc. System for tracking and analyzing display case usage
US9500896B2 (en) 2014-06-16 2016-11-22 Manufacturing Resources International, Inc. Cooling system for liquid crystal display
US9535293B2 (en) 2014-06-16 2017-01-03 Manufacturing Resources International, Inc. Sealed transparent liquid crystal display assembly
JP2015007986A (ja) * 2014-07-25 2015-01-15 京セラ株式会社 電子機器、電子機器制御用プログラム、及び電子機器の制御方法
JP6500382B2 (ja) * 2014-10-03 2019-04-17 セイコーエプソン株式会社 頭部装着型表示装置およびその制御方法、並びにコンピュータープログラム
JP6634697B2 (ja) * 2015-05-13 2020-01-22 セイコーエプソン株式会社 頭部装着型表示装置
CN107076992A (zh) * 2014-10-03 2017-08-18 精工爱普生株式会社 适应于环境的头戴式显示装置
US10649273B2 (en) 2014-10-08 2020-05-12 Manufacturing Resources International, Inc. LED assembly for transparent liquid crystal display and static graphic
US9832847B2 (en) 2014-10-09 2017-11-28 Manufacturing Resources International, Inc. System for decreasing energy usage of a transparent LCD display case
US10182665B2 (en) 2014-10-15 2019-01-22 Manufacturing Resources International, Inc. System and method for preventing damage to products
CN104469158A (zh) * 2014-12-15 2015-03-25 安徽华米信息科技有限公司 一种运动拍摄、拍摄控制方法及装置
GB2533573A (en) * 2014-12-22 2016-06-29 Nokia Technologies Oy Image processing method and device
JP2016133541A (ja) * 2015-01-16 2016-07-25 株式会社ブリリアントサービス 電子眼鏡および電子眼鏡の制御方法
JP2016143310A (ja) * 2015-02-04 2016-08-08 ソニー株式会社 情報処理装置、画像処理方法及びプログラム
JP6828235B2 (ja) * 2015-12-07 2021-02-10 セイコーエプソン株式会社 頭部装着型表示装置、頭部装着型表示装置の表示を共有する方法、コンピュータープログラム
US9965029B2 (en) * 2015-03-30 2018-05-08 Sony Corporation Information processing apparatus, information processing method, and program
US10691314B1 (en) 2015-05-05 2020-06-23 State Farm Mutual Automobile Insurance Company Connecting users to entities based on recognized objects
US10321549B2 (en) * 2015-05-14 2019-06-11 Manufacturing Resources International, Inc. Display brightness control based on location data
WO2016183576A1 (en) * 2015-05-14 2016-11-17 Manufacturing Resources International, Inc. Display brightness control based on location data
US10593255B2 (en) 2015-05-14 2020-03-17 Manufacturing Resources International, Inc. Electronic display with environmental adaptation of display characteristics based on location
US10607520B2 (en) 2015-05-14 2020-03-31 Manufacturing Resources International, Inc. Method for environmental adaptation of display characteristics based on location
US9520002B1 (en) * 2015-06-24 2016-12-13 Microsoft Technology Licensing, Llc Virtual place-located anchor
JP2018525650A (ja) * 2015-08-17 2018-09-06 マニュファクチャリング・リソーシズ・インターナショナル・インコーポレーテッド 位置に基づくディスプレイ特性の環境適応を伴う電子ディスプレイ
KR102399724B1 (ko) 2015-09-24 2022-05-20 삼성전자주식회사 디스플레이 장치, 그를 가지는 도어 및 냉장고
US9927619B2 (en) 2015-11-06 2018-03-27 Omnivision Technologies, Inc. Pupillary adjustable head mounted device
JP2017136142A (ja) * 2016-02-02 2017-08-10 セイコーエプソン株式会社 情報端末、動作評価システム、動作評価方法、動作評価プログラム、及び記録媒体
CA3015367A1 (en) 2016-03-02 2017-09-08 Manufacturing Resources International, Inc. Vending machine having a transparent display
WO2017213165A1 (ja) * 2016-06-10 2017-12-14 コニカミノルタ株式会社 表示装置及び電子機器
WO2018009917A1 (en) 2016-07-08 2018-01-11 Manufacturing Resources International, Inc. Controlling display brightness based on image capture device data
KR20190026850A (ko) 2016-07-08 2019-03-13 매뉴팩처링 리소시스 인터내셔널 인코포레이티드 통합형 전자 디스플레이를 갖는 미러
US10261328B2 (en) 2016-09-02 2019-04-16 Microsoft Technology Licensing, Llc Enhanced illumination system
KR20180099182A (ko) * 2017-02-28 2018-09-05 엘지전자 주식회사 헤드 마운티드 디스플레이를 포함하는 시스템 및 그 제어 방법
US10264380B2 (en) * 2017-05-09 2019-04-16 Microsoft Technology Licensing, Llc Spatial audio for three-dimensional data sets
KR102344334B1 (ko) * 2017-06-27 2021-12-29 삼성전자주식회사 영상을 처리하기 위한 방법 및 디스플레이 장치
CN107329267B (zh) * 2017-07-06 2020-03-10 华为技术有限公司 近眼显示器及近眼显示系统
US10578658B2 (en) 2018-05-07 2020-03-03 Manufacturing Resources International, Inc. System and method for measuring power consumption of an electronic display assembly
US10782276B2 (en) 2018-06-14 2020-09-22 Manufacturing Resources International, Inc. System and method for detecting gas recirculation or airway occlusion
JP2019020738A (ja) * 2018-09-10 2019-02-07 セイコーエプソン株式会社 頭部装着型表示装置およびその制御方法、並びにコンピュータープログラム
CN109151446A (zh) * 2018-09-25 2019-01-04 联想(北京)有限公司 控制方法和电子设备
JP2022047548A (ja) * 2019-01-16 2022-03-25 ソニーグループ株式会社 画像処理装置、画像処理方法、及び、プログラム
US11526044B2 (en) 2020-03-27 2022-12-13 Manufacturing Resources International, Inc. Display unit with orientation based operation
KR20220006680A (ko) * 2020-07-08 2022-01-18 삼성디스플레이 주식회사 표시 장치 및 이를 이용한 표시 패널의 구동 방법
JP7285904B2 (ja) * 2020-08-26 2023-06-02 ソフトバンク株式会社 表示制御装置、プログラム、及びシステム
CN112904564B (zh) * 2021-02-25 2022-09-02 安徽领域无线网络技术有限公司 一种基于工业互联网的ar增强现实成像装置
US11740322B2 (en) * 2021-09-10 2023-08-29 Htc Corporation Head mounted display device and position device thereof
WO2023152852A1 (ja) * 2022-02-10 2023-08-17 マクセル株式会社 ヘッドマウントディスプレイ、ヘッドマウントディスプレイ連携システム及びヘッドマウントディスプレイ制御方法

Family Cites Families (126)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2213019B (en) * 1980-08-19 1989-10-25 Elliott Brothers London Ltd Head-up display systems
JP2861162B2 (ja) * 1989-12-19 1999-02-24 株式会社島津製作所 ヘルメットマウント形ディスプレイ用バイザー
US5294940A (en) * 1991-02-06 1994-03-15 Dale A. Wennagel Pulsed laser optical display device
US5227769A (en) * 1991-05-23 1993-07-13 Westinghouse Electric Corp. Heads-up projection display
JP2849504B2 (ja) * 1992-05-29 1999-01-20 シャープ株式会社 自動読書装置
US5386829A (en) * 1992-09-17 1995-02-07 Cedars-Sinai Medical Center Method for adjusting an image according to a priori probabilities
US5509048A (en) * 1993-07-26 1996-04-16 Meidan; Reuven Radio transceiver with interface apparatus which visually displays information and method therefor
JP4001643B2 (ja) * 1993-10-05 2007-10-31 スナップ−オン・テクノロジイズ・インク 両手解放型自動車整備装置
US7310072B2 (en) * 1993-10-22 2007-12-18 Kopin Corporation Portable communication display device
US5815126A (en) * 1993-10-22 1998-09-29 Kopin Corporation Monocular portable communication and display system
JPH085954A (ja) 1994-06-21 1996-01-12 Matsushita Electric Ind Co Ltd 眼鏡型画像表示装置
JP3478354B2 (ja) 1994-10-20 2003-12-15 ミノルタ株式会社 方位検出機構付hmd
US5978015A (en) 1994-10-13 1999-11-02 Minolta Co., Ltd. Stereoscopic system with convergence and dioptric power adjustments according to object distance
US6184969B1 (en) * 1994-10-25 2001-02-06 James L. Fergason Optical display system and method, active and passive dithering using birefringence, color image superpositioning and display enhancement
US5583795A (en) * 1995-03-17 1996-12-10 The United States Of America As Represented By The Secretary Of The Army Apparatus for measuring eye gaze and fixation duration, and method therefor
JPH08339172A (ja) * 1995-06-09 1996-12-24 Sony Corp 表示制御装置
US5905525A (en) 1995-07-13 1999-05-18 Minolta Co., Ltd. Image display apparatus having a display controlled by user's head movement
JP3701053B2 (ja) 1995-07-13 2005-09-28 コニカミノルタホールディングス株式会社 映像表示装置
JP3102313B2 (ja) 1995-09-19 2000-10-23 住友電装株式会社 車載用ナビゲーション装置
JP3744984B2 (ja) * 1995-10-04 2006-02-15 キヤノン株式会社 情報表示装置
JPH09159747A (ja) 1995-12-08 1997-06-20 Matsushita Electric Ind Co Ltd Gps機能内蔵ヘッドマウントディスプレイ装置
US5742263A (en) * 1995-12-18 1998-04-21 Telxon Corporation Head tracking system for a head mounted display system
JP3632271B2 (ja) 1995-12-28 2005-03-23 富士ゼロックス株式会社 メガネディスプレイ
US5966680A (en) 1996-02-15 1999-10-12 Butnaru; Hanan Motion sickness/vertigo prevention device and method
US6050717A (en) * 1996-05-15 2000-04-18 Sony Corporation Head-mounted image display having selective image suspension control and light adjustment
JP3338618B2 (ja) * 1996-10-07 2002-10-28 ミノルタ株式会社 実空間画像と仮想空間画像の表示方法及び表示装置
US6313851B1 (en) * 1997-08-27 2001-11-06 Microsoft Corporation User friendly remote system interface
JP3397101B2 (ja) * 1997-10-29 2003-04-14 株式会社日立製作所 欠陥検査方法および装置
EP1027627B1 (en) * 1997-10-30 2009-02-11 MYVU Corporation Eyeglass interface system
US6175343B1 (en) * 1998-02-24 2001-01-16 Anivision, Inc. Method and apparatus for operating the overlay of computer-generated effects onto a live image
EP1064783B1 (en) 1998-03-25 2003-06-04 W. Stephen G. Mann Wearable camera system with viewfinder means
US6064354A (en) * 1998-07-01 2000-05-16 Deluca; Michael Joseph Stereoscopic user interface method and apparatus
JP2000347596A (ja) 1998-08-31 2000-12-15 Semiconductor Energy Lab Co Ltd 携帯情報処理システム
US6095650A (en) * 1998-09-22 2000-08-01 Virtual Visual Devices, Llc Interactive eyewear selection system
US6456261B1 (en) * 1998-11-23 2002-09-24 Evan Y. W. Zhang Head/helmet mounted passive and active infrared imaging system with/without parallax
US6255650B1 (en) * 1998-12-11 2001-07-03 Flir Systems, Inc. Extreme temperature radiometry and imaging apparatus
JP2000284742A (ja) 1999-03-30 2000-10-13 Minolta Co Ltd 画像再生システム
US6538623B1 (en) * 1999-05-13 2003-03-25 Pirooz Parnian Multi-media data collection tool kit having an electronic multi-media “case” file and method of use
CA2316473A1 (en) 1999-07-28 2001-01-28 Steve Mann Covert headworn information display or data display or viewfinder
US6681043B1 (en) * 1999-08-16 2004-01-20 University Of Washington Interactive video object processing environment which visually distinguishes segmented video object
US6301050B1 (en) * 1999-10-13 2001-10-09 Optics Wireless Led, Inc. Image enhancement system for scaled viewing at night or under other vision impaired conditions
US6771294B1 (en) * 1999-12-29 2004-08-03 Petri Pulli User interface
TW536836B (en) * 2000-05-22 2003-06-11 Semiconductor Energy Lab Light emitting device and electrical appliance
JP2002072998A (ja) * 2000-08-25 2002-03-12 Internatl Business Mach Corp <Ibm> 輝度制御装置、輝度調節システム、コンピュータシステム、液晶ディスプレイ装置、輝度制御方法、コンピュータプログラム及び記憶媒体
ATE451633T1 (de) * 2000-10-07 2009-12-15 Metaio Gmbh Informationssystem
US7405884B2 (en) * 2000-12-21 2008-07-29 Olympus Corporation Optical apparatus
DE10103922A1 (de) * 2001-01-30 2002-08-01 Physoptics Opto Electronic Gmb Interaktives Datensicht- und Bediensystem
US20020130953A1 (en) * 2001-03-13 2002-09-19 John Riconda Enhanced display of environmental navigation features to vehicle operator
JP3848092B2 (ja) 2001-03-13 2006-11-22 キヤノン株式会社 画像処理装置及び方法、並びにプログラム
JP2002298294A (ja) * 2001-03-29 2002-10-11 Toshiba Corp Phs電話機を用いたナビゲーション方法及びそのシステム
US6538643B2 (en) * 2001-04-25 2003-03-25 Interlink Electronics, Inc. Remote control having a touch pad operable in a pad-to-screen mapping mode for highlighting preselected parts of a slide displayed on a display screen
US7190378B2 (en) * 2001-08-16 2007-03-13 Siemens Corporate Research, Inc. User interface for augmented and virtual reality systems
FR2830105B1 (fr) 2001-09-24 2004-03-26 Neoptec Tech Procede d'anonymation de documents, de controle, de lecture, de traitement des informations et de desanonymation par lecture par scanner
DE60204343T2 (de) 2001-10-19 2006-01-26 Symbol Technologies, Inc. Elektrooptische baugruppe zur bildprojektion, insbesondere in tragbaren instrumenten
JP3866109B2 (ja) 2002-01-16 2007-01-10 富士通テン株式会社 車載用撮像装置
JP3870109B2 (ja) * 2002-03-08 2007-01-17 インターナショナル・ビジネス・マシーンズ・コーポレーション 画像表示装置、画像表示方法、及び画像表示プログラム
MXPA05001079A (es) * 2002-07-26 2005-06-03 Oakley Inc Audifonos interactivos inalambricos.
US6753899B2 (en) * 2002-09-03 2004-06-22 Audisoft Method and apparatus for telepresence
US20040095311A1 (en) * 2002-11-19 2004-05-20 Motorola, Inc. Body-centric virtual interactive apparatus and method
FR2848304A1 (fr) * 2002-12-10 2004-06-11 Ingineo Nouveau systeme audiovisuel mobile de gestion d'information
US6947014B2 (en) * 2002-12-23 2005-09-20 Wooten Gary L Personalized, private eyewear-based display system
JP4366944B2 (ja) 2003-01-31 2009-11-18 株式会社ニコン ヘッドマウントディスプレイ
JP2004289340A (ja) 2003-03-20 2004-10-14 Ricoh Co Ltd 画像拡大処理装置
ATE447205T1 (de) 2003-05-12 2009-11-15 Elbit Systems Ltd Verfahren und system zur audiovisuellen kommunikation
US7580033B2 (en) * 2003-07-16 2009-08-25 Honeywood Technologies, Llc Spatial-based power savings
JP4344568B2 (ja) * 2003-09-05 2009-10-14 富士フイルム株式会社 ヘッドマウントディスプレイ及びそのコンテンツ再生方法
WO2005054925A1 (de) * 2003-12-01 2005-06-16 Andreas Durner Elektronische brille, insbesondere nachtsichtbrille
CN101770073B (zh) * 2003-12-03 2013-03-27 株式会社尼康 信息显示装置
JP4461792B2 (ja) * 2003-12-16 2010-05-12 株式会社ニコン 情報表示装置
JP2005164978A (ja) * 2003-12-03 2005-06-23 Nikon Corp ヘッドマウントディスプレイ
JP2005172851A (ja) * 2003-12-05 2005-06-30 Sony Corp 画像表示装置
JP2005172581A (ja) 2003-12-10 2005-06-30 Oki Electric Ind Co Ltd 半導体試験装置
JP2005223524A (ja) 2004-02-04 2005-08-18 Nissan Motor Co Ltd 車両周辺監視装置
JP4364002B2 (ja) * 2004-02-06 2009-11-11 オリンパス株式会社 頭部装着型カメラ及び頭部装着型カメラによる撮影方法
US7505056B2 (en) * 2004-04-02 2009-03-17 K-Nfb Reading Technology, Inc. Mode processing in portable reading machine
US20090040233A1 (en) * 2004-06-10 2009-02-12 Kakuya Yamamoto Wearable Type Information Presentation Device
JP4351599B2 (ja) * 2004-09-03 2009-10-28 パナソニック株式会社 入力装置
JP2006106254A (ja) * 2004-10-04 2006-04-20 Denso Corp 車両用ヘッドアップディスプレイ
US7787012B2 (en) * 2004-12-02 2010-08-31 Science Applications International Corporation System and method for video image registration in a heads up display
US7818672B2 (en) * 2004-12-30 2010-10-19 Microsoft Corporation Floating action buttons
CN1815437A (zh) * 2005-02-04 2006-08-09 乐金电子(中国)研究开发中心有限公司 一种外置头戴式手机显示装置及方法
US7809192B2 (en) * 2005-05-09 2010-10-05 Like.Com System and method for recognizing objects from images and identifying relevancy amongst images and information
US7400777B2 (en) * 2005-05-25 2008-07-15 Microsoft Corporation Preprocessing for information pattern analysis
WO2006128648A2 (de) * 2005-05-30 2006-12-07 Andreas Durner Elektronische tag- und nachtsichtbrille
RU2008110056A (ru) * 2005-08-15 2009-09-27 Конинклейке Филипс Электроникс Н.В. (Nl) Система, устройство и способ для очков расширенной реальности для программирования конечным пользователем
EP1923852A4 (en) * 2005-09-06 2010-06-30 Fujitsu Ten Ltd DISPLAY ARRANGEMENT AND DISPLAY METHOD
KR101152064B1 (ko) * 2005-11-02 2012-06-11 엘지디스플레이 주식회사 화상 구현 장치 및 그 구동방법
EP1952189B1 (en) * 2005-11-21 2016-06-01 Microvision, Inc. Display with image-guiding substrate
US7744216B1 (en) * 2006-01-06 2010-06-29 Lockheed Martin Corporation Display system intensity adjustment based on pupil dilation
JP4895352B2 (ja) * 2006-02-07 2012-03-14 任天堂株式会社 対象選択プログラム、対象選択装置、対象選択システム、および対象選択方法
JP2007219082A (ja) * 2006-02-15 2007-08-30 Canon Inc 複合現実感表示システム
US20080040233A1 (en) 2006-08-08 2008-02-14 Thomas Alfred Wildman Mobile order fulfillment
US8872753B2 (en) * 2006-08-31 2014-10-28 Ati Technologies Ulc Adjusting brightness of a display image in a display having an adjustable intensity light source
US7855743B2 (en) * 2006-09-08 2010-12-21 Sony Corporation Image capturing and displaying apparatus and image capturing and displaying method
JP5228305B2 (ja) * 2006-09-08 2013-07-03 ソニー株式会社 表示装置、表示方法
JP5119636B2 (ja) * 2006-09-27 2013-01-16 ソニー株式会社 表示装置、表示方法
JP5017989B2 (ja) 2006-09-27 2012-09-05 ソニー株式会社 撮像装置、撮像方法
JP2008096868A (ja) 2006-10-16 2008-04-24 Sony Corp 撮像表示装置、撮像表示方法
JP5228307B2 (ja) 2006-10-16 2013-07-03 ソニー株式会社 表示装置、表示方法
JP4961984B2 (ja) 2006-12-07 2012-06-27 ソニー株式会社 画像表示システム、表示装置、表示方法
US7484847B2 (en) * 2007-01-02 2009-02-03 Hind-Sight Industries, Inc. Eyeglasses having integrated telescoping video camera and video display
JP4853320B2 (ja) 2007-02-15 2012-01-11 ソニー株式会社 画像処理装置、画像処理方法
US9229230B2 (en) * 2007-02-28 2016-01-05 Science Applications International Corporation System and method for video image registration and/or providing supplemental data in a heads up display
US7605719B1 (en) * 2007-07-25 2009-10-20 Rockwell Collins, Inc. System and methods for displaying a partial images and non-overlapping, shared-screen partial images acquired from vision systems
US7777960B2 (en) * 2007-09-10 2010-08-17 Microvision, Inc. Wide field of view head-up display system
KR101465668B1 (ko) * 2008-06-24 2014-11-26 삼성전자주식회사 단말 및 그의 블로깅 방법
CN103119512A (zh) * 2008-11-02 2013-05-22 大卫·乔姆 近眼式显示系统和装置
US8301202B2 (en) * 2009-08-27 2012-10-30 Lg Electronics Inc. Mobile terminal and controlling method thereof
US8400548B2 (en) * 2010-01-05 2013-03-19 Apple Inc. Synchronized, interactive augmented reality displays for multifunction devices
US20110214082A1 (en) * 2010-02-28 2011-09-01 Osterhout Group, Inc. Projection triggering through an external marker in an augmented reality eyepiece
US8964298B2 (en) * 2010-02-28 2015-02-24 Microsoft Corporation Video display modification based on sensor input for a see-through near-to-eye display
US7982959B1 (en) * 2010-08-02 2011-07-19 Matvey Lvovskiy Head-up display
US20120050142A1 (en) * 2010-08-25 2012-03-01 Border John N Head-mounted display with eye state detection
TWI442093B (zh) * 2011-01-27 2014-06-21 Acer Inc 於快門眼鏡操作於二維影像觀看模式時調整快門眼鏡所接收之周遭環境亮度的方法、快門眼鏡以及調整快門眼鏡所接收之週遭環境亮度的電子裝置
US8203502B1 (en) * 2011-05-25 2012-06-19 Google Inc. Wearable heads-up display with integrated finger-tracking input sensor
US8194036B1 (en) * 2011-06-29 2012-06-05 Google Inc. Systems and methods for controlling a cursor on a display using a trackpad input device
US8199126B1 (en) * 2011-07-18 2012-06-12 Google Inc. Use of potential-touch detection to improve responsiveness of devices
US9087471B2 (en) * 2011-11-04 2015-07-21 Google Inc. Adaptive brightness control of head mounted display
JP2013178639A (ja) * 2012-02-28 2013-09-09 Seiko Epson Corp 頭部装着型表示装置および画像表示システム
TWI486630B (zh) * 2013-03-27 2015-06-01 聚晶半導體股份有限公司 適應性調整頭戴式顯示器的方法與頭戴式顯示器
KR101511587B1 (ko) * 2013-12-12 2015-04-14 현대오트론 주식회사 헤드업 디스플레이 정보 표시 장치 및 방법
US9696551B2 (en) * 2014-08-13 2017-07-04 Beijing Lenovo Software Ltd. Information processing method and electronic device
US20160048022A1 (en) * 2014-08-14 2016-02-18 Qualcomm Incorporated Management for wearable display
US9946361B2 (en) * 2014-08-14 2018-04-17 Qualcomm Incorporated Management for wearable display
JP2016057814A (ja) * 2014-09-09 2016-04-21 セイコーエプソン株式会社 頭部装着型表示装置、頭部装着型表示装置の制御方法、情報システム、および、コンピュータープログラム
US9880441B1 (en) * 2016-09-08 2018-01-30 Osterhout Group, Inc. Electrochromic systems for head-worn computer systems

Also Published As

Publication number Publication date
RU2009111141A (ru) 2010-10-10
EP2071558A1 (en) 2009-06-17
TW200829957A (en) 2008-07-16
CN101512632B (zh) 2012-11-07
US8982013B2 (en) 2015-03-17
US10481677B2 (en) 2019-11-19
EP2071558B1 (en) 2018-08-08
US20150145753A1 (en) 2015-05-28
WO2008038473A1 (fr) 2008-04-03
EP2071558A4 (en) 2011-06-22
TWI384256B (zh) 2013-02-01
JP2008083290A (ja) 2008-04-10
US20170186204A1 (en) 2017-06-29
CN101512632A (zh) 2009-08-19
JP5119636B2 (ja) 2013-01-16
US20090278766A1 (en) 2009-11-12
KR20090060421A (ko) 2009-06-12

Similar Documents

Publication Publication Date Title
BRPI0715227A2 (pt) aparelho de exibiÇço, e, mÉtodo de exibiÇço usado no mesmo
US9772686B2 (en) Imaging display apparatus and method
JP5017989B2 (ja) 撮像装置、撮像方法
CN103399403B (zh) 显示设备、显示方法
JP6137113B2 (ja) 表示装置、表示方法、プログラム
JP2008083289A (ja) 撮像表示装置、撮像表示方法
JP2013174898A (ja) 撮像表示装置、撮像表示方法
JP5664677B2 (ja) 撮像表示装置、撮像表示方法

Legal Events

Date Code Title Description
B11A Dismissal acc. art.33 of ipl - examination not requested within 36 months of filing
B11Y Definitive dismissal - extension of time limit for request of examination expired [chapter 11.1.1 patent gazette]