BR102023013506A2 - Aparelho de processamento de informações, método de processamento de informações e meio legível por computador - Google Patents

Aparelho de processamento de informações, método de processamento de informações e meio legível por computador Download PDF

Info

Publication number
BR102023013506A2
BR102023013506A2 BR102023013506-4A BR102023013506A BR102023013506A2 BR 102023013506 A2 BR102023013506 A2 BR 102023013506A2 BR 102023013506 A BR102023013506 A BR 102023013506A BR 102023013506 A2 BR102023013506 A2 BR 102023013506A2
Authority
BR
Brazil
Prior art keywords
display
image
item
area
control unit
Prior art date
Application number
BR102023013506-4A
Other languages
English (en)
Inventor
Tsubasa Imaizumi
Genya YOSHIZAWA
Original Assignee
Canon Kabushiki Kaisha
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Kabushiki Kaisha filed Critical Canon Kabushiki Kaisha
Publication of BR102023013506A2 publication Critical patent/BR102023013506A2/pt

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/181Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/239Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/2624Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects for obtaining an image which is composed of whole input images, e.g. splitscreen
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/268Signal distribution or switching
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/45Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from two or more image sensors being of different type or operating in different modes, e.g. with a CMOS sensor for moving images in combination with a charge-coupled device [CCD] for still images
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • General Engineering & Computer Science (AREA)
  • Studio Devices (AREA)
  • Cameras In General (AREA)
  • Stereoscopic And Panoramic Photography (AREA)
  • Indication In Cameras, And Counting Of Exposures (AREA)

Abstract

aparelho de processamento de informações, método de processamento de informações e meio legível por computador. um aparelho de processamento de informações controla uma exibição para exibir um primeiro item e um segundo item junto com uma imagem capturada, cada um dentre o primeiro item e o segundo item incluindo uma pluralidade de itens de definição. o aparelho de processamento de informações determina se a imagem capturada é uma imagem de lente dupla que inclui uma primeira área e uma segunda área tendo uma paralaxe em relação à primeira área. o aparelho de processamento de informações: 1) controla a exibição para exibir ambas a primeira área e a segunda área em uma primeira ampliação de exibição em um caso em que o primeiro item é selecionado; e 2) controla a exibição para exibir apenas uma dentre a primeira área e a segunda área em uma segunda ampliação de exibição mais alta do que a primeira ampliação de exibição em um caso em que o segundo item é selecionado.

Description

ANTECEDENTES DA INVENÇÃO Campo da Invenção
[001] A presente invenção está relacionada a uma técnica para exibição de uma imagem incluindo duas áreas tendo uma paralaxe entre elas.
Descrição da Técnica Relacionada
[002] Nos últimos anos, câmeras digitais tendo sistemas ópticos de duas lentes têm sido conhecidas. Quando dois sistemas ópticos são dispostos para capturar imagens na mesma direção, duas imagens tendo uma paralaxe entre elas são adquiridas.
[003] O Pedido de Patente Japonesa publicado N°. 2022-046260 divulga uma técnica para criar, a partir de tais duas imagens, uma imagem (uma imagem hemisférica) tendo uma faixa de 180 graus na frente de uma câmera digital ou uma imagem de visualização estereoscópica.
SUMÁRIO DA INVENÇÃO
[004] Quando a câmera digital tendo dois sistemas ópticos como descrito acima captura uma imagem, duas áreas de imagem adquiridas através dos dois sistemas ópticos são exibidas em uma imagem (tela). Neste caso, quando um certo processo de ajuste é desempenhado na imagem, se cada uma das áreas de imagem for exibida em um tamanho pequeno, um usuário pode achar difícil verificar os detalhes de uma porção específica da imagem. Por outro lado, quando outro processo é desempenhado na imagem, o usuário pode querer verificar a imagem inteira, incluindo duas áreas de imagem, em vez de verificar para detalhes de uma porção específica.
[005] Portanto, na presente invenção, um aparelho de processamento de informações exibe uma imagem incluindo duas áreas tendo uma paralaxe entre elas de modo que o usuário possa facilmente desempenhar o processamento desejado nela.
[006] Um aspecto da presente invenção é um aparelho de processamento de informações incluindo: uma unidade de aquisição configurada para adquirir uma imagem capturada; uma unidade de controle de exibição configurada para controlar uma exibição para exibir um primeiro item e um segundo item junto com a imagem capturada, cada um dentre o primeiro item e o segundo item incluindo uma pluralidade de itens de definição; uma unidade de determinação configurada para determinar se a imagem capturada é uma imagem de lente dupla que inclui uma primeira área adquirida por imageamento através de uma primeira lente de disparo e uma segunda área adquirida por imageamento através de uma segunda lente de disparo, a segunda área tendo uma paralaxe em relação a primeira área; e uma unidade de controle configurada para: 1) controlar a exibição para exibir ambas a primeira área e a segunda área da imagem capturada em uma primeira ampliação de exibição em um caso em que a imagem capturada é determinada para ser a imagem de lente dupla e qualquer um dos itens de definição do primeiro item é selecionado; e 2) controlar a exibição para exibir apenas uma dentre a primeira área e a segunda área da imagem capturada em uma segunda ampliação de exibição mais alta do que a primeira ampliação de exibição em um caso em que a imagem capturada é determinada para ser a imagem de lente dupla e qualquer um dos itens de definição do segundo item é selecionado.
[007] Um aspecto da presente invenção é um método de processamento de informações incluindo: adquirir uma imagem capturada; controlar uma exibição para exibir um primeiro item e um segundo item junto com a imagem capturada, cada um dentre o primeiro item e o segundo item incluindo uma pluralidade de itens de definição; determinar se a imagem capturada é uma imagem de lente dupla que inclui uma primeira área adquirida por imageamento através de uma primeira lente de disparo e uma segunda área adquirida por imageamento através de uma segunda lente de disparo, a segunda área tendo uma paralaxe em relação à primeira área; controlar a exibição para exibir ambas a primeira área e a segunda área da imagem capturada em uma primeira ampliação de exibição em um caso em que a imagem capturada é determinada para ser a imagem de lente dupla e qualquer um dos itens de definição do primeiro item é selecionado; e controlar a exibição para exibir apenas uma dentre a primeira área e a segunda área da imagem capturada em uma segunda ampliação de exibição mais alta do que a primeira ampliação de exibição em um caso em que a imagem capturada é determinada para ser a imagem de lente dupla e qualquer um dos itens de definição do segundo item é selecionado.
[008] Características adicionais da presente invenção tornar-se-ão evidentes a partir da seguinte descrição de modalidades exemplares com referência aos desenhos anexos.
BREVE DESCRIÇÃO DOS DESENHOS
[009] As FIGS. 1A e 1B ilustram vistas externas de uma câmera digital; a FIG. 2 ilustra um diagrama de blocos da câmera digital; a FIG. 3 é um diagrama esquemático ilustrando uma configuração de uma unidade de lente; a FIG. 4 é um diagrama ilustrando uma imagem LV exibida com uma ampliação de 1x; a FIG. 5 é um diagrama ilustrando uma imagem LV aumentada e exibida; a FIG. 6 é um diagrama ilustrando um menu exibido em uma imagem LV; a FIG. 7 é um diagrama ilustrando um menu exibido em uma imagem LV; a FIG. 8 é um diagrama ilustrando um exemplo de uma tela de alteração de definição; a FIG. 9 é um diagrama ilustrando um exemplo de uma tela de alteração de definição; a FIG. 10 é um fluxograma ilustrando o processamento em um modo de disparo; as FIGS. 11A e 11B são fluxogramas ilustrando o processamento de alteração de definição após um item de definição ser selecionado; e a FIG. 12 é um fluxograma ilustrando o processamento de alteração de definição após um item de definição ser selecionado.
DESCRIÇÃO DAS MODALIDADES
[010] Doravante, uma modalidade preferencial da presente invenção será descrita com referência aos desenhos. Na presente modalidade, um caso em que um aparelho de processamento de informações (aparelho eletrônico) é uma câmera digital 100 (aparelho de imageamento) será descrito como um exemplo. No entanto, a presente modalidade pode ser aplicada a qualquer aparelho de processamento de informações, desde que o aparelho de processamento de informações (por exemplo, um computador pessoal, um smartphone ou um servidor) seja capaz de executar pelo menos uma parte do processamento da câmera digital 100.
[011] A câmera digital 100 pode adquirir uma imagem (imagem de lente dupla) na qual uma imagem esquerda e uma imagem direita tendo uma paralaxe predeterminada entre elas na direção lateral são arranjadas lado a lado e exibem a imagem adquirida em uma unidade de exibição. Além disso, a câmera digital 100 pode aplicar processamento de imagem predeterminado a uma faixa alvo (faixa alvo de processamento) da imagem exibida na unidade de exibição. O processamento de imagem predeterminado é, por exemplo, processamento de aumento. A câmera digital 100 exibe, na unidade de exibição, uma imagem (imagem aumentada) obtida aumentando a faixa alvo de acordo com uma instrução de aumento. Na presente modalidade, a instrução de aumento é dada pressionando um botão de aumento 78 (um membro físico que pode ser pressionado). Alternativamente, a instrução de aumento pode ser dada desempenhando um pinçamento para dentro (pinch-in) em um painel sensível ao toque 70a, e a exibição de aumento pode ser cancelada desempenhando um pinçamento para fora (pinch-out) no painel sensível ao toque 70a. Observa-se que o processamento de imagem predeterminado não está limitado ao processamento de aumento. Por exemplo, o processamento de imagem predeterminado pode ser "processamento para detectar uma distribuição de luminância, uma distribuição de cromaticidade ou afins na faixa alvo e gerar um histograma ou um monitor de forma de onda" ou "processamento para aplicar processamento de filtro, tal como processamento de aprimoramento de contraste para a faixa alvo”.
[012] A câmera digital 100 exibe cum item (item de exibição) indicando a faixa alvo na imagem de lente dupla. O item é, por exemplo, um indicador em formato de quadro (marcador) indicando a faixa alvo ou uma imagem colorida semitransmissiva sobreposta à faixa alvo. A câmera digital 100 pode alterar uma posição de exibição de um item (isto é, a faixa alvo indicada pelo item) de acordo com uma operação de usuário. Quando a imagem de lente dupla é exibida, a câmera digital 100 exibe o item em uma posição que não se estende sobre ambas a imagem esquerda e a imagem direita. Isto é, a faixa alvo é determinada de forma a não incluir ambas a imagem esquerda e a imagem direita. Em outras palavras, a faixa alvo (a faixa indicado pelo item) é definida de forma a incluir apenas uma dentre a imagem esquerda e a imagem direita.
[013] Mesmo quando a câmera digital 100 recebe uma operação de usuário para alterar a posição de exibição do item (a posição da faixa alvo), a câmera digital 100 controla a exibição do item de modo que a faixa alvo indicada pelo item não se estenda sobre ambas a imagem esquerda e a imagem direita.
[014] As FIGS. 1A e 1B ilustram vistas externas da câmera digital 100 como um exemplo de um aparelho ao qual a presente invenção é aplicável. A FIG. 1A é uma vista em perspectiva frontal da câmera digital 100, e a FIG. 1B é uma vista em perspectiva traseira da câmera digital 100. Nas FIGS. 1A e 1B, uma unidade de exibição 28 é uma unidade de exibição (uma unidade de exibição fornecida na superfície traseira da câmera) que exibe imagens e vários tipos de informações. O painel sensível ao toque 70a é uma unidade de detecção de toque capaz de detectar uma operação de toque desempenhada na superfície de exibição (superfície de operação) da unidade de exibição 28. Uma unidade de exibição de visor externo 43 é uma unidade de exibição fornecida em uma superfície de topo da câmera e exibe vários valores de definição da câmera, incluindo uma velocidade de obturador e uma abertura.
[015] Um botão de obturador 61 é uma unidade de operação para dar uma instrução de disparo. Um comutador de alteração de modo 60 é uma unidade de operação para comutar vários modos. As coberturas de terminal 40 são coberturas que protegem conectores (não ilustrados) para cabos de conexão (cabos usados para conectar dispositivos externos com a câmera digital 100) ou afins. Um seletor eletrônico principal 71 é um membro de operação rotativo incluído em uma unidade de operação 70. Um usuário pode alterar os valores de definição, tais como uma velocidade de obturador e uma abertura, rotacionando o seletor eletrônico principal 71. Um comutador de potência 72 é um membro de operação para comutar a potência da câmera digital 100 para LIGADA ou DESLIGADA.
[016] Um seletor subeletrônico 73 é um membro de operação rotativo incluído na unidade de operação 70. Por exemplo, o usuário pode mover um quadro de seleção e rolar imagens manipulando o seletor subeletrônico 73. Uma tecla em cruz 74 incluída na unidade de operação 70 é uma tecla em cruz (uma tecla de quatro direções) capaz de ser pressionada individualmente nas porções para cima, para baixo, para a esquerda e para a direita dela. A operação correspondente a uma porção pressionada da tecla em cruz 74 pode ser desempenhada. Um botão DEFINIR 75 é um botão de pressão incluído na unidade de operação 70 e é usado principalmente para determinar um item selecionado. Um botão de imagem em movimento 76 é usado para receber instruções para iniciar e parar a captura (gravação) de imagem em movimento.
[017] O botão de aumento 78 está incluído na unidade de operação 70 e serve como um botão de operação para comutar um modo de aumento para LIGADO ou DESLIGADO durante uma exibição de visualização ao vivo em um modo de disparo. Quando o modo de aumento foi ativado, uma imagem LV pode ser aumentada ou reduzida manipulando o seletor eletrônico principal 71. Em um modo de reprodução, o botão de aumento 78 funciona como um botão de aumento para alargar uma imagem de reprodução e elevar a ampliação da exibição. Um botão de reprodução 79 está incluído na unidade de operação 70 e serve como um botão de operação para comutar entre o modo de disparo e o modo de reprodução. Ao pressionar o botão de reprodução 79 durante o modo de disparo, o modo é mudado para o modo de reprodução e a imagem mais recente entre as imagens gravadas em um meio de gravação 200 pode ser exibida na unidade de exibição 28.
[018] Um botão de menu 81 está incluído na unidade de operação 70 e, quando o botão de menu 81 é pressionado, vários menus definíveis (telas de menu) são exibidos na unidade de exibição 28. O usuário pode desempenhar intuitivamente várias definições usando a tecla de cruz 74 e o botão DEFINIR 75 enquanto consulta o menu exibido na unidade de exibição 28.
[019] Um multicontrolador 82 pode ser inclinado em qualquer direção de 360 graus para dar instruções chave correspondentes a oito direções, tais como as direções para cima, para baixo, para a esquerda e para a direita. O multicontrolador 82 também pode ser pressionado para ativar uma função atribuída. Um botão de comutação de modo de exibição 83 é um membro de operação para comutar entre uma pluralidade de modos de exibição diferentes relacionados a informações sobre uma imagem de visualização ao vivo, exibição de informações de disparo e afins exibidos na unidade de exibição 28 ou um EVF 29. Cada vez que o botão de comutação de modo de exibição 83 é pressionado, o modo de exibição é comutado. Assim, o usuário pode reconhecer visualmente as informações sobre a imagem que está sendo capturada ou a imagem que está sendo reproduzida no modo de exibição desejado. Um terminal de comunicação 10 é um terminal de comunicação através do qual a câmera digital 100 se comunica com a unidade de lente (anexável de forma removível).
[020] Uma unidade ocular 16 é uma porção ocular de um visor ocular (visor de olhar através). O usuário pode reconhecer visualmente uma imagem exibida no EVF 29 fornecido internamente através da unidade ocular 16. Uma unidade de detecção de proximidade do olho 57 é um sensor de detecção de proximidade do olho que detecta se o olho do usuário está na proximidade da unidade ocular 16. Um tampo 202 é um tampo de uma fenda para acomodar o meio de gravação 200. Uma porção de agarre 90 é uma porção de segurar tendo um formato que é fácil para o usuário segurando a câmera digital 100 agarrar com a mão direita. O botão de obturador 61 e o seletor eletrônico principal 71 estão dispostos em posições operáveis com o dedo indicador direito do usuário em um estado em que o usuário segura a câmera digital 100 agarrando a porção de agarre 90 com o dedo mindinho, dedo anelar e dedo médio direito dele ou dela. O seletor subeletrônico 73 está disposto em uma posição operável com o polegar direito no mesmo estado.
[021] A FIG. 2 é um diagrama de blocos ilustrando um exemplo de configuração da câmera digital 100 de acordo com a presente modalidade. Na FIG. 2, uma unidade de lente 150 é uma unidade de lente intercambiável na qual uma lente de disparo é montada. Embora uma lente 103 seja geralmente composta por uma pluralidade de lentes, apenas uma única lente é ilustrada na FIG. 2 para simplificar. Um terminal de comunicação 6 é um terminal de comunicação através do qual a unidade de lente 150 se comunica com a câmera digital 100. O terminal de comunicação 10 é um terminal de comunicação através do qual a câmera digital 100 se comunica com a unidade de lente 150. A unidade de lente 150 se comunica com uma unidade de controle de sistema 50 por meio dos terminais de comunicação 6 e 10. A unidade de lente 150 usa um circuito de controle de sistema de lente 4 fornecido nela para controlar um diafragma 1 por meio de um circuito de acionamento de diafragma 2 e ajusta o foco mudando a posição da lente 103 por meio de um circuito de acionamento de AF 3. Além disso, a câmera digital 100 identifica o tipo de unidade de lente 150 anexada à câmera digital 100 por meio dos terminais de comunicação 6 e 10.
[022] Um obturador 101 é um obturador de plano focal que pode controlar livremente o tempo de exposição de uma unidade de imageamento 22 sob o controle da unidade de controle de sistema 50.
[023] A unidade de imageamento 22 é um elemento de imageamento incluindo um CCD, um sensor CMOS e afins para converter uma imagem óptica em um sinal elétrico. A unidade de imageamento 22 pode incluir um sensor de diferença de fase de plano de imageamento que emite informações de quantidade de desfocagem para a unidade de controle de sistema 50. Um conversor A/D 23 converte um sinal analógico em um sinal digital. O conversor A/D 23 é usado para converter uma saída de sinal analógico da unidade de imageamento 22 em um sinal digital.
[024] Uma unidade de processamento de imagem 24 desempenha interpolação de pixel predeterminada, processamento de redimensionamento (tal como redução) e processamento de conversão de cor em dados (dados a partir do conversor A/D 23 ou dados a partir de uma unidade de controle de memória 15). Além disso, a unidade de processamento de imagem 24 desempenha processamento de cálculo predeterminado usando dados de imagem capturada. A unidade de controle de sistema 50 desempenha controle de exposição e controle de faixa com base no resultado do cálculo obtido pela unidade de processamento de imagem 24. Com base nesses controles, o processamento de AF através da lente (TTL), o processamento de exposição automática (AE) e o processamento de flasheletrônico (EF) (emissão de flash preliminar) são desempenhados. A unidade de processamento de imagem 24 desempenha adicionalmente processamento de cálculo predeterminado usando dados de imagem capturada e desempenha processamento de balanço de branco automático TTL (AWB) com base no resultado do cálculo obtido.
[025] A saída de dados do conversor A/D 23 é inscrita diretamente em uma memória 32 por meio da unidade de processamento de imagem 24 e da unidade de controle de memória 15 ou por meio da unidade de controle de memória 15. A memória 32 armazena os dados de imagem obtidos pela unidade de imageamento 22 e convertidos em dados digitais pelo conversor A/D 23 e dados de imagem a serem exibidos na unidade de exibição 28 ou EVF 29. A memória 32 tem uma capacidade de armazenamento suficiente para armazenar um número predeterminado de imagens fixas e uma duração predeterminada de imagens em movimento e dados de áudio. A memória 32 também serve como memória (memória de vídeo) para exibição de imagens.
[026] Um conversor D/A 19 converte dados de exibição de imagem armazenados na memória 32 em um sinal analógico e fornece o sinal analógico para a unidade de exibição 28 ou EVF 29. Assim, os dados de exibição de imagem inscritos na memória 32 são exibidos na unidade de exibição 28 ou no EVF 29 por meio do conversor D/A 19. A unidade de exibição 28 ou o EVF 29 desempenha a exibição correspondente ao sinal analógico do conversor D/A 19 em um dispositivo de exibição, tal como um display LCD ou EL. A exibição de visualização ao vivo (exibição LV) pode ser desempenhada convertendo sinais digitais (sinais que foram convertidos em A/D uma vez pelo conversor A/D 23 e armazenados na memória 32) em sinais analógicos pelo conversor D/A 19 e transferir sequencialmente os sinais analógicos para a unidade de exibição 28 ou o EVF 29 para serem exibidos. Doravante, a imagem exibida pela exibição LV é referida como uma imagem de visualização ao vivo (imagem LV).
[027] Vários valores de definição da câmera, incluindo uma velocidade de obturador e uma abertura, são exibidos na unidade de exibição do visor externo 43 por meio de um circuito de acionamento da unidade de exibição do visor externo 44.
[028] Uma memória não volátil 56 é uma memória eletricamente apagável e gravável, e uma EEPROM é usada como a memória não volátil 56, por exemplo. A memória não volátil 56 armazena constantes de operação da unidade de controle de sistema 50, programas, etc. Os programas se referem a programas para executar o processamento de vários fluxogramas, que serão descritos abaixo na presente modalidade.
[029] A unidade de controle de sistema 50 é uma unidade de controle incluindo pelo menos um processador ou circuito e controla toda a câmera digital 100. A unidade de controle de sistema 50 implementa vários processos de acordo com a presente modalidade, que serão descritos abaixo, executando os programas descritos acima armazenados na memória não volátil 56. Por exemplo, uma RAM é usada como uma memória de sistema 52 e as constantes de operação da unidade de controle de sistema 50, variáveis, os programas lidos a partir da memória não volátil 56, etc. são expandidos na memória de sistema 52. A unidade de controle de sistema 50 também desempenha uma operação de controle de exibição controlando a memória 32, o conversor D/A 19, a unidade de exibição 28, etc.
[030] Um temporizador de sistema 53 é uma unidade de relógio que mede o tempo usado para várias operações de controle e o tempo de um relógio embutido.
[031] A unidade de operação 70 é uma unidade de operação para inserir várias instruções de operação na unidade de controle de sistema 50. O comutador de alteração de modo 60 é um membro de operação incluído na unidade de operação 70 e comuta o modo de operação da unidade de controle de sistema 50 para qualquer um dentre um modo de disparo de imagem estática, um modo de disparo de imagem em movimento, um modo de reprodução, etc. O modo de disparo de imagem estática inclui um modo de disparo automático, um modo de determinação de cena automática, um modo manual, um modo de prioridade de abertura (modo Av), um modo de prioridade de velocidade de obturador (modo Tv) e um modo de programa AE (modo P). O modo de disparo de imagens estáticas também inclui vários modos de cena, que têm definições de disparo específicas para as respectivas cenas de disparo, um modo personalizado, etc. O usuário pode comutar diretamente o modo para qualquer um desses modos usando o comutador de alteração de modo 60. Alternativamente, primeiro, o usuário pode comutar a tela para uma tela de lista de modo de disparo usando o comutador de alteração de modo 60 e, então, selecionar qualquer um dentre uma pluralidade de modos exibidos na tela de lista e comutar o modo para o modo selecionado usando outro membro de operação. De maneira semelhante, o modo de disparo de imagem em movimento pode incluir uma pluralidade de modos.
[032] Um primeiro comutador de obturador 62 ativa quando o botão de obturador 61 da câmera digital 100 é operado até a metade, isto é, o botão de obturador 61 é pressionado até a metade (instrução de preparação de disparo) e gera um primeiro sinal de comutador de obturador SW1. Em resposta à geração do primeiro sinal de comutador de obturador SW1, as operações de preparação de disparo (processamento AF, processamento AE, processamento AWB, processamento EF, etc.) são iniciadas.
[033] Um segundo comutador de obturador 64 ativa quando a operação do botão de obturador 61 é concluída, isto é, o botão de obturador 61 é totalmente pressionado (instrução de disparo) e gera um segundo sinal de comutador de obturador SW2. Em resposta à geração do segundo sinal de comutador de obturador SW2, a unidade de controle de sistema 50 inicia uma série de operações de processamento de disparo (processamento desde a leitura de um sinal a partir da unidade de imageamento 22 até a inscrição de uma imagem capturada no meio de gravação 200 como um arquivo de imagem).
[034] A unidade de operação 70 serve como vários membros de operação (unidades de recepção) como unidades de entrada para receber operações a partir do usuário. A unidade de operação 70 inclui pelo menos os seguintes membros de operação: o botão de obturador 61; o seletor eletrônico principal 71; o comutador de potência 72; o seletor subeletrônico 73; a tecla em cruz 74; o botão DEFINIR 75; o botão de imagem em movimento 76; um botão de bloqueio AF 77; o botão de aumento 78; o botão de reprodução 79; o botão de menu 81; e o multicontrolador 82.
[035] Uma unidade de controle de suprimento de potência 80 inclui um circuito de detecção de bateria, um conversor de corrente contínua para corrente contínua (CC-CC), um circuito de comutação (circuito para comutar blocos a serem energizados), etc. A unidade de controle de suprimento de potência 80 detecta a presença ou ausência de bateria anexada, o tipo de bateria e um nível de bateria restante. Além disso, a unidade de controle de suprimento de potência 80 controla o conversor CC-CC com base nos resultados de detecção obtidos e instruções da unidade de controle de sistema 50 e supre uma voltagem necessária para cada unidade, incluindo o meio de gravação 200 por um período necessário. Uma unidade de suprimento de potência 30 inclui uma bateria primária (tal como uma bateria alcalina ou uma bateria de lítio), uma bateria secundária (tal como uma bateria NiCd, uma bateria NiMH, uma bateria Li ou afins), um adaptador CA e afins.
[036] Um meio de gravação I/F 18 é uma interface com o meio de gravação 200, tal como um cartão de memória e um disco rígido. O meio de gravação 200 é um meio de gravação, tal como um cartão de memória para gravar imagens capturadas. O meio de gravação 200 inclui uma memória semicondutora, um disco magnético ou afins.
[037] Uma unidade de comunicação 54 é conectada a um dispositivo externo sem fio ou por meio de um cabo com fio e transmite e recebe sinais de vídeo e sinais de áudio. A unidade de comunicação 54 também pode ser conectada a uma rede local sem fio (LAN) ou à Internet. A unidade de comunicação 54 também é capaz de se comunicar com um dispositivo externo usando Bluetooth (marca registrada) ou Bluetooth de Baixa Energia. A unidade de comunicação 54 pode transmitir imagens (incluindo imagens LV) capturadas pela unidade de imageamento 22 e imagens gravadas no meio de gravação 200. Adicionalmente, a unidade de comunicação 54 pode receber imagens e outros vários tipos de informações a partir de um dispositivo externo.
[038] Uma unidade de detecção de orientação 55 detecta a orientação da câmera digital 100 em relação à direção de gravidade. Com base na orientação detectada pela unidade de detecção de orientação 55, é possível determinar se a imagem capturada pela unidade de imageamento 22 é uma imagem capturada com a câmera digital 100 mantida horizontalmente ou verticalmente. A unidade de controle de sistema 50 pode adicionar informações de orientação correspondente à orientação detectada pela unidade de detecção de orientação 55 a um arquivo de imagem da imagem capturada pela unidade de imageamento 22 ou rotacionar a imagem e gravar a imagem rotacionada. Um sensor de aceleração, um sensor de giroscópio ou afins pode ser usado como a unidade de detecção de orientação 55. O movimento da câmera digital 100 (tal como panorâmica, inclinação, elevação e estacionária) usando o sensor de aceleração ou o sensor de giroscópio servindo como a unidade de detecção de orientação 55.
[039] A unidade de detecção de proximidade do olho 57 é um sensor de detecção de proximidade do olho que detecta (desempenha a detecção de proximidade) uma aproximação (proximidade do olho) e retirada (separação do olho) de um olho (objeto) para e a partir da unidade ocular 16 do visor. A unidade de controle de sistema 50 comuta entre exibição (um estado de exibição) e não exibição (um estado de não exibição) da unidade de exibição 28 e do EVF 29 com base em um estado detectado pela unidade de detecção de proximidade do olho 57. Mais especificamente, quando a câmera digital 100 está pelo menos em um estado de espera de disparo e a comutação de destino de exibição é definida para comutação automática, enquanto a aproximação do olho não é detectada, a unidade de exibição 28 é definida como um destino de exibição e sua exibição está ativada e a exibição do EVF 29 está desativada. Considerando que, enquanto a aproximação do olho é detectada, o EVF 29 é definido como um destino de exibição e sua exibição é ativada e a exibição da unidade de exibição 28 é desativada.
[040] A unidade de detecção de proximidade do olho 57 inclui, por exemplo, um sensor de proximidade infravermelho. A unidade de detecção de proximidade do olho 57 pode detectar uma aproximação de qualquer objeto para a unidade ocular 16 do visor, incluindo o EVF 29 embutido. Quando um objeto se aproxima, a luz infravermelha emitida por uma unidade emissora de luz (não ilustrada) da unidade de detecção de proximidade do olho 57 é refletida pelo objeto e recebida por uma unidade receptora de luz (não ilustrada) do sensor de proximidade infravermelho. Com base na quantidade de luz infravermelha recebida, o quão próximo o objeto está da unidade ocular 16 (distância de proximidade do olho) também pode ser determinado. Desta forma, a unidade de detecção de proximidade do olho 57 desempenha a detecção ocular para detectar a distância de proximidade do objeto em relação à unidade ocular 16.
[041] Quando um objeto mudando de um estado de não proximidade do olho (estado de não aproximação) e se aproximando para estar a uma distância predeterminada ou inferior à unidade ocular 16 é detectado, a unidade de detecção de proximidade do olho 57 determina que o objeto está em um estado de proximidade do olho. Quando o objeto detectado para estar no estado de proximidade do olho muda do estado de proximidade do olho (estado de aproximação) e se afasta por uma distância predeterminada ou mais da unidade ocular 16, a unidade de detecção de proximidade do olho 57 determina que o objeto está em um estado de separação do olho. O limiar para detectar a proximidade do olho e o limiar para detectar a separação do olho podem ser diferentes um do outro por terem histerese, por exemplo. Após a detecção da proximidade do olho, presume-se que o estado de proximidade do olho continue até que a separação do olho seja detectada. Após a separação de olhos ter sido detectada, presume-se que o estado de não proximidade do olho continue até que a proximidade do olho seja detectada. Observa-se que o uso do sensor de proximidade infravermelho é meramente um exemplo, e outros sensores capazes de detectar a aproximação de um olho ou um objeto que pode ser considerado como a proximidade do olho podem ser usados como a unidade de detecção de proximidade do olho 57.
[042] O painel sensível ao toque 70a e a unidade de exibição 28 podem ser configurados integralmente. Por exemplo, o painel sensível ao toque 70a é montado em uma camada superior da superfície de exibição da unidade de exibição 28 e configurado de modo que a transmitância óptica dele não interfira com a exibição na unidade de exibição 28. As coordenadas de entrada do painel sensível ao toque 70a são associadas às coordenadas de exibição na superfície de exibição da unidade de exibição 28. Isso pode fornecer uma interface gráfica de usuário (GUI) que habilita o usuário desempenhar operações como se o usuário operasse diretamente a tela exibida na unidade de exibição 28.
[043] A unidade de controle de sistema 50 pode detectar as seguintes operações ou estados do painel sensível ao toque 70a. • Um dedo ou uma caneta que não toca no painel sensível ao toque 70a toca novamente no painel sensível ao toque 70a. Isto é, é iniciado um toque (doravante referido como “toque para baixo”). • Um estado no qual um dedo ou uma caneta está tocando o painel sensível ao toque 70a (doravante referido como "toque ligado"). • Um dedo ou uma caneta tocando o painel sensível ao toque 70a se move (doravante referido como "toque de movimento"). • Um dedo ou uma caneta tocando o painel sensível ao toque 70a é liberado. Isto é, um toque é encerrado (doravante denominado “toque para cima”). • Um estado no qual o painel sensível ao toque 70a não é tocado por nada (doravante referido como "toque desligado").
[044] Quando um toque para baixo é detectado, um toque ligado é detectado simultaneamente. Após um toque para baixo, um toque ligado normalmente continua a ser detectado, a menos que um toque para cima seja detectado. Um toque de movimento é detectado enquanto um toque ligado está sendo detectado. Mesmo quando um toque ligado é detectado, um toque de movimento não é detectado se a posição do toque não for movida. Após serem detectados toques para cima de todos os dedos ou canetas tocando o painel sensível ao toque 70a, um toque desligado é detectado.
[045] Essas operações e estados e as coordenadas de posição de um dedo ou uma caneta tocando o painel sensível ao toque 70a são notificados à unidade de controle de sistema 50 por meio de um barramento interno, e a unidade de controle de sistema 50 determina as operações (operações de toque) que foram desempenhadas no painel sensível ao toque 70a com base nas informações de notificação. Em relação a um toque de movimento, uma direção de movimento de um dedo ou uma caneta se movendo no painel sensível ao toque 70a também pode ser determinada para cada componente vertical e componente horizontal no painel sensível ao toque 70a com base em uma alteração nas coordenadas de posição.
[046] Quando um toque de movimento para uma distância predeterminada ou mais é detectado, a unidade de controle de sistema 50 determina que uma operação de deslizamento foi desempenhada. Uma operação de mover rapidamente um dedo tocando o painel sensível ao toque por uma certa distância e soltar o dedo do painel sensível ao toque é chamada de movimento rápido. Em outras palavras, um movimento rápido é uma operação de mover rapidamente um dedo sobre o painel sensível ao toque 70a como se estivesse fazendo movimento rápido com o painel sensível ao toque 70a. Quando um toque de movimento é detectado por uma distância predeterminada ou mais a uma velocidade predeterminada ou mais alta e um toque para cima é detectado imediatamente a seguir, a unidade de controle de sistema 50 determina que um movimento rápido foi desempenhado (pode ser determinado que um movimento rápido foi desempenhado após uma operação de deslizamento).
[047] Além disso, uma operação de toque de tocar uma pluralidade de posições (por exemplo, dois pontos) juntas (desempenhando um toque múltiplo) e aproximando as posições tocadas próximas umas das outras será chamada de pinçamento para dentro. Uma operação de toque de separar as posições tocadas umas das outras será chamada de pinçamento para fora. O pinçamento para fora e o pinçamento para dentro são referidos coletivamente como uma operação de pinçamento (ou simplesmente um pinçamento). O painel sensível ao toque 70a pode ser um painel sensível ao toque usando qualquer um dos vários métodos, incluindo um método resistivo, método capacitivo, método de onda elástica de superfície, método de infravermelho, método de indução eletromagnética, método de reconhecimento de imagem e método de sensor óptico. Alguns métodos detectam um toque com base em um contato com o painel sensível ao toque e alguns métodos detectam um toque com base na aproximação de um dedo ou uma caneta ao painel sensível ao toque e qualquer método pode ser usado.
[048] A FIG. 3 é um diagrama esquemático ilustrando um exemplo de uma configuração de uma unidade de lente 300. A FIG. 3 ilustra um estado no qual a unidade de lente 300 está anexada à câmera digital 100. Na câmera digital 100 ilustrada na FIG. 3, os mesmos componentes daqueles descritos com referência à FIG. 2 são denotados pelos mesmos números de referência e a descrição deles será omitida conforme apropriado.
[049] A unidade de lente 300 é um tipo de lente intercambiável anexável de forma removível à câmera digital 100. A unidade de lente 300 é uma unidade de lente dupla capaz de obter uma imagem óptica na qual uma imagem esquerda e uma imagem direita têm uma paralaxe. A unidade de lente 300 inclui dois sistemas ópticos (lentes de disparo), cada um dos quais tem um amplo ângulo de visualização de 180 graus e pode capturar uma imagem tendo uma faixa de um hemisfério frontal. Especificamente, os dois sistemas ópticos da unidade de lente 300 podem, cada um, inserir uma imagem óptica de um tema tendo um campo de visualização (ângulo de visualização) de 180 graus na direção lateral (ângulo horizontal, ângulo de azimute ou ângulo de guinada) e 180 graus na direção vertical (ângulo vertical, ângulo de elevação e depressão ou ângulo de arfagem).
[050] A unidade de lente 300 inclui um sistema óptico de olho direito 301R (um sistema óptico incluindo uma pluralidade de lentes, espelhos de reflexão, etc.), um sistema óptico de olho esquerdo 301L (um sistema óptico incluindo uma pluralidade de lentes, espelhos de reflexão, etc.) e um circuito de controle de sistema de lentes 303. O sistema óptico do olho direito 301R corresponde a um exemplo de um primeiro sistema óptico e o sistema óptico do olho esquerdo 301L corresponde a um exemplo de um segundo sistema óptico. O sistema óptico do olho direito 301R e o sistema óptico do olho esquerdo 301L incluem uma lente 302R e uma lente 302L, respectivamente, que estão dispostas no lado do tema. A lente 302R e a lente 302L são orientadas na mesma direção e têm eixos ópticos paralelos entre si. Cada um dos sistemas ópticos é uma lente olho de peixe e forma uma imagem óptica circular na unidade de imageamento 22 (sensor). A entrada de imagem óptica (imagem esquerda) através do sistema óptico de olho esquerdo 301L e a entrada de imagem óptica (imagem direita) através do sistema óptico de olho direito 301R são formadas em uma superfície de imageamento da única unidade de imageamento 22. Assim, a unidade de imageamento 22 adquire uma imagem que inclui ambas as imagens ópticas do olho esquerdo e do olho direito.
[051] A unidade de lente 300 de acordo com a presente modalidade é uma lente de VR 180 (unidade de lente dupla) para obter uma imagem de VR180 (um formato de imagem de VR para visualização estereoscópica de lente dupla). Cada sistema óptico de olho direito 301R e sistema óptico de olho esquerdo 301L da lente de VR180 inclui uma lente olho de peixe capaz de capturar uma imagem tendo uma faixa de 180 graus. Como lentes de VR180, lentes as quais, cada uma, são capazes de capturar um ângulo de visualização amplo de aproximadamente 160 graus, que é mais restrito do que a faixa de 180 graus, também podem ser usadas, desde que cada um dentre o sistema óptico do olho direito 301R e o sistema óptico do olho esquerdo 301L da lente VR180 possa capturar uma imagem que pode ser usada para uma exibição de VR de lente dupla como VR180. A lente de VR180 pode formar uma imagem direita (primeira imagem) formada através do sistema óptico do olho direito 301R e uma imagem esquerda (segunda imagem) formada através do sistema óptico do olho esquerdo 301L, a imagem esquerda tendo uma paralaxe em relação à imagem direita, em um ou dois elementos de imageamento da câmera anexada. Na câmera digital 100 de acordo com a presente modalidade, uma imagem direita e uma imagem esquerda são formadas em um único elemento de imageamento (sensor) e uma única imagem (uma imagem de lente dupla) na qual uma imagem correspondente à imagem direita (uma área de imagem da imagem direita) e uma imagem correspondente à imagem esquerda (uma área de imagem da imagem esquerda) são arranjadas lado a lado é gerada. Essa imagem de lente dupla inclui a área da imagem da imagem direita, a área da imagem da imagem esquerda e uma área (porção preta) na qual nenhuma imagem óptica é formada.
[052] A unidade de lente 300 é anexada à câmera digital 100 por meio de uma unidade de montagem de lente 304 e uma unidade de montagem de câmera 305 da câmera digital 100. Assim, a unidade de controle de sistema 50 da câmera digital 100 e o circuito de controle de sistema de lentes 303 da unidade de lente 300 são conectados eletricamente entre si por meio do terminal de comunicação 10 da câmera digital 100 e um terminal de comunicação 306 da unidade de lente 300.
[053] Na presente modalidade, uma imagem direita formada através do sistema óptico do olho direito 301R e uma imagem esquerda formada através do sistema óptico do olho esquerdo 301L tendo uma paralaxe em relação à imagem direita são formadas lado a lado na unidade de imageamento 22 da câmera digital 100. Em outras palavras, duas imagens ópticas formadas pelo sistema óptico do olho direito 301R e pelo sistema óptico do olho esquerdo 301L são formadas em um único elemento de imageamento. A unidade de imageamento 22 converte a imagem tema formada (sinal óptico) em um sinal elétrico analógico para obter dados de imagem de uma imagem de lente dupla. Ao usar a unidade de lente 300, duas imagens tendo uma paralaxe entre elas podem ser obtidas simultaneamente (como um conjunto) de duas posições (sistemas ópticos), isto é, o sistema óptico do olho direito 301R e o sistema óptico do olho esquerdo 301L. Além disso, ao exibir separadamente em VR as imagens obtidas como uma imagem do olho esquerdo e uma imagem do olho direito, o usuário pode visualizar uma imagem de VR estereoscópica (VR180) tendo uma faixa de 180 graus.
[054] Com uma unidade de lente única comum convencional, uma imagem incidente na lente é invertida simetricamente em torno de um ponto do centro de eixo óptico e inserida no sensor. Um aparelho de imageamento, tal como a câmera digital 100, gera uma imagem que não causa uma sensação de estranheza (isto é, uma imagem não invertida) lendo o sensor, desempenhando processamento de inversão na imagem lida ou afins. Com a unidade de lente dupla, a imagem é simetricamente invertida verticalmente, mas não lateralmente, e inserida no sensor, e a imagem adquirida através do sistema óptico do olho esquerdo é inserida no sensor no lado esquerdo e a imagem adquirida através do sistema óptico do olho direito é inserido no sensor no lado direito. Portanto, quando o processamento de inversão convencional é desempenhado em tal imagem, a esquerda e a direita da imagem invertida tornam-se inversas à esquerda e à direita em relação à câmera digital 100, isto é, a imagem adquirida através do sistema óptico do olho esquerdo é exibida no lado direito e a imagem adquirida pelo sistema óptico do olho direito é exibida no lado esquerdo.
[055] Uma imagem de VR se refere a uma imagem que pode ser exibida em VR, que será descrita abaixo. Exemplos da imagem de VR incluem uma imagem omnidirecional (imagem esférica) capturada por uma câmera omnidirecional (câmera esférica) e uma imagem panorâmica tendo uma faixa de vídeo (faixa de vídeo efetiva) mais ampla do que uma faixa de exibição que pode ser exibida na unidade de exibição em um tempo. A imagem de VR não se limita a uma imagem estática e pode incluir também uma imagem em movimento e uma imagem ao vivo (uma imagem obtida a partir de uma câmera quase em tempo real). A imagem de VR tem uma faixa de vídeo (faixa de vídeo efetiva) correspondente a um campo de visualização de até 360 graus na direção lateral e 360 graus na direção vertical. Mesmo que a faixa do vídeo seja inferior a 360 graus na direção lateral e inferior a 360 graus na direção vertical, a imagem de VR também inclui uma imagem tendo um ângulo de visualização mais amplo do que um ângulo de visualização que pode ser capturado por uma câmera comum ou uma imagem tendo uma faixa de vídeo mais ampla do que uma faixa de exibição que pode ser exibida na unidade de exibição de cada vez. Uma imagem capturada pela câmera digital 100 usando a unidade de lente 300 descrita acima é um tipo de imagem de VR. A imagem de VR pode ser exibida em VR, por exemplo, definindo o modo de exibição de um dispositivo de exibição (um dispositivo de exibição capaz de exibir uma imagem de VR) para uma “visualização de VR”. Ao ter uma imagem de VR tendo um ângulo de visualização de 360 graus exibido em VR e alterar a orientação do dispositivo de exibição na direção lateral (direção de rotação horizontal), o usuário pode visualizar uma imagem omnidirecional ininterrupta na direção lateral.
[056] Uma exibição de VR (visualização de VR) se refere a um método de exibição (modo de exibição) capaz de alterar a faixa de exibição da imagem de VR de modo a exibir a imagem tendo um campo de visualização correspondente à orientação do dispositivo de exibição. A exibição de VR inclui uma "exibição de VR de lente única (visualização de VR de lente única)"na qual uma única imagem é exibida transformando (transformando enquanto desempenha a correção de distorção) uma imagem de VR para desempenhar o mapeamento em uma esfera virtual. A exibição de VR também inclui uma "exibição de VR de lente dupla (visualização de VR de lente dupla)” na qual uma imagem de VR para um olho esquerdo e uma imagem de VR para um olho direito são exibidas em uma área esquerda e uma área direita, respectivamente, lado a lado, transformando individualmente as imagens de VR para desempenhar o mapeamento nas respectivas esferas virtuais. Uma visualização estereoscópica pode ser obtida desempenhando a "exibição de VR de lente dupla" usando a imagem de VR do olho esquerdo e a imagem de VR do olho direito tendo uma paralaxe entre elas.
[057] Em qualquer exibição de VR, por exemplo, quando o usuário usa um dispositivo de exibição, tal como um display montado na cabeça (HMD), é exibida uma imagem tendo um campo de visualização correspondente à orientação do rosto do usuário. Por exemplo, supondo que uma imagem, de uma imagem de VR, tendo um campo de visualização centrado em 0 graus na direção lateral (um azimute específico, por exemplo, o norte) e 90 graus na direção vertical (90 graus a partir do zênite, isto é, horizontal) está sendo exibido em um certo ponto no tempo, quando a orientação do dispositivo de exibição é invertida a partir desse estado (por exemplo, a superfície de exibição é virada a partir da orientação voltada para o sul para a orientação voltada para o norte), a faixa de exibição é alterada para uma imagem, da mesma imagem de VR, tendo um campo de visualização centrado em 180 graus na direção lateral (um azimute oposto, por exemplo, o sul) e 90 graus na direção vertical. Isto é, quando o usuário vestindo o HMD vira o rosto do norte para o sul (isto é, vira para trás), a imagem exibida no HMD também é alterada a partir da imagem do norte para a imagem do sul.
[058] A imagem de VR capturada usando a unidade de lente 300 de acordo com a presente modalidade é uma imagem de VR180 tendo uma faixa de 180 graus na frente. Portanto, esta imagem de VR não inclui uma imagem tendo uma faixa de 180 graus atrás. Em um estado em que tal imagem de VR180 está sendo exibida, quando a orientação do dispositivo de exibição é alterada para o lado onde não existe imagem, uma área em branco é exibida.
[059] Ao desempenhar a exibição de VR da imagem de VR, o usuário se sente visualmente como se ele ou ela estivesse na imagem de VR (no interior do espaço de VR). O método para exibir a imagem de VR não está limitado ao método no qual a orientação do dispositivo de exibição é alterada. Por exemplo, a faixa de exibição pode ser movida (rolada) em resposta a uma operação de usuário por meio de um painel sensível ao toque, um botão de direção ou afins. Adicionalmente, durante uma exibição de VR (durante o modo de exibição “visualização de VR”), a faixa de exibição pode ser alterada em resposta a uma operação específica (um toque de movimento desempenhado no painel sensível ao toque, uma operação de arrastar desempenhada com um mouse ou afins, pressionando o botão de direção, etc.) além de uma alteração da faixa de exibição por uma alteração na orientação. Observa-se que um smartphone anexado a óculos de VR (um adaptador montado na cabeça) é um tipo de HMD.
[060] Na câmera digital 100, uma imagem de lente dupla capturada através da unidade de lente 300 inclui uma área de imagem de uma imagem direita inserida na unidade de imageamento 22 através do sistema óptico do olho direito e uma área de imagem de uma imagem esquerda inserida na unidade de imageamento 22 através do sistema óptico do olho esquerdo. O usuário que usa a câmera digital 100 pode aumentar e exibir uma parte de uma imagem (uma imagem de visualização ao vivo ou uma imagem gravada) a fim de verificar os detalhes da parte. Quando uma imagem é aumentada por uma câmera digital comum, a posição central de aumento pode ser definida consistentemente na posição central de toda a imagem.
[061] Por outro lado, a fim de verificar os detalhes de uma porção da imagem de lente dupla, é desejável que apenas uma parte da área de imagem da imagem direita ou apenas uma parte da área de imagem da imagem esquerda seja exibida. No entanto, quando a imagem é aumentada, se a posição central de aumento for consistentemente definida no centro (porção central) de toda a imagem, tanto a área de imagem direita quanto a área de imagem esquerda serão incluídas na imagem aumentada. Como resultado, o usuário acharia difícil identificar intuitivamente qual parte da imagem original é exibida como a imagem aumentada. Especificamente, na imagem aumentada, uma porção de extremidade esquerda da área de imagem original da imagem direita é exibida no lado direito e uma porção de extremidade direita da área de imagem original da imagem esquerda é exibida no lado esquerdo. Assim, a imagem aumentada tendo uma relação posicional lateral diferente da relação posicional real do tema é exibida.
[062] Tendo isso em vista, doravante, será descrita a câmera digital 100 que desempenha processamento de aumento de visualização ao vivo adequado para um caso em que a captura de imagem é desempenhada com uma unidade de lente dupla, tal como a unidade de lente 300. Imagem de Visualização ao Vivo
[063] A exibição de imagens de visualização ao vivo (imagens LV) na unidade de exibição 28 será descrita com referência às FIGS. 4 a 9. Essas imagens LV são adquiridas por captura de imagem desempenhada pela câmera digital 100 à qual uma unidade de lente dupla está anexada.
[064] A FIG. 4 ilustra um exemplo de exibição de uma imagem LV (imagem capturada) exibida em uma ampliação de exibição de 1x (isto é, um ângulo padrão de visualização; não aumentado). A unidade de exibição 28 exibe uma imagem LV incluindo uma área de imagem 401 capturada através do sistema óptico do olho direito 301R e uma área de imagem 402 capturada através do sistema óptico do olho esquerdo 301L.
[065] A FIG. 5 ilustra um exemplo de exibição de uma imagem LV obtida após um botão de comutação de modo de exibição 83 da câmera digital 100 à qual uma unidade de lente dupla está anexada é pressionado. A unidade de exibição 28 exibe uma imagem aumentada de uma parte da área de imagem 402 (área de imagem no lado direito na FIG. 4) da imagem LV. Isto é, a FIG. 5 ilustra uma imagem obtida aumentando a imagem LV por uma ampliação de exibição mais alta do que uma ampliação de 1x ilustrada na FIG. 4. Na FIG. 5, uma vez que apenas uma das duas áreas da imagem é exibida, a imagem é exibida em uma ampliação de exibição mais alta do que duas vezes a ampliação de 1x. Isto é, o tema é exibido de forma que o comprimento vertical e o comprimento horizontal do tema sejam mais que o dobro dos respectivos comprimentos no caso em que o tema é exibido com uma ampliação de 1x.
[066] A FIG. 6 ilustra um exemplo de exibição de um menu exibido na unidade de exibição 28. Este menu é exibido depois que o botão de menu 81 é pressionado enquanto a unidade de lente dupla está anexada à câmera digital 100 e a imagem LV no ângulo padrão de visualização (ângulo de visualização de referência) conforme ilustrado na FIG. 4 é exibido na unidade de exibição 28. O menu inclui um primeiro grupo de itens 431, um segundo grupo de itens 432 e um terceiro grupo de itens 433. Cada um dentre o primeiro grupo de itens 431, o segundo grupo de itens 432 e o terceiro grupo de itens 433 inclui uma pluralidade de itens de definição.
[067] O primeiro grupo de itens 431 inclui, por exemplo, itens de definição de uma função auxiliar (função auxiliar para o ângulo de visualização) para indicar uma posição específica em uma imagem capturada (ângulo de visualização). Os itens de definição da função auxiliar incluem um item de definição para determinar um tamanho (tamanho de marcador de usuário) de um marcador (item de exibição; quadro) especificado pelo usuário, um item de definição para determinar uma posição (posição de marcador de usuário) do marcador especificado pelo usuário e afins. O primeiro grupo de itens 431 pode incluir, por exemplo, um item de definição para alterar o brilho da superfície de exibição da unidade de exibição 28. Isso ocorre porque o usuário pode definir o brilho da superfície de exibição da unidade de exibição 28 de forma mais apropriada enquanto visualiza toda a imagem LV. O primeiro grupo de itens 431 pode incluir, por exemplo, um item de definição para exibição de espelho invertido na tela. Conforme descrito acima, o primeiro grupo de itens 431 inclui vários itens de definição que permitem ao usuário desempenhar facilmente a definição apropriada visualizando toda a imagem LV.
[068] O segundo grupo de itens 432 inclui itens de definição relacionados a uma definição de processamento de imagem na captura de imagem. Especificamente, o segundo grupo de itens 432 inclui itens de definição para determinar um método de processamento de imagem (método para ajustar cor, nitidez e knee) desempenhado em uma imagem capturada a ser gravada. O segundo grupo de itens 432 inclui, por exemplo, vários outros itens de definição que permitem ao usuário desempenhar facilmente a definição apropriada visualizando uma imagem LV aumentada.
[069] O terceiro grupo de itens 433 inclui itens de definição relacionados à definição (método de exibição) da unidade de exibição 28 (por exemplo, itens de definição de definição de contraste ou definição de cor para a superfície de exibição da unidade de exibição 28). O terceiro grupo de itens 433 inclui adicionalmente, por exemplo, um item de definição que pode ser mais fácil de definir quando a imagem LV é aumentada e um item de definição que pode ser mais fácil de definir quando a imagem LV não é aumentada, dependendo da situação.
[070] A FIG. 7 ilustra um exemplo de exibição de um menu exibido na unidade de exibição 28. Este menu é exibido quando a imagem LV aumentada conforme ilustrado na FIG. 5 é exibida na unidade de exibição 28 e o botão de menu 81 da câmera digital 100 à qual a unidade de lente dupla está anexada é pressionado. De maneira semelhante ao menu ilustrado na FIG. 6, o menu ilustrado na FIG. 7 também inclui o primeiro grupo de itens 431, o segundo grupo de itens 432 e o terceiro grupo de itens 433.
[071] A FIG. 8 é um exemplo de uma tela de alteração de definição exibida na unidade de exibição 28 quando o item de definição do segundo grupo de itens 432 é selecionado. Na tela de alteração de definição ilustrada na FIG. 8, o tamanho (tamanho vertical e horizontal) do marcador de usuário (quadro retangular) a ser sobreposto na imagem LV (superfície de exibição da unidade de exibição 28) pode ser definido.
[072] A FIG. 9 é um exemplo de uma tela de alteração de definição exibida na unidade de exibição 28 quando o item de definição do primeiro grupo de itens 431 é selecionado. Na tela de alteração de definição ilustrada na FIG. 9, pode ser definido um grau de ênfase (nível de nitidez) no processamento de imagem para enfatizar o contorno da imagem LV. Processamento no Modo de Disparo
[073] Um exemplo de processamento no modo de disparo da câmera digital 100 será descrito com referência a um fluxograma na FIG. 10. O processamento do fluxograma na FIG. 10 inicia quando a potência da câmera digital 100 é ativada e a câmera digital 100 está em um estado de espera de disparo.
[074] Na etapa S1001, a unidade de controle de sistema 50 exibe uma imagem de visualização ao vivo (imagem LV) na unidade de exibição 28 com uma ampliação de 1x (de modo que toda a imagem LV seja exibida em toda a superfície de exibição da unidade de exibição 28) (vide FIG. 4).
[075] Na etapa S1002, a unidade de controle de sistema 50 determina se o botão de comutação do modo de exibição 83 foi pressionado (uma operação de aumento foi desempenhada) em um estado em que a imagem LV é exibida na unidade de exibição 28. Se a unidade de controle de sistema 50 determinar que o botão de comutação do modo de exibição 83 foi pressionado, o processamento prossegue para a etapa S1003. Se a unidade de controle de sistema 50 determinar que o botão de comutação do modo de exibição 83 não foi pressionado, o processamento prossegue para a etapa S1004.
[076] Na etapa S1003, conforme ilustrado na FIG. 5, a unidade de controle de sistema 50 move a imagem LV aumentada em uma ampliação de exibição predeterminada (uma ampliação de exibição mais alta do que uma ampliação de 1x) de modo que uma posição predeterminada na imagem LV seja posicionada no centro da superfície de exibição da unidade de exibição 28 e, então, exibe a imagem LV movida na unidade de exibição 28. A ampliação de exibição predeterminada e a posição predeterminada são definidas antecipadamente de modo que apenas uma área de imagem da imagem direita e a área de imagem da imagem esquerda da imagem LV sejam exibidas na unidade de exibição 28. Portanto, a ampliação de exibição predeterminada é uma ampliação de exibição mais alta do que duas vezes a ampliação de 1x.
[077] Na etapa S1004, a unidade de controle de sistema 50 exibe o menu (o primeiro grupo de itens, o segundo grupo de itens e o terceiro grupo de itens) na unidade de exibição 28, o menu sendo sobreposto na imagem LV.
[078] Na etapa S1005, a unidade de controle de sistema 50 se comunica com a unidade de lente (unidade de lente anexada) anexada à câmera digital 100 por meio dos terminais de comunicação 6 e 10 para determinar se a unidade de lente é uma unidade de lente dupla. Se a unidade de controle de sistema 50 determinar que a unidade de lente anexada é uma unidade de lente dupla, o processamento prossegue para a etapa S1006. Se a unidade de controle de sistema 50 determinar que a unidade de lente anexada não é uma unidade de lente dupla, o processamento prossegue para a etapa S1009.
[079] Alternativamente, na etapa S1005, a unidade de controle de sistema 50 pode determinar se a imagem LV é uma imagem (imagem de lente dupla) incluindo tanto a área de imagem da imagem direita quanto a área de imagem da imagem esquerda. Se a unidade de controle de sistema 50 determinar que a imagem LV é uma imagem de lente dupla, o processamento prossegue para a etapa S1006. Se a unidade de controle de sistema 50 determinar que a imagem LV não é uma imagem de lente dupla, o processamento prossegue para a etapa S1009.
[080] Na etapa S1006, a unidade de controle de sistema 50 determina se um item de definição é selecionado a partir do segundo grupo de itens (segundo item). Se a unidade de controle de sistema 50 determinar que um item de definição é selecionado a partir do segundo grupo de itens, o processamento prossegue para a etapa S1101 (vide FIG. 11A). Se a unidade de controle de sistema 50 determinar que um item de definição não foi selecionado a partir do segundo grupo de itens, o processamento prossegue para a etapa S1007.
[081] Na etapa S1007, a unidade de controle de sistema 50 determina se um item de definição é selecionado a partir do primeiro grupo de itens (primeiro item). Se a unidade de controle de sistema 50 determinar que um item de definição é selecionado a partir do primeiro grupo de itens, o processamento prossegue para a etapa S1121 (vide FIG. 11B). Se a unidade de controle de sistema 50 determinar que um item de definição não foi selecionado a partir do primeiro grupo de itens, o processamento prossegue para a etapa S1008.
[082] Na etapa S1008, a unidade de controle de sistema 50 determina se um item de definição é selecionado a partir do terceiro grupo de itens (terceiro item). Se a unidade de controle de sistema 50 determinar que um item de definição é selecionado a partir do terceiro grupo de itens, o processamento prossegue para a etapa S1201 (vide FIG. 12). Se a unidade de controle de sistema 50 determinar que um item de definição não foi selecionado a partir do terceiro grupo de itens, o processamento prossegue para a etapa S1015.
[083] Na etapa S1009, a unidade de controle de sistema 50 determina se um item de definição é selecionado a partir do menu. Se a unidade de controle de sistema 50 determinar que um item de definição é selecionado, o processamento prossegue para a etapa S1010. Se a unidade de controle de sistema 50 determinar que um item de definição não foi selecionado, o processamento prossegue para a etapa S1015. O único item de definição descrito aqui pode ser qualquer um dos itens de definição do primeiro grupo de itens, do segundo grupo de itens e do terceiro grupo de itens.
[084] Na etapa S1010, a unidade de controle de sistema 50 exibe uma tela (tela de alteração de definição) para alterar a definição correspondente ao item de definição selecionado na unidade de exibição 28. A unidade de controle de sistema 50 continua a exibir a imagem LV mantendo o estado imediatamente antes da seleção do item de definição (isto é, a ampliação da exibição não é alterada).
[085] Na etapa S1011, a unidade de controle de sistema 50 determina se uma operação de alteração de definição foi desempenhada. Se a unidade de controle de sistema 50 determinar que a operação de alteração de definição foi desempenhada, o processamento prossegue para a etapa S1012. Se a unidade de controle de sistema 50 determinar que a operação de alteração de definição não foi desempenhada, o processamento prossegue para a etapa S1013.
[086] Na etapa S1012, a unidade de controle de sistema 50 altera a definição (valor de definição) de acordo com a operação de alteração de definição.
[087] Na etapa S1013, a unidade de controle de sistema 50 determina se a alteração de uma definição (valor de definição) é continuada. Se a unidade de controle de sistema 50 determinar que a alteração de definição é continuada, o processamento prossegue para a etapa S1011. Se a unidade de controle de sistema 50 determinar que a alteração de definição não é continuada (por exemplo, se um botão específico, tal como o botão de menu 81, for pressionado), o processamento prossegue para a etapa S1014.
[088] Na etapa S1014, a unidade de controle de sistema 50 altera o ângulo de visualização de volta para o ângulo de visualização usado antes da seleção do item de definição (o ângulo de visualização usado no final do processamento na etapa S1005) e exibe a imagem LV tendo o ângulo alterado de visualização na unidade de exibição 28. Isto é, na etapa S1014, a imagem LV tendo a faixa exibida antes da seleção do item de definição é exibida na ampliação de exibição usada antes da seleção da definição. Além disso, a unidade de controle de sistema 50 comuta da exibição da tela de alteração de definição para a exibição da imagem LV e do menu.
[089] Na etapa S1015, a unidade de controle de sistema 50 determina se deve continuar exibindo o menu. Se a unidade de controle de sistema 50 determinar continuar exibindo o menu, o processamento prossegue para a etapa S1004. Se a unidade de controle de sistema 50 determinar não continuar exibindo o menu (por exemplo, se um botão específico for pressionado), o processamento prossegue para a etapa S1016.
[090] Na etapa S1016, a unidade de controle de sistema 50 oculta o menu exibido na unidade de exibição 28.
[091] Na etapa S1017, a unidade de controle de sistema 50 determina se deve continuar o processamento deste fluxograma. Se a unidade de controle de sistema 50 determinar continuar o processamento deste fluxograma, o processamento prossegue para a etapa S1002. Se a unidade de controle de sistema 50 determinar não continuar o processamento deste fluxograma (por exemplo, se um botão específico for pressionado), o processamento deste fluxograma termina. Processamento de Alteração de Definição de Segundo Grupo de Itens
[092] O processamento das etapas S1101 a S1110 (processamento para alterar as definições do segundo grupo de itens) será descrito com referência à FIG. 11A.
[093] Na etapa S1101, conforme ilustrado na FIG. 5 (como na etapa S1003), a unidade de controle de sistema 50 exibe uma imagem LV aumentada em uma ampliação de exibição predeterminada (ampliação mais alta do que uma ampliação de 1x) de modo que uma posição predeterminada na imagem LV seja posicionada no centro da superfície de exibição da unidade de exibição 28.
[094] Na etapa S1102, conforme ilustrado na FIG. 9, a unidade de controle de sistema 50 exibe uma tela (tela de alteração de definição) para alterar o item de definição selecionado na unidade de exibição 28, a tela de alteração de definição incluindo a imagem LV aumentada.
[095] Na etapa S1103, a unidade de controle de sistema 50 determina se uma operação de alteração de definição foi desempenhada. Se a unidade de controle de sistema 50 determinar que a operação de alteração de definição foi desempenhada, o processamento prossegue para a etapa S1104. Se a unidade de controle de sistema 50 determinar que a operação de alteração de definição não foi desempenhada, o processamento prossegue para a etapa S1105.
[096] Na etapa S1104, a unidade de controle de sistema 50 altera a definição de acordo com a operação de alteração de definição.
[097] Na etapa S1105, a unidade de controle de sistema 50 determina se uma operação de alteração de ampliação de exibição foi desempenhada. Se a unidade de controle de sistema 50 determinar que a operação de alteração de ampliação de exibição foi desempenhada, o processamento prossegue para a etapa S1106. Se a unidade de controle de sistema 50 determinar que a operação de alteração de ampliação de exibição não foi desempenhada, o processamento prossegue para a etapa S1107.
[098] Na etapa S1106, a unidade de controle de sistema 50 exibe a imagem LV na unidade de exibição 28 na ampliação de exibição de acordo com a operação de alteração de ampliação de exibição.
[099] Na etapa S1107, a unidade de controle de sistema 50 determina se a imagem LV está em um estado aumentado (a ampliação da imagem LV é mais alta do que uma ampliação de 1x). Se a unidade de controle de sistema 50 determinar que a imagem LV está no estado aumentado, o processamento prossegue para a etapa S1108. Se a unidade de controle de sistema 50 determinar que a imagem LV não está no estado aumentado, o processamento prossegue para a etapa S1110.
[100] Na etapa S1108, a unidade de controle de sistema 50 determina se uma operação para alterar uma posição de aumento (uma posição central da imagem LV a ser aumentada e exibida; uma posição central de uma faixa da imagem LV a ser exibida) foi desempenhada. Se a unidade de controle de sistema 50 determinar que esta operação de alteração de posição de aumento foi desempenhada, o processamento prossegue para a etapa S1109. Se a unidade de controle de sistema 50 determinar que a operação de alteração de posição de aumento não foi desempenhada, o processamento prossegue para a etapa S1110.
[101] Na etapa S1109, a unidade de controle de sistema 50 altera a posição de aumento de acordo com a operação de alteração de posição de aumento. A unidade de controle de sistema 50 move a imagem LV de modo que a posição de aumento alterada na imagem LV seja posicionada na posição central da superfície de exibição da unidade de exibição 28.
[102] Na etapa S1110, a unidade de controle de sistema 50 determina se a alteração de uma definição (valor de definição) é continuada. Se a unidade de controle de sistema 50 determinar que a alteração de definição é continuada, o processamento prossegue para a etapa S1103. Se a unidade de controle de sistema 50 determinar que a alteração de definição não é continuada, o processamento prossegue para a etapa S1014. Processamento de Alteração de Definição do Primeiro Grupo de Itens
[103] O processamento das etapas S1121 a S1125 (processamento para alterar as definições do primeiro grupo de itens) será descrito com referência à FIG. 11B.
[104] Na etapa S1121, conforme ilustrado na FIG. 4, a unidade de controle de sistema 50 exibe a imagem LV no ângulo padrão de visualização na unidade de exibição 28. Isto é, a unidade de exibição 28 exibe a imagem de LV com uma ampliação de 1x, de modo que tanto a área de imagem da imagem direita quanto a área de imagem da imagem esquerda sejam exibidas nela. Observa-se que a imagem LV a ser exibida não se limita à imagem LV no ângulo padrão de visualização (imagem padrão com ampliação de 1x). Por exemplo, a imagem LV pode ser aumentada (ou reduzida) de uma ampliação de 1x de modo a ser exibida em uma faixa na qual toda a área da imagem da imagem direita e toda a área da imagem da imagem esquerda são exibidas.
[105] Na etapa S1122, conforme ilustrado na FIG. 8, a unidade de controle de sistema 50 exibe uma tela de alteração de definição do item de definição selecionado na unidade de exibição 28, a tela de alteração de definição incluindo a imagem LV no ângulo padrão de visualização.
[106] Na etapa S1123, a unidade de controle de sistema 50 determina se a operação de alteração de definição foi desempenhada. Se a unidade de controle de sistema 50 determinar que a operação de alteração de definição foi desempenhada, o processamento prossegue para a etapa S1124. Se a unidade de controle de sistema 50 determinar que a operação de alteração de definição não foi desempenhada, o processamento prossegue para a etapa S1125.
[107] Na etapa S1124, a unidade de controle de sistema 50 altera a definição de acordo com a operação de alteração de definição.
[108] Na etapa S1125, a unidade de controle de sistema 50 determina se a alteração de definição é continuada. Se a unidade de controle de sistema 50 determinar que a alteração de definição é continuada, o processamento prossegue para a etapa S1123. Se a unidade de controle de sistema 50 determinar que a alteração de definição não é continuada, o processamento prossegue para a etapa S1014. Processamento de Alteração de Definição de Terceiro Grupo de Itens
[109] O processamento das etapas S1201 a S1209 (processamento para alterar as definições do terceiro grupo de itens) será descrito com referência à FIG. 12.
[110] Na etapa S1201, a unidade de controle de sistema 50 exibe uma tela de alteração de definição do item de definição selecionado na unidade de exibição 28. Quando o item de definição do terceiro grupo de itens é selecionado, a imagem LV mantendo um estado (ângulo de visualização; ampliação da exibição) imediatamente antes da seleção do item de definição continua a ser exibida (isto é, a ampliação da exibição não é alterada).
[111] Na etapa S1202, a unidade de controle de sistema 50 determina se a operação de alteração de definição foi desempenhada. Se a unidade de controle de sistema 50 determinar que a operação de alteração de definição foi desempenhada, o processamento prossegue para a etapa S1203. Se a unidade de controle de sistema 50 determinar que a operação de alteração de definição não foi desempenhada, o processamento prossegue para a etapa S1204.
[112] Na etapa S1203, a unidade de controle de sistema 50 altera a definição de acordo com a operação de alteração de definição.
[113] Na etapa S1204, a unidade de controle de sistema 50 determina se uma operação de alteração de ampliação de exibição foi desempenhada. Se a unidade de controle de sistema 50 determinar que a operação de alteração de ampliação de exibição foi desempenhada, o processamento prossegue para a etapa S1205. Se a unidade de controle de sistema 50 determinar que a operação de alteração de ampliação de exibição não foi desempenhada, o processamento prossegue para a etapa S1206.
[114] Na etapa S1205, a unidade de controle de sistema 50 exibe a imagem LV na unidade de exibição 28 na ampliação de exibição de acordo com a operação de alteração de ampliação de exibição.
[115] Na etapa S1206, a unidade de controle de sistema 50 determina se a imagem LV está em um estado aumentado (a ampliação da imagem LV é mais alta do que uma ampliação de 1x). Se a unidade de controle de sistema 50 determinar que a imagem LV está no estado aumentado, o processamento prossegue para a etapa S1207. Se a unidade de controle de sistema 50 determinar que a imagem LV não está no estado aumentado, o processamento prossegue para a etapa S1209.
[116] Na etapa S1207, a unidade de controle de sistema 50 determina se uma operação para alterar uma posição de aumento (uma posição central da imagem LV a ser aumentada e exibida) foi desempenhada. Se a unidade de controle de sistema 50 determinar que a operação de alteração de posição de aumento foi desempenhada, o processamento prossegue para a etapa S1208. Se a unidade de controle de sistema 50 determinar que a operação de alteração de posição de aumento não foi desempenhada, o processamento prossegue para a etapa S1209.
[117] Na etapa S1208, a unidade de controle de sistema 50 altera a posição de aumento de acordo com a operação de alteração de posição de aumento. A unidade de controle de sistema 50 move a imagem LV de modo que a posição de aumento alterada da imagem LV seja posicionada na posição central da superfície de exibição da unidade de exibição 28.
[118] Na etapa S1209, a unidade de controle de sistema 50 determina se a alteração de um valor de definição é continuada. Se a unidade de controle de sistema 50 determinar que a alteração de um valor de definição é continuada, o processamento prossegue para a etapa S1202. Se a unidade de controle de sistema 50 determinar que a alteração de um valor de definição não é continuada, o processamento prossegue para a etapa S1014.
[119] Conforme descrito acima, a ampliação de exibição e a faixa de exibição da imagem LV são alteradas (a imagem LV é aumentada e exibida ou todo o ângulo de visualização da imagem LV é exibido) de acordo com o item de definição (item de menu) selecionado pelo usuário quando a unidade de lente dupla está anexada (quando a imagem de lente dupla é exibida). Como resultado, a imagem LV tendo uma ampliação de exibição e uma faixa de exibição que permite ao usuário desempenhar facilmente a definição (operação) é exibida de acordo com o item de definição selecionado. Portanto, a operabilidade do usuário é melhorada.
[120] Além disso, a presente modalidade é particularmente eficaz quando o tamanho da superfície de exibição da unidade de exibição 28 não é suficiente. Por exemplo, em um caso em que uma imagem é emitida externamente para um dispositivo de exibição tendo uma grande superfície de exibição por meio de HDMI (marca registrada) ou afins, a necessidade da exibição aumentada de uma imagem LV é baixa. Portanto, em um caso em que a superfície de exibição da unidade de exibição 28 é maior do que um tamanho específico, mesmo quando qualquer um dos itens de seleção do segundo grupo de itens é selecionado na etapa S1006, o processamento pode prosseguir para a etapa S1121 ou S1201, sem prosseguir para a etapa S1101. O caso em que a superfície de exibição da unidade de exibição 28 é maior do que um tamanho específico se refere, por exemplo, a um caso em que os comprimentos de todos os quatro lados da superfície de exibição da unidade de exibição 28 são mais elevados que um comprimento predeterminado.
[121] De acordo com a presente invenção, uma imagem incluindo duas áreas tendo uma paralaxe entre elas pode ser exibida de modo que um usuário possa facilmente desempenhar o processamento desejado nela.
[122] Na descrição acima, “se A for igual ou mais que B, o processamento prossegue para a etapa S1, e se A for menor (mais baixo) do que B, o processamento prossegue para a etapa S2” pode ser lido como “se A for maior (mais alto) do que B, o processamento prossegue para S1, e se A for igual ou inferior a B, o processamento prossegue para a etapa S2”. Por outro lado, “se A for maior (mais alto) do que B, o processamento prossegue para a etapa S1, e se A for igual ou inferior a B, o processamento prossegue para a etapa S2” pode ser lido como “se A for igual ou mais que B, o processamento prossegue para a etapa S1, e se A for menor (mais baixo) do que B, o processamento prossegue para a etapa S2”. Portanto, a menos que surja uma contradição, a expressão “A ou mais” pode ser substituída por “A ou maior (mais alto; mais longo; mais) do que A”, ou pode ser lida como ou pode ser substituída por “maior (mais alto; mais longo; mais) do que A". Além disso, a expressão “A ou inferior” pode ser substituída por “A ou menor (mais baixo; mais curto; inferior) do que A” ou pode ser substituída por ou pode ser lida como “menor (mais baixo; mais curto; inferior) do que A”. Adicionalmente, “maior (mais alto; mais longo; mais) do que A” pode ser lido como “A ou mais” e “menor (mais baixo; mais curto; inferior) do que A” pode ser lido como “A ou inferior”.
[123] A presente invenção foi assim descrita em detalhe com base nas suas modalidades preferenciais. No entanto, a presente invenção não está limitada a essas modalidades específicas, e várias modalidades dentro do escopo que não se afastam da essência da presente invenção também estão incluídas na presente invenção. Algumas das modalidades descritas acima podem ser adequadamente combinadas.
Outras Modalidades
[124] A(s) modalidade(s) da presente invenção também pode(m) ser realizada(s) por um computador de um sistema ou aparelho que lê e executa instruções executáveis por computador (por exemplo, um ou mais programas) gravadas em um meio de armazenamento (que também pode ser referido de forma mais completa como um "meio de armazenamento legível por computador não transitório") para desempenhar as funções de uma ou mais da(s) modalidade(s) descrita(s) acima e/ou que inclui um ou mais circuitos (por exemplo, circuito integrado de aplicação específica (ASIC)) para desempenhar as funções de uma ou mais da(s) modalidade(s) descrita(s) acima, e por um método desempenhado pelo computador do sistema ou aparelho, por exemplo, lendo e executando as instruções executáveis por computador do meio de armazenamento para desempenhar as funções de uma ou mais da(s) modalidade(s) descrita(s) acima e/ou controlar um ou mais circuitos para desempenhar as funções de uma ou mais da(s) modalidade(s) descrita(s) acima. O computador pode compreender um ou mais processadores (por exemplo, unidade central de processamento (CPU), unidade de microprocessamento (MPU)) e pode incluir uma rede de computadores separados ou processadores separados para ler e executar as instruções executáveis de computador. As instruções executáveis por computador podem ser fornecidas ao computador, por exemplo, a partir de uma rede ou meio de armazenamento. O meio de armazenamento pode incluir, por exemplo, um ou mais de um disco rígido, uma memória de acesso aleatório (RAM), uma memória somente de leitura (ROM), um armazenamento de sistemas de computação distribuídos, um disco óptico (tal como um disco compacto (CD), disco versátil digital (DVD) ou disco Blu-ray (BD)™), um dispositivo de memória flash, um cartão de memória e afins.
[125] Embora a presente invenção tenha sido descrita com referência as modalidades exemplares, deve-se entender que a invenção não está limitada às modalidades exemplares divulgadas. O escopo das reivindicações a seguir deve receber a interpretação mais vasta de modo a abranger todas essas modificações e estruturas e funções equivalentes.

Claims (12)

1. Aparelho de processamento de informações caracterizado pelo fato de que compreende: uma unidade de aquisição configurada para adquirir uma imagem capturada; uma unidade de controle de exibição configurada para controlar uma exibição para exibir um primeiro item e um segundo item junto com a imagem capturada, cada um dentre o primeiro item e o segundo item incluindo uma pluralidade de itens de definição; uma unidade de determinação configurada para determinar se a imagem capturada é uma imagem de lente dupla que inclui uma primeira área adquirida por imageamento através de uma primeira lente de disparo e uma segunda área adquirida por imageamento através de uma segunda lente de disparo, a segunda área tendo uma paralaxe em relação à primeira área; e uma unidade de controle configurada para: 1) controlar a exibição para exibir ambas a primeira área e a segunda área da imagem capturada em uma primeira ampliação de exibição em um caso em que a imagem capturada é determinada para ser a imagem de lente dupla e qualquer um dos itens de definição do primeiro item é selecionado; e 2) controlar a exibição para exibir apenas uma dentre a primeira área e a segunda área da imagem capturada em uma segunda ampliação de exibição mais alta do que a primeira ampliação de exibição em um caso em que a imagem capturada é determinada para ser a imagem de lente dupla e qualquer um dos itens de definição do segundo item é selecionado.
2. Aparelho de processamento de informações, de acordo com a reivindicação 1, caracterizado pelo fato de que a unidade de controle de exibição controla a exibição para exibir um terceiro item que inclui uma pluralidade de itens de definição e é diferente de ambos o primeiro item e o segundo item, e em um caso em que qualquer um dos itens de definição do terceiro item é selecionado, a unidade de controle controla a exibição para exibir a imagem capturada mantendo um estado imediatamente antes da seleção do item de definição.
3. Aparelho de processamento de informações, de acordo com a reivindicação 2, caracterizado pelo fato de que o terceiro item inclui um item de definição relacionado a uma definição da exibição.
4. Aparelho de processamento de informações, de acordo com qualquer uma das reivindicações 1 a 3, caracterizado pelo fato de que a unidade de aquisição adquire a imagem capturada por captura de imagem.
5. Aparelho de processamento de informações, de acordo com a reivindicação 4, caracterizado pelo fato de que o segundo item inclui um item de definição relacionado a uma definição de processamento de imagem na captura de imagem.
6. Aparelho de processamento de informações, de acordo com qualquer uma das reivindicações 1 a 5, caracterizado pelo fato de que o primeiro item inclui um item de definição relacionado a uma definição de um item de exibição.
7. Aparelho de processamento de informações, de acordo com qualquer uma das reivindicações 1 a 6, caracterizado pelo fato de que, em um caso em que uma superfície de exibição da exibição é maior do que um tamanho específico, a unidade de controle não controla a exibição para exibir apenas uma dentre a primeira área e a segunda área, mesmo em um caso em que qualquer um dos itens de definição do segundo item é selecionado.
8. Aparelho de processamento de informações, de acordo com qualquer uma das reivindicações 1 a 7, caracterizado pelo fato de que, em um caso em que a imagem capturada é determinada para não ser a imagem de lente dupla, a unidade de controle controla a exibição para exibir a imagem capturada mantendo um estado imediatamente antes da seleção do item de definição, mesmo em um caso em que qualquer um dos itens de definição do primeiro item e do segundo item é selecionado.
9. Aparelho de processamento de informações, de acordo com qualquer uma das reivindicações 1 a 8, caracterizado pelo fato de que a unidade de controle controla a exibição para exibir uma primeira tela de alteração de definição incluindo a imagem capturada em um caso em que qualquer um dos itens de definição do primeiro item é selecionado; e a unidade de controle controla a exibição para exibir uma segunda tela de alteração de definição incluindo a imagem capturada em um caso em que qualquer um dos itens de definição do segundo item é selecionado.
10. Aparelho de processamento de informações, de acordo com a reivindicação 9, caracterizado pelo fato de que em um caso em que a primeira tela de alteração de definição é exibida na exibição, uma ampliação de exibição da imagem capturada não é alterável por um usuário, e em um caso em que a segunda tela de alteração de definição é exibida na exibição, a ampliação de exibição da imagem capturada é alterável pelo usuário.
11. Método de processamento de informações caracterizado pelo fato de que compreende: adquirir uma imagem capturada; controlar uma exibição para exibir um primeiro item e um segundo item junto com a imagem capturada, cada um dentre o primeiro item e o segundo item incluindo uma pluralidade de itens de definição; determinar se a imagem capturada é uma imagem de lente dupla que inclui uma primeira área adquirida por imageamento através de uma primeira lente de disparo e uma segunda área adquirida por imageamento através de uma segunda lente de disparo, a segunda área tendo uma paralaxe em relação à primeira área; controlar a exibição para exibir ambas a primeira área e a segunda área da imagem capturada em uma primeira ampliação de exibição em um caso em que a imagem capturada é determinada para ser a imagem de lente dupla e qualquer um dos itens de definição do primeiro item é selecionado; e controlar a exibição para exibir apenas uma dentre a primeira área e a segunda área da imagem capturada em uma segunda ampliação de exibição mais alta do que a primeira ampliação de exibição em um caso em que a imagem capturada é determinada para ser a imagem de lente dupla e qualquer um dos itens de definição do segundo item é selecionado.
12. Programa de armazenamento de meio legível por computador caracterizado pelo fato de que faz com que um computador funcione como cada unidade do aparelho de processamento de informações, definido em qualquer uma das reivindicações 1 a 10.
BR102023013506-4A 2022-07-12 2023-07-05 Aparelho de processamento de informações, método de processamento de informações e meio legível por computador BR102023013506A2 (pt)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2022111787A JP2024010449A (ja) 2022-07-12 2022-07-12 情報処理装置、情報処理方法、プログラム
JP2022-111787 2022-07-12

Publications (1)

Publication Number Publication Date
BR102023013506A2 true BR102023013506A2 (pt) 2024-01-16

Family

ID=87280935

Family Applications (1)

Application Number Title Priority Date Filing Date
BR102023013506-4A BR102023013506A2 (pt) 2022-07-12 2023-07-05 Aparelho de processamento de informações, método de processamento de informações e meio legível por computador

Country Status (5)

Country Link
US (1) US20240020073A1 (pt)
EP (1) EP4307660A1 (pt)
JP (1) JP2024010449A (pt)
CN (1) CN117395367A (pt)
BR (1) BR102023013506A2 (pt)

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5748436B2 (ja) * 2010-09-10 2015-07-15 キヤノン株式会社 撮像装置及びその制御方法
US20130258044A1 (en) * 2012-03-30 2013-10-03 Zetta Research And Development Llc - Forc Series Multi-lens camera
JP6004855B2 (ja) * 2012-09-14 2016-10-12 キヤノン株式会社 表示制御装置及びその制御方法
CN114143464A (zh) * 2016-05-20 2022-03-04 麦克赛尔株式会社 摄像装置及其设定画面
JP6833507B2 (ja) * 2016-12-27 2021-02-24 キヤノン株式会社 撮像制御装置及びその制御方法
JP6808529B2 (ja) * 2017-02-14 2021-01-06 キヤノン株式会社 撮像装置及びその制御方法
JP2022046260A (ja) 2020-09-10 2022-03-23 キヤノン株式会社 画像処理装置、画像処理方法およびプログラム

Also Published As

Publication number Publication date
CN117395367A (zh) 2024-01-12
EP4307660A1 (en) 2024-01-17
JP2024010449A (ja) 2024-01-24
US20240020073A1 (en) 2024-01-18

Similar Documents

Publication Publication Date Title
US11650661B2 (en) Electronic device and control method for electronic device
EP3591499A1 (en) Electronic device, control method for electronic device, program, and computer readable medium
US20220400243A1 (en) Image processing apparatus and image processing method
US20240205534A1 (en) Electronic equipment, method for controlling the same, and recording medium
US11048400B2 (en) Electronic apparatus, control method of electronic apparatus, and non-transitory computer readable medium
US11212458B2 (en) Display control apparatus, display control method, and storage medium
BR102023013506A2 (pt) Aparelho de processamento de informações, método de processamento de informações e meio legível por computador
US10924680B2 (en) Image capture control apparatus and method of controlling the same
JP2021069045A (ja) 表示制御装置、表示制御方法、プログラムおよび記憶媒体
US20230281768A1 (en) Electronic apparatus, control method of electronic apparatus, and non-transitory computer readable medium
US20230412931A1 (en) Display control device, display control method, and non-transitory computer readable medium
US11438512B2 (en) Electronic apparatus and control method thereof
US11843894B2 (en) Electronic apparatus, method of controlling the same, and storage medium
US20220385883A1 (en) Image processing apparatus, image processing method, and storage medium
US20220398688A1 (en) Image processing apparatus, image processing method, and storage medium
US20240236503A1 (en) Electronic device, control method thereof and non-transitory computer-readable medium
US20220385829A1 (en) Information processing apparatus, control method, and storage medium
US20220385877A1 (en) Electronic equipment, control method therefor, and storage medium
JP2021158559A (ja) 電子機器、その制御方法およびプログラム
US20220385830A1 (en) Electronic apparatus, control method, and non-transitory computer readable medium
JP2024030580A (ja) 電子機器および電子機器の制御方法
JP2022191143A (ja) 画像処理装置および画像処理方法
JP2023176161A (ja) 情報処理装置、撮像装置、情報処理方法、プログラム
JP2024030637A (ja) 電子機器および電子機器の制御方法
JP2023160103A (ja) 電子機器

Legal Events

Date Code Title Description
B03A Publication of a patent application or of a certificate of addition of invention [chapter 3.1 patent gazette]