BRPI0720516A2 - Aparelho e método de controle de exibição para controlar a exibição de uma imagem, e, programa para fazer com que um computador execute um processo de controle de exibição - Google Patents

Aparelho e método de controle de exibição para controlar a exibição de uma imagem, e, programa para fazer com que um computador execute um processo de controle de exibição Download PDF

Info

Publication number
BRPI0720516A2
BRPI0720516A2 BRPI0720516-3A BRPI0720516A BRPI0720516A2 BR PI0720516 A2 BRPI0720516 A2 BR PI0720516A2 BR PI0720516 A BRPI0720516 A BR PI0720516A BR PI0720516 A2 BRPI0720516 A2 BR PI0720516A2
Authority
BR
Brazil
Prior art keywords
image
unit
image data
display
pixel
Prior art date
Application number
BRPI0720516-3A
Other languages
English (en)
Inventor
Tetsujiro Kondo
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Publication of BRPI0720516A2 publication Critical patent/BRPI0720516A2/pt

Links

Classifications

    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G3/00Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
    • G09G3/20Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes for presentation of an assembly of a number of characters, e.g. a page, by composing the assembly by combination of individual elements arranged in a matrix no fixed position being assigned to or needed to be assigned to the individual characters or partial characters
    • G09G3/34Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes for presentation of an assembly of a number of characters, e.g. a page, by composing the assembly by combination of individual elements arranged in a matrix no fixed position being assigned to or needed to be assigned to the individual characters or partial characters by control of light from an independent source
    • G09G3/36Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes for presentation of an assembly of a number of characters, e.g. a page, by composing the assembly by combination of individual elements arranged in a matrix no fixed position being assigned to or needed to be assigned to the individual characters or partial characters by control of light from an independent source using liquid crystals
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G1/00Control arrangements or circuits, of interest only in connection with cathode-ray tube indicators; General aspects or details, e.g. selection emphasis on particular characters, dashed line or dotted line generation; Preprocessing of data
    • G09G1/002Intensity circuits
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G3/00Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
    • G09G3/20Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes for presentation of an assembly of a number of characters, e.g. a page, by composing the assembly by combination of individual elements arranged in a matrix no fixed position being assigned to or needed to be assigned to the individual characters or partial characters
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G3/00Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
    • G09G3/20Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes for presentation of an assembly of a number of characters, e.g. a page, by composing the assembly by combination of individual elements arranged in a matrix no fixed position being assigned to or needed to be assigned to the individual characters or partial characters
    • G09G3/2007Display of intermediate tones
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/02Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the way in which colour is displayed
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/36Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
    • G09G5/363Graphics controllers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N17/00Diagnosis, testing or measuring for television systems or their details
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N17/00Diagnosis, testing or measuring for television systems or their details
    • H04N17/004Diagnosis, testing or measuring for television systems or their details for digital television systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N17/00Diagnosis, testing or measuring for television systems or their details
    • H04N17/04Diagnosis, testing or measuring for television systems or their details for receivers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/431Generation of visual interfaces for content selection or interaction; Content or additional data rendering
    • H04N21/4312Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations
    • H04N21/4314Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations for fitting data in a restricted space on the screen, e.g. EPG data in a rectangular grid
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
    • H04N21/4402Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving reformatting operations of video signals for household redistribution, storage or real-time display
    • H04N21/440263Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving reformatting operations of video signals for household redistribution, storage or real-time display by altering the spatial resolution, e.g. for displaying on a connected PDA
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
    • H04N21/4402Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving reformatting operations of video signals for household redistribution, storage or real-time display
    • H04N21/440281Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving reformatting operations of video signals for household redistribution, storage or real-time display by altering the temporal resolution, e.g. by frame skipping
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G1/00Control arrangements or circuits, of interest only in connection with cathode-ray tube indicators; General aspects or details, e.g. selection emphasis on particular characters, dashed line or dotted line generation; Preprocessing of data
    • G09G1/04Deflection circuits ; Constructional details not otherwise provided for
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2300/00Aspects of the constitution of display devices
    • G09G2300/04Structural and physical details of display devices
    • G09G2300/0439Pixel structures
    • G09G2300/0443Pixel structures with several sub-pixels for the same colour in a pixel, not specifically used to display gradations
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2300/00Aspects of the constitution of display devices
    • G09G2300/04Structural and physical details of display devices
    • G09G2300/0439Pixel structures
    • G09G2300/0452Details of colour pixel setup, e.g. pixel composed of a red, a blue and two green components
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2320/00Control of display operating conditions
    • G09G2320/08Arrangements within a display terminal for setting, manually or automatically, display parameters of the display terminal
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2320/00Control of display operating conditions
    • G09G2320/10Special adaptations of display systems for operation with variable images
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2320/00Control of display operating conditions
    • G09G2320/10Special adaptations of display systems for operation with variable images
    • G09G2320/103Detection of image changes, e.g. determination of an index representative of the image change
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2320/00Control of display operating conditions
    • G09G2320/10Special adaptations of display systems for operation with variable images
    • G09G2320/106Determination of movement vectors or equivalent parameters within the image
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/04Changes in size, position or resolution of an image
    • G09G2340/0407Resolution change, inclusive of the use of different resolutions for different screen areas
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/04Changes in size, position or resolution of an image
    • G09G2340/0407Resolution change, inclusive of the use of different resolutions for different screen areas
    • G09G2340/0435Change or adaptation of the frame rate of the video stream
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/10Mixing of images, i.e. displayed pixel being the result of an operation, e.g. adding, on the corresponding input pixels
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2360/00Aspects of the architecture of display systems
    • G09G2360/06Use of more than one graphics processor to process data before displaying to one or more screens
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2360/00Aspects of the architecture of display systems
    • G09G2360/16Calculation or use of calculated indices related to luminance levels in display data
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2360/00Aspects of the architecture of display systems
    • G09G2360/18Use of a frame buffer in a display terminal, inclusive of the display panel
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G3/00Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
    • G09G3/20Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes for presentation of an assembly of a number of characters, e.g. a page, by composing the assembly by combination of individual elements arranged in a matrix no fixed position being assigned to or needed to be assigned to the individual characters or partial characters
    • G09G3/2007Display of intermediate tones
    • G09G3/2018Display of intermediate tones by time modulation using two or more time intervals
    • G09G3/2022Display of intermediate tones by time modulation using two or more time intervals using sub-frames
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G3/00Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
    • G09G3/20Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes for presentation of an assembly of a number of characters, e.g. a page, by composing the assembly by combination of individual elements arranged in a matrix no fixed position being assigned to or needed to be assigned to the individual characters or partial characters
    • G09G3/2007Display of intermediate tones
    • G09G3/2044Display of intermediate tones using dithering
    • G09G3/2051Display of intermediate tones using dithering with use of a spatial dither pattern
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G3/00Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
    • G09G3/20Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes for presentation of an assembly of a number of characters, e.g. a page, by composing the assembly by combination of individual elements arranged in a matrix no fixed position being assigned to or needed to be assigned to the individual characters or partial characters
    • G09G3/2007Display of intermediate tones
    • G09G3/2059Display of intermediate tones using error diffusion
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G3/00Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
    • G09G3/20Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes for presentation of an assembly of a number of characters, e.g. a page, by composing the assembly by combination of individual elements arranged in a matrix no fixed position being assigned to or needed to be assigned to the individual characters or partial characters
    • G09G3/2007Display of intermediate tones
    • G09G3/2059Display of intermediate tones using error diffusion
    • G09G3/2062Display of intermediate tones using error diffusion using error diffusion in time
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/44Receiver circuitry for the reception of television signals according to analogue transmission standards
    • H04N5/445Receiver circuitry for the reception of television signals according to analogue transmission standards for displaying additional information
    • H04N5/45Picture in picture, e.g. displaying simultaneously another television channel in a region of the screen
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/01Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level
    • H04N7/0127Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level by changing the field or frame frequency of the incoming video signal, e.g. frame rate converter
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/01Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level
    • H04N7/0135Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level involving interpolation processes
    • H04N7/0145Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level involving interpolation processes the interpolation being class adaptive, i.e. it uses the information of class which is determined for a pixel based upon certain characteristics of the neighbouring pixels

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • Biomedical Technology (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Computer Graphics (AREA)
  • Crystallography & Structural Chemistry (AREA)
  • Chemical & Material Sciences (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Control Of Indicators Other Than Cathode Ray Tubes (AREA)

Description

“APARELHO E MÉTODO DE CONTROLE DE EXIBIÇÃO PARA CONTROLAR A EXIBIÇÃO DE UMA IMAGEM, E, PROGRAMA PARA FAZER COM QUE UM COMPUTADOR EXECUTE UM PROCESSO DE CONTROLE DE EXIBIÇÃO”
Campo Técnico
A presente invenção relaciona-se a um aparelho de controle de visor, um método de controle de visor e a um programa e, mais especificamente a um aparelho de controle de visor, um método de controle de visor e a um programa no qual, por exemplo, uma imagem a ser exibida no lado receptor pode ser verificada, ou o mesmo no lado de transmissão de radiodifusão de televisão.
Fundamentos da Técnica
Por exemplo, no lado de transmissão de radiodifusão de televisão, antes de um programa ser transmitido, a imagem do programa é exibida em um aparelho de exibição (monitor) para verificar a qualidade de imagem ou similar.
Como um método para verificar a qualidade de imagem de uma imagem, há um método no qual uma imagem original e uma imagem processada obtida processando a imagem original são exibidas em um único visor, comutando-as usando uma chave, de tal modo que uma pessoa avalie subjetivamente cada imagem original e a imagem processada, e adicionalmente no qual um resultado de avaliação da imagem original é exibido adjacente à imagem processada (ver, por exemplo, Documento de Patente 1).
Documento de Patente 1: Publicação de Pedido de Patente Japonesa Não Examinado No. 2001-136548
Descrição da Invenção
Problema Técnico
Nos últimos anos, o desempenho de aparelhos de exibição tais como receptores de televisão para receber transmissões de televisão, tem sido melhorado. Por exemplo, aparelhos de exibição possuindo grandes telas de 127 cm ou mais, tais como LCDs (Visores de Cristal Líquido), tem se tomado crescentemente predominantes.
Para esta finalidade, no lado de recepção em uma residência ou similar para receber transmissões de televisão, programas tem sido exibidos usando aparelhos de exibição possuindo um desempenho mais alto do que aparelhos de exibição usados para verificar a qualidade de imagem ou similar no lado de transmissão (posteriormente referidos como aparelhos de exibição de verificação de uso, se desejado), isto é, por exemplo, aparelhos de exibição possuindo telas maiores que os aparelhos de exibição de verificação de uso.
Então, em um caso em que programas são exibidos usando aparelhos de exibição possuindo telas maiores que os aparelhos de exibição de verificação de uso, uma degradação da qualidade de imagem tal como ruído, que não é pronunciada nos aparelhos de exibição de verificação de uso, pode ser acentuada para fazer com que espectadores a sintam não natural.
A presente invenção foi feita à vista de tal situação, e é destinada a permitir a verificação de uma imagem a ser exibida no lado de recepção ou similar.
Solução Técnica
Um aparelho de controle de exibição em um aspecto da presente invenção, é um aparelho de controle de exibição para controlar a exibição de uma imagem, incluindo meios de processamento de sinal para efetuar um processo de sinal predeterminado em dados de imagem de entrada, e meios de controle de visor para fazer com que uma imagem correspondente aos dados de entrada de imagem seja exibida em uma região de exibição de um aparelho de exibição possuindo uma tela com um número maior de pixéis do que o número de pixéis dos dados de imagem de entrada, a região de exibição sendo uma parte da tela, e fazendo com que uma imagem correspondente a dados de imagem processados obtidos pelo processo de sinal predeterminado, seja exibida em uma região de exibição que é uma outra parte da tela.
Um método de controle de exibição ou um programa em um aspecto da presente invenção, é um método de controle de exibição para controlar a exibição de uma imagem ou um programa para fazer com que um computador execute um processo de controle de exibição, incluindo as etapas de executar um processo de sinal predeterminado nos dados de imagem de entrada, e fazer com que uma imagem correspondente aos dados de imagem de entrada seja exibida em uma região de exibição de um aparelho de exibição possuindo uma tela com um número maior de pixéis que os dados de imagem de entrada, a região de exibição sendo uma parte da tela, e fazendo com que uma imagem correspondente a dados de imagem processados obtidos pelo processo de sinal predeterminado seja exibida em uma região de exibição que é uma outra parte da tela.
Em um aspecto da presente invenção, um processo de sinal predeterminado é executado sobre dados de imagem de entrada, e uma imagem correspondente aos dados de imagem de entrada é exibida em uma região de exibição de um aparelho de exibição possuindo uma tela com um número maior de pixéis do que o número de pixéis dos dados de imagem de entrada, a região de exibição sendo uma parte da tela, enquanto uma imagem correspondente a dados de imagem processados obtida pelo processo de sinal predeterminado, é exibida em uma região de exibição que é uma outra parte da tela.
Notar que o programa pode ser provido, transmitindo-o através de um meio de transmissão ou gravando-o sobre um meio de gravação.
Efeitos Vantajosos
De acordo com um aspecto da presente invenção, uma imagem pode ser exibida. Adicionalmente, confirmando esta imagem exibida, por exemplo, uma imagem a ser exibida no lado de recepção ou similar pode se verificada.
Breve Descrição dos Desenhos
[Figura 1] Figura 1 é um diagrama em blocos ilustrando um exemplo de estrutura de uma realização de um sistema de monitor ao qual a presente invenção é aplicada.
[Figura 2] Figura 2 é um diagrama ilustrando um exemplo de estrutura de uma tela de um aparelho de exibição 1.
[Figura 3] Figura 3 é um fluxograma explicando um processo do sistema de monitor.
[Figura 4] Figura 4 é um diagrama em blocos ilustrando um primeiro exemplo de estrutura de um unidade de processamento de sinal 12.
[Figura 5] Figura 5 é um diagrama ilustrando um exemplo de exibição no aparelho de exibição 2.
[Figura 6] Figura 6 é um diagrama ilustrando um exemplo de exibição de uma imagem de mH x mV pixéis.
[Figura 7] Figura 7 é um diagrama em blocos ilustrando um segundo exemplo de estrutura da unidade de processamento de sinal 12.
[Figura 8] Figura 8 é um diagrama ilustrando um exemplo de exibição no aparelho de exibição 2.
[Figura 9] Figura 9 é um diagrama em blocos ilustrando um terceiro exemplo de estrutura da unidade de processamento de sinal 12.
[Figura 10] Figura 10 é um diagrama ilustrando um exemplo de exibição do aparelho de exibição 2.
[Figura 11] Figura 11 é um diagrama em blocos ilustrando um quarto exemplo de estrutura da unidade de processamento de sinal 12.
[Figura 12] Figura 12 é um diagrama ilustrando um exemplo de exibição no aparelho de exibição 2.
[Figura 13] Figura 13 é um diagrama em blocos ilustrando um quinto exemplo de estrutura da unidade de processamento de sinal 12.
[Figura 14] Figura 14 é um diagrama ilustrando um exemplo de exibição no aparelho de exibição 2.
[Figura 15] Figura 15 é um diagrama em blocos ilustrando um sexto exemplo de estrutura da unidade de processamento de sinal 12.
[Figura 16] Figura 16 é um diagrama ilustrando um exemplo de exibição no aparelho de exibição 2.
[Figura 17] Figura 17 é um diagrama explicando um processo de geração de imagem de pseudo-polegadas.
[Figura 18] Figura 18 é um diagrama explicando um processo
de geração de imagem de pseudo-polegadas.
[Figura 19] Figura 19 é um diagrama explicando um processo de geração de imagem de pseudo-polegadas.
[Figura 20] Figura 20 é um fluxograma explicando um processo de um aparelho de controle de exibição 1 no caso de exibição de uma imagem correspondente a dados de imagem de pseudo-polegadas de n polegadas em uma região de exibição # 1.
[Figura 21] Figura 21 é um diagrama em blocos ilustrando um sétimo exemplo de estrutura da unidade de processamento de sinal 12.
[Figura 22] Figura 22 é um diagrama ilustrando um exemplo
de exibição no aparelho de exibição 2.
[Figura 23] Figura 23 é um diagrama em blocos ilustrando um oitavo exemplo de estrutura da unidade de processamento de sinal 12.
[Figura 24] Figura 24 é um diagrama ilustrando um exemplo de exibição no aparelho de exibição 2.
[Figura 25] Figura 25 é um diagrama em blocos ilustrando um exemplo de estrutura de um dispositivo de conversão de imagem 101 que executa um processo de conversão de imagem usando um processo adaptável de classificação de classe. [Figura 26] Figura 26 é um fluxograma explicando um processo de conversão de imagem executado pelo dispositivo de conversão de imagem 101.
[Figura 27] Figura 27 é um diagrama em blocos ilustrando um exemplo de estrutura de um dispositivo de aprendizado 121 que aprende um coeficiente de derivação.
[Figura 28] Figura 28 é um diagrama em blocos ilustrando um exemplo de estrutura de uma unidade de aprendizado 136 do dispositivo de aprendizado 121.
[Figura 29] Figura 29 é um diagrama explicando vários processos de conversão de imagem.
[Figura 30] Figura 30 é um fluxograma explicando um processo de aprendizado executado pelo dispositivo de aprendizado 121.
[Figura 31] Figura 31 é um diagrama em blocos ilustrando um exemplo de estrutura de um dispositivo de conversão de imagem 151 que executa um processo de conversão de imagem usando o processo adaptável de classificação de classe.
[Figura 32] Figura 32 é um diagrama em blocos ilustrando um exemplo de estrutura de uma unidade de saída de coeficiente 155 do dispositivo de conversão de imagem 151.
[Figura 33] Figura 33 é um diagrama em blocos ilustrando um exemplo de estrutura de um dispositivo de aprendizado 171 que aprende dados de implante de coeficiente.
[Figura 34] Figura 34 é um diagrama em blocos ilustrando um exemplo de estrutura de uma unidade de aprendizado 176 do dispositivo de aprendizado 171.
[Figura 35] Figura 35 é um fluxograma explicando um processo de aprendizado executado pelo dispositivo de aprendizado 171.
[Figura 36] Figura 36 é um diagrama em blocos ilustrando um exemplo de estrutura de uma realização de um computador, ao qual a presente invenção é aplicada.
[Figura 37] Figura 37 é um diagrama em blocos ilustrando uma estrutura de u m exemplo de um aparelho de exibição FPD da técnica relacionada.
[Figura 38] Figura 38 é um diagrama em blocos ilustrando um exemplo de estrutura de uma realização de um dispositivo de processamento de sinal de imagem incluído em um aparelho de exibição FPD.
[Figura 39] Figura 39 é um diagrama em blocos ilustrando um exemplo de estrutura de um aparelho de exibição de CRT.
[Figura 40] Figura 40 é um fluxograma explicando um processo do dispositivo de processamento de sinal de imagem.
[Figura 41] Figura 41 é um diagrama em blocos ilustrando um exemplo de estrutura de uma unidade de processamento VM 10034.
[Figura 42] Figura 42 é um diagrama ilustrando um exemplo
de um coeficiente VM.
[Figura 43] Figura 43 é um diagrama explicando um método para determinar um coeficiente VM.
[Figura 44] Figura 44 é um diagrama ilustrando uma relação entre uma corrente de feixe de um tamanho de foco.
[Figura 45] Figura 45 é um diagrama ilustrando um mecanismo de identificação de cor.
[Figura 46] Figura 46 é um diagrama ilustrando um foco de um feixe de elétron.
[Figura 47] Figura 47 é um diagrama ilustrando um foco de
um feixe de elétron.
[Figura 48] Figura 48 é uma vista seccional em corte ilustrando uma maneira pela qual um feixe de elétron é radiado em um caso em que uma grelha de abertura é adotada como um mecanismo de separação de cor.
[Figura 49] Figura 49 é um diagrama ilustrando uma distribuição de intensidade de feixes de elétrons, que é aproximada por distribuição normal bidimensional.
[Figura 50] Figura 50 é um diagrama ilustrando uma
distribuição de intensidade de feixes de elétrons passando através de fendas na grelha de abertura.
[Figura 51] Figura 51 é um diagrama ilustrando uma distribuição de intensidade de feixes elétrons e uma distribuição de intensidade de feixes de elétrons entre os feixes de elétrons, que passam através de fendas na grelha de abertura.
[Figura 52] Figura 52 é um diagrama ilustrando uma distribuição de intensidade de feixes elétrons e uma distribuição de intensidade de feixes de elétrons entre os feixes de elétrons, que passam através de fendas em uma máscara de sombra.
[Figura 53] Figura 53 é um diagrama ilustrando uma distribuição de intensidade de feixes elétrons e uma distribuição de intensidade de feixes de elétrons entre os feixes de elétrons, que passam através de fendas na máscara de sombra.
[Figura 54] Figura 54 é um diagrama explicando a integração
para determinar a intensidade de um feixe de elétron passando através de uma fenda.
[Figura 55] Figura 55 é um diagrama ilustrando uma maneira pela qual um feixe de elétron é incidente em uma grelha de abertura servindo como um mecanismo de separação de cor.
[Figura 56] Figura 56 é um diagrama ilustrando pixéis e uma distribuição de intensidade de feixes de elétrons.
[Figura 57] Figura 57 é um diagrama ilustrando um exemplo de estrutura de um circuito para determinar uma quantidade de influência EB. [Figura 58] Figura 58 é um diagrama em blocos ilustrando um exemplo de estrutura de uma unidade de processamento EB 10220.
[Figura 59] Figura 59 é um diagrama em blocos ilustrando um outro exemplo de estrutura da unidade de processamento EB 10220.
[Figura 60] Figura 60 é um diagrama em blocos ilustrando um exemplo de estrutura de uma seção de uma unidade de processamento γ de um CRT 10035 que efetua um processo de compensação de temperatura de cor.
[Figura 61] Figura 61 é um diagrama em blocos ilustrando um outro exemplo de estrutura da unidade de processamento VM 10034.
[Figura 62] Figura 62 é um diagrama em blocos ilustrando um exemplo de estrutura de uma unidade de correção de luminância 10310.
[Figura 63] Figura 63 é um diagrama explicando um processo de correção de luminância.
[Figura 64] Figura 64 é um diagrama em blocos ilustrando um outro exemplo de estrutura da unidade de correção de luminância 10310.
[Figura 65] Figura 65 é um fluxograma explicando um processo de aprendizado para determinar um coeficiente de derivação como um coeficiente VM.
[Figura 66] Figura 66 é um fluxograma explicando um processo de aprendizado para determinar um coeficiente de predição de classe.
[Figura 67] Figura 67 é um diagrama em blocos ilustrando um exemplo de estrutura de uma realização de um computador.
[Figura 68] Figura 68 é um diagrama em blocos ilustrando um exemplo de estrutura de uma primeira realização de um dispositivo de processamento de imagem que pode prover, usando um primeiro dispositivo de exibição, reprodução de um estado no qual uma imagem é exibida em um segundo dispositivo de exibição possuindo características diferentes daquelas do primeiro dispositivo de exibição. [Figura 69] Figura 69 é um diagrama em blocos ilustrando um exemplo de estrutura de uma unidade de detecção de movimento 20100.
[Figura 70] Figura 70 é um diagrama explicando detecção de
movimento.
[Figura 71] Figura 71 é um diagrama explicando detecção de
movimento.
[Figura 72] Figura 72 é um diagrama em blocos ilustrando um exemplo de estrutura de uma unidade de desenvolvimento de sub-campo 20200.
[Figura 73] Figura 73 é um diagrama ilustrando um exemplo
de estrutura de sub-campos.
[Figura 74] Figura 74 é um diagrama ilustrando um exemplo de estrutura de sub-campos.
[Figura 75] Figura 75 é um diagrama em blocos ilustrando um exemplo de estrutura de uma unidade de integração luz-intensidade 20300.
[Figura 76] Figura 76 é um diagrama explicando geração de um pseudo contorno.
[Figura 77] Figura 77 é um diagrama ilustrando uma região de integração luz-intensidade.
[Figura 78] Figura 78 é um diagrama ilustrando uma região de
integração luz-intensidade.
[Figura 79] Figura 79 é um diagrama em blocos ilustrando um exemplo de estrutura de uma segunda realização de um dispositivo de processamento de imagem que pode prover, usando um primeiro dispositivo 25 de exibição, reprodução de um estado no qual uma imagem é exibida em um segundo dispositivo de exibição possuindo características diferentes daquelas do primeiro dispositivo de exibição.
[Figura 80] Figura 80 é um diagrama em blocos ilustrando um exemplo de estrutura de uma unidade de conversão gradação-nível 20400. [Figura 81] Figura 81 é um diagrama explicando uma operação de um circuito de conversão de pontilhamento 20404.
[Figura 82] Figura 82 é um diagrama em blocos ilustrando um exemplo de estrutura de uma terceira realização de um dispositivo de processamento de imagem que pode prover, usando um primeiro dispositivo de exibição, reprodução de um estado no qual uma imagem é exibida em um segundo dispositivo de exibição possuindo características diferentes daquelas do primeiro dispositivo de exibição.
[Figura 83] Figura 83 é um diagrama em blocos ilustrando um exemplo de estrutura de uma quarta realização de um dispositivo de processamento de imagem que pode prover, usando um primeiro dispositivo de exibição, reprodução de um estado no qual uma imagem é exibida em um segundo dispositivo de exibição possuindo características diferentes daquelas do primeiro dispositivo de exibição.
[Figura 84] Figura 84 é um diagrama em blocos ilustrando um exemplo de estrutura de uma unidade de correção de visão 20500.
[Figura 85] Figura 85 é um diagrama explicando uma operação de um circuito de conversão de pontilhamento 20501.
[Figura 86] Figura 86 é um diagrama explicando uma operação de um circuito de correção de erro difuso 20502.
[Figura 87] Figura 87 é um fluxograma ilustrando uma operação de uma primeira realização de um dispositivo de processamento de imagem que pode prover, usando um primeiro dispositivo de exibição, reprodução de um estado no qual uma imagem é exibida em um segundo dispositivo de exibição, possuindo características diferentes daquelas do primeiro dispositivo de exibição.
[Figura 88] Figura 88 é um fluxograma explicando um processo de detecção de movimento.
[Figura 89] Figura 89 é um fluxograma explicando um processo para desenvolver uma imagem através de sub-campos.
[Figura 90] Figura 90 é um fluxograma explicando um processo de integração luz-intensidade.
[Figura 91] Figura 91 é um fluxograma ilustrando uma 5 operação de uma segunda realização de um dispositivo de processamento de imagem que pode prover, usando um primeiro dispositivo de exibição, reprodução de um estado no qual uma imagem é exibida em um segundo dispositivo de exibição, possuindo características diferentes daquelas do primeiro dispositivo de exibição.
[Figura 92] Figura 92 é um fluxograma explicando um
processo de conversão gradação-nível.
[Figura 93] Figura 93 é um fluxograma ilustrando uma operação de uma terceira realização de um dispositivo de processamento de imagem que pode prover, usando um primeiro dispositivo de exibição, 15 reprodução de um estado no qual uma imagem é exibida em um segundo dispositivo de exibição, possuindo características diferentes daquelas do primeiro dispositivo de exibição.
[Figura 94] Figura 94 é um fluxograma ilustrando uma operação de uma quarta realização de um dispositivo de processamento de 20 imagem que pode prover, usando um primeiro dispositivo de exibição, reprodução de um estado no qual uma imagem é exibida em um segundo dispositivo de exibição, possuindo características diferentes daquelas do primeiro dispositivo de exibição.
[Figura 95] Figura 95 é um fluxograma explicando um processo de correção de visão.
[Figura 96] Figura 96 é um diagrama ilustrando um modelo de
exibição.
[Figura 97] Figura 97 é um diagrama ilustrando um pixel no modelo de exibição. [Figura 98] Figura 98 é um diagrama ilustrando uma região de integração luz-intensidade no modelo de exibição.
[Figura 99] Figura 99 é um diagrama ilustrando uma região de seção transversal.
[Figura 100] Figura 100 é um diagrama ilustrando a região de
seção transversal movimentando-se no modelo de exibição com o tempo T.
[Figura 101] Figura 101 é um diagrama ilustrando a região de seção transversal movimentando-se no modelo de exibição com o tempo T.
[Figura 102] Figura 102 é um fluxograma explicando um processo de integração luz-intensidade.
[Figura 103] Figura 103 é um diagrama em blocos ilustrando um outro exemplo de estrutura da unidade de integração luz-intensidade 20300.
[Figura 104] Figura 104 é um diagrama ilustrando uma tabela de valor integrado luz-intensidade.
[Figura 105] Figura 105 é um fluxograma explicando um processo de integração luz-intensidade.
[Figura 106] Figura 106 é um diagrama em blocos ilustrando um exemplo de estrutura de uma realização de um computador.
[Figura 107] Figura 107 é um diagrama em blocos ilustrando
um exemplo de estrutura de uma realização de um dispositivo de processamento de sinal de imagem que reproduz a aparência de um PDP usando uma exibição diferente de PDP.
[Figura 108] Figura 108 é um diagrama explicando um processo de reprodução de arranjo de barras.
[Figura 109] Figura 109 é um diagrama em blocos ilustrando um exemplo de estrutura de uma unidade de processamento de imagem 30001 para executar um processo de reprodução de arranjo de barras.
[Figura 110] Figura 110 é um fluxograma explicando um processo de reprodução de arranjo de barra.
[Figura 111] Figura 111 é um diagrama explicando um desvio de cor causado por uma imagem exibida em PDP.
[Figura 112] Figura 112 é um diagrama ilustrando um coeficiente a ser multiplicado por um sinal de imagem em um processo de adição de desvio de cor.
[Figura 113] Figura 113 é um diagrama em blocos ilustrando um exemplo de estrutura de uma unidade de processamento de imagem 30001 para executar um processo de adição de desvio de cor.
[Figura 114] Figura 114 é um fluxograma explicando um
processo de adição de desvio de cor.
[Figura 115] Figura 115 é um diagrama explicando um processo de reprodução de passo inter-pixel.
[Figura 116] Figura 116 é um diagrama explicando um exemplo de estrutura de uma unidade de processamento de imagem 30001 para executar um processo de reprodução de passo inter-pixel.
[Figura 117] Figura 117 é um fluxograma explicando um processo de reprodução de passo inter-pixel.
[Figura 118] Figura 118 é um diagrama explicando um processo de adição de pontilhamento espacial.
[Figura 119] Figura 119 é um diagrama em blocos ilustrando um exemplo de estrutura de uma unidade de processamento de imagem 30001 para executar um processo de adição de pontilhamento espacial.
[Figura 120] Figura 120 é um diagrama ilustrando uma tabela de busca armazenada em uma ROM de configuração de pontilhamento espacial 30043.
[Figura 121] Figura 121 é um fluxograma explicando um processo de adição de pontilhamento espacial.
[Figura 122] Figura 122 é um diagrama em blocos ilustrando um exemplo de estrutura de uma unidade de processamento de imagem 30001 para efetuar um processo de adição de pontilhamento temporal.
[Figura 123] Figura 123 é um fluxograma explicando um processo de adição de pontilhamento temporal.
[Figura 124] Figura 124 é um diagrama em blocos ilustrando um exemplo de estrutura de uma unidade de processamento de imagem 30001 para executar todo o processo de adição de desvio de cor, processo de adição de pontilhamento espacial, processo de adição de pontilhamento temporal, processo de reprodução de passo inter-pixel e processo de reprodução de arranjo de barra.
[Figura 125] Figura 125 é um fluxograma explicando um processo da unidade de processamento de imagem 30001.
[Figura 126] Figura 126 é um diagrama em blocos ilustrando um exemplo de estrutura de uma realização de um computador.
Explicação dos Numerais de Referência
1 aparelho de controle de exibição, 2 aparelho de exibição, 3 controlador remoto, 11 unidade de conversão de imagem, 12 unidade de processamento de sinal, 12j primeira unidade de processamento de sinal, 122 segunda unidade de processamento de sinal, 123 terceira unidade de processamento de sinal, 13 unidade de controle de exibição, 14 unidade de controle, 311, 312, 313 unidade de conversão de imagem, 411, 412, 413 unidade de processamento de simulação, 51, 52 unidade de conversão de imagem, 61 unidade de processamento de reforço, 62 unidade de processamento gama adaptável, 63 unidade de processamento de alta taxa de quadro, 711, 712, 713 unidade de geração de imagem de pseudo polegadas, 111 unidade de seleção de pixel de interesse, 112, 113 unidade de seleção de derivação, 114 unidade de classificação de classe, 115 unidade de saída de coeficiente, 116 unidade de computação preditiva, 121 dispositivo de aprendizado, 131 unidade de armazenagem de imagem de aprendizado, 132 unidade de geração de dados de professor, 133 unidade de armazenagem de dados de professor, 134 unidade de geração de dados de estudante, 135 unidade de armazenagem de dados de estudante, 136 unidade de aprendizado, 141 unidade de seleção de pixel de interesse, 142, 143 unidade de seleção de derivação, 145 unidade de adição adicional, 146 unidade de cálculo de coeficiente de derivação, 151 dispositivo de conversão de imagem, 155 unidade de saída de coeficiente, 161 unidade de geração de coeficiente, 162 memória de implantação de coeficiente, 163 memória de parâmetro, 164 memória de coeficiente, 174 unidade de geração de dados de estudante, 176 unidade de aprendizado, 181 unidade de geração de parâmetro, 192, 193 unidade de seleção de derivação, 195 unidade de adição adicional, 196 unidade de cálculo de implante de coeficiente, 201 barramento, 202 CPU, 203 ROM, 204 RAM, 205 disco rígido, 206 unidade de saída, 207 unidade de entrada, 208 unidade de comunicação, 209 controlador, 210 interface de entrada/saída, 211 meio de gravação removível, 10011 unidade de ajuste de contraste ajuste de brilho,
10012 unidade de processamento de melhoramento de qualidade de imagem,
10013 unidade de correção de γ, 10031 unidade de ajuste de contraste ajuste de brilho, 10032 unidade de processamento de melhoramento de qualidade de imagem, 10033 unidade de processamento ABL, 10034 unidade de processamento VM, 10035 unidade de processamento γ de um CRT, 10036 unidade de detecção de nível médio de brilho de tela cheia, 10037 unidade de detecção de valor de controle diferencial de detecção de pico, 10038 unidade de controle ABL, 10039 unidade de controle VM, unidade de controle de compensação de temperatura de cor de exibição 10040, 10051 unidade de ajuste de contraste ajuste de brilho, 10052 unidade de processamento de melhoramento de qualidade de imagem, 10053 unidade de ajuste de ganho, 10054 unidade de correção de γ, 10055 amplificador de vídeo, 10056 CRT, 10057 FBT, 10058 unidade de detecção de corrente de feixe, 10059 unidade de controle ABL, 10060 circuito de diferenciação de sinal de imagem, 10061 circuito de acionamento VM, 10101 barramento, 10102 CPU, 10103 ROM, 10104 RAM. 10105 disco rígido, 10106 unidade de saída, 10107 unidade de entrada, 10108 unidade de comunicação, 10109 controlador, 10110 interface de entrada/saída, 10111 meio de gravação removível, 10210 unidade de 5 correção de luminância, 10211 unidade de geração de coeficiente VM, 10212 unidade de computação, 10220 unidade de processamento EB, 10241 unidade de geração de coeficiente EB, 10242A a 10242D e 10242F a 102421 unidade de computação, EB 10250 unidade de função, 10251 a 10259 unidade de retardo, 10260 unidade de geração de coeficiente EB, 10261 unidade de 10 operação produto-soma, 10271, 10272 seletor, 10281 unidade de controle, 10282 unidade de desvio de nível, 10283 unidade de ajuste de ganho, 10310 unidade de correção de luminância, 10311 unidade de ajuste de temporização de retardo, 10312 circuito de diferenciação, 10313 unidade de processamento de limiar, 10314 unidade de processamento de conformação de forma de 15 onda, 10315 circuito multiplicador, 10321 unidade de seleção de derivação, 10322 unidade de classificação de classe, 10323 unidade de armazenagem de coeficiente de predição de classe, 10324 unidade de predição, 10325 unidade de decisão de classe, 10326 unidade de armazenagem de coeficiente de derivação, 10327 unidade de predição, 20100 unidade de detecção de 20 movimento, 20101 circuito de cálculo de correlação, 20102 circuito de retardo, 20103 circuito de decisão de linha de visada, 20200 unidade de desenvolvimento de sub-campo, 20201 circuito de designação de sub-campo, 20202 circuito de decisão de emissão de luz, 20300 unidade de integração luz-intensidade, 20301 circuito de decisão de região de integração Iuz- 25 intensidade, 20302 circuito de integração luz-intensidade, 20303 unidade de armazenagem de tabela de valor integrado luz-intensidade, 20304 circuito de seleção de região de integração luz-intensidade, 20400 unidade de conversão gradação-nível, 20401 circuito de retardo, 20402 circuito de conversão gradação-nível, 20403 tabela de conversão gradação-nível, 20404 circuito de conversão de pontilhamento, 405, 406 unidades de computação, 20500 unidade de correção de visão, 20501 unidade de correção de pontilhamento, 20502 circuito de correção de erro difundido, 21101 barramento, 21102 CPU, 21103 ROM, 21104 RAM, 21105 disco rígido, 21106 unidade de saída, 21107 unidade de entrada, 21108 unidade de comunicação, 21109 controlador, 21110 interface entrada/saída, 21111 meio de gravação removível, 30001 unidade de processamento de imagem, 30002 monitor, 30011 circuito de formação de magnificação/barras, 30012 circuito de redimensionamento/reamostragem, 30021 memória de quadro corrente, 30022 memória de quadro precedente, 30023 circuito de corte de porção de borda, 30024 circuito de detecção de movimento, 30025 circuito de multiplicação de coeficiente de cor, 30031 circuito de processamento de magnificação, 30032 circuito de decréscimo de luminância inter-pixel, 30041 circuito de extração de porção suave, 30042 circuito de comparação de cor, 30043 ROM de configuração de pontilhamento espacial, 30044 circuito de adição de pontilhamento, 30051 circuito de comparação de cor,30052 ROM de configuração de pontilhamento temporal, 30053 circuito de adição de pontilhamento, 30054 a 30056 memória de saída, 30060 unidade de processamento de imagem, 30061 memória de quadro corrente, 30062 memória de quadro precedente, 30063 circuito de corte de porção de borda, 30064 circuito de detecção de movimento, 30065 circuito de multiplicação de coeficiente de cor, 30070 unidade de processamento de imagem. 30071 circuito de comparação de cor, 30072 ROM de configuração de pontilhamento temporal/espacial, 30073 circuito de adição de pontilhamento, 30074 a 30076 memória de saída, 30080 unidade de processamento de imagem, 30081 circuito de processamento de magnificação, 30082 circuito de formação de barras, 30083 circuito de decréscimo de luminância inter-pixel, 30101 barramento, 30102 CPU, 30103 ROM, 30104 RAM, 30105 disco rígido, 30106 unidade de saída, 30107 unidade de entrada, 30108 unidade de comunicação, 30109 controlador, 30110 interface de entrada/saída, 30111 meio de gravação removível.
Melhores Modos para Realizar a Invenção
Figura 1 é um diagrama em blocos ilustrando um exemplo de 5 estrutura de uma realização de um sistema de monitor ao qual a presente invenção é aplicada (o termo sistema refere-se a um conjunto lógico de diversos aparelhos, independente dos aparelhos constituintes individuais residirem ou não no mesmo invólucro).
O sistema de monitor é construído a partir de um aparelho de controle de exibição 1, um aparelho de exibição 2 e um controlador remoto 3 e é usado, por exemplo, em uma estação de radiodifusão ou similar para transmissão de televisão para verificar a qualidade de imagem ou similar.
O sistema de monitor é fornecido, como dados de imagem de entrada a serem inseridos no sistema de monitor, com saída de dados de 15 imagem a partir de uma câmera para capturar imagens, saída de dados de imagem a partir de um dispositivo de edição para editar assim chamado material bruto, saída de dados de imagem a partir de um decodificador para decodificar dados codificados, codificados usando um esquema MPEG (Grupo de Especialistas de Imagens Moveis) ou similar, ou outros dados de 20 imagem de uma imagem móvel de um programa que ainda não tenha sido transmitido a partir da estação de transmissão ou similar.
Então, no sistema de monitor, a exibição de uma imagem correspondente a dados de imagem de um programa que ainda não tenha sido transmitido, como dados de imagem de entrada, em um aparelho de exibição 25 (um aparelho de exibição de um tipo diferente daquele do aparelho de exibição 2) no lado de recepção em uma residência ou similar é simulada (emulada). Isto é, uma imagem que seria exibida se uma imagem correspondente aos dados de imagem de entrada fosse exibida em vários aparelhos de exibição no lado de recepção que recebe os dados de imagem de entrada. Isto permite que um avaliador ou similar que verifica (avalia) a qualidade de imagem ou similar verifique, exibindo a imagem exibida, a qualidade de imagem ou similar com a qual a imagem correspondente aos dados de imagem de entrada é exibida em um aparelho de exibição no lado de 5 recepção.
O aparelho de controle de exibição 1 é construído a partir de uma unidade de conversão de imagem 11, uma unidade de processamento de sinal 12, uma unidade de controle de exibição 13 e uma unidade de controle 14. O aparelho de controle de exibição 1 executa um processo de sinal 10 predeterminado nos dados de imagem de entrada para fazer com que uma imagem correspondente aos dados de imagem de entrada seja exibida em uma região de exibição que é uma parte de uma tela do aparelho de exibição 2 e fazer com que uma imagem correspondente a dados de imagem processados obtidos pelo processo de sinal predeterminado seja exibida em uma região de 15 exibição que é uma outra parte da tela.
Isto é, os dados de imagem de entrada são fornecidos à unidade de conversão de imagem 11. A unidade de conversão de imagem 11 exibe os dados de imagem de entrada como dados de imagem de verificação a serem verificados para determinar qual imagem é exibida em um aparelho de 20 exibição no lado de recepção, e submete estes dados de imagem de verificação a um processo de conversão de imagem para converter o número de pixéis, se necessário. A unidade de conversão de imagem 11 fornece dados de imagem de verificação resultantes à unidade de processamento de sinal 12 e à unidade de controle de exibição 13.
Na realização da Figura 1, a unidade de processamento de
sinal 12 é construída de três unidades, uma primeira unidade de processamento de sinal 12], uma segunda unidade de processamento de sinal 122 e uma terceira unidade de processamento de sinal 123. A unidade de processamento de sinal 12 submete os dados de imagem de verificação a partir da unidade de conversão de imagem Ila um processo de sinal para permitir que uma imagem seja exibida se a imagem correspondente aos dados de imagem de entrada (dados de imagem de verificação) seja exibida em um aparelho de exibição no lado de recepção a ser exibido no aparelho de exibição 2, e fornece dados de imagem processados obtidos por este processo de sinal à unidade de controle de exibição 13.
Isto é, a primeira unidade de processamento de sinal 12] submete os dados de imagem de verificação da unidade de conversão de imagem Ila um processo de sinal de acordo com o controle a partir da unidade de controle 14, e fornece dados de imagem processados obtidos por este processo de sinal à unidade de controle de exibição 13.
Como a primeira unidade de processamento de sinal 12i, a segunda unidade de processamento de sinal 122 e a terceira unidade de processamento de sinal 123 também submetem os dados de imagem de verificação a partir da unidade de conversão de imagem Ila processos de sinal individuais de acordo com o controle da unidade de controle 14, e fornecem dados de imagem processados obtidos pelos processo de sinal à unidade de controle de exibição 13.
A unidade de controle de exibição 13 faz com que, de acordo com o controle da unidade de controle 14, uma imagem correspondente aos dados de imagem de verificação fornecidos a partir da unidade de conversão de imagem 11 seja exibida em uma região de exibição que é uma parte da tela do aparelho de exibição 2. Adicionalmente, a unidade de controle de exibição 13 faz com que, de acordo com o controle da unidade de controle 14, uma imagem correspondente aos dados de imagem processados a partir de cada primeira unidade de processamento de sinal I2t, segunda unidade de processamento de sinal 122 e terceira unidade de processamento de sinal 123 seja exibida em uma região de exibição que é uma outra parte da tela do aparelho de exibição 2. Notar que a unidade de controle de exibição 13 controla a posição ou tamanho de uma imagem a ser exibida no aparelho de exibição 2 de acordo com um parâmetro fornecido a partir da unidade de controle 14.
Aqui, os dados de imagem processados fornecidos 5 individualmente à unidade de controle de exibição 13 a partir da primeira unidade de processamento de sinal 121? segunda unidade de processamento de sinal 122 ou terceira unidade de processamento de sinal 123 são posteriormente referidos também como primeiros dados de imagem processados, segundos dados de imagem processados ou terceiros dados de 10 imagem processados, respectivamente, se desejado.
A unidade de controle 14 recebe um sinal de operação enviado a partir do controlador remoto 3 ou de uma unidade de operação (não ilustrada) provido no aparelho de controle de exibição 1, e controla a primeira unidade de processamento de sinal 12i, a segunda unidade de processamento 15 de sinal 122, a terceira unidade de processamento de sinal 123 e a unidade de controle de exibição 13 em correspondência com este sinal de operação. Adicionalmente, a unidade de controle 14 fornece um parâmetro necessário para um processo e outras informações a blocos individuais, a saber, a primeira unidade de processamento de sinal 12l9 a segunda unidade de 20 processamento de sinal 122, a terceira unidade de processamento de sinal 123 e a unidade de controle de exibição 13.
O aparelho de exibição 2 é, por exemplo, um aparelho que exibe uma imagem em um LCD (Visor de Cristal Líquido) e possui uma tela com um número maior de pixéis que o número de pixéis dos dados de 25 imagem de verificação fornecidos a partir da unidade de conversão de imagem 11 à unidade de processamento de sinal 12 e unidade de controle de exibição 13. Então, o aparelho de exibição 2 exibe, de acordo com o controle da unidade de controle de exibição 13, uma imagem correspondente aos dados de imagem de verificação em uma região de exibição que é uma parte da tela e também exibe cada uma das imagens correspondentes aos primeiros dados de imagem processados, segundos dados de imagem processados e terceiros dados de imagem processados em uma região de exibição que é uma outra parte da tela.
O controlador remoto 3 é operado, por exemplo, por um avaliador ou similar que verifica a qualidade de imagem ou similar com a qual a imagem correspondente aos dados de imagem de verificação, e portanto os dados de imagem de entrada, é exibida em um aparelho de exibição no lado de recepção, e envia um sinal de operação correspondente a esta operação à unidade de controle 14, sem fio, tal como via ondas de infravermelho.
Figura 2 ilustra um exemplo de estrutura da tela do aparelho de
exibição 2.
No aparelho de exibição 2, a tela deste é igualmente dividida horizontalmente e verticalmente, para produzir quatro regiões de exibição #0, # 1, #2 e #3 em cada uma das quais uma imagem é exibida.
Isto é, no aparelho de exibição 2, uma imagem correspondente aos dados de imagem de verificação é exibida na região de exibição esquerda superior #0 das quatro regiões de exibição #0 a #3, uma imagem correspondente aos primeiros dados de imagem processados é exibida na região de exibição direita superior #1, uma imagem correspondente aos segundos dados de imagem processados é exibida na região de exibição esquerda inferior #2 e uma imagem correspondente aos terceiros dados de imagem processados é exibida na região de exibição direita inferior #3.
Aqui, é suposto que os pixéis constituindo a tela do aparelho de exibição 2 são posteriormente referidos como pixéis de monitor, conforme desejado, no sentido de identificá-los dos pixéis de dados de imagem. Então, a tela do aparelho de exibição 2 é construída com 2H x 2V pixéis de monitor (pixéis de monitor, cujo número é 2H x 2V) dados em ordem horizontal e vertical. Portanto, as regiões de exibição #0 a #3 são construídas cada uma com HxV pixéis de monitor.
Notar que, por exemplo, se o número H de pixéis de monitor horizontais da região de exibição #i (i = 0, 1, 2, 3) é 1920 e o número V de pixéis de monitor vertical é 1080, uma imagem HDTV (Televisão de Alta Definição) possuindo uma relação de aspecto de 16:9 pode ser exibida na região de exibição #i.
Adicionalmente, na presente realização, a tela do aparelho de exibição 2 é segmentada nas quatro regiões de exibição #0 a #3, cada uma das quais regiões de exibição #0 a #3 sendo vista como uma assim chamada tela virtual, e uma imagem é exibida em cada uma das regiões de exibição #0 a #3. No aparelho de exibição 2, entretanto, uma imagem pode ser exibida através das quatro regiões de exibição #0 a #3, isto é, na tela inteira do aparelho de exibição 2.
Conforme descrito acima, é suposto que a região de exibição #i é construída com 1920 x 1080 pixéis de monitor. Então, em um caso em que uma imagem é exibida na tela inteira do aparelho de exibição 2, uma imagem possuindo definição mais alta que uma imagem de HDTV, que é construída com [2 x 1920] x [2 x 1080] pixéis, pode ser exibida no aparelho de exibição 2.
A seguir, o processo do sistema de monitor da Figura 1 será explicado com referência a um fluxograma da Figura 3.
Quando dados de imagem de entrada são fornecidos de fora à unidade de conversão de imagem 11 do aparelho de controle de exibição 1, na etapa S11, a unidade de conversão de imagem 11 vê os dados de imagem de entrada como dados de imagem de verificação, e determina se estes dados de imagem de verificação são construídos ou não com o mesmo número de pixéis que o número de, por exemplo, pixéis de monitor constituindo a região de exibição #0. Isto é, a unidade de conversão de imagem 11 determina se os dados de imagem de verificação são ou não construídos com HxV pixéis.
Na etapa S11, em um caso em que é determinado que os dados de imagem de verificação são construídos com HxV pixéis que são os mesmos pixéis de monitor constituindo a região de exibição #0, o processo pula a etapa S12 e avança para a etapa S13.
Também, na etapa Sl 1, em um caso em que é determinado que os dados de imagem de verificação são construídos com um número de pixéis diferente de H x V pixéis que são os mesmos dos pixéis de monitor constituindo a região de exibição #0, o processo avança para a etapa S12, na qual a unidade de conversão de imagem 11 executa um processo de conversão de imagem nos dados de imagem de verificação para converter o número de pixéis dos dados de imagem de verificação em HxV pixéis, cujo número é o mesmo do número de pixéis dos pixéis de monitor constituindo a região de exibição #0. A unidade de conversão de imagem 11 fornece dados de imagem de verificação obtidos após o processo de conversão da imagem para a unidade de processamento de sinal 12 e a unidade de controle de exibição 13. O processo avança para a etapa S13.
Na etapa S13, cada uma dentre a primeira unidade de processamento de sinal 12j, segunda unidade de processamento de sinal 122 e terceira unidade de processamento de sinal 123 constituindo a unidade de processamento de sinal 12 submete os dados de imagem de verificação a partir da unidade de conversão de imagem Ila um processo de sinal de acordo com o controle a partir da unidade de controle 14. Os primeiros dados de imagem processados, segundos dados de imagem processados e terceiros dados de imagem processados obtidos pelos processos de sinal são fornecidos à unidade de controle de exibição 13.0 processo avança para a etapa S14.
Na etapa S14, a unidade de controle de exibição 13 faz com que, de acordo com a unidade de controle 14, uma imagem correspondente aos dados de imagem de verificação a partir da unidade de conversão de imagem 11 seja exibida na região de exibição #0 do aparelho de exibição 2.
Ainda mais, na etapa S14, a unidade de controle de exibição 13 faz com que, de acordo com o controle da unidade de controle 14, uma imagem correspondente aos primeiros dados de imagem processados a partir da primeira unidade de processamento de sinal 12] sejam exibidos na região de exibição # 1, uma imagem correspondente aos segundos dados de imagem processados a partir da segunda unidade de processamento de sinal 122 sejam exibidos na região de exibição #2 e uma imagem correspondente aos terceiros dados de imagem processados a partir da terceira unidade de processamento de sinal 123 sejam exibidos na região de exibição #3.
Da maneira acima, uma imagem correspondente aos dados de imagem de verificação é exibida na região de exibição #0, e uma imagem correspondente a primeiros dados de imagem processados obtidos submetendo os dados de imagem de verificação a um processo de sinal predeterminado, isto é, uma imagem que seria exibida se a imagem correspondente aos dados de imagem de verificação fosse exibida em um certo tipo de aparelho de exibição no lado de recepção, é exibida na região de exibição # 1.
Também, uma imagem correspondente aos segundos dados de imagem processados obtida submetendo os dados de imagem de verificação a um processo de sinal predeterminado, isto é, uma imagem que seria exibida se a imagem correspondente aos dados de imagem de verificação fosse exibida em um outro tipo de aparelho de exibição no lado de recepção, é exibida na região de exibição #2, e uma imagem correspondente aos terceiros dados de imagem processados obtida submetendo os dados de imagem de verificação a um processo de sinal predeterminado, isto é, uma imagem que seria exibida se a imagem correspondente aos dados de imagem de verificação fosse exibida ainda em um outro tipo de aparelho de exibição no lado de recepção, é exibida na região de exibição #3. Portanto, a imagem exibida na região de exibição #0 pode ser usada para verificar a qualidade de imagem, por exemplo, S/N (Relação Sinal Ruído) ou similar, dos dados de imagem do programa. Adicionalmente, as imagens exibidas nas regiões de exibição #1 a #3 podem ser usadas para verificar como a imagem exibida na região de exibição #0 é exibida em vários tipos de aparelhos de exibição no lado de recepção.
Adicionalmente, uma vez que o aparelho de exibição 2 possui uma tela com um número maior de pixéis de monitor que o número de pixéis do dados de imagem de verificação de H x V pixéis, conforme ilustrado na Figura 2, a imagem correspondente aos dados de imagem de verificação é exibida em uma região de exibição que é parte da tela, por exemplo, na região de exibição #0. Ao mesmo tempo, imagens correspondentes a dados de imagem processados obtidos submetendo os dados de imagem de verificação a processos de sinal predeterminados, isto é, imagens que seriam exibidas se a imagem correspondente aos dados de imagem de verificação fosse exibida nos aparelhos de exibição no lado de recepção, pode ser exibida em regiões de exibição que são outras partes da tela, a saber, nas regiões de exibição # 1, #2, #3.
Portanto, a imagem correspondente aos dados de imagem de verificação e a um estado desta imagem a ser exibida em um aparelho de exibição no lado de recepção, isto é, uma imagem degradada com qualidade na degradação de imagem ou similar causada antes dos dados de imagem de verificação serem transmitidos como um programa e serem recebidos e exibidos no aparelho de exibição no lado de recepção, podem ser comparados uns com os outros para verificar o estado de degradação da imagem (imagem degradada) a ser exibida no aparelho de exibição no lado de recepção. E o estado de degradação da imagem a ser exibida no aparelho de exibição no lado de recepção pode ser qualitativamente levada em conta e edição (reedição) ou similar do programa pode ser efetuada. Também, a imagem correspondente aos dados de imagem de verificação e as imagens correspondentes aos dados de imagem de verificação são exibidas em uma tela fisicamente única do aparelho de exibição 2. Então, não é necessário levar em conta várias diferenças nas características entre aparelhos de exibição, o que pode causar um problema em um caso em que a imagem correspondente aos dados de imagem de verificação e as imagens correspondentes aos dados de imagem processados são exibidos em diferentes aparelhos de exibição.
A seguir, Figura 4 ilustra um primeiro exemplo de estrutura da unidade de processamento de sinal 12 da Figura 1.
Na Figura 4, a primeira unidade de processamento de sinal 12j da unidade de processamento de sinal 12 é construída a partir de uma unidade de conversão de imagem 311, a segunda unidade de processamento de sinal 122 é construída a partir de uma unidade de conversão de imagem 312 e a terceira unidade de processamento de sinal 123 é construída a partir de uma unidade de conversão de imagem 313.
A unidade de conversão de imagem 31 j ( i = 1, 2 3) é fornecida como os dados de imagem de verificação a partir da unidade de conversão de imagem 11 (Figura 1) e é também fornecida com informação de fator de magnificação, a partir da unidade de controle 14 (Figura 1), indicando fatores de magnificação m, m’ e m” (> 1) para magnificar uma imagem.
Então, a unidade de conversão de imagem 31; executa um processo de sinal equivalente a um processo para magnificar uma imagem que é efetuado por um aparelho de exibição no lado da recepção, sobre os dados de imagem de verificação a partir da unidade de conversão de imagem 11, de acordo com a informação de fator de magnificação fornecida a partir da unidade de controle 14.
Isto é, alguns aparelhos de exibição no lado de recepção possuem uma função de magnificação para executar um processo de magnificar uma imagem, servindo como um programa para uma estação de transmissão. A unidade de conversão de imagem 31; efetua um processo de sinal equivalente a um processo para magnificar uma imagem, que é executado por tal aparelho de exibição no lado de recepção.
Especificamente, a unidade de conversão de imagem 311 efetua um processo de conversão de imagem para converter os dados de imagem de verificação da unidade de conversão de imagem 11 em dados de imagem magnificados m vezes, o que é produzido magnificando os dados de imagem de verificação m vezes, de acordo com a informação de fator de magnificação fornecida a partir da unidade de controle 14. A unidade de conversão de imagem 31) fornece dados de imagem magnificados m vezes obtidos por este processo de conversão de imagem à unidade de controle de exibição 13 (Figura 1) como dados de imagem processados.
A unidade de conversão de imagem 312 executa um processo de conversão de imagem para converter os dados de imagem de verificação da unidade de conversão de imagem 11 em dados de imagem magnificados m’ vezes, o que é produzido magnificando os dados de imagem de verificação m’ vezes, de acordo com a informação de fator de magnificação fornecida a partir da unidade de controle 14, e fornece os dados de imagem magnificados m’ vezes obtidos por este processo de conversão de imagem à unidade de controle de exibição 13, como dados de imagem processados. De modo similar, a unidade de conversão de imagem 313 executa um processo de conversão de imagem para converter os dados de imagem de verificação da unidade de conversão de imagem 11 em dados de imagem magnificados m’ ’ vezes, o que é produzido magnificando os dados de imagem de verificação m” vezes, de acordo com a informação de fator de magnificação fornecida a partir da unidade de controle 14, e fornece os dados de imagem magnificados m” vezes obtidos por este processo de conversão de imagem à unidade de controle de exibição 13, como dados de imagem processados.
Figura 5 ilustra um exemplo de visor no aparelho de exibição 2, em um caso em que a unidade de processamento de sinal 12 é construída conforme ilustrado na Figura 4.
No aparelho de exibição 2, uma imagem correspondente aos
dados de imagem de verificação (posteriormente referidos também como uma imagem de verificação, se desejado) é exibida na região de exibição #0. Também, uma imagem correspondente aos dados de imagem magnificados m vezes, uma imagem correspondentes aos dados de imagem magnificados m’ 10 vezes, e uma imagem correspondentes aos dados de imagem magnificados m” vezes são exibidas na região de exibição #1, região de exibição #2 e região de exibição #3, respectivamente.
Portanto, em um aparelho de exibição possuindo uma função de magnificação entre aparelhos de exibição no lado de recepção, em um caso 15 em que uma imagem servindo como um programa de uma estação de transmissão é magnificada e exibida usando a função de magnificação, o estado da imagem exibida (a qualidade de imagem ou similar de uma imagem magnificada) pode ser verificado.
Notar que os fatores de magnificação m, m’ e m” podem ser especificados, por exemplo, operando o controlador remoto 3 (Figura 1).
Incidentalmente, a unidade de conversão de imagem 311 da Figura 4 (também nas outras unidade de conversão de imagem 312 e unidade de conversão de imagem 313), os dados de imagem de verificação são convertidos em dados de imagem magnificados m vezes produzidos 25 aumentando o número de pixéis em cada uma das direções horizontal e vertical m vezes, usando o processo de conversão de imagem.
Na presente realização, conforme descrito acima, os dados de imagem de verificação são construídos com HxV pixéis, cujo número é o mesmo que o número de pixéis da região de exibição #i construída com HxV pixéis de monitor. Então, os dados de imagem magnificados m vezes são construídos mH x mV pixéis.
Portanto, a imagem inteira correspondente aos dados de imagem magnificados m vezes construídos com mH x mV pixéis não podem ser exibidos na região de exibição #1. Então, conforme ilustrado na Figura 6, uma porção de uma imagem de mH x mV pixéis correspondendo aos dados de imagem magnificados m vezes, é exibida na região de exibição # 1.
Isto é, Figura 6 ilustra um exemplo da exibição da imagem de mH x mV pixéis correspondente aos dados de imagem magnificados m vezes. Na região de exibição #1 construída com HxV pixéis de
monitor, a porção de uma região de H x V pixéis dentro da imagem de mH x mV pixéis correspondente aos dados de imagem magnificados m vezes, é exibida.
Agora, se é suposto que uma região de verificação de imagem 15 (uma porção indicada por hachurado diagonal na Figura 6) correspondente à região de H x V pixéis a ser exibida na região de exibição #1 dentro da imagem de mH x mV pixéis correspondente aos dados de imagem magnificados m vezes, é referida como uma região de alcance de exibição, a região de alcance de exibição pode ser especificada, por exemplo, operando o 20 controlador remoto 3. A unidade de controle de exibição 13 faz com que uma porção da imagem de mH x mV pixéis correspondente aos dados de imagem magnificados m vezes seja exibida na região de exibição #1 de acordo com a região de alcance de exibição especificada.
Então, por exemplo, a região de alcance de exibição na imagem de verificação pode ser exibida de modo a ser superposta sobre a imagem de verificação na região de exibição #0, onde a imagem de verificação é exibida.
A seguir, Figura 7 ilustra um segundo exemplo de estrutura da unidade de processamento de sinal 12 da Figura 1. Na Figura 7, a primeira unidade de processamento de sinal 12] da unidade de processamento de sinal 12 é construída a partir de uma unidade de processamento de simulação 411, a segunda unidade de processamento de sinal 122 é construída a partir de uma unidade de processamento de simulação
412 e a terceira unidade de processamento de sinal 123 é construída a partir de uma unidade de processamento de simulação 413.
A unidade de processamento de simulação 41; (i = 1, 2, 3) é suprida com os dados de imagem de verificação a partir da unidade de conversão de imagem 11 (Figura 1), e é também suprida com informação de tipo, a partir da unidade de controle 14 (Figura 1) indicando o tipo de um dispositivo de exibição que exibe uma imagem.
Então, a unidade de processamento de simulação 41j efetua, de acordo com a informação de tipo suprida a partir da unidade de controle 14, um processo de sinal sobre os dados de imagem de verificação a partir da unidade de conversão de imagem 11 para gerar, como dados de imagem processados, dados de imagem para exibir na região de exibição #i do aparelho de exibição 2 uma imagem equivalente a uma imagem a ser exibida em um outro aparelho de exibição possuindo uma característica de exibição diferente daquela do aparelho de exibição 2, quando a imagem de verificação é exibida no outro aparelho de exibição.
Isto é, enquanto, conforme descrito acima, o aparelho de exibição 2 é construído a partir de um LCD, um aparelho de exibição no lado de recepção pode ser um aparelho de exibição possuindo um dispositivo de exibição apresentando características de exibição diferentes daquelas de um LCD, por exemplo, um CRT (Tubo de Raios Catódicos), um PDP (Painel de Visor de Plasma), um visor EL orgânico (Eletroluminescência), um FED (Visor de Emissão de Campo) ou similar. Também, no futuro, aparelhos de exibição possuindo novos dispositivos de exibição podem ser desenvolvidos.
Então, a unidade de processamento de simulação 41; efetua um processo de sinal para gerar, como dados de imagem processados, dados de imagem para exibir, na região de exibição #i do aparelho de exibição 2, uma imagem equivalente à imagem de verificação a ser exibida em tal aparelho de exibição no lado de recepção, possuindo uma característica de exibição diferente daquela do aparelho de exibição 2.
Aqui, dados de imagem para exibir no aparelho de exibição 2 de LCD uma imagem equivalente à imagem de verificação a ser exibida em um aparelho de exibição possuindo um visor EL orgânico no lado de recepção, são referidos como dados de imagem EL pseudo-orgânicos, e um processo de sinal para gerar os dados de imagem EL pseudo-orgânicos, a partir dos dados de imagem de verificação é referido como um processo de simulação EL orgânico,
Também, dados de imagem para exibição no aparelho de exibição 2 de LCD de uma imagem equivalente à imagem de verificação a ser exibida em um aparelho de exibição possuindo um PDP no lado de recepção são referidos como dados de imagem pseudo-PDP, e um processo de sinal para gerar os dados de imagem pseudo-PDP a partir dos dados de imagem de verificação é referido como um processo de simulação PDP.
Adicionalmente, dados de imagem para exibição no aparelho de exibição 2 de LCD de uma imagem equivalente à imagem de verificação a ser exibida em um aparelho de exibição possuindo um CRT no lado de recepção são referidos como dados de imagem pseudo-CRT, e um processo de sinal para gerar os dados de imagem pseudo-CRT a partir dos dados de imagem de verificação é referido como um processo de simulação CRT.
Neste caso, a unidade de processamento de simulação 411 efetua, de acordo com a informação de tipo fornecida a partir da unidade de controle 14, por exemplo, um processo de simulação EL orgânico para gerar dados de imagem EL pseudo-orgânicos a partir dos dados de imagem de verificação da unidade de conversão de imagem 11, e fornece dados de imagem EL pseudo-orgânicos obtidos por este processo de simulação EL orgânico à unidade de controle de exibição 13 (Figura 1) como dados de imagem processados.
A unidade de processamento de simulação 412 efetua, de acordo com a informação de tipo fornecida a partir da unidade de controle 14, de acordo com a informação de tipo fornecida a partir da unidade de controle 14, por exemplo, um processo de simulação PDP para gerar dados de imagem pseudo-PDP a partir dos dados de imagem de verificação da unidade de conversão de imagem 11, e fornece dados de imagem pseudo-PDP obtidos por este processo de simulação PDP à unidade de controle de exibição 13 como dados de imagem processados.
De modo similar, a unidade de processamento de simulação
413 também efetua de acordo com a informação de tipo fornecida a partir da unidade de controle 14, por exemplo, um processo de simulação CRT para gerar dados de imagem pseudo-CRT a partir dos dados de imagem de verificação da unidade de conversão de imagem 11, e fornece dados de imagem pseudo-CRT obtidos por este processo de simulação CRT à unidade de controle de exibição 13 como dados de imagem processados.
Figura 8 ilustra um exemplo de exibição no aparelho de exibição 2, em um caso em que a unidade de processamento de sinal 12 é construída conforme ilustrado na Figura 7.
No aparelho de exibição 2 possuindo um LCD, a imagem de verificação é exibida na região de exibição #0. Também, uma imagem correspondente aos dados de imagem EL pseudo-orgânicos, uma imagem correspondente aos dados de imagem pseudo-PDP e uma imagem correspondente aos dados de imagem pseudo-CRT é exibida na região de exibição #1, região de exibição #2 e região de exibição #3, respectivamente.
Portanto, a qualidade de imagem ou similar com a qual uma imagem servindo como um programa para uma estação de transmissão é exibida em cada um dentre um aparelho de exibição possuindo um LCD, um aparelho de exibição possuindo um painel de exibição EL orgânico, um aparelho de exibição apresentando um PDP e um aparelho de exibição possuindo um CRT, entre os aparelhos de exibição no lado de recepção, pode ser verificada.
Notar que a característica de exibição de um dispositivo de exibição incluído em um aparelho de exibição no qual uma imagem equivalente à imagem de verificação deve ser exibida executando usando a unidade de processamento de simulação 41j da Figura 7, um processo de sinal
para gerar dados de imagem para exibir a imagem equivalente à imagem de verificação no aparelho de exibição 2 de um LCD é decidido com base na informação de tipo fornecida pela unidade de controle 14 à unidade de processamento de simulação 4 Ii. A informação de tipo a ser fornecida pela unidade de controle 14 à unidade de processamento de simulação 41 i pode ser 15 especificada, por exemplo, operando o controlador remoto 3 (Figura 1).
Também, outros parâmetros necessários para executar o processo de sinal são fornecidos a partir da unidade de controle 14 à unidade de processamento de simulação 41
A seguir, Figura 9 ilustra um terceiro exemplo de estrutura da unidade de processamento de sinal 12 da Figura 1.
Notar que, na figura, porções correspondentes ao caso da Figura 4 ou 7 são designadas pelos mesmos numerais.
Na Figura 9, a primeira unidade de processamento de sinal 12i da unidade de processamento de sinal 12 é construída a partir de uma unidade 25 de conversão de imagem 31 ( e uma unidade de processamento de simulação 411, a segunda unidade de processamento de sinal 122 é construída a partir de uma unidade de conversão de imagem 312 e de uma unidade de processamento de simulação 412, e a terceira unidade de processamento de sinal 123 é construída a partir de uma unidade de conversão de imagem 313 e de uma unidade de processamento de simulação 413. A unidade de conversão de imagem 3Ii é suprida com os dados de imagem de verificação a partir da unidade de conversão de imagem
11 (Figura 1), e é também suprida de informação de fator de magnificação a partir da unidade de controle 14 (Figura 1).
A unidade de conversão de imagem 311 efetua um processo de conversão de imagem de acordo com a informação de fator de magnificação fornecida a partir da unidade de controle 14, para converter os dados de imagem de verificação da unidade de conversão de imagem 11 em dados de imagem magnificados m vezes, e fornece os dados de imagem magnificados m vezes à unidade de processamento de simulação 41 j.
A unidade de processamento de simulação 41! efetua, por exemplo, um processo de simulação de EL orgânico de acordo com a informação de tipo fornecida a partir da unidade de controle 14, para gerar dados de imagem EL pseudo-orgânicos a partir dos dados de imagem magnificados m vezes, a partir da unidade de conversão de imagem 3Ij, e fornece os dados de imagem EL pseudo-orgânicos à unidade de controle de exibição 13 (Figura 1) como dados de imagem processados.
A unidade de conversão de imagem 312 é suprida pelos dados de imagem de verificação a partir da unidade de conversão de imagem 11 e é também suprida de informação de fator de magnificação a partir da unidade de controle 14.
A unidade de conversão de imagem 312 efetua um processo de conversão de imagem de acordo com a informação de fator de magnificação fornecida a partir da unidade de controle 14, para converter os dados de imagem de verificação a partir da unidade de conversão de imagem 11 em dados de imagem magnificados m’ vezes e fornece os dados de imagem magnificados m’ vezes à unidade de processamento de simulação 412.
A unidade de processamento de simulação 412 executa, por exemplo, um processo de simulação PDP de acordo com a informação de tipo fornecida pela unidade de controle 14, para gerar dados de imagem pseudo- PDP a partir de dados de imagem magnificados m’ vezes, a partir da unidade de conversão de imagem 312 e fornece os dados de imagem pseudo-PDP à unidade de controle de exibição 13 como dados de imagem processados.
A unidade de conversão de imagem 313 é suprida dos dados de imagem de verificação a partir da unidade de conversão de imagem 11 e é também suprida de informação de fator de magnificação a partir da unidade de controle 14.
A unidade de conversão de imagem 313 efetua um processo de
conversão de imagem de acordo com a informação de fator de magnificação fornecida a partir da unidade de controle 14, para converter os dados de imagem de verificação a partir da unidade de conversão de imagem 11 em dados de imagem magnificados m” vezes e fornece os dados de imagem magnificados m” vezes à unidade de processamento de simulação 413.
A unidade de processamento de simulação 413 executa, por exemplo, um processo de simulação CRT de acordo com a informação de tipo fornecida pela unidade de controle 14, para gerar dados de imagem pseudo- CRT a partir de dados de imagem magnificados m” vezes, a partir da unidade 20 de conversão de imagem 313 e fornece os dados de imagem pseudo-CRT à unidade de controle de exibição 13 como dados de imagem processados.
Figura 10 ilustra um exemplo de exibição no aparelho de exibição 2, em um caso em que a unidade de processamento de sinal 12 é construída conforme ilustrado na Figura 9.
No aparelho de exibição 2, a imagem de verificação é exibida
na região de exibição #0. Também, uma imagem correspondente aos dados de imagem EL pseudo-orgânicos gerados a partir dos dados de imagem magnificados m vezes, uma imagem correspondente aos dados de imagem pseudo-PDP gerados a partir dos dados de imagem magnificados m’ vezes, e uma imagem correspondente aos dados de imagem pseudo-CRT gerados a partir dos dados de imagem magnificados m” vezes, é exibida na região de exibição #1, região de exibição #2 e região de exibição #3, respectivamente.
Portanto, em um caso em que uma imagem servindo como um 5 programa a partir de uma estação de radiodifusão é magnificada e exibida em cada um dentre um aparelho de exibição possuindo um painel de exibição EL orgânico, um aparelho de exibição apresentando um PDP e um aparelho de exibição possuindo um CRT, entre os aparelhos de exibição no lado de recepção, o estado da imagem exibida (a qualidade de imagem ou similar de 10 uma imagem magnificada) pode ser verificado.
A seguir, Figura 11 ilustra um quarto exemplo de estrutura da unidade de processamento de sinal 12 da Figura 1.
Notar que, na figura, porções correspondentes ao caso da Figura 4 são designadas pelos mesmos numerais.
Na Figura 11, a primeira unidade de processamento de sinal
12j da unidade de processamento de sinal 12 é construída a partir de uma unidade de conversão de imagem 311, a segunda unidade de processamento de sinal 122 é construída a partir de uma unidade de conversão de imagem 51, a terceira unidade de processamento de sinal 123 é construída a partir das unidades de conversão de imagem 313 e 52.
Conforme explicado na Figura 4, a unidade de conversão de imagem 311 executa um processo de conversão de imagem de acordo com a informação de fator de magnificação fornecida a partir da unidade de controle 14, para converter os dados de imagem de verificação da unidade de 25 conversão de imagem 11 em dados de imagem magnificados m vezes, e fornece os dados de imagem magnificados m vezes à unidade de controle de exibição 13 (Figura 1) como dados de imagem processados.
A unidade de conversão de imagem 51 é suprida com os dados de imagem de verificação da unidade de conversão de imagem 11, e também é suprida com informação de velocidade de reprodução indicando a velocidade de reprodução de reprodução lenta a partir da unidade de controle 14, para converter os dados de imagem de verificação da unidade de conversão de imagem 11 em dados de imagem magnificados m vezes, e 5 fornece os dados de imagem magnificados m vezes à unidade de controle de exibição 13 (Figura 1) como dados de imagem processados.
A unidade de conversão de imagem 51 é suprida com os dados de imagem de verificação da unidade de conversão de imagem 11, e é também com informação de velocidade de reprodução indicando a velocidade de reprodução de reprodução lenta a partir da unidade de controle 14.
A unidade de conversão de imagem 51 efetua, de acordo com a informação de velocidade de reprodução fornecida pela unidade de controle 14, um processo de conversão de imagem para converter os dados de imagem de verificação a partir da unidade de conversão de imagem 11 em dados de 15 imagem de reprodução lenta de velocidade q vezes nos quais a exibição da imagem de verificação é executada em uma velocidade de reprodução que é q (< 1) vezes menor que a velocidade normal. A unidade de conversão de imagem 51 fornece os dado 5 de imagem de reprodução lenta de velocidade q vezes obtidos por este processo de conversão de imagem à unidade de 20 controle de exibição 13 (Figura 1) como dados de imagem processados.
Isto é, por exemplo, agora, se é suposto que a taxa de exibição do aparelho de exibição 2 (a taxa na qual a exibição é atualizada) e a taxa de quadro da imagem de verificação são de 30 Hz e a velocidade de reprodução indicada pela informação de velocidade de reprodução é, por exemplo, 1/2 25 vezes a velocidade, a unidade de conversão de imagem 51 executa um processo de conversão de imagem para converter os dados de imagem de verificação possuindo uma taxa de quadro de 30 Hz em dados de imagem de reprodução lenta de velocidade q vezes que são dados de imagem possuindo uma taxa de quadro de 60 Hz que é o dobro da original. Os dados de imagem possuindo uma taxa de quadro de 60 Hz são exibidos a uma taxa de exibição de 30 Hz. Conseqüentemente, uma imagem que aparece como uma imagem obtida efetuando reprodução lenta a 1/2 vezes a velocidade, é exibida.
Conforme explicado na Figura 4, a unidade de conversão de
imagem 313 executa um processo de conversão de imagem de acordo com a informação de fator de magnificação suprida a partir da unidade de controle 14, para converter os dados de imagem de verificação a partir da unidade de conversão de imagem 11 em dados de imagem magnificados m” vezes, e
fornece os dados de imagem magnificados m” vezes à unidade de conversão de imagem 52.
A unidade de conversão de imagem 52 é suprida com dados de imagem magnificados m” vezes a partir da unidade de conversão de imagem 313 e é, em adição, suprida com informação de velocidade de reprodução a partir da unidade de controle 14.
A unidade de conversão de imagem 52 efetua, de acordo com a informação de velocidade de reprodução fornecida a partir da unidade de controle 14, um processo de conversão de imagem para converter os dados de imagem magnificados m” vezes a partir da unidade de conversão de imagem 20 313 em dados de imagem de reprodução lenta de velocidade q” vezes nos quais a exibição da imagem de verificação é efetuada a uma velocidade de reprodução que é q” (< 1) vezes menor que a velocidade normal. A unidade de conversão de imagem 52 fornece os dados de imagem de reprodução lenta de velocidade q” vezes obtidos por este processo de conversão de imagem à 25 unidade de controle de exibição 13 como dados de imagem processados.
Figura 12 ilustra um exemplo de exibição no aparelho de exibição 2, em um caso em que a unidade de processamento de sinal 12 é construída conforme ilustrado na Figura 11.
No aparelho de exibição 2, a imagem de verificação é exibida na região de exibição #0 e a imagem correspondente aos dados de imagem magnificados m vezes é exibida na região de exibição # 1.
Também, uma imagem correspondente aos dados de imagem de reprodução lenta de velocidade q vezes é exibida na região de exibição #2 e uma imagem que parece uma imagem obtida efetuando reprodução lenta da imagem correspondente aos dados de imagem magnificados m” vezes a uma velocidade q” vezes é exibida na região de exibição #3.
A imagem correspondente aos dados de imagem magnificados m vezes, que é exibida na região de exibição #1, possui uma resolução espacial mais alta que a imagem de verificação exibida na região de exibição #0. Então, a assim chamada degradação de imagem espacial, que não é pronunciada na imagem de verificação exibida na região de exibição #0, pode ser verificada.
Adicionalmente, a imagem correspondente aos dados de imagem de reprodução lenta de velocidade q vezes, que é exibida na região de exibição #2, possui uma resolução temporal mais alta que a imagem de verificação exibida na região de exibição #0. Então, a assim chamada degradação de imagem temporal (por exemplo, movimento não suave ou similar) que não é pronunciada na imagem de verificação exibida na região de exibição #0, pode ser verificada.
Ainda mais, a imagem que parece com uma imagem obtida efetuando reprodução lenta de velocidade q” vezes, da imagem correspondente aos dados de imagem magnificados m” vezes, que é exibida na região de exibição #3, possui uma resolução espacial e temporal mais alta que a imagem de verificação exibida na região de exibição #0. Então, a degradação de imagem espacial ou degradação de imagem temporal, que não é pronunciada na imagem de verificação exibida na região de exibição #0, pode ser verificada.
Notar que a reprodução de baixa velocidade seria efetuada nos dados de imagem de verificação quando cada uma das unidades de conversão de imagem 51 e 52 converte os dados de imagem é decidido com base na informação de velocidade de reprodução fornecida a cada uma das unidades de conversão de imagem 51 e 52 a partir da unidade de controle 14. Qual informação de velocidade de reprodução deve ser fornecida a partir da unidade de controle 14 a cada uma das unidades de conversão de imagem 51 e 52 pode ser especificado, por exemplo, operando o controlador remoto 3 (Figura 1).
A seguir, Figura 13 ilustra um quinto exemplo de estrutura da unidade de processamento de sinal 12 da Figura 1.
Na Figura 13, a primeira unidade de processamento de sinal 12j da unidade de processamento de sinal 12 é construída a partir de uma unidade de processamento de reforço 61, a segunda unidade de processamento de sinal 122 é construída a partir de uma unidade de processamento gama adaptável 62, e a terceira unidade de processamento de sinal 123 é construída a partir de uma unidade de processamento de alta taxa de quadro 63.
A unidade de processamento de reforço 61 é fornecida com os dados de imagem de verificação a partir da unidade de conversão de imagem
11 (Figura 1), e é também fornecida com um parâmetro de processamento de sinal a partir da unidade de controle 14 (Figura 1).
Então, a unidade de processamento de reforço 61 submete os dados de imagem de verificação a partir da unidade de conversão de imagem Ila um processo de sinal equivalente a um processo ao qual dados de imagem são submetidos quando um aparelho de exibição no lado de recepção exibe uma imagem correspondente aos dados de imagem.
Isto é, alguns aparelhos de exibição no lado de recepção possuem uma função para submeter uma imagem servindo como um programa a partir de uma estação de radiodifusão a um processo de reforço antes de exibir a imagem. A unidade de processamento de reforço 61 executa um processo de reforço servindo como um processo de sinal que é similar ao executado por tal aparelho de exibição no lado de recepção.
Especificamente, a unidade de processamento de reforço 61 5 efetua, de acordo com o parâmetro de processamento de sinal fornecido a partir da unidade de controle 14, filtragem ou similar dos dados de imagem de verificação a partir da unidade de conversão de imagem 11 para deste modo executar um processo de reforço para reforçar uma porção destes dados de imagem de verificação, tal como uma porção de borda, e fornece dados de 10 imagem de verificação obtidos após o processo de reforço, à unidade de controle de exibição 13 (Figura 1) como dados de imagem processados.
Aqui, o grau ao qual os dados de imagem de verificação devem ser reforçados na unidade de processamento de reforço 61, usando o processo de reforço, é decidido de acordo com um parâmetro de 15 processamento de reforço incluído no parâmetro de processamento de sinal fornecido a partir da unidade de controle 14. O parâmetro de processamento de reforço pode ser especificado, por exemplo, operando o controlador remoto 3 (Figura 1).
A unidade de processamento gama adaptável 62 é suprida com os dados de imagem de verificação a partir da unidade de conversão de imagem 11, e é também suprida com o parâmetro de processamento de sinal a partir da unidade de controle 14.
Então, a unidade de processamento gama adaptável 62 submete os dados de imagem de verificação a partir da unidade de conversão de imagem 11 para um processo de sinal equivalente a um processo ao qual dados de imagem são submetidos quando um aparelho de exibição no lado de recepção exibe uma imagem correspondente aos dados de imagem.
Isto é, correntemente, um aparelho de exibição executa um processo de correção de gama (γ) para homogeneizar as características dos dispositivos de exibição adotadas por vendedores que fabricam aparelhos de exibição de modo a evitar o aparecimento de uma imagem variando de vendedor para vendedor. No futuro, entretanto, é esperado que um único processo de correção de gama será efetuado de tal modo que cada vendedor 5 provê a aparência de uma imagem, que é específica do vendedor, dependendo da imagem a ser exibida ou das características do dispositivo de exibição. Neste caso, a aparência de uma imagem difere, dependendo do vendedor do aparelho de exibição.
Então, a unidade de processamento gama adaptável 62 executa um processo de correção de gama adaptativo que é um processo de correção de gama adaptativo de tal modo que uma imagem equivalente a uma imagem a ser exibida no aparelho de exibição de cada vendedor pode ser exibida (reproduzida) no aparelho de exibição 2 de um LCD.
Isto é, a unidade de processamento gama adaptável 62 submete 15 os dados de imagem de verificação da unidade de conversão de imagem Ila um processo de gama adaptativo de tal modo que os dados de imagem para exibição no aparelho de exibição 2 de um LCD, de uma imagem equivalente à imagem de verificação a ser exibida em um aparelho de exibição no lado de recepção, que é submetida a um processo de correção de gama único do 20 vendedor, pode ser obtida, e supre dados de imagem de verificação obtidos após o processo de correção de gama adaptativo à unidade de controle de exibição 13, como dados de imagem processados.
Aqui, qual característica do processo de correção de gama adaptativo deve ser executada pela unidade de processamento gama adaptável 25 62 é decidido de acordo com um parâmetro de processamento de correção gama adaptativo incluído no parâmetro de processador de sinal suprido a partir da unidade de controle 14. O parâmetro de processamento de correção gama adaptativo pode ser especificado, por exemplo, operando o controlador remoto 3. Também, como um processo de correção de gama adaptativo, por exemplo, o processo de correção de gama adaptativo descrito na Publicação de Pedido de Patente Não Examinada Japonesa No. 08-083460, Publicação de Pedido de Patente Não Examinada Japonesa No. 2002-354290, 5 Publicação de Pedido de Patente Não Examinada Japonesa No. 2005-229245, ou similar pode ser adotado.
Publicação de Pedido de Patente Não Examinada Japonesa No. 08-023460 descreve que, quando um sinal de imagem possuindo uma grande quantidade de flutuação de APL (Nível de Imagem Médio) é exibido em um dispositivo que tem dificuldade em prover bom contraste de luminância, tal como um LCD ou PDP, um processo de correção de gama para executar correção de gama ótima de acordo com uma configuração de figura de um sinal de imagem, é executado. Isto é, o nível de luminância do sinal de imagem é secionado em diversos segmentos; é considerado uma freqüência em cada um dos segmentos; diversos níveis de freqüência são providos para cada segmento do nível de luminância, de tal modo que a distribuição de freqüência é segmentada com base naquele nível de freqüência, cujo resultado é usado como um sinal de seleção de características de correção de gama para selecionar uma característica de correção de gama; e correção de gama dinâmica adaptada ao sinal de imagem, é efetuada.
Publicação de Pedido de Patente Não Examinada Japonesa No. 2002-354290 descreve que um processo de correção de gama é mudado para melhorar a reprodutibilidade gradação-nível, de tal modo que correção de gama é sempre aplicada. Isto é, um ponto de operação adaptado a um APL é 25 determinado a partir do APL e um valor inicial do ponto de operação; e a correção de gama é aplicada ao sinal de luminância do lado do branco com respeito ao ponto de operação.
Publicação de Pedido de Patente Não Examinada Japonesa No. 2005-229245 descreve um método para reduzir a saturação de cores e executar controle de aumento gradação-nível adaptado a um sinal de imagem. Isto é, é descrito um método no qual um valor máximo de cada uma das cores RGB de um sinal de imagem é detectado, um valor máximo é detectado entre valores obtidos multiplicando cada um dos valores máximos das cores RGB 5 individuais por um coeficiente ponderado, este valor máximo é comparado com um valor máximo de níveis de luminância do sinal de imagem, e qualquer deles que é maior é usado como um valor máximo dos níveis de luminância no sinal de imagem, efetuando deste modo controle de sinal do sinal de imagem.
A unidade de processamento de alta taxa de quadro 63 é
suprida com os dados de imagem de verificação a partir da unidade de conversão de imagem 11, e é também suprida com o parâmetro de processamento de sinal a partir da unidade de controle 14.
Então, a unidade de processamento de alta taxa de quadro 63 submete os dados de imagem de verificação a partir da unidade de conversão de imagem Ila um processo de sinal equivalente a um processo ao qual dados de imagem são submetidos quando um aparelho de exibição no lado de recepção exibe uma imagem correspondentes a estes dados de imagem.
Isto é, alguns aparelhos de exibição no lado de recepção 20 possuem uma função de exibição de alta taxa para converter a taxa de quadro de uma imagem servindo como um programa a partir de uma estação de radiodifusão para produzir uma imagem possuindo uma alta taxa de quadro, tal como taxa dupla e provendo a exibição a uma taxa de exibição correspondente a aquela alta taxa de quadro. A unidade de processamento de 25 alta taxa de quadro 63 efetua um processo de alta taxa de quadro servindo como um processo de sinal que é similar ao executado por tal aparelho de exibição no lado da recepção.
Especificamente, a unidade de processamento de alta taxa de quadro 63 executa, de acordo com o parâmetro de processamento de sinal fornecido a partir da unidade de controle 14, um processo de alta taxa de quadro tal como um processo de velocidade dupla, no qual um quadro é interpolado entre quadros dos dados de imagem de verificação a partir da unidade de conversão de imagem 11, para gerar dados de imagem cuja taxa de 5 quadro é o dobro daquela dos dados de imagem de verificação originais, e fornece dados de imagem de verificação obtidos após o processo de alta taxa de quadro à unidade de controle de exibição 13, como dados de imagem processados.
Aqui, quantas vezes a taxa de quadro dos dados de imagem de verificação é aumentada na unidade de processamento de alta taxa de quadro 63, usando o processo de alta taxa de quadro, é decidido de acordo com o parâmetro de processamento de alta taxa de quadro incluído no parâmetro de processamento de sinal fornecido a partir da unidade de controle 14.
O parâmetro de processamento de alta taxa de quadro pode ser especificado, por exemplo, operando o controlador remoto 3 (Figura 1).
Notar que, por exemplo, agora, em um caso em que é suposto que a taxa de exibição do aparelho de exibição 2 e a taxa de quadro da imagem de verificação são de 30 Hz e que a taxa de quadro dos dados de imagem obtidos através do processo de alta taxa de quadro da unidade de 20 processamento de alta taxa de quadro 63 é o dobro da taxa de quadro da imagem de verificação, a saber 60 Hz, uma imagem possuindo uma taxa de quadro de 60 Hz será exibida a uma taxa de exibição de 30 Hz no aparelho de exibição 2. Neste caso, uma imagem que parece uma imagem obtida efetuando reprodução lenta a velocidade de 1/2 vezes, é exibida.
Então, aqui, é suposto que o aparelho de exibição 2 é projetado
para ser capaz de exibir uma imagem, em adição a 30 Hz, a taxas de exibição maiores que 30 Hz, tais como, por exemplo, 60 Hz, 120 Hz e 240 Hz, e que a unidade de controle de exibição 13 (Figura 1) é projetada para ser capaz de controlar o aparelho de exibição 2, de tal modo que uma imagem é exibida a uma alta taxa de exibição diferente de 30 Hz.
A unidade de controle de exibição 13 controla o aparelho de exibição 2 de tal modo que, em um caso em que a taxa de quadro dos dados de imagem obtidos pelo processo de alta taxa de quadro da unidade de 5 processamento de alta taxa de quadro 63 (posteriormente referidos como dados de imagem de alta taxa de quadro, conforme desejado) é, por exemplo, o dobro da taxa de quadro da imagem de verificação, a saber, 60 Hz, uma imagem correspondente aos dados de imagem de alta taxa de quadro é exibida a uma taxa de exibição de 60 Hz, que é a mesma que a taxa de quadro dos 10 dados de imagem de alta taxa de quadro.
Conseqüentemente, a imagem correspondente aos dados de imagem de alta taxa de quadro é exibidas a uma taxa de exibição equivalente (idêntica) à taxa de quadro dos dados de imagem de alta taxa de quadro.
Notar que, no aparelho de exibição 2, uma imagem correspondentes a dados de imagem de alta taxa de quadro possuindo uma taxa de quadro de, por exemplo, 60 Hz, que é obtida usando um processo de alta taxa de quadro pela unidade de processamento de alta taxa de quadro 63, constituindo a terceira unidade de processamento de sinal 123, é exibida na região de exibição #3. Entretanto, em um caso em que a taxa de quadro da imagem de verificação exibida em uma região de exibição diferente da região de exibição #3, por exemplo, na região de exibição #0, é de 30 Hz, se a taxa de exibição do aparelho de exibição 2 é ajustada para ser a mesma que a taxa de quadro dos dados de imagem de alta taxa de quadro, a saber, 60 Hz, a imagem de verificação exibida na região de exibição #0 toma-se uma imagem que parece uma imagem obtida efetuando reprodução a velocidade dupla.
Para esta finalidade, em um caso em que, por exemplo, a taxa de exibição do aparelho de exibição 2 é ajustada para 60 Hz e uma imagem correspondente a dados de imagem de alta taxa de dados possuindo uma taxa de quadro de 60 Hz é exibida na região de exibição #3, a exibição da região de exibição #3 onde a imagem de verificação possuindo uma taxa de quadro de 30 Hz é exibida, é atualizada substancialmente uma vez por um período durante o qual dois quadros são exibidos.
Isto é, por exemplo, agora, se é suposto que a imagem de verificação de um certo quadro #f está sendo exibida na região de exibição #0, a imagem de verificação do quadro #f é exibida novamente da próxima vez que a exibição da região de exibição #0 é atualizada, e a imagem de verificação do próximo quadro #f+l é exibida adicionalmente da próxima vez que a exibição é atualizada. A exibição das regiões de exibição # 1 e #2 onde imagens possuindo uma taxa de quadro de 30 Hz são exibidas, é também atualizada de maneira similar.
Aqui, a taxa de exibição do aparelho de exibição 2 a ser ajustada usando a unidade de controle de exibição 13 é controlada pela unidade de controle 14 acompanhando de quantas vezes a taxa de quadro dos dados de imagem de verificação é aumentada, usando o processo de alta taxa de quadro da unidade de processamento de alta taxa de quadro 63.
Figura 14 ilustra um exemplo de exibição no aparelho de exibição 2 em um caso em que a unidade de processamento de sinal 12 é construída conforme ilustrado na Figura 13.
No aparelho de exibição 2, a imagem de verificação é exibida na região de exibição #0, e uma imagem correspondente aos dados de imagem de verificação obtida após o processo de reforço é exibida na região de exibição #1. Adicionalmente, uma imagem correspondente aos dados de imagem de verificação obtida após o processo de correção de gama adaptativo, é exibida na região de exibição # 1, e uma imagem correspondente aos dados de imagem de verificação obtidos após o processo de alta taxa de quadro é exibida na região de exibição #2.
Portanto, em um caso em que um aparelho de exibição entre a aparelhos de exibição no lado de recepção, possuindo uma função para submeter uma imagem a um processo de reforço antes de exibir a imagem, exibe a imagem correspondente aos dados de imagem obtidos após o processo de reforço, a qualidade da imagem ou similar pode ser verificada.
Adicionalmente, em um caso em que um aparelho de exibição entre aparelhos de exibição no lado de recepção que submete uma imagem a um processo de correção de gama único do vendedor antes de exibir a imagem, exibe a imagem correspondente aos dados de imagem obtidos após este processo de correção de gama único, a qualidade do processo ou similar pode ser verificada.
Ainda mais, em um caso em que um aparelho de exibição entre aparelhos de exibição possuindo uma função de exibição de alta taxa no lado de recepção, exibe a imagem correspondente aos dados de imagem obtidos após o processo de alta taxa de quadro, a qualidade da imagem ou similar pode ser verificada.
A seguir, Figura 15 ilustra um sexto exemplo de estrutura da unidade de processamento de sinal 12 da Figura 1.
Na Figura 15, a primeira unidade de processamento de sinal 12j da unidade de processamento de sinal 12 é construída a partir de uma unidade de geração de imagem de pseudo polegadas 71 \, a segunda unidade de processamento de sinal 122 é construída a partir de uma unidade de geração de imagem de pseudo polegadas 712 e a terceira unidade de processamento de sinal 123 é construída a partir de uma unidade de geração de imagem de pseudo polegadas 713.
Uma unidade de geração de imagem de pseudo polegadas 71; (i = 1, 2, 3) é suprida com os dados de imagem de exibição a partir da unidade de conversão de imagem 11 (Figura 1), e é também suprida com informação de número de polegadas, a partir da unidade de controle 14 (Figura 1), indicando os números de polegadas n, n’ e n” (> 1), cada uma das quais é o tamanho de uma tela onde uma imagem é exibida. Então, a unidade de geração de imagem de pseudo polegadas 71; executa, de acordo com a informação de número de polegadas suprida a partir da unidade de controle 14, um processo de sinal nos dados de imagem de exibição a partir da unidade de conversão de imagem 11, para gerar, como dados de imagem processados, dados de imagem para exibir na região de exibição #i do aparelho de exibição 2 uma imagem equivalente a uma imagem a ser exibida em um aparelho de exibição possuindo um certo número de polegadas no lado de recepção, quando a imagem de verificação é exibida neste aparelho de exibição.
Isto é, aparelhos de exibição possuindo vários números de polegadas existem como aparelhos de exibição no lado de recepção. Então, a unidade de geração de imagem de pseudo polegadas 71, executa um processo de sinal para gerar, como dados de imagem processados, dados de imagem para exibição na região de exibição #1 do aparelho de exibição 2 de uma imagem equivalente à imagem de verificação a ser exibida em um aparelho de exibição possuindo certas n polegadas no lado de recepção. De modo similar, as unidades de geração de imagem de pseudo polegadas 712 e 713 também executam processos de sinal para gerar, como dados de imagem processados, dados de imagem para exibição na região de exibição #1 do aparelho de exibição 2 de uma imagem equivalente à imagem de verificação a ser exibida em um aparelho de exibição de n’ polegadas no lado de recepção, e dados de imagem para exibição na região de exibição #1 do aparelho de exibição 2, de uma imagem equivalente à imagem de verificação a ser exibida em um aparelho de exibição de n” polegadas no lado de recepção, respectivamente.
Aqui, dados de imagem para exibição na região de exibição #i do aparelho de exibição 2 de uma imagem equivalente à imagem de verificação a ser exibida em um aparelho de exibição possuindo um certo número de polegadas no lado de recepção são também referidos como dados de imagem de pseudo-polegadas. Adicionalmente, um processo de sinal para gerar dados de imagem de pseudo-polegadas a partir de dados de imagem de exibição é também referido como um processo de geração de imagem de pseudo-polegadas.
Na unidade de geração de imagem de pseudo polegadas 71é executado um processo de geração de imagem de pseudo-polegadas para geração de dados de imagem de pseudo-polegadas de n polegadas a partir dos dados de imagem de exibição da unidade de conversão de imagem 11, de acordo com a informação de número de polegadas fornecida pela unidade de controle 14. Dados de imagem de pseudo-polegadas de n polegadas resultantes são fornecidos à unidade de controle de exibição 13 (Figura 1) como dados de imagem processados.
De modo similar, na unidade de geração de imagem de pseudo polegadas 712 e unidade de geração de imagem de pseudo polegadas 713, um processo de geração de imagem de pseudo-polegadas para gerar dados de imagem de pseudo-polegadas de n’ polegadas e um processo de geração de imagem de pseudo-polegadas para gerar dados de imagem de pseudo- polegadas de n” polegadas a partir dos dados de imagem dos dados de imagem de exibição da unidade de conversão de imagem 11, de acordo com a informação de número de polegadas fornecida pela unidade de controle 14, são executados. Dados de imagem de pseudo-polegadas de n’ polegadas e dados de imagem de pseudo-polegadas de n” polegadas resultantes são fornecidos à unidade de controle de exibição 13 como dados de imagem processados.
Notar que, nos processos de geração de imagem de pseudo- polegadas, o processo de aumentar ou diminuir o número de pixéis dos dados de imagem de exibição e executado para gerar, deste modo, dados de imagem de pseudo-polegadas. Como o processo de aumentar o número de pixéis dos dados de imagem, por exemplo, um processo de interpolar um pixel, um processo de conversão de imagem para converter dados de imagem em dados de imagem possuindo um número maior de pixéis do que os dados de imagem, ou similar, pode ser adotado. Adicionalmente, como o processo de diminuir o número de pixéis dos dados de imagem, por exemplo, um processo de tomar mais fino um pixel, um processo de média para exibir um valor 5 médio ou similar de diversos pixéis como o valor de pixel de um pixel, ou similar, pode ser adotado.
Figura 16 ilustra um exemplo de exibição no aparelho de exibição 2 em um caso em que a unidade de processamento de sinal 12 é construída conforme ilustrado na Figura 15.
No aparelho de exibição 2, a imagem de verificação é exibida
na região de exibição #0. Também, uma imagem correspondente aos dados de imagem de pseudo-polegadas de n polegadas, uma imagem correspondente aos dados de imagem de pseudo-polegadas de n’ polegadas e uma imagem correspondente aos dados de imagem de pseudo-polegadas de n” polegadas 15 são exibidas na região de exibição # 1, na região de exibição #2 e na região de exibição #3, respectivamente.
Portanto, em um caso em que uma imagem servindo como um programa a partir de uma estação de radiodifusão é exibida em aparelhos de exibição possuindo vários números de polegadas no lado de recepção, estados da imagem exibida podem ser verificados.
Notar que os números de polegadas n, n’, e n” podem ser especificados, por exemplo, operando o controlador remoto 3 (Figura 1).
A seguir, o processo de geração de imagem de pseudo- polegadas executado pela unidade de geração de imagem de pseudo polegadas 71; da Figura 11 será adicionalmente explicado com referência às Figuras 17 a 19.
Conforme descrito acima, uma região de exibição #i é construída com HxV pixéis de monitor, e dados de imagem de exibição são também construídos com HxV pixéis, cujo número é o mesmo do número de pixéis da região de exibição #i. Figura 17 ilustra uma maneira pela qual os dados de imagem de exibição com os H x V pixéis são exibidos na região de exibição #i com os HxV pixéis de monitor.
Em um caso em que os dados de imagem de exibição com H x
V pixéis são diretamente exibidos na região de exibição #i com HxV pixéis de monitor, (o valor de pixel de) um pixel dos dados de imagem de exibição é exibido em um pixel de monitor na região de exibição #i.
Portanto, em um caso em que a região de exibição #i com H x
V pixéis de monitor tem, por exemplo, N polegadas tais como 30 polegadas, os dados de imagem de exibição com HxV pixéis são diretamente exibidos na região de exibição #i com HxV pixéis de monitor. Conseqüentemente, uma imagem equivalente à imagem de verificação a ser exibida no aparelho de exibição de N polegadas é exibida.
Na região de exibição #0 entre as regiões de exibição #0 a #3 do aparelho de exibição 2, a imagem de verificação com HxV pixéis é diretamente exibida, e então uma imagem equivalente à imagem de verificação a ser exibida no aparelho de exibição de N polegadas, é exibida. Aqui, estas N polegadas são referidas como básicas.
A seguir, Figura 18 ilustra uma maneira pela qual dados de imagem de pseudo-polegadas obtidos em um processo de geração de imagem de pseudo-polegadas, aumentando o número de pixéis dos dados de imagem de exibição, são exibidos em uma região de exibição #i com HxV pixéis de monitor.
Na Figura 18, um processo de geração de imagem de pseudo- polegadas para executar interpolação de modo a aumentar um pixel dos dados de imagem de exibição com HxV pixéis para 3x3 pixéis é executado para gerar dados de imagem de pseudo-polegadas com 3H x 3V pixéis, e H x V pixéis nos dados de imagem de pseudo-polegadas são exibidos em uma região de exibição #i com HxV pixéis de monitor. Neste caso, equivalentemente, um pixel dos dados de imagem de exibição originais com HxV pixéis é exibido em 3x3 pixéis de monitor na região de exibição #i. Conseqüentemente, uma imagem correspondente a dados de imagem de pseudo-polegadas de (3 x N) polegadas, isto é, uma imagem equivalente à imagem de verificação a ser exibida em um aparelho de exibição de (3 x N) polegadas, é exibida na região de exibição #i.
Notar que, uma vez que a região de exibição #i com HxV pixéis de monitor não pode prover a exibição da totalidade da imagem correspondente aos dados de imagem de pseudo-polegadas com 3H x 3V pixéis, cujo número é maior que o número de pixéis da região de exibição #i, similarmente ao caso explicado na Figura 6 onde a imagem correspondente aos dados de imagem magnificados m vezes são exibidos na região de exibição # 1, uma porção da imagem correspondente aos dados de imagem de pseudo-polegadas com 3H x 3V pixéis é exibida na região de exibição #i. Qual porção da imagem correspondente aos dados de imagem de pseudo- polegadas com 3H x 3V pixéis deve ser exibida na região de exibição #i pode ser especificado, por exemplo, operando o controlador remoto 3. A unidade de controle de exibição 13 faz com que uma porção da imagem correspondente aos dados de imagem de pseudo-polegadas com 3H x 3V pixéis seja exibida na região de exibição #i de acordo com a porção especificada.
A seguir, Figura 19 ilustra uma maneira pela qual dados de imagem de pseudo-polegadas obtidos em um processo de geração de imagem de pseudo-polegadas, diminuindo o número de pixéis dos dados de imagem de exibição, são exibidos em uma região de exibição #i com HxV pixéis de monitor.
Na Figura 19, um processo de geração de imagem de pseudo- polegadas para executar “esparsamento”, de modo a diminuir 2x2 pixéis dos dados de imagem de exibição com HxV pixéis para um pixel, é executado para gerar dados de imagem de pseudo-polegadas com H/2 x V/2 pixéis. Estes dados de imagem de pseudo-polegadas são exibidos em uma região de exibição #i com HxV pixéis de monitor.
Neste caso, equivalentemente, 2x2 pixéis dos dados de imagem de exibição originais com HxV pixéis são exibidos em um pixel de monitor da região de exibição #i. Conseqüentemente, uma imagem equivalente a dados de imagem de pseudo-polegadas de N/2 polegadas, isto é, uma imagem equivalente à imagem de verificação exibida em um aparelho de exibição de N/2 polegadas, é exibida na região de exibição #i.
Notar que uma imagem correspondente a dados de imagem de pseudo-polegadas com H/2 x V/2 pixéis são exibidos em uma região de H/2 x V/2 pixéis de monitor dentro da região de exibição #i com HxV pixéis de monitor. A região de H/2 x V/2 pixéis de monitor dentro da região de exibição #i com HxV pixéis de monitor, onde a imagem correspondente aos dados de imagem de pseudo-polegadas com H/2 x V/2 pixéis são exibidos, pode ser especificada, por exemplo, operando o controlador remoto 3. A unidade de controle de exibição 13 faz com que a imagem correspondente aos dados de imagem de pseudo-polegadas com H/2 x V/2 pixéis seja exibida na região de exibição #i de acordo com a região especificada.
A seguir, um processo do aparelho de controle de exibição 1 da Figura 1 em um caso em que uma imagem correspondente a dados de imagem de pseudo-polegadas de n polegadas é exibida na região de exibição #1, será explicado com referência a um fluxograma da Figura 20.
Notar que também em um caso em que a imagem correspondente aos dados de imagem de pseudo-polegadas de n’ polegadas é exibida na região de exibição #2 e em um caso em que a imagem correspondente aos dados de imagem de pseudo-polegadas de n’ ’ polegadas é exibida na região de exibição #3, um processo similar ao caso em que a imagem correspondente aos dados de imagem de pseudo-polegadas de n polegadas é exibida na região de exibição # 1, é executada.
Na etapa S31, a unidade de controle 14 determina se o controlador remoto 3 foi ou não operado de modo a mudar (especificar) o 5 número de polegadas n.
Em um caso em que é determinado, na etapa S31 que o controlador remoto 3 não foi operado de modo a mudar o número de polegadas η, o processo retoma à etapa S31.
Adicionalmente, em um caso em que é determinado, na etapa
S31, que o controlador remoto 3 foi operado de modo a mudar o número de polegadas n, isto é, em um caso em que o controlador remoto 3 tenha sido operado de modo a mudar o número de polegadas n e um sinal de operação correspondente a esta operação tenha sido recebido pela unidade de controle 14, o processo avança para a etapa S32, na qual a unidade de controle 14 15 reconhece o número de polegadas n modificado a partir do sinal de operação do controlador remoto 3, e determina, com base no número de polegadas n e a polegadas básica N, uma relação de mudança de número de pixéis n/N indicando uma taxa na qual a unidade de geração de imagem de pseudo polegadas 71 j (Figura 15) modifica o número de pixéis dos dados de imagem 20 de exibição. Adicionalmente, a unidade de controle 14 fomece informação de número de polegadas incluindo a relação de modificação de número de pixéis n/N à unidade de geração de imagem de pseudo polegadas 71 j. O processo avança da etapa S32 para a etapa S33.
Na etapa S33, a unidade de geração de imagem de pseudo 25 polegadas 71] executa um processo de geração de imagem de pseudo- polegadas para mudar (aumentar ou diminuir) cada um do número de pixéis horizontais e do número de pixéis verticais dos dados de imagem de exibição, a partir da unidade de conversão de imagem 11, até um número de pixéis que é um número de pixéis mudando a relação n/N vezes maior, de acordo com a informação de número de polegadas a partir da unidade de controle 14, para deste modo gerar dados de imagem de pseudo-polegadas de n polegadas para exibir, na região de exibição #1, uma imagem equivalente à imagem de verificação a ser exibida em um aparelho de exibição de n polegadas no lado de recepção, e fornece os dados de imagem de pseudo-polegadas de n polegadas à unidade de controle de exibição 13.
Posteriormente, o processo avança da etapa S33 para a etapa S34, na qual a unidade de controle 14 determina se o número de polegadas n é ou não menor ou igual ao número de polegadas básico N.
Em um caso em que é determinado, na etapa S34 que o número de polegadas n é menor ou igual ao número de polegadas básico N, isto é, em um caso em que a totalidade da imagem correspondente aos dados de imagem de pseudo-polegadas de n polegadas pode ser exibida na região de exibição #1, o processo avança para a etapa S35, na qual a unidade de controle de exibição 13 extrai, a partir dos dados de imagem de pseudo- polegadas de n polegadas da unidade de geração de imagem de pseudo polegadas 711, a totalidade desta como dados de imagem de exibição a serem exibidos na região de exibição #1.0 processo avança para a etapa S37.
Na etapa S37, a unidade de controle de exibição 13 faz com que uma imagem correspondente aos dados de imagem de exibição a serem exibidos na região de exibição #1 e retoma à etapa S31. Neste caso, a totalidade da imagem correspondente aos dados de imagem de pseudo- polegadas de n polegadas é exibida na região de exibição # 1.
Em contraste, em um caso em que é determinado, em uma etapa S34, que o número de polegadas n não é menor ou igual ao número de polegadas básico N, isto é, em um caso em que a totalidade da imagem correspondentes aos dados de imagem de pseudo-polegadas de n polegadas não pode ser exibida na região de exibição # 1, o processo avança para a etapa S36, na qual a unidade de controle de exibição 13 extrai, dos dados de imagem de pseudo-polegadas de n polegadas da unidade de geração de imagem de pseudo polegadas 711, H x V pixéis que podem ser exibidos na região de exibição # 1 como dados de imagem de exibição. O processo avança para a etapa S37.
Na etapa S37, conforme descrito acima, a unidade de controle de exibição 13 faz com que a imagem correspondente aos dados de imagem de exibição seja exibida na região de exibição #1 e retoma à etapa S31. Neste caso, a imagem correspondente aos HxV pixéis extraídos na etapa S33 dentro da imagem correspondentes aos dados de imagem de pseudo- polegadas de n polegadas é exibida na região de exibição # 1.
A seguir, Figura 21 ilustra um sétimo exemplo de estrutura da unidade de processamento de sinal 12 da Figura 1.
Notar que, na figura, porções correspondentes às da Figura 4 ou Figura 15 são designadas pelos mesmos numerais.
Na Figura 21, a primeira unidade de processamento de sinal 12] da unidade de processamento de sinal 12 é construída a partir de uma unidade de conversão de imagem 311 e uma unidade de geração de imagem de pseudo polegadas 711, a segunda unidade de processamento de sinal 122 é construída a partir de uma unidade de conversão de imagem 312 e uma unidade de geração de imagem de pseudo polegadas 712, e a terceira unidade de processamento de sinal 123 é construída a partir de uma unidade de conversão de imagem 313 e uma unidade de geração de imagem de pseudo polegadas 713.
A unidade de conversão de imagem 31 í é suprida com os dados de imagem de verificação a partir da unidade de conversão de imagem
11 (Figura 1) e é também suprida com informação de fator de magnificação a partir da unidade de controle 14 (Figura 1).
A unidade de conversão de imagem 311 efetua um processo de conversão de imagem de acordo com informação de fator de magnificação suprida pela unidade de controle 14, para converter os dados de imagem de verificação da unidade de conversão de imagem 11 em dados de imagem magnificados m vezes e supre os dados de imagem magnificados m vezes à unidade de geração de imagem de pseudo polegadas Tl1.
5 A unidade de geração de imagem de pseudo polegadas Tl1
efetua um processo de geração de imagem de pseudo-polegadas de acordo com a informação de número de polegadas suprida pela unidade de controle 14, para gerar dados de imagem de pseudo-polegadas de n polegadas a partir dos dados de imagem magnificados m vezes da unidade de conversão de 10 imagem 3115 e supre os dados de imagem de pseudo-polegadas de n polegadas à unidade de controle de exibição 13 (Figura 1) como dados de imagem processados.
A unidade de conversão de imagem 312 é suprida com os dados de imagem de verificação da unidade de conversão de imagem 11 e é também suprida de informação de fator de magnificação a partir da unidade de controle 14.
A unidade de conversão de imagem 312 executa um processo de conversão de imagem de acordo com informação de fator de magnificação suprida a partir da unidade de controle 14, para converter os dados de imagem 20 de verificação a partir da unidade de conversão de imagem 11 em dados de imagem magnificados m’ vezes à unidade de geração de imagem de pseudo polegadas 712.
A unidade de geração de imagem de pseudo polegadas 712 executa um processo de geração de imagem de pseudo-polegadas de acordo 25 com uma informação de número de polegadas suprida a partir da unidade de controle 14, para gerar dados de imagem de pseudo-polegadas de n’ polegadas a partir dos dados de imagem magnificados m’ vezes da unidade de conversão de imagem 312, e supre os dados de imagem de pseudo-polegadas de n’ polegadas à unidade de controle de exibição 13, como dados de imagem processados.
A unidade de conversão de imagem 313 executa um processo de conversão de imagem de acordo com informação de fator de magnificação suprida a partir da unidade de controle 14, para converter os dados de imagem 5 de verificação a partir da unidade de conversão de imagem 11 em dados de imagem magnificados m” vezes à unidade de geração de imagem de pseudo polegadas 713.
A unidade de geração de imagem de pseudo polegadas 713 executa um processo de geração de imagem de pseudo-polegadas de acordo 10 com uma informação de número de polegadas suprida a partir da unidade de controle 14, para gerar dados de imagem de pseudo-polegadas de n” polegadas a partir dos dados de imagem magnificados m’ ’ vezes da unidade de conversão de imagem 313, e supre os dados de imagem de pseudo- polegadas de n” polegadas à unidade de controle de exibição 13, como dados 15 de imagem processados.
Figura 22 ilustra um exemplo de exibição no aparelho de exibição 2, em um caso em que a unidade de processamento de sinal 12 é construída conforme ilustrado na Figura 21.
No aparelho de exibição 2, uma imagem de verificação com a 20 polegada básica N é exibida na região de exibição #0. Também, uma imagem obtida magnificando a imagem correspondente aos dados de imagem de pseudo-polegadas de n polegadas m vezes, uma imagem obtida magnificando a imagem correspondente aos dados de imagem de pseudo-polegadas de n’ polegadas m’ vezes, e uma imagem obtida magnificando a imagem 25 correspondente aos dados de imagem de pseudo-polegadas de n” polegadas m” vezes são exibidas na região de exibição #1, região de exibição #2 e região de exibição #3, respectivamente.
Portanto, em um caso em que aparelhos de exibição possuindo vários números de polegadas no lado de recepção tem uma função de magnificação, em um caso em que uma imagem servindo como um programa a partir de uma estação de radiodifusão é magnificada e exibida, estados da imagem exibida podem ser verificados.
A seguir, Figura 23 ilustra um oitavo exemplo de estrutura da unidade de processamento de sinal 12 da Figura 1.
Notar que, na figura, porções correspondente às da Figura 4, 7 ou 15 são designadas pelos mesmos numerais.
Na Figura 23, a primeira unidade de processamento de sinal 12] da unidade de processamento de sinal 12 é construída a partir de uma unidade de conversão de imagem 311 e uma unidade de geração de imagem de pseudo polegadas 711, a segunda unidade de processamento de sinal 122 é construída a partir de uma unidade de conversão de imagem 312, uma unidade de processamento de simulação 412 e uma unidade de geração de imagem de pseudo polegadas 712, e a terceira unidade de processamento de sinal 123 é construída a partir de uma unidade de conversão de imagem 313, uma unidade de processamento de simulação 413 e uma unidade de geração de imagem de pseudo polegadas 713.
A unidade de conversão de imagem 311 efetua um processo de conversão de imagem de acordo com informação de fator de magnificação suprida pela unidade de controle 14 (Figura 1), para converter os dados de imagem de verificação da unidade de conversão de imagem 11 (Figura 1) em dados de imagem magnificados m vezes e supre os dados de imagem magnificados m vezes à unidade de geração de imagem de pseudo polegadas
71].
A unidade de geração de imagem de pseudo polegadas 711 efetua um processo de geração de imagem de pseudo-polegadas de acordo com a informação de número de polegadas suprida pela unidade de controle 14, para gerar dados de imagem de pseudo-polegadas de n polegadas possuindo qualquer valor na faixa de, por exemplo, 20 a 103 polegadas a partir dos dados de imagem magnificados m vezes da unidade de conversão de imagem 31], e supre os dados de imagem de pseudo-polegadas de n polegadas à unidade de controle de exibição 13 (Figura 1) como dados de imagem processados.
A unidade de conversão de imagem 312 executa um processo de conversão de imagem de acordo com informação de fator de magnificação suprida a partir da unidade de controle 14, para converter os dados de imagem de verificação a partir da unidade de conversão de imagem 11 em dados de imagem magnificados m’ vezes, e fornece os dados de imagem magnificados m’ vezes à unidade de processamento de simulação 412.
A unidade de processamento de simulação 412 efetua, por exemplo, um processo de simulação PDP de acordo com a informação de tipo suprida pela unidade de controle 14, para gerar dados de imagem pseudo-PDP a partir dos dados de imagem magnificados m’ vezes da unidade de conversão de imagem 312, e supre os dados de imagem pseudo-PDP à unidade de geração de imagem de pseudo polegadas 712.
A unidade de geração de imagem de pseudo polegadas 712 efetua um processo de geração de imagem de pseudo-polegadas de acordo com a informação de número de polegadas suprida pela unidade de controle 14, para gerar dados de imagem de pseudo-polegadas de n’ polegadas possuindo qualquer valor na faixa de, por exemplo, 20 a 103 polegadas a partir dos dados de imagem pseudo-PDP da unidade de processamento de simulação 412 e supre os dados de imagem de pseudo-polegadas de n’ polegadas à unidade de controle de exibição 13 como dados de imagem processados.
A unidade de conversão de imagem 313 executa um processo de conversão de imagem de acordo com informação de fator de magnificação suprida a partir da unidade de controle 14, para converter os dados de imagem de verificação a partir da unidade de conversão de imagem 11 em dados de imagem magnificados m” vezes, e fomece os dados de imagem magnificados m” vezes à unidade de processamento de simulação 413.
A unidade de processamento de simulação 413 efetua, por exemplo, um processo de simulação CRT de acordo com a informação de tipo suprida pela unidade de controle 14, para gerar dados de imagem pseudo-CRT a partir dos dados de imagem magnificados m” vezes da unidade de conversão de imagem 313, e supre os dados de imagem pseudo-CRT à unidade de geração de imagem de pseudo polegadas 713.
A unidade de geração de imagem de pseudo polegadas 713 efetua um processo de geração de imagem de pseudo-polegadas de acordo com a informação de número de polegadas suprida pela unidade de controle 14, para gerar dados de imagem de pseudo-polegadas de n” polegadas possuindo qualquer valor na faixa de, por exemplo, 20 a 40 polegadas a partir dos dados de imagem pseudo-CRT da unidade de processamento de simulação 413 e supre os dados de imagem de pseudo-polegadas de n” polegadas à unidade de controle de exibição 13 como dados de imagem processados.
Figura 24 ilustra um exemplo de exibição do aparelho de exibição 2 em um caso em que a unidade de processamento de sinal 12 é construída conforme ilustrado na Figura 23.
No aparelho de exibição 2 de um LCD, uma imagem de verificação com uma polegada básica N é exibida na região de exibição #0. Também, uma imagem obtida magnificando a imagem correspondente aos dados de imagem de pseudo-polegadas de n polegadas m vezes, uma imagem equivalente a uma imagem obtida exibindo em um PDP uma imagem obtida magnificando a imagem correspondente aos dados de imagem de pseudo- polegadas de n’ polegadas m’ vezes, e uma imagem equivalente a uma imagem obtida exibindo em um CRT, uma imagem obtida magnificando a imagem correspondente aos dados de imagem de pseudo-polegadas de n” polegadas m” vezes são exibidas na região de exibição #1, região de exibição #2 e região de exibição #3, respectivamente.
Portanto, em um caso em que um imagem servindo como um programa a partir de uma estação de radiodifusão é magnificada e exibida em 5 cada um dentre um aparelho de exibição possuindo um LCD, um aparelho de exibição possuindo um PDP e um aparelho de exibição possuindo um CRT, que possuem vários números de polegadas, entre aparelhos de exibição no lado de recepção, o estado da imagem exibida pode ser verificado.
Conforme acima, de acordo com o sistema de monitor da Figura 1, simulação da exibição de imagens em vários aparelhos de exibição no lado de recepção, pode ser efetuada, e pode ser verificado como as imagens são exibidas nos vários aparelhos de exibição no lado de recepção.
Incidentalmente, o processo de conversão de imagem descrito acima é, por exemplo, um processo de converter dados de imagem em dados 15 de imagem tendo um número maior de pixéis que os dados de imagem, dados de imagem possuindo uma taxa de quadro mais alta ou similar, isto é, um processo de converter primeiros dados de imagem em segundos dados de imagem. O processo de conversão de imagem de conversão dos primeiros dados de imagem nos segundos dados de imagem pode ser executado usando, 20 por exemplo, um processo adaptativo de classificação de classe.
Aqui, o processo de conversão de imagem de converter primeiros dados de imagem em segundos dados de imagem é executado em vários processos, pela definição dos primeiros e segundos dados de imagem.
Isto é, por exemplo, se os primeiros dados de imagem são 25 configurados com dados de imagem de baixa resolução espacial e os segundos dados de imagem são configurados como dados de imagem de alta resolução espacial, o processo de conversão de imagem pode ser considerado um processo de criação de resolução espacial (melhoramento) para melhorar a resolução espacial. Adicionalmente, por exemplo, se os primeiros dados de imagem são configurados como dados de imagem de baixa S/N (relação Sinal/Ruído) e os segundos dados de imagem são configurados como dados de imagem de alta S/N, o processo de conversão de imagem pode ser dito um 5 processo de remoção de ruído para remover ruído.
Ainda mais, por exemplo, se os primeiros dados de imagem são configurados como dados de imagem possuindo um número de pixéis predeterminado (tamanho) e os segundos dados de imagem são configurados como dados de imagem possuindo um número de pixéis maior ou menor que 10 os primeiros dados de imagem, o processo de conversão de imagem pode ser dito um processo de redimensionamento para mudar o número de pixéis de uma imagem (redimensionamento (aumentar ou diminuir a escala de) uma imagem).
Ainda mais, por exemplo, se os primeiros dados de imagem 15 são configurados como dados de imagem de baixa resolução temporal e os segundos dados de imagem são configurados como dados de imagem de alta resolução temporal, o processo de conversão de imagem pode ser dito um processo de criação de resolução (melhoramento) para melhorar a resolução temporal (taxa de quadro).
Notar que no processo de criação de resolução espacial,
quando os primeiros dados de imagem que são dados de imagem de baixa resolução espacial são convertidos em segundos dados de imagem que são dados de imagem de alta resolução espacial, os segundos dados de imagem podem ser configurados como dados de imagem possuindo o mesmo número 25 de pixéis que os primeiros dados de imagem ou dados de imagem possuindo um número maior de pixéis que os primeiros dados de imagem. Em um caso em que os segundos dados de imagem são configurados como dados de imagem possuindo um número de pixéis maior que os primeiros dados de imagem, o processo de criação de resolução espacial é um processo para melhorar a resolução espacial e é também um processo de redimensionamento para aumentar o tamanho da imagem (o número de pixéis).
Conforme acima, de acordo com o processo de conversão de imagem, vários processos podem ser realizados, dependendo de como os primeiros e segundos dados de imagem são definidos.
Em um caso em que o processo de conversão de imagem conforme acima é efetuado usando um processo adaptativo de classificação de classe, é efetuada computação usando um coeficiente de derivação de uma classe obtida classificando (o valor de pixel de) um pixel de interesse ao qual é direcionada a tensão dentro dos segundos dados de imagem em uma classe dentre diversas classes e usando (valor de pixel de) um pixel dos primeiros dados de imagem que é selecionado em relação ao pixel de interesse. Conseqüentemente, (o valor de pixel de) o pixel de interesse é determinado.
Isto é, Figura 25 ilustra um exemplo de estrutura de um dispositivo de conversão de imagem 101 que efetua um processo de conversão de imagem usando o processo adaptativo de classificação de classe.
No dispositivo de conversão de imagem 101, dados de imagem fornecidos a ele são supridos a unidades de seleção de derivação 112 e 113 como primeiros dados de imagem.
Uma unidade de seleção de pixel de interesse 111 configura seqüencialmente pixéis constituindo segundos dados de imagem como pixéis de interesse, e fornece informação indicando os pixéis de interesse a um bloco necessário.
A unidade de seleção de derivação 112 seleciona, como derivações de predição, alguns dos (os valores de pixel de) pixéis constituindo os primeiros dados de imagem que são usados para prever (o valor de pixel de) um pixel de interesse.
Especificamente, a unidade de seleção de derivação 112 seleciona, como derivações de predição, diversos pixéis dos primeiros dados de imagem que estão espacialmente ou temporalmente localizados próximo à posição tempo-espaço de um pixel de interesse.
A unidade de seleção de derivação 113 seleciona, como derivações de classe, alguns dos pixéis constituindo os primeiros dados de 5 imagem que são usados para classificação de classe, para separar o pixel de interesse em uma ou várias classes. Isto é, a unidade de seleção de derivação 113 seleciona derivações de classe de uma maneira similar a aquela pela qual a unidade de seleção de derivação 112 seleciona derivações de predição.
Notar que as derivações de predição e as derivações de classe podem ter a mesma configuração de derivação ou podem ter diferentes configurações de derivação.
As derivações de predição obtidas pela unidade de seleção de derivação 112 são fornecidas a uma unidade de computação preditiva 116, e as derivações de classe obtidas pela unidade de seleção de derivação 113 são fornecidas a uma unidade de classificação de classe 114.
A unidade de classificação de classe 114 efetua classificação de classe do pixel de interesse em uma classe, com base nas derivações de classe a partir da unidade de seleção de derivação 113, e fornece um código de classe correspondente à classe obtida como resultado da classificação de classe, a uma unidade de saída de coeficiente 115.
Aqui, por exemplo, ADRC (Codificação de Alcance Dinâmico Adaptativo) ou similar pode ser adotado como um método para efetuar classificação de classe.
Em um método usando ADRC, (os valores de pixel de) pixéis constituindo as derivações de classe são processados ADRC para obter um código ADRC de acordo com o qual a classe do pixel de interesse é decidida.
Notar que, em um ADRC de K bits, por exemplo, um valor máximo MAX e um valor mínimo MIN dos valores de pixel dos pixéis constituindo derivações de classe, são detectados e DR = MAX - MIN é configurado como alcance dinâmico local da configuração. Com base nesta faixa dinâmica DR, os valores de pixel dos pixéis constituindo as derivações de classe são novamente quantizados para K bits. Isto é, o valor mínimo MIN é subtraído do valor de pixel de cada um dos pixéis constituindo as derivações de classe, e o valor de subtração é dividido (novamente quantizado) por DR/2K. Então, uma cadeia de bits na qual os valores de pixel dos pixéis de K bits individuais constituindo as derivações de classe, que são obtidos da maneira acima, são arranjados em uma ordem predeterminada, é emitida como um código ADRC. Portanto, por exemplo, em um caso em que as derivações de classe são processadas ADRC de um bit, o valor de pixel de cada um dos pixéis constituindo as derivações de classe é dividido pelo valor médio do valor máximo MAX e o valor mínimo MIN (truncando casas decimais) de tal modo que o valor de pixel de cada um dos pixéis é formado em um bit (binarizado). Então, uma cadeia de bits na qual os valores de pixel de 1 bit são arranjados em uma ordem predeterminada é emitida como um código ADRC.
Notar que pode ser feito com que a unidade de classificação de classe 114 emita diretamente como um código de classe, por exemplo, a configuração de distribuição de nível dos valores de pixel dos pixéis constituindo as derivações de classe. Entretanto, neste caso, se as derivações de classe são constituídas pelos valores de pixel dos N pixéis e o valor de pixel de cada pixel é designado a K bits, o número de códigos de classe a ser
• N' K
emitido pela unidade de classificação de classe 114 toma-se igual a (2 ) , que é um número significativo e é exponencialmente proporcional ao número de bits K dos valores de pixel dos pixéis.
Portanto, na unidade de classificação de classe 114, preferivelmente, a classificação de classe é efetuada comprimindo a quantidade de informação das derivações de classe usando o processo ADRC descrito acima, quantização de vetor, ou similar. A unidade de saída de coeficiente 115 armazena coeficientes de derivação para classes individuais, que são determinadas pelo aprendizado descrito acima. Adicionalmente, a unidade de saída de coeficiente 115 emite um coeficiente de derivação (coeficiente de derivação da classe, indicado pelo código de classe fornecido a partir da unidade de controle 14) armazenado em um endereço correspondente ao código de classe fornecido a partir da unidade de controle 14 dentre os coeficientes de derivação armazenados. O coeficiente de derivação é fornecido à unidade de computação preditiva 116.
Aqui, o termo coeficiente de derivação é equivalente a um coeficiente a ser multiplicado por dados de entrada em uma assim chamada derivação de um filtro digital.
A unidade de computação preditiva 116 obtém as derivações de predição emitidas pela unidade de seleção de derivação 112 e os coeficientes de derivação emitidos a partir da unidade de saída de coeficiente 115, e executa computação preditiva predeterminada para determinar um valor de predição do valor verdadeiro do pixel de interesse, usando as derivações de predição e os coeficientes de derivação. Conseqüentemente, a unidade de computação preditiva 116 determina e emite (o valor de predição) do valor de pixel do pixel de interesse, isto é, os valores de pixel dos pixéis constituindo os segundos dados de imagem.
A seguir, um processo de conversão de imagem executado pelo dispositivo de conversão de imagem 101 da Figura 25 será explicado com referência a um fluxograma da Figura 26.
Na etapa S111, a unidade de seleção de pixel de interesse 111 seleciona, como um pixel de interesse, um dos pixéis não selecionado como pixel de interesse, dentre os pixéis constituindo os segundos dados de imagem relativos aos primeiros dados de imagem inseridos no dispositivo de conversão de imagem 101, e avança para a etapa Sl 12. Isto é, a unidade de seleção de pixel de interesse 111 seleciona, por exemplo, pixéis não selecionados como pixel de interesse dentre os pixéis constituindo os segundos dados de imagem na ordem de exploração da linha de pixéis, como pixel de interesse.
Na etapa Sl 12, as unidades de seleção de derivação 112 e 113 5 selecionam derivações de predição e derivações de classe para o pixel de interesse, respectivamente, a partir dos primeiros dados de imagem fornecidos a elas. Então, as derivações de predição são fornecidas a partir da unidade de seleção de derivação 112 à unidade de computação preditiva 116 e as derivações de classe são fornecidas a partir da unidade de seleção de 10 derivação 113 para a unidade de classificação de classe 114.
A unidade de classificação de classe 114 recebe as derivações de classe para o pixel de interesse a partir da unidade de seleção de derivação 113 e, na etapa Sl 13 efetua classificação de classe dos pixéis de interesse, com base nas derivações de classe. Adicionalmente, a unidade de 15 classificação de classe 114 emite o código de classe indicando a classe do pixel de interesse obtida como um resultado da classificação de classe à unidade de saída de coeficiente 115, e avança para a etapa Sl 14.
Na etapa Sl 14, a unidade de saída de coeficiente 115 obtém e emite os coeficientes de derivação armazenados no endereço correspondente ao código de classe fornecido a partir da unidade de classificação de classe
114. Adicionalmente, na etapa Sl 14, a unidade de computação preditiva 116 obtém os coeficientes de derivação emitidos a partir da unidade de saída de coeficiente 115, e avança para a etapa Sl 15.
Na etapa Sl 15, a unidade de computação preditiva 116 efetua 25 computação preditiva predeterminada usando as derivações de predição emitidas a partir da unidade de seleção de derivação 112 e os coeficientes de derivação obtidos a partir da unidade de saída de coeficiente 115. Conseqüentemente, a unidade de computação preditiva 116 determina e emite o valor de pixel do pixel de interesse, e avança para a etapa Sl 16. Na etapa SI 16, a unidade de seleção de pixel de interesse 111 determina se permanecem ou não segundos dados de imagem não selecionados como um pixel de interesse. Em um caso em que é determinado na etapa S116 que permanecem segundos dados de imagem não selecionados como um pixel de interesse, o processo retoma à etapa Slll e subseqüentemente um processo similar é repetido.
Também, em um caso em que é determinado na etapa Sl 16 que não permanecem segundos dados de imagem não selecionados como um pixel de interesse, o processo termina.
A seguir, será dada uma explicação da computação preditiva na unidade de computação preditiva 116 da Figura 25 e o aprendizado e coeficientes de derivação armazenados na unidade de saída de coeficiente
115.
Agora é considerado que, por exemplo, dados de imagem com alta qualidade de imagem (dados de imagem de alta qualidade de imagem) são usados como segundos dados de imagem, e dados de imagem com baixa qualidade de imagem (dados de imagem de baixa qualidade de imagem) obtidos reduzindo a qualidade de imagem (resolução) dos dados de imagem de alta qualidade de imagem, por filtragem ou similar usando um LPF (Filtro Passa Baixa) são usados como primeiros dados de imagem para selecionar derivações de predição a partir dos dados de imagem de baixa qualidade de imagem, e que os valores de pixel dos pixéis de dados de imagem de alta qualidade de imagem (pixéis de alta qualidade de imagem) são determinado (previstos) usando as derivações de predição e coeficientes de derivação, usando computação preditiva predeterminada.
Por exemplo, se é adotada computação preditiva de primeira ordem linear como a computação preditiva predeterminada, um valor de pixel y de um pixel de alta qualidade de imagem pode ser determinado pela seguinte equação de primeira ordem linear. [Mat. 1]
Neste ponto de vista, na Equação (1), xn representa o valor de
pixel do n-ésimo pixel dos dados de imagem de alta qualidade de imagem (posteriormente referido como um pixel de baixa qualidade de imagem, 5 conforme desejado) constituindo as derivações de predição para o pixel de alta qualidade de imagem y, e wn representa o n-ésimo coeficiente de derivação a ser multiplicado pelo (o valor de pixel do) n-ésimo pixel de baixa qualidade de imagem. Notar que, na Equação (1) as derivações de predição são constituídas por N pixéis de baixa qualidade de imagem Xi, x2, ..., Xn- 10 Aqui, o valor de pixel y do pixel de alta qualidade de imagem
pode também ser determinado por uma equação de ordem mais alta ao invés da equação linear de primeira ordem dada na Equação (1).
Agora, o valor verdadeiro do valor de pixel do pixel de alta qualidade de imagem da k-ésima amostra é representado por yk, e o valor de predição do valor verdadeiro yk desta, que é obtido pela Equação (1), é representado por yk\ Então, um erro de predição ek entre eles é expresso pela seguinte equação.
[Mat. 2]
de acordo com a Equação (1). Então, substituindo yk’ na Equação (2) de acordo com a Equação (1) resulta a seguinte equação.
pixel de baixa qualidade de imagem constituindo as derivações de predição
[Mat. 3]
Neste ponto de vista, na Equação (3), xn k representa o n-ésimo para o pixel de alta qualidade de imagem da k-ésima amostra.
O coeficiente de derivação wn que permite que o erro de predição ek na Equação (3) (ou Equação (2)) seja 0, toma-se ótimo para prever o pixel de alta qualidade de imagem. Em geral, entretanto, é difícil determinar o coeficiente de derivação dn para todos os pixéis de alta qualidade de imagem.
Então, por exemplo, se o método dos quadrados mínimos é adotado como um padrão, indicando que o coeficiente de derivação wn é ótimo, o coeficiente de derivação ótimo wn pode ser determinado minimizando a soma total E dos erros quadráticos expressos pela seguinte equação.
[Mat. 4]
K
E= Σ ek2
k=1 (4)
Neste ponto de vista, na Equação (4), K representa o número de amostras (o número de amostras de aprendizado) de conjuntos do pixel de alta qualidade de imagem yk e os pixéis de baixa qualidade de imagem X1^ k, x2, k> ···> xN, k que constituem as derivações de predição para o pixel de alta qualidade de imagem yk.
O valor mínimo (valor mínimo local) da soma total E dos erros quadráticos na Equação (4) é dado por wn que permite que o valor obtido diferenciando parcialmente a soma total E com o coeficiente de derivação wn seja 0, conforme dado na Equação (5).
[Mat. 5]
®E -e,4!L+e2^ + ---+ek-^=0 (n=1, 2, · · ·, N)
9wn 1 dWn 1 3wn K dWn ’ ’ ’ (5)
Então, diferenciando parcialmente a Equação (3) descrita acima com o coeficiente de derivação wn resultam as seguintes equações.
[Mat. 6] k. -IS- = "«· IS- = -χΝ. k. (k=1. 2. · · ·, Κ)
3W2 ’ 9wn ......... (6)
As equações abaixo são obtidas das Equações (5) e (6).
[Mat. 7]
KK K
ZekXi1 k=0. ZekX2,k=0, ■--ZekXN1K=O k=1 k=1 k=1
(7)
Substituindo Equação (3) em ek na Equação (7), Equação (7) pode ser expressa por equações normais dadas na Equação (8).
[Mat. 8]
K K K
(£Xl,kXl,k) (Zx1,kx2,k) · ■ (£Xl,kXN,k)
k=1 k=1 k=1
KK K
( Σ χ2. kx1, k) (Zx2,kX2,k) (Zx2, kxN, k)
k=1 k=1 k=1
KK K
(ΣΧΝ, kx1,k) (XXN, kX2, k) (ZxN,kXN,k) k=1 k=1 k=1
Wl
W2
WN
, K
(Zx1.kYk) k=1 / K
(Z x2, kYk) k=1
(Z χΝ, kYk) k=1
(8)
As equações normais na Equação (8) podem ser resolvidas para o coeficiente de derivação wn usando, por exemplo, um método de varredura (método de eliminação de Gauss-Jordan) ou similar.
Formulando e resolvendo as equações normais na Equação (8) para cada classe, o coeficiente de derivação ótimo (aqui, coeficiente de derivação que minimiza a soma total E dos erros quadráticos), wn pode ser determinado para cada classe.
A seguir, Figura 27 ilustra um exemplo de estrutura de um dispositivo de aprendizado 121 que executa aprendizado para determinar o coeficiente de derivação wn formulando e resolvendo as equações normais na Equação (8).
Uma unidade de armazenagem de imagem de aprendizado 131 armazena dados de imagem de aprendizado para aprendizado do coeficiente de derivação wn. Aqui, por exemplo, dados de imagem de alta qualidade possuindo alta resolução podem ser usados como os dados de imagem de aprendizado. Uma unidade de geração de dados de professor 132 lê os dados de imagem de aprendizado a partir da unidade de armazenagem de imagem de aprendizado 131. Adicionalmente, a unidade de geração de dados de professor
132 gera um professor (valor verdadeiro) do aprendizado de um coeficiente de derivação, isto é, dados de professor consistem em um valor de pixel mapeado do mapeamento como a computação preditiva dada pela Equação (1), a partir dos dados de imagem de aprendizado, e fornece os dados de professor a uma unidade de armazenagem de dados de professor 133. Aqui, a unidade de geração de dados de professor 132 fornece, por exemplo, dados de imagem de alta qualidade de imagem servindo como os dados de imagem de aprendizado diretamente à unidade de armazenagem de dados de professor
133 como dados de professor.
A unidade de armazenagem de dados de professor 133 armazena os dados de imagem de alta qualidade de imagem como dados de professor fornecidos a partir da unidade de geração de dados de professor
132.
Uma unidade de geração de dados de estudante 134 lê os dados de imagem de aprendizado a partir da unidade de armazenagem de imagem de aprendizado 131. Adicionalmente, a unidade de geração de dados de estudante 134 gera um estudante do aprendizado do coeficiente de derivação, isto é, dados de estudante que consistem em um valor de pixel a ser convertido mapeando como a computação preditiva dada pela Equação (1), a partir dos dados de imagem de aprendizado, e fornece os dados de estudante a uma unidade de armazenagem de dados de estudante 135. Aqui, por exemplo, a unidade de geração de dados de estudante 134 filtra dados de imagem de alta qualidade de imagem servindo como os dados de imagem de aprendizado para reduzir a resolução desta, para gerar dados de imagem de baixa qualidade de imagem, e fornece estes dados de baixa qualidade de imagem à unidade de armazenagem de dados de estudante 135 como dados de estudante.
A unidade de armazenagem de dados de estudante 135 armazena os dados de estudante fornecidos a partir da unidade de geração de dados de estudante 134.
Uma unidade de aprendizado 136 ajusta seqüencialmente, como pixéis de interesse, pixéis constituindo os dados de imagem de alta qualidade de imagem servindo como dados de professor armazenados na unidade de armazenagem de dados de professor 133 e seleciona, para cada pixel de interesse, com derivações de predição, pixéis de baixa qualidade de imagem possuindo a mesma configuração de derivação daqueles selecionados pela unidade de seleção de derivação 112 da Figura 25 entre os pixéis de baixa qualidade de imagem constituindo os dados de imagem de baixa qualidade de imagem servindo como os dados de estudante armazenados na unidade de armazenagem de dados de estudante 135. Adicionalmente, a unidade de aprendizado 136 formula e resolve as equações normais na Equação (8) para cada classe, usando cada um dos pixéis constituindo os dados de professor e as derivações de predição selecionadas quando este pixel é configurado como um pixel de interesse, determinando deste modo coeficientes de derivação para cada classe.
Isto é, Figura 28 ilustra um exemplo de estrutura da unidade de aprendizado 136 da Figura 27.
Uma unidade de seleção de pixel de interesse 141 seleciona seqüencialmente, como pixéis de interesse, pixéis constituindo os dados de professor armazenados na unidade de armazenagem de dados de professor 133, e fornece informação indicando cada pixel de interesse para um bloco necessário.
Uma unidade de seleção de derivação 142 seleciona, para cada pixel de interesse, os mesmos pixéis daqueles selecionados pela unidade de seleção de derivação 112 da Figura 25, a partir dos pixéis de baixa qualidade de imagem constituindo os dados de imagem de baixa qualidade de imagem, servindo como os dados de estudante armazenados na unidade de armazenagem de dados de estudante 135. Conseqüentemente, a unidade de seleção de derivação 142 obtém derivações de predição possuindo a mesma configuração de derivação obtida pela unidade de seleção de derivação 112, e fornece as derivações de predição a uma unidade de adição adicional 145.
A unidade de seleção de derivação 143 seleciona, para cada pixel de interesse, os mesmos pixéis selecionados pela unidade de seleção de derivação 113 da Figura 25, a partir dos pixéis de baixa qualidade de imagem constituindo os dados de imagem de baixa qualidade de imagem servindo como dados de estudante armazenados na unidade de armazenagem de dados de estudante 135. Conseqüentemente, a unidade de seleção de derivação 143 obtém derivações de classe apresentando a mesma configuração de derivação obtida pela unidade de seleção de derivação 113, e fornece as derivações de classe a uma unidade de classificação de classe 144.
A unidade de classificação de classe 144 efetua a mesma classificação de classe da unidade de classificação de classe 114 da Figura 25, com base na saída de derivações de classe a partir da unidade de seleção de derivação 143, e emite o código de classe correspondente a uma classe resultante, para a unidade de adição adicional 145.
A unidade de adição adicional 145 lê dados de professor (pixel) que consistem num pixel de interesse, a partir da unidade de armazenagem de dados de professor 133 e executa, para cada código de classe fornecido a partir da unidade de classificação de classe 144, adição adicional neste pixel de interesse e os dados de estudante (pixéis) constituindo as derivações de predição para os pixéis de interesse fornecidos a partir da unidade de seleção de derivação 142.
Isto é, a unidade de adição adicional 145 é suprida com os dados de professor yk armazenados na unidade de armazenagem de dados de professor 133, a derivação de predição xnk emitida a partir da unidade de seleção de derivação 142 e o código de classe emitido a partir da unidade de classificação de classe 144.
Então, a unidade de adição adicional 145 efetua computação equivalente à multiplicação (xn, kxn- k) dos itens de dados de estudante na matriz do lado esquerdo da Equação (8) e o somatório (Σ) para cada classe correspondente ao código de classe fornecido a partir da unidade de classificação de classe 144, usando a derivação de predição (dados de estudante) xn k.
Adicionalmente, a unidade de adição adicional 145 também efetua computação equivalente à multiplicação (xn, ^k) dos dados de estudante xn k e dados de professor yk no vetor do lado direito da Equação (8) e o somatório (Σ) para cada classe correspondente ao código de classe fornecido a partir da unidade de classificação de classe 144, usando a derivação de predição (dados de estudante) xn k e os dados de professor yk.
Isto é, a unidade de adição adicional 145 armazena em uma memória incorporada nela (não ilustrada) a componente (Σχη, kxn',k) na matriz do lado esquerdo da Equação (8) e a componente (Σχη, kYk) no vetor do lado direito desta, determinado para os dados de professor que consistem no pixel prévio de interesse, e adicionalmente adiciona (efetua adição expressa pelo somatório na Equação (8)) a componente correspondente xn.k+ixn\k+i ou Xn.k+iYk+i, o que é calculado para dados de professor que consistem de um novo pixel de interesse usando os dados de professor yk+i e os dados de estudante xn,k+i, ao componente (Σχη, kxiv,k) na matriz da componente (Σχη, kyk) do vetor.
E a unidade de adição adicional 145 efetua a adição adicionalmente descrita acima para todos os dados de professor armazenados na unidade de armazenagem de dados de professor 133 (Figura 27) como pixéis de interesse, de tal modo que as equações normais dadas na Equação (8) são formuladas para cada classe, e então fornece as equações normais a uma unidade de cálculo de coeficiente de derivação 146.
A unidade de cálculo de coeficiente de derivação 146 resolve as equações normais para cada classe fornecida a partir da unidade de adição adicional 145, determinando deste modo e emitindo um coeficiente de derivação wn ótimo para cada classe.
A unidade de saída de coeficiente 115 no dispositivo de conversão de imagem 101 da Figura 25 armazena o coeficiente de derivação wn para cada classe determinada conforme acima.
Aqui, conforme descrito acima, coeficientes de derivação para executar vários processos de conversão de imagem, podem ser obtidos, dependendo de como selecionar dados de imagem que são os dados de estudante correspondentes aos primeiros dados de imagem e dados de imagem que consistem nos dados de professor correspondentes aos segundos dados de imagem.
Isto é, conforme descrito acima, o aprendizado de um coeficiente de derivação é efetuado usando dados de imagem de alta qualidade de imagem como os dados de professor correspondentes aos segundos dados de imagem e dados de imagem de baixa qualidade de imagem obtidos degradando a resolução espacial dos dados de imagem de alta qualidade de imagem como os dados de estudante correspondentes aos primeiros dados de imagem.
Conseqüentemente, um coeficiente de derivação para executar, conforme ilustrado na parte superior da Figura 29, um processo de conversão de imagem como um processo de criação de resolução espacial para converter primeiros dados de imagem, que são os dados de imagem de baixa qualidade de imagem (imagem SD (Definição Padrão)) em segundos dados de imagem que são os dados de imagem de alta qualidade de imagem (dados de imagem HD (Alta Definição)) com resolução espacial melhorada, podem ser obtidos. Notar que, neste caso, o número de pixéis dos primeiros dados de imagem (dados de estudante) podem ser os mesmos ou menores que aqueles dos segundos dados de imagem (dados de professor).
Também, por exemplo, o aprendizado de um coeficiente de derivação é executado usando dados de imagem de alta qualidade de imagem servindo como os dados de professor e dados de imagem, que são obtidos superpondo ruído a estes dados de imagem de alta qualidade de imagem servindo como dados de professor, como dados de estudante. Conseqüentemente, pode ser obtido um coeficiente de derivação para executar, conforme ilustrado na segunda parte a partir do topo da Figura 29, um processo de conversão de imagem como um processo de remoção de ruído para converter primeiros dados de imagem que são dados de imagem de baixa S/N em segundos dados de imagem que são dados de imagem de alta S/N, a partir dos quais o ruído contido nos primeiros dados de imagem é removido (reduzido).
Adicionalmente, por exemplo, o aprendizado de um coeficiente de derivação é executado usando certos dados de imagem servindo como dados de professor e dados de imagem, o que é obtido tomando mais esparso o número de pixéis destes dados de imagem servindo como os dados de professor, como dados de estudante. Conseqüentemente, um coeficiente de derivação para executar, conforme ilustrado na terceira parte do topo da Figura 29, um processo de conversão de imagem como um processo de redimensionamento (processo para mudar o número de pixéis) para converter primeiros dados de imagem que são o todo ou parte de certos dados de imagem nos segundos dados de imagem, que são dados de imagem magnificados obtidos magnificando os primeiros dados de imagem, pode ser obtido.
Notar que o coeficiente de derivação para executar o processo de redimensionamento pode também ser obtido pelo aprendizado dos coeficientes de derivação usando dados de imagem de alta qualidade de imagem como dados de professor e dados de imagem de baixa qualidade de imagem, o que é obtido degradando a resolução espacial dos dados de imagem de alta qualidade de imagem, tomando mais esparso o número de pixéis, como dados de estudante.
Adicionalmente, por exemplo, o aprendizado de um coeficiente de derivação é executado usando dados de imagem de alta taxa de quadro como os dados de professor e dados de imagem o que é obtido tomando mais esparsos os quadros dos dados de imagem de alta taxa de quadro servindo como os dados de professor, como os dados de estudante. Conseqüentemente, um coeficiente de derivação para executar, conforme ilustrado na quarta parte (fundo) a partir do topo da Figura 29, um processo de conversão de imagem como um processo de criação de resolução temporal para converter primeiros dados de imagem possuindo uma taxa de quadro predeterminada em segundos dados de imagem possuindo uma taxa de quadro mais alta, pode ser obtido.
A seguir, o processo (processo de aprendizado) do dispositivo de aprendizado 121 da Figura 27, será explicado com referência a um fluxograma da Figura 30.
Primeiramente, na etapa S121, a unidade de geração de dados de professor 132 e a unidade de geração de dados de estudante 134 geram dados de professor correspondente (equivalentes) aos segundos dados de imagem a serem obtidos no processo de conversão de imagem, e dados de estudante correspondente aos primeiros dados de imagem a serem submetidos ao processo de conversão de imagem, respectivamente, a partir dos dados de imagem de aprendizado armazenados na unidade de armazenagem de imagem de aprendizado 131, e fornece os dados de professor e os dados de estudante à unidade de armazenagem de dados de professor 133 e unidade de geração de dados de estudante 134, respectivamente, para armazenagem. Notar que qual espécie de dados de estudante e dados de professor é gerada na unidade de geração de dados de professor 132 e unidade de geração de dados de estudante 134, respectivamente, varia, dependendo de qual dos tipos de processos de conversão de imagem, conforme descrito acima, é usado para aprendizagem de um coeficiente de derivação.
Posteriormente, o processo avança para a etapa S122, na qual a unidade de aprendizado 136 (Figura 28), a unidade de seleção de pixel de interesse 141 seleciona, como um pixel de interesse, dados de professor não selecionados como um pixel de interesse a partir dos dados de professor armazenados na unidade de armazenagem de dados de professor 133. O processo avança para a etapa S123. Na etapa S123, a unidade de seleção de derivação 142 seleciona, para o pixel de interesse, um pixel como dados de estudante, que é uma derivação de predição, a partir dos dados de estudante armazenados na unidade de armazenagem de dados de estudante 135, e o fornece à unidade de adição adicional 145. Em adição, a unidade de seleção de derivação 143 também seleciona, para o pixel de interesse, dados de estudante formando uma derivação de classe a partir dos dados de estudante armazenados na unidade de armazenagem de dados de estudante 135, e os fornece à unidade de classificação de classe 144.
Então, o processo avança para a etapa S124, na qual a unidade de classificação de classe 144 executa classificação de classe do pixel de interesse com base na derivação de classe para o pixel de interesse, e emite o código de classe correspondente à classe obtida, como um resultado da classificação de classe para a unidade de adição adicional 145. O processo avança para a etapa S125.
Na etapa S125, a unidade de adição adicional 145 lê um pixel de interesse a partir da unidade de armazenagem de dados de professor 133 e executa, para cada código de classe fornecido a partir da unidade de classificação de classe 144, adição adicional dada na Equação (8) neste pixel de interesse e os dados de estudante constituindo a derivação de predição selecionada para o pixel de interesse, o que é fornecido à unidade de seleção de derivação 142. O processo avança para a etapa S126.
Na etapa S126, a unidade de seleção de pixel de interesse 141 determina se dados de professor não selecionados como um pixel de interesse ainda estão ou não armazenados na unidade de armazenagem de dados de professor 133. Em um caso em que é determinado na etapa S126 que dados de professor não selecionados como um pixel de interesse ainda estão armazenados na unidade de armazenagem de dados de professor 133, o processo avança para a etapa S122, e subseqüentemente um processo similar é repetido.
Também, em um caso em que é determinado na etapa S126, que dados de professor não selecionados como um pixel de interesse não estão armazenados na unidade de armazenagem de dados de professor 133, a unidade de adição adicional 145 fornece as matrizes do lado esquerdo e os vetores do lado direito da Equação (8) para as classes individuais obtidas no processamento precedente das etapas S122 a S126 para a unidade de cálculo de coeficiente de derivação 146. O processo avança para a etapa S127.
Na etapa S127, a unidade de cálculo de coeficiente de derivação 146 resolve as equações normais para cada classe, que são constituídas pela matriz do lado esquerdo e pelo vetor do lado direito da Equação (8), para cada classe fornecida a partir da unidade de adição adicional 145, determinando deste modo e emitindo um coeficiente de derivação wn para cada classe. O processo termina.
Notar que pode haver uma classe para a qual um número requerido de equações normais para determinar um coeficiente de derivação não pode ser obtido, devido a um número insuficiente de itens de dados de imagem de aprendizado ou similar. Para tal classe, a unidade de cálculo de coeficiente de derivação 146 é configurada para emitir, por exemplo, um coeficiente de derivação padrão.
A seguir, Figura 31 ilustra um exemplo de estrutura de um dispositivo de conversão de imagem 151, que é um outro dispositivo de conversão de imagem que executa um processo de conversão de imagem usando o processo adaptativo de classificação de classe. O processo termina.
Notar que pode haver uma classe para a qual um número requerido de equações normais para determinar um coeficiente de derivação não pode ser obtido, devido a um número insuficiente de itens de dados de imagem de aprendizado ou similar. Para tal classe, a unidade de cálculo de coeficiente de derivação 146 é configurada para emitir, por exemplo, um coeficiente de derivação padrão.
A seguir, Figura 31 ilustra um exemplo de estrutura de um dispositivo de conversão de imagem 151, que é um outro dispositivo de conversão de imagem que executa um processo de conversão de imagem usando o processo adaptativo de classificação de classe.
Notar que, nas figuras, porções correspondentes ao caso da Figura 25 são designadas pelos mesmos numerais, e explicações destas são omitidas posteriormente, conforme desejado. Isto é, o dispositivo de conversão de imagem 151 é construído de uma maneira similar ao dispositivo de conversão de imagem 101 da Figura 25, exceto que uma unidade de saída de coeficiente 155 é provida em lugar da unidade de saída de coeficiente 115.
A unidade de saída de coeficiente 155 é configurada para ser suprida com, em adição a uma classe (código de classe) a partir da unidade de classificação de classe 114, por exemplo, um parâmetro z inserido de fora, de acordo com uma operação do usuário. A unidade de saída de coeficiente 155 gera um coeficiente de derivação para cada classe, correspondente ao parâmetro z, de uma maneira descrita abaixo, e emite o coeficiente de derivação para a classe, a partir da unidade de classificação de classe 114, entre os coeficientes de derivação para as classes individuais para a unidade de computação preditiva 116.
Figura 32 ilustra um exemplo de estrutura da unidade de saída de coeficiente 155 da Figura 31.
Uma unidade de geração de coeficiente 161 gera um coeficiente de derivação para cada classe com base nos dados de implante de coeficiente armazenados em uma memória de implantação de coeficiente 162 e o parâmetro z armazenado em uma memória de parâmetro 163, e fornece o coeficiente de derivação a uma memória de coeficiente 164 para armazenagem em forma de sobrescrita.
A memória de implantação de coeficiente 162 armazena dados de implantação de coeficiente para as classes individuais obtidas, pelo aprendizado dos dados de implantação de coeficiente descritos abaixo. Aqui, os dados de implantação de coeficiente são dados que se tomam uma assim chamada semente para gerar um coeficiente de derivação.
A memória de parâmetro 163 armazena o parâmetro z inserido de fora, de acordo com uma operação do usuário ou similar, de forma sobrescrita.
A memória de coeficiente 164 armazena um coeficiente de derivação para cada classe fornecida a partir da unidade de geração de coeficiente 161 (coeficiente de derivação para cada classe, correspondente ao parâmetro z). Então, a memória de coeficiente 164 lê o coeficiente de derivação para a classe, fornecida a partir da unidade de classificação de classe 114 (Figura 31) e emite o coeficiente de derivação para a unidade de computação preditiva 116 (Figura 31).
No dispositivo de conversão de imagem 151 da Figura 31, quando o parâmetro z é inserido de fora para a unidade de saída de coeficiente 155, o parâmetro z é armazenado na forma de sobrescrita da memória de parâmetro 163 da unidade de saída de coeficiente 155 (Figura 32) com o mesmo. Quando o parâmetro z é armazenado na memória de parâmetro 163 (o conteúdo armazenado na memória de parâmetro 163 é atualizado), a unidade de geração de coeficiente 161 lê dados de implantação de coeficiente para cada classe, a partir da memória de implantação de coeficiente 162 e também lê o parâmetro z a partir da memória de parâmetro 163, para determinar um coeficiente de derivação para cada classe, com base nos dados de implantação de coeficiente e no parâmetro z. Então, a unidade de geração de coeficiente 161 fornece o coeficiente de derivação para cada classe individual à memória de coeficiente 164, para armazenagem na forma de sobrescrita.
No dispositivo de conversão de imagem 151, um processo similar ao processo de acordo com o fluxograma da Figura 26, executado pelo dispositivo de conversão de imagem 101 da Figura 5, é executado, exceto que a unidade de saída de coeficiente 155 provida em lugar da unidade de saída de coeficiente 115 que armazena coeficientes de derivação e que emite os coeficientes de derivação gera e emite o coeficiente de derivação correspondente ao parâmetro z.
A seguir, será dada uma explicação da computação preditiva efetuada na unidade de computação preditiva 116 da Figura 31, e a geração de um coeficiente de derivação e o aprendizado dos dados de implantação de coeficiente a serem armazenados na memória de implantação de coeficiente 162 na unidade de geração de coeficiente 161 da Figura 32.
Como no caso na realização da Figura 25, é considerado que dados de imagem com alta qualidade de imagem (dados de imagem de alta qualidade de imagem) são usados como segundos dados de imagem e dados de imagem com baixa qualidade de imagem (dados de imagem de baixa qualidade de imagem) obtidos reduzindo a resolução espacial dos dados de imagem de alta qualidade de imagem são usados como primeiros dados de imagem para selecionar derivações de predição a partir dos dados de imagem de baixa qualidade de imagem, e que os valores de pixel de pixéis de alta qualidade de imagem que são pixéis dos dados de imagem de alta qualidade de imagem são determinados (previstos) usando as derivações de predição e 5 coeficientes de derivação usando, por exemplo, a computação preditiva de primeira ordem linear na Equação (1).
Aqui, o valor de pixel y do pixel de alta qualidade de imagem pode também ser determinado por uma equação de segunda ordem ou de ordem mais alta, ao invés da equação de primeira ordem linear dada na Equação (1).
Na realização da Figura 32, na unidade de geração de coeficiente 161, um coeficiente de derivação wn é gerado, a partir dos dados de implantação de coeficiente armazenados na memória de implantação de coeficiente 162 e parâmetros z armazenado na memória de parâmetro 163. A 15 geração do coeficiente de derivação wn na unidade de geração de coeficiente 161 é suposta ser efetuada usando a equação abaixo, usando, por exemplo, os dados de implantação de coeficiente e o parâmetro z.
[Mat. 9]
M
Wn ~ Σ β\η, nZm ^
m=1 (9)
Sob este ponto de vista, na Equação (9), Pm n representa o m- ésimo dado de implantação de coeficiente usado para determinar o n-ésimo coeficiente de derivação wn. Notar que na Equação (9), o coeficiente de derivação wn pode ser determinado usando M itens de dados de implantação de coeficiente β1>η, β2,η, ..., βΜ,η·
Aqui, a equação para determinar o coeficiente de derivação wn a partir dos dados de implantação de coeficiente β^ e o parâmetro z não está limitado à Equação (9).
Agora, o valor Zm'1 determinado pelo parâmetro z na Equação (9) é definido na equação abaixo, introduzindo uma nova variável tm.
[Mat. 10]
tm=zm_1 Gn= 1, 2, · ··. M) (10)
Substituindo a Equação (10) na Equação (9), resulta a seguinte
equação.
[Mat. 11]
M
Wn~ Σ β\η, n tm
m=1 (11)
De acordo com a Equação (11), o coeficiente de derivação wn pode ser determinado por uma equação de primeira ordem linear dos dados de implantação de coeficiente Pm n e variável tm.
Incidentalmente, agora, o valor verdadeiro do valor de pixel do pixel de alta qualidade de imagem da k-ésima amostra é representado por yk, e o valor de predição do valor verdadeiro de yk deste obtido pela Equação (1) é representado por yk\ Então, um erro de predição ek entre eles é expresso pela seguinte equação.
[Mat. 12]
Sk=Yk-Yk (12)
Agora, o valor de predição yk’ na Equação (12) é determinado
de acordo com a Equação (1). Então, substituindo yk’ na Equação (12) de acordo com a Equação (1) produz a seguinte equação.
[Mat. 13]
ek=yk-( Σ WnXn, k)
Vn=I J (13)
Sob este ponto de vista, na Equação (13), xnk representa o n- ésimo pixel de baixa qualidade de imagem constituindo as derivações de predição para o pixel de alta qualidade de imagem da k-ésima amostra.
[Mat. 14] ek=Yk ( Σ f Σ Pm, ntm) χη, kj \n=1\m=1 J J (14)
Os dados de implantação de coeficiente pm>n que permitem que o erro de predição ek na Equação (14) seja 0 toma-se ótimo para prever o pixel de alta qualidade de imagem. Em geral, entretanto, é difícil determinar os dados de implantação de coeficiente Pm n para todos os pixéis de alta qualidade de imagem.
Então, por exemplo, se o método de quadrados mínimos é adotado como o padrão indicando que os dados de implantação de coeficiente Pm n são ótimos, os dados de implantação de coeficiente Pm n podem ser determinados minimizando a soma total E dos erros quadráticos, expressa pela seguinte equação.
[Mat. 15]
K
E= Σ ek2
k~1 (15)
Neste sentido, na Equação (15), K representa o número de amostras (o número de amostras de aprendizado) de conjuntos do pixel de alta qualidade de imagem yk, e o pixel de baixa qualidade de imagem Xi>k x2jk, ..., xN k constituindo as derivações de predição para o pixel de alta qualidade de imagem yk.
O valor mínimo (valor mínimo local) da soma total E dos erros quadráticos na Equação (15) é dado por Pmn que permite que o valor obtido diferenciando parcialmente a soma total E em relação aos dados de implantação de coeficiente pm n seja 0, conforme dado na Equação (16).
[Mat. 16]
9 E ir· o _ λ
- Σ2■-=-«--ek-0
d/?m, n 9/?m, n ^g)
Substituir a Equação (13) na Equação (16) resulta na seguinte
equação. [Mat. 17]
I tmXn, Rek= Σ tmXn k (yk- ( Σ ( Σ $m, n^m ) Xn1 k) =0 k=1 k=1 V Vn=IVin=I / /
(17)
Agora, Xi(Pj,q e Yj,p são definidos conforme dado nas Equações
(18) e (19).
[Mat. 18]
K
Xi, p, j, q Σ Xi, ktpXj, ktq k=1
(i =1, 2, · * ·, N: j = 1, 2, · · *,N:p=1, 2, · · ·, M:q=1, 2, · · ·, M) (18) [Mat. 19]
K
Yi, P= Σ Xi, k^pYk k=1
(19)
Neste caso, Equação (17) pode ser expressa pelas equações normais dada na Equação (20) usando X^p^e Yj p.
[Mat. 20]
Xl. 1, 1, 1 Xl, 1, 1,2 · Xl.2,1.1 Xl1 2, 1, 2 ■
Xl1M,1,1 Xl, Μ, 1, 2 ■ X2, 1, 1, 1 X2, 1, 1,2 ■
• XiiIiI1M Xl,1,2,1 ·■■ Xl1I,N,M ■ Xl1 2, I, M Xl,2,2,1 ■·■ Xl, 2, N1 M
• Xl, NI, I, M Xl, M1 2,1 ·■■ Χΐ,Μ,Ν,Μ
• X2. M. I1 Μ X2, M1 2, 1 ·■· X2, Μ. N. M
β I1 1 Yi11 β 2, I Yl1 2 β Μ, I --- Yl1M £ 1.2 Υ2.1 ^ Ν„ Yn1 (20)
Χν,μ, 1,1 Xn,m, 1,2 ·■· Xn1 m,i.m Xn1 m,2,m ■·■ Xn1 M1N1
As equações normais na Equação (20) podem ser resolvidas para os dados de implantação de coeficiente Pm n usando, por exemplo, um método de varredura (método de eliminação de Gauss-Jordan) ou similar.
No dispositivo de conversão de imagem 151 da Figura 31, o aprendizado formulando e resolvendo as equações normais na Equação (20) para cada classe é executado usando um número maior de pixéis de alta 15 qualidade de imagem yu y2, ..., γκ como os dados de professor, que se tomam um professor do aprendizado e usando os pixéis de baixa qualidade de imagem x]>k x2,k, XN,k constituindo derivações de predição para cada pixel de alta qualidade de imagem yk como dados de estudante, o que forma um estudante do aprendizado para, deste modo determinar os dados de implantação de coeficiente Pmn para cada classe, o que é armazenado na memória de implantação de coeficiente 162 da unidade de saída de coeficiente 155 (Figura 32). Na unidade de geração de coeficiente 161, um coeficiente de derivação wn para cada classe é gerado de acordo com a Equação (9) a partir dos dados de implantação de coeficiente Pm n e o parâmetro z armazenado na memória de parâmetro 163. Então, na unidade de computação preditiva 116, Equação (1) é calculada usando seu coeficiente de derivação wn e os pixéis de baixa qualidade de imagem (pixéis dos primeiros dados de imagem) xn constituindo as derivações de predição para o pixel de interesse, como o pixel de alta qualidade de imagem. Conseqüentemente, (o valor de predição próximo ao) valor de pixel do pixel de interesse como o pixel de alta qualidade de imagem pode ser determinado.
A seguir, Figura 33 ilustra um exemplo de estrutura de um dispositivo de aprendizado 171 que executa aprendizado para determinar dados de implantação de coeficiente Pm n para cada classe, formulando e resolvendo as equações normais na Equação (20) para cada classe. Notar que, nas figuras, porções correspondente ao caso do dispositivo de aprendizado 121 da Figura 27 são designadas pelos mesmos numerais, e explicações destas são obtidas posteriormente, se desejado. Isto é, o dispositivo de aprendizado 171 é construído de uma maneira similar ao dispositivo de aprendizado 121 da Figura 27, exceto que uma unidade de geração de dados de estudante 174 e uma unidade de aprendizado 176 são providas em lugar da unidade de geração de dados de estudante 134 e da unidade de aprendizado 136, respectivamente, e que uma unidade de geração de parâmetro 181 é recentemente provida.
Como a unidade de geração de dados de estudante 134 da Figura 27, a unidade de geração de dados de estudante 174 gera dados de estudante a partir dos dados de imagem de aprendizado e fornece os dados de estudante à unidade de armazenagem de dados de estudante 135 para armazenagem.
Neste ponto de vista, a unidade de geração de dados de estudante 174 é configurada para ser suprida, em adição aos dados de imagem de aprendizado, de vários valores dentro de uma faixa que o parâmetro z fornecido à memória de parâmetro 163 da Figura 32 pode assumir, da unidade de geração de parâmetro 181. Isto é, agora, se o valor que o parâmetro z pode assumir é um número real em uma faixa de 0 a Z, a unidade de geração de dados de estudante 174 é configurada para ser suprida, por exemplo, com z = 0, 1,2, ..., Z a partir da unidade de geração de parâmetro 181.
A unidade de geração de dados de estudante 174 gera dados de imagem de baixa qualidade de imagem como os dados de estudante, por exemplo, filtrando dados de imagem de alta qualidade de imagem servindo como os dados de imagem de aprendizado usando um LPF possuindo freqüência de corte correspondente ao parâmetro z fornecido a ele.
Portanto, na unidade de geração de dados de estudante 174, (Z + 1) tipos de dados de imagem de baixa qualidade de imagem possuindo diferentes resoluções espaciais, que servem como os dados de estudante, são gerados para os dados de imagem de alta qualidade de imagem como os dados de imagem de aprendizado. Notar que, aqui, é suposto que, por exemplo, como o valor do parâmetro z aumenta, um LPF possuindo uma freqüência de corte mais alta é usado para filtrar os dados de imagem de alta qualidade de imagem, para gerar dados de imagem de baixa qualidade de imagem como dados de estudante. Portanto, aqui, dados de imagem de baixa qualidade de imagem correspondentes a um parâmetro z possuindo um valor maior têm uma resolução espacial mais alta.
Adicionalmente, na presente realização, para simplicidade de explicação, é suposto que a unidade de geração de dados de estudante 174 gere dados de imagem de baixa qualidade de imagem, reduzindo ambas resoluções espaciais horizontal e vertical dos dados de imagem de alta qualidade de imagem, de uma quantidade correspondente ao parâmetro z.
A unidade de aprendizado 176 determina e emite dados de 5 implantação de coeficiente para cada classe usando os dados de professor armazenados na unidade de armazenagem de dados de professor 133, os dados armazenados na unidade de armazenagem de dados de estudante 135 e o parâmetro z fornecido a partir da unidade de geração de parâmetro 181.
A unidade de geração de parâmetro 181 gera, por exemplo, z = 0, 1, 2, ..., Z conforme descrito acima, com vários valores na faixa que o parâmetro z pode assumir, e os fornece à unidade de geração de dados de estudante 174 e unidade de aprendizado 176.
A seguir, Figura 34 ilustra um exemplo de estrutura da unidade de aprendizado 176 da Figura 33. Notar que, na figura, porções correspondentes ao caso da unidade de aprendizado 136 da Figura 28 são designadas pelos mesmos numerais, e explicações destas são omitidas posteriormente, como desejado.
Como a unidade de seleção de derivação 142 da Figura 28, uma unidade de seleção de derivação 192 seleciona, para um pixel de 20 interesse, derivações de predição possuindo a mesma configuração de derivação selecionada pela unidade de seleção de derivação 112 da Figura 31 a partir de pixéis de baixa qualidade de imagem, constituindo dados de imagem de baixa qualidade de imagem servindo como os dados de estudante armazenados na unidade de armazenagem de dados de estudante 135, e 25 fornece as derivações de predição a uma unidade de adição adicional 195.
Como a unidade de seleção de derivação 143 da Figura 28, a unidade de seleção de derivação 193 também seleciona, para o pixel de interesse, derivações de classe possuindo a mesma configuração de derivação daquelas selecionadas pela unidade de seleção de derivação 113 da Figura 31, a partir dos pixéis de baixa qualidade de imagem constituindo os dados de imagem de baixa qualidade de imagem servindo como os dados de estudante armazenados na unidade de armazenagem de dados de estudante 135, e fornece as derivações de classe à unidade de classificação de classe 144.
5 Na Figura 34, entretanto, as unidades de seleção de derivação
192 e 193 são configuradas para serem fornecidas com o parâmetro z gerado pela unidade de geração de parâmetro 181 da Figura 33. As unidades de seleção de derivação 192 e 193 selecionam derivação de predição e derivações de classe, respectivamente, a partir dos dados de estudante gerados 10 em correspondência com o parâmetro z fornecido a partir da unidade de geração de parâmetro 181 (aqui, a partir dos dados de imagem de baixa qualidade de imagem servindo como dados de estudante gerados usando um LPF possuindo a freqüência de corte correspondente ao parâmetro z).
A unidade de adição adicional 195 lê o pixel de interesse a 15 partir da unidade de armazenagem de dados de professor 133 da Figura 33 e efetua, para cada classe fornecida a partir da unidade de classificação de classe 144, adição adicional neste pixel de interesse, os dados de estudante constituindo as derivações de predição configuradas para o pixel de interesse fornecido a partir da unidade de seleção de derivação 192, e o parâmetro z 20 obtido quando estes dados de estudante são gerados.
Isto é, a unidade de adição adicional 195 é suprida com os dados de professor yk servindo como o pixel de interesse armazenado na unidade de armazenagem de dados de professor 133, derivação de predição Xi,k (xj,k) para o pixel de interesse emitido a partir da unidade de seleção de 25 derivação 192 e a classe do pixel de interesse emitida a partir da unidade de classificação de classe 144. A unidade de adição adicional 195 é também suprida com o parâmetro z obtido quando os dados de estudante constituindo as derivações de predição para o pixel de interesse são gerados, a partir da unidade de geração de parâmetro 181. Então, a unidade de adição adicional 195 executa computação equivalente à multiplicação (x;, ktpXj, ktq) dos dados de estudante e parâmetro z para determinar a componente Xi,Pj,q definida na Equação (18) e o somatório (Σ) na matriz do lado esquerdo da Equação (20), para cada classe fornecida a 5 partir da unidade de classificação de classe 144, usando a derivação de predição (dados de estudante) xijk (xj k) e o parâmetro z. Notar que tp na Equação (18) é calculado a partir do parâmetro z de acordo com a Equação
(10). Similaridade se aplica a tq na Equação (18).
Adicionalmente, a unidade de adição adicional 195 também 10 efetua computação equivalente à multiplicação (x,, ktpyk) dos dados de estudante xj;k e dados de professor yk e parâmetro z para determinar a componente Yj p definida na Equação (19) e o somatório (Σ) no vetor do lado direito da Equação (20), para cada classe correspondente ao código de classe fornecida a partir da unidade de classificação de classe 144, usando a 15 derivação de predição (dados de estudante) Xi k, os dados de professor yk e o parâmetro z. Notar que tp na Equação (19) é calculado a partir do parâmetro z de acordo com a Equação (10).
Isto é, a unidade de adição adicional 195 armazena em uma memória incorporada nela (não ilustrada) a componente Xj,p,j,q na matriz do 20 lado esquerdo e a componente Yi p no vetor do lado direito da Equação (20) determinado para os dados de professor que consistem no pixel prévio de interesse, e adicionalmente adiciona (efetua adição expressa pelo somatório da componente Xj,Pj,q na Equação (18) da componente Yi p na Equação (19), a componente correspondente Xi, ktpxj, ktq ou x;, ktpyk, o que é calculado para 25 dados de professor que consistem em um novo pixel de interesse usando os dados de professor yk deste, dados de estudante Xjjk (xj,k) e o parâmetro z, para a componente Xi pj q na matriz, ou a componente Yj.p no vetor.
E a unidade de adição adicional 195 efetua a adição adicional descrita acima para os parâmetros z de todos os valores 0, 1, ..., Z usando todos os dados de professor armazenados na unidade de armazenagem de dados de professor 133 como pixéis de interesse, de tal modo que as equações normais dadas na Equação (20) são formuladas para cada classe, e então fornece as equações normais a uma unidade de cálculo de implante de coeficiente 196.
A unidade de cálculo de implante de coeficiente 196 resolve as equações normais para cada classe fornecida a partir da unidade de adição adicional 195, determinando deste modo e emitindo dados de implantação de coeficiente Pmn para cada classe.
A seguir, o processo (processo de aprendizado) do dispositivo de aprendizado 171 da Figura 33 será explicado com referência a um fluxograma da Figura 35.
Primeiramente, na etapa S131, a unidade de geração de dados de professor 132 e a unidade de geração de dados de estudante 174 geram e emitem dados de professor e dados de estudante a partir dos dados de imagem de aprendizado armazenados na unidade de armazenagem de imagem de aprendizado 131, respectivamente. Isto é, por exemplo, a unidade de geração de dados de professor 132 emite diretamente os dados de imagem de aprendizado como dados de professor. Adicionalmente, o parâmetro z possuindo (Z + 1) valores que são gerados pela unidade de geração de parâmetro 181 é suprido à unidade de geração de dados de estudante 174. A unidade de geração de dados de estudante 174 gera e emite (Z + 1) quadros de dados de estudante para cada quadro de dados de professor (dados de imagem de aprendizado) por exemplo, filtrando os dados de imagem de aprendizado usando LPFs possuindo freqüências de corte correspondendo ao parâmetro z possuindo os valores (Z + 1) (0, 1, ..., Z) a partir da unidade de geração de parâmetro 181.
Os dados de professor emitidos a partir da unidade de geração de dados de professor 132 são fornecidos à unidade de armazenagem de dados de professor 133 e armazenados nela. Os dados de estudante emitidos a partir da unidade de geração de dados de estudante 174 são fornecidos à unidade de armazenagem de dados de estudante 135 e armazenados nela.
Posteriormente, o processo avança para a etapa S132, na qual a 5 unidade de geração de parâmetro 181 ajusta o parâmetro z para um valor inicial, a saber, por exemplo, 0, e fornece o parâmetro z às unidades de seleção de derivação 192 e 193 e unidade de adição adicional 195 da unidade de aprendizado 176 (Figura 34). O processo avança para a etapa S133. Na etapa S133, a unidade de seleção de pixel de interesse 141 configura, como 10 um pixel de interesse, dados de professor não selecionados como um pixel de interesse a partir do dados de professor armazenados na unidade de armazenagem de dados de professor 133. O processo avança para a etapa S134.
Na etapa S134, a unidade de seleção de derivação 192 seleciona, para o pixel de interesse, derivações de predição a partir dos dados de estudante armazenados na unidade de armazenagem de dados de estudante 135 para o parâmetro z emitido a partir da unidade de geração de parâmetro 181 (a partir dos dados de estudante gerados filtrando os dados de imagem de aprendizado correspondentes aos dados de professor que consistem um pixel de interesse usando um LPF possuindo a freqüência de corte correspondente ao parâmetro z), e fornece as derivações de predição à unidade de adição adicional 195. Na etapa S134, adicionalmente, a unidade de seleção de derivação 193 também seleciona, para o pixel de interesse, derivações de classe a partir do dados de estudante armazenados na unidade de armazenagem de dados de estudante 135 para o parâmetro z emitido a partir da unidade de geração de parâmetro 181, e fornece as derivações de classe à unidade de classificação de classe 144.
Então, o processo avança para a etapa S135, na qual a unidade de classificação de classe 144 efetua classificação de classe do pixel de interesse, com base nas derivações de classe para o pixel de interesse, e emite a classe do pixel de interesse obtida como um resultado da classificação de classe, para a unidade de adição adicional 195. O processo avança para a etapa S136.
5 Na etapa S135, a unidade de adição adicional 195 lê o pixel de
interesse a partir da unidade de armazenagem de dados de professor 133 e calcula a componente Xi, ktpXj, ktq na matriz, no lado esquerdo da Equação (20) e a componente Xi, ktpyk no vetor do lado direito desta usando este pixel de interesse, as derivações de predição fornecidas a partir da unidade de seleção 10 de derivação 192 e o parâmetro z emitido a partir da unidade de geração de parâmetro 181. Adicionalmente, a unidade de adição adicional 195 adicionalmente adiciona a componente Xi, ktpXj, ktq na matriz e a componente Xi, ktpyk no vetor determinado a partir do pixel de interesse, as derivações de predição e o parâmetro z em correspondência com a classe do pixel de 15 interesse a partir da unidade de classificação de classe 144, dentre as componentes já obtidas nas matrizes e componentes já obtidas nos vetores. O processo avança para a etapa S137.
Na etapa S137, a unidade de geração de parâmetro 181 determina se o parâmetro z emitido a partir dela é ou não igual a um valor 20 máximo Z que o parâmetro z pode assumir. Em um caso em que é determinado na etapa S136 que o parâmetro z emitido a partir da unidade de geração de parâmetro 181 não é igual ao valor máximo Z (menor que o valor máximo Z), o processo avança para a etapa S138, na qual a unidade de geração de parâmetro 181 adiciona 1 ao parâmetro z, e emite o valor de 25 adição para as unidades de seleção de derivação 192 e 193 e unidade de adição adicional 195 da unidade de aprendizado 176 (Figura 34) como um novo parâmetro z. Então, o processo retoma à etapa S134 e subseqüentemente um processo similar é repetido.
Adicionalmente, em um caso em que é determinado na etapa S137 que o parâmetro z é igual ao valor máximo Z, o processo avança para a etapa S139, na qual a unidade de seleção de pixel de interesse 141 determina se os dados de professor não selecionados como um pixel de interesse ainda estão ou não armazenados na unidade de armazenagem de dados de professor 5 133. Em um caso em que é determinado na etapa S138 que dados de professor não selecionados como um pixel de interesse ainda estão armazenados na unidade de armazenagem de dados de professor 133, o processo retoma para a etapa S132, e subseqüentemente um processo similar é repetido.
Adicionalmente, em um caso em que é determinado, na etapa S139, que dados de professor não selecionados como um pixel de interesse não estão armazenados na unidade de armazenagem de dados de professor
133, a unidade de adição adicional 195 fornece as matrizes do lado esquerdo e os vetores do lado direito da Equação (20) para as classes individuais obtidas no processamento precedente à unidade de cálculo de implante de coeficiente 196. O processo avança para a etapa S140.
Na etapa S140, a unidade de cálculo de implante de coeficiente 196 resolve as equações normais para cada classe, que são constituídas pela matriz do lado esquerdo e vetor do lado direito da Equação (20) para cada classe fornecida a partir da unidade de adição adicional 195, determinando 20 deste modo e emitindo os dados de implantação de coeficiente Pm n para cada classe. O processo termina.
Notar que pode haver uma classe para a qual um número requerido de equações normais para determinar dados de implantação de coeficiente não possa ser obtida, devido a um número insuficiente de itens de 25 dados de imagem de aprendizado ou similar. Para tal classe, a unidade de cálculo de implante de coeficiente 196 é configurada para emitir, por exemplo, dados de implantação de coeficiente padrão.
Notar que, também no aprendizado dos dados de implantação de coeficiente, similarmente ao caso do aprendizado de coeficiente de derivação explicado na Figura 29, dados de implantação de coeficiente para efetuar vários processos de conversão de imagem, podem ser obtidos, dependendo de como selecionar dados de imagem que são dados de estudante correspondentes aos primeiros dados de imagem e dados de professor 5 correspondentes aos segundos dados de imagem.
Isto é, no caso descrito acima, dados de implantação de coeficiente são aprendidos usando os dados de imagem de aprendizado diretamente como os dados de professor correspondentes aos segundos dados de imagem e dados de imagem de baixa qualidade de imagem obtidos 10 degradando a resolução espacial dos dados de imagem de aprendizado como os dados de estudante correspondentes aos primeiros dados de imagem. Então, dados de implantação de coeficiente para efetuar um processo de conversão de imagem como um processo de criação de resolução espacial para converter primeiros dados de imagem em segundos dados de imagem 15 com resolução espacial melhorada, podem ser obtidos.
Neste caso, no dispositivo de conversão de imagem 151 da Figura 31, a resolução horizontal e resolução vertical dos dados de imagem podem ser melhoradas até resolução correspondente ao parâmetro z.
Também, por exemplo, o aprendizado de dados de 20 implantação de coeficiente é efetuado usando dados de imagem de alta qualidade de imagem como os dados de professor e dados de imagem, que são obtidos superpondo ruído possuindo um nível correspondente ao parâmetro z a estes dados de imagem de alta qualidade de imagem servindo como dados de professor, como dados de estudante. Conseqüentemente, dados de 25 implantação de coeficiente para executar um processo de conversão de imagem como um processo de remoção de ruído para converter primeiros dados de imagem em segundos dados de imagem, a partir dos quais o ruído contido nos primeiros dados de imagem é removido (reduzido) podem ser obtidos. Neste caso, o dispositivo de conversão de imagem 151 da Figura 31 pode obter dados de imagem apresentando S/N correspondente ao parâmetro z.
Adicionalmente, por exemplo, o aprendizado de dados de implantação de coeficiente é efetuado usando certos dados de imagem como os dados de professor e dados de imagem, que são obtidos tomando mais esparso o número de pixéis destes dados de imagem servindo como os dados de professor em correspondência com o parâmetro z, como os dados de estudante, ou usando dados de imagem possuindo um tamanho predeterminado como os dados de estudante e dados de imagem, o que é obtido tomando mais esparsos os pixéis destes dados de imagem servindo como os dados de estudante a uma taxa de esparsamento correspondente ao parâmetro z, como os dados de professor. Conseqüentemente, dados de implantação de coeficiente para executar um processo de conversão de imagem como um processo de redimensionamento para converter primeiros dados de imagem em segundos dados de imagem obtidos aumentando ou diminuindo o tamanho dos primeiros dados de imagem, podem ser obtidos. Neste caso, no dispositivo de conversão de imagem 151 da Figura 31, dados de imagem cujo tamanho (o número de pixéis) é mudado de modo a corresponder ao parâmetro z podem ser obtidos.
Notar que, no caso descrito acima, conforme dado na Equação
(9), um coeficiente de derivação wn é definido por βι,ηζ° + βι.ηΖ1 + ... +βΜ,ηζΜ’ \ e um coeficiente de derivação wn para melhorar ambas resoluções espaciais vertical e horizontal em correspondência com o parâmetro z, é determinado pela Equação (9). Entretanto, um coeficiente de derivação wn para melhorar independentemente a resolução horizontal e a resolução vertical em correspondência com os parâmetros independentes zx e zy, respectivamente, pode ser determinado.
Isto é, um coeficiente de derivação wn é definido, em lugar da Equação (9), por exemplo, pela equação de terceira ordem βIjnZx0Zy0 + PzinZx1Zy0 + β3,ηΖχ2Ζγ0 + β4.ηζχ3ζ/ + P4jnZx3Zy0 + P5inZx0Zy1 + P6jnZx0Zy2 + ^ Zy 11 2 1 12 ·
+ PsjnZx zy + β9,ηζχ Zy + P ιOjnZx zy , e a variável tm definida na Equação (10) é
definida, em lugar da Equação (10), por exemplo, t, =Zx0Zy0, t2 =Zx1Zy0, t3
Ζχ Zy , 14 Zx Zy , t5 Zx Zy , t6 Zx Zy , Χ,η Zx Zy , tg Zx Zy , tç Zx Zy , tjo 12 '
= zx Zy . Também neste caso, o coeficiente de derivação wn pode finalmente ser expresso pela Equação (11). Portanto, dados de imagem obtidos degradando a resolução horizontal e a resolução vertical dos dados de professor, em correspondência com o dispositivo de aprendizado 171 da Figura 33 ou os parâmetros zx e zy, respectivamente, são usados como dados de estudante para efetuar aprendizado para determinar dados de implantação de coeficiente Pm n. Conseqüentemente, um coeficiente de derivação wn para melhorar independentemente a resolução horizontal e a resolução vertical, em correspondência com os parâmetros zx e zy independentes, respectivamente, pode ser determinado.
Além disso, em adição aos parâmetros zx e Zy correspondentes à resolução horizontal e resolução vertical, respectivamente, por exemplo, introduzindo adicionalmente um parâmetro Zt correspondente à resolução na direção do tempo, um coeficiente de derivação wn para melhorar independentemente a resolução horizontal, a resolução vertical e a resolução temporal, em correspondência com os parâmetros independentes Zx, zy e zt, respectivamente pode ser determinado.
Adicionalmente, também para o processo de redimensionamento, similarmente ao caso no processo de criação de resolução espacial, em adição a um coeficiente de derivação wn para redimensionar ambas direções horizontal e vertical no fator de magnificação (ou fator de redução) correspondente ao parâmetro z, um coeficiente de derivação wn para redimensionar independentemente as direções horizontal e vertical nos fatores de magnificação correspondentes aos parâmetros zx e zy respectivamente, pode ser determinado. Ainda mais, no dispositivo de aprendizado 171 da Figura 33, dados de implantação de coeficiente Pm n são determinados efetuando aprendizado usando dados de imagem, que são obtidos degradando a resolução horizontal e resolução vertical dos dados de professor, em correspondência com o parâmetro zx e adicionando ruído aos dados de professor, em correspondência com o parâmetro Zy, como os dados de estudante. Conseqüentemente, um coeficiente de derivação wn para melhorar a resolução horizontal e a resolução vertical em correspondência com o parâmetro zx e efetuar remoção de ruído em correspondência com o parâmetro zy, pode ser determinado.
O processo de conversão de imagem descrito acima pode ser executado usando o processo adaptativo de classificação de classe conforme acima.
Isto é, por exemplo, na unidade de conversão de imagem 311 da Figura 4, em um caso em que um processo de conversão de imagem para converter dados de imagem de verificação em dados de imagem magnificados m vezes, cujo tamanho (o número de pixéis) é aumentado m vezes, é efetuado usando o processo adaptativo de classificação de classe, o dispositivo de aprendizado 171 da Figura 33 efetua aprendizado dos dados de implantação de coeficiente usando dados de imagem possuindo pixéis, cujo número é mi vezes, m2 vezes, ..., os dados de imagem de verificação nas dimensões horizontal e vertical, como os dados de professor correspondentes aos dados de imagem magnificados m vezes e usando dados de imagem possuindo o mesmo número de pixéis que os dados de imagem de verificação, o que é produzido tomando esparso o número de pixéis destes dados de imagem servindo como dados de professor, para l/mj, l/m2, ... em correspondência com o parâmetro z, como os dados de estudante correspondentes aos dados de imagem de verificação.
Então, a unidade de conversão de imagem 311 é construída pelo dispositivo de conversão de imagem 151 da Figura 31 e dados de implantação de coeficiente determinados pelo aprendizado são armazenados na memória de implantação de coeficiente 162 (Figura 32) constituindo a unidade de saída de coeficiente 155 do dispositivo de conversão de imagem 151 (Figura 31) servindo como a unidade de conversão de imagem 311.
Neste caso, o valor correspondente a um fator de magnificação m é aplicado como o parâmetro z ao dispositivo de conversão de imagem 151 servindo como a unidade de conversão de imagem 311, de tal modo que o dispositivo de conversão de imagem 151 servindo como a unidade de conversão de imagem 31! pode executar um processo de conversão de imagem para converter os dados de imagem de verificação nos dados de imagem magnificados m vezes cujo número de pixéis é aumentado m vezes usando o processo adaptativo de classificação de classe.
A seguir, a série de processos descrita acima pode ser efetuada por hardware ou software. Em um caso em que a série de processos e efetuada por software, um programa constituindo o software é instalado em um computador de finalidade geral ou similar.
Então, Figura 6 ilustra um exemplo de estrutura de uma realização de um computador, no qual um programa que executa a série de processos acima descritos, é instalado.
O programa pode ser gravado antecipadamente em um disco rígido 205 ou uma ROM 203 servindo como um meio de gravação incorporado em um computador.
Alternativamente, o programa pode ser temporariamente ou permanentemente armazenado (gravado) em um meio de gravação removível 211 tal como um disco flexível, uma CD-ROM (Memória de Somente Leitura
r
de Disco Compacto), um disco MO (Magneto Optico), um DVD (Disco Versátil Digital), um disco magnético ou uma memória de semicondutor. O meio de gravação removível 211 deste tipo pode ser provido como um assim chamada software empacotado. Notar que o programa pode ser, bem como instalado no computador a partir do meio de gravação removível 211 conforme descrito acima, transferido para o computador a partir de um local de transferência de um modo sem fio, via satélite para transmissão via satélite digital ou transferido para o computador com fio, através de uma rede tal como um LAN (Rede de Área Local) ou a Internet. No computador, o programa transferido desta maneira pode ser recebido por uma unidade de comunicação
208 e instalado no disco rígido 205 incorporado nela.
O computador incorpora uma CPU (Unidade de Processamento Central) 202. A CPU 202 é conectada a uma interface de entrada/saída 210 via um barramento 201. Quando uma instrução é inserida de um usuário através de uma operação ou similar de uma unidade de entrada 207 construída com um teclado, um mouse, um microfone e similar, via interface de entrada/saída 210, a CPU 202 executa um programa armazenado na ROM (Memória de Somente Leitura) 203 de acordo com a instrução. Alternativamente, a CPU 202 carrega em uma RAM (Memória de Acesso Randômico) 204 um programa armazenado no disco rígido 205, um programa que é transferido a partir de um satélite ou de uma rede, recebido pela unidade de comunicação 208, e instalado no disco rígido 205, ou um programa que é lido a partir do meio de gravação removível 211 montado em um controlador
209 e instalado no disco rígido 205, e executa o programa. Conseqüentemente, a CPU 202 executa os processo de acordo com os fluxogramas acima descritos ou os processos executados pela estrutura dos diagramas de bloco acima descritos. Então, a CPU 202 faz com que esta unidade de processamento seja, de acordo com a necessidade, por exemplo, saída de uma unidade de saída 206 construída com um LCD (Visor de Cristal Líquido), um alto-falante e similar via interface de entrada/saída 210, enviado a partir da unidade de comunicação 208 ou gravado ou similar sobre o disco rígido 205.
Notar que, por exemplo, na presente realização, o aparelho de exibição 2 é configurado para exibir três imagens, em adição a uma imagem de verificação, ao mesmo tempo. O número de imagens exibidas ao mesmo 5 tempo como uma imagem de verificação pode ser um, dois ou mais de três.
Isto é, na Figura 2, a tela do aparelho de exibição 2 é igualmente dividida horizontalmente e verticalmente para produzir quatro regiões de exibição #0 a #3, de tal modo que uma imagem é exibida em cada uma das regiões de exibição #0 a #3. Alternativamente, a tela do aparelho de 10 exibição 2 pode ser dividida em qualquer outro número, por exemplo, 2, 8, 16, ou qualquer outro número de diversas regiões de exibição, e uma imagem pode ser exibida em cada região de exibição.
Adicionalmente, o arranjo de regiões de exibição não deve ser limitado a um arranjo de matriz conforme ilustrado na Figura 2, e uma região de exibição pode ser arranjada em uma posição arbitrária na tela do aparelho de exibição 2.
Adicionalmente, na Figura 1, o aparelho de exibição 2 é um LCD. Alternativamente, qualquer outro aparelho de exibição tal como, por exemplo, um CRT, um PDP, um EL orgânico, um projetor (incluindo ambos 20 projetor frontal que radia luz a partir da parte frontal de uma tela e um projetor posterior que radia luz a partir da parte posterior de uma tela), ou um FED, podem ser adotados.
Ainda mais, nas Figuras 7 e 8, a unidade de processamento de sinal 12 é configurada para executar um processo de sinal para gerar cada um 25 dos dados de imagem processados para exibição no aparelho de exibição 2, que é um LCD, imagens equivalentes a imagens a serem exibidas em um EL orgânico, um PDP e um CRT e para exibir imagens no aparelho de exibição 2. Alternativamente, a unidade de processamento de sinal 12 pode executar, por exemplo, um processo de sinal para gerar dados de imagem processados para exibição no aparelho de exibição 2, que é um LCD, uma imagem equivalente a uma imagem a ser exibida em um FED, um projetor frontal, um projetor posterior ou similar, e uma imagem pode ser exibida no aparelho de exibição 2.
[Realização na qual um processo de sinal para um FPD (Visor
de Painel Plano) incluindo um processo ABL (Limitador de Corrente de Feixe Automático), um processo de VM (Modulação de Velocidade) e um processo γ para um CRT (Tubo de Raios Catódicos) é executado de tal modo que um aparelho visor FPD que é um aparelho de exibição de um FPD provê uma 10 exibição natural equivalente à de um aparelho de exibição de CRT que é um aparelho de exibição de um CRT]
A seguir, será dada uma explicação de uma realização na qual um aparelho de exibição FPD provê uma exibição natural equivalente à de um aparelho de exibição de CRT.
Figura 37 ilustra uma estrutura de um exemplo de um aparelho
de exibição de um FPD (aparelho de exibição FPD) tal como, por exemplo, um LCD (Visor de Cristal Líquido), da técnica relacionada.
Uma unidade de ajuste de contraste ajuste de brilho 10011 aplica um desvio a um sinal de imagem de entrada para efetuar ajuste de 20 brilho do sinal de imagem, e ajusta o ganho para efetuar ajuste de contraste do sinal de imagem. A unidade de ajuste de contraste ajuste de brilho 10011 fornece um sinal de imagem resultante a uma unidade de processamento de melhoramento de qualidade de imagem 10012.
A unidade de processamento de melhoramento de qualidade de 25 imagem 10012 efetua um processo de melhoramento de qualidade de imagem tal como DRC (Criação de Realidade Digital). Isto é, a unidade de processamento de melhoramento de qualidade de imagem 10012 é um bloco de processamento para obter uma imagem de alta qualidade. A unidade de processamento de melhoramento de qualidade de imagem 10012 efetua um processo de sinal de imagem incluindo conversão de número de pixéis e similar sobre o sinal de imagem a partir da unidade de ajuste de contraste ajuste de brilho 10011 e fornece um sinal de imagem resultante a uma unidade de correção de γ 10013.
Aqui, DRC é descrita, por exemplo, na Publicação de Pedido
de Patente Não Examinada Japonesa No. 2005-236634, Publicação de Pedido de Patente Não Examinada Japonesa No. 2002-223167 ou similar, como um processo adaptativo de classificação de classe.
A unidade de correção de γ 10013 é um bloco de 10 processamento para executar um processo de correção de gama para ajustar o nível de sinal de uma porção escura usando um processo de sinal, em adição a características γ inerentes a materiais fluorescentes (unidades emissoras de luz de um CRT), por razões tais como exibição pobre de uma porção escura em um aparelho de exibição de CRT.
Aqui, um LCD também contém um painel de LCD onde um
circuito de processamento para ajustar as características de conversão fotoelétrica (características de transmissão) do cristal líquido às características γ do CRT. Então, um aparelho de exibição FPD da técnica relacionada executa um processo de correção γ de uma maneira similar ao de um aparelho de exibição de CRT.
A unidade de correção de γ 10013 submete o sinal de imagem da unidade de processamento de melhoramento de qualidade de imagem 10012 a um processo de conversão de gama, e fornece o sinal de imagem obtido como um resultado do processo de correção de gama a um FPD (não 25 ilustrado), por exemplo, um LCD. Conseqüentemente, uma imagem é exibida no LCD.
Conforme acima, um aparelho de exibição FPD da técnica relacionada, após um processo de ajuste de contraste ou brilho ser executado, um sinal de imagem é inserido diretamente em um FPD através do desempenho de um processo de melhoramento de qualidade de imagem e um processo de correção de gama.
Para obter isto, no aparelho de exibição FPD, o brilho de uma entrada e uma imagem exibida possuem uma relação proporcional de acordo com gama. A imagem exibida, entretanto, toma-se uma imagem que parece mais brilhante e mais ofuscante que a de um aparelho de exibição de CRT.
Então, um método para melhorar adaptativamente a capacidade de representação de gradação, sem utilizar um circuito ABL separado em um aparelho de exibição possuindo características de painel inferiores a um CRT, em termos de capacidade de representação de gradação para uma porção escura é descrito, por exemplo, na Publicação de Pedido de Patente Não Examinada Japonesa No. 2005-39817.
Incidentalmente, conforme descrito acima, uma imagem exibida em um aparelho de exibição FPD toma-se uma imagem que parece mais brilhante e mais ofuscante que a de um aparelho de exibição de CRT, porque somente um sistema de processamento de sinal de imagem incorporado em um aparelho de exibição de CRT da técnica relacionada para executar um processo apenas em um sinal de imagem é modificado para uso em um FPD e é incorporado a um aparelho de exibição FPD. Isto resulta da não consideração de uma estrutura de sistema na qual um aparelho de exibição de CRT é um aparelho de exibição baseado em processamento de sinal compreensivo, incluindo não só um sistema de processamento de sinal de imagem como também características de respostas específicas de um próprio sistema de controle e sistema de controle.
Então, a seguir, será dada uma explicação de uma realização que pode prover uma exibição natural equivalente a de um aparelho de exibição de CRT, de tal modo que uma imagem obtida quando um sinal de imagem é exibido em um aparelho de exibição de um tipo de exibição diferente de um aparelho de exibição de CRT, por exemplo, em um aparelho de exibição FPD, pode parecer uma imagem exibida em um aparelho de exibição de CRT.
Figura 38 ilustra um exemplo de estrutura de uma realização de um dispositivo de processamento de sinal de imagem incluído em um aparelho de exibição FPD capaz de prover uma exibição natural equivalente à de um aparelho de exibição de CRT.
O dispositivo de processamento de sinal de imagem da Figura 38 processa um sinal de imagem de tal modo que uma imagem obtida quando o sinal de imagem é exibido em um aparelho de exibição de um tipo de exibição diferente de um aparelho de exibição de CRT, isto é, aqui, por exemplo, um aparelho de exibição FPD possuindo um FPD tal como um LCD, pode parecer uma imagem exibida em um aparelho de exibição de CRT.
Aqui, antes do dispositivo de processamento de sinal de imagem da Figura 38 ser explicado, um aparelho de exibição de CRT que exibe uma imagem a ser exibida no dispositivo de processamento de sinal de imagem da Figura 38, isto é, um aparelho de exibição de CRT emulado (simulado) pelo dispositivo de processamento de sinal de imagem da Figura 38, será explicado.
Figura 39 ilustra um exemplo de estrutura de um aparelho de exibição de CRT.
No aparelho de exibição de CRT, em uma unidade de ajuste de contraste ajuste de brilho 10051 e unidade de processamento de melhoramento de qualidade de imagem 10052, um sinal de imagem é submetido a processos similares aos da unidade de ajuste de contraste ajuste de brilho 10011 e unidade de processamento de melhoramento de qualidade de imagem 10012 da Figura 37, respectivamente, e o sinal de imagem processado é fornecido a uma unidade de ajuste de ganho 10053 e um circuito de diferenciação de sinal de imagem 10060. A unidade de ajuste de ganho 10053 (limitadora) limita o nível de sinal do sinal de imagem da unidade de processamento de melhoramento de qualidade de imagem 10052 de acordo com um sinal de controle ABL a partir da uma unidade de controle ABL 10059 que será descrita abaixo, e 5 fornece um sinal de imagem resultante a uma unidade de correção de γ 10054. Isto é, a unidade de ajuste de ganho 10053 ajusta o ganho do sinal de imagem a partir da unidade de processamento de melhoramento de qualidade de imagem 10052 ao invés de limitar diretamente a quantidade de corrente de um feixe de elétron de um CRT 10056 que será descrito abaixo.
A unidade de correção de γ 10054 submete o sinal da unidade
de ajuste de ganho 10053 a um processo de correção de γ que é similar ao da unidade de correção de γ 10013 da Figura 37, e fornece o sinal de imagem obtido como um resultado do processo de correção de γ a um amplificador de vídeo 10055 (Vídeo).
O amplificador de vídeo 10055 amplifica o sinal de imagem da
unidade de correção de γ 10054 e fornece um sinal de imagem resultante ao CRT 10056 como um sinal de imagem de controle de CRT.
Em contraste, um FBT (Transformador de Flyback) 10057 é um transformador para gerar uma corrente de acionamento de deflexão horizontal para prover a varredura horizontal de um feixe de elétron e a tensão de anodo do CRT 10056 (tubo de Braun) no aparelho de exibição de CRT, cujo saída é fornecida a uma unidade de detecção de corrente de feixe 10058.
A unidade de detecção de corrente de feixe 10058 detecta a quantidade de corrente de um feixe de elétron necessária para controle ABL a partir da saída do FBT 10057, e fornece a quantidade de corrente ao CRT 10056 e uma unidade de controle ABL 10059.
A unidade de controle ABL 10059 mede um valor de corrente do feixe de elétron a partir da unidade de detecção de corrente de feixe 10058, e emite um sinal de controle ABL para controle ABL para controlar o nível de sinal do sinal de imagem para a unidade de ajuste de ganho 10053. Em contraste, o circuito de diferenciação de sinal de imagem 10060 diferencia o sinal de imagem da unidade de processamento de melhoramento de qualidade de imagem 10052 e fornece o valor diferenciado do sinal de imagem obtido como um resultado da diferenciação a um circuito de acionamento VM 10061.
O circuito de acionamento VM 10061 (Modulação de Velocidade) executa um processo de VM de mudar parcialmente a velocidade de deflexão (deflexão horizontal) de um feixe de elétron no aparelho de exibição de CRT, de tal modo que a luminância do visor quase do mesmo sinal de imagem é mudada. No aparelho de exibição de CRT, o processo de VM é implementado usando uma bobina de VM (não ilustrada) e o circuito de acionamento VM 10061 separado de um circuito de deflexão horizontal principal (que é constituído por uma culatra de deflexão DY, o FBT 10057, um circuito de acionamento horizontal (não ilustrado), e similar).
Isto é, o circuito de acionamento VM 10061 gera um sinal de acionamento de bobina de VM para acionar a bobina de VM com base no valor diferenciado do sinal de imagem a partir do circuito de diferenciação de sinal de imagem 10060, e fornece o sinal de acionamento de bobina de VM ao CRT 10056.
O CRT 10056 é constituído de um canhão eletrônico EG, a culatra de deflexão DY, e similares. No CRT 10056, o canhão eletrônico EG emite um feixe de elétrons de acordo com a saída da unidade de detecção de corrente de feixe 10058 ou o sinal de imagem de acionamento do CRT a partir do amplificador de vídeo 10055. O feixe de elétrons é modificado (e varrido) nas direções horizontal e vertical, de acordo com campos magnéticos gerados pela culatra de deflexão DY, servindo como uma bobina, e incide sobre uma superfície fluorescente do CRT 10056. Conseqüentemente, uma imagem é exibida. Adicionalmente, no CRT 10056, a bobina de VM é acionada de acordo com o sinal de acionamento de bobina de VM a partir do circuito de acionamento VM 10061. Conseqüentemente, a velocidade de deflexão do feixe de elétron é parcialmente mudada, provendo deste modo, por exemplo, reforço ou similar das bordas de uma imagem a ser exibida no CRT 10056.
Como pode ser visto da Figura 39, no aparelho de exibição de CRT, o processo de VM de mudar parcialmente a velocidade de deflexão e o processo de ABL (controle ABL) de limitar a quantidade de corrente do feixe de elétron, são executados em um caminho diferente do caminho no qual o sinal de imagem é processado, e é produzido um sinal de controle que tem a influência na qualidade de imagem da imagem a ser exibida no CRT 10056.
No sentido de exibir em um FPD tal imagem, na qual a influência do processo de VM e do processo de ABL aparece, é necessário tomar a forma de processos de execução equivalentes ao processo de VM e ao processo de ABL através do caminho ao longo do qual o sinal de imagem é processado, porque o método de acionamento do FPD é completamente diferente do de um CRT.
Então, o dispositivo de processamento de sinal de imagem da Figura 38 converte o sinal de imagem na ordem de processamento, conforme ilustrado na Figura 38, habilitando deste modo a adaptação ao método de acionamento do FPD e exibição natural similar à do aparelho de exibição de CRT.
Isto é, no dispositivo de processamento de sinal de imagem da Figura 38, em uma unidade de ajuste de contraste ajuste de brilho 10031 e uma unidade de processamento de melhoramento de qualidade de imagem 10032, um sinal de imagem é submetido a processos similares aos da unidade de ajuste de contraste ajuste de brilho 10011 e unidade de processamento de melhoramento de qualidade de imagem 10012 da Figura 37, respectivamente, e um sinal de imagem resultante é fornecido a uma unidade de processamento ABL 10033, uma unidade de detecção de nível médio de brilho de tela cheia 10036 e uma unidade de detecção de valor de controle diferencial de detecção de pico 10037.
No sentido de obter, no LCD, características de brilho similares às de um CRT, a unidade de processamento ABL 10033 efetua um processo de emulação ABL de limitar o nível de sinal de imagem a partir da unidade de processamento de melhoramento de qualidade de imagem 10032, de acordo com o controle de uma unidade de controle ABL 10038, em um caso em que uma imagem possuindo um brilho (luminância e sua área) de um certo valor, ou mais, é obtida.
Aqui, o processo de emulação ABL na Figura 38 é um processo que emula o processo ABL na Figura 39.
Isto é, um processo ABL efetuado em um aparelho de exibição de CRT é um processo de limitar uma corrente, em um caso em que um brilho (luminância e sua área) de um certo valor ou mais é obtido em um CRT, de modo a não provocar uma quantidade excessiva do feixe de elétron (corrente). A unidade de processamento ABL 10033, entretanto, efetua emulação do processo ABL na Figura 39.
Na Figura 38, a unidade de processamento ABL 10033 executa um processo (processo de emulação ABL) de limitar uma corrente de um feixe de elétrons no CRT, para manter a luminância da exibição real baixa, em um caso em que uma imagem brilhante possuindo uma grande área deve ser exibida, como um processo de limitar o nível de sinal do sinal de imagem, usando um processo de computação não linear.
Isto é, na Figura 38, a unidade de detecção de nível médio de brilho de tela cheia 10036 detecta o brilho ou nível médio da tela com base no sinal de imagem a partir da unidade de processamento de melhoramento de qualidade de imagem 10032, e fornece o brilho ou nível médio da tela à unidade de detecção de valor de controle diferencial de detecção de pico 10037 e unidade de controle ABL 10038. A unidade de controle ABL 10038 detecta o brilho da tela e a área desta a partir do brilho detectado ou nível médio da tela, a partir da unidade de detecção de nível médio de brilho de tela cheia 10036. A unidade de controle ABL 10038, conseqüentemente, gera um sinal de controle para limitar o brilho na tela, e fornece o sinal de controle à unidade de processamento ABL 10033. A unidade de processamento ABL
10033 implementa (emula) o processo ABL, executando computação não linear descrita acima no sinal de imagem, a partir da ua0032, com base no sinal de controle a partir da unidade de controle ABL 10038.
O sinal de imagem submetido ao processo ABL na unidade de processamento ABL 10033 é fornecido a uma unidade de processamento VM 10034.
A unidade de processamento VM 10034 é um bloco de processamento para executar um processo equivalente ao processo VM no aparelho de exibição de CRT da Figura 39, no sinal de imagem. A unidade de geração de dados de estudante 134 emula o processo de VM executado pelo aparelho de exibição de CRT da Figura 39.
Isto é, na Figura 38, a unidade de detecção de valor de controle diferencial de detecção de pico 10037 determina um sinal de pico parcial do sinal de imagem ou um sinal de borda obtido pela diferenciação do sinal de imagem a partir do sinal de imagem da unidade de processamento de melhoramento de qualidade de imagem 10032, e fornece o resultado a uma unidade de controle VM 10039 juntamente com o brilho ou nível médio da tela a partir da unidade de detecção de nível médio de brilho de tela cheia
10036. A unidade de controle VM 10039 gera um sinal de controle de VM para mudar parcialmente o nível do sinal de imagem, o que é equivalente à bobina de VM acionar o sinal no aparelho de exibição de CRT, com base no sinal de pico parcial do sinal de imagem, sinal de borda obtido pela diferenciação do sinal de imagem, brilho da tela ou similar, a partir da unidade de detecção de valor de controle diferencial de detecção de pico
10037, e fornece o sinal de controle de VM à unidade de processamento VM 10034.
A unidade de processamento VM 10034 executa um processo para mudar parcialmente o nível de sinal de imagem da unidade de processamento ABL 10033 de acordo com o sinal de controle de VM gerado pela unidade de controle VM 10039. Isto é, a unidade de processamento VM
10034 executa um processo tal como correção parcial do sinal de imagem ou reforço de uma porção de borda ou um pico do sinal de imagem.
Aqui, no aparelho de exibição de CRT da Figura 39, um
processo de VM é executado no sentido de suplementar mudança insuficiente na luminância em um bordo de subida do sinal no CRT 10056. Ao invés de aplicar correção ao próprio sinal de imagem, a velocidade de deflexão (tempo) da deflexão horizontal que é específica para o CRT 10056, é mudada, 15 usando a bobina de VM localizada na culatra de deflexão DY. Conseqüentemente, a luminância é mudada.
A unidade de processamento VM 10034 executa um processo de computação para computar um valor de correção equivalente à quantidade de mudança na luminância, causada pelo processo de VM executado no 20 aparelho de exibição de CRT e corrigindo o sinal de imagem usando este valor de correção. Conseqüentemente, o processo de VM efetuado no aparelho de exibição de CRT é emulado.
Uma unidade de processamento γ de um CRT 10035 executa um processo de ajustar o nível de cada sinal de cor (sinal componente) no 25 sentido de efetuar, no LCD, um processo de correção de γ incluindo um processo executado em um circuito de processamento (circuito de conversão) para obter características γ equivalentes às de um CRT, o que é provido em um painel LCD da técnica relacionada, dentro do painel, e um processo de compensação de temperatura de cor. Aqui, a unidade de processamento γ de um CRT 10035 na Figura 38 é uma seção que corrige uma característica de conversão eletro- óptica necessária para representar diversas características de exibição, bem como as características de um CRT, tal como um visor de PDP ou LED, na mesma tela de LCD. A unidade de processamento γ de um CRT 10035 executa, na presente realização, um processo necessário para ajustar a característica de entrada de tensão de transmitância do LCD à característica de eletroluminância de um CRT.
Isto é, na Figura 38, a unidade de controle de compensação de temperatura de cor de exibição 10040 segmenta a tela de exibição do LCD em diversas áreas de exibição (por exemplo, as regiões de exibição #0 a #3 da Figura 2), e gera um sinal de controle para exibir como uma temperatura de cor do CRT uma temperatura de cor de exibição de uma área de exibição, onde uma imagem com qualidade de imagem similar à de uma imagem que seria exibida em um CRT em um sistema (por exemplo, o sistema de monitor da Figura 1) para apresentar, às áreas de exibição individuais, imagens com qualidade de imagem similar à de imagens que seriam exibidas em dispositivos de exibição possuindo diversas características de exibição diferentes, no sentido de executar controle para ajustar o balanço entre os respectivos sinais de cor (sinais componentes). O sinal de controle é fornecido à unidade de processamento γ de um CRT 10035. Então, a unidade de processamento γ de um CRT 10035 também executa um processo para ajustar o balanço entre os respectivos sinais de cor do sinal de imagem da unidade de processamento VM 10034, de acordo com o sinal de controle da unidade de controle de compensação de temperatura de cor de exibição 10040.
Balanço de branco, temperatura de cor e variação de luminância com respeito a isto, diferem dependendo de um CRT, um LCD e um PDP. Então a unidade de controle de compensação de temperatura de cor de exibição 10040 da Figura 38 é necessário. O processo executado pela unidade de processamento γ de um CRT 10035 de acordo com o sinal de controle a partir da unidade de controle de compensação de temperatura de cor de exibição 10040 inclui um processo executado por um circuito de processamento que converteu as características de gradação de cada painel, de modo a se tomarem equivalentes às de um CRT, o que tem sido tradicionalmente processado com um painel plano tal como um LCD. Um processo para absorver a diferença na característica de um painel de exibição para outro é executado.
Então, a unidade de processamento γ de um CRT 10035 submete o sinal de imagem da unidade de processamento VM 10034 aos processos precedentes. Posteriormente, a unidade de processamento γ de um CRT 10035 fornece o sinal de imagem processado a um LCD como um FPD (não ilustrado) para exibição.
Conforme acima, o dispositivo de processamento de sinal de imagem da Figura 38, não só substitui o processo efetuado em um aparelho de exibição de CRT por um processo de sinal de imagem, como também leva em conta um procedimento de processamento (procedimento de processamento no qual o processo da unidade de processamento VM 10034 é executado após o processo da unidade de processamento ABL 10033 e no qual o processo da unidade de processamento γ de um CRT 10035 é executado, após o processo da unidade de processamento VM 10034). Isto habilita ajuste mais preciso da qualidade da exibição no LCD, de modo a estar próximo à qualidade de imagem de uma imagem exibida em um aparelho de exibição de CRT. De acordo com o dispositivo de processamento de sinal de imagem da Figura 38, portanto, é possível emitir uma imagem para o LCD, usando características de exibição equivalentes às de um CRT.
De acordo com o dispositivo de processamento de sinal de imagem da Figura 38, ainda mais, é possível emular características de exibição causadas por diferentes características do próprio CRT, e é possível comutar entre diferentes matizes ou texturas usando o mesmo LCD. Por exemplo, é possível facilitar o ajuste de cor preciso ou ajuste de qualidade de imagens, e similares no instante de envio, pela comparação de uma diferença de desenvolvimento de cor entre um material fluorescente EBU e um material fluorescente normal na mesma tela.
Adicionalmente, de acordo com o dispositivo de processamento de sinal de imagem da Figura 38 de modo similar, é possível confirmar facilmente as diferenças de características de exibição entre um LCD e um CRT.
De acordo com o dispositivo de processamento de sinal de imagem da Figura 38, adicionalmente, é possível exibir uma imagem com “qualidade de imagem favorita” em seu significado original.
Adicionalmente, de acordo com o dispositivo de processamento de sinal de imagem da Figura 38, é possível prover exibição simultânea de imagens exibidas em dispositivos de exibição possuindo diferentes características (por exemplo, CRTs apresentando materiais fluorescentes diferentes, um LCD e um CRT, ou similar) mudando a faixa de processamento dentro da tela de exibição. Isto facilita a utilização para finalidades tais como comparação e ajuste.
A seguir, o fluxo de um processo para um sinal de imagem pelo dispositivo de processamento de sinal de imagem da Figura 38 será explicado com referência a um fluxograma da Figura 40.
Quando um sinal de imagem é fornecido à unidade de ajuste de contraste ajuste de brilho 10031, na etapa SlOOl 1, a unidade de ajuste de contraste ajuste de brilho 10031 efetua ajuste de brilho do sinal de imagem fornecido a ela, seguida de ajuste de contraste e fornece um sinal de imagem resultante à unidade de processamento de melhoramento de qualidade de imagem 10032. O processo avança para a etapa S10012.
Na etapa S10012, a unidade de processamento de melhoramento de qualidade de imagem 10032 executa um processo de sinal de imagem incluindo conversão de número de pixéis e similar no sinal de imagem, a partir da unidade de ajuste de contraste ajuste de brilho 10011, e fornece um sinal de imagem obtido após o processo de sinal de imagem à unidade de processamento ABL 10033, unidade de detecção de nível médio de brilho de tela cheia 10036 e unidade de detecção de valor de controle diferencial de detecção de pico 10037. O processo avança para a etapa S10013.
Aqui, a unidade de detecção de nível médio de brilho de tela cheia 10036 detecta o brilho ou nível médio da tela com base no sinal de imagem a partir da unidade de processamento de melhoramento de qualidade de imagem 10032, e fornece o brilho ou nível médio da tela à unidade de detecção de valor de controle diferencial de detecção de pico 10037 e unidade de controle ABL 10038. A unidade de controle ABL 10038 gera um sinal de controle para limitar o brilho da tela com base no brilho detectado ou nível médio da tela a partir da unidade de detecção de nível médio de brilho de tela cheia 10036, e fornece o sinal de controle à unidade de processamento ABL 10033.
Adicionalmente, a unidade de detecção de valor de controle diferencial de detecção de pico 10037 determina um sinal de pico parcial do sinal de imagem ou um sinal de borda obtido pela diferenciação do sinal de imagem a partir do sinal de imagem da unidade de processamento de melhoramento de qualidade de imagem 10032, e fornece o resultado à unidade de controle VM 10039, juntamente com o brilho ou nível médio da tela a partir da unidade de detecção de nível médio de brilho de tela cheia 10036. A unidade de controle VM 10039 gera o sinal de controle de VM, equivalente ao sinal de acionamento da bobina de VM no aparelho de exibição de CRT, com base no sinal de pico parcial do sinal de imagem, sinal de borda obtido pela diferenciação do sinal de imagem, brilho da tela, ou similar, a partir da unidade de detecção de valor de controle diferencial de detecção de pico 10037, e fornece o sinal de controle de VM à unidade de processamento VM 10034.
Na etapa S10033, a unidade de processamento ABL 10033 aplica um processo que emula o processo ABL ao sinal de imagem, a partir da unidade de processamento de melhoramento de qualidade de imagem 10032.
Isto é, a unidade de processamento ABL 10033 executa um processo (processo de emulação ABL) que emula o processo ABL tal como limitar o nível do sinal de imagem a partir da unidade de processamento de melhoramento de qualidade de imagem 10032, de acordo com o controle da unidade de controle ABL 10038, e fornece o sinal de imagem obtido como um resultado do processo à unidade de processamento VM 10034.
Então, o processo avança da etapa S10013 para a etapa S10014, na qual a unidade de processamento VM 10034 aplica um processo que emula um processo VM para o sinal de imagem, a partir da unidade de processamento ABL 10033.
Isto é, na etapa S10014, a unidade de processamento VM
10034 executa um processo (processo de emulação VM) que emula um processo de VM tal como corrigir a luminância do sinal de imagem a partir da unidade de processamento ABL 10033, de acordo com o sinal de controle de VM fornecido a partir da unidade de controle VM 10039, e fornece o sinal de imagem obtido como um resultado do processo, à unidade de processamento γ de um CRT 10035. O processo avança para a etapa S10015.
Na etapa S10015, a unidade de processamento γ de um CRT
10035 submete o sinal de imagem da unidade de processamento VM 10034 a um processo de correção de γ, e executa adicionalmente um processo de compensação de temperatura de cor de ajustar o balanço das respectivas cores do sinal de imagem da unidade de processamento VM 10034 de acordo com o sinal de controle da unidade de controle de compensação de temperatura de cor de exibição 10040. Então, a unidade de processamento γ de um CRT 10035 fornece o sinal de imagem obtido como um resultado do processo de compensação de temperatura de cor a um LCD como um FPD (não ilustrado) para exibição.
A seguir, Figura 41 é um diagrama em blocos ilustrando um
exemplo de estrutura da unidade de processamento VM 10034 da Figura 38.
Na Figura 41, a unidade de processamento VM 10034 é construída a partir da uma unidade de correção de luminância 10210 e uma unidade de processamento EB 10220. A unidade de correção de luminância 10210 executa uma
processo de correção de luminância para o sinal de imagem fornecido a partir da unidade de processamento ABL 10033 (Figura 38) para correção da quantidade de influência de uma mudança na velocidade de deflexão da deflexão horizontal de um feixe de elétron do aparelho de exibição de CRT sobre a luminância, e fornece o sinal de imagem obtido como um resultado do processo de correção de luminância à unidade de processamento EB 10220.
Isto é, a unidade de correção de luminância 10210 é construída a partir da uma unidade de geração de coeficiente VM 10211 e uma unidade de computação 10212. A unidade de geração de coeficiente VM 10211 é suprida de
um sinal de controle de VM a partir da unidade de controle VM 10039 (Figura 38). A unidade de geração de coeficiente VM 10211 gera um coeficiente VM de acordo com o sinal de controle de VM a partir da unidade de controle VM 10039, e fornece o coeficiente VM à unidade de computação 10212.
A unidade de computação 10212 é fornecida, em adição ao coeficiente VM a partir da unidade de geração de coeficiente VM 10211, do sinal de imagem da unidade de processamento ABL 10033 (Figura 38).
A unidade de computação 10212 multiplica o sinal de imagem da unidade de processamento ABL 10033 (Figura 38) pelo coeficiente VM a partir da unidade de geração de coeficiente VM 10211 para corrigir este sinal de imagem para a quantidade de influência de uma mudança na velocidade de deflexão da deflexão horizontal de um feixe de elétron do aparelho de exibição de CRT na luminância, e fornece um sinal de imagem obtido após a correção à unidade de processamento EB 10220.
A unidade de processamento EB 10220 submete o sinal de imagem da unidade de correção de luminância 10210 (sinal de imagem processado pela unidade de processamento ABL 10033 e processado adicionalmente pela unidade de correção de luminância 10210) a um processo (processo de emulação EB (Feixe de Elétron)) que emula o feixe de elétron do aparelho de exibição de CRT, espalhando e incidindo em um material fluorescente do aparelho de exibição de CRT, e fornece um sinal de imagem resultante à unidade de processamento γ de um CRT 10035 (Figura 38).
Conforme acima, o processo de emulação VM executado na unidade de processamento VM 10034 é composto do processo de correção de luminância executado na unidade de correção de luminância 10210 e do processo de emulação EB efetuado na unidade de processamento EB 10220.
Figura 42 ilustra um exemplo de um coeficiente VM gerado na unidade de geração de coeficiente VM 10211 da Figura 41.
O coeficiente VM é um coeficiente a ser multiplicado pelos valores de pixel (luminância) de pixéis a serem corrigidos quanto à luminância, no sentido de retardar, no aparelho de exibição de CRT, a velocidade de deflexão da deflexão horizontal (deflexão na direção horizontal) na posição de um pixel de interesse (aqui, um pixel a ser corrigido de modo a reforçar a luminância por um processo VM) pelo sinal de acionamento de bobina de VM, para emular de forma equivalente um processo de VM de aumentar a luminância do pixel de interesse, onde diversos pixéis arranjados na direção horizontal com o pixel de interesse como o centro desta, são usados como os pixéis a serem corrigidos quanto à luminância.
Na unidade de geração de coeficiente VM 10211, conforme ilustrado na Figura 42, um coeficiente VM a ser multiplicado pelo valor de pixel do pixel de interesse dentre os pixéis a serem corrigidos quanto à luminância, é ajustado para um valor de 1 ou mais, e um coeficiente VM a ser multiplicado pelos outros pixéis é ajustado para um valor de 1 ou menos, de tal modo que o ganho na unidade de computação 10212 pode ser 1.
Figura 43 ilustra um método para determinar um coeficiente VM gerado na unidade de geração de coeficiente VM 10211 da Figura 41.
Isto é, a parte A da Figura 43 ilustra a forma de onda de uma tensão (tensão de deflexão) aplicada à culatra de deflexão DY (Figura 39) do aparelho de exibição de CRT.
Conforme ilustrado na parte A da Figura 43, uma tensão de deflexão que varia com um certo gradiente com o tempo T é repetidamente aplicada à culatra de deflexão DY (Figura 39) em intervalos de varredura horizontal.
Parte B da Figura 43 ilustra um sinal de acionamento de bobina de VM gerado no circuito de acionamento VM 10061 (Figura 39) do aparelho de exibição de CRT.
No aparelho de exibição de CRT, a bobina de VM localizada na culatra de deflexão DY (Figura 39) é acionada pelo sinal de acionamento de bobina de VM da parte B da Figura 43, e a velocidade de deflexão de um feixe de elétron é parcialmente modificada por um campo magnético gerado pela bobina de VM, conforme ilustrado na parte C da Figura 43.
Isto é, parte C da Figura 43 ilustra uma variação temporal da posição na direção horizontal de um feixe de elétron em um caso em que a bobina de VM gera um campo magnético de acordo com o sinal de acionamento de bobina de VM da parte B da Figura 43. Devido ao campo magnético gerado pela bobina de VM, a variação temporal na posição da direção horizontal do feixe de elétron (o gradiente do gráfico da parte C da Figura 43) isto é, a velocidade de deflexão da deflexão horizontal do feixe de elétron, não é mais constante (varia) por um período ou similar durante o qual o campo magnético é gerado.
Parte D da Figura 43 ilustra um valor diferenciado de um valor de subtração obtido subtraindo a variação temporal na posição na direção horizontal do feixe de elétron da parte C da Figura 43 da variação temporal da posição na direção horizontal do feixe de elétron, causada pela tensão de deflexão da parte A da Figura 43.
Se um caso em que a deflexão horizontal do feixe de elétron é efetuada somente pela tensão de deflexão da parte A da Figura 43 usada como uma referência, em um caso em que a bobina de VM gera um campo magnético de acordo com o sinal de acionamento de bobina de VM, a intensidade (quantidade) do feixe de elétron incidente nos materiais fluorescentes do CRT 10056 (Figura 39) do aparelho de exibição de CRT, isto é, a luminância (brilho) da imagem exibida no CRT 10056, varia da maneira ilustrada na parte D da Figura 43.
A unidade de geração de coeficiente VM 10211 (Figura 41) gera um valor equivalente ao valor diferenciado da parte D da Figura 43 como um coeficiente VM.
Notar que o valor específico do coeficiente VM, a faixa de pixéis a serem multiplicados pelo coeficiente VM (o valor de pixel de quantos pixéis arranjados na direção horizontal com o pixel de interesse como o centro desta deve ser multiplicado pelo coeficiente VM), o valor de pixel (nível) do pixel a ser configurado como um pixel de interesse, e similar são determinado dependendo da especificação ou similar do aparelho de exibição de CRT para o qual o dispositivo de processamento de sinal de imagem da Figura 38 emula a exibição. A seguir, o processo de emulação EB executado na unidade de processamento EB 10220 da Figura 41 será explicado.
No processo de emulação EB, conforme descrito acima, um processo que emula um feixe de elétron do aparelho de exibição de CRT espalhando e incidindo sobre o material fluorescente do CRT 10056 (Figura 39) do aparelho de exibição de CRT, é executado.
Isto é, agora, se é suposto que um pixel (sub-pixel) correspondente a um material fluorescente no qual um feixe de elétron deve ser radiado, é configurado como um pixel de interesse, em um caso em que a intensidade do feixe de elétron é alta, a forma do foco do feixe de elétron se torna grande, de tal modo que o feixe de elétron atinge não só o material fluorescente correspondente ao pixel de interesse, como também materiais fluorescentes correspondentes a pixéis vizinhos a este, para ter a influência nos valores de pixel dos pixéis vizinhos. No processo de emulação EB, o processo que emula esta influência é executado.
Figura 44 ilustra uma relação entre a corrente (corrente do feixe) aplicada a um canhão eletrônico que radia um feixe de elétron e o diâmetro (tamanho do foco) de um foco formado pelo feixe de elétron radiado na tela do visor de um CRT em correspondência com a corrente do feixe.
Notar que, na Figura 44, a relação entre a corrente do feixe e o tamanho do foco para dois tipos de CRT é ilustrada.
Embora a relação entre a corrente do feixe e o tamanho do foco possam diferir, dependendo do tipo de CRT, a configuração de luminância máxima, ou similar, o tamanho do foco aumenta à medida que a corrente do foco aumenta. Isto é, quanto maior a luminância, maior o tamanho do foco.
Tal relação entre a corrente do feixe e o tamanho do foco é descrita, por exemplo, na Publicação de Pedido de Patente Não Examinada Japonesa No. 2004-39300 ou similar. A tela de exibição do CRT é revestida de materiais fluorescentes (substâncias fluorescentes) de três cores, a saber, vermelho, verde e azul e feixes de elétrons (usados) para vermelho, verde e azul incidem nos materiais fluorescentes vermelho, verde e azul, deste modo descarregando a luz vermelha, verde e azul. Conseqüentemente, uma imagem é exibida.
O CRT é adicionalmente provido de um mecanismo de separação de cor na tela do visor deste, possuindo aberturas através das quais feixes de elétrons passam, de tal forma que os feixes de elétrons de vermelho, verde e azul são radiados nos materiais fluorescentes de três cores, a saber, vermelho, verde e azul.
Figura 45 ilustra o mecanismo de separação de cor.
Isto é, a parte A da Figura 45 ilustra uma máscara de sombra que é um mecanismo de separação de cor. A máscara de sombra é provida de orifícios circulares servindo como aberturas, e feixes de elétrons passando através dos orifícios são radiados através de materiais fluorescentes.
Notar que, a parte A da Figura 45, uma marca de círculo em branco denota unidade de geração de imagem de pseudo polegadas 713 m orifício através do qual um feixe de elétron é radiado em um material fluorescente vermelho, uma marca de círculo hachurado diagonalmente denota um orifício através do qual um feixe de elétron é radiado sobre um material fluorescente verde, e uma marca de círculo negro denota um orifício através do qual um feixe de elétron é radiado sobre um material fluorescente azul.
Parte B da Figura 45 ilustras uma grelha de abertura que é um outro mecanismo de separação de cor.
Uma grelha de abertura é provida de fendas servindo como aberturas estendendo-se na direção vertical, e feixes de elétrons passando através das fendas são radiados sobre materiais fluorescentes. Notar que, na parte B da Figura 45, um retângulo em branco denota uma fenda através da qual um feixe de elétron é radiado em um material fluorescente vermelho, um retângulo hachurado diagonalmente denota uma fenda através da qual um feixe de elétron é radiado sobre um material fluorescente verde, e um retângulo negro denota um fenda através da qual um feixe de elétron é radiado sobre um material fluorescente azul.
Conforme explicado na Figura 44, o tamanho do foco de um feixe de elétron aumenta à medida que a luminância aumenta.
Figuras 46 e 47 ilustram esquematicamente um foco de um feixe de elétron formado nos mecanismos de separação de cor em um caso em que o nível de luminância é quase intermediário e um foco de feixe de elétron formado nos mecanismos de separação de cor em um caso em que o nível de luminância é alto, respectivamente.
Notar que as partes A das Figuras 46 e 47 ilustram, em um caso em que o mecanismo de separação de cor é uma máscara de sombra, um foco de um feixe de elétron formado sobre a máscara de sombra e partes B das Figuras 46 e 47 ilustram, em um caso em que o mecanismo de separação de cor é uma grelha de abertura, um foco do feixe de elétron formado na grelha de abertura.
À medida que a luminância aumenta, a intensidade da porção central do (o foco do) feixe de elétron aumenta e conseqüentemente, a intensidade de uma porção em torno do feixe de elétron também aumenta. Então, o tamanho de foco do foco do feixe de elétron formado no mecanismo de separação de cor é aumentado. Conseqüentemente, o feixe de elétron é radiado não só sobre o material fluorescente correspondente ao pixel de interesse (o pixel correspondente ao material fluorescente a ser irradiado com o feixe de elétron) como também nos materiais fluorescentes correspondendo a pixéis rodeando o pixel de interesse.
Figura 48 é uma vista seccional em corte ilustrando uma maneira pela qual um feixe de elétron é radiado em um caso em que uma grelha de abertura é adotada como um mecanismo de separação de cor.
Isto é, a parte A da Figura 48 ilustra uma maneira pela qual um feixe de elétron é radiado em um caso em que a corrente do feixe possui um primeiro valor de corrente, e a parte B da Figura 48 ilustra uma maneira pela qual o feixe de elétron é radiado em um caso em que a corrente do feixe possui um segundo valor de corrente maior que o primeiro valor de corrente.
Na Figura 48, um pixel correspondente a um material fluorescente verde é ajustado como um pixel de interesse. Em um caso em que a corrente do feixe possui o primeiro valor de corrente, conforme ilustrado na parte A da Figura 48, o feixe de elétron possui um tamanho de foco que cai dentro de uma faixa entre fendas adjacentes. O feixe de elétron é radiado somente no material fluorescente correspondente ao pixel de interesse, e é fechado de modo a não ser adicionalmente radiado sobre qualquer outro material fluorescente.
Em contraste, em um caso em que a corrente do feixe possui o segundo valor de corrente, conforme ilustrado na parte B da Figura 48, o feixe de elétron tem um tamanho de foco que cai fora de uma faixa entre fendas adjacentes, e é também radiado sobre outros materiais fluorescentes, bem como o material fluorescente correspondente ao pixel de interesse.
Isto é, em um caso em que a corrente do feixe possui o segundo valor de corrente, o tamanho do foco do feixe de elétron torna-se grande o bastante para incluir outras fendas, bem como a fenda para o material fluorescente correspondente ao pixel de interesse e, conseqüentemente, o feixe de elétron passa através das outras fendas e é também radiado sobre os materiais fluorescentes diferentes do material fluorescente correspondente ao pixel de interesse.
Notar que, conforme ilustrado na parte B da Figura 48, a corrente do feixe em um caso em que o feixe de elétron também passa através de fendas diferentes da fenda para o material fluorescente correspondente ao pixel de interesse, é determinada com base na relação entre o tamanho do foco do feixe de elétron e a largura da fenda das fendas na grelha de abertura.
No processo de emulação EB, conforme acima, a influência de uma imagem causada radiando um feixe de elétron não só sobre o material fluorescente correspondente ao pixel de interesse, como também sobre outros materiais fluorescentes, é refletida no sinal de imagem.
Aqui, Figura 49 ilustra uma distribuição de intensidade dos feixes de elétrons, que é aproximada por distribuição normal bidimensional (distribuição Gaussiana).
Figura 50 ilustra uma distribuição de intensidade dos feixes de elétrons passando através de fendas na grelha de abertura entre os feixes de elétrons da Figura 49.
Isto é, parte A da Figura 50 ilustra uma distribuição de intensidade dos feixes de elétrons passando através da fenda para o material fluorescente correspondente ao pixel de interesse e os feixes de elétrons passando através de fendas esquerda e direita adjacentes à fenda.
Uma porção majoritária dos feixes de elétrons passa através da fenda para o material fluorescente correspondente ao pixel de interesse, enquanto uma porção do restante dos feixes de elétrons passa através de uma fenda esquerda adjacente a e a esquerda da fenda para o material fluorescente correspondendo ao pixel de interesse, e uma fenda direita adjacente para e sobre a direita da fenda para o material fluorescente correspondente ao pixel de interesse. Os feixes de elétrons passando através desta possuem uma influência da exibição do pixel correspondente ao material fluorescente da fenda esquerda e o pixel correspondente ao material fluorescente da fenda direita.
Notar que, a parte B ilustra uma distribuição de intensidade dos feixes de elétrons passando através da fenda para o material fluorescente correspondente ao pixel de interesse dentro da distribuição de intensidade dos feixes de elétrons ilustrados na parte A da Figura 50, e parte C da Figura 50 ilustra uma distribuição de intensidade dos feixes de elétrons passando através das fendas esquerda e direita.
Figura 51 ilustra uma distribuição de intensidade de feixes de elétrons possuindo uma intensidade mais alta que a do caso da Figura 49, e uma distribuição de intensidade dos feixes de elétrons passando através das fendas na grelha de abertura entre os feixes de elétrons.
Isto é, parte A da Figura 51 ilustra uma distribuição de intensidade de feixes de elétrons possuindo uma intensidade mais alta que no caso da Figura 49.
Os feixes de elétrons da parte A da Figura 51 apresentam um tamanho de foco (faixa possuindo uma intensidade maior ou igual a um valor predeterminado) maior que os feixes de elétrons da Figura 49.
Parte B da Figura 51 ilustra uma distribuição de intensidade dos feixes de elétrons passando através das fendas na grelha de abertura entre os feixes de elétrons da parte A da Figura 51.
Na parte B da Figura 51, os feixes de elétrons passando através das fendas esquerda e direita possuem uma intensidade mais alta que aquela do caso da Figura 50, e portanto, possui uma influência maior na exibição do pixel correspondente ao material fluorescente na fenda esquerda e o pixel correspondente ao material fluorescente na fenda direita.
Notar que a parte C da Figura 51 ilustra, dentro da distribuição de intensidade dos feixes de elétrons ilustrados na parte B da Figura 51, uma distribuição de intensidade dos feixes de elétrons passando através da fenda para o material fluorescente correspondente ao pixel de interesse, e a parte D da Figura 51 ilustra uma distribuição de intensidade dos feixes de elétrons passando através das fendas esquerda e direita.
Figura 52 ilustra a distribuição de intensidade dos feixes de elétrons ilustrados na Figura 49 e uma distribuição de intensidade dos feixes de elétrons passando através das fendas na máscara de sombra entre os feixes de elétrons.
Isto é, parte A da Figura 52 ilustra a distribuição de intensidade dos feixes de elétrons que é a mesma da Figura 49.
Parte B da Figura 52 ilustra uma distribuição de intensidade dos feixes de elétrons passando através dos orifícios na máscara de sombra, entre os feixes de elétrons da parte A da Figura 52.
Isto é, parte B da Figura 52 ilustra uma distribuição de intensidade dos feixes de elétrons passando através do orifício no material fluorescente correspondente ao pixel de interesse e os feixes de elétrons passando através de orifícios (orifícios vizinhos) vizinhos deste orifício.
Parte C da Figura 52 ilustra, dentro das distribuições de intensidade dos feixes de elétrons ilustrados na parte B da Figura 52, uma distribuição de intensidade dos feixes de elétrons passando através do orifício no material fluorescente correspondente ao pixel de interesse e a parte D da Figura 52 ilustra uma distribuição de intensidade dos feixes de elétrons passando através dos orifícios vizinhos.
Figura 53 ilustra uma distribuição de intensidade dos feixes de elétrons possuindo uma intensidade mais alta que é do caso da Figura 52, e uma distribuição de intensidade nos feixes de elétrons passando através de orifícios na máscara de sombra entre os feixes de elétrons.
Isto é, parte A da Figura 53 ilustra uma distribuição de intensidade de feixes de elétrons possuindo uma intensidade mais alta que no caso da Figura 52.
Os feixes de elétrons da parte A da Figura 53 possuem um tamanho de foco maior (faixa possuindo uma intensidade maior ou igual a um valor predeterminado) que os feixes de elétrons da parte A da Figura 52.
Parte B da Figura 53 ilustra uma distribuição de intensidade de feixes de elétrons passando através de orifícios na máscara de sombra entre os feixes de elétrons da parte A da Figura 53.
Na parte B da Figura 53, a intensidade dos feixes de elétrons passando através dos orifícios vizinhos e mais alta que a do caso da parte B da Figura 52, e portanto, possui uma influência maior na exibição dos pixéis correspondentes aos materiais fluorescentes dos orifícios vizinhos, comparada ao caso da parte B da Figura 52.
intensidade dos feixes de elétrons ilustrada na parte B da Figura 53, uma distribuição de intensidade dos feixes de elétrons passando através do orifício no material fluorescente correspondente ao pixel de interesse, e parte D da Figura 53 ilustra uma distribuição de intensidade dos feixes de elétrons passando através dos orifícios vizinhos.
espalhamento de um foco de um feixe de elétron, a escala ao longo da direção de altura representando a intensidade do feixe de elétron, é comprimida se comparada com a escala ao longo das direções χ e y representando a posição.
normal unidimensional (distribuição normal em uma dimensão) pode ser determinada integrando a função de densidade de probabilidade f(x) na Equação (21), representando a distribuição unidimensional através de cuja seção a área deve ser determinada.
representa variância.
Conforme descrito acima, em um caso em que a distribuição da intensidade de um feixe de elétron é aproximada pela distribuição normal bidimensional (distribuição normal em duas dimensões), a intensidade do
Parte C da Figura 53 ilustra, dentro da distribuição de
Notar que, nas Figuras 49 a 53, para fácil entendimento do
Incidentalmente, a área de uma certa seção da distribuição
[Mat. 21]
.2 feixe de elétron em uma certa faixa pode ser determinada integrando a função de densidade de probabilidade f(x, y) na Equação (22), representando distribuição normal bidimensional através da faixa para a qual a intensidade deve ser determinada.
[Mat. 22]
f (x, y) = -1 ι exp
2 π σχ σγ -\/l-£>xy
1 ί(χ-^χ)2
2(1"^y) l σχ
| (y—JLfy)2 2pxy(χ-μχ) (y-/yy)'
σγ crX 0V JJ (22)
Aqui, na Equação (22), μχ representa o valor médio na direção χεμ^ representa o valor médio na direção y. Adicionalmente, σχ representa a variância na direção χ e σν2 representa a variância na direção y. pxy representa o coeficiente de correlação nas direções χ e y (o valor obtido dividindo a covariância nas direções χ e y pelo produto do desvio padrão σχ na direção χ e o desvio padrão σγ na direção y.
O valor médio (vetor médio) (μχ, μγ) representa idealmente a posição (x, y) do centro do feixe de elétron. Agora, para facilidade de explicação, é suposto que a posição (x, y) do centro do feixe de elétron é (0, 0) (origem). Então, os valores médios μχε μγ se tornam 0.
Adicionalmente, em um aparelho de exibição de CRT, uma vez que um canhão eletrônico, um catodo e similares são projetados de tal modo que um foco de um feixe de elétron pode ser redondo, o coeficiente de correlação pxy é ajustado para 0. Agora, se é suposto que o mecanismo de separação de cor é
uma grelha de abertura, a função de densidade de probabilidade f(x, y) na Equação (22) na qual os valores médios μχ e e o coeficiente de correlação pxy são ajustados para 0 é integrado ao longo da faixa de uma fenda. Conseqüentemente, a intensidade (quantidade) do feixe de elétron passando através da fenda pode ser determinado. Isto é, Figura 54 é um diagrama explicando a integração para determinar a intensidade de um feixe de elétron passando através de uma fenda.
A parte A da Figura 54 ilustra o intervalo de integração na direção x, que é uma direção horizontal.
A intensidade de um feixe de elétron passando através de uma fenda em um material fluorescente correspondendo a um pixel de interesse (uma fenda de interesse) pode ser determinada integrando a função de densidade de probabilidade f(x, y) ao longo da faixa de -S/2 a +S/2, onde S denota a largura da fenda de uma fenda na grelha de abertura na direção x.
Adicionalmente, a intensidade do feixe de elétron passando através da fenda esquerda pode ser determinada, para a direção x, integrando a função de densidade de probabilidade f(x, y) através da largura da fenda da fenda esquerda. A intensidade do feixe de elétron passando através da fenda direita pode ser determinada, para a direção x, integrando a função de densidade de probabilidade f(x, y) através da largura da fenda da fenda direita.
Partes B e C da Figura 54 ilustram o intervalo de integração na direção y que é uma direção vertical.
A intensidade do feixe de elétron passando através da fenda de interesse pode ser determinada, para a direção y, conforme ilustrado na parte B da Figura 54, integrando a função de densidade de probabilidade f(x, y) ao longo da faixa de -oo a +oo.
As intensidades dos feixes de elétrons passando através das fendas esquerda e direita podem também ser determinadas, para a direção y, conforme ilustrado na parte C da Figura 54, integrando a função de densidade de probabilidade f(x, y) através da faixa de -oo a +oo.
Em contraste, a intensidade global dos feixes de elétrons pode ser determinada, para ambas direções χ e y, integrando a função de densidade de probabilidade f(x, y) ao longo da faixa de -oo a +00, cujo valor é agora denotado por P0.
Adicionalmente, é suposto que a intensidade do feixe de elétron passando através da fenda de interesse, é representada por Pi e as intensidades dos feixes de elétron passando através das fendas esquerda e direita são representadas por Pl e PR, respectivamente.
Neste caso, somente a intensidade Pi dentro da intensidade global P0 dos feixes de elétrons tem a influência na exibição do pixel de interesse. Devido à exibição deste pixel de interesse, dentro da intensidade global P0 dos feixes de elétrons, a intensidade Pl tem a influência na exibição do pixel (pixel esquerdo) correspondente ao material fluorescente da fenda esquerda, e a intensidade Pr influencia a exibição do pixel (pixel direito) correspondendo ao material fluorescente da fenda esquerda.
Isto é, se a intensidade global P0 dos feixes de elétrons é usada como referência, P1/P0 da intensidade dos feixes de elétrons tem a influência na exibição do pixel de interesse. Ainda mais, PL/Po da intensidade do feixe de elétron tem a influência na exibição do pixel esquerdo, e Pr/Po da intensidade do feixe de elétron tem a influência na exibição do pixel direito.
Portanto, se a exibição do pixel de interesse é usada como uma referência, a exibição do pixel de interesse tem a influência na exibição do pixel esquerdo somente por PL/P0/(Pi/Po), e tem a influência da exibição do pixel direito somente por PR/P0/(Pi/Po)·
No processo de emulação EB, para o pixel esquerdo, no sentido de refletir a influência da exibição do pixel de interesse, o valor de pixel do pixel esquerdo é multiplicado pela quantidade de influência PL/Po/(Pi/Po) da exibição do pixel de interesse como um coeficiente EB usado para o processo de emulação EB, e um valor de multiplicação resultante é adicionado ao valor de pixel (original) do pixel esquerdo. Adicionalmente, no processo de emulação EB, um processo similar é executado, usando como um coeficiente EB, a quantidade de influência da exibição de pixéis em torno do pixel esquerdo, o que tem a influência na exibição do pixel esquerdo. Conseqüentemente, o valor de pixel do pixel esquerdo é determinado, o qual leva em conta a influência causada pelo feixe de elétron espalhando-se no instante de exibição dos pixéis rodeando o pixel esquerdo e incidindo no material fluorescente do pixel esquerdo.
Também, para o pixel direito, de modo similar, o valor de pixel do pixel direito é determinado, o qual leva em conta a influência causada pelo feixe de elétron espalhando-se no instante de exibição dos pixéis rodeando o elemento direito e incidindo no material fluorescente do pixel direito.
Notar que, também em um caso em que o mecanismo de separação de cor é uma máscara de sombra, o coeficiente EB usado para o processo de emulação EB pode ser determinado de uma maneira similar à do caso de uma grelha de abertura. Com relação a uma máscara de sombra, entretanto, a complexidade de integração é aumentada se comparada com o caso da grelha de abertura. Com relação a uma máscara de sombra, é mais fácil determinar o coeficiente EB usando o Método Monte Cario ou similar, a partir da posição de um orifício na máscara de sombra e o raio do orifício, ao invés de usar a integração descrita acima.
Conforme acima, é teoricamente possível determinar o coeficiente EB por cálculo. Entretanto, conforme ilustrado na Figura 44, o tamanho do foco de um feixe de elétron varia dependendo da corrente do feixe. Portanto, no sentido de determinar o coeficiente EB, é necessário mudar as variâncias σχ2 e ay2 da função de densidade de probabilidade f(x, y) na Equação (22), o que aproxima a distribuição de intensidade dos feixes de elétrons, para cada valor de corrente da corrente do feixe.
Adicionalmente, no caso descrito acima, é uma premissa razoável que um feixe de elétron seja incidente em um mecanismo de separação de cor (uma grelha de abertura e uma máscara de sombra) a um ângulo reto. Na realidade, entretanto, o ângulo no qual o feixe de elétron é incidente sobre um mecanismo de separação de cor torna-se pouco acentuada à medida que a incidência ocorre afastada do centro da tela de exibição.
Isto é, Figura 55 ilustra uma maneira pela qual um feixe de elétron é incidente em uma grelha de abertura, servindo como um mecanismo de separação de cor.
A parte a da Figura 55 ilustra uma maneira pela qual um feixe de elétron é incidente na grelha de abertura, na vizinhança do centro da tela de exibição.
Conforme ilustrado na parte A da Figura 55, na vizinhança do centro da tela de exibição, um feixe de elétron é incidente perpendicular à grelha de abertura.
Parte B da Figura 55 ilustra uma maneira pela qual um feixe de elétron é incidente na grelha de abertura em uma posição afastada do centro da tela de exibição.
Conforme ilustrado na parte B da Figura 55, em uma posição afastada do centro da tela de exibição, um feixe de elétron é incidente na grelha de abertura em um ângulo inclinado em relação à perpendicular.
Em um caso em que, conforme ilustrado na parte B da Figura 55, um feixe de elétron é incidente na grelha de abertura em um ângulo inclinado com relação à perpendicular, a distribuição de intensidade dos feixes de elétrons é distante da forma da função de densidade de probabilidade f(x, y) na Equação (22). Então, se o coeficiente EB é determinado com base na premissa de que um feixe de elétron é incidente perpendicular à grelha de abertura, a precisão do coeficiente EB é degradada.
Do precedente, é desejado que o coeficiente EB seja determinado não só por cálculo como também usando um experimento.
A seguir, o processo de emulação EB executado na unidade de processamento EB 10220 da Figura 41 será adicionalmente explicado com referência às Figuras 55 e 57.
Figura 56 ilustra pixéis e uma distribuição de intensidade de feixes de elétrons.
Isto é, parte A da Figura 56 ilustra 3x3, isto é, nove pixéis A, B, C, D, F, G, H e I dados na ordem horizontal e vertical com um pixel E como o centro desta.
Agora, é suposto que na parte A da Figura 56, a atenção seja dirigida ao pixel E como um pixel de interesse. Adicionalmente, a direção horizontal é configurada como a direção χ e a direção vertical é configurada como a direção y, e as posições dos outros pixéis AaDeFaI com respeito à posição (x, y) do pixel de interesse E são representadas.
Neste caso, se é suposto que a distância entre pixéis é 1, a posição do pixel A é ajustada para (x-1, y-1), a posição do pixel B para (x, y- 1), a posição do pixel C para (x+1, y-1), a posição do pixel D para (x-1, y), a posição do pixel F para (x+1, y), a posição do pixel G para (x-1, y+1), a posição do pixel H para (x, y+1) e a posição do pixel I para (x+1, y+1).
Aqui, o pixel A é também referido como o pixel A(x-1, y-1), usando também sua posição (x-1, y-1) e o valor de pixel do pixel A(x-1, y-1) é também referido como um valor de pixel A. Similaridade se aplica aos outros pixéis BaI.
Partes B e C da Figura 56 ilustram esquematicamente uma distribuição de intensidade de feixes de elétrons quando o pixel de interesse E (x, y) é exibido em um aparelho de exibição de CRT.
Isto é, parte B da Figura 56 representa a distribuição na direção χ da intensidade dos feixes de elétrons quando o pixel de interesse E(x, y) é exibido, e parte C da Figura 56 representa a distribuição na direção y da intensidade dos feixes de elétrons quando o pixel de interesse E(x, y) é exibido. À medida que o valor de pixel E do pixel de interesse E(x, y) aumenta, conforme ilustrado nas partes B e C da Figura 56, os feixes de elétrons são mais espalhados e têm a influência na exibição dos outros pixéis A(x-1, y-1) a D(x-1, y) e F(x+1, y) a I(x+1, y+1).
Então, a unidade de processamento EB 10220 da Figura 41 multiplica um coeficiente EB representando o grau no qual os feixes de elétrons ao exibir o pixel de interesse E(x, y) tem influência na exibição dos outros pixéis A(x-1, y-1) a D(x-1, y) e F(x+1, y) a I(x+1, y+1), pelos valores de pixel AaDeFaI dos outros pixéis A(x-1, y-1) a D(x-1, y) e F(x+1, y) a I(x+1, y+1), para deste modo determinar a quantidade de influência dos feixes de elétrons na exibição dos outros pixéis A(x-1, y-1) a D(x-1, y) e F(x+1, y) a I(x+1, y+1) ao exibir o pixel de interesse E(x, y). Levando em conta a quantidade de influência, a unidade de processamento EB 10220 decide os valores de pixel, obtidos após o processo de emulação EB, dos outros pixéis A(x-1, y-1) a D(x-1, y) e F(x+1, y) a I(x+1, y+1).
Figura 57 ilustra um exemplo de estrutura de um circuito que determina a quantidade de influência dos feixes de elétrons (posteriormente referida como uma quantidade de influência EB, se desejado) na exibição dos outros pixéis A(x-1, y-1) a D(x-1, y) e F(x+1, y) a I(x+1, y+1) ao exibir o pixel de interesse E(x, y).
O valor de pixel A é suprido a uma unidade de computação 10242A, o valor do pixel B a uma unidade de computação 10242B, o valor do pixel C a uma unidade de computação 10242C, o valor do pixel D a uma unidade de computação 10242D, o valor do pixel E a uma unidade de geração de coeficiente EB 10241, o valor do pixel F a uma unidade de computação 10242F, o valor do pixel G a uma unidade de computação 10242G, o valor do pixel H a uma unidade de computação 10242H e o valor do pixel I a uma unidade de computação 102421.
A unidade de geração de coeficiente EB 10241 gera coeficientes EB Aeb, Beb, Ceb, Deb, Feb, Geb, Heb e Ieb representando o grau no qual os feixes de elétrons ao exibir o pixel de interesse E(x, y) tem influência na exibição dos outros pixéis A(x-1, y-1) a D(x-1, y) e F(x+1, y) a I(x+1, y+1) com base no valor do pixel Ε. A unidade de geração de coeficiente EB 10241 fornece os coeficientes EB Aeb, Beb, Ceb, Deb, Feb, Geb, Heb e Ieb às unidades de computação 10242A, 10242B, 10242C, 10242D, 10242F, 10242G, 10242He 102421, respectivamente.
As unidades de computação 10242A a 10242D e 10242F a 102421 multiplicam os valores de pixel AaDeFaI fornecidos a elas com os coeficientes EB Aeb a Deb e Feb a Ieb a partir da unidade de geração de coeficiente EB 10241, respectivamente, e valores de saída A' a D' e F' a Γ obtidos como resultados das multiplicações como quantidades de influência EB.
O valor do pixel E é diretamente emitido e é adicionado à quantidade de influência EB de cada um dos feixes de elétrons na exibição do pixel de interesse E(x, y) ao exibir os outros pixéis A(x-1, y-1) a D(x-1, y) e F(x+1, y) a I(x+1, y+1). O valor de adição resultante é configurado como um valor de pixel, obtido após o processo de emulação EB, do pixel de interesse E(x, y).
Figura 58 é um diagrama em blocos ilustrando um exemplo de estrutura da unidade de processamento EB 10220 da Figura 41.
Na Figura 58, a unidade de processamento EB 10220 é construída a partir da uma unidade de função EB 10250, e a unidade de função EB 10250 é construída a partir das unidades de retardo 10251 a 10259, uma unidade de geração de coeficiente EB 10260 e uma unidade de operação produto-soma 10261.
A unidade de função EB 10250 determina o valor de pixel, obtido após o processo de emulação EB, do pixel E(x, y) supondo que, por exemplo, conforme ilustrado na Figura 56, os feixes de elétrons ao exibir a exibição do pixel E(x, y) tem a influência na exibição dos pixéis A(x-1, y-1) a D(x-1, y) e F(x+1, y) a I(x+1, y+1) adjacentes ao pixel E(x, y), isto é, supondo que o pixel E(x, y) tem uma quantidade de influência EB a partir de cada um dos pixéis A(x-1, y-1) a D(x-1, y) e F(x+1, y) a I(x+1, y+1) adjacentes ao pixel E(x, y).
Isto é, a unidade de função EB 10250 é fornecida com o sinal de imagem a partir da unidade de processamento EB 10220 (Figura 41).
Na unidade de função EB 10250, os valores de pixel dos pixéis constituindo os sinais de imagem a partir da unidade de correção de luminância 10210 são supridos às unidades de retardo 10251, 10253 e 10258, à unidade de geração de coeficiente EB 10260 e unidade de operação produto- soma 10261 na ordem de varredura de linha de pixéis.
A unidade de retardo 10251 retarda o valor de pixel da unidade de correção de luminância 10210 de uma quantidade correspondente a uma linha (linha horizontal) antes de fornecer o valor de pixel à unidade de retardo 10252. A unidade de retardo 10252 retarda o valor de pixel da unidade de retardo 10251 de uma quantidade correspondente a uma linha antes de fornecer o valor de pixel à unidade de retardo 10254 e à unidade de operação produto-soma 10261. A unidade de retardo 10254 retarda o valor de pixel da unidade
de retardo 10252 de uma quantidade correspondente a um pixel, antes de fornecer o valor de pixel à unidade de retardo 10255 e à unidade de operação produto-soma 10261. A unidade de retardo 10255 retarda o valor de pixel da unidade de retardo 10254 de uma quantidade correspondente a um pixel, antes de fornecer o valor de pixel à unidade de operação produto-soma 10261.
A unidade de retardo 10253 retarda o valor de pixel da unidade de correção de luminância 10210 de uma quantidade correspondente a uma linha, antes de fornecer o valor de pixel à unidade de retardo 10256 e unidade de operação produto-soma 10261. A unidade de retardo 10256 retarda o valor de pixel da unidade de retardo 10253 de uma quantidade correspondente a um pixel, antes de fornecer o valor de pixel à unidade de retardo 10257 e unidade de operação produto-soma 10261. A unidade de retardo 10257 retarda o valor de pixel da unidade de retardo 10256 de uma quantidade correspondente a um pixel, antes de fornecer o valor de pixel à unidade de operação produto-soma 10261.
A unidade de retardo 10258 retarda o valor de pixel da unidade de correção de luminância 10210 de uma quantidade correspondente a um pixel, antes de fornecer o valor de pixel à unidade de retardo 10259 e à unidade de operação produto-soma 10261. A unidade de retardo 10259 retarda o valor de pixel da unidade de retardo 10258 de uma quantidade correspondente a um pixel, antes de fornecer o valor de pixel à unidade de operação produto-soma 10261.
A unidade de geração de coeficiente EB 10260 gera um coeficiente EB conforme descrito acima, para determinar a quantidade de influência EB deste valor de pixel nos valores de pixel adjacentes, com base no valor de pixel da unidade de correção de luminância 10210, e fornece o coeficiente EB à unidade de operação produto-soma 10261.
A unidade de operação produto-soma 10261 multiplica cada um de um total de oito valores de pixel, a saber o valor de pixel da unidade de correção de luminância 10210 e os valores de pixel individualmente a partir das unidades de retardo 10252 a 10255 e 10257 a 10259, com o coeficiente EB da unidade de geração de coeficiente EB 10260, para determinar deste modo a quantidade de influência EB no valor de pixel retardado pela unidade de retardo 10256 a partir dos oito valores de pixel. A unidade de operação produto-soma 10261 adiciona esta quantidade de influência EB ao valor de pixel da unidade de retardo 10256, determinando deste modo e emitindo o valor de pixel obtido após o processo de emulação EB para o valor de pixel a partir da unidade de retardo 10256. Portanto, por exemplo, se é suposto que os valores de pixel A a I ilustrados na Figura 56 são fornecidos à unidade de função EB 10250 em ordem de exploração de linha de pixéis e que o valor de pixel I é agora fornecido à unidade de função EB 10250, a saída da unidade de retardo 10255 torna-se igual ao valor de pixel A, a saída da unidade de retardo 10254 ao valor de pixel B, a saída da unidade de retardo 10252 ao valor de pixel C, a saída da unidade de retardo 10257 ao valor de pixel D, a saída da unidade de retardo 10256 ao valor de pixel E, a saída da unidade de retardo 10253 ao valor de pixel F, a saída da unidade de retardo 10259 ao valor de pixel G, a saída da unidade de retardo 10258 ao valor de pixel H, que são supridas à unidade de operação produto-soma 10261.
Adicionalmente, o valor de pixel I fornecido à unidade de função EB 10250 é fornecido à unidade de geração de coeficiente EB 10260 e unidade de operação produto-soma 10261. Os valores de pixel AaH foram fornecidos à unidade de
geração de coeficiente EB 10260 antes do valor de pixel I ser fornecido. Então, na unidade de geração de coeficiente EB 10260, um coeficiente EB para determinar a quantidade de influência EB de cada um dos valores de pixel A a I no valor de pixel adjacente, foi gerada e fornecida à unidade de operação produto-soma 10261.
A unidade de operação produto-soma 10261 multiplica o valor de pixel E a partir da unidade de retardo 10256 por cada um dos coeficientes EB a partir da unidade de geração de coeficiente EB 10260, para determinar a quantidade de influência EB de cada um dos valores de pixel AaDeFaI no valor de pixel E para, deste modo, determinar a quantidade de influência EB de cada um dos valores de pixel AaDeFaI no valor de pixel E, que é adicionado ao valor de pixel E a partir da unidade de retardo 10256. O valor de adição resultante é emitido como o valor de pixel obtido após o processo de emulação EB para o valor de pixel E a partir da unidade de retardo 10256. A seguir, Figura 59 ilustra um outro exemplo de estrutura da unidade de processamento EB 10220 da Figura 41.
Notar que, na Figura, porções correspondentes ao caso da Figura 58 são designadas pelos mesmos numerais e explicações destas são omitidas, se desejado.
Isto é, a unidade de processamento EB 10220 da Figura 59 é comum à do caso da Figura 58, pois tem uma unidade de função EB 10250, e é diferente daquela do caso da Figura 58, possuindo seletores adicionais 10271 e10272.
Na unidade de processamento EB 10220 da Figura 59, o sinal de imagem da unidade de correção de luminância 10210 (Figura 41) é fornecido ao seletor 10271.
Adicionalmente, um sinal de imagem do seletor 10272 é também fornecida ao seletor 10271.
O seletor 10271 seleciona o sinal de imagem da unidade de correção de luminância 10210 ou o sinal de imagem do seletor 10272, e fornece o selecionado à unidade de função EB 10250.
O seletor 10272 é suprido com o sinal de imagem obtido após o processo de emulação EB da unidade de função EB 10250.
O seletor 10272 emite o sinal de imagem a partir da unidade de função EB 10250 como um sinal de imagem final obtido após o processo de emulação EB ou fornece o sinal de imagem ao seletor 10271.
Na unidade de processamento EB 10220 construída como acima, o seletor 10271 seleciona primeiramente o sinal de imagem a partir da unidade de correção de luminância 10210 e fornece o sinal de imagem selecionado à unidade de função EB 10250.
A unidade de função EB 10250 submete o sinal de imagem do seletor 10271 a um processo de emulação EB, e fornece um sinal de imagem resultante ao seletor 10272. O seletor 10272 fornece o sinal de imagem da unidade de função EB 10250 ao seletor 10271.
O seletor 10271 seleciona o sinal de imagem do seletor 10272 e fornece o sinal de imagem selecionado à unidade de função EB 10250.
Da maneira acima, na unidade de função EB 10250, após o
sinal de imagem a partir da unidade de correção de luminância 10210 ser repetidamente submetido ao processo de emulação EB um número predeterminado de vezes, o seletor 10272 emite o sinal de imagem a partir da unidade de função EB 10250 como um sinal de imagem final obtido após o processo de emulação EB.
Conforme acima, o processo de emulação EB pode ser executado recursivamente.
Notar na Figura 58, para facilidade de explicação, os feixes de elétrons ao exibir o pixel E(x, y) tem a influência somente na exibição dos pixéis A(x-1, y-1) a D(x-1, y) e F(x+1, y) a I(x+1, y+1) adjacentes a este pixel E(x, y). Entretanto, a faixa de pixéis que os feixes de elétrons, ao exibir o pixel E(x, y) influenciam na exibição, varia dependendo da distribuição de intensidade de feixes de elétrons.
A seguir, Figura 60 ilustra um exemplo de estrutura de uma seção da unidade de processamento γ de um CRT 10035 da Figura 38 que efetua um processo de compensação de temperatura de cor.
Na Figura 60, o sinal de controle a partir da unidade de controle de compensação de temperatura de cor de visor 10040 (Figura 38) é fornecido a uma unidade de controle 10281, e sinais de controle R (Vermelho), G (Verde) e B (Azul) servindo como o sinal de imagem da unidade de processamento VM 10034 (Figura 38) são fornecidos a uma unidade de desvio de nível 10282.
A unidade de controle 10281 controla a unidade de desvio de nível 10282 e a unidade de ajuste de ganho 10283 com base no valor de ajuste da temperatura de cor representado pelo sinal de controle a partir da unidade de controle de compensação de temperatura de cor de visor 10040.
A unidade de desvio de nível 10282 efetua um deslocamento (adição) do nível para os sinais de cor R, G e B a partir da unidade de processamento VM 10034 de acordo com o controle a partir da unidade de controle 10281 (no aparelho de exibição de CRT, polarização DC) e fornece sinais de cor R, G e B resultantes à unidade de ajuste de ganho 10283.
A unidade de ajuste de ganho 10283 efetua ajuste de ganho dos sinais de cor R, G e B a partir da unidade de desvio de nível 10282 de acordo com o controle da unidade de controle 10281, e emite sinais de cor R, GeB resultantes como sinais de cor R, G e B obtidos após o processo de compensação de temperatura de cor.
Notar que qualquer outro método, por exemplo, o método descrito na Publicação de Pedido de Patente Não Examinada Japonesa No. 08-163582 ou 2002-232905, pode ser adotado como um método de processo de compensação de temperatura de cor.
Figura 61 ilustra um outro exemplo de estrutura da unidade de processamento VM 10034 da Figura 38.
Notar que na figura, porções correspondentes à unidade de processamento VM 10034 da Figura 41 são designadas pelos mesmos numerais e explicações destas são posteriormente omitidas se desejado.
Isto é, a unidade de processamento VM 10034 da Figura 61 é construída de uma maneira similar à unidade de processamento VM 10034 da Figura 41, exceto que uma unidade de correção de luminância 10310 é provida em lugar da unidade de correção de luminância 10210 (Figura 41).
Figura 62 ilustra um exemplo de estrutura da unidade de correção de luminância 10310 da Figura 61.
Na Figura 62, a unidade de correção de luminância 10310 é construída a partir de uma unidade de ajuste de temporização de retardo 10311, um circuito de diferenciação 10312, uma unidade de processamento de limiar 10313, uma unidade de processamento de conformação de forma de onda 10314 e um circuito multiplicador 10315. A unidade de correção de luminância 10310 executa correção de luminância como emulação de um processo de VM (modulação de velocidade de um feixe de elétron) no aparelho de exibição de CRT, o que é descrito, por exemplo, na Publicação de Pedido de Patente Não Examinada Japonesa No. 61-167280 (Publicação de Pedido de Patente Examinada Japonesa No. 05-84706), Publicação Internacional No. WOOO/010324, ou similar.
Isto é, a unidade de correção de luminância 10310 é suprida com o sinal de imagem da unidade de processamento ABL 10033 (Figura 38). Este sinal de imagem é fornecido à unidade de ajuste de temporização de retardo 10311 e circuito de diferenciação 10312.
A unidade de ajuste de temporização de retardo 10311 retarda o sinal de imagem da unidade de processamento ABL 10033 de uma quantidade de tempo correspondente à quantidade de tempo requerida para o processo executado no circuito de diferenciação 10312, unidade de processamento de limiar 10313 e unidade de processamento de conformação de forma de onda 10314, antes de fornecer o sinal de imagem ao circuito multiplicador 10315.
Em contraste, o circuito de diferenciação 10312 executa diferenciação de primeira ordem do sinal de imagem a partir da unidade de processamento ABL 10033 para detectar desta forma uma porção de borda deste sinal de imagem. O circuito de diferenciação 10312 fornece o valor diferenciado (valor diferenciado da diferenciação de primeira ordem) desta porção de borda à unidade de processamento de limiar 10313.
A unidade de processamento de limiar 10313 compara o valor absoluto do valor diferenciado a partir do circuito de diferenciação 10312 com um valor de limiar predeterminado, e fornece somente um valor diferenciado cujo valor absoluto é maior que o valor de limiar predeterminado para a unidade de processamento de conformação de forma de onda 10314, limitando desta forma a implementação de correção de luminância para a porção de borda cujo valor absoluto do valor diferenciado não é maior que o valor de limiar predeterminado.
A unidade de processamento de conformação de forma de onda 10314 multiplica, com base no valor diferenciado a partir da unidade de processamento de limiar 10313, pelo valor de pixel da porção de borda, para calcular um coeficiente de VM possuindo um valor médio de 1,0 como um coeficiente de VM para executar correção de luminância. A unidade de processamento de conformação de forma de onda 10314 fornece o coeficiente de VM ao circuito multiplicador 10315.
O circuito multiplicador 10315 multiplica o valor de pixel da porção de borda do sinal de imagem fornecido a partir da unidade de ajuste de temporização de retardo 10311 pelo coeficiente de VM fornecido a partir da unidade de processamento de conformação de forma de onda 10314, para efetuar deste modo correção de luminância desta porção de borda, e fornece um sinal de imagem resultante à unidade de processamento EB 10220 (Figura 61).
Notar que o coeficiente de VM a ser calculado na unidade de processamento de conformação de forma de onda 10314 pode ser ajustado de acordo, por exemplo, com uma operação do usuário, de modo a permitir o grau de correção de luminância da porção de borda para satisfazer a preferência do usuário.
Adicionalmente, cada unidade de processamento de limiar 10313 e unidade de processamento de conformação de forma de onda 10314 configura uma condição de operação de acordo com o sinal de controle de VM fornecido a partir da unidade de controle VM 10039 (Figura 38).
Figura 63 ilustra um exemplo de um coeficiente de VM calculado na unidade de processamento de conformação de forma de onda 10314 e os sinais de imagem obtidos antes e depois da correção de luminância ser efetuada usando este coeficiente de VM.
Isto é, parte A da Figura 63 ilustra um primeiro exemplo de um coeficiente de VM.
Na parte A da Figura 63, um coeficiente de VM a ser multiplicado por um valor de pixel de borda (um valor de pixel grande entre valores de pixel grandes e pequenos constituindo uma borda) é ajustado para 1,1, e coeficientes de VM a serem multiplicados individualmente pelos valores de pixel esquerdo e direito adjacentes ao valor de pixel de borda, são de 0,95.
Parte B da Figura 63 ilustra um segundo exemplo de um coeficiente de VM.
Na parte B da Figura 63, um coeficiente de VM a ser multiplicado pelo valor de pixel de borda é 1,2 e um coeficiente de VM a ser multiplicado por cada valor de pixel que é adjacente à esquerda do valor de pixel de borda e o valor de pixel adjacente esquerdo adicional, e um coeficiente de VM a ser multiplicado por cada valor de pixel que é adjacente à direita ao valor de pixel de borda e o valor de pixel adjacente à direita adicional são de 0,95.
Parte C da Figura 63 ilustra um sinal de imagem obtido antes da correção de luminância ter sido efetuada.
Na parte C da Figura 63, uma borda é formada entre o terceiro valor de pixel e o quarto valor de pixel a partir da esquerda, e portanto, o quarto valor de pixel a partir da esquerda serve como um valor de pixel de borda.
Parte D da Figura 63 ilustra um sinal de imagem obtido efetuando correção de luminância usando os coeficientes de VM da parte A da Figura 63 para o sinal de imagem da parte C da Figura 63. No sinal de imagem da parte D da Figura 63, se comparado ao sinal de imagem original da parte C da Figura 63, o quarto valor de pixel servindo como um valor de pixel de borda é aumentado e o terceiro e quinto valores de pixel a partir da esquerda são diminuídos. Conseqüentemente, a borda é reforçada.
Parte E da Figura 63 ilustra um sinal de imagem obtido efetuando correção de luminância usando os coeficientes de VM da parte B da Figura 63 para o sinal de imagem da parte C da Figura 63.
No sinal de imagem da parte E da Figura 63, se comparado ao sinal de imagem original da parte C da Figura 63, o quarto valor de pixel que é um valor de pixel de borda é aumentado, e o segundo, terceiro, quinto e sexto valores de pixel a partir da esquerda são diminuídos. Conseqüentemente, a borda é reforçada mais do que no caso da parte D da Figura 63.
Notar que os coeficientes de VM da Figura 63 são meramente
exemplos. Adicionalmente, na Figura 63, uma porção de borda que muda de uma imagem escura para uma imagem brilhante, conforme exibido na direção da esquerda para a direita, é ilustrada. Entretanto, a correção de luminância é também efetuada de uma maneira similar com uma porção de borda que varia de uma imagem brilhante para uma imagem escura.
A seguir, Figura 64 ilustra um outro exemplo de estrutura da unidade de correção de luminância 10310 da Figura 61.
Na Figura 64, a unidade de correção de luminância 10310 é construída a partir da uma unidade de seleção de derivação 10321, uma unidade de classificação de classe 10322, uma unidade de armazenagem de coeficiente de derivação 10326 e uma unidade de predição 10327. A unidade de correção de luminância 10310 efetua correção de luminância usando DRC (processo adaptativo de classificação de classe) descrito, por exemplo, na Publicação de Pedido de Patente Não Examinada Japonesa No. 07-95591 (Patente Japonesa No. 3271101) ou similar.
Aqui, DRC será explicado.
DRC é um processo para converter (mapear) um primeiro sinal de imagem em um segundo sinal de imagem, e vários processos de sinal podem ser efetuados pela definição do primeiro e segundo dados de imagem.
Isto é, por exemplo, se o primeiro sinal de imagem é ajustado como um sinal de imagem de baixa resolução espacial e o segundo sinal de imagem é ajustado colmo um sinal de imagem de alta resolução espacial, pode ser dito que o DRC é um processo de criação de resolução espacial (melhoramento) para melhorar a resolução espacial.
Adicionalmente, por exemplo, se o primeiro sinal de imagem é configurado como um sinal de imagem de baixa S/N (Sinal/Ruído) e o segundo sinal de imagem é configurado como um sinal de imagem de alta S/N, pode ser dito que o DRC é um processo de remoção de ruído para remover ruído.
Ainda mais, por exemplo, se o primeiro sinal de imagem é ajustado como um sinal de imagem possuindo um número predeterminado de pixéis (tamanho) e o segundo sinal de imagem é configurado como um sinal de imagem possuindo um número maior ou menor de pixéis que o primeiro sinal de imagem, pode ser dito que DRC é um processo de redimensionamento para redimensionar (aumentar ou diminuir a escala de) uma imagem.
Ainda mais, por exemplo, se o primeiro sinal de imagem é configurado como o sinal de imagem de baixa resolução temporal e o segundo sinal de imagem é configurado como um sinal de imagem de alta resolução temporal, pode ser dito que o DRC é um processo de criação de resolução temporal (melhoramento) para melhorar a resolução temporal. Ainda mais, por exemplo, se o primeiro sinal de imagem é configurado como um sinal de imagem decodificado, obtido decodificando um sinal de imagem codificado em unidades de blocos, tal como MPEG (Grupo de Especialistas de Imagem Móvel) e o segundo sinal de imagem é configurado como um sinal de imagem que não tenha sido codificado, o DRC pode sr considerado um processo de remoção de distorção para remover várias distorções, tal como uma distorção de bloco causada pela codificação e decodificação MPEG.
Notar que, no processo de criação de resolução espacial, quando um primeiro sinal de imagem que é um sinal de imagem de baixa resolução espacial é convertido em um segundo sinal de imagem que é um sinal de imagem de alta resolução espacial, o segundo sinal de imagem pode ser configurado como um sinal de imagem possuindo o mesmo número de pixéis que o primeiro sinal de imagem, ou pode ser configurado como um sinal de imagem tendo um número maior de pixéis que o primeiro sinal de imagem. Em um caso em que o segundo sinal de imagem é configurado como um sinal de imagem possuindo um número maior de pixéis que o primeiro sinal de imagem, o processo de criação de resolução espacial é um processo para melhorar a resolução espacial e é também um processo de redimensionamento para aumentar o tamanho da imagem (o número de pixéis).
Conforme acima, de acordo com DRC, vários processos de sinal podem ser realizados, dependendo de como o primeiro e segundo sinais de imagem são definidos.
No DRC, computação preditiva é efetuada, usando um coeficiente de derivação de uma classe obtida pela classificação em classes de um pixel de interesse, ao qual a atenção é direcionada, dentro do segundo sinal de imagem em um classe dentre diversas classes, e usando (os valores de pixel de) diversos pixéis do primeiro sinal de imagem que é selecionado, em relação ao pixel de interesse. Conseqüentemente (o valor de predição do) valor de pixel do pixel de interesse é determinado.
Na Figura 64, o sinal de imagem fornecido a partir da unidade de processamento ABL 10033 (Figura 38) para a unidade de correção de luminância 10310 da unidade de processamento VM 10034, é fornecido a uma unidade de seleção de derivação 10321 como o primeiro sinal de imagem.
A unidade de seleção de derivação 10321 usa um sinal de imagem obtido executando correção de luminância do primeiro sinal de imagem a partir da unidade de processamento ABL 10033 como segundo sinal de imagem, e usa seqüencialmente os pixéis constituindo este segundo sinal de imagem como pixéis de interesse para selecionar, como derivações de predição, alguns dos (valores de pixel) pixéis constituindo o primeiro sinal de imagem, que são usados para prever (os valores de pixel) dos pixéis de interesse.
Especificamente, a unidade de seleção de derivação 10321 seleciona, como derivações de predição, diversos pixéis do primeiro sinal de imagem que estão localizados espacialmente ou temporalmente ao próximo à posição tempo-espaço de um pixel de interesse.
Ainda mais, a unidade de seleção de derivação 10321 seleciona, como derivações de classe, alguns dos pixéis constituindo o primeiro sinal de imagem, que são usados para classificação de classe para separar o pixel de interesse em uma dentre diversas classes. Isto é, a unidade de seleção de derivação 10321 seleciona derivações de classe de uma maneira similar à maneira pela qual a unidade de seleção de derivação 10321 seleciona derivações de predição.
Notar que as derivações de predição e as derivações de classe podem ter a mesma configuração de derivação (relação de posição com respeito ao pixel de interesse) ou podem ter configurações de derivação diferentes.
As derivações de predição obtidas pela unidade de seleção de derivação 10321 são fornecidas à unidade de predição 10327 e as derivações de classe obtidas pela unidade de seleção de derivação 10321 são fornecidas a uma unidade de classificação de classe 10322.
A unidade de classificação de classe 10322 é construída a partir da uma unidade de armazenagem de coeficiente de predição de classe 10323, uma unidade de predição 10324 e uma unidade de decisão de classe 10325. A unidade de classificação de classe 10322 executa classificação de classe do pixel de interesse, com base nas derivações de classe a partir da unidade de seleção de derivação 10321 e fornece o código de classe correspondente à classe, obtida como um resultado da classificação de classe, à unidade de armazenagem de coeficiente de derivação 10326.
Aqui, os detalhes da classificação de classe executada na unidade de classificação de classe 10322 serão descritos abaixo.
A unidade de armazenagem de coeficiente de derivação 10326 armazena coeficientes de derivação para classes individuais, que são determinados pelo aprendizado descrito abaixo, como um coeficiente de VM. Adicionalmente, a unidade de armazenagem de coeficiente de derivação 10326 emite um coeficiente de derivação (coeficiente de derivação da classe indicada pelo código de classe fornecida a partir da unidade de classificação de classe 10322) armazenado em um endereço correspondente ao código de classe fornecido a partir da unidade de classificação de classe 10322, dentre os coeficientes de derivação armazenados. Este coeficiente de derivação é fornecido à unidade de predição 10327.
Aqui, o termo coeficiente de derivação é equivalente a um coeficiente a ser multiplicado por dados de entrada em uma assim chamada derivação de um filtro digital.
A unidade de predição 10327 obtém as derivações de predição emitidas a partir da unidade de seleção de derivação 10321 e os coeficientes de derivação emitidos a partir da unidade de armazenagem de coeficiente de derivação 10326, e efetua computação preditiva predeterminada para determinar um valor de predição do valor verdadeiro do pixel de interesse, usando as derivações de predição e os coeficientes de derivação. Conseqüentemente, a unidade de predição 10327 determina e emite (o valor de predição do) valor de pixel do pixel de interesse, isto é, os valores de pixel dos pixéis constituindo o segundo sinal de imagem, isto é, os valores de pixel obtidos após a correção de luminância.
Notar que cada uma dentre a unidade de armazenagem de coeficiente de predição de classe 10323, unidade de predição 10324 que constituem a unidade de classificação de classe 10322 e a unidade de armazenagem de coeficiente de derivação 10326 efetuam a configuração de uma condição de operação ou seleção necessária de acordo com o sinal de controle de VM fornecido a partir da unidade de controle VM 10039 (Figura 38).
A seguir, o aprendizado dos coeficientes de derivação para classes individuais, que estão armazenados na unidade de armazenagem de coeficiente de derivação 10326 da Figura 64 como coeficientes de VM, será explicado.
Os coeficientes de derivação usados para computação preditiva predeterminada de DRC são determinados pelo aprendizado usando sinais de imagem múltiplos como sinais de imagem de aprendizado.
Isto é, por exemplo, agora é suposto que um sinal de imagem antes da correção de luminância é usado como o primeiro sinal de imagem e um sinal de imagem após a correção de luminância, que é obtido efetuando correção de luminância para o primeiro sinal de imagem, é usado como o segundo sinal de imagem para selecionar uma derivação de predição DRC a partir do primeiro sinal de imagem, e que o valor de pixel de um pixel de interesse do segundo sinal de imagem é determinado (previsto) usando esta derivação de predição e um coeficiente de derivação usando computação preditiva predeterminada. É suposto que, como a computação predição predeterminada, por exemplo, computação preditiva de primeira ordem linear é adotada. Então, um valor de pixel y do segundo sinal de imagem pode ser determinado pela seguinte equação de primeira ordem linear.
[Mat. 23]
N
Y= ZwnXn
n=1 (23)
Neste ponto de vista, na Equação (23), xn representa o valor de pixel do n-ésimo pixel (posteriormente referido como um pixel não corrigido, se desejado) do primeiro sinal de imagem constituindo as derivações de predição para o pixel de interesse y do segundo sinal de imagem, e yn representa o n-ésimo coeficiente de derivação a ser multiplicado pelo (valor de pixel do) n-ésimo pixel não corrigido. Notar que na Equação (23) as derivações de predição são constituídas por N pixéis não corrigidos X1, x2, .·., Xn-
Aqui, o valor de pixel y do pixel de interesse do segundo sinal de imagem pode também ser determinado por uma equação de segunda ou de ordem superior ao invés da equação de primeira ordem linear dada na Equação (23).
Agora, se o valor verdadeiro do valor de pixel do k-ésima amostra do segundo sinal de imagem é representado por yk e o valor de predição do valor verdadeiro yk deste, que é obtido pela Equação (23), é representado por yk', um erro de predição ek entre eles é expresso pela equação seguinte.
[Mat. 24]
ek=yk-yk' (24)
Agora, o valor de predição yk' na Equação (24) é determinado de acordo com a Equação (23). Então, substituindo yk' na Equação (24) de acordo com a Equação (23) produz a seguinte equação. [Mat. 25]
ek=Yk- ( Σ wnxn, k)
\n=1 J (25)
Nesse ponto de vista, na Equação (25), xn>k representa o n- ésimo pixel não corrigido constituindo as derivações de predição para o pixel da k-ésima amostra do segundo sinal de imagem.
O coeficiente de derivação wn que permite que o erro de predição ek na Equação (25) (ou Equação (24)) seja 0, torna-se ótimo para prever o pixel do segundo sinal de imagem. Em geral, entretanto, é difícil determinar o coeficiente de derivação wn para todos os pixéis do segundo sinal de imagem.
Então, por exemplo, se o método de quadrados mínimos adotado como o padrão, indicando que o coeficiente de derivação wn é ótimo, o coeficiente de derivação wn ótimo pode ser determinado minimizando o total de soma E dos erros quadráticos expressos pela equação a seguir.
[Mat. 26]
K
E= Σ ek2
k=1 (26)
Neste contexto, na Equação (26), K representa o número de amostras (o número total de amostra de aprendizado) dos conjuntos de pixéis yk do segundo sinal de imagem, e os pixéis não corrigidos x]k, x2k, XNk constituindo as derivações de predição para este pixel yk do segundo sinal de imagem.
O valor mínimo (valor mínimo local) do total de soma E de erros quadráticos na Equação (26) é dado por wn que permite que o valor obtido diferenciando parcialmente o total de soma E pelo coeficiente de derivação wn seja 0, conforme dados pela Equação (27).
[Mat. 27] dE a wn
=ei
9ei
+ 62
3β2
+ · · -+ek
160 9ek
0
(n=1, 2, · · ·, N)
3wn 3wn ' 9wn " (27)
Então, diferenciando parcialmente a Equação (25) descrita acima em relação ao coeficiente de derivação wn produz as seguintes equações.
[Mat. 28]
dek _ 9ek _ __ (k_i 2 ... k)
As equações abaixo são obtidas das Equações (27) e (28). [Mat. 29]
KK K
ZekXi,k=°. ZekX2,k=0, ■■■ ZekXN,k=0 k=1 k=1 k=1
(29)
Substituindo a Equação (25) em ek na Equação (29), a Equação (29) pode ser expressa por equações normais dadas na Equação (30). [Mat. 30]
KK K
(£xi.kxi.k) (Zx1-kX2,k) ··· (Zx1-kxN.k) k=1 k=1 k=1
KK K
(Σχ2, kXl, k) (lX2,kX2,k) ··· (ZX2,kXN,k) k=1 k=1 k=1
KK K
(X XfJ1 kXl, k) (ZxN,kX2,k) " (ZxN.kxN,k) k=1 k=1 k=1
Wi
W2
WN
, K
(£xi,kYk) k=1
(Σχ2, kYk) k=l
( X XN1 kYk) k=1
(30)
As equações normais na Equação (30) podem ser resolvidas para o coeficiente de derivação wn, usando por exemplo, um método de varredura (método de eliminação de Gauss-Jordan) ou similar.
Formulando e resolvendo as equações normais na Equação (30) para cada classe, o coeficiente de derivação ótimo (aqui, coeficiente de derivação que minimiza a soma total E dos erros quadráticos) wn pode ser determinado para cada classe.
Da maneira acima, o aprendizado para determinar o coeficiente de derivação wn pode ser efetuado, por exemplo, por um computador (Figura 67) descrito abaixo.
A seguir, um processo de aprendizado (processo de aprendizado) para determinar o coeficiente de derivação wn, que é efetuado pelo computador, será explicado com referência a um fluxograma da Figura 65.
Primeiramente, na etapa S10021, o computador gera dados de professor equivalentes ao segundo sinal de imagem e dados de estudante equivalentes ao primeiro sinal de imagem, a partir de um sinal de aprendizado preparado antecipadamente para aprendizado. O processo avança para a etapa S10022.
Isto é, o computador gera um valor de pixel mapeado de mapeamento como computação preditiva dada pela Equação (23), isto é, um valor de pixel corrigido obtido após correção de luminância, como os dados de professor equivalentes ao segundo sinal de imagem, o que serve como um professor (valor verdadeiro) do aprendizado de coeficientes de derivação, a partir do sinal de imagem de aprendizado.
Ainda mais, o computador gera um valor de pixel a ser convertido por mapeamento como a computação preditiva dada pela Equação (23), como os dados de estudante equivalentes ao primeiro sinal de imagem, o que serve como um estudante do aprendizado de coeficientes de derivação, a partir do sinal de imagem de aprendizado. Aqui, por exemplo, o computador configura diretamente o sinal de imagem de aprendizado como dados de estudante equivalentes ao primeiro sinal de imagem.
Na etapa S10022, o computador seleciona, como um pixel de interesse, dados de professor não selecionados como um pixel de interesse. O processo avança para a etapa S10023. Na etapa S10023, como a unidade de seleção de derivação 10321 da Figura 64, o computador seleciona, para o pixel de interesse, diversos pixéis, que são usados como derivações de predição, a partir dos dados de estudante e também seleciona diversos pixéis que são usados como derivações de classe. O processo avança para a etapa S10024.
Na etapa S10024, o computador executa classificação de classe do pixel de interesse de uma maneira similar à unidade de classificação de classe 10322 da Figura 64, para obter o código de classe correspondente à classe do pixel de interesse. O processo avança para a etapa S10025.
Na etapa S10025, o computador efetua, para a classe do pixel de interesse, adição adicional dada na Equação (30) no pixel de interesse, nos dados de estudante constituindo as derivações de predição selecionadas para o pixel de interesse. O processo avança para a etapa S10026.
Isto é, o computador executa computação equivalente à multiplicação (xn kxn' k) de itens de dados de estudante na matriz do lado esquerdo da Equação (30) e o somatório (Σ) para a classe de pixel de interesse, usando uma derivação de predição (dados de estudante) xn> k. Ainda mais, o computador efetua computação equivalente à
multiplicação (xn, kyk) dos dados de estudante xn> k e dados de professor yk no vetor do lado direito da Equação (30) e o somatório (Σ), para a classe do pixel de interesse, usando a derivação de predição (dados de estudante) xn, k e os dados de professor yk. Isto é, o computador armazena em uma memória incorporada
nele (por exemplo, a RAM 10104 da Figura 67) a componente (Σχη, kXn\ k) na matriz do lado esquerdo da Equação (30) e a componente (Σχη, kY k) no vetor do lado direito desta, determinada para os dados de professor, que consistem no pixel prévio de interesse, na classe do pixel de interesse, e adicionalmente adiciona (efetua adição expressa pelo somatório na Equação (30)) a componente correspondente xn, k+iXn', k+i, ou χη> k+iyk+i o que é calculado para dados de professor que consistem em um novo pixel de interesse usando os dados de professor yk+] destes e os dados de estudante xn, k+i, para a componente (Σχη, kxn\ k) na matriz ou a componente (Σχη, kY k) no vetor. Na etapa S10026, o computador determina se permanecem ou não dados de professor não selecionados como um pixel de interesse. Em um caso em que é determinado, na etapa S10026, que permanecem dados de professor não selecionados como um pixel de interesse, o processo retorna à etapa S10022 e subseqüentemente um processo similar é repetido.
Adicionalmente, em um caso em que é determinado, na etapa S10026 que não permanecem dados de professor não selecionados como um pixel de interesse, o processo avança para a etapa S10027, na qual o computador resolve as equações normais para cada classe, que são constituídas pela matriz do lado esquerdo e o vetor do lado direito da Equação (30) para cada classe obtida pelo processamento precedente das etapas S10022 a S10026, determinando deste modo e emitindo o coeficiente de derivação wn para cada classe. O processo termina.
Os coeficientes de derivação wn para as classes individuais determinadas conforme acima, são armazenados na unidade de armazenagem de coeficiente de derivação 10326 da Figura 64 como coeficientes de VM.
A seguir, a classificação de classe efetuada na unidade de classificação de classe 10322 da Figura 64 será explicada.
Na unidade de classificação de classe 10322, as derivações de classe para o pixel de interesse a partir da unidade de seleção de derivação 10321 são fornecidas à unidade de predição 10324 e unidade de decisão de classe 10325.
A unidade de predição 10324 prevê o valor de pixel de um pixel dentre diversos pixéis constituindo as classes de derivação a partir da unidade de seleção de derivação 10321 usando os valores de pixel dos outros pixéis e coeficientes de predição de classe armazenados na unidade de armazenagem de coeficiente de predição de classe 10323. A unidade de predição 10324 fornece o valor previsto à unidade de decisão de classe 10325.
Isto é, a unidade de armazenagem de coeficiente de predição de classe 10323 armazena um coeficiente de predição de classe usado para prever o valor de pixel de um pixel dentre diversos pixéis constituindo derivações de classe para cada classe.
Especificamente, se é suposto que as derivações de classe para o pixel de interesse são constituídas por valores de pixel de (M+l) pixéis e que a unidade de predição 10324 exibe, por exemplo, xM+i de (M+l) pixéis constituindo as derivações de classe, o (M+l)-ésimo valor de pixel xM+i como um objeto a ser previsto entre os valores de pixel Xi, x2, ···, Xm e prevê o (M+l)-ésimo valor de pixel xM+i que é um objeto a ser previsto, usando os outros M pixéis X1, x2, ··., xM. a unidade de armazenagem de coeficiente de predição de classe 10323 armazena, por exemplo, M coeficientes de predição de classe Cu, Cj,2, ..., CjiM a serem multiplicados por cada um dos M pixéis Xi,
x2, ...,Xm para a classe #j.
Neste caso, a unidade de predição 10324 determina o valor de predição x'j,M+i do valor de pixel xM+i que é um objeto a ser previsto, para a classe #j de acordo com a equação x'j,m+i = XicM + χ2%2 + — χμ%μ·
Por exemplo, agora, se o pixel de interesse é classificado em qualquer classe entre J classes #1 a #J por classificação de classe, a unidade de predição 10324 determina valores de predição x\m+i a x'j,m+i para cada uma das classes #1 a #J e os fornece à unidade de decisão de classe 10325.
A unidade de decisão de classe 10325 compara cada um dos valores de predição x'i,M+i a x'j,m+i a partir da unidade de predição 10324 com o (M+l)-ésimo valor de pixel (valor verdadeiro) xM+i, que é um objeto a ser previsto, das classes de derivação para o pixel de interesse a partir da unidade de seleção de derivação 10321 e decide a classe #J dos coeficientes de predição de classe Cj,,, cjj2, ·.·, Cj,M usados para determinar o valor de predição x'j.M+1 possuindo o erro de predição mínimo com respeito ao (M+l)-ésimo valor de pixel xM+i, que é um objeto a ser previsto, dentre os valores de predição x'i,M+i a x'j,M+i para a classe do pixel de interesse. A unidade de decisão de classe 10325 fornece o código de classe representando esta classe #j à unidade de armazenagem de coeficiente de derivação 10326 (Figura 64).
Aqui, o coeficiente de predição de classe Cj.m armazenado na unidade de armazenagem de coeficiente de predição de classe 10323 é determinado por aprendizado.
O aprendizado para determinar coeficiente de predição de classe cj>m pode ser efetuado, por exemplo, por um computador (Figura 67) descrito abaixo.
O processo de aprendizado (processo de aprendizado) para determinar o coeficiente de predição de classe cj m que é efetuado pelo computador, será explicado com referência a um fluxograma da Figura 66.
Na etapa S10031, por exemplo, similarmente à etapa S10021 da Figura 65, o computador gera dados de professor equivalentes ao segundo sinal de imagem e dados de estudante equivalentes ao primeiro sinal de imagem para aprendizado do sinal de imagem. Ainda mais, na etapa S10031, o computador seleciona seqüencialmente dados de professor como um pixel de interesse. Então, similarmente à etapa S10023 da Figura 65, o computador seleciona diversos pixéis a serem configurados como derivações de classe a partir dos dados de estudante para cada pixel de interesse. O processo avança para a etapa S10032.
Na etapa S10032, o computador inicializa uma variável j representando uma classe para 1. o processo avança para a etapa S10033.
Na etapa S10033, o computador seleciona todas as derivações de classe obtidas na etapa S10031 como derivações de classe para aprendizado (derivações de classe de aprendizado). O processo avança para a etapa S10034.
Na etapa S10034, similarmente ao aprendizado dos coeficientes de derivação da Figura 65, o computador gera, para as derivações de classe de aprendizado, equações normais (equações normais equivalentes à Equação (30)) que minimizam o erro de predição com respeito ao valor verdadeiro xM+1 do valor de predição x'j>M+i do valor de pixel xM+i que é um objeto a ser previsto para a classe #j, que é determinado de acordo com a equação x'j;M+i = ΧιΟμ + X2Cjj2 + ... +, Χμ^,μ· O processo avança para a etapa S10035.
Na etapa s 10035, o computador resolve as equações normais obtidas na etapa s 10034 para determinar o coeficiente de predição de classe Cj,m para a classe #j (m = 1, 2, ..., Μ). O processo avança para a etapa S10036.
Na etapa S10036, o computador determina se a variável j é igual ou não ao número total J de classes. Em um caso em que é determinado que estas não são iguais, o processo avança para a etapa S10037.
Na etapa S10037, o computador incrementa a variável j somente de 1. O processo avança para a etapa S10038, na qual o computador determina, para as derivações de classe de aprendizado, o erro de predição ao prever o pixel de interesse xM+1 do objeto a ser previsto, usando o coeficiente de predição de classe cj m obtido na etapa S10035. O processo avança para a etapa S10039.
Na etapa S10039, o computador seleciona uma derivação de classe de aprendizado para a qual o erro de predição determinado na etapa S1003 8 é maior ou igual a um valor de limiar predeterminado, como uma nova derivação de classe de aprendizado.
Então, o processo retorna da etapa S10039 para a etapa S10034, e subseqüentemente o coeficiente de predição de classe Cj m para a classe #j é determinado usando a nova derivação de classe de aprendizado de uma maneira similar à descrita acima.
Em contraste, em uma classe em que é determinado, na etapa S1003 6 que a variável j é igual ao número total J de classes, isto é, em um caso em que os coeficientes de predição de classe cl m a cJjM tenham sido determinados para todas as classes J # 1 a #J, o processo termina. Conforme acima, o dispositivo de processamento de sinal de imagem da Figura 38, à vista do aparelho de exibição de CRT prover exibição, permitindo que um material fluorescente seja iluminado por um feixe de elétron, um processo efetuado quando o feixe de elétron é defletido e um processo de sinal que leva em conta a influência da forma física do feixe de elétron e sua variação na exibição, são efetuados. Então, em um aparelho de exibição FPD usando um LCD ou similar, é possível exibir uma imagem com qualidade de imagem equivalente à exibida em um aparelho de exibição de CRT.
De acordo com o dispositivo de processamento de sinal de imagem da Figura 38, adicionalmente é possível emular características de exibição causadas por diferentes características do próprio CRT, e é possível comutar entre diferentes características de brilho ou texturas usando o mesmo LCD.
Por exemplo, é possível facilitar o ajuste preciso de cor ou ajuste de qualidade de imagem, e similar no instante de envio, pela comparação da diferença na característica de desenvolvimento de cor entre um CRT de uso profissional e um CRT de uso geral (para o público em geral) na mesma tela.
Adicionalmente, de acordo com o dispositivo de processamento de sinal de imagem da Figura 38, de modo similar, é possível confirmar facilmente a diferença nas características de exibição entre um LCD e um CRT.
De acordo com o dispositivo de processamento de sinal de imagem da Figura 38, adicionalmente, é possível exibir uma imagem com "qualidade de imagem favorita" em seu significado original.
Adicionalmente, de acordo com o dispositivo de processamento de sinal de imagem da Figura 38, é possível prover exibição simultânea de dispositivos de exibição possuindo diferentes características (por exemplo, CRTs de uso profissional e de uso geral, um LCD e um CRT, ou similar) mudando a faixa de processamento dentro da tela de exibição. Isto facilita a utilização para fins tais como comparação e ajuste.
A seguir, pelo menos uma porção da série de processos descritos acima pode ser executada por hardware dedicado ou pode ser executada por software. Em uma classe em que a série de processos é executada por software, um programa constituindo o software é instalado em um computador de finalidade geral ou similar.
Então, Figura 67 ilustra um exemplo de estrutura de uma realização de um computador, no qual um programa que executa a série de processos descrita acima é instalado.
O programa pode ser gravado antecipadamente em um disco rígido 10105 ou uma ROM 10103. Servindo como um meio de gravação incorporado no computador.
Alternativamente, o programa pode ser temporariamente ou permanentemente armazenado (gravado) em um meio de gravação removível 10111 tal como um disco flexível, uma CD-ROM (Memória de Somente Leitura de Disco Compacto), um disco MO (Magnético Óptico), um DVD (Disco Versátil Digital), um disco magnético ou uma memória de semicondutor. O meio de gravação removível 10111 deste tipo pode ser provido como assim chamado software empacotado.
Notar que o programa pode, além de instalado no computador a partir do meio de gravação removível 10111 conforme descrito acima, ser transferido para o computador a partir de um sítio de transferência de um modo sem fio, via satélite, para radiodifusão via satélite ou transferido para o computador com fio através de uma rede tal como uma LAN (Rede de Área Local) ou a Internet. No computador, o programa transferido desta maneira pode ser recebido por u ma unidade de comunicação 10108 e instalado em um disco rígido 10105 incorporado a ele. O computador incorpora uma CPU (Unidade de Processamento Central) 10102. A CPU 10102 é conectada a uma interface de entrada/saída 10110 através de um barramento 10101. Quando uma instrução é inserida a partir de um usuário, através de uma operação ou similar de uma unidade de entrada 10107 construída com um teclado, um mouse, um microfone e similar via interface de entrada/saída 10110, a CPU 10102 executa um programa armazenado na ROM (Memória de Somente Leitura) 10103 de acordo com a instrução. Alternativamente, a CPU 10102 carrega em uma RAM (Memória de Acesso Randômico) 10104 um programa armazenado no disco rígido 10105, um programa que é transferido a partir de um satélite ou de uma rede, recebido pela unidade de comunicação 10108, e instalado no disco rígido 10105, ou um programa que é lido a partir do meio de gravação removível 10111 montado em um controlador 10109 e instalado no disco rígido 10105, e executa o programa. Conseqüentemente, a CPU 10102 executa os processos de acordo com os fluxogramas descritos acima ou os processos executados pela estrutura dos diagramas em blocos descritos acima. Então, a CPU 10102 faz com que este resultado de processamento seja, de acordo com a necessidade, por exemplo, emitido a partir de uma unidade de saída 10106 construída com um LCD (Visor de Cristal Líquido), um alto-falante e similar via interface de entrada/saída 10110, enviado a partir da unidade de comunicação 10108 ou gravado ou similar sobre o disco rígido 10105.
[Realização que provê, usando um primeiro dispositivo de exibição que exibe uma imagem, tal como um LCD (Visor de Cristal Líquido), reprodução de um estado no qual uma imagem é exibida em um segundo dispositivo de exibição possuindo características diferentes daquelas do primeiro dispositivo de exibição, tal como um PDP (Painel de Exibição de Plasma)]
A seguir, será dada uma explicação de uma realização que provê, usando um primeiro dispositivo de exibição, reprodução de um estado no qual uma imagem é exibida em um segundo dispositivo de exibição apresentando características diferentes daquelas do primeiro dispositivo de exibição.
Como dispositivos de exibição que exibem sinais de imagem,
existem vários dispositivos de exibição, tais como, por exemplo, um CRT (Tubo de Raios Catódicos), um LCD, um PDP, um dispositivo EL orgânico (Eletroluminescência), e um projetor.
E por exemplo, com vistas a um PDP, um método para suprimir a geração de um contorno falso, calculando a intensidade da luz entrando na posição de cada retina no instante em que a linha de visada segue um pixel móvel em uma tela de exibição e, a partir dos dados de saída desta, gerar novos dados de sub campo que tenham sido propostos, por exemplo, na Publicação de Pedido de Patente Não Examinada Japonesa No. 2000-39864. Agora, características de exibição são diferentes de dispositivo
de exibição para dispositivo de exibição. Então, diferenças nas características (características de exibição) de dispositivos de exibição se tornam um problema significativo no monitoramento executado para verificar se um sinal de imagem está em um estado de exibição apropriado (estado de exibição). Isto é, mesmo quando um certo sinal de imagem é exibido em um LCD e monitorado, tem sido difícil verificar como este sinal de imagem apareceria quando este sinal de imagem fosse exibido em um PDP.
Portanto, quando o monitoramento deve ser efetuado levando em consideração as características dos diversos dispositivos de exibição, é necessário preparar tantos dispositivos de exibição quanto desejado, resultando em um aumento nas dimensões de um sistema de monitoramento.
Também, um PDP é um dispositivo de exibição que constitui um campo de um sinal de imagem de entrada por diversos sub-campos e que realiza exibição de multigradação de nível, controlando cada sub-campo para emitir ou não emitir luz.
Portanto, há uma característica que, no instante de exibição de uma imagem móvel, quando a linha de visada de uma pessoa segue um objeto móvel ou similar dentro da imagem, a imagem exibida e a imagem vista pelos olhos da pessoa podem ser diferentes, dependendo de uma configuração de emissão de luz dos sub-campos. Entretanto, no sentido de verificar como uma imagem móvel seria realmente vista em um PDP, é necessário exibir a imagem móvel no PDP e uma pessoa ver e verificar a imagem móvel exibida. Esta operação de verificação é incômoda, e adicionalmente uma avaliação objetiva é difícil de fazer.
Então, a seguir, será dada uma explicação, por exemplo, de uma realização que torna possível reproduzir, usando um primeiro dispositivo de exibição tal como um LCD, um estado no qual uma imagem é exibida em um segundo dispositivo de exibição apresentando características diferentes daquelas do primeiro dispositivo de exibição, tal como um PDP.
Figura 68 ilustra um exemplo de estrutura de uma primeira realização de um dispositivo de processamento de imagem que pode prover, usando um primeiro dispositivo de exibição, reprodução de um estado no qual uma imagem é exibida em um segundo dispositivo de exibição, possuindo características diferentes daquelas do primeiro dispositivo de exibição.
Um sinal de imagem de entrada Vin é fornecido a uma unidade de detecção de movimento 20100 e a uma unidade de desenvolvimento de sub-campo 20200.
Figura 69 ilustra uma estrutura da unidade de detecção de movimento 20100 da Figura 68. A unidade de detecção de movimento 20100 detecta, a partir do sinal de imagem de entrada Vin, um vetor de movimento de cada pixel, como a linha de visada de uma pessoa em uma base pixel por pixel, no instante em que a pessoa vê o sinal de imagem de entrada Vin.
O sinal de imagem de entrada Vin é fornecido a u m circuito de cálculo de correlação 20101 e um circuito de retardo 20102. O circuito de cálculo de correlação 20101 efetua um cálculo de correlação entre o sinal de imagem de entrada Vin do campo corrente e um sinal de imagem de entrada de um campo anterior, que está retardado de um campo usando o circuito de retardo 20102.
Figura 70 ilustra uma operação de cálculo de correlação.
O circuito de cálculo de correlação 20101 configura, para um pixel de interesse, no campo corrente, um bloco BL possuindo o pixel de interesse como centro. O BL é, por exemplo, um bloco de 5 χ 5 pixéis. Então, o circuito de cálculo de correlação 20101 configura, em um campo prévio retardado usando o circuito de retardo 20102, uma faixa de busca possuindo a mesma posição do bloco BL no campo corrente como centro. A faixa de busca é, por exemplo, uma região possuindo -8 a +7 pixéis nas direções horizontal e vertical, com referência à mesma posição do bloco BL no campo corrente. Então, o circuito de cálculo de correlação 20101 executa, como um cálculo de correlação, um cálculo para determinar a soma total, por exemplo, de valores absolutos de diferenças entre valores de pixel do bloco BL e cada um dos blocos candidatos tendo o mesmo tamanho do bloco BL na faixa de busca, para obter um valor de avaliação para avaliar a correlação entre o bloco BL e cada bloco candidato e supre o resultado do cálculo obtido para cada bloco candidato ao circuito de decisão de linha de visada 20103.
Referindo-se de volta à Figura 69, o circuito de decisão de linha de visada 20103 detecta a posição de um bloco candidato para o qual o resultado de cálculo apresentando o valor mínimo é obtido, entre os resultados de cálculos fornecidos a partir do circuito de cálculo de correlação 20101, como um vetor de movimento do pixel de interesse. Aqui, a posição do bloco candidato é, conforme ilustrado na Figura 71, uma posição relativa a partir do bloco BL. O circuito de decisão de linha de visada 20103 decide a direção do vetor de movimento do pixel de interesse como a direção de linha de visada no instante em que uma pessoa vê o pixel de interesse, isto é, a direção na qual a linha de visada de uma pessoa que vê o campo corrente segue um alvo (direção de linha de visada) mv.
0 circuito de cálculo de correlação 20101 configura o bloco BL para cada pixel de interesse. Alternativamente, o circuito de cálculo de correlação 20101 pode dividir inicialmente o campo corrente em blocos possuindo 5x5 pixéis, obter a direção de linha de visada (vetor de movimento) para cada bloco, e aplicar a mesma direção de linha de visada a todos os pixéis em um bloco. Em um cálculo de correlação com cada bloco candidato dentro da faixa de busca, um valor de avaliação pode ser determinado, adicionando um certo peso ao valor absoluto da diferença em um pixel próximo ao pixel de interesse. Neste caso, uma correlação de um pixel próximo ao pixel de interesse é ponderada pesadamente.
Figura 72 ilustra um exemplo de estrutura de uma unidade de desenvolvimento de sub-campo 20200 da Figura 68.
A unidade de desenvolvimento de sub-campo 20200 gera uma configuração de emissão de luz dos sub-campos individuais no instante de exibição do sinal de imagem de entrada Vin em um PDP.
Antes que uma operação da unidade de desenvolvimento de sub-campo 20200 seja explicada, o método de exibição de nível de multigradação de um PDP será explicado. Um PDP divide um campo em diversos sub-campos e varia o peso da luminância da luz emitida em cada sub-campo, efetuando deste modo exibição de nível de multigradação.
Figura 73 ilustra um exemplo de estrutura de sub-campos em um PDP. Na Figura 73, um campo é dividido em oito sub-campos SF1, SF2, SF3, SF4, SF5, SF6, SF7 e SF8, e os sub-campos individuais SFl s SF8 possuem pesos de luminância diferentes (intensidades de luz). Cada um dos sub-campos SFl a SF8 inclui um período de endereçamento no qual os pixéis individuais são configurados para emitir ou não emitir luz, e um período de emissão de luz no qual os é causada emissão de luz dos pixéis configurados no período de endereçamento.
Quando os pesos da luminância de cada um dos sub-campos individuais SFl a SF8 são, por exemplo, 1, 2, 4, 8, 16, 32, 64 e 128, 256 níveis de gradação de 0 a 255 podem ser realizados, combinando os sub- campos SFl a SF8.
Uma vez que um PDP real é configurado sobre um plano bidimensional, uma imagem exibida no PDP é representada, conforme ilustrado na Figura 74, por um diagrama modelo tridimensional composto de posições de pixel X e Y no PDP e sub-campos em uma direção de tempo T.
Referindo-se de volta à Figura 72, o sinal de imagem de entrada Vin é fornecido a um circuito de designação de sub-campo 20201. O circuito de designação de sub-campo 20201 expressa um valor de pixel em um campo do sinal de imagem de entrada Vin usando Equação (31) abaixo, onde Ni é informação de emissão de luz indicando nenhuma emissão de luz ou emissão de luz em um sub-campo SF#i e é 0 ou 1.
[Mat. 31]
1 x N1 +2 x N2+4 χ N3+8 x N4+16 x N5+32 χ N6+64 Χ N7-H28 χ N8 ^3 ^
Notar que, aqui, na estrutura de sub-campo do PDP a ser exibido, como no caso ilustrado na Figura 73, um campo é constituído por oito sub-campos SFl a SF8, e os pesos de luminância dos sub-campos individuais SFl a SF8 são 1, 2, 4, 8, 16, 32, 64 e 128. Também, a descrição seguinte é suposta ser baseada nesta estrutura.
Então, o circuito de designação de sub-campo 20201 fornece o valor da informação de emissão de luz Ni visando cada pixel, a um circuito de decisão de emissão de luz 20202. O circuito de decisão de emissão de luz 20202 gera, com base na determinação da emissão de luz quando Ni é 1 e nenhuma emissão quando Ni é 0, informação de controle de emissão de luz SF indicando uma configuração de emissão de luz dos sub-campos. Por exemplo, quando um certo valor de pixel no sinal de imagem de entrada Vin é "7", informação de controle de emissão de luz SF para designar emissão de luz aos sub-campos SF1, SF2 e SF3 e nenhuma emissão de luz aos outros sub-campos, é gerada. Também, por exemplo, quando um certo valor de pixel no sinal de imagem de entrada Vin é "22", informação de controle de emissão de luz SF para designar emissão de luz aos sub-campos SF2, SF3 e SF5 e nenhuma emissão de luz aos outros sub- campos, é gerada.
Figura 75 ilustra uma estrutura de uma unidade de integração luz-intensidade 20300 na Figura 68. A unidade de integração luz-intensidade 20300 gera e emite uma imagem apresentando, como um valor de pixel, a intensidade de luz integrada nas retinas de uma pessoa, no instante em que o sinal de imagem de entrada Vin é exibido no PDP como uma assim chamada imagem simulada vista pelos olhos da pessoa, quando o sinal de imagem de entrada é exibido no PDP.
Antes que uma operação da unidade de integração luz- intensidade 20300 seja explicada, como uma imagem apareceria dependendo da direção da linha de visada e configuração de emissão de luz, que são únicas para o PDP, será explicado.
Figura 76 ilustra um contorno entre valores de pixel 127 e 128 nos sub-campos nos quais a posição de pixel X (Y) é plotada em abscissa e o tempo T é plotado em ordenada. Sub-campos sombreados representam sub- campos nos quais a luz é emitida.
Quando uma imagem não está se movendo, a direção da linha de visada de uma pessoa torna-se a direção A-A' paralela à direção do tempo T em ordenada, e a emissão de luz nos sub-campos é corretamente integrada nas retinas da pessoa. Então, os valores de pixel 127 e 128 são corretamente reconhecidos.
Entretanto, se uma imagem se move de um pixel para a esquerda por campo, os olhos de uma pessoa (a linha de visada) seguem o movimento. Então, a direção da linha de visada torna-se a direção B-B', que não é paralela à direção do tempo T em ordenada. Isto faz com que a emissão de luz nos sub-campos não seja integrada nas retinas da pessoa e uma linha negra seja reconhecida entre os valores de pixel 127 e 128. Também, se uma imagem inversamente se move de um pixel para a direita por campo, os olhos da pessoa seguem o movimento. Então, a direção de linha de visada torna-se a direção C-C', que não é paralela à direção do tempo T em ordenada. Isto faz com que a emissão de luz nos sub-campos seja excessivamente integrada nas retinas da pessoa e uma linha branca seja reconhecida entre os valores de pixel 127 e 128.
Conforme acima, uma vez que o PDP é de um tipo de acionamento que usa sub-campos, o fenômeno no qual uma imagem exibida e uma imagem vista pelos olhos de uma pessoa são diferentes, pode ocorrer, dependendo da direção da linha de visada e da configuração de emissão de luz dos sub-campos, o que é geralmente conhecido como um pseudo contorno de imagem móvel.
Referindo-se de volta à Figura 75, a direção de linha de visada mv de cada pixel, que é detectada pela unidade de detecção de movimento 20100, e a informação de controle de emissão de luz SF gerada pela unidade de desenvolvimento de sub-campo 20200 são fornecidas a um circuito de decisão de região de integração luz-intensidade 20301.
O circuito de decisão de região de integração luz-intensidade 20301 decide, para cada pixel, uma região de integração de intensidade de luz para reproduzir, de uma maneira simulada, a intensidade de luz integrada nas retinas de uma pessoa no instante de exibição do sinal de imagem de entrada Vin sobre o PDP, a partir da direção de linha de visada mv detectada pela unidade de detecção de movimento 20100 e a informação de controle de emissão de luz SF indicando a configuração de emissão de luz dos sub- campos, que é gerada pela unidade de desenvolvimento de sub-campo 20200. Isto é, conforme ilustrado na Figura 77, para um pixel de interesse, uma região de integração de intensidade de luz possuindo uma área de seção transversal equivalente a um pixel na direção de linha de visada detectada, é configurada.
Ainda mais, o circuito de decisão de região de integração Iuz- intensidade 20301 integra a intensidade de luzem cada sub-campo SF#1 de acordo com a relação da região de emissão de luz para a região de não emissão de luz em cada sub-campo, dentro da região de integração Iuz- intensidade. Por exemplo, no caso da Figura 77, quando a relação da região de emissão de luz para a região de não emissão de luz no sub-campo SF8 é 7:1, a intensidade de luz integrada no sub-campo SF8 é dada por 128 χ 1/(7+1) = 16. O circuito de decisão de região de integração luz-intensidade 20301 calcula as intensidades de luz a serem integradas em todos os sub-campos SF1 a SF8 de uma maneira similar e fornece as intensidades de luz a um circuito de integração luz-intensidade 20302.
O circuito de integração luz-intensidade 20302 obtém a soma total das intensidades de luz nos sub-campos SFl a SF8, que são a partir do circuito de decisão de região de integração luz-intensidade 20301 e considera a soma total como um valor de pixel do pixel de interesse. Então, o circuito de integração luz-intensidade 20302 executa um processo similar para todos os pixéis, para gerar desta forma uma imagem de saída Vout.
Também, o processo do circuito de decisão de região de integração luz-intensidade 20301 e do circuito de integração luz-intensidade 20302 pode ser simplesmente executado como segue.
Isto é, na Figura 77, na relação da região de emissão de luz para a região de não emissão de luz em cada sub-campo, é adotada a maior quantidade. Neste caso, o sub-campo SF8 é trazido para não emissão de luz, e a intensidade de luz é 0. O sub-campo SF7 é trazido para emissão de luz, e a intensidade de luz é 64. A soma total dos resultados em todos os sub-campos, que são obtidos similarmente, é configurada como um valor de pixel do pixel de interesse.
Desde que um PDP real é configurado em um plano bidimensional, uma imagem exibida no PDP é representada, conforme ilustrado na Figura 78, por um diagrama de modelo tridimensional composto de posições de pixel X e Y no PDP e sub-campos em uma direção de tempo T.
Conforme acima, o dispositivo de processamento de imagem ilustrado na Figura 68 gera, a partir do sinal de imagem de entrada Vin, uma imagem apresentando, como um valor de pixel, a intensidade de luz a ser integrada nas retinas de uma pessoa que vê uma imagem exibida no PDP, com base na direção de linha de visada para cada pixel e configuração de emissão de luz dos sub-campos no instante de exibição sobre o PDP, com uma imagem vista pelos olhos da pessoa que vê a imagem exibida no PDP. Portanto, uma imagem que é representada pelo sinal de imagem de entrada Vin exibido no PDP, e vista por uma pessoa, pode ser reproduzida de uma maneira similar.
Figura 79 ilustra um exemplo de estrutura de uma segunda realização de um dispositivo de processamento de imagem, que pode prover, usando um primeiro dispositivo de exibição, reprodução de um estado no qual uma imagem é exibida em um segundo dispositivo de exibição possuindo características diferentes daquelas do primeiro dispositivo de exibição.
Em geral, no sentido de suprimir a ocorrência de um pseudo controle de imagem móvel em um PDP, níveis de gradação utilizáveis são limitados. Ainda mais, no sentido de realizar níveis de gradação aparentes, um processo de difusão de erro de alocar uma diferença em valor de pixel entre uma imagem de entrada e uma imagem a ser exibida a pixéis temporalmente e espacialmente vizinhos, um processo de pontilhamento para representar níveis de gradação aparentes usando configuração tempo-espaço de diversos valores de pixel, e similar, são efetuados. O dispositivo de processamento de imagem ilustrado na Figura 79 reproduz, de uma maneira simulada, uma imagem vista pelos olhos de uma pessoa, em um caso em que o processo de difusão de erro ou processo de pontilhamento descrito acima é executado em um PDP que exibe um sinal de imagem de entrada Vin.
Na Figura 79, o sinal de imagem de entrada Vin é fornecido a uma unidade de detecção de movimento 20100 e uma unidade de conversão gradação-nível 20400. Uma vez que a estrutura da unidade de detecção de movimento 20100 é similar à da Figura 68, uma explicação desta é omitida.
Figura 80 ilustra um exemplo de estrutura da unidade de conversão gradação-nível 20400 da Figura 79.
O sinal de imagem de entrada Vin é adicionado em uma unidade de computação 405 com um erro de gradação-nível de exibição Vpd descrito abaixo, para produzir um valor de pixel (nível de gradação) Vp, que é fornecido a um circuito de conversão gradação-nível 20402.
O circuito de conversão gradação-nível 20402 converte o nível de gradação de pixel de entrada (valor de pixel) Vp para um outro nível de gradação Vpo de acordo com uma tabela de conversão gradação-nível 20403. Isto é, em um caso em que 0, 1, 3, 7, 15, 31, 63, 127, e 255 devem ser usados como níveis de gradação, nos quais um pseudo contorno de imagem móvel é menos provável de ocorrer, os níveis de gradação precedentes a serem usados e níveis de gradação aparentes (níveis de gradação de pontilhamento) que são representados usando uma distribuição tempo-espaço dos níveis de gradação precedentes a serem usados, são configurados na tabela de conversão gradação-nível 20403.
O circuito de conversão gradação-nível 20402 é configurado para usar somente os níveis de gradação configurados na tabela de conversão gradação-nível 20403. O circuito de conversão gradação-nível 20402 substitui o nível de gradação de entrada Vp dentre os níveis de gradação na tabela de conversão gradação-nível 20403, pelo nível de gradação Vpo possuindo a menor diferença para o nível de gradação Vp, e emite o nível de gradação Vpo. O nível de gradação Vpo, que é uma saída do circuito de conversão gradação-nível 20402, é fornecido a um circuito de conversão de pontilhamento 20404. Adicionalmente, uma unidade de computação 406 determina a diferença entre o nível de gradação Vpo e o nível de gradação Vp, que é uma entrada do circuito de conversão gradação-nível 20402, para produzir o erro de gradação-nível de exibição Vpd. Um circuito de retardo 20401 retarda o erro de gradação-nível de exibição Vpd de um pixel na direção horizontal, e a unidade de computação 405 adiciona o erro de gradação-nível de exibição Vpd ao valor de pixel do próximo sinal de imagem de entrada Vin. Representação da diferença de gradação-nível, que é convertida desta maneira, usando níveis de gradação de pixéis vizinhos, é chamada um processo de difusão de erro.
O circuito de conversão de pontilhamento 20404 efetua um processo de pontilhamento (conversão por pontilhamento) no qual os níveis de gradação aparentes são representados usando uma distribuição tempo- espaço de níveis de gradação a serem usados. Figura 81 ilustra um exemplo de operação do circuito de conversão de pontilhamento 20404.
Por exemplo, se é suposto que há uma região cujo nível de gradação a ser exibido é 4, o circuito de conversão de pontilhamento 20404 faz com que o nível de gradação seja distribuído de uma maneira ilustrada, por exemplo, na Figura 81, usando 3 e 7, que são níveis de gradação a serem usados. Isto permitiria que os olhos de uma pessoa vissem os valores dos níveis de gradação como 4, como resultado da média dos valores dos níveis de gradação.
Referindo-se de volta à Figura 79, conforme acima, a unidade de conversão gradação-nível 20400 converte o sinal de imagem de entrada Vin em um sinal de imagem Vd, que é realmente usado para exibição, e fornece o sinal de imagem Vd à unidade de desenvolvimento de sub-campo 20200. Uma vez que as estruturas da unidade de desenvolvimento de sub- campo 20200 e da unidade de integração luz-intensidade 20300 são similares às da Figura 68, explicações destas serão omitidas.
Isto é, no dispositivo de processamento de imagem da Figura 79, a unidade de conversão gradação-nível 20400 emite uma imagem vista pelos olhos de uma pessoa, com base nos níveis de gradação realmente exibidos. Neste caso, a unidade de detecção de movimento 20100 detecta (decide) a linha de visada do sinal de imagem de entrada Vin. Em um caso em que o nível de gradação aparente obtido pela conversão efetuada pela unidade de conversão gradação-nível 20400 não é significativamente, diferente do sinal de imagem de entrada Vin, a direção de linha de visada não é significativamente diferente. Então, tal estrutura não causará um problema. Também, a unidade de conversão gradação-nível 20400 pode ser de qualquer tipo que possa converter o sinal de imagem de entrada Vin no sinal de imagem Vd que é usado para exibição. Por exemplo, uma técnica descrita na Publicação de Pedido de Patente Não Examinada Japonesa No. 2004-138783 ou similar pode ser usada.
Figura 82 ilustra um exemplo de estrutura de uma terceira realização de um dispositivo de processamento de imagem que pode prover, usando um primeiro dispositivo de exibição, reprodução de um estado no qual uma imagem é exibida em um segundo dispositivo de exibição, apresentando características diferentes daquelas do primeiro dispositivo de exibição.
Neste dispositivo de processamento de imagem, o pixel (do sinal de imagem) Vd, que é uma saída de uma unidade de conversão gradação-nível 20400 é fornecido a uma unidade de detecção de movimento 20100. Neste caso, a unidade de detecção de movimento 20100 é configurada para detectar a linha de visada (direção de linha de visada) com base no sinal de imagem a ser realmente exibido. Portanto, a linha de visada em um caso em que níveis de gradação limitados, erros difusos, e pontilhamento como são visualmente detectados, é detectada. Adicionalmente, a unidade de conversão gradação-nível 20400 pode emitir uma imagem vista pelos olhos de uma pessoa, como uma imagem simulada. Com base nos níveis de gradação realmente exibidos.
Notar que, na Figura 82, uma vez que as estruturas da unidade de detecção de movimento 20100, uma unidade de desenvolvimento de sub- campo 20200, uma unidade de integração luz-intensidade 20300 e da unidade de conversão gradação-nível 20400 são similares às da Figura 79, explicações destas serão omitidas.
Figura 83 ilustra um exemplo de estrutura da uma quarta realização de um dispositivo de processamento de imagem que pode prover, usando um primeiro dispositivo de exibição, reprodução de um estado no qual uma imagem é exibida em um segundo dispositivo de exibição, possuindo características diferentes daquelas do primeiro dispositivo de exibição.
Um sinal de imagem de entrada Vin é fornecido a uma unidade de conversão gradação-nível 20400 e é convertido em um sinal de imagem Vd que é usado para exibição. O sinal de imagem Vd usado para exibição é fornecido a uma unidade de correção de visão 20500.
Figura 84 ilustra um exemplo de estrutura da unidade de correção de visão 20500. A unidade de correção de visão 20500 corrige o sinal de imagem Vd usado para exibição em uma imagem aparente (sinal de imagem) visto por uma pessoa de uma maneira simulada. O sinal de imagem Vd usado para exibição é fornecido a um circuito de conversão de pontilhamento 20501. O circuito de conversão de pontilhamento 20501 corrige níveis de gradação exibidos, como sendo pontilhados em níveis de gradação aparentes de uma maneira simulada. Isto é, em um caso em que níveis de gradação de pontilhamento tenham sido usados da maneira ilustrada na Figura 81, a média dos valores dos níveis de gradação é percebida pelos olhos de uma pessoa e os níveis de gradação são corrigidos de uma maneira ilustrada na Figura 85. Então, uma imagem corrigida por pontilhamento Vmb é fornecida a um circuito de correção de erro difundido 20502.
O circuito de correção de erro difundido 20502 corrige um erro difundido através de pixéis vizinhos de um pixel de interesse, em um nível de gradação aparente de uma maneira simulada. Isto é, o circuito de correção de erro difundido 20502 observa a diferença (erro) com o sinal de imagem de entrada Vin como tendo sido difundido no sinal de imagem corrigida por pontilhamento Vmb, e corrige o erro difundido. Por exemplo, conforme ilustrado na Figura 86, um erro de pixel cujo sinal de imagem Vmb é 90, é uma diferença para o sinal de imagem de entrada Vin no pixel adjacente direito cujo sinal de imagem Vmb é 110, e o valor dados por 110- 105 = 5 é adicionado a um erro difundido para o sinal de imagem Vmb. Então, um sinal de imagem de visão corrigida Vm é emitido. Similarmente, o mesmo processo é executado para todos os pixéis.
Conforme acima, a unidade de correção de visão 20500 corrige níveis de gradação obtidos pela conversão efetuada pela unidade de conversão gradação-nível 20400 nos níveis de gradação vistos pelos olhos de uma pessoa de uma maneira simulada, e fornece o sinal de imagem corrigido à unidade de detecção de movimento 20100. Portanto, a linha de visada é detectada com base em uma imagem simulada obtida nos níveis de gradação limitados em tempo, erros difundidos ou pontilhamento, são vistos pelos olhos de uma pessoa. Adicionalmente, a unidade de conversão gradação-nível 20400 pode obter, de uma maneira simulada, uma imagem vista pelos olhos de uma pessoa com base nos níveis de gradação realmente exibidos. Notar que, uma vez que as estruturas da unidade de detecção de movimento 20100, unidade de desenvolvimento de sub-campo 20200, unidade de integração Iuz- intensidade 20300 e unidade de conversão gradação-nível 20400 da Figura 83 são similares às da Figura 79, explicações destas serão omitidas.
Conforme acima, os dispositivos de processamento de imagem das Figuras 68, 79, 82 e 83 podem obter uma imagem vista pelos olhos de uma pessoa de uma maneira simulada, a partir da configuração de emissão de luz de sub-campo e da direção de linha de visada, no instante em que uma imagem é exibida em um PDP. Portanto, uma imagem vista pelos olhos de uma pessoa no instante em que um sinal de imagem arbitrário é exibido em um PDP, pode ser exibida de uma maneira simulada sobre um dispositivo de exibição diferente do PDP. Isto é, um primeiro dispositivo de exibição tal como, por exemplo, um LCD, um CRT, um EL orgânico, ou um projetor podem ser usados para reproduzir um estado no qual uma imagem é exibida sobre um segundo dispositivo de exibição possuindo características diferentes daquelas do primeiro dispositivo de exibição, tal como um PDP. A emulação da exibição no segundo dispositivo de exibição pode ser efetuada usando o primeiro dispositivo de exibição apresentando características diferentes daquelas do segundo dispositivo de exibição.
Notar que, embora a Figura 73 seja usada como um exemplo da estrutura de sub-campos no PDP, o número de sub-campos e o peso da luminância de cada sub-campo pode ser arbitrário.
Figura 87 ilustra um fluxograma explicando o processo do dispositivo de processamento de imagem da Figura 68.
Na etapa ST20100, o sinal de imagem de entrada Vin é inserido no dispositivo de processamento de imagem. A seguir, na etapa ST20200, a unidade de detecção de movimento 20100 exibe seqüencialmente um campo (ou quadro) do sinal de imagem de entrada Vin como um campo de interesse, detecta um vetor de movimento para cada pixel no campo de interesse e decide a direção do vetor de movimento para ser a direção de linha de visada.
Figura 88 é um fluxograma explicando o processo de detecção de movimento (vetor) na etapa ST20200.
Na entretanto, ST20201, o sinal de imagem de entrada Vin do campo de interesse é inserido na unidade de detecção de movimento 20100. A seguir, na etapa ST20202, a unidade de detecção de movimento 20100 seleciona seqüencialmente pixéis constituindo o campo de interesse, como pixéis de interesse, e exibe um bloco que rodeia cada pixel de interesse e possui um tamanho predeterminado, como um bloco de interesse. Então, a unidade de detecção de movimento 20100 executa um cálculo de correlação entre o bloco de interesse no campo de interesse e cada um dos blocos candidatos dentro de um faixa de busca predeterminada no campo prévio. A seguir, na etapa ST20203, a unidade de detecção de movimento 20100 determina se os cálculos com todos os blocos candidatos foram completados. Em um caso em que os cálculos tenham sido completados, o processo avança para a etapa ST20204. Em um caso em que os cálculos não tenham sido completados, o processo retorna à etapa ST20202, e o processo é continuado. Na etapa ST20204, a unidade de detecção de movimento 20100 detecta a posição, dentre os bloco candidatos, do bloco candidato possuindo a correlação mais alta (bloco candidato possuindo a menor soma total dos valores absolutos de diferenças) como um vetor de movimento, e decide o vetor de movimento para ser uma direção de linha de visada mv no pixel de interesse. Então, na etapa ST20205, a unidade de detecção de movimento 20100 emite a direção de linha de visada mv.
Referindo-se se volta à Figura 87, na próxima etapa ST20300, a unidade de desenvolvimento de sub-campo 20200 gera informação de controle de emissão de luz SF, indicando a configuração de emissão de luz de sub-campo no instante em que o campo de interesse do sinal de imagem de entrada Vin é exibido em um PDP.
Figura 89 é um fluxograma para gerar informação de controle de emissão de luz SF indicando a configuração de emissão de luz de sub- campo na etapa ST20300.
Na etapa ST20301, o campo de interesse do sinal de imagem de entrada Vin é inserido na unidade de desenvolvimento de sub-campo 20200. A seguir, na etapa ST20302, a unidade de desenvolvimento de sub- campo 20200 representa o campo de interesse do sinal de imagem de entrada Vin usando a soma total de pesos de luminância dos sub-campos individuais na Equação (31) e determina informação de emissão de luz Ni. A seguir, na etapa ST20303, a unidade de desenvolvimento de sub-campo 20200 gera, com base na informação de emissão de luz Ni, informação de controle de emissão de luz SF indicando uma configuração de emissão de luz de emissão de luz e não emissão de luz nos sub-campos individuais do campo de interesse. Então, na etapa ST20304, a unidade de desenvolvimento de sub- campo 20200 emite a informação de controle de emissão de luz SF indicando a configuração de emissão de luz de sub-campo.
Referindo-se de volta à Figura 87, na próxima etapa ST20400, a unidade de integração luz-intensidade 20300 gera, de uma maneira simulada, um sinal de imagem Vout correspondendo à intensidade de luz a ser integrada nas retinas de uma pessoa (imagem vista pelos olhos da pessoa), no instante em que o campo de interesse do sinal de imagem de entrada Vin é exibido no PDP.
Figura 90 é um fluxograma ilustrando a integração da intensidade de luz na etapa ST20400.
Na etapa ST20401, a direção de linha de visada mv em cada pixel no campo de interesse, que é detectada na etapa ST20200, e a informação de controle de emissão de luz SF dos sub-campos do campo de interesse, que é gerada na etapa ST20300, são inseridas na unidade de integração luz-intensidade 20300. A seguir, na etapa ST20402, na unidade de integração luz-intensidade 20300, pixéis individuais do campo de interesse são selecionados seqüencial como pixéis de interesse e uma região de integração de intensidade de luz na qual a intensidade de luz é integrada, é decidida com base na direção de linha de visada mv em cada pixel de interesse. Então, na etapa ST20403, a unidade de integração luz-intensidade 20300 integra a intensidade de luz emitida nos sub-campos dentro da região de integração de intensidade de luz decidida na etapa ST20402, com base na configuração de emissão de luz indicada pela informação de controle de emissão SF, e determina um valor de pixel no pixel de interesse. Então, a unidade de integração luz-intensidade 20300 gera uma imagem de saída (sinal) Vout constituída por este valor de pixel. Então, na etapa ST20404, a unidade de integração luz-intensidade 20300 emite a imagem de saída Vout.
Referindo-se de volta à Figura 87, na próxima etapa ST20500, por exemplo, um LCD servindo como um segundo dispositivo de exibição (não ilustrado) exibe a imagem de saída gerada Vout.
Figura 91 ilustra um fluxograma explicando o processo do dispositivo de processamento de imagem da Figura 79.
Na etapa ST20110, similarmente à etapa ST20100 da Figura 87, o sinal de imagem de entrada Vin é inserido. A seguir, na etapa ST20210, um vetor de movimento, e portanto, a direção de linha de visada mv, é detectada para cada pixel. A operação na etapa ST20210 é similar à da etapa ST20200 da Figura 87. A seguir, na etapa ST20310, a unidade de conversão gradação-nível 20400 efetua uma conversão gradação-nível executada no instante de exibição, usando um PDP.
Figura 92 é um fluxograma ilustrando a operação da conversão gradação-nível na etapa ST20310.
Na etapa ST20311, o sinal de imagem de entrada Vin é inserido na unidade de conversão gradação-nível 20400. A seguir, na etapa ST20312, a unidade de conversão gradação-nível 20400 converte o sinal de imagem de entrada Vin em um sinal de imagem Vp, adicionando erros difundidos a partir de imagens vizinhas. A seguir, na etapa ST20313, a unidade de conversão gradação-nível 20400 converte o nível de gradação do sinal de imagem Vp de acordo com a tabela de conversão gradação-nível 20403 (Figura 80). A seguir, na etapa ST20314, a unidade de conversão gradação-nível 20400 calcula um erro (erro de gradação-nível de exibição) Vpd entre o sinal de imagem Vp obtido antes da conversão de gradação-nível e o sinal de imagem Vpo obtido após a conversão gradação-nível. A seguir, na etapa ST20315, a unidade de conversão gradação-nível 20400 efetua conversão de pontilhamento do sinal de imagem Vpo. Então, na etapa ST20316, a unidade de conversão gradação-nível 20400 emite um sinal de imagem obtido efetuando conversão de pontilhamento como um sinal de imagem convertido em gradação-nível Vd.
Referindo-se de volta à Figura 91, na próxima etapa ST20410, um processo similar ao da etapa ST20300 da Figura 87 é executado no sinal de imagem Vd obtido pela conversão na etapa ST20310. Também uma vez que as etapas subseqüentes ST20510 e ST20610 são similares às etapas ST20400 e ST20500 da Figura 87, respectivamente, explicações destas são omitidas.
Figura 93 ilustra um fluxograma explicando o processo do dispositivo de processamento de imagem da Figura 82.
Notar que, na Figura 93, além da detecção da direção de linha de visada (vetor de movimento) que é executada na próxima etapa ST20320 no sinal de imagem Vd obtido pela conversão na etapa ST20220, processos similares aos das etapas ST20110, ST20310, ST20210, ST20410, ST20510 e ST20610 da Figura 91 são executados nas etapas ST20120, ST20220, ST20320, ST20420, ST20520 e ST20620, respectivamente.
Figura 94 ilustra um fluxograma explicando o processo do dispositivo de processamento de imagem da Figura 83.
Na etapa ST20130, similarmente à etapa ST20120 na Figura 93, o sinal de imagem de entrada Vin é inserido. A seguir, etapa ST20230, como no caso da Figura 93, um sinal de imagem convertido em gradação- nível Vd é gerado. A seguir, na etapa ST20330, correção de visão do sinal de imagem Vd obtida pela conversão na etapa ST20320 é efetuada. Subseqüentemente, processos similares aos das etapas ST20320, ST20420, ST20520 e ST20620 na Figura 93, são efetuados nas etapas ST20430, ST20530, ST20630 e ST20730, respectivamente.
Figura 95 é um fluxograma ilustrando operação de correção de visão na etapa ST20330. Na etapa ST20331, o sinal de imagem Vd é inserido na unidade de correção de visão 20500. A seguir, na etapa ST20332, a unidade de correção de visão 20500 corrige o sinal de imagem Vd de acordo com efeitos visuais de pontilhamento.
A seguir, na etapa ST20333, a unidade de correção de visão 20500 efetua correção de uma maneira simulada quanto a influências de erros difundidos através de pixéis vizinhos, e gera um sinal de imagem Vm. Na etapa ST20334, a unidade de correção de visão 20500 emite o sinal de imagem Vm.
Conforme acima, os dispositivos de processamento de imagem das Figuras 68, 79, 82 e 83 geram uma imagem vista pelos olhos de uma pessoa de uma maneira simulada, a partir da configuração de emissão de luz de sub-campo e da direção de linha de visada, no instante em que uma imagem é exibida em um PDP. Portanto, uma imagem vista pelos olhos de uma pessoa no instante em que um sinal de imagem arbitrário é exibido em um PDP, pode ser exibida de uma maneira simulada sobre um dispositivo de exibição diferente do PDP.
A seguir, os detalhes do processo da unidade de integração luz-intensidade 20300 da Figura 68 serão explicados. Antes disto, a exibição de uma imagem sobre um PDP será explicada novamente.
A exibição de uma imagem sobre um PDP é representada usando, conforme ilustrado na Figura 74 ou 78, um diagrama de modelo tridimensional composto de posições de pixel X e Y no PDP e sub-campos em uma direção no tempo T.
Figura 96 ilustra um modelo obtido, modelando uma exibição de uma imagem sobre um PDP (posteriormente referido como um modelo de exibição, se desejado).
Aqui, Figura 96 é um diagrama similar ao da Figura 74 ou 78
descrita acima.
No modelo de exibição, oito sub-campos SFl a SF8 são arranjados em uma direção do tempo T, onde uma direção perpendicular ao plano XY servindo como uma superfície de exibição sobre a qual o sinal de imagem de entrada Vin é exibido no PDP, é exibido como a direção de tempo T.
Notar que, no plano XY servindo como a superfície de exibição, por exemplo, o ponto esquerdo superior da superfície de exibição é visto como a origem, a direção da esquerda para a direita como a direção X e a direção de cima para baixo como a direção Y.
A unidade de integração luz-intensidade 20300 (Figura 68) seleciona seqüencialmente pixéis do sinal de imagem de entrada Vin exibidos sobre o PDP (pixéis de uma imagem correspondente ao sinal de imagem de entrada Vin, que são exibidos no PDP de acordo com o sinal de imagem de entrada Vin) como pixéis de interesse. No modelo de exibição, uma região possuindo uma região de cada pixel de interesse como uma seção transversal e estendendo-se na direção da linha de visada mv no pixel de interesse (direção do vetor de movimento detectada para o pixel de interesse) serve como uma região de integração luz-intensidade na qual a intensidade de luz é integrada. A intensidade de luz dentro da região de integração luz-intensidade é integrada de acordo com a configuração de emissão de luz de sub-campo indicada pela informação de controle de emissão de luz SF. Conseqüentemente, o valor de pixel do pixel de interesse é calculado. Isto é, conforme ilustrado na Figura 96, a unidade de integração luz-intensidade 20300 exibe, como uma região de sub-campo de pixel, uma região (espaço) de prisma retangular possuindo uma região de um pixel na superfície de exibição do modelo de exibição como uma seção transversal e estendendo-se na direção do tempo T para uma extensão correspondente a intensidade de luz emitida no sub-campo SF#i. Uma relação de ocupação que é uma relação na qual uma região de integração Iuz- intensidade ocupa a região de sub-campo de pixel, é multiplicada pela intensidade de luz L da luz emitida de acordo com a configuração de emissão de luz do sub-campo SF#i correspondente à região de sub-campo de pixel (se a região de sub-campo de pixel no sub-campo SF#i emite luz ou não emite luz) de tal modo que a influência da intensidade de luz correspondente à influência da região de sub-campo de pixel no valor de pixel do pixel de interesse, é determinada para todas as regiões de sub-campo de pixel através das quais a região de integração luz-intensidade passa.
Então, a unidade de integração luz-intensidade 20300 integra as intensidades de luz de influência determinadas para todas as regiões de sub-campo de pixel através das quais a região de integração luz-intensidade passa, e deste modo calcula o valor integrado como o valor de pixel do pixel de interesse.
Posteriormente, um método para calcular o valor de pixel de um pixel de interesse usando um modelo de exibição, o que é efetuado pela unidade de integração luz-intensidade 20300, será explicado em detalhe.
Figura 97 ilustra um exemplo de um pixel em um modelo de
exibição.
No modelo de exibição, é suposto que um pixel é configurado como uma região quadrada cujas extensões horizontal e vertical são 1, por exemplo. Neste caso, a área da região do pixel é 1 (= 1 χ 1).
Também, no modelo de exibição, a posição de um pixel (posição de pixel) é representada usando as coordenadas do canto esquerdo superior do pixel. Neste caso, por exemplo, (em uma região quadrada servindo como) um pixel cuja posição de pixel (X, Y) é (300, 200), conforme ilustrado na Figura 97, as coordenadas do ponto esquerdo superior são (300, 200) e as coordenadas do ponto direito superior são (301, 200). Também, as coordenadas do ponto esquerdo inferior são (300, 201) e as coordenadas do ponto direito inferior são (301, 201).
Notar que, por exemplo, o ponto esquerdo superior de um pixel no modelo de exibição é posteriormente referido como um ponto de referência, conforme desejado.
Figura 98 ilustra uma região de integração de intensidade de luz no modelo de exibição.
Por exemplo, agora, é suposto que, deixando um pixel em uma posição de pixel (x, y) ser um pixel de interesse, (um assunto fotográfico aparecendo no) pixel de interesse movido no instante T = a, por uma quantidade de movimento expressa com um vetor de movimento (vx, vy) durante um período de tempo Tf e movido para uma posição (x+vx, y+vy) no instante T = β (= α + Tf).
Neste caso, a trajetória da região quadrada servindo como uma região do pixel de interesse, que foi movida da posição (x, y) para a posição (x+vx, y+vy) torna-se uma região de integração luz-intensidade (espaço).
Agora, se é suposto que a seção transversal da região de integração luz-intensidade isto é, a região do pixel de interesse movendo-se da posição (x, y) para a posição (x+vx, y+vy), é referida como uma região (plano) de seção transversal, a região de seção transversal sendo uma região possuindo a mesma forma que a região do pixel. Então, a região de seção transversal possui quatro vértices
É suposto que, entre os quatro vértices da região de seção transversal em um instante arbitrário T = t (a < t < β) de um instante α para β, os pontos esquerdo superior, direito superior, esquerdo inferior e direito inferior (vértices) são representados por A, B, C e D, respectivamente. Uma vez que o ponto esquerdo superior A se move da posição (x, y) para a posição (x+vx, y+vy) durante o período de tempo Tf, as coordenadas (X, Y) do ponto A no instante t, tornam-se (x+vx(t-a)/Tf, y+vy(t-a)/Tf).
Também, uma vez que o ponto direito superior B é um ponto a uma distância de +1 do ponto A na direção X, as coordenadas (X, Y) do ponto B no instante t tornam-se (x+vx(t-oc)/Tf+l, y+vy(t-a)/Tf). De modo similar, uma vez que o ponto esquerdo inferior C é um ponto a uma distância de +1 do ponto A na direção Y, as coordenadas (X, Y) do ponto C no instante t tornam- se (x+vx(t-a)/Tf+l, y+vy(t-a)/Tf). Uma vez que o ponto direito inferior D é um ponto a uma distância de +1 do ponto A na direção Y, as coordenadas (X, Y) do ponto D no instante t tornam-se (x+vx(t-a)/Tf+l, y+vy(t-a)/Tf+l).
Figura 99 ilustra a região de seção transversal no instante
T = t.
Uma vez que a região de seção transversal contendo os pontos AaD como vértices não é transformada, a região de seção transversal inclui um ou mais pontos de referência (quando projetados sobre o plano X,Y) em um tempo arbitrário T = t. Na Figura 99, a região de seção transversal inclui um ponto de referência (a, b).
Aqui, a região de seção transversal pode incluir diversos pontos de referência. Este caso será descrito abaixo.
Também, a região de seção transversal se movo com o tempo Tea posição de um ponto de referência incluído na região de seção transversal varia de acordo. Pode ser entendido que, com referência à região de seção transversal, o ponto de referência relativamente se move com o tempo Τ. O movimento do ponto de referência com o tempo T pode fazer com que o ponto de referência na região de seção transversal seja mudado (para um outro ponto de referência). Este caso será também descrito abaixo. 10
15
20
Na região de seção transversal, uma linha reta Lx estendendo- se através do ponto de referência (a, b) e estendendo-se paralela ao eixo X e uma linha reta Ly estendendo-se através do ponto de referência (a, b) e estendendo-se paralela ao eixo Y, define o contorno de pixéis constituindo o modelo de exibição. Então, é necessário efetuar a integração da intensidade de luz para cada uma das regiões obtidas dividindo a região de seção transversal pelas linhas retas Lx e Ly (posteriormente referidas como regiões de divisão).
Na Figura 99, o ponto de referência (a, b) está localizado dentro de uma região de seção transversal (porção diferente do contorno), e conseqüentemente a região de seção transversal é dividida em quatro regiões divisionais Si, S2, S3 e S4. Notar que na Figura 99, uma região acima e sobre a direita do ponto de referência (a, b) é configurada com a região divisional Si, uma região acima ou à esquerda do ponto de referência (a, b) com uma região divisional S2, uma região abaixo e sobre a esquerda do ponto de referência (a, b) com uma região divisional S3, e uma região acima e sobre a direita do ponto de referência (a, b) como a região divisional S4.
A área (Si) (i = 1, 2, 3, 4) no instante T = t é representada usando Equações (32) a (35) conforme segue.
[Mat. 32]
S1 =
x+yKt-aO +1 -a
Tf
[Mat. 33]
S9 =
h T<
x+^(t-a) -a
So =
x+VKt- oí) -a
S4 =
[Mat. 34] Vx
Tf
[Mat. 35] ■f
•f
y+/(t-of)-b ■f
'f
y+-Sp-(t- ctO +1 -b ■f
(32)
(33)
(34)
(35) Agora, é suposto que dentre os oitos sub-campos SF1 a SF8 no
modelo de exibição (Figura 96), um certo sub-campo SF#j serve como um sub-campo de interesse SF#j e que a região de seção transversal passa através do sub-campo de interesse SF#j durante um período do instante Tsfa ao instante TsA,.
trajetória da região de seção transversal passando através do sub-campo de interesse SF#j é igual a uma combinação das trajetórias das regiões divisionais individuais Sj a S4 no instante em que a região de seção transversal passa através dele.
intensidade, uma porção incluindo a região servindo como a trajetória da região divisional Si (corpo sólido possuindo a região divisional Si como a seção transversal) é referida como um corpo sólido divisional Vi. Então o (volume Vi) o corpo sólido individual Vi pode ser determinado integrando a região divisional Si do instante tsfa para tsft, de acordo com as Equações (36) a (39) conforme segue.
A região de integração luz-intensidade servindo como a
Agora, é suposto que, dentro da região de integração Iuz-
[Mat. 36]
(36)
[Mat. 37]
(37)
20
[Mat. 38]
(38)
[Mat. 39]
(39)
Notar que, aqui, é suposto que, quando a região de seção transversal passa através do sub-campo de interesse SF#j, o ponto de referência (a, b) não é mudado (o ponto de referência (a, b) que existiu na região de seção transversal quando a região de seção transversal começou a passar através do sub-campo de interesse SF#j continua a existir na região de seção transversal até que a região de seção transversal passe através do sub- campo de interesse SF#j).
Em contraste, no modelo de exibição, é suposto que o volume da região de campo de pixel (Figura 86) que é um corpo sólido em prisma retangular apresentando uma região de um pixel no sub-campo de interesse SF#j como uma seção transversal e estendendo-se na direção do tempo T é V. Então, o volume V desta região de campo de pixel e o volume (Vj) dos corpos sólidos divisionais V1, V2, V3 e V4 tem a relação da Equação (40). [Mat. 40]
V = ZVi
i=1 (40)
O corpo sólido divisional V;, que é uma porção da região de integração luz-intensidade, ocupa uma porção de uma certa região de campo de pixel no sub-campo de interesse SF#j cuja relação de ocupação é suposta estar referida como uma relação de ocupação. Então, a relação de ocupação é representada por V/V e pode ser determinada usando as Equações (36) a (40).
Agora, se é suposto que a região de campo de pixel, cuja porção é ocupada pelo corpo sólido divisional Vi, no sub-campo de interesse SF#j, é referida como uma região de campo de pixel ocupada, a intensidade de luz correspondendo à influência (da intensidade de luz) nesta região de campo de pixel ocupada no valor de pixel do pixel de interesse (posteriormente referido como uma intensidade de luz de influência, conforme desejado) pode ser determinada multiplicando a relação de ocupação V/V pela intensidade de luz SFvi na região de campo de pixel ocupada. Aqui, quando a região de campo de pixel ocupada no sub- campo de interesse SF#j está emitindo luz, a intensidade de luz SFvi na região de campo de pixel ocupada é ajustada para o peso L da luminância deste sub- campo de interesse SF#j. Quando a região de campo de pixel ocupada no sub- campo de interesse SF#j não está emitindo luz (nenhuma emissão de luz) a intensidade de luz SFvi é configurada para 0. Notar que emissão de luz/nenhuma emissão de luz da região de campo de pixel ocupada no sub- campo de interesse SF#j pode ser reconhecida a partir da configuração de emissão de luz indicada pela informação de controle de emissão de luz SF fornecida a partir da unidade de desenvolvimento de sub-campo 20200 (Figura 68) para a unidade de integração luz-intensidade 20300.
A intensidade de luz Psflj correspondendo a influência (intensidade de luz) no sub-campo de interesse SF#j no valor de pixel do pixel de interesse (intensidade de luz causada pelo sub-campo de interesse SF#j) é a soma total das intensidades de luz de influência SFvi χ Vi/V, SFv2 χ V2/V, SFv3 x V3/V, e SFv4 x V4/V na região de campo de pixel ocupada, porções da qual são ocupadas pelos corpos sólidos divisionais V1, V2, V3 e V4. Então, a intensidade de luz Psflj pode ser determinado usando Equação (41).
[Mat. 41]
4 Vi
PSFL, j = Σ -γ- SFv
i=1 v (41)
Na unidade de integração luz-intensidade 20300 (Figura 68),
Psfl,i a Psfl,8 causados pelos oito sub-campos SFl a SF8 são determinados
para o pixel de interesse, de acordo com a Equação (41). Então, na unidade de
integração luz-intensidade 20300, Psfl,i a Psfl,8 causados pelos oito sub-
campos SFl a SF8 são integrados e o valor integrado dado por Psfl,i + Psfl,2 +
... + Psfl,8 é exibido com o valor de pixel do pixel de interesse. Notar que
determinar o valor integrado dado por Psfl,i + Psfl,2 + ... + Psfl,8 é equivalente
a determinar as intensidades de luz de influência através das quais a região de integração luz-intensidade passa e integrar estas intensidades de luz de influência.
Incidentalmente, exibindo a região de seção transversal que se move com o tempo T, conforme descrito acima, diversos pontos de referência podem existir na região de seção transversal, ou um ponto de referência na região de seção transversal pode ser mudado (para um outro ponto de referência). Tal caso será explicado com referência às Figuras 100 e 101.
Figuras 100 e 101 ilustram uma região de seção transversal que se move com o tempo T dentro de um modelo de exibição, com um pixel em uma posição (x, y) no modelo de exibição servindo como um pixel de interesse.
Notar que Figura 101 é um diagrama continuado a partir da
Figura 101.
Nas Figuras 100 e 101 deixando o pixel na posição de pixel (x, y) ser um pixel de interesse, (um assunto fotográfico aparecendo no) o pixel de interesse é móvel, por um período deste do tempo T = tSfa ao tempo T = Tsfb, até uma posição (x+2, y-1) por uma quantidade de movimento expressa como um vetor de movimento (+2, -1).
Conforme acima, na região de seção transversal que é uma região de pixel de interesse que se move de uma posição (x, y) para a posição (x+2, y-1) onde a posição desta região de seção transversal preferivelmente coincide com a posição de uma região de um pixel no modelo de exibição (quando exibida no plano XY), quatro vértices da região do pixel existem como pontos de referência na região de seção transversal.
Isto é, por exemplo, na região de seção transversal na posição (x, y) na qual o movimento começa (região de seção transversal cujo vértice esquerdo superior é posicionado na posição (x, y)), quatro pontos de referência, a saber, o ponto (x, y), o ponto (x+1, y), o ponto (x, y+1) e o ponto (x+1, y+1) existem. Conforme acima, quando diversos pontos de referência existem na região de seção transversal, por exemplo, um ponto de referência localizado na direção de linha de visada mv no pixel de interesse (direção de um vetor de movimento detectado para o pixel de interesse) é selecionado como um ponto de referência usado para determinar o valor de pixel do pixel de interesse (posteriormente referido como um ponto de referência de interesse, se desejado).
Isto é, por exemplo, em um caso em que a componente X do vetor de movimento representando a direção de linha de visada mv no pixel de interesse é maior que 0 (sinal é positivo) e a componente Y deste é menor ou igual a 0 (componente Y é 0 ou o sinal desta é negativo), o ponto de referência direito superior (x+1, y) é selecionado como um ponto de interesse de referência dentre os quatro pontos de referência (x, y), (x+1, y), (x, y+1) e (x+l,y+l).
Também, por exemplo, em um caso em que a componente X
do vetor de movimento representando a direção de linha de visada mv no pixel de interesse é menor ou igual a 0 e a componente Y deste é menor ou igual a 0, o ponto de referência esquerdo superior (x, y) é selecionado como um ponto de referência de interesse dentre os pontos (x, y), (x+1, y), (x, y+1) e (x+1, y+1).
Adicionalmente, por exemplo, em um caso em que a componente X do vetor de movimento representando a direção de linha de visada mv no pixel de interesse é menor ou igual a 0 e a componente Y deste é maior que 0, o ponto de referência esquerdo inferior (x, y+1) é selecionado como um ponto de referência de interesse entre os quatro pontos de referência (x, y), (x+1, y), (x, y+1) e (x+1, y+1).
Também, por exemplo, em um caso em que ambos componente X e componente Y do vetor de movimento representando a direção de linha de visada mv no pixel de interesse, são maiores que 0, o ponto de referência direito inferior (x+1, y+1) é selecionado como um ponto de referência de interesse entre os quatro pontos de referência (x, y), (x+1, y), (x, y+1) e (x+1, y+1).
Na Figura 100, uma vez que o vetor de movimento representando a direção de linha de visada mv no pixel de interesse é o vetor (+2, -1), o ponto de referência direito superior (x+1, y) é selecionado como um ponto de referência de interesse.
Após o ponto de referência de interesse (x+1, y) ser selecionado da maneira acima, a região de seção transversal pode ser dividida com base no ponto de referência de interesse (x+1, y) nas quatro regiões divisionais Si, S2, S3 e S4. Explicadas na Figura 99. Portanto, o valor de pixel do pixel de interesse pode ser determinado de acordo com as Equações (32) a (41), a menos que a região de seção transversal se mova na direção de linha de visada mv para alcançar deste modo um estado onde esta região de seção transversal contenha um novo ponto de referência.
Em contraste, em um caso em que a região de seção transversal se move na direção de linha de visada mv para alcançar deste modo um estado onde esta região de seção transversal contenha um novo ponto de referência, para este novo ponto de referência, um novo ponto de referência de interesse é novamente selecionado de uma maneira similar a do caso descrito acima, e conseqüentemente, o ponto de referência de interesse é modificado.
Isto é, por exemplo, na Figura 100, no instante T = γ, a coordenada x, x+1, da posição da região de seção transversal coincide com a coordenada x, x+1 da posição do pixel no modelo de exibição, e conseqüentemente, um novo ponto de referência (x+2, y) está contido na região de seção transversal.
Neste caso, para o novo ponto de referência (x+2, y), um novo ponto de referência de interesse é novamente selecionado. No caso corrente, uma vez que somente o ponto de referência (x+2, y) é o ponto de referência, este ponto de referência (x+2, y) é selecionado como um novo ponto de referência de interesse, e conseqüentemente, o ponto de referência de interesse é mudado a partir do ponto de referência (x+1, y) para o ponto de referência (x+2, y).
Notar que também em um caso onde a coordenada Y da posição da região de seção transversal coincide com a coordenada Y da posição do pixel no modelo de exibição, e conseqüentemente um novo ponto de referência está contido na região de seção transversal, o ponto de referência de interesse é mudado da maneira descrita acima.
Figura 101 ilustra a região de seção transversal obtida após o ponto de referência de interesse ter sido mudado, isto é, após o novo ponto de referência de interesse (x+2, y) ter sido selecionado.
Após um novo ponto de referência de interesse ter sido selecionado, a região de seção transversal pode ser dividida com base neste novo ponto de referência de interesse, em quatro regiões divisionais, de uma maneira similar ao caso explicado na Figura 99. Na Figura 101, a região de seção transversal é dividida em quatro regiões divisionais Si', S2', S3' e S4'.
Após o novo ponto de referência de interesse ser selecionado, em um caso em que a região de seção transversal se move na direção de linha de visada mv, para alcançar deste modo um estado onde um novo ponto de referência esta contido nesta região de seção transversal, para este novo ponto de referência, um novo ponto de referência de interesse é novamente selecionado de uma maneira similar ao caso descrito acima, e conseqüentemente, o ponto de referência de interesse é mudado.
Na Figura 101, no instante T = tsfb a coordenada X, x+2 da posição da região de seção transversal coincide com a coordenada X, x+2 da posição (x+2, y-1) do pixel no modelo de exibição, e adicionalmente a coordenada Y, y-1 da posição da região de seção transversal coincide com a coordenada Y, y-1 da posição (x+2, y-1) do pixel no modelo de exibição. Conseqüentemente, três novos pontos de referência (x+2, y-1), (x+3, y-1), e (x+3, y) estão contidos na região de seção transversal.
posteriormente, um novo ponto de referência de interesse é novamente selecionado da maneira descrita acima, entre os três novos pontos de referência (x+2, y-1), (x+3, y-1), e (x+3, y).
ponto de referência de interesse, a relação de ocupação na qual a região de integração luz-intensidade ocupa a região de campo de pixel ocupada (Figura 96), isto é, a relação V/V do volume (V8) de uma porção V8 da região de campo de pixel ocupada, que é ocupada pela região de integração luz- intensidade (uma vez que esta porção corresponde ao corpo sólido divisional acima descrito, esta porção é posteriormente referida como uma porção de corpo sólido divisional conforme desejado) para o volume (V) da região de campo de pixel ocupada V, pode ser determinada.
em um caso em que a região de seção transversal se move da posição (x, y) para a posição (x+2, y-1) por um período do instante T = tsfa para o instante T = tsfb e passa através do sub-campo de interesse SF#j, quando o ponto de referência de interesse é mudado somente uma vez no instante T = γ, o volume (V8), por exemplo, da porção de corpo sólido divisional V8 no sub- campo de interesse SF#j, que é ocupado pela região de integração luz- intensidade dentro da região de campo de pixel ocupada possuindo a região do pixel na posição (x+1, y-1) como uma seção transversal, pode ser determinada usando Equação (42).
Quando a região de seção transversal ainda se move
Conforme acima, selecionando novamente (mudando) um
Isto é, por exemplo, conforme ilustrado nas Figuras 100 e 102,
[Mat. 42]
(42) Aqui, na Equação (42), Si indica, conforme ilustrado na Figura 100, a área de uma região divisional na região do pixel na posição (x+1, y-1), que define a seção transversal da região de campo de pixel ocupada, durante um período do instante T = tsfa ao instante T = γ durante o qual o ponto de referência (x+1, y) serve como ponto de referência de interesse. Também, S2' indica, conforme ilustrado na Figura 101, a área de uma região divisional na região do pixel na posição (x+1, y-1) que define a seção transversal da região de campo de pixel ocupada, durante um período a partir do instante T = γ ao instante T = tsfb durante o qual o ponto de referência (x+2, y) serve como ponto de referência de interesse.
Conforme dado na Equação (42), o volume (Ve) da porção de corpo sólido divisional Vg no sub-campo de interesse SF#j, que é ocupado pela região de integração luz-intensidade dentro da região de campo de pixel ocupada possuindo a região do pixel em uma certa posição (X, Y) como uma seção transversal, pode ser determinada integrando a área (na Equação (42), as áreas Si e S2') de uma região divisional, a região do pixel definindo a seção transversal da região de campo de pixel ocupada, com a seção de integração sendo dividida em um ponto no qual o ponto de referência de interesse é mudado (na Equação (42), em um período do tempo T = tsfa ao instante T = γ e um período do tempo T = γ ao instante T = tsfl5).
Então, a relação de ocupação Vr/V na qual a região de integração luz-intensidade ocupa a região de campo de pixel ocupada pode ser determinada dividindo o volume (Ve) da porção de corpo sólido divisional Vg, que é ocupada pela região de integração luz-intensidade dentro da região de campo de pixel ocupada, pelo volume (V) da região de campo de pixel ocupada V.
Após a relação de ocupação V8/V ter sido determinada, conforme explicado nas Figuras 98 e 99, a relação de ocupação V/V é multiplicada pela intensidade de luz na região de campo de pixel ocupada. Então, a intensidade de luz (intensidade de luz de influência) correspondente à influência da (intensidade de luz) na região de campo de pixel ocupada no valor de pixel do pixel de interesse, pode ser determinada. Então, a intensidades de luz de influência em todas as regiões de sub-campo de pixel através das quais a região de integração de luz-intensidade passa, são determinadas, e as intensidades de luz de influência são integradas. Então, o valor de pixel do pixel de interesse pode ser determinado.
A seguir, conforme dado na Equação (42), no sentido de determinar o volume (Ve) da porção de corpo sólido divisional Vg, que é ocupada pela região de integração luz-intensidade dentro da região de campo de pixel ocupada, o instante no qual o ponto de referência de interesse é mudado (na Equação (42), tempo γ) (posteriormente referido como tempo de mudança, conforme desejado) é necessário.
Uma mudança do ponto de referência de interesse ocorre quando a coordenada X da posição da região de seção transversal coincide com a coordenada X da posição de um pixel no modelo de exibição, ou quando a coordenada Y da posição de seção transversal coincide com a coordenada Y, y-lda posição de um pixel no modelo de exibição. Portanto, o tempo de mudança pode ser determinado da maneira seguinte.
Isto é, por exemplo, agora, conforme ilustrado na Figura 98 descrito acima, é suposto que, deixando um pixel em uma posição de pixel (x, y) ser um pixel de interesse, a região de seção transversal localizada na posição (x, y) mudada no instante T = α por uma quantidade de movimento expressa como um vetor de movimento (vx, vy) durante um período de tempo Tf e movida para uma posição (x+vx, y+vy) no instante T = β (= α + Tf).
Neste caso, um instante de mudança Tcx no qual a coordenada X da posição da região de seção transversal coincide com a coordenada X da posição do pixel no modelo de exibição, é representado pela Equação (43).
[Mat. 43] τ°*=ην
I VxI
N = 1,2, ···, |νχ| (43)
Aqui, é suposto que a componente X, vx do vetor de movimento assume um valor inteiro.
Também, um instante de mudança Tcy no qual a coordenada Y da posição da região de seção transversal coincide com a coordenada Y da posição do pixel no modelo de exibição, é representado pela Equação (44).
[Mat. 44]
t-=mn
|Vy|
N = 1, 2, ···, IvyI
Aqui, é suposto que a componentes Y, vy do vetor de movimento assume um valor inteiro.
Notar que em um caso em que a componente X, vx do vetor de movimento é um valor diferente de 0, toda vez que o instante T se torna o instante de mudança Tcx, que é determinado de acordo com a Equação (43), um ponto obtido adicionando +1 ou -1 à coordenada X do ponto de referência, que foi o ponto de referência imediatamente precedente de interesse, torna-se um novo ponto de referência de interesse (ponto de referência mudado). Isto é, em um caso em que a componente X, vx do vetor de movimento é positiva, um ponto obtido adicionando +1 à coordenada X do ponto de referência, que foi o ponto de referência de interesse imediatamente precedente, torna-se um novo ponto de referência de interesse. Em um caso em que a componente X, vx do vetor de movimento é negativa, um ponto obtido adicionando -1 à coordenada X do ponto de referência, que foi o ponto de referência de interesse imediatamente precedente, torna-se um novo ponto de referência de interesse.
De modo similar, em um caso em que a componente Y, vy do vetor de movimento é um valor diferente de 0, toda vez que o instante T se torna o instante de mudança Tcy, que é determinado de acordo com a Equação (44), um ponto obtido adicionando +1 ou -1 à coordenada Y do ponto de referência, que foi o ponto de referência imediatamente precedente de interesse, torna-se um novo ponto de referência de interesse. Isto é, em um caso em que a componente Y, vy do vetor de movimento é positiva, um ponto obtido adicionando +1 à coordenada Y do ponto de referência, que foi o ponto de referência de interesse imediatamente precedente, torna-se um novo ponto de referência de interesse. Em um caso em que a componente Y, vy do vetor de movimento é negativa, um ponto obtido adicionando -1 à coordenada Y do ponto de referência, que foi o ponto de referência de interesse imediatamente precedente, torna-se um novo ponto de referência de interesse.
Notar que, em um caso em que os instantes de mudança Tcx e Tcy são iguais, um ponto obtido da maneira descrita acima adicionando +1 ou -Ia ambas coordenadas X e coordenada Y do ponto de referência, que era o ponto de referência de interesse imediatamente precedente, torna-se um novo ponto de referência de interesse.
Aqui, nas Figuras 100 e 101 no instante T = tsfa, a região de seção transversal localizada na posição (x, y) se move de uma quantidade de movimento expressa como um vetor de movimento (vx, vy) = (+2, -1) durante o período de tempo Tf e se move para uma posição (x+2, y-1) no instante T =
tsfb (= tsfa + Tf).
Nas Figuras 100 e 101, o instante T = γ é um instante de mudança Tcx quando a variável N na Equação (43) é 1. Na Equação (43), ajustando Tf= tsíb - tsfa, N= 1, e vx = +2, o instante de mudança Tcx = γ pode ser determinado de acordo com a equação (Lib - Lfa) χ 1 /I+2L
A seguir, o processo de integração luz-intensidade na etapa ST20400 da Figura 87, que foi explicado na Figura 90, será adicionalmente explicado em detalhe com referência a um fluxograma da Figura 102. Na etapa ST21001, a direção de linha de visada mv em cada pixel no campo de interesse, o que é detectado na etapa ST20200 da Figura 87, é fornecida a partir da unidade de detecção de movimento 20100 (Figura 68) para a unidade de integração luz-intensidade 20300. Adicionalmente, a informação de controle de emissão de luz SF indicando a configuração de emissão de luz dos sub-campos do campo de interesse, o que é gerado na etapa ST20300 da Figura 87, é fornecida a partir da unidade de desenvolvimento de sub-campo 20200 (Figura 68) à unidade de integração luz-intensidade 20300.
Aqui, a etapa ST21001 corresponde à etapa ST20401 da
Figura 90.
Posteriormente, o processo avança da etapa ST21001 para a etapa ST21002, na qual a unidade de integração luz-intensidade 20300 (Figura 75), o circuito de decisão de região de integração luz-intensidade 20301 seleciona, como um pixel de interesse, um dos pixéis não selecionados como pixel de interesse entre os pixéis constituindo o campo de interesse. O processo avança para a etapa ST21003.
Na etapa ST21003, o circuito de decisão de região de integração luz-intensidade 20301 configura (seleciona), para o pixel de interesse, um ponto de referência que serve como um ponto de referência inicial (primeiro) de interesse entre pontos de referência no modelo de exibição, com base na direção de linha de visada mv neste pixel de interesse. O processo avança para a etapa ST21004.
Na etapa ST21004, o circuito de decisão de região de integração luz-intensidade 20301 determina, para o pixel de interesse, instantes de mudança nos quais o ponto de referência de interesse é mudado, como foi explicado usando Equações (43) e (44). Adicionalmente, o circuito de decisão de região de integração luz-intensidade 20301 determina, em cada instante de mudança, um ponto de referência que serve como um novo ponto de referência de interesse. O processo avança para a etapa ST21005.
Na etapa ST21005, o circuito de decisão de região de integração luz-intensidade 20301 determina uma região de integração Iuz- intensidade usando a direção de linha de visada mv no pixel de interesse, os instantes de mudança determinados na etapa ST21004, e o ponto de referência que serve como um novo ponto de referência de interesse em cada instante de mudança.
Isto é, na etapa ST21005, o circuito de decisão de região de integração luz-intensidade 20301 determina, para cada um dos oito sub- campos SFl a SF8, o volume (Vi) de uma porção de corpo sólido divisional Vi (Equação (41)) na região de campo de pixel ocupada, que é ocupada pela região de integração luz-intensidade do pixel de interesse, usando a direção de linha de visada mv no pixel de interesse, os tempos de mudança e o ponto de referência que serve como um novo ponto de referência de interesse em cada instante de mudança. Aqui, uma região obtida combinando todas as porções de corpo sólido divisional Vi obtidas para os oitos sub-campos SFl a SF8 individuais, torna-se uma região de integração luz-intensidade.
Na etapa ST21005, o circuito de decisão de região de integração luz-intensidade 20301 determina adicionalmente, para cada um dos oito sub-campos SFl a SF8, a relação de ocupação V/V na qual a região de integração luz-intensidade do pixel de interesse ocupa a região de campo de pixel ocupada. O processo avança para a etapa ST21006.
Na etapa ST21006, o circuito de decisão de região de integração luz-intensidade 20301 determina, para os oito sub-campos SFl a SF8, intensidades de luz (intensidade de luz de influência) Psfl,i a Psfl,8 cada uma correspondendo à influência da intensidade de luz na região de campo de pixel ocupada no valor de pixel do pixel de interesse, conforme explicado usando Equação (41), multiplicando a relação de ocupação V/V na qual a região de integração luz-intensidade do pixel de interesse ocupa a região de campo de pixel ocupada, pela intensidade de luz SFvi nesta região de campo de pixel ocupada, e fornece as intensidades de luz de influência Psfl,i a Psfl,8 ao circuito de integração luz-intensidade 20302.
Notar que, a intensidade de luz SFvi na região de campo de pixel ocupada no sub-campo SF#j é ajustada para o peso L da luminância do sub-campo SF#j, quando o sub-campo SF#j está emitindo luz. Quando o sub- campo SF#j não está emitindo luz (nenhuma emissão de luz), a intensidade de luz SFvi é configurada para 0. O circuito de decisão de região de integração luz-intensidade 20301 reconhece emissão de luz/não emissão de luz do sub- campo SF#j a partir da configuração de emissão de luz indicada pela informação de controle de emissão de luz SF fornecida a partir da unidade de desenvolvimento de sub-campo 20200 (Figura 68). Aqui, as etapas precedentes ST21002 a ST21006 correspondem à etapa ST20402 da Figura 90.
Posteriormente, o processo avança da etapa ST21006 para a etapa ST21007, na qual o circuito de integração luz-intensidade 20302 integra as intensidades de luz de influência Psfl,i a Psfl,8 a partir do circuito de decisão de região de integração luz-intensidade 20301, determinando deste modo o valor de pixel do pixel de interesse. O processo avança para a etapa ST21008.
Aqui, a etapa ST21007 corresponde à etapa ST20403 da
Figura 90.
Na etapa ST21008, é determinado se o circuito de decisão de região de integração luz-intensidade 20301 selecionou todos os pixéis constituindo o campo de interesse ou pixéis de interesse.
Em um caso em que é determinado na etapa ST21008 que todos os pixéis constituindo o campo de interesse ainda não foram selecionados como pixéis de interesse, o processo retorna à etapa ST21002. O circuito de decisão de região de integração luz-intensidade 20301 seleciona, como um novo pixel de interesse, um dos pixéis não selecionados como pixel de interesse entre os pixéis constituindo o campo de interesse. Subseqüentemente, um processo similar é repetido.
Também, em um caso em que é determinado, na etapa ST21008 que todos os pixéis constituindo campo de interesse foram selecionados como pixéis de interesse, o processo avança para a etapa ST21009, na qual o circuito de integração luz-intensidade 20302 emite uma imagem de saída Vout composta de valores de pixéis determinados selecionando todos os pixéis de interesse constituindo o campo de interesse, como pixéis de interesse.
Aqui, etapa ST21009 correspondente à etapa ST20404 da
Figura 90.
A seguir, Figura 103 ilustra um outro exemplo de estrutura da unidade de integração luz-intensidade 20300 da Figura 68. Notar que, na figura, porções correspondentes ao caso da
Figura 75 são designadas pelos mesmos numerais e explicações destas são aqui omitidas, conforme desejado.
Isto é, a unidade de integração luz-intensidade 20300 da Figura 103 é comum ao caso da Figura 75 por ser provida de um circuito de integração luz-intensidade 20302. Entretanto, a unidade de integração luz- intensidade 20300 da Figura 103 é diferente daquela do caso da Figura 75 pois é provida, ao invés do circuito de decisão de região de integração luz- intensidade 20301 da Figura 75 de uma unidade de armazenagem de tabela de valor integrado luz-intensidade 20303 e um circuito de seleção de região de integração luz-intensidade 20304.
Na unidade de integração luz-intensidade 20300 da Figura 103, uma relação de ocupação é determinada para um pixel de interesse, com base na direção de linha de visada mv no pixel de interesse, usando uma tabela na qual a direção de linha de visada mv está associada a uma relação de ocupação (posteriormente referida como uma tabela de valor integrada de Iuz- intensidade, conforme desejado).
Isto é, na Figura 103, a unidade de armazenagem de tabela de valor integrado luz-intensidade 20303 armazena a tabela de valor integrado de luz-intensidade.
A direção de linha de visada mv em cada pixel no campo de interesse é fornecida à unidade de armazenagem de tabela de valor integrado luz-intensidade 20303 a partir da unidade de detecção de movimento 20100 (Figura 68). A unidade de armazenagem de tabela de valor integrado Iuz- intensidade 20303 exibe subseqüentemente os pixéis constituindo o campo de interesse com os pixéis de interesse, e lê, a partir da tabela de valor integrada luz-intensidade, a relação de ocupação correlacionada à direção de linha de visada mv em cada pixel de interesse, que é fornecida a ela, como a relação de ocupação V/V na qual a região de integração luz-intensidade do pixel de interesse ocupa a região de campo de pixel ocupada. A unidade de armazenagem de tabela de valor integrado luz-intensidade 20303 fornece a relação de ocupação V/V ao circuito de seleção de região de integração luz- intensidade 20304.
O circuito de seleção de região de integração luz-intensidade 20304 é fornecido, conforme descrito acima, além da relação de ocupação a partir da unidade de armazenagem de tabela de valor integrado luz- intensidade 20303, de informação de controle de emissão de luz SF a partir da unidade de desenvolvimento de sub-campo 20200 (Figura 68), que indica uma configuração de emissão de luz de sub-campos do campo de interesse. O circuito de seleção de região de integração luz-intensidade
20304 reconhece emissão de luz (não emissão de luz) da região de campo de pixel ocupada no sub-campo SF#j a partir da configuração de emissão de luz indicada pela informação de controle de emissão de luz SF fornecida a partir da unidade de desenvolvimento de sub-campo 20200. Ainda mais, quando a região de campo de pixel ocupada no sub-campo SF#j está emitindo luz, o circuito de seleção de região de integração luz-intensidade 20304 configura a intensidade de luz SFVi nesta região de campo de pixel ocupada para o peso L da luminância do sub-campo SF#j. Quando a região de campo de pixel ocupada no sub-campo SF#j não está emitindo luz (nenhuma emissão de luz) O Circuito de seleção de região de integração luz-intensidade 20304 configura a intensidade de luz SFvi nesta região de campo de pixel ocupada para 0.
Então, o circuito de seleção de região de integração luz- intensidade 20304 determina, para os oito sub-campos SFl a SF8 individuais, intensidade de luz (intensidade de luz de influência) Psfl,i a Psfl,8 cada uma correspondendo à influência da intensidade de luz na região de campo de pixel ocupada no valor de pixel do pixel de interesse, conforme explicado usando Equação (41), multiplicando a relação de ocupação V/V na qual a região de integração luz-intensidade do pixel de interesse ocupa a região de campo de pixel ocupada, que é a partir da unidade de armazenagem de tabela de valor integrado luz-intensidade 20303, pela intensidade de luz SFvi nesta região de campo de pixel ocupada, e fornece as intensidades de luz de influência Psfl,i a Psfl,8 ao circuito de integração luz-intensidade 20302.
Figura 104 ilustra esquematicamente a tabela de valor integrado luz-intensidade na unidade de armazenagem de tabela de valor integrado luz-intensidade 20303 da Figura 103.
Na tabela de valor integrado luz-intensidade, a direção de linha de visada mv servindo como um vetor de movimento que pode ser detectado pela unidade de detecção de movimento 20100, e a relação de ocupação ViAV, na qual a região de integração luz-intensidade possuindo a região do pixel como uma seção transversal, ocupa a região de campo de pixel ocupada, o que é determinado antecipadamente para cada um doa oito sub-campos SF1 a SF8, por cálculos com esta direção de linha de visada mv, são armazenadas em associação uma com a outra. Isto é, a tabela de valor integrado luz-intensidade é preparada para cada direção de linha de visada mv. Portanto, quando a faixa de busca do vetor de movimento servindo como a direção de linha de visada mv é, por exemplo, conforme descrito abaixo, uma faixa de 16 χ 16 pixéis, e quando a direção de linha de visada mv pode assumir 256 direções possíveis, somente 256 tabelas de valor integrado luz-intensidade existem.
Na tabela de valor integrado luz-intensidade para uma direção de linha de visada mv, a relação de ocupação V j/V para cada um dos oito sub- campos SFl a SF8 é registrada. Conseqüentemente, a direção de linha de visada mv é associada à relação de ocupação V/V para cada um dos oito sub- campos SFl a SF8, o que corresponde ao da direção de linha de visada mv.
Figura 104 ilustra uma tabela de valor integrado luz- intensidade para uma certa direção de linha de visada mv.
A tabela de valor integrado luz-intensidade para uma direção de linha de visada mv é uma tabela na qual, por exemplo, um sub-campo SF#j é plotado em abscissa, e uma posição relativa [x, y] a partir de um pixel de interesse, é plotado em ordenada.
Aqui, na presente realização, uma vez que há oito sub-campos SFl a SF8, espaços de coluna correspondendo aos oito sub-campos SFl a SF8 individuais são providos em abscissa da tabela de valor integrado luz- intensidade.
Também, a coordenada χ e y da posição relativa [x, y] em ordenada da tabela de valor integrado luz-intensidade representa a posição na direção Xea posição na direção Y, respectivamente, com referência à posição do pixel de interesse (origem). Por exemplo, a posição relativa [1,0] representa a posição de um pixel que é adjacente e à direita do pixel de interesse.
Por exemplo, a posição relativa [0, -1 ] representa a posição de um pixel que é adjacente e está acima do pixel de interesse. Agora, quando a faixa de busca do vetor de movimento servindo como a direção de linha de visada mv é, por exemplo, uma faixa de 16x16 pixéis possuindo -8 a +7 pixéis na direção X e na direção Y, com referência ao pixel de interesse servindo como centro, a quantidade de movimento pela qual o pixel de interesse se move dentro de um campo pode assumir 256 posições possíveis, de [-8, 8] a [7, 7] com respeito ao pixel de interesse. Então, espaços de coluna correspondentes às 256 posições relativas possíveis individuais [x, y] são providas em ordenada da tabela de valor integrado luz-intensidade. Em um caso em que a direção de linha de visada mv é representado por um certo vetor de movimento MV, na tabela de valor integrado luz-intensidade correspondente a esta direção de linha de visada MV, no espaço de coluna definido pela coluna de um certo sub-campo SF#j e a fila em uma certa posição relativa [x, y], a relação de ocupação RsF#j(x,y) (Vj/V na Equação (41) ou V/V obtida dividindo V8 na Equação (42) pelo volume (V) da região de campo de pixel ocupada V) na qual a região de integração luz-intensidade do pixel de interesse ocupa a região de campo de pixel ocupada BSF#j(X,y) no sub-campo SF#j que possui, como seção transversal, a região do valor de pixel cuja posição relativa a partir do pixel de interesse é expressa como [x, y], é determinada antecipadamente por cálculos e registrada.
Notar que, em um caso em que a região de integração luz- intensidade do pixel de interesse não passa através da região de campo de pixel ocupada BSF#j(X,y) no sub-campo SF#j que possui, como uma seção transversal, a região do pixel cuja posição relativa a partir do pixel de interesse é expressa como [x, y] (em um caso em que a região de campo de pixel ocupada BSF#j(x,y) e a região de integração luz-intensidade do pixel de interesse não se superpõe), a relação de ocupação RSF#j(X,y) na qual a região de integração luz-intensidade do pixel de interesse ocupa esta região de campo de pixel ocupada BSF#j(x y), é ajustada para 0. Aqui, em um caso em que a direção de linha de visada mv no pixel de interesse é expressa como, por exemplo, o vetor de movimento (1, - 1), a região de integração luz-intensidade do pixel de interesse passa somente através, entre regiões de campo de pixel ocupadas nos sub-campos individuais SFl a SF8, que possuem, como seções transversais, regiões individuais de 256 pixéis dentro da faixa de busca de 16 χ 16 pixéis possuindo o pixel de interesse como centro (256 χ 8 regiões de campo de pixel ocupadas) oito regiões de campo de pixel ocupadas Bsnio 0j a BSf8[o, o] nos sub-campos individuais SFl a SF8, que possuem a região de pixel de interesse como uma seção transversal, oito regiões de campo de pixel ocupadas BSfi[i, o] a Bsf8[i, o] nos sub-campos individuais SFl a SF8, que possuem a região de pixel adjacente e à direita do pixel de interesse como uma seção transversal, oito regiões de campo de pixel ocupadas BSfi[o, -i] a BSfs[o, -i] nos sub-campos individuais SFl a SF8, que possuem a região de pixel adjacente e acima do pixel de interesse como uma seção transversal, e oito regiões de campo de pixel ocupadas BSfi[i, -ij a Bsf8[i nos sub-campos individuais SFl a SF8, que possuem a região de pixel adjacente e acima e à direita do pixel de interesse como um seção transversal, e não passam através das outras regiões de campo de pixel ocupadas. Portanto, se é suposto que entre as oito regiões de campo de
pixel ocupadas Bsfi[o. o] a Bsf8[o, o] nos sub-campos individuais SFl a SF8, que possuem a região de pixel de interesse como uma seção transversal, os volumes (vi nas Equações (36) a (40)) de porções (porções de corpo sólido divisional) através das quais a região de integração luz-intensidade do pixel de interesse passa, são representadas por Vsfi[o, o] a Vsfs[o, ομ que, entre as oito regiões de campo de pixel ocupadas BSfi[i, o] a BSf8[i, o] nos sub-campos individuais SFl a SF8, que possuem o pixel adjacente e à direita do pixel de interesse como uma seção transversal, os volumes das porções através das quais a região de integração luz-intensidade do pixel de interesse passa, são representadas por Vsfi[i, o] a Vsf8[i, oj; que, dentre as oito regiões de campo de pixel ocupadas BSfi[o, i] a BSf8[o, i] nos sub-campos individuais SFl a SF8, que possuem o pixel adjacente e acima do pixel de interesse como uma seção transversal, os volumes de porções através das quais a região de integração luz-intensidade do pixel de interesse passa, são representadas por Vsfi[o, -i] a Vsf8[o, -í]; e que dentre as oito regiões de campo de pixel ocupadas Bsfi[i, -i] a Bsf8[i. -í] nos sub-campos individuais SFl a SF8, que possuem o pixel adjacente e acima e à direita do pixel de interesse como uma seção transversal, os volumes das porções através das quais a região de integração luz-intensidade do pixel de interesse passa, são representadas por Vsfi[i, -i a Vsf8[i, -í], na tabela de valor integrado luz-intensidade correspondente à direção de linha de visada mv, na qual a direção de linha de visada mv é expressa como vetor de movimento (1, -1), as relações de ocupação Rsfi[o, o] a Rsf8[0, 0] São ajustadas para valores VSfi[o, o]/V a Vsfsio, oj/V, respectivamente; as relações de ocupação RSfi[o, -i] a Rsf8[o, -i] são ajustadas para valores VSfi[o, - ij/V a Vsf8[o, -i]/V, respectivamente; e as relações de ocupação Rsfi[i, -i]a Rsf8[i, ^ são ajustadas para valores Vsfi[i, -i]/V a Vsf8[i, -i]/V, respectivamente. As outras relações de ocupação são todas ajustadas para 0.
A unidade de armazenagem de tabela de valor integrado Iuz- intensidade 20303 (Figura 103) lê um total de 8 χ 256 possíveis relações de ocupação para os oito sub-campos SFl a SF8 individuais e para as 256 posições relativas possíveis individuais [-8, -8] a [7, 7], que são registradas na tabela de valor integrado luz-intensidade correspondente à direção de linha de visada mv no pixel de interesse, e fornece as 8 χ 256 possíveis relações de ocupação ao circuito de seleção de região de integração luz-intensidade 20304.
O circuito de seleção de região de integração luz-intensidade 20304 seleciona relações de ocupação cujos valores são diferentes de 0 dentre as relações de ocupação a partir da unidade de armazenagem de tabela de valor integrado luz-intensidade 20303, e multiplica as relações de ocupação cujos valores são diferentes de 0 pelas correspondentes quantidades de luz SFvi, determinando deste modo as intensidades de luz de influência.
Notar que, aqui, o circuito de seleção de região de integração luz-intensidade 20304 seleciona relações de ocupação cujos valores são diferentes de 0 dentre relações de ocupação a partir da unidade de armazenagem de tabela de valor integrado luz-intensidade 20303, e multiplica as relações de ocupação cujos valores são diferentes de 0, pelas quantidades de luz correspondentes SFVi, determinando deste modo as intensidades de luz de influência. Uma vez que a intensidade de luz de luz de influência obtida multiplicando a relação de ocupação cujo valor é 0 por qualquer intensidade de luz SFvi é 0, o circuito de seleção de região de integração luz-intensidade 20304 pode determinar as intensidade de luz de influência multiplicando as relações de ocupação a partir da unidade de armazenagem de tabela de valor integrado luz-intensidade 20303 por correspondentes intensidades de luz SFVi, sem selecionar particularmente relações de ocupação cujos valores sejam diferentes de 0 dentre as relações de ocupação a partir da unidade de armazenagem de tabela de valor integrado luz-intensidade 20303.
A seguir, o processo de integração luz-intensidade executado pela unidade de integração luz-intensidade 20300 da Figura 103 será explicado em detalhe com referência ao fluxograma da Figura 105.
Na etapa ST21011, a direção de linha de visada mv em cada pixel no campo de interesse, é fornecida a partir da unidade de detecção de movimento 20100 (Figura 68) à unidade de armazenagem de tabela de valor integrado luz-intensidade 20303 na unidade de integração luz-intensidade 20300. Adicionalmente, informação de controle de emissão de luz SF indicando a configuração de emissão de luz de sub-campos do campo de interesse é fornecida a partir da unidade de desenvolvimento de sub-campo 20200 (Figura 68) ao circuito de seleção de região de integração luz- intensidade 20304 na unidade de integração luz-intensidade 20300.
Posteriormente, o processo avança da etapa ST21011 para a etapa ST21012, na qual a unidade de armazenagem de tabela de valor integrado luz-intensidade 20303 seleciona, como um pixel de interesse, um dos pixéis não selecionados como pixéis de interesse, dentre os pixéis constituindo o campo de interesse. O processo avança para a etapa ST21013.
Na etapa ST21013, a unidade de armazenagem de tabela de valor integrado luz-intensidade 20303 lê, a partir da tabela de valor integrado luz-intensidade correspondente à direção de linha de visada mv no pixel de interesse, todas as relações de ocupação RSf#j[x, y] registradas entre direções de linha de visada mv a partir da unidade de detecção de movimento 20100, e fornece as relações de ocupação RsF#j[x, y] ao circuito de seleção de região de integração luz-intensidade 20304. O processo avança para a etapa ST21014.
Na etapa ST21014, o circuito de seleção de região de integração luz-intensidade 20304 determina a intensidade de luz (intensidade de luz de influência) correspondente à influência da (intensidade de luz na) região de campo de pixel ocupada BSF#j[x, y] no valor de pixel do pixel de interesse, multiplicando a relação de ocupação RsF#j[x, y] a partir da unidade de armazenagem de tabela de valor integrado luz-intensidade 20303 pela intensidade de luz SFj na região de pixel ocupada correspondente BSF#j[X; y], e fornece a intensidade de luz determinada ao circuito de integração luz- intensidade 20302.
Notar que, a intensidade de luz SFj na região de campo de pixel ocupada no sub-campo SF#j é ajustada para o peso L da luminância do sub-campo SF#j quando este sub-campo SF#j está emitindo luz. Quando o sub-campo SF#j não está emitindo luz (nenhuma emissão de luz) a intensidade de luz SFv; é ajustada para 0. O circuito de seleção de região de integração luz-intensidade 20304 reconhece emissão de luz/não emissão de luz do sub-campo SF#j a partir da configuração de emissão de luz indicada pela informação de controle de emissão de luz SF fornecida a partir da unidade de desenvolvimento de sub-campo 20200 (Figura 68).
Posteriormente, o processo avança da etapa ST21014 para a etapa ST21015, na qual o circuito de integração luz-intensidade 20302 integra todas as intensidades de luz de influência a partir do circuito de seleção de região de integração luz-intensidade 20304, determinando deste modo o valor de pixel do pixel de interesse. O processo avança para a etapa ST21016.
Na etapa ST21016, é determinado se o circuito de seleção de região de integração luz-intensidade 20304 selecionou ou não todos os pixéis constituindo o campo de interesse como pixéis de interesse.
Em um caso em que é determinado, na etapa ST21016, que todos os pixéis constituindo o campo de interesse ainda não foram selecionados como pixéis de interesse, o processo retoma à etapa ST21012. A unidade de armazenagem de tabela de valor integrado luz-intensidade 20303 seleciona, como um novo pixel de interesse, um dos pixéis não selecionados como pixel de interesse, dentre os pixéis constituindo o campo de interesse. Subseqüentemente, um processo similar é repetido.
Também, em um caso em que é determinado na etapa ST21016 que todos os pixéis constituindo o campo de interesse foram selecionados como pixéis de interesse, o processo avança para a etapa ST21017, na qual o circuito de decisão de região de integração luz- intensidade 20301 emite uma imagem de saída Vout composta de valores de pixel determinados selecionando todos os pixéis constituindo o campo de interesse, como pixéis de interesse.
A seguir, a série de processos descrita acima pode ser executada por hardware ou software dedicado. Em um caso em que a série de processos é executada por software, um programa constituindo o software é instalado em um computador de finalidade geral ou similar.
Então, Figura 106 ilustra um exemplo de estrutura de uma realização de um computador, no qual um programa que executa a série de processos acima descrita é instalado.
O programa pode ser gravado antecipadamente em um disco rígido 21105 ou em uma ROM 21103 servindo como meio de gravação 5 incorporado em um computador.
Alternativamente, o programa pode ser temporariamente ou permanentemente armazenado (gravado) em um meio de gravação removível 21111, tal como um disco flexível, uma CD-ROM (Memória de Somente Leitura de Disco Compacto), um disco MO (Magnético Óptico), um DVD 10 (Disco Versátil Digital), um disco magnético ou uma memória de semicondutor. O meio de gravação removível 21111 deste tipo pode ser provido como assim chamado software empacotado.
Notar que o programa pode ser, além de instalado no computador a partir do meio de gravação removível 21111 conforme descrito 15 acima, transferido para o computador a partir de um sítio de transferência de um modo sem fio, via satélite, para radiodifusão via satélite digital ou transferido para o computador com fio através de uma rede tal como uma LAN (Rede de Área Local) ou a Internet. No computador, o programa transferido de tal maneira pode ser recebido por uma unidade de comunicação 20 21108 e instalado no disco rígido 21105 incorporado nele.
O computador incorpora uma CPU (Unidade de Processamento Central) 21101. A CPU 21102 é conectada a uma interface entrada/saída 21110 através de um barramento 21101. Quando uma instrução é inserida por um usuário através de uma operação ou similar de uma unidade 25 de entrada 21107 construída com um teclado, um mouse, um microfone e similar via interface entrada/saída 21110, a CPU 21102 executa um programa armazenado na ROM (Memória de Somente Leitura) 21103 de acordo com a instrução. Alternativamente, a CPU 21102 carrega em uma RAM (Memória de Acesso Randômico) 21104 um programa armazenado no disco rígido 21105, um programa que é transferido de um satélite ou uma rede, recebido pela unidade de comunicação 21108, e instalado no disco rígido 21105, ou um programa que é lido a partir do meio de gravação removível 21111 montado em um controlador 21109 e instalado no disco rígido 21105, e executa o programa. Conseqüentemente, a CPU 21102 executa os processos de acordo com os fluxogramas descritos acima ou os processos executados pela estrutura dos diagramas em blocos descritos acima. Então, a CPU 21102 faz com que este resultado de processamento seja, de acordo com a necessidade, por exemplo, emitido a partir de uma unidade de saída 21106 construída com um LCD (Visor de Cristal Líquido), um alto-falante e similar via interface entrada/saída 21110, enviado a partir da unidade de comunicação 21108 ou gravado ou similar no disco rígido 21105.
[Realização de Dispositivo de Processamento de Sinal de Imagem capaz de Reproduzir Imagem Aparente ou Exibição em Plasma (PDP (Painel de Exibição em Plasma)) Usando Exibições de outros Dispositivos tais como CRT (Tubo de Raios Catódicos) ou LCD (Visor de Cristal Líquido), Efetuando Processamento de Sinal]
A seguir, será dada explicação de uma realização de um dispositivo de processamento de sinal de imagem que reproduzir uma imagem aparente, quando a imagem é exibida em um PDP, usando visores ou outros dispositivos.
Em um PDP, por exemplo, conforme descrito por Masayuki KAWAMURA, “Yokuwakaru Purazuma Terebi (Understanding Plasma TV)”, Dempa Publications, Inc., uma estrutura de barras ou similar é adotada. Cada pixel é configurado de tal modo que porções que emitem luz R (Vermelho), G (Verde), e B (Azul) são arranjados em uma configuração de barras.
Incidentalmente, em um caso no qual é avaliado como uma imagem é exibida em um PDP, se um monitor tal como um CRT ou LCD é usado como um monitor de avaliação, uma vez que um PDP e um LCD ou similar possuem características de exibição diferentes, dependendo das imagens exibidas em um LCD, tem sido difícil avaliar a aparência ou qualidade de uma imagem que é (a ser) exibida em um PDP.
Isto é, a qualidade de imagem de uma imagem que é exibida em um LCD durante a avaliação e a qualidade de imagem de uma imagem que é exibida em um PDP durante a exibição real no PDP, nem sempre coincidem.
Então, a seguir, será dada uma explicação de uma realização que pode prover reprodução de uma imagem aparente (quando a imagem é exibida) sobre um PDP, usando uma exibição diferente de um PDP, tal como, por exemplo, um LCD, executando processamento de sinal.
Figura 107 ilustra uma exemplo de estrutura de uma realização de um dispositivo de processamento de sinal de imagem que reproduz uma imagem aparente em um PDP usando uma exibição diferente de um PDP.
Na Figura 107, o dispositivo de processamento de sinal de imagem é construído a partir de uma unidade de processamento de imagem
30001 e um monitor 30002. Um sinal de imagem fornecido à unidade de processamento de imagem 30001 é processado de tal modo que uma imagem obtida quando um sinal de imagem é exibido no monitoração 30002 servindo como um aparelho de exibição de um tipo de exibição diferente de um PDP, pode parecer uma imagem exibida em um aparelho de exibição de PDP e é exibida no monitor 30002.
Isto é, a unidade de processamento de imagem 30001 submete o sinal de imagem fornecido a ela a pelo menos um dentre um processo de adição de deslocamento de cor para reproduzir deslocamento de cor causado por uma imagem móvel, o que ocorre porque a iluminação de RGB (Vermelho, Verde e Azul) é ligada nesta ordem, um processo de adição de pontilhamento espacial para reproduzir uma configuração de pontilhamento a ser aplicada em uma direção do espaço, um processo de adição de pontilhamento temporal para reproduzir uma configuração de pontilhamento a ser aplicada em uma direção no tempo, um processo de reprodução de passo inter-pixel para reproduzir um espaço entre passos de pixel, e um processo de reprodução de arranjo de barras para reproduzir um arranjo de barras, e fornece um sinal de imagem resultante ao monitor 30002.
O monitor 30002 é um aparelho de exibição de um tipo de exibição diferente de um PDP, isto é, por exemplo, um aparelho de exibição de LCD ou CRT e exibe uma imagem de acordo com o sinal de imagem fornecido a partir da unidade de processamento de imagem 30001. O monitor
30002 exibe uma imagem de acordo com o sinal de imagem a partir da unidade de processamento de imagem 30001, de tal modo que uma imagem que seria exibida em um aparelho de exibição de PDP é exibida no monitor 30002.
Conforme descrito acima, na unidade de processamento de imagem 30001, pelo menos um processo de adição de deslocamento de cor, processo de adição de pontilhamento espacial, processo de adição de pontilhamento temporal, processo de reprodução de passo inter-pixel, e processo de reprodução de arranjo de barras, é efetuado.
Primeiramente, será dada uma explicação sobre o processo de reprodução de arranjo de barras entre o processo de adição de deslocamento de cor, processo de adição de pontilhamento espacial, processo de adição de pontilhamento temporal, processo de reprodução de passo inter-pixel ou processo de reprodução de arranjo de barras efetuado na unidade de processamento de imagem 30001.
Figura 108 é um diagrama explicando o processo de reprodução de arranjo de barras.
No processo de reprodução de arranjo de barras, um arranjo de barras que é único para PDPs, é reproduzido. Em um monitor de saída, dois ou mais pixéis são usados para exibição de um pixel de PDP. No processo de reprodução de arranjo de barras, cada valor de pixel é decomposto em componentes de valor RGB que são arranjadas longitudinalmente para exibição.
No caso de não múltiplos de três pixéis, tais como dois pixéis, reprodução similar pode ser realizada exibindo cores misturadas na aparência.
Conseqüentemente, barras aparentes, que são únicas para PDPs, podem também ser realizadas usando um monitor de cristal líquido ou similar.
Também, em alguns painéis alvo, componentes RGB não possuem larguras iguais. Mudar as larguras de componentes RGB de acordo, conseqüentemente, permite reprodutibilidade mais melhorada.
Figura 109 ilustra um exemplo de estrutura de uma unidade de processamento de imagem 30001 para executar o processo de reprodução de arranjo de barras.
Um circuito de formação de magnificação/barras 30011 magnífica um sinal de imagem fornecido à unidade de processamento de imagem 30001 N vezes, isto é, por exemplo, três vezes e decompõe o sinal de imagem no arranjo de barras. O circuito de formação de magnificação/barras 30011 emite um sinal de imagem formado por barras.
Um circuito de redimensionamento/reamostragem 30012 reamostra o sinal de imagem emitido a partir do circuito de formação de magnificação/barras 30011 de acordo com um tamanho de imagem de saída (o tamanho de uma imagem a ser exibida no monitor 30002) e emite um resultado.
Notar que o sinal de imagem emitido a partir do circuito de redimensionamento/reamostragem 30012 é fornecido ao monitor 30002 e é exibido.
Figura 110 é um fluxograma explicando o processo de reprodução de arranjo de barras executado na unidade de processamento de imagem 30001 da Figura 109.
Na etapa S30011, o circuito de formação de magnificação/barras 30011 magnifica o tamanho de um pixel de um sinal de imagem três vezes, e modifica o pixel de um modo pelo qual componentes RGB são arranjados lateralmente. O circuito de formação de magnificação/barras 30011 fornece o sinal de imagem resultante ao circuito de redimensionamento/reamostragem 30012. O processo avança para a etapa S30010.
Na etapa S30012, o circuito de
redimensionamento/reamostragem 30012 executa um processo de redimensionar o sinal de imagem a partir do circuito de formação de magnificação/barras 30011, de acordo com um tamanho de imagem de saída, e reamostrando-o. O processo avança para a etapa S30013.
Na etapa S30013, o circuito de
redimensionamento/reamostragem 30012 emite um sinal de imagem obtido no processo da etapa S30012 para o monitor 30002.
A seguir, será dada uma explicação do processo de adição de deslocamento de cor (processo para reproduzir deslocamento de cor causado por uma imagem móvel) entre o processo de adição de deslocamento de cor, processo de adição de pontilhamento espacial, processo de adição de pontilhamento temporal, processo de reprodução de passo inter-pixel ou processo de reprodução de arranjo de barras, executados na unidade de processamento de imagem 30001.
Figura 111 é um diagrama explicando deslocamento de cor que ocorre em uma imagem exibida em um PDP.
PDPs possuem uma característica pela qual, como é particularmente notável para um objeto branco que se move horizontalmente, o que é produzido por diferença na duração da iluminação dos componentes RGB, se uma pessoa segue este objeto com seu olho, as cores parecem deslocadas.
No processo de adição de deslocamento de cor, esta característica é reproduzida também com o monitor 30002 tal como um painel de cristal líquido. A reprodução é efetuada pelo seguinte procedimento.
1. Detecção de Contorno de Objeto
O contorno de um objeto é detectado a partir de uma imagem usando detecção de borda ou similar. Em particular, um objeto branco ou similar é selecionado como alvo.
2. Extração de Quantidade de Movimento
Uma quantidade de movimento do objeto determinada no procedimento do item 1 acima, com respeito a um quadro subseqüente, é determinado. Uma técnica tal como o método de coincidência de bloco é usada.
3. Adição de Deslocamento de Cor
Deslocamento de cor ótimo é adicionado de acordo com as características de emissão de luz RGB do PDP no qual a reprodução deve ser efetuada e a quantidade de movimento do objeto.
A quantidade de adição de deslocamento de cor é decidida dependendo das características de emissão de luz no PDP a serem coincididas com a quantidade de movimento.
Por exemplo, no caso de uma característica na qual a iluminação de azul (B) é desligada antes da iluminação de verde (G) por um intervalo de tempo de 1/3 fr (fr é um período de quadro), um valor de pixel próximo de uma borda tem uma componente de cor azul ajustada para 2/3.
Similarmente, um valor de pixel adjacente pode ser gerado reduzindo subtração da componente azul, de modo a causar deslocamento de cor possuindo uma largura correspondente à quantidade móvel.
Figura 112 representa coeficientes a serem multiplicados pelos valores de pixel originais em um PDP apresentando uma característica de que a iluminação de azul é desligada antes da verde, por um intervalo de tempo de 1/3 fr, no sentido de adicionar deslocamento de cor causado em um caso em que a quantidade de movimento de um objeto que aparece sobre uma imagem, é responsável por 3 pixéis.
Figura 113 ilustra um exemplo de estrutura de uma unidade de processamento de imagem 30001 para efetuar o processo de adição de deslocamento de cor.
Uma memória de quadro corrente 30021 armazena um sinal de imagem fornecido à unidade de processamento de imagem 30001, e fornece o sinal de imagem como o sinal de imagem do quadro corrente para uma memória de quadro precedente 30022, um circuito de corte de porção de borda 30023 e um circuito de detecção de movimento 30024.
A memória de quadro precedente 30022 armazena o sinal de 15 imagem do quadro corrente fornecido a partir da memória de quadro corrente 30021 e retarda o sinal de imagem de um intervalo de tempo correspondente a um quadro, antes de fornecer o sinal de imagem ao circuito de detecção de movimento 30024. Portanto, quando o sinal de imagem do quadro corrente é fornecido a partir da memória de quadro corrente 30021 para o circuito de 20 detecção de movimento 30024, o sinal de imagem do quadro precedente, que é um quadro precedendo o quadro corrente, é fornecido a partir da memória de quadro precedente 30022 ao circuito de detecção de movimento 30024.
O circuito de corte de porção de borda 30023 detecta uma porção de borda do sinal de imagem do quadro corrente a partir da memória 25 de quadro corrente 30021, e fornece a posição de borda desta porção de borda ao circuito de detecção de movimento 30024 e a um circuito de multiplicação de coeficiente de cor 30025. Ainda mais, o circuito de corte de porção de borda 30023 também fornece o sinal de imagem do quadro corrente a partir da memória de quadro corrente 30021 ao circuito de multiplicação de coeficiente de cor 30025. O circuito de detecção de movimento 30024 calcula uma quantidade de movimento entre os quadros na posição especificada a partir do circuito de corte de porção de borda 30023 e emite a quantidade de movimento para o circuito de multiplicação de coeficiente de cor 30025.
Isto é, o circuito de detecção de movimento 30024 detecta uma quantidade de movimento na porção de borda na posição de borda a partir do circuito de corte de porção de borda 30023 usando o sinal de imagem do quadro corrente a partir da memória de quadro corrente 30021 e o sinal de imagem a partir da memória de quadro precedente 30022 e fornece a quantidade de movimento ao circuito de multiplicação de coeficiente de cor 30025.
O circuito de multiplicação de coeficiente de cor 30025 gera, em coordenação com as características de emissão de luz (do PDP) especificadas, um coeficiente para adicionar deslocamento de cor de acordo com a quantidade de movimento na posição especificada, e multiplica a imagem pelo coeficiente, que é então emitido.
Isto é, o circuito de multiplicação de coeficiente de cor 30025 é configurado para ser fornecido com um parâmetro de característica de emissão de luz representando as características de emissão de luz (características de exibição) do PDP.
O circuito de multiplicação de coeficiente de cor 30025 determina um coeficiente para causar deslocamento de cor de acordo com as características de emissão de luz representadas pelo parâmetro de características de emissão de luz, uma posição (a posição de um pixel) a partir da posição de borda do circuito de corte de porção de borda 30023, e a quantidade de movimento da porção de borda a partir do circuito de detecção de movimento 30024. O circuito de multiplicação de coeficiente de cor 30025 emite um sinal de imagem de uma cor obtida multiplicando (um valor de pixel de) sinal de imagem a partir do circuito de corte de porção de borda 30023 pelo coeficiente. Então, o sinal de imagem emitido a partir do circuito de multiplicação de coeficiente de cor 30025 é fornecido ao monitor 30002 e é exibido.
Figura 114 é um fluxograma explicando o processo de adição de deslocamento de cor executado na unidade de processamento de imagem 30001 da Figura 113.
Na etapa S30021, o circuito de corte de porção de borda 30023 detecta uma porção de borda onde ocorre deslocamento de cor, a partir do sinal de imagem do quadro corrente da memória de quadro corrente 30021, e fornece a posição de borda desta porção de borda ao circuito de detecção de movimento 30024 e circuito de multiplicação de coeficiente de cor 30025. adicionalmente, o circuito de corte de porção de borda 30023 fornece o sinal de imagem do quadro corrente ao circuito de multiplicação de coeficiente de cor 30025. O processo avança para a etapa S30022.
Na etapa S30022, o circuito de detecção de movimento 30024 detecta uma quantidade de movimento da porção de borda na posição de borda a partir do circuito de corte de porção de borda 30023, usando o sinal de imagem do quadro corrente a partir da memória de quadro corrente 30021 e o sinal de imagem da memória de quadro precedente 30022, e fornece a quantidade de movimento ao circuito de multiplicação de coeficiente de cor 30025. O processo avança para a etapa S30023.
Na etapa S30023, o circuito de multiplicação de coeficiente de cor 30025 determina o coeficiente para causar deslocamento de cor de acordo com as características de emissão de luz representadas pelo padrão de característica de emissão de luz, a quantidade de movimento da porção de borda do circuito de detecção de movimento 30024 e a posição da porção de borda na posição de borda a partir do circuito de corte de porção de borda 30023. Então, o circuito de multiplicação de coeficiente de cor 30025 multiplica uma cor (valor de pixel) de cada pixel do sinal de imagem do quadro corrente a partir do circuito de corte de porção de borda 30023 pelo coeficiente, e emite o sinal de imagem de cor obtido como um resultado da multiplicação ao monitor 30002.
A seguir, será dada uma explicação do processo de reprodução de passo inter-pixel (processo para reduzir um passo de pixel no instante de reprodução do mesmo tamanho) entre o processo de adição de deslocamento de cor, processo de adição de pontilhamento espacial, processo de adição de pontilhamento temporal, processo de reprodução de passo inter-pixel ou processo de reprodução de arranjo de barras, executados na unidade de processamento de imagem 30001.
Em um caso em que a reprodução do tamanho de um PDP alvo deve também ser realizado, um tamanho equivalente pode ser obtido usando uma função de zoom eletrônico tal como DRC (Criação de Realidade Digital). A coincidência mais precisa de aparências pode ser alcançada também reproduzindo um espaço entre passos de pixel.
Aqui, DRC é descrito, por exemplo, na Publicação de Pedido de Patente Não Examinada Japonesa No. 2005-236634, Publicação de Pedido de Patente Não Examinada Japonesa No. 2002-223167, ou similar como um processo adaptativo de classificação de classe.
r
E suposto que, por exemplo, o tamanho do PDP a ser coincidido é duplo. Neste caso, zoom eletrônico duplo pode ser usado para prover a aparência do mesmo tamanho. Reprodutibilidade mais melhorada é realizada também adicionando o efeito visual dos espaços entre pixéis, o que é específico para PDPs de tela grande.
No caso de duplicidade, um efeito conforme ilustrado na Figura 115 pode ser adicionado.
Figura 116 ilustra um exemplo de estrutura de uma unidade de processamento de imagem 30001 para executar o processo de reprodução de passo inter-pixel. Um circuito de processamento de magnifícação 30031 magnifica um sinal de imagem fornecido à unidade de processamento de imagem 30001 para um tamanho de imagem de saída. Isto é, o circuito de processamento de magnifícação 30031 executa um processo de magnificar uma porção de uma imagem de acordo com um fator de magnifícação fornecido a ele. Então, o circuito de processamento de magnifícação 30031 emite uma imagem magnificada obtida como o resultado do processo, a um circuito de decréscimo de luminância inter-pixel 30032.
O circuito de decréscimo de luminância inter-pixel 30032 executa um processo de reduzir um valor de luminância com respeito a uma posição onde existe um espaço entre pixéis, de acordo com um fator de magnifícação fornecido a ele. Isto é, o circuito de decréscimo de luminância inter-pixel 30032 processa o sinal de imagem a partir do circuito de processamento de magnifícação 30031 de modo a reduzir a luminância de uma porção onde existe um espaço entre pixéis. Então, o circuito de decréscimo de luminância inter-pixel 30032 emite o sinal de imagem obtido como um resultado deste processo, ao monitor 30002.
Figura 117 é um fluxograma explicando o processo de reprodução de passo inter-pixel executado na unidade de processamento de imagem 30001 da Figura 116.
Na etapa S30031, o circuito de processamento de magnifícação 30031 magnifica uma imagem para um tamanho de imagem de saída, e fornece a imagem resultante ao circuito de decréscimo de luminância inter-pixel 30032. O processo avança para a etapa S30032. Na etapa S30032, o circuito de decréscimo de luminância inter-pixel 30032 executa um processo de reduzir a luminância de uma certa porção entre pixéis supostos com respeito à imagem, a partir do circuito de processamento de magnifícação 30031. Então, o processo avança da etapa S30032 para a etapa S30033, na qual o circuito de decréscimo de luminância inter-pixel 30032 emite uma imagem obtida na etapa S30032 ao monitor 30002.
A seguir, será dada uma explicação do processo de adição de pontilhamento espacial (processo para reproduzir uma configuração de pontilhamento espacial) entre o processo de adição de deslocamento de cor, processo de adição de pontilhamento espacial, processo de adição de pontilhamento temporal, processo de reprodução de passo inter-pixel ou processo de reprodução de arranjo de barras, executados na unidade de processamento de imagem 30001.
Em muitos painéis PDP, o pontilhamento é usado no sentido de assegurar níveis de gradação de cor (cores são arranjadas em um configuração de mosaico para prover um pseudo aumento nos níveis de gradação).
A reprodução desta configuração de pontilhamento permite coincidência mais precisa das aparências.
Um painel PDP alvo possui uma cor na qual o pontilhamento é visível. Em uma porção com uma pequena quantidade de mudança de cor dentro de uma tela, uma cor que coincide com esta cor de pontilhamento visível pode ser reproduzida, conforme ilustrado na Figura 118, executando um processo de adição de pontilhamento.
Figura 119 ilustra um exemplo de estrutura de uma unidade de processamento de imagem 30001 para executar um processo de adição de pontilhamento espacial.
Um circuito de extração de porção suave 30041 extrai uma parte suave (porção suave) de um sinal de imagem fornecido à unidade de processamento de imagem 30001, e fornece a porção suave a um circuito de comparação de cor 30042 juntamente com o sinal de imagem.
O circuito de comparação de cor 30042 determina se a cor da porção suave a partir do circuito de extração de porção suave 30041 é ou não uma cor na qual o pontilhamento é visível. Isto é, o circuito de comparação de cor 30042 compara a cor da porção suave extraída pelo circuito de extração de porção suave 30041 com cores (representadas por valores RGB) registradas em uma tabela de busca armazenada em uma ROM de configuração de pontilhamento espacial. Em um caso em que a cor da porção suave é uma cor diferente de uma cor associada à configuração de pontilhamento espacial “nenhuma configuração”, o que será descrito abaixo, entre as cores registradas na tabela de busca, o circuito de comparação de cor 30042 determina que a cor da porção suave é uma cor na qual o pontilhamento é visível. Então, o circuito de comparação de cor 30042 fornece, juntamente com este resultado de determinação, o sinal de imagem a partir do circuito de extração de porção suave 30041 a um circuito de adição de pontilhamento 30044.
A tabela de busca é armazenada em uma ROM de configuração de pontilhamento espacial 30043.
Aqui, Figura 120 ilustra uma tabela de busca armazenada na ROM de configuração de pontilhamento espacial 30043.
Na tabela de busca, um valor RGB de cada cor é associado a uma configuração de pontilhamento espacial, servindo como uma configuração de pontilhamento espacial que pode ser facilmente vista quando uma cor representada por esta valor RGB é exibida no PDP.
Notar que, na tabela de busca, para um valor RGB de uma cor na qual o pontilhamento não é visível, “nenhuma configuração” (indicando que o pontilhamento não é visível) é registrada como uma configuração de pontilhamento espacial.
Também, no circuito de comparação de cor 30042 (Figura 119) é determinado que uma cor representada por um valor RGB associado à configuração de pontilhamento espacial, “nenhuma configuração” não é uma cor na qual o pontilhamento é visível, e é determinado que outras cores são cores nas quais o pontilhamento é visível. Referindo-se de volta à Figura 119, a ROM de configuração de pontilhamento espacial 30043 fornece uma configuração de pontilhamento espacial associada na tabela de busca armazenada nela com um valor RGB representando a cor da porção suave, o que é a partir do circuito de extração de porção suave 30041, que é objetivado para determinação pelo circuito de comparação de cor 30042, para o circuito de adição de pontilhamento 30044.
O circuito de adição de pontilhamento 30044 adiciona o pontilhamento espacial representado pela configuração de pontilhamento espacial especificada a partir da ROM de configuração de pontilhamento espacial 30043 para o sinal de imagem a partir do circuito de comparação de cor 30042.
Isto é, em um caso em que um resultado de determinação indicando que a cor de uma porção suave é uma cor na qual o pontilhamento é visível, é fornecido a partir do circuito de comparação de cor 30042, o circuito de adição de pontilhamento 30044 adiciona o pontilhamento representado pela configuração de pontilhamento espacial fornecido a partir da ROM de configuração de pontilhamento espacial 30043 ao sinal de imagem da porção suave do sinal de imagem a partir do circuito de comparação de cor 30042, e emite um resultado ao monitor 30002.
Figura 121 é um fluxograma explicando o processo de adição de pontilhamento espacial executado pela unidade de processamento de imagem 30001 da Figura 119.
Na etapa S30041, o circuito de extração de porção suave 30041 extrai uma porção suave que é uma parte como uma pequena quantidade de mudança de cor na direção do espaço a partir do sinal de imagem, e fornece a porção suave ao circuito de comparação de cor 30042 juntamente com o sinal de imagem. O processo avança para a etapa S30042.
Na etapa S30042, o circuito de comparação de cor 30042 se refere à tabela de busca armazena na ROM de configuração de pontilhamento espacial 30043, e determina se a cor da porção suave a partir do circuito de extração de porção suave 30041 é ou não uma cor visível por pontilhamento no PDP.
5 Em um caso em que é determinado na etapa S30042 que a cor
da porção suave a partir do circuito de extração de porção suave 30041 é uma cor visível por pontilhamento no PDP, o circuito de comparação de cor 30042 fornece um resultado de determinação indicando esta determinação e o sinal de imagem a partir do circuito de extração de porção suave 30041 para o 10 circuito de adição de pontilhamento 30044. Adicionalmente, a ROM de configuração de pontilhamento espacial 30043 fornece a configuração de pontilhamento espacial associada na tabela de busca com o valor RGB da cor da porção suave que é objetivada para determinação pelo circuito de comparação de cor 30042 para o circuito de adição de pontilhamento 30044. 15 O processo avança para a etapa S3 0043.
Na etapa S30043, o circuito de adição de pontilhamento 30044 adiciona a configuração especificada, isto é, o pontilhamento espacial representado pela configuração de pontilhamento espacial a partir da ROM de configuração de pontilhamento espacial 30043, à porção suave do sinal de 20 imagem a partir do circuito de comparação de cor 30042. O processo avança para a etapa S30044.
Na etapa S30044, o circuito de adição de pontilhamento 30044 emite o sinal de imagem com o pontilhamento adicionado a ele, para o monitor 30002.
Em contraste, em um caso em que é determinado na etapa
S30042 que a cor da porção suave a partir do circuito de extração de porção suave 30041 não é uma cor visível por pontilhamento no PDP, o circuito de comparação de cor 30042 fornece um resultado de determinação indicando esta determinação e o sinal de imagem a partir do circuito de extração de porção suave 30041 ao circuito de adição de pontilhamento 30044. O processo avança para a etapa S30045.
Na etapa S30045, o circuito de adição de pontilhamento 30044 emite o sinal de imagem a partir do circuito de comparação de cor 30042 diretamente para o monitor 30002, sem adicionar pontilhamento ao sinal de imagem.
A seguir, uma explicação será dada do processo de adição de pontilhamento temporal (processo para reproduzir pontilhamento na direção do tempo) entre o processo de adição de deslocamento de cor, processo de 10 adição de pontilhamento espacial, processo de adição de pontilhamento temporal, processo de reprodução de passo inter-pixel ou processo de reprodução de arranjo de barras, executados na unidade de processamento de imagem 30001.
Nos canais PDP, o pontilhamento é também usado na direção do tempo no sentido de assegurar níveis de gradação de cor. Também neste caso, a reprodutibilidade é melhorada executando processamento similar.
Um quadro de uma imagem de entrada é dividido no número de peças que podem ser emitidas a uma velocidade igual à velocidade de resposta de um monitor a ser usado de acordo com uma cor, que são exibidas. 20 O método de divisão é para emitir uma configuração de pontilhamento obtida efetuando a integração na direção do tempo do PDP no qual peças divisionais devem ser abordadas.
Figura 122 ilustra um exemplo de estrutura de uma unidade de processamento de imagem 30001 para efetuar o processo de adição de pontilhamento temporal.
Um circuito de comparação de cor 30051 compara uma cor de cada pixel de um sinal de imagem de um quadro fornecido à unidade de processamento de imagem 30001 com (valores RGB representando) cores registradas em uma tabela de busca armazenada em uma ROM de configuração de vibração temporal 30052 para determinar deste modo se a cor do pixel do sinal de imagem é ou não uma cor na qual o pontilhamento é visível.
Então, em um caso em que a cor do sinal de imagem coincide com uma das cores registradas na tabela de busca, o circuito de comparação de cor 30051 determina que esta cor é uma cor na qual o pontilhamento é visível. Então, o circuito de comparação de cor 30051 fornece, juntamente com um resultado de determinação indicando esta determinação, o sinal de imagem de um quadro a um circuito de adição de pontilhamento 30044.
A ROM de configuração de vibração temporal 30052 armazena uma tabela de busca. Na tabela de busca armazena na ROM de configuração de vibração temporal 30052, (um valor RGB representando) uma cor na qual o pontilhamento é visível quando exibido no PDP e uma configuração de pontilhamento temporal que é uma configuração de um valor de pixel de cada sub-quadro, quando esta cor é exibida em diversos sub- quadros, são registradas associadas uma com cada outra.
Aqui, o termo sub-quadro é equivalente a um sub-campo que é usado para exibição em PDP.
Também, aqui, é suposto que os diversos sub-quadros descritos acima são, por exemplo, três sub-quadros e que o monitor 30002 tem um desempenho capaz de exibir pelo menos três sub-quadros para um período de um quadro.
A ROM de configuração de vibração temporal 30052 fornece uma configuração de pontilhamento temporal associada na tabela de busca armazena nela com uma cor, na qual tenha sido determinado pelo circuito de comparação de cor 30051 que o pontilhamento é visível, isto é, informação representando um conjunto de valores de pixel individuais de três sub- quadros, para o circuito de adição de vibração 30053.
O circuito de adição de vibração 30053 divide (divide no tempo), para uma cor na qual tenha sido determinado que o pontilhamento é visível, o que é a partir do circuito de comparação de cor 30051, o sinal de imagem de um quadro a partir do circuito de comparação de cor 30051 em três sub-quadros dos valores de pixel representados pela configuração de 5 pontilhamento temporal fornecidos a partir da ROM de configuração de vibração temporal 30052, adicionando deste modo uma configuração de pontilhamento temporal ao sinal de imagem do quadro a partir do circuito de comparação de cor 30051.
Isto é, adicionar uma configuração de pontilhamento temporal a um sinal de imagem de um quadro, significa que o sinal de imagem de um quadro é dividido em uma base pixel por pixel, em diversos sub-quadros (aqui, três sub-quadros) dos valores de pixel representados pela configuração de pontilhamento temporal.
Um sinal de imagem entre os sinais de imagem dos três sub- quadros, obtido adicionando a configuração de pontilhamento temporal usando o circuito de adição de vibração 30053, é fornecido a uma memória de saída 30054, um outro sinal de imagem para uma memória de saída 30055 e o outro sinal de imagem a uma memória de saída 30056.
Cada uma das memórias de saída 30054 a 30056 armazena o sinal de imagem do sub-quadro fornecido a partir do circuito de adição de vibração 30053, e fornece o sub-quadro ao monitor 30002 em uma temporização para exibição.
Notar que, no monitor 30002, sub-quadros são exibidos em períodos nos quais três sub-quadros podem ser exibidos dentro de um quadro, tal como um período de 1/3 do período de quadro.
Aqui, na Figura 122, as três memórias de saída 30054 a 30056 são providas como memórias para armazenar sinais de imagens de sub- quadros. O mesmo número de memórias para armazenar sinais de imagem de sub-quadros é requerido como o número de sub-quadros que pode ser obtido adicionando uma configuração de pontilhamento temporal, usando o circuito de adição de vibração 30053.
Por exemplo, em um caso em que o número de sub-quadro que pode ser obtido adicionando uma configuração de pontilhamento temporal 5 usando o configuração de vibração espacial ROM 30043 é igual a um número máximo (a velocidade de resposta do monitor 30002) que pode ser exibida dentro de um quadro no monitor 30002, um número de memórias igual a aquele número é requerido como memórias para armazenar sinais de imagem de sub-quadros.
Figura 123 é um fiuxograma explicando o processo de adição
de pontilhamento temporal executado pela unidade de processamento de imagem 30001 da Figura 122.
O circuito de comparação de cor 30051 refere-se à tabela de busca armazenada na ROM de configuração de vibração temporal 30052, para
determinar se uma cor de cada pixel de um sinal de imagem de um quadro fornecido à unidade de processamento de imagem 30001 é ou não uma cor na qual o pontilhamento é visível, e fornece, juntamente com um resultado de determinação obtido para este pixel, o sinal de imagem daquele quadro ao circuito de adição de vibração 30053.
Em contraste, a ROM de configuração de vibração temporal
30052 fornece, para cada pixel, ao circuito de adição de vibração 30053 uma configuração de pontilhamento temporal associada, na tabela de busca, a uma cor na qual tenha sido determinado pelo circuito de comparação de cor 30051 que o pontilhamento é visível.
Na etapa S30051, o circuito de adição de vibração 30053
adiciona, para uma cor na qual tenha sido determinado que o pontilhamento é visível, o que é a partir do circuito de comparação de cor 30051, uma configuração de pontilhamento temporal para um sinal de imagem de um quadro a partir do circuito de comparação de cor 30051. O processo avança para a etapa S30052.
Isto é, o circuito de adição de vibração 30053 divide um sinal de imagem de um quadro do circuito de comparação de cor 30051 em sinais de imagem de três sub-quadros, dividindo o valor de pixel de cada pixel do sinal de imagem daquele quadro em três valores de pixel, que são representados pela configuração de pontilhamento temporal fornecida a partir da ROM de configuração de vibração temporal 30052, e ajustando os três valores de pixel como os valores de pixel de pixéis individuais correspondendo aos três sub-quadros. Então, o circuito de adição de vibração 30053 fornece um sinal de imagem dentre os sinais de imagem dos três sub- quadros para a memória de saída 30054, um outro sinal de imagem para a memória de saída 30055 e o outro sinal de imagem para a memória de saída 30056, para armazenagem. Notar que, para um pixel de uma cor na qual o pontilhamento não é visível, por exemplo, 1/3 do valor de pixel deste pode ser configurado como o valor de pixel de um sub-quadro.
Na etapa S30052, as memórias de saída 30054 a 30056 emitem os sinais de imagem dos sub-quadros armazenados na etapa S30051 para o monitor 30002 em temporizações para o sub-quadros a serem exibidos. A seguir, Figura 124 ilustra um exemplo de estrutura de uma unidade de 20 processamento de imagem 30001 para executar todo o processo de adição de deslocamento de cor, processo de adição de pontilhamento espacial, processo de adição de pontilhamento temporal, processo de reprodução de passo inter- pixel ou processo de reprodução de arranjo de barras.
Na Figura 124, a unidade de processamento de imagem 30001 é construída a partir das unidades de processamento de imagem 30060, 30070 e 30080.
A unidade de processamento de imagem 30060 é construída a partir de uma memória de quadro corrente 30061, uma memória de quadro precedente 30062, um circuito de corte de porção de borda 30063, um circuito de detecção de movimento 30064 e um circuito de multiplicação de coeficiente de cor 30065.
A memória de quadro corrente 30061 para o circuito de multiplicação de coeficiente de cor 30065 são configurados de uma maneira 5 similar à memória de quadro corrente 30021 para o circuito de multiplicação de coeficiente de cor 30025 da Figura 113, respectivamente. Portanto, a unidade de processamento de imagem 30060 submete o sinal de imagem fornecido à unidade de processamento de imagem 30001 para um processo de adição de deslocamento de cor similar ao caso da Figura 113, e fornece um 10 sinal de imagem resultante à unidade de processamento de imagem 30070.
A unidade de processamento de imagem 30070 é construída a partir da um circuito de comparação de cor 30071, uma ROM de configuração de vibração temporal/espacial 30072, um circuito de adição de vibração 30073 e memórias de saída 30074 a 30076.
O circuito de comparação de cor 30071 efetua um processo
similar ao de cada um dentre o circuito de comparação de cor 30042 da Figura 119 e o circuito de comparação de cor 30051 da Figura 122 no sinal de imagem fornecido a partir da unidade de processamento de imagem 30060.
A ROM de configuração de vibração temporal/espacial 30072 20 tem armazena nela uma tabela de busca similar a cada uma dentre a tabela de busca armazena na ROM de configuração de pontilhamento espacial 30043 da Figura 119 e a tabela de busca armazena na ROM de configuração de vibração temporal 30052 da Figura 122, e executa, com base nesta tabela de busca, um processo similar ao de cada uma dentre a ROM de configuração de 25 pontilhamento espacial 30043 da Figura 119 e a ROM de configuração de vibração temporal 30052 da Figura 122.
Como o circuito de adição de pontilhamento 30044 da Figura 119, o circuito de adição de vibração 30073 adiciona pontilhamento espacial representado por uma configuração de pontilhamento espacial ao sinal de imagem, e adicionalmente adiciona uma configuração de pontilhamento temporal ao sinal de imagem, dividindo deste modo aquele sinal de imagem em três sub-quadros. O circuito de adição de vibração 30073 fornece individualmente os três sub-quadros às memórias de saída 30074 a 30076.
Como as memórias de saída 30054 a 30056 da Figura 122, as memórias de saída 30074 a 30076 armazenam os sinais de imagem dos sub- quadros, a partir do circuito de adição de pontilhamento 30073. Os sinais de imagem dos sub-quadros armazenados nas memórias de saída 30074 a 30076 são fornecidos à unidade de processamento de imagem 30080.
Na unidade de processamento de imagem 30070 construída conforme acima, um processo de adição de pontilhamento espacial similar ao do caso da Figura 119 e um processo de adição de pontilhamento temporal similar ao do caso da Figura 122 são executados no sinal de imagem emitido a partir da unidade de processamento de imagem 30060.
A unidade de processamento de imagem 30080 é construída a partir da um circuito de processamento de magnifícação 30081, um circuito de formação de barras 30082, e um circuito de decréscimo de luminância inter-pixel 30083.
O circuito de processamento de magnifícação 30081 executa um processo similar ao do circuito de processamento de magnifícação 30031 da Figura 116 sobre o sinal de imagem da unidade de processamento de imagem 30070 e fornece um sinal de imagem resultante ao circuito de formação de barras 30082.
O circuito de formação de barras 30082 efetua, no sinal de imagem a partir do circuito de processamento de magnifícação 30081, somente um processo para decomposição em arranjos de barras dentro do processo executado pelo circuito de formação de magnificação/barras 30011 da Figura 109, e fornece um sinal de imagem resultante ao circuito de decréscimo de luminância inter-pixel 30083. Portanto, um processo similar ao executado pelo circuito de formação de magnificação/barras 30011 da Figura 109 é executado usando ambos circuito de processamento de magnifícação 30081 e circuito de formação de barras 30082.
O circuito de decréscimo de luminância inter-pixel 30083 efetua um processo similar ao efetuado pelo circuito de decréscimo de luminância inter-pixel 30032 da Figura 116 no sinal de imagem a partir do circuito de formação de barras 30082, e emite o sinal de imagem obtido como um resultado do processo ao monitor 30002.
Portanto, na unidade de processamento de imagem 30080, o processo de reprodução de arranjo de barras similar ao do caso da Figura 116 e o processo de reprodução de passo inter-pixel similar ao do caso da Figura 119 são efetuados.
Notar que, na unidade de processamento de imagem 30080, o processo de reprodução de arranjo de barras e o processo de reprodução de passo inter-pixel são executados em cada um dos sinais de imagem dos três sub-quadros fornecidos a partir da unidade de processamento de imagem 30070.
Figura 125 é um fluxograma explicando o processo da unidade de processamento de imagem 30001 da Figura 124.
Na etapa S30061, um processo envolvendo uma direção do tempo é executado. Isto é, na etapa S30061, o processo de adição de deslocamento de cor é efetuado na unidade de processamento de imagem 30060 e o processo de adição de pontilhamento espacial e o processo de adição de pontilhamento temporal são executados na unidade de processamento de imagem 30070.
Então, o processo avança da etapa S30061 para a etapa S30062, onde um processo envolvendo magnifícação de tamanho é executado. Isto é, na etapa S30062, o processo de reprodução de passo inter- pixel e o processo de reprodução de arranjo de barras são executados na unidade de processamento de imagem 30080.
Conforme acima, a unidade de processamento de imagem 30001 executa pelo menos um dentre o processo de adição de deslocamento de cor, processo de adição de pontilhamento espacial, processo de adição de pontilhamento temporal, processo de reprodução de passo inter-pixel ou processo de reprodução de arranjo de barras. Então, uma imagem aparente sobre um PDP pode ser reproduzida usando um visor diferente de um PDP, tal como, por exemplo, um LCD, executando um processamento de sinal.
Também, a reprodução é efetuada executando processamento de sinal, pelo qual a avaliação da qualidade de imagem ou similar de um visor de plasma pode ser efetuada ao mesmo tempo na mesma tela do mesmo monitor.
A seguir, uma porção da série de processos descritos acima pode ser executada por hardware dedicado ou pode ser executada por software. Em um caso em que a série de processos é executada por software, um programa constituindo o software é instalado em um computador de finalidade geral ou similar.
Então, Figura 126 ilustra um exemplo de estrutura de uma realização de um computador, no qual um programa que executa a série de processos descrita acima é instalado.
O programa pode ser gravado antecipadamente em um disco rígido 30105 ou uma ROM 30103 servindo como um meio de gravação incorporado em um computador.
Alternativamente, o programa pode ser temporariamente ou permanentemente armazenado (gravado) em um meio de gravação removível 30111 tal como um disco flexível, uma CD-ROM (Memória de Somente Leitura de Disco Compacto), um disco MO (Magnético Óptico), um DVD (Disco Versátil Digital), um disco magnético ou uma memória de semicondutor. O meio de gravação removível 30111 deste tipo pode ser provido como assim chamado software empacotado.
Notar que o programa pode ser, além de instalado no computador a partir do meio de gravação removível 30111 conforme descrito 5 acima, transferido para o computador a partir de um sítio de transferência de um modo sem fio, via satélite, para radiodifusão via satélite digital ou transferido para o computador com fio através de uma rede tal como uma LAN (Rede de Área Local) ou a Internet. No computador, o programa transferido de tal maneira pode ser recebido por uma unidade de comunicação 10 30108 e instalado no disco rígido 30105 incorporado nele.
O computador incorpora uma CPU (Unidade de Processamento Central) 30102. A CPU 30102 é conectada a uma interface entrada/saída 30110 através de um barramento 30101. Quando uma instrução é inserida por um usuário através de uma operação ou similar de uma unidade 15 de entrada 30107 construída com um teclado, um mouse, um microfone e similar via interface entrada/saída 30110, a CPU 30102 executa um programa armazenado na ROM (Memória de Somente Leitura) 30103 de acordo com a instrução. Alternativamente, a CPU 30102 carrega em uma RAM (Memória de Acesso Randômico) 30104 um programa armazenado no disco rígido 20 30105, um programa que é transferido de um satélite ou uma rede, recebido pela unidade de comunicação 30108, e instalado no disco rígido 30105, ou um programa que é lido a partir do meio de gravação removível 30111 montado em um controlador 30109 e instalado no disco rígido 30105, e executa o programa. Conseqüentemente, a CPU 30102 executa os processos de acordo 25 com os fluxogramas descritos acima ou os processos executados pela estrutura dos diagramas em blocos descritos acima. Então, a CPU 30102 faz com que este resultado de processamento seja, de acordo com a necessidade, por exemplo, emitido a partir de uma unidade de saída 30106 construída com um LCD (Visor de Cristal Líquido), um alto-falante e similar via interface entrada/saída 30110, enviado a partir da unidade de comunicação 30108 ou gravado ou similar no disco rígido 30105.
Aqui, nesta especificação, etapas de processamento descrevendo um programa para fazer com que o computador execute vários 5 processos, pode não ser necessariamente processado na seqüência de tempo de acordo com a ordem descrita nos fluxogramas, e incluir processos executados em paralelo ou individualmente (por exemplo, processos paralelos ou processos baseados em objeto).
Adicionalmente, o programa pode ser processado em um computador ou processado de um modo distribuído por diversos computadores. Ainda mais, o programa pode ser transferido para um computador remoto e executado por ele.
Notar que realizações da presente invenção não estão limitadas às realizações descritas acima, e uma variedade de modificações pode ser feita, sem se afastar do escopo da presente invenção.

Claims (8)

1. Aparelho de controle de exibição para controlar a exibição de uma imagem, caracterizado pelo fato de compreender: meio de processamento de sinal para executar um processo de sinal predeterminado em dados de imagem de entrada; e meio de controle de exibição para fazer com que uma imagem correspondente aos dados de imagem de entrada seja exibida em uma região de exibição de um aparelho de exibição possuindo uma tela com um número maior de pixéis do que o número de pixéis dos dados de imagem de entrada, a região de exibição sendo uma parte da tela, e fazer com que uma imagem correspondente a dados de imagem processados obtidos pelo processo de sinal predeterminado, seja exibida em uma região de exibição que é uma outra parte da tela.
2. Aparelho de controle de exibição de acordo com a reivindicação 1, caracterizado pelo fato de que o meio de processamento de sinal efetua um processo de sinal para gerar, como os dados de imagem processados, dados de imagem para exibir no aparelho de exibição uma imagem equivalente à imagem correspondente aos dados de imagem de entrada a serem exibidos em um outro aparelho de exibição possuindo uma característica de exibição diferente daquela do aparelho de exibição.
3. Aparelho de controle de exibição de acordo com a reivindicação 2, caracterizado pelo fato de que o outro aparelho de exibição é um aparelho que exibe uma imagem usando um PDP (Painel de Exibição em Plasma) ou CRT (Tubo de Raios Catódicos).
4. Aparelho de controle de exibição de acordo com a reivindicação 1, caracterizado pelo fato de que o meio de processamento de sinal executa um processo de sinal equivalente a um processo ao qual os dados de imagem de entrada são submetidos quando um outro aparelho de exibição exibe a imagem.
5. Aparelho de controle de exibição de acordo com a reivindicação 4, caracterizado pelo fato de que o meio de processamento de sinal executa um processo de sinal equivalente a um processo de reforço para reforçar uma porção de uma imagem, um processo de correção de gama adaptativo para efetuar correção de gama adaptativa, ou um processo de alta taxa de quadro para gerar dados de imagem de alta taxa de quadro, aos quais os dados de imagem são submetidos quando o outro aparelho de exibição exibe uma imagem.
6. Aparelho de controle de exibição de acordo com a reivindicação 1, caracterizado pelo fato de que o meio de processamento de sinal executa um processo de sinal equivalente a um processo para magnificar uma imagem ou um processo para interpolar um quadro, que é efetuado por um outro aparelho de exibição.
7. Método de controle de exibição para controlar a exibição de uma imagem, caracterizado pelo fato de compreender as etapas de: executar um processo de sinal predeterminado em dados de imagem de entrada; e fazer com que uma imagem correspondente aos dados de imagem de entrada seja exibida em uma região de exibição de um aparelho de exibição possuindo uma tela com um número maior de pixéis do que o número de pixéis dos dados de imagem de entrada, a região de exibição sendo uma parte da tela, e fazer com que uma imagem correspondente a dados de imagem processados obtidos pelo processo de sinal predeterminado, seja exibida em uma região de exibição que é uma outra parte da tela.
8. Programa para fazer com que um computador execute um processo de controle de exibição para controlar a exibição de uma imagem, o programa fazendo com que o computador execute o processo de controle de exibição, caracterizado pelo fato de compreender as etapas de: executar um processo de sinal predeterminado em dados de imagem de entrada; e fazer com que uma imagem correspondente aos dados de imagem de entrada seja exibida em uma região de exibição de um aparelho de exibição possuindo uma tela com um número maior de pixéis do que o número de pixéis dos dados de imagem de entrada, a região de exibição sendo uma parte da tela, e fazer com que uma imagem correspondente a dados de imagem processados obtidos pelo processo de sinal predeterminado, seja exibida em uma região de exibição que é uma outra parte da tela.
BRPI0720516-3A 2006-12-18 2007-12-18 Aparelho e método de controle de exibição para controlar a exibição de uma imagem, e, programa para fazer com que um computador execute um processo de controle de exibição BRPI0720516A2 (pt)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
JP2006340080 2006-12-18
JP2006-340080 2006-12-18
JP2007-288456 2007-11-06
JP2007288456A JP2008178075A (ja) 2006-12-18 2007-11-06 表示制御装置、表示制御方法、及びプログラム
PCT/JP2007/074259 WO2008075657A1 (ja) 2006-12-18 2007-12-18 表示制御装置、表示制御方法、及びプログラム

Publications (1)

Publication Number Publication Date
BRPI0720516A2 true BRPI0720516A2 (pt) 2013-12-31

Family

ID=39536287

Family Applications (1)

Application Number Title Priority Date Filing Date
BRPI0720516-3A BRPI0720516A2 (pt) 2006-12-18 2007-12-18 Aparelho e método de controle de exibição para controlar a exibição de uma imagem, e, programa para fazer com que um computador execute um processo de controle de exibição

Country Status (11)

Country Link
US (1) US20100026722A1 (pt)
EP (1) EP2101313A4 (pt)
JP (1) JP2008178075A (pt)
KR (1) KR20090090346A (pt)
CN (1) CN101563725B (pt)
AU (1) AU2007335486B2 (pt)
BR (1) BRPI0720516A2 (pt)
IN (1) IN2009CN02592A (pt)
RU (1) RU2450366C2 (pt)
TW (1) TWI385636B (pt)
WO (1) WO2008075657A1 (pt)

Families Citing this family (63)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7738712B2 (en) * 2006-01-04 2010-06-15 Aten International Co., Ltd. Mixing 2-D gradient-difference and interpolation/decimation method and device for scaling a digital image
JP4835949B2 (ja) * 2007-12-21 2011-12-14 ソニー株式会社 画像処理装置および方法、学習装置および方法、プログラム、並びに記録媒体
TWI410119B (zh) * 2008-11-18 2013-09-21 Innolux Corp 應用3d對照表以進行四面體內插之色彩管理系統及其方法
US8071943B2 (en) * 2009-02-04 2011-12-06 Advantest Corp. Mask inspection apparatus and image creation method
JP5268146B2 (ja) * 2009-02-11 2013-08-21 Eizo株式会社 表示ムラの再現方法及び表示装置
US20120223881A1 (en) * 2009-11-11 2012-09-06 Sharp Kabushiki Kaisha Display device, display control circuit, and display control method
CN102713999B (zh) 2010-01-20 2016-01-20 株式会社半导体能源研究所 电子设备和电子系统
US8654250B2 (en) * 2010-03-30 2014-02-18 Sony Corporation Deriving visual rhythm from video signals
US20130016138A1 (en) * 2010-04-09 2013-01-17 Sharp Kabushiki Kaisha Display panel driving method, display device driving circuit, and display device
WO2011132235A1 (ja) * 2010-04-23 2011-10-27 Necディスプレイソリューションズ株式会社 表示装置、表示システム、表示方法およびプログラム
US9053562B1 (en) 2010-06-24 2015-06-09 Gregory S. Rabin Two dimensional to three dimensional moving image converter
JP5398667B2 (ja) * 2010-08-23 2014-01-29 株式会社東芝 画像処理装置
KR20120058763A (ko) * 2010-11-30 2012-06-08 삼성전자주식회사 영상 장치에서 영상 데이터를 송신하기 위한 장치 및 방법
WO2012108337A1 (ja) * 2011-02-10 2012-08-16 シャープ株式会社 マルチディスプレイ装置及び画像表示装置
US20130066452A1 (en) * 2011-09-08 2013-03-14 Yoshiyuki Kobayashi Information processing device, estimator generating method and program
CN104106079A (zh) 2011-09-09 2014-10-15 帕那莫夫公司 图像处理系统和方法
US9013502B2 (en) * 2011-12-29 2015-04-21 Tektronix, Inc. Method of viewing virtual display outputs
US20130282917A1 (en) * 2012-04-24 2013-10-24 Vid Scale, Inc. Method and apparatus for smooth stream switching in mpeg/3gpp-dash
MX346174B (es) 2012-07-26 2017-03-10 Depuy Synthes Products Inc Esquema de iluminacion pulsada ycbcr en un entorno deficiente de luz.
AU2013295553B2 (en) 2012-07-26 2017-10-19 DePuy Synthes Products, Inc. Continuous video in a light deficient environment
US20140028726A1 (en) * 2012-07-30 2014-01-30 Nvidia Corporation Wireless data transfer based spanning, extending and/or cloning of display data across a plurality of computing devices
US9143823B2 (en) 2012-10-01 2015-09-22 Google Inc. Providing suggestions for optimizing videos to video owners
AU2014233464B2 (en) 2013-03-15 2018-11-01 DePuy Synthes Products, Inc. Scope sensing in a light controlled environment
EP3459431A1 (en) 2013-03-15 2019-03-27 DePuy Synthes Products, Inc. Controlling the integral light energy of a laser pulse
AU2014233515B2 (en) 2013-03-15 2018-11-01 DePuy Synthes Products, Inc. Super resolution and color motion artifact correction in a pulsed color imaging system
CN104981847B (zh) * 2013-03-26 2017-07-04 夏普株式会社 显示装置、电视接收机、以及显示方法
KR102025184B1 (ko) * 2013-07-31 2019-09-25 엘지디스플레이 주식회사 데이터 변환 장치 및 이를 이용한 디스플레이 장치
JP2015088828A (ja) * 2013-10-29 2015-05-07 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム
US9349160B1 (en) * 2013-12-20 2016-05-24 Google Inc. Method, apparatus and system for enhancing a display of video data
KR102185249B1 (ko) * 2014-01-20 2020-12-02 삼성디스플레이 주식회사 표시 장치 및 그 구동 방법
US9930349B2 (en) * 2014-02-20 2018-03-27 Konica Minolta Laboratory U.S.A., Inc. Image processing to retain small color/gray differences
KR20150100998A (ko) * 2014-02-24 2015-09-03 삼성디스플레이 주식회사 영상처리장치 및 영상처리방법
EP3119265B1 (en) 2014-03-21 2019-09-11 DePuy Synthes Products, Inc. Card edge connector for an imaging sensor
US20170038838A1 (en) * 2014-05-09 2017-02-09 Sony Corporation Information processing system and information processing method
JP6078038B2 (ja) * 2014-10-31 2017-02-08 株式会社Pfu 画像処理装置、画像処理方法、および、プログラム
US9401107B2 (en) * 2014-12-31 2016-07-26 Shenzhen China Star Optoelectronics Technology Co., Ltd. Image data processing method and device thereof
WO2016110943A1 (ja) * 2015-01-06 2016-07-14 日立マクセル株式会社 映像表示装置、映像表示方法、及び映像表示システム
JP6597041B2 (ja) * 2015-08-18 2019-10-30 富士ゼロックス株式会社 サーバー装置及び情報処理システム
CN105072430B (zh) * 2015-08-19 2017-10-03 海信集团有限公司 一种调整投影图像的方法和设备
CN105611213A (zh) * 2016-01-04 2016-05-25 京东方科技集团股份有限公司 一种图像处理方法、播放方法及相关的装置和系统
KR102468329B1 (ko) * 2016-01-22 2022-11-18 삼성디스플레이 주식회사 액정 표시 장치 및 이의 구동 방법
US10448912B2 (en) * 2016-04-06 2019-10-22 Canon Medical Systems Corporation Image processing apparatus
KR102208872B1 (ko) * 2016-08-26 2021-01-28 삼성전자주식회사 디스플레이 장치 및 그 구동 방법
CN106205460B (zh) * 2016-09-29 2018-11-23 京东方科技集团股份有限公司 显示装置的驱动方法、时序控制器和显示装置
US10395584B2 (en) * 2016-11-22 2019-08-27 Planar Systems, Inc. Intensity scaled dithering pulse width modulation
US10269279B2 (en) * 2017-03-24 2019-04-23 Misapplied Sciences, Inc. Display system and method for delivering multi-view content
US20200021832A1 (en) * 2017-03-24 2020-01-16 Sony Corporation Encoding apparatus and encoding method as well as decoding apparatus and decoding method
KR102390476B1 (ko) * 2017-08-03 2022-04-25 엘지디스플레이 주식회사 유기발광 표시장치 및 유기발광 표시장치의 데이터 처리방법
KR102442449B1 (ko) * 2017-09-01 2022-09-14 삼성전자주식회사 영상 처리 장치, 영상 처리 방법 및 컴퓨터 판독가능 기록 매체
CN109493809B (zh) * 2017-09-12 2021-01-01 纬创资通(中山)有限公司 显示装置以及背光驱动方法
JP2019090858A (ja) * 2017-11-10 2019-06-13 キヤノン株式会社 表示装置、表示制御装置及び表示制御方法
DE112019007195T5 (de) * 2019-04-12 2022-03-31 Mitsubishi Electric Corporation Anzeigesteuerungseinrichtung, anzeigesteuerungsverfahren und anzeigesteuerungsprogramm
KR102673772B1 (ko) * 2019-07-29 2024-06-12 삼성디스플레이 주식회사 영상 보정부를 포함하는 표시장치
CN110572595B (zh) * 2019-08-28 2022-08-30 深圳Tcl数字技术有限公司 激光电视的调整方法、激光电视及可读存储介质
CN110674433B (zh) * 2019-09-25 2022-05-06 博锐尚格科技股份有限公司 一种图表显示方法、存储介质及电子设备
US11357087B2 (en) * 2020-07-02 2022-06-07 Solomon Systech (Shenzhen) Limited Method for driving a passive matrix LED display
CN114205658A (zh) * 2020-08-27 2022-03-18 西安诺瓦星云科技股份有限公司 图像显示方法、装置、系统以及计算机可读存储介质
US11508273B2 (en) * 2020-11-12 2022-11-22 Synaptics Incorporated Built-in test of a display driver
CN112817548B (zh) * 2021-01-28 2022-08-12 浙江大华技术股份有限公司 电子设备、显示控制方法、显示方法、装置和存储介质
CN112985616B (zh) * 2021-05-06 2021-10-22 北京泽声科技有限公司 一种具有多种配置方案的人体红外线感应信号处理系统
CN113314085B (zh) * 2021-06-15 2022-09-27 武汉华星光电技术有限公司 显示面板的显示方法及显示装置
US20230338841A1 (en) * 2022-04-26 2023-10-26 Sony Interactive Entertainment Inc. Foveated enhancement of non-xr games within a hmd system
CN116684687B (zh) * 2023-08-01 2023-10-24 蓝舰信息科技南京有限公司 基于数字孪生技术的增强可视化教学方法

Family Cites Families (52)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR2549671B1 (fr) * 1983-07-22 1987-05-22 Thomson Csf Dispositif d'affichage d'une image de television de grandes dimensions et recepteur de television comportant un tel dispositif
JPS61167280A (ja) 1985-01-19 1986-07-28 Sony Corp テレビ受像機における速度変調回路の制御回路
US5012333A (en) * 1989-01-05 1991-04-30 Eastman Kodak Company Interactive dynamic range adjustment system for printing digital images
JP3152396B2 (ja) * 1990-09-04 2001-04-03 株式会社東芝 医用画像表示装置
DE4418782C2 (de) * 1993-05-21 1997-01-09 Mitsubishi Electric Corp System und Verfahren zum Einstellen eines Farbbildes
JP3271101B2 (ja) 1993-09-21 2002-04-02 ソニー株式会社 ディジタル画像信号処理装置および処理方法
JPH0823460A (ja) 1994-07-11 1996-01-23 Fujitsu General Ltd ダイナミックガンマ補正回路
US5515488A (en) * 1994-08-30 1996-05-07 Xerox Corporation Method and apparatus for concurrent graphical visualization of a database search and its search history
JPH0876741A (ja) * 1994-09-02 1996-03-22 Konica Corp 画像表示装置
US5982953A (en) * 1994-09-02 1999-11-09 Konica Corporation Image displaying apparatus of a processed image from temporally sequential images
JP3500748B2 (ja) 1994-11-30 2004-02-23 ソニー株式会社 カラーブラウン管色温度設定装置
US5940089A (en) * 1995-11-13 1999-08-17 Ati Technologies Method and apparatus for displaying multiple windows on a display monitor
JP3344197B2 (ja) * 1996-03-08 2002-11-11 株式会社日立製作所 映像信号の処理装置及びこれを用いた表示装置
US6525734B2 (en) * 1996-09-17 2003-02-25 Fujitsu Limited Display control apparatus, display control method and computer program product
JP3586351B2 (ja) * 1997-03-21 2004-11-10 インターナショナル・ビジネス・マシーンズ・コーポレーション ウインドウ表示装置および方法、並びにウインドウ表示制御プログラムを記録した記録媒体
US6005636A (en) * 1997-03-27 1999-12-21 Sharp Laboratories Of America, Inc. System for setting user-adjustable image processing parameters in a video system
US6809776B1 (en) * 1997-04-23 2004-10-26 Thomson Licensing S.A. Control of video level by region and content of information displayed
EP0891075A3 (en) * 1997-06-09 2002-03-06 Seiko Epson Corporation An image processing apparatus and method, and an image evaluation device and method
DE69841390D1 (de) * 1997-07-24 2010-01-28 Panasonic Corp Bildanzeigevorrichtung und Bildbewertungseinrichtung
JP3425083B2 (ja) * 1997-07-24 2003-07-07 松下電器産業株式会社 画像表示装置及び画像評価装置
JP2000039864A (ja) 1998-07-24 2000-02-08 Matsushita Electric Ind Co Ltd 動画像表示方法及び動画像表示装置
EP1039745B1 (en) 1998-08-14 2003-10-15 Sony Corporation Scanning speed modulating circuit for picture display
JP3582382B2 (ja) * 1998-11-13 2004-10-27 株式会社日立製作所 マルチディスプレイ装置の表示制御装置、表示装置及びマルチディスプレイ装置
JP2000310987A (ja) * 1999-04-28 2000-11-07 Mitsubishi Electric Corp 画像表示装置
JP2000338941A (ja) * 1999-05-27 2000-12-08 Seiko Epson Corp 投射型表示装置
JP4114279B2 (ja) * 1999-06-25 2008-07-09 コニカミノルタビジネステクノロジーズ株式会社 画像処理装置
JP3622834B2 (ja) 1999-11-08 2005-02-23 Kddi株式会社 画像の客観評価用モニタ装置
JP2001202053A (ja) * 1999-11-09 2001-07-27 Matsushita Electric Ind Co Ltd 表示装置及び情報携帯端末
JP3526019B2 (ja) * 1999-11-30 2004-05-10 インターナショナル・ビジネス・マシーンズ・コーポレーション 画像表示システム、画像表示装置、および画像表示方法
JP4920834B2 (ja) * 2000-06-26 2012-04-18 キヤノン株式会社 画像表示装置、及び画像表示装置の駆動方法
US6985637B1 (en) * 2000-11-10 2006-01-10 Eastman Kodak Company Method and apparatus of enhancing a digital image using multiple selected digital images
JP4507046B2 (ja) 2001-01-25 2010-07-21 ソニー株式会社 データ処理装置およびデータ処理方法、並びにプログラムおよび記録媒体
JP2002232905A (ja) 2001-01-30 2002-08-16 Sony Corp 色度変換装置および色度変換方法、表示装置および表示方法、記録媒体、並びにプログラム
JP2002354367A (ja) * 2001-05-25 2002-12-06 Canon Inc マルチ画面表示装置、マルチ画面表示方法、記録媒体、及びプログラム
JP3934363B2 (ja) 2001-05-28 2007-06-20 Necビューテクノロジー株式会社 ガンマ補正回路
JP3927995B2 (ja) * 2001-12-27 2007-06-13 ソニー株式会社 画像表示制御装置と画像表示制御方法及び撮像装置
JP2003319933A (ja) * 2002-05-01 2003-11-11 Fuji Photo Film Co Ltd 画像表示システム
JP2004039300A (ja) 2002-06-28 2004-02-05 Sony Corp 陰極線管用電子銃及び陰極線管
JP4325171B2 (ja) 2002-10-17 2009-09-02 パナソニック株式会社 画像表示装置
JP4032355B2 (ja) * 2003-03-27 2008-01-16 カシオ計算機株式会社 表示処理装置、表示制御方法および表示処理プログラム
JP4369151B2 (ja) * 2003-03-31 2009-11-18 セイコーエプソン株式会社 画像処理装置および画像処理方法並びにこれらに用いるプログラム
NO20031586L (no) * 2003-04-08 2004-10-11 Favourite Systems As Vindussystem for datainnretning
US7034776B1 (en) * 2003-04-08 2006-04-25 Microsoft Corporation Video division detection methods and systems
KR20050008391A (ko) 2003-07-15 2005-01-21 삼성전자주식회사 화질개선장치 및 그 방법
JP2005229245A (ja) 2004-02-12 2005-08-25 Matsushita Electric Ind Co Ltd 映像信号処理装置
JP4512978B2 (ja) 2004-02-19 2010-07-28 ソニー株式会社 画像処理装置および画像処理方法、プログラム、並びに記録媒体
US7777691B1 (en) * 2004-03-05 2010-08-17 Rockwell Collins, Inc. System and method for driving multiple tiled displays from a single digital video source
EP1724754A4 (en) * 2004-03-10 2008-05-07 Matsushita Electric Ind Co Ltd IMAGE TRANSMISSION SYSTEM AND IMAGE TRANSMISSION PROCESS
JP4281593B2 (ja) * 2004-03-24 2009-06-17 セイコーエプソン株式会社 プロジェクタの制御
US7487118B2 (en) * 2005-05-06 2009-02-03 Crutchfield Corporation System and method of image display simulation
US7882442B2 (en) * 2007-01-05 2011-02-01 Eastman Kodak Company Multi-frame display system with perspective based image arrangement
TW200915217A (en) * 2007-09-20 2009-04-01 Awind Inc Method for detecting and replaying an image region of computer picture

Also Published As

Publication number Publication date
KR20090090346A (ko) 2009-08-25
CN101563725B (zh) 2013-01-23
CN101563725A (zh) 2009-10-21
RU2450366C2 (ru) 2012-05-10
IN2009CN02592A (pt) 2015-08-07
TWI385636B (zh) 2013-02-11
EP2101313A1 (en) 2009-09-16
AU2007335486B2 (en) 2012-12-20
EP2101313A4 (en) 2010-12-29
AU2007335486A1 (en) 2008-06-26
WO2008075657A1 (ja) 2008-06-26
US20100026722A1 (en) 2010-02-04
RU2009123156A (ru) 2010-12-27
JP2008178075A (ja) 2008-07-31
TW200844975A (en) 2008-11-16

Similar Documents

Publication Publication Date Title
BRPI0720516A2 (pt) Aparelho e método de controle de exibição para controlar a exibição de uma imagem, e, programa para fazer com que um computador execute um processo de controle de exibição
US6097368A (en) Motion pixel distortion reduction for a digital display device using pulse number equalization
KR100289534B1 (ko) 플라즈마표시패널의계조표시방법및장치
US20030063107A1 (en) Method and apparatus for processing video pictures
EP1288893A2 (en) Method and device for displaying image
US7483084B2 (en) Image display apparatus and image display method
US8970636B2 (en) System and method for color correction between displays with and without average picture dependency
KR100799893B1 (ko) 서브-필드들에서 영상을 디스플레이하기 위한 방법 및 유닛
RU2426176C2 (ru) Устройство обработки сигнала изображения
AU2007335487B2 (en) Image signal processing device, image signal processing method, and program
TW535125B (en) Stereoscopic plasma display and interleaving of fields
KR20020025881A (ko) 서브-필드들 내의 영상을 디스플레이하기 위한 방법 및 유닛
TWI415461B (zh) 顯示裝置上所顯示視頻資料之處理方法和裝置
US6525702B1 (en) Method of and unit for displaying an image in sub-fields
Forchhammer et al. HDR display characterization and modeling
US20240161706A1 (en) Display management with position-varying adaptivity to ambient light and/or non-display-originating surface light
Stevens Plasma displays

Legal Events

Date Code Title Description
B08F Application dismissed because of non-payment of annual fees [chapter 8.6 patent gazette]

Free format text: REFERENTE A 4A ANUIDADE.

B08K Patent lapsed as no evidence of payment of the annual fee has been furnished to inpi [chapter 8.11 patent gazette]

Free format text: REFERENTE AO DESPACHO 8.6 PUBLICADO NA RPI 2277 DE 26/08/2014.