WO2008075657A1 - 表示制御装置、表示制御方法、及びプログラム - Google Patents

表示制御装置、表示制御方法、及びプログラム Download PDF

Info

Publication number
WO2008075657A1
WO2008075657A1 PCT/JP2007/074259 JP2007074259W WO2008075657A1 WO 2008075657 A1 WO2008075657 A1 WO 2008075657A1 JP 2007074259 W JP2007074259 W JP 2007074259W WO 2008075657 A1 WO2008075657 A1 WO 2008075657A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
unit
image data
display
processing
Prior art date
Application number
PCT/JP2007/074259
Other languages
English (en)
French (fr)
Inventor
Tetsujiro Kondo
Original Assignee
Sony Corporation
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corporation filed Critical Sony Corporation
Priority to AU2007335486A priority Critical patent/AU2007335486B2/en
Priority to CN2007800466052A priority patent/CN101563725B/zh
Priority to US12/517,558 priority patent/US20100026722A1/en
Priority to IN2592CHN2009 priority patent/IN2009CN02592A/en
Priority to BRPI0720516-3A priority patent/BRPI0720516A2/pt
Priority to EP07850747A priority patent/EP2101313A4/en
Publication of WO2008075657A1 publication Critical patent/WO2008075657A1/ja

Links

Classifications

    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G3/00Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
    • G09G3/20Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes for presentation of an assembly of a number of characters, e.g. a page, by composing the assembly by combination of individual elements arranged in a matrix no fixed position being assigned to or needed to be assigned to the individual characters or partial characters
    • G09G3/34Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes for presentation of an assembly of a number of characters, e.g. a page, by composing the assembly by combination of individual elements arranged in a matrix no fixed position being assigned to or needed to be assigned to the individual characters or partial characters by control of light from an independent source
    • G09G3/36Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes for presentation of an assembly of a number of characters, e.g. a page, by composing the assembly by combination of individual elements arranged in a matrix no fixed position being assigned to or needed to be assigned to the individual characters or partial characters by control of light from an independent source using liquid crystals
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G1/00Control arrangements or circuits, of interest only in connection with cathode-ray tube indicators; General aspects or details, e.g. selection emphasis on particular characters, dashed line or dotted line generation; Preprocessing of data
    • G09G1/002Intensity circuits
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G3/00Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
    • G09G3/20Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes for presentation of an assembly of a number of characters, e.g. a page, by composing the assembly by combination of individual elements arranged in a matrix no fixed position being assigned to or needed to be assigned to the individual characters or partial characters
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G3/00Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
    • G09G3/20Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes for presentation of an assembly of a number of characters, e.g. a page, by composing the assembly by combination of individual elements arranged in a matrix no fixed position being assigned to or needed to be assigned to the individual characters or partial characters
    • G09G3/2007Display of intermediate tones
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/02Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the way in which colour is displayed
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/36Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
    • G09G5/363Graphics controllers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N17/00Diagnosis, testing or measuring for television systems or their details
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N17/00Diagnosis, testing or measuring for television systems or their details
    • H04N17/004Diagnosis, testing or measuring for television systems or their details for digital television systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N17/00Diagnosis, testing or measuring for television systems or their details
    • H04N17/04Diagnosis, testing or measuring for television systems or their details for receivers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/431Generation of visual interfaces for content selection or interaction; Content or additional data rendering
    • H04N21/4312Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations
    • H04N21/4314Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations for fitting data in a restricted space on the screen, e.g. EPG data in a rectangular grid
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream, rendering scenes according to MPEG-4 scene graphs
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream, rendering scenes according to MPEG-4 scene graphs
    • H04N21/4402Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream, rendering scenes according to MPEG-4 scene graphs involving reformatting operations of video signals for household redistribution, storage or real-time display
    • H04N21/440263Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream, rendering scenes according to MPEG-4 scene graphs involving reformatting operations of video signals for household redistribution, storage or real-time display by altering the spatial resolution, e.g. for displaying on a connected PDA
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream, rendering scenes according to MPEG-4 scene graphs
    • H04N21/4402Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream, rendering scenes according to MPEG-4 scene graphs involving reformatting operations of video signals for household redistribution, storage or real-time display
    • H04N21/440281Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream, rendering scenes according to MPEG-4 scene graphs involving reformatting operations of video signals for household redistribution, storage or real-time display by altering the temporal resolution, e.g. by frame skipping
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G1/00Control arrangements or circuits, of interest only in connection with cathode-ray tube indicators; General aspects or details, e.g. selection emphasis on particular characters, dashed line or dotted line generation; Preprocessing of data
    • G09G1/04Deflection circuits ; Constructional details not otherwise provided for
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2300/00Aspects of the constitution of display devices
    • G09G2300/04Structural and physical details of display devices
    • G09G2300/0439Pixel structures
    • G09G2300/0443Pixel structures with several sub-pixels for the same colour in a pixel, not specifically used to display gradations
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2300/00Aspects of the constitution of display devices
    • G09G2300/04Structural and physical details of display devices
    • G09G2300/0439Pixel structures
    • G09G2300/0452Details of colour pixel setup, e.g. pixel composed of a red, a blue and two green components
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2320/00Control of display operating conditions
    • G09G2320/08Arrangements within a display terminal for setting, manually or automatically, display parameters of the display terminal
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2320/00Control of display operating conditions
    • G09G2320/10Special adaptations of display systems for operation with variable images
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2320/00Control of display operating conditions
    • G09G2320/10Special adaptations of display systems for operation with variable images
    • G09G2320/103Detection of image changes, e.g. determination of an index representative of the image change
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2320/00Control of display operating conditions
    • G09G2320/10Special adaptations of display systems for operation with variable images
    • G09G2320/106Determination of movement vectors or equivalent parameters within the image
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/04Changes in size, position or resolution of an image
    • G09G2340/0407Resolution change, inclusive of the use of different resolutions for different screen areas
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/04Changes in size, position or resolution of an image
    • G09G2340/0407Resolution change, inclusive of the use of different resolutions for different screen areas
    • G09G2340/0435Change or adaptation of the frame rate of the video stream
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/10Mixing of images, i.e. displayed pixel being the result of an operation, e.g. adding, on the corresponding input pixels
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2360/00Aspects of the architecture of display systems
    • G09G2360/06Use of more than one graphics processor to process data before displaying to one or more screens
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2360/00Aspects of the architecture of display systems
    • G09G2360/16Calculation or use of calculated indices related to luminance levels in display data
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2360/00Aspects of the architecture of display systems
    • G09G2360/18Use of a frame buffer in a display terminal, inclusive of the display panel
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G3/00Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
    • G09G3/20Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes for presentation of an assembly of a number of characters, e.g. a page, by composing the assembly by combination of individual elements arranged in a matrix no fixed position being assigned to or needed to be assigned to the individual characters or partial characters
    • G09G3/2007Display of intermediate tones
    • G09G3/2018Display of intermediate tones by time modulation using two or more time intervals
    • G09G3/2022Display of intermediate tones by time modulation using two or more time intervals using sub-frames
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G3/00Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
    • G09G3/20Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes for presentation of an assembly of a number of characters, e.g. a page, by composing the assembly by combination of individual elements arranged in a matrix no fixed position being assigned to or needed to be assigned to the individual characters or partial characters
    • G09G3/2007Display of intermediate tones
    • G09G3/2044Display of intermediate tones using dithering
    • G09G3/2051Display of intermediate tones using dithering with use of a spatial dither pattern
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G3/00Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
    • G09G3/20Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes for presentation of an assembly of a number of characters, e.g. a page, by composing the assembly by combination of individual elements arranged in a matrix no fixed position being assigned to or needed to be assigned to the individual characters or partial characters
    • G09G3/2007Display of intermediate tones
    • G09G3/2059Display of intermediate tones using error diffusion
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G3/00Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
    • G09G3/20Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes for presentation of an assembly of a number of characters, e.g. a page, by composing the assembly by combination of individual elements arranged in a matrix no fixed position being assigned to or needed to be assigned to the individual characters or partial characters
    • G09G3/2007Display of intermediate tones
    • G09G3/2059Display of intermediate tones using error diffusion
    • G09G3/2062Display of intermediate tones using error diffusion using error diffusion in time
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/44Receiver circuitry for the reception of television signals according to analogue transmission standards
    • H04N5/445Receiver circuitry for the reception of television signals according to analogue transmission standards for displaying additional information
    • H04N5/45Picture in picture, e.g. displaying simultaneously another television channel in a region of the screen
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/01Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level
    • H04N7/0127Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level by changing the field or frame frequency of the incoming video signal, e.g. frame rate converter
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/01Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level
    • H04N7/0135Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level involving interpolation processes
    • H04N7/0145Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level involving interpolation processes the interpolation being class adaptive, i.e. it uses the information of class which is determined for a pixel based upon certain characteristics of the neighbouring pixels

Definitions

  • Display control apparatus display control method, and program
  • the present invention relates to a display control device, a display control method, and a program. In particular, for example, it is possible to check an image displayed on a broadcast side of a television broadcast!
  • the present invention relates to a display control device, a display control method, and a program.
  • Patent Document 1 Japanese Patent Laid-Open No. 2001-136548
  • a high performance display device that is, a display device having a larger screen than a display device for checking, for example, has come to be viewed!
  • a display control apparatus is a display control apparatus that controls display of an image, and includes signal processing means that performs predetermined signal processing on input image data, and the input image data.
  • An image corresponding to the input image data is displayed in a display area of a part of the screen of a display device having a screen having a number of pixels larger than the number of pixels, and the display part of the other part of the screen displays the image.
  • a display control method or program is a display control method for controlling display of an image or a program for causing a computer to execute display control processing, and targets input image data. And performing predetermined signal processing to display an image corresponding to the input image data in a display area of a part of the screen of a display device having a screen having a number of pixels larger than the number of pixels of the input image data. And displaying an image corresponding to the processed image data obtained by the predetermined signal processing in another display area of the screen.
  • a part of the screen of the display device having a screen having a number of pixels larger than the number of pixels of the input image data, in which predetermined signal processing is performed on the input image data.
  • An image corresponding to the input image data is displayed in the display area, and the post-processed image data obtained by the predetermined signal processing is displayed in another part of the display area of the screen. An image is displayed.
  • the program may be transmitted through a transmission medium or recorded and provided on a recording medium.
  • an image can be displayed. Further, by checking the display, for example, an image displayed on the receiving side or the like can be checked.
  • FIG. 1 is a block diagram showing a configuration example of an embodiment of a monitor system to which the present invention is applied. is there.
  • FIG. 2 is a diagram showing a configuration example of a screen of display device 2.
  • FIG. 3 is a flowchart for explaining processing of the monitor system.
  • FIG. 4 is a block diagram showing a first configuration example of the signal processing unit 12.
  • FIG. 5 is a diagram showing a display example of the display device 2.
  • FIG. 6 is a diagram showing a display example of an image of mH X mV pixels.
  • FIG. 7] is a block diagram showing a second configuration example of the signal processing unit 12.
  • FIG. 8 is a diagram showing a display example of the display device 2.
  • FIG. 9 is a block diagram showing a third configuration example of the signal processing unit 12.
  • FIG. 10 is a diagram showing a display example of the display device 2.
  • FIG. 11 is a block diagram showing a fourth configuration example of the signal processing unit 12.
  • FIG. 12 is a diagram showing a display example of the display device 2.
  • FIG. 13 is a block diagram showing a fifth configuration example of the signal processing unit 12.
  • FIG. 14 is a diagram showing a display example of the display device 2.
  • FIG. 15 is a block diagram showing a sixth configuration example of the signal processing unit 12.
  • FIG. 16 is a diagram showing a display example of display device 2.
  • FIG. 17 is a diagram illustrating a pseudo inch image generation process.
  • FIG. 18 is a diagram illustrating a pseudo inch image generation process.
  • FIG. 19 A diagram illustrating a pseudo inch image generation process.
  • FIG. 20 is a flowchart for explaining processing of the display control apparatus 1 when displaying an image corresponding to n-inch pseudo-inch image data in the display area # 1.
  • FIG. 21 is a block diagram showing a seventh configuration example of the signal processing unit 12.
  • FIG. 22 is a diagram showing a display example of the display device 2;
  • FIG. 23 is a block diagram illustrating an eighth configuration example of the signal processing unit 12.
  • FIG. 24 is a diagram showing a display example of the display device 2.
  • FIG. 25 is a block diagram illustrating a configuration example of the image conversion apparatus 101 that performs image conversion processing using class classification adaptive processing.
  • FIG. 26 is a flowchart for explaining image conversion processing by the image conversion apparatus 101.
  • FIG. 27 is a block diagram illustrating a configuration example of a learning device 121 that learns tap coefficients.
  • FIG. 28 is a block diagram illustrating a configuration example of a learning unit 136 of the learning device 121.
  • FIG. 29 is a diagram for explaining various image conversion processes.
  • FIG. 30 is a flowchart for explaining learning processing by the learning device 121.
  • FIG. 31 is a block diagram illustrating a configuration example of an image conversion device 151 that performs image conversion processing using class classification adaptation processing.
  • FIG. 32 is a block diagram illustrating a configuration example of the coefficient output unit 155 of the image conversion apparatus 151.
  • FIG. 33 is a block diagram illustrating a configuration example of a learning device 171 that learns coefficient seed data.
  • FIG. 34 is a block diagram illustrating a configuration example of a learning unit 176 of the learning device 171.
  • 35] is a flowchart for explaining the learning process by the learning device 171.
  • FIG. 36 is a block diagram illustrating a configuration example of an embodiment of a computer to which the present invention has been applied.
  • FIG. 37 is a block diagram showing a configuration of an example of a conventional FPD display device.
  • FIG. 38 is a block diagram illustrating a configuration example of an embodiment of an image signal processing device included in an FPD display device.
  • FIG. 39 is a block diagram illustrating a configuration example of a CRT display device.
  • FIG. 40 is a flowchart for explaining processing of the image signal processing device.
  • FIG. 41 is a block diagram illustrating a configuration example of a VM processing unit 10034.
  • FIG. 42 is a diagram showing examples of VM coefficients.
  • FIG. 43 is a diagram illustrating a method for obtaining a VM coefficient.
  • FIG. 44 is a diagram showing the relationship between beam current and spot size.
  • Fig. 45 is a diagram showing a color identification mechanism.
  • FIG. 46 is a diagram showing electron beam spots.
  • FIG. 47 is a diagram showing electron beam spots.
  • FIG. 49 is a diagram showing an electron beam intensity distribution approximated by a two-dimensional normal distribution.
  • FIG. 50 is a diagram showing the intensity distribution of the electron beam passing through the slit of the aperture grill. is there.
  • FIG. 51 is a diagram showing an electron beam intensity distribution and an electron beam intensity distribution of the electron beams passing through the slits of the aperture grille.
  • FIG. 52 is a diagram showing an electron beam intensity distribution and an electron beam intensity distribution passing through the slit of the shadow mask among the electron beams.
  • FIG. 53 is a diagram showing an electron beam intensity distribution and an electron beam intensity distribution passing through the slit of the shadow mask among the electron beams.
  • Fig. 54 is a diagram illustrating the integration for obtaining the intensity of the electron beam passing through the slit.
  • FIG. 55 is a view showing a state where an electron beam is incident on an aperture grill as a color selection mechanism.
  • FIG. 56 is a diagram showing a pixel and an electron beam intensity distribution.
  • FIG. 57 is a diagram illustrating a configuration example of a circuit for obtaining an EB influence component.
  • FIG. 58 is a block diagram showing a configuration example of an EB processing unit 10220.
  • FIG. 59 is a block diagram showing another configuration example of the EB processing unit 10220.
  • FIG. 60 is a block diagram illustrating a configuration example of a portion that performs color temperature compensation processing of a CRT ⁇ processing unit 10035.
  • FIG. 61 is a block diagram showing another configuration example of the VM processing unit 10034.
  • FIG. 62 is a block diagram illustrating a configuration example of a luminance correction unit 10310.
  • FIG. 63 is a diagram for explaining luminance correction processing.
  • FIG. 64 is a block diagram showing another configuration example of the luminance correction unit 10310.
  • FIG. 65 is a flowchart for explaining a learning process for obtaining a tap coefficient as a VM coefficient.
  • FIG. 66 is a flowchart for describing learning processing for obtaining a class prediction coefficient.
  • FIG. 67 is a block diagram illustrating a configuration example of an embodiment of a computer.
  • FIG. 69 is a block diagram illustrating a configuration example of the motion detection unit 20100.
  • FIG. 70 is a diagram for explaining motion detection.
  • FIG. 71 is a diagram for explaining motion detection.
  • FIG. 72 is a block diagram showing a configuration example of a subfield developing unit 20200.
  • Fig. 73 is a diagram illustrating a configuration example of a subfield.
  • FIG. 74 is a diagram illustrating a configuration example of a subfield.
  • FIG. 75 is a block diagram illustrating a configuration example of a light amount integrating unit 20300.
  • FIG. 76 is a diagram for explaining the generation of a pseudo contour.
  • FIG. 77 is a diagram showing a light amount integration region.
  • FIG. 78 is a diagram showing a light amount integration region.
  • Second implementation of an image processing apparatus that uses a first display device to reproduce a state in which an image is displayed on a second display device having characteristics different from those of the first display device. It is a block diagram which shows the structural example of this form.
  • FIG. 80 is a block diagram illustrating a configuration example of a gradation conversion unit 20400.
  • FIG. 81 is a diagram for explaining the operation of the dither conversion circuit 20404.
  • Third embodiment of an image processing apparatus that uses a first display device to reproduce a state in which an image is displayed on a second display device having characteristics different from those of the first display device. It is a block diagram which shows the structural example of this form.
  • FIG. 84 is a block diagram illustrating a configuration example of a visual correction unit 20500.
  • FIG. 85 is a diagram for explaining the operation of the dither correction circuit 20501.
  • FIG. 86 is a diagram for explaining the operation of the diffusion error correction circuit 20502.
  • FIG. 88 is a flowchart illustrating a motion detection process.
  • FIG. 89 is a flowchart for describing processing for expanding an image into subfields.
  • FIG. 90 is a flowchart for explaining the process of integrating the amount of light.
  • Second implementation of an image processing apparatus that uses a first display device to reproduce an image display state on a second display device having characteristics different from those of the first display device. It is a flowchart explaining the operation
  • FIG. 92 is a flowchart for explaining a process of converting gradation.
  • FIG. 95 is a flowchart for describing visual correction processing.
  • FIG. 96 is a diagram showing a display model.
  • FIG. 97 is a diagram showing pixels of a display model.
  • FIG. 98 is a diagram showing a light amount integration region in the display model.
  • Fig. 99 is a diagram showing a cross-sectional area.
  • FIG. 100 is a diagram showing a cross-sectional area that moves in the display model as time T elapses.
  • FIG. 101 is a diagram showing a cross-sectional area that moves in the display model as time T elapses.
  • FIG. 102 is a flowchart for explaining light amount integration processing.
  • FIG. 103 is a block diagram showing another configuration example of the light amount integrating unit 20300.
  • FIG. 104 is a diagram showing a light amount integrated value table.
  • FIG. 105 is a flowchart for explaining light amount integration processing.
  • Fig. 106 is a block diagram illustrating a configuration example of an embodiment of a computer.
  • FIG. 107 is a block diagram illustrating a configuration example of an embodiment of an image signal processing device that reproduces the appearance of a PDP on a display other than the PDP.
  • FIG. 108 is a diagram for explaining stripe arrangement reproduction processing.
  • FIG. 109 is a block diagram illustrating a configuration example of an image processing unit 30001 that performs stripe array reproduction processing.
  • FIG. 110 is a flowchart illustrating a stripe arrangement reproduction process.
  • FIG. 111 is a diagram for explaining a color shift that occurs in an image displayed on a PDP.
  • FIG. 112 is a diagram illustrating coefficients that are multiplied with an image signal in color shift addition processing.
  • FIG. 113 is a block diagram illustrating a configuration example of an image processing unit 30001 that performs color misregistration addition processing.
  • FIG. 114 is a flowchart illustrating color misregistration addition processing.
  • FIG. 115 is a diagram for explaining inter-pixel pitch reproduction processing.
  • FIG. 116 is a diagram illustrating a configuration example of an image processing unit 30001 that performs inter-pixel pitch reproduction processing.
  • This is a flowchart for explaining inter-pixel pitch reproduction processing.
  • FIG. 119 is a block diagram illustrating a configuration example of an image processing unit 30001 that performs spatial dither addition processing.
  • FIG. 120 is a diagram showing a look-up table stored in a spatial dither pattern ROM30043.
  • FIG. 120 is a diagram showing a look-up table stored in a spatial dither pattern ROM30043.
  • FIG. 122 is a block diagram illustrating a configuration example of an image processing unit 30001 that performs time dither addition processing.
  • FIG. 123 is a flowchart illustrating time dither addition processing.
  • FIG. 124 is a block diagram showing a configuration example of an image processing unit 30001 that performs all of color misregistration addition processing, spatial dither addition processing, time dither addition processing, inter-pixel pitch reproduction processing, and stripe arrangement reproduction processing.
  • FIG. 125 is a flowchart illustrating processing of an image processing unit 30001.
  • FIG. 126 is a block diagram illustrating a configuration example of an embodiment of a computer.
  • ABL processing unit 10034 VM processing unit, 10035 CRT ⁇ processing unit, 10036 full screen brightness average level detection unit, 10037 peak detection differential control value detection unit, 10038 ABL control unit,
  • 10039 VM control unit, 10040 display color temperature compensation control unit, 10051 brightness adjustment contrast adjustment unit, 10052 high image quality processing unit, 10053 gain adjustment unit, 10054 ⁇ correction unit, 10055 video amplifier, 10056 CRT, 10057 FBT, 10058 Beam current detection unit, 10059 ABL control unit, 10060 Image signal differentiation circuit, 10061 VM drive circuit, 1 0101 bus, 10102 CPU, 10103 ROM, 10104 RAM, 10105 Hard disk, 10106 output unit, 10107 input unit, 10108 communication unit, 10109 Drive, 10110 I / O interface, 10111 Removable recording medium 10210 Brightness correction unit, 1021 1 VM coefficient generation unit, 10212 Calculation unit, 10220 ⁇ Processing unit, 10241 ⁇ Coefficient generation unit, 10242A to 10242D, 10242F to 102421 Calculation unit, 10250 ⁇ Function section, 10 251 to 10259 delay section, 10260 ⁇ coefficient generation section, 10261 product-sum operation section, 10271, 10272 selector, 102
  • Figure 1 shows a monitoring system to which the present invention is applied (a system is a logical collection of multiple devices. It is a block diagram showing an example of the configuration of an embodiment of the present invention (regardless of whether or not devices of each configuration are in the same casing).
  • the monitor system includes a display control device 1, a display device 2, and a remote commander 3, and is used for checking image quality and the like, for example, in a broadcasting station that performs television broadcasting.
  • the monitor system includes image data output by a camera that captures an image, image data output by an editing device that edits a material, and encoded data encoded by an MPEG (Moving Picture Expert Group) method or the like.
  • the image data output by the decoder that decodes the video and the image data of the moving image of the program before broadcasting at other broadcasting stations or the like are supplied as input image data to be input to the monitor system.
  • an image corresponding to the image data of the pre-broadcast program as the input image data is displayed on a display device (other display device of display device 2) on the receiving side such as a home.
  • a display device other display device of display device 2
  • the receiving side such as a home.
  • an evaluator or the like who checks (evaluates) the image quality looks at the display, and the image corresponding to the input image data is displayed on the display device on the receiving side with any image quality. It is now possible to check whether or not.
  • the display control device 1 includes an image conversion unit 11, a signal processing unit 12, a display control unit 13, and a control unit.
  • the image conversion unit 11 converts the input image data into check image data that is a target for checking what kind of image is displayed on the receiving display device, and converts the number of pixels of the check image data.
  • the image conversion process is performed as necessary and supplied to the signal processing unit 12 and the display control unit 13.
  • the signal processing unit 12 includes three first signal processing units 12 and second signal processing units. It is composed of a processing unit 12 and a third signal processing unit 12, and a check image from the image conversion unit 11
  • the processed image data obtained by the signal processing is supplied to the display control unit 13.
  • the first signal processing unit 12 applies the check image data from the image conversion unit 11 to the check image data.
  • the signal processing according to the control from the control unit 14 is performed, and the processed image data obtained by the signal processing is supplied to the display control unit 13.
  • the second signal processing unit 12 and the third signal processing unit 12 also perform image conversion.
  • the check image data from the conversion unit 11 is subjected to signal processing according to the control from the control unit 14, and processed image data obtained by the signal processing is supplied to the display control unit 13.
  • the display control unit 13 Under the control of the control unit 14, the display control unit 13 displays an image corresponding to the check image data supplied from the image conversion unit 11 in a partial display area of the screen of the display device 2. Make it. Further, the display control unit 13 uses the force S controlled by the control unit 14, the first signal processing unit 12,
  • An image corresponding to the data is displayed in another partial display area of the screen of the display device 2.
  • the display control unit 13 controls the position and size of the image displayed on the display device 2 according to the force S set as a parameter supplied from the control unit 14.
  • the first signal processing unit 12 and the second signal processing are appropriately performed on the display control unit 13.
  • post-processing image data Also referred to as post-processing image data, second post-processing image data, or third post-processing image data.
  • the control unit 14 receives an operation signal transmitted from a remote commander 3 or an operation unit (not shown) provided in the display control device 1, and responds to the operation signal with a first signal processing unit. 1 2, controls the second signal processing unit 12, the third signal processing unit 12, and the display control unit 13.
  • the control unit 14 also includes a first signal processing unit 12, a second signal processing unit 12, and a third signal processing.
  • the display device 2 is a device that displays an image on an LCD (Liquid Crystal Display), for example, and is based on the number of pixels of the check image data that the image conversion unit 11 supplies to the signal processing unit 12 and the display control unit 13. It has a screen with a large number of pixels. Then, the display device 2 displays the image corresponding to the check image data in the display area of a part of the screen according to the force controlled by the display control unit 13, and the first processed image data and the second processed image. Display the post-image data and the image corresponding to the post-third process post-image data in the other part of the display area of the screen.
  • LCD Liquid Crystal Display
  • the remote commander 3 is used, for example, by an evaluator or the like that checks the image quality, etc., of the check image data, and thus the image corresponding to the input image data, on the display device on the reception side.
  • An operation signal corresponding to the operation is transmitted to the control unit 14 by radio waves such as infrared rays.
  • FIG. 2 shows a configuration example of the screen of the display device 2.
  • the image corresponding to the check image data is displayed in the upper left display area # 0 of the four display areas # 0 to # 3, and the upper right display area # 1
  • the image corresponding to the first processed image data is displayed
  • the image corresponding to the second processed image data is displayed in the lower left display area # 2
  • the third process is displayed in the lower right display area # 3.
  • the image corresponding to the post-image data is displayed.
  • the screen of the display device 2 has horizontal X vertical length, It consists of 2H X 2 V monitor pixels (2H X 2V monitor pixels)!
  • HDTV High-Definition Television
  • images with a 16: 9 aspect ratio can be displayed in display area #i.
  • the screen of display device 2 is divided into four display areas # 0 to # 3.
  • each of the four display areas # 0 to # 3 is displayed as a virtual one screen, and the (one) image is displayed on each of the display areas # 0 to # 3.
  • the display area #i is composed of 1920 X 1080 monitor pixels
  • the display device 2 has [2 X 1920J X
  • High-definition images can be displayed, consisting of [2 X 1080] pixels, than HDTV images
  • the image conversion unit 11 uses the input image data as check image data. For example, it is determined whether or not the check image data is composed of the same number of pixels as the monitor pixels constituting the display area # 0, that is, whether or not the check image data is composed of the check image data force HXV pixels.
  • step S11 If it is determined in step S11 that the check image data force display area # 0 is composed of the same HXV pixel as the monitor pixel, the process skips step S12 and step S13. Proceed to
  • step S11 If it is determined in step S11 that the check image data force display area # 0 is composed of the same number of pixels as the monitor pixels other than the HXV pixels, the process proceeds to step S12.
  • the image conversion unit 11 1 performs image conversion processing for converting the number of pixels of the check image data into the same HXV pixel as the number of monitor pixels constituting the display area # 0.
  • the check image data after the image conversion process is supplied to the signal processing unit 12 and the display control unit 13, and the process proceeds to step S13.
  • step S13 the first signal processing unit 12 and the second signal processing unit constituting the signal processing unit 12
  • the third signal processing unit 12 and the third signal processing unit 12 respectively check image data from the image conversion unit 11.
  • the first post-processing image data, the second post-processing image data, and the third post-processing image obtained by performing signal processing on the data according to the control from the control unit 14.
  • the data is supplied to the display control unit 13, and the process proceeds to step S14.
  • step S 14 the display control unit 13 displays an image corresponding to the check image data from the image conversion unit 11 1 on the display area # 0 of the display device 2 according to the control of the control unit 14.
  • step S14 the display control unit 13 follows the control of the control unit 14 to display the image corresponding to the first processed image data from the first signal processing unit 12 in the display area # 1 and the second signal.
  • the image corresponding to the second processed image data from the processing unit 12 is displayed in the display area # 2, and the third processed image data from the third signal processing unit 12 is displayed in the display area # 3.
  • an image corresponding to the check image data is displayed in the display area # 0, and the display area # 1 is obtained by performing predetermined signal processing on the check image data. If an image corresponding to the first processed image data, that is, an image corresponding to the check image data is displayed on a certain type of display device on the receiving side, an image that will be displayed is displayed.
  • an image corresponding to the second post-processed image data obtained by performing predetermined signal processing on the check image data that is, another type of display device on the receiving side If an image corresponding to the check image data is displayed, an image that will be displayed is displayed, and display area # 3 displays a third process obtained by performing predetermined signal processing on the check image data.
  • An image corresponding to the post-image data that is, an image that will be displayed if an image corresponding to the check image data is displayed on still another type of display device on the receiving side is displayed.
  • the image quality of the image data of the program for example, S / N (Signal to Noise Ratio) can be checked by the image displayed in the display area # 0. Furthermore, it is possible to check how the images displayed in display area # 0 are displayed on the various display devices on the receiving side depending on the images displayed in display areas # 1 to # 3. it can.
  • the display device 2 has a screen of monitor pixels larger than the number of pixels of the check image data of HXV pixels, as shown in FIG.
  • the check image data is specified in the display areas # 1, # 2, and # 3, which are other display areas of the screen. If the image corresponding to the post-processing image data obtained by performing the signal processing of (i.e., the image corresponding to the check image data is displayed on the display device on the receiving side), the image that will be displayed is displayed. Can be displayed.
  • the image corresponding to the check image data and the display state of the image on the receiving-side display device is broadcast as a program and received by the receiving-side display device.
  • the power S can check the deterioration state of the image (deteriorated image) displayed on the display device on the receiving side.
  • 1S Display device 2 is physically displayed on one screen, so there is a problem when the image corresponding to the check image data and the image corresponding to the processed image data are displayed on different display devices. It is not necessary to consider the difference in various characteristics of the display device.
  • FIG. 4 illustrates a first configuration example of the signal processing unit 12 in FIG.
  • the signal processing unit 12 includes a first signal processing unit 12 and an image conversion unit 31.
  • the second signal processing unit 12 includes an image conversion unit 31, and the third signal processing unit 12 includes an image conversion unit 31.
  • the image conversion unit 31 uses the magnification S information supplied from the control unit 14 as a target, and the check image data from the image conversion unit 11 is used as a target for the image that the display device on the receiving side performs. Signal processing corresponding to the enlargement process is performed.
  • some display devices on the receiving side have an enlargement function for performing processing for enlarging an image as a program from a broadcast station. Signal processing equivalent to the image enlargement processing performed by the display device is performed.
  • the image conversion unit 31 follows the enlargement ratio information supplied from the control unit 14.
  • the image conversion unit 11 performs an image conversion process for converting the check image data into m-fold enlarged image data obtained by multiplying the check image data by m times, and processes the m-fold enlarged image data obtained by the image conversion process.
  • the post-image data is supplied to the display control unit 13 (Fig. 1).
  • the image conversion unit 31 uses the magnification S information supplied from the control unit 14 as an image conversion unit.
  • the post-image data is supplied to the display control unit 13.
  • the image conversion unit 31 also uses the power of the enlargement ratio information supplied from the control unit 14 to determine whether the image conversion unit 11
  • the check image data is converted to m "double-enlarged image data obtained by multiplying the check image data by m", and the m "double-enlarged image data obtained by the image conversion process is converted to The processed image data is supplied to the display control unit 13.
  • FIG. 5 shows a display example of the display device 2 when the signal processing unit 12 is configured as shown in FIG.
  • an image corresponding to the check image data (hereinafter also referred to as a check image as appropriate) is displayed in the display area # 0.
  • the image corresponding to the m-fold enlarged image data is displayed in the display area # 1
  • the image corresponding to the m'-fold enlarged image data is displayed in the display area # 2
  • m "is displayed in the display area # 3 Images corresponding to the double enlarged image data are respectively displayed.
  • the display device having the enlargement function among the display devices on the receiving side the display state when the image as the program from the broadcasting station is enlarged and displayed by the enlargement function (Enlarged image quality etc.) can be checked.
  • magnifications m, m ', m " are determined by the force S specified by operating the remote commander 3 (Fig. 1), for example.
  • the number of pixels in the horizontal and vertical check image data is converted to m times enlarged image data.
  • the check image data is composed of HXV pixels having the same number of pixels as display area #i composed of HXV monitor pixels.
  • the data is composed of mH X mV pixels.
  • FIG. 6 shows a display example of an image of mH ⁇ mV pixels corresponding to m-fold enlarged image data.
  • the H X V pixel area portion of the m H X mV pixel image corresponding to the m-fold enlarged image data is displayed.
  • the check image region corresponding to the HXV pixel region displayed in the display region # 1 (indicated by the hatching in FIG. 6).
  • the display range area can be specified by operating the remote commander 3, for example, and the display control unit 13 follows the specification to m.
  • a part of the image of mH X mV pixel corresponding to the double magnified image data is displayed in display area # 1.
  • the display range area in the check image can be displayed, for example, in a display area # 0 in which the check image is displayed, superimposed on the check image.
  • FIG. 7 illustrates a second configuration example of the signal processing unit 12 in FIG.
  • the type information indicating the type of display device to be used is supplied.
  • the simulation processing unit 41 is directed to the check image data from the image conversion unit 11 according to the type information supplied from the control unit 14, and has another display device having a display characteristic different from that of the display device 2.
  • the image data to be displayed in the display area #i of the display device 2 is processed corresponding to the image displayed on the other display device when the check image is displayed in Signal processing for generating post-processing image data is performed.
  • the display device 2 is a display device having a display characteristic different from that of the LCD as a display device on the power receiving side constituted by an LCD, for example, CRT (Cathode Ray Tubes), PDPs (Plasma Display Panels), organic EL (Electro Luminescence) displays, FEDs (Field Emission Displays), and other display devices.
  • CTR Cathode Ray Tubes
  • PDPs Plasma Display Panels
  • organic EL Electro Luminescence
  • FEDs Field Emission Displays
  • other display devices for example, CTR (Cathode Ray Tubes), PDPs (Plasma Display Panels), organic EL (Electro Luminescence) displays, FEDs (Field Emission Displays), and other display devices.
  • a display device having a new display device may be developed.
  • the simulation processing unit 41 displays an image corresponding to the check image displayed on the display device on the receiving side having display characteristics different from those of the display device 2 in the display area # of the display device 2 #. 4. Perform signal processing to generate image data to be displayed on i as post-processing image data.
  • the image data for displaying on the LCD display device 2 an image corresponding to the check image displayed on the display device on the receiving side having the organic EL display is referred to as the pseudo organic EL image data and the check image data. Therefore, the signal processing that generates pseudo organic EL image data is called organic EL simulation processing.
  • image data for displaying on the LCD display device 2 an image corresponding to the check image displayed on the display device on the receiving side having the PDP is referred to as pseudo PDP image data and from the check image data.
  • Signal processing that generates PDP image data is called PDP simulation processing.
  • image data for displaying an image corresponding to the check image displayed on the display device on the receiving side having the CRT on the LCD display device 2 is referred to as pseudo CRT image data, and from the check image data, pseudo CRT Signal processing that generates image data is called CRT simulation processing.
  • the simulation processing unit 41 follows the type information supplied from the control unit 14.
  • an organic EL simulation process for generating pseudo organic EL image data is performed, and the pseudo organic EL image data obtained by the organic EL simulation process is converted into a processed image.
  • the data is supplied to the display control unit 13 (Fig. 1).
  • the simulation processing unit 41 uses the force S based on the type information supplied from the control unit 14, the control unit 1 From the check image data from the image converter 11, for example, PDP simulation processing for generating pseudo PDP image data is performed, and the pseudo PDP obtained by the PDP simulation processing is used.
  • the image data is supplied to the display control unit 13 as processed image data.
  • the simulation processing unit 41 also performs CRT simulation processing for generating, for example, pseudo CRT image data from the check image data from the image conversion unit 11 according to the type information supplied from the control unit 14.
  • the pseudo CRT image data obtained by the CRT simulation process is supplied to the display control unit 13 as processed image data.
  • FIG. 8 shows a display example of the display device 2 when the signal processing unit 12 is configured as shown in FIG.
  • the display area # 1 contains an image corresponding to the pseudo organic EL image data
  • the display area # 2 contains the image force S corresponding to the pseudo PDP image data
  • the display area # 3 contains the pseudo CRT image data. Corresponding images are displayed respectively.
  • each of the display device having an LCD, the display device having an organic EL display panel, the display device having a PDP, and the display device having a CRT from the broadcasting station. It is possible to check what kind of image quality is displayed as an image of the program.
  • image data that causes the LCD display device 2 to display an image corresponding to a check image displayed on a display device having a display device having any display characteristic is displayed.
  • Whether to perform the signal processing to be generated is determined by the type information supplied from the control unit 14 to the simulation processing unit 41. What kind of information is supplied from the control unit 14 to the simulation processing unit 41 is determined by, for example, the force S that is determined by operating the remote commander 3 (FIG. 1).
  • control unit 14 supplies other parameters necessary for performing signal processing to the simulation processing unit 41.
  • FIG. 9 shows a third configuration example of the signal processing unit 12 of FIG.
  • the first signal processing unit 12 1 of the signal processing unit 12 1 the image conversion unit 31 and the simulation.
  • the image conversion unit 31 performs image conversion processing according to the enlargement ratio information supplied from the control unit 14.
  • the check image data from the image conversion unit 11 is converted to m-fold enlarged image data and supplied to the simulation processing unit 41.
  • the simulation processing unit 41 for example, according to the type information supplied from the control unit 14,
  • the pseudo organic EL image data is generated from the data and supplied to the display control unit 13 (FIG. 1) as processed image data.
  • the image conversion unit 31 is supplied with check image data from the image conversion unit 11 and
  • the enlargement rate information is supplied from the control unit 14.
  • the image conversion unit 31 converts the check image data from the image conversion unit 11 into m'-fold enlarged image data by performing image conversion processing according to the enlargement ratio information supplied from the control unit 14. To the simulation processing unit 41.
  • the simulation processing unit 41 for example, according to the type information supplied from the control unit 14,
  • pseudo PDP image data is generated from the m′-magnified image data from the image conversion unit 31 and supplied to the display control unit 13 as processed image data.
  • the image conversion unit 31 is supplied with the check image data from the image conversion unit 11 and
  • the enlargement rate information is supplied from the control unit 14.
  • the image conversion unit 31 performs image conversion processing according to the enlargement ratio information supplied from the control unit 14.
  • the check image data from the image conversion unit 11 is converted into m "double enlarged image data and supplied to the simulation processing unit 41.
  • the simulation processing unit 41 for example, according to the type information supplied from the control unit 14,
  • pseudo CRT image data is generated and supplied to the display control unit 13 as processed image data.
  • FIG. 10 shows a display example of the display device 2 when the signal processing unit 12 is configured as shown in FIG.
  • a check image is displayed in display area # 0.
  • an image corresponding to the pseudo organic EL image data generated from the m-fold enlarged image data is displayed, and in the display area # 2, the pseudo PDP image generated from the m′-fold enlarged image data is displayed.
  • the image corresponding to the data is displayed in the display area # 3, and the image corresponding to the pseudo CRT image data generated from the m "double enlarged image data is displayed.
  • each of the display device having an organic EL display panel, the display device having a PDP, and the display device having a CRT expands an image as a program from a broadcasting station. When it is displayed, it is possible to check the display state (image quality etc. of the enlarged image).
  • FIG. 11 shows a fourth configuration example of the signal processing unit 12 in FIG.
  • the signal processing unit 12 includes a first signal processing unit 12 and an image conversion unit 31.
  • the second signal processing unit 12 1 comprises an image conversion unit 51, and the third signal processing unit 12 1 image
  • the image conversion unit 31 uses the enlargement ratio information supplied from the control unit 14.
  • the check image data from the image conversion unit 11 is converted into m-fold enlarged image data and supplied to the display control unit 13 (FIG. 1) as post-processing image data.
  • Check image data is supplied from the image conversion unit 11 to the image conversion unit 51, and playback speed information indicating the playback speed of slow playback is supplied from the control unit 14.
  • the image converter 51 uses the playback speed information supplied from the controller 14 to display the check image data from the image converter 11 and display the check image q less than 1x (q 1). Double speed At the playback speed q Image conversion processing to convert to double-speed slow playback image data is performed, and the q-speed slow playback image data obtained by the image conversion processing is used as post-processing image data, and the display control unit 13 (Fig. 1) To supply.
  • the display rate of the display device 2 (the rate at which the display is updated) and the frame rate of the check image are 30 Hz
  • the playback speed represented by the playback speed information is For example, assuming 1 / 2-speed, the image conversion unit 51 converts the check image data with a frame rate of 30 Hz into q-times speed single playback image data that is 60 Hz image data with a frame rate of 2 times. Perform the conversion process.
  • the image appears as if it was slow playback at 2x speed.
  • the image conversion unit 31 performs the image conversion process according to the enlargement ratio information supplied from the control unit 14, thereby obtaining the check image data from the image conversion unit 11 as “m”.
  • the image data is converted into double-enlarged image data and supplied to the image conversion unit 52.
  • the image conversion unit 52 is supplied with image conversion unit 31 power m "double-enlarged image data, and is also supplied with playback speed information from the control unit 14.
  • the image conversion unit 52 uses the power obtained from the playback speed information supplied from the control unit 14 and the image conversion unit 31 as many as m "double-magnified image data and a check image display q" (1) Performed at double-speed playback speed q Performs image conversion processing to convert to double-speed slow playback image data, and displays q ”double-speed slow playback image data obtained by the image conversion processing as post-processing image data Supply to the control unit 13.
  • FIG. 12 shows a display example of the display device 2 when the signal processing unit 12 is configured as shown in FIG.
  • the image corresponding to m-magnified image data displayed in display area # 1 is displayed in display area # 0. Since the spatial resolution is higher than the displayed check image! /, The check image displayed in the display area # 0 has a conspicuous force. Image degradation can be checked.
  • the image corresponding to the q-speed slow playback image data displayed in display area # 2 has a higher temporal resolution than the check image displayed in display area # 0!
  • each of the image conversion units 51 and 52 the number of times of slow playback of the check image data is converted to image data as if it was slow-played by the control unit 14 from the image conversion units 51 and 52. It is determined by the reproduction speed information supplied to each. What playback speed information is supplied from the control unit 14 to each of the image conversion units 51 and 52 can be designated by operating the remote commander 3 (FIG. 1), for example.
  • FIG. 13 shows a fifth configuration example of the signal processing unit 12 in FIG.
  • the signal processing unit 12 includes a first signal processing unit 12 and a force processing unit 61.
  • the second signal processing unit 12 includes an adaptive gamma processing unit 62, and the third signal processing unit 1 2 1 includes a high frame rate processing unit 63.
  • the image processing unit 61 is supplied with the check image data for the image conversion unit 11 (Fig. 1) and the signal processing parameters from the control unit 14 (Fig. 1).
  • the enhancement processing unit 61 targets the check image data from the image conversion unit 11, and when the receiving display device displays an image corresponding to the image data, a process to be performed on the image data The signal processing corresponding to is performed.
  • the enhancement processing unit 61 performs the ensemble processing as the signal processing similar to that performed by the display device on the receiving side.
  • the enn nonce processing unit 61 performs the check by filtering the check image data from the image conversion unit 11. Enhance processing for emphasizing a part of the edge of the image data is performed, and the check image data after the processing is supplied to the display control unit 13 (FIG. 1) as processed image data.
  • the degree of enhancement of the check image data by the enhancement processing in the enhancement processing unit 61 is determined according to the enhancement processing parameters included in the signal processing parameters supplied from the control unit 14.
  • the parameters for the enhancement processing can be specified, for example, by operating the remote commander 3 (Fig. 1).
  • the adaptive gamma processing unit 62 is supplied with check image data from the image conversion unit 11, and is also supplied with signal processing parameters from the control unit 14.
  • the adaptive gamma processing unit 62 targets the check image data from the image conversion unit 11, and when the reception-side display device displays an image corresponding to the image data, processing to be performed on the image data The signal processing corresponding to is performed.
  • the display device currently absorbs the characteristics of the display device adopted by each manufacturer that manufactures the display device, and the appearance of the image does not differ depending on the manufacturer.
  • each manufacturer will be subjected to a unique gamma correction process that makes the image unique to that manufacturer appear according to the characteristics of the image to be displayed and the display device. In this case, the appearance of the image will differ depending on the manufacturer of the display device.
  • the adaptive gamma processing unit 62 is adaptive so that an image corresponding to the image displayed on the display device of each manufacturer can be displayed (reproduced) on the LCD display device 2. Performs adaptive gamma correction, which is a gamma correction process.
  • the adaptive gamma processing unit 62 generates image data for displaying on the LCD display device 2 an image corresponding to the check image displayed on the display device on the receiving side on which the gamma correction processing unique to the manufacturer is performed. Check image data from image converter 11 so that it can be obtained Then, an adaptive gamma correction process is performed on the image data, and the check image data after the adaptive gamma correction process is supplied to the display control unit 13 as processed image data.
  • the adaptive gamma processing unit 62 what kind of characteristic adaptive gamma correction processing is performed in the adaptive gamma processing unit 62 depends on the parameters for adaptive gamma correction processing included in the signal processing parameters supplied from the control unit 14. It is determined.
  • the parameter for the adaptive gamma correction process can be designated by operating the remote commander 3, for example.
  • the adaptive gamma correction processing for example, the gamma correction processing described in JP-A-08-023460, JP-A-2002-354290, JP-A-2005-229245, etc. should be adopted. Touch with force S.
  • Japanese Patent Application Laid-Open No. 08-023460 discloses that when displaying an image signal with a large variation in APL (Average Picture Level) on a device such as an LCD or PDP that is difficult to obtain luminance contrast, As a gamma correction process that performs the optimum gamma correction according to the brightness level of the image signal, the brightness level of the image signal is divided into a plurality of sections, and the frequency in each section is taken. It is described that the frequency distribution is divided by the frequency level, and the gamma correction characteristic is selected by using the result as a selection signal for the gamma correction characteristic, and the dynamic gamma correction adapted to the image signal is performed.
  • APL Average Picture Level
  • Japanese Patent Application Laid-Open No. 2002-354290 discloses an APL as a gamma correction process for improving the gradation reproducibility by constantly changing the operating point of the gamma correction so that the gamma correction always works. It describes that an operating point adapted to APL is obtained from the initial value of the operating point and gamma correction is applied to the luminance signal on the white side of the operating point.
  • Japanese Patent Laid-Open No. 2005-229245 discloses a method for performing gradation enlargement control adapted to an image signal by reducing color saturation and detecting the maximum value of each RGB color of the image signal. The maximum value obtained by multiplying each maximum value by a weighting coefficient is detected, and the maximum value is compared with the maximum value of the luminance level of the image signal. The larger value is set as the maximum value of the luminance level of the image signal.
  • the high frame rate processing unit 63 is supplied with the check image data from the image conversion unit 11 and the signal processing parameters from the control unit 14.
  • the high frame rate processing unit 63 receives the check image data from the image conversion unit 11.
  • the display device on the receiving side displays an image corresponding to the image data
  • signal processing corresponding to the processing applied to the image data is performed.
  • the frame rate of the image as a program from the broadcast station is converted into an image with a high frame rate such as twice, and the display rate corresponding to the high frame rate is displayed.
  • the high frame rate processing unit 63 performs high frame rate processing as signal processing similar to that performed by such a display device on the receiving side.
  • the high frame rate processing unit 63 uses the signal processing parameters supplied from the control unit 14 as the signal processing parameter S, and the frame rate between frames of the check image data from the image conversion unit 1; High frame rate processing such as double speed processing that generates image data whose frame rate is twice that of the original check image data by interpolating the frame rate, and processing the check image data after the high frame rate processing
  • High frame rate processing such as double speed processing that generates image data whose frame rate is twice that of the original check image data by interpolating the frame rate, and processing the check image data after the high frame rate processing
  • the post-image data is supplied to the display control unit 13.
  • the high frame rate processing unit 63 how many times the frame rate of the check image data is increased by the high frame rate processing is included in the signal processing parameters supplied from the control unit 14.
  • the parameter for high frame rate processing that is determined according to the high frame rate processing parameter is determined by the force S that is determined by operating the remote commander 3 (Fig. 1).
  • the display rate of the display device 2 and the frame rate of the check image are now 30 Hz, and the image data obtained by the high frame rate processing of the high frame rate processing unit 63 is, for example. If the frame rate is 60 Hz, which is twice the frame rate of the check image, the display device 2 will display at a frame rate of 60 Hz and a display rate of 30 Hz. The image will appear as if it was slow playback at 2x speed.
  • the display device 2 can display images at a high display rate higher than 30Hz, for example, 60Hz, 120Hz, 240Hz, etc. in addition to 30Hz. It is assumed that the display control unit 13 (FIG. 1) can control the display device 2 to display an image at a high display rate in addition to 30 Hz.
  • the display control unit 13 is configured such that the frame rate of the image data (hereinafter, appropriately referred to as high frame rate image data) obtained by the high frame rate processing of the high frame rate processing unit 63 is, for example, the frame rate of the check image. If the frequency is 60 Hz, the display device 2 is controlled to display an image corresponding to the high frame rate image data at the same 60 Hz display rate as the frame rate of the high frame rate image data. .
  • an image corresponding to the high frame rate image data is displayed at a (same) display rate corresponding to the frame rate of the high frame rate image data.
  • an image corresponding to high frame rate image data having a frame rate of 60 Hz, for example, obtained by high frame rate processing by the high frame rate processing unit 63 constituting the third signal processing unit 12 is used. Is displayed in display area # 3, but when the frame rate of the check image displayed in display area # 0 other than that display area # 3 is 30 Hz, the display on display device 2 If the rate is 60 Hz, which is the same as the frame rate of high frame rate image data, the check image displayed in display area # 0 will appear as if it was played back at double speed.
  • the display rate of the display device 2 is determined by multiplying the frame rate of the check image data by the high frame rate processing of the high frame rate processing unit 63. It is controlled by the control unit 14 in conjunction with whether or not.
  • FIG. 14 shows a display example of the display device 2 when the signal processing unit 12 is configured as shown in FIG. [0150]
  • a check image is displayed in the display area # 0
  • an image corresponding to the check image data after the enhancement process is displayed in the display area # 1.
  • the image corresponding to the check image data after the adaptive gamma correction processing is displayed in the display region # 1
  • the image corresponding to the check image data after the high frame rate processing is displayed in the display region # 2. Is done.
  • the display device having the function of performing the enhancement processing on the image among the display devices on the receiving side the image corresponding to the image data after the enhancement processing is displayed.
  • the image quality can be checked.
  • the image corresponding to the image data after the specific gamma correction processing is displayed on the display device that displays the image by performing the gamma correction processing specific to the manufacturer. In such a case, it is possible to check the image quality of the image.
  • FIG. 15 shows a sixth configuration example of the signal processing unit 12 in FIG.
  • a second signal processing unit 12 force pseudo inch image generation unit 71.
  • a pseudo inch image generation unit 71 force pseudo inch image generation unit 71.
  • the pseudo inch image generation unit 71 checks the check image data from the image conversion unit 11 with the display device on the receiving side having a certain number of inches according to the inch number information supplied from the control unit 14. When the image is displayed, signal processing is performed to generate image data for displaying an image corresponding to the image displayed on the display device in the display area #i of the display device 2 as processed image data.
  • the pseudo inch image generation unit 71 is displayed on a display device on the receiving side of an n inch. Signal processing for generating image data for displaying an image corresponding to the check image in the display area # 1 of the display device 2 as processed image data is performed. Similarly, each of the pseudo-inch image generation units 71 71 corresponds to the check image displayed on the n'-inch receiving display device.
  • Display image # 2 of display device 2 is the image data that displays the corresponding image in display region # 1 of display device 2 and the image that corresponds to the check image displayed on the display device on the n-inch receiving side. Signal processing for generating image data to be displayed in 1 as post-processing image data is performed.
  • the image data that causes the display area #i of the display device 2 to display an image corresponding to the check image displayed on the display device on the receiving side having a certain number of inches is also referred to as pseudo-inch image data.
  • the signal processing for generating pseudo inch image data from the check image data is also referred to as pseudo inch image generation processing.
  • the pseudo inch image generation unit 71 uses the inch number information supplied from the control unit 14.
  • pseudo-inch image generation processing for generating n-inch pseudo-inch image data is performed from the check image data from the image conversion unit 11, and the resulting n-inch pseudo-inch image data is processed image data. Is supplied to the display control unit 13 (FIG. 1).
  • the number of inches supplied from the control unit 14 is also the same.
  • the pseudo-inch image generating process for generating n'-inch pseudo-inch image data from the check image data from the image conversion unit 11 and the pseudo-inch image for generating n "-inch pseudo-inch image data according to the report Generation processing is performed, and n ′ inch pseudo inch image data and n ′′ inch pseudo inch image data obtained as a result are supplied to the display control unit 13 as processed image data.
  • the pseudo inch image data is generated by performing a process of increasing or decreasing the number of pixels of the check image data.
  • processing for increasing the number of pixels of image data for example, it is possible to employ processing for interpolating pixels, image conversion processing for converting image data into image data having more pixels than the image data, etc. .
  • a process for reducing the number of pixels of the image data for example, a process of thinning out pixels or an averaging process using an average value of a plurality of pixels as a pixel value of one pixel is used. .
  • FIG. 16 shows a table of the display device 2 when the signal processing unit 12 is configured as shown in FIG. An example is shown.
  • a check image is displayed in display area # 0.
  • the image power display area # 2 corresponding to the n-inch pseudo-inch image data is displayed in the image force display area # 3 corresponding to the pseudo-inch image data in ⁇ 'inch. “Images corresponding to inch inch pseudo inch image data are respectively displayed.
  • display area #i is composed of H X V monitor pixels, and check image data is also included.
  • H X V pixels having the same number of pixels as the display area #i.
  • FIG. 17 shows a state in which the H X V pixel check image data power is displayed in the display area #i of the H X V monitor pixel.
  • the check image data of the HXV pixel is displayed as it is in the display area #i of the HXV monitor pixel. By doing so, an image corresponding to the check image displayed on the N-inch display device is displayed.
  • the check image of the HXV pixel is displayed as it is, which is equivalent to the check image displayed on the N-inch display device
  • the image to be displayed will be displayed.
  • this N inch is also referred to as a reference inch.
  • FIG. 18 shows a state in which pseudo inch image data obtained by increasing the number of pixels of the check image data by the pseudo inch image generation process is displayed in the display area #i of the HXV monitor pixel. ing.
  • pseudo-inch image data of 3H X 3V pixels is generated by the pseudo-inch image generation process in which one pixel of the check image data of HXV pixels is increased to 3X3 pixels. Displayed in display area #i of H XV pixel power in inch image data!
  • the check image data of the original H XV pixel is equivalently displayed on the 3X3 monitor pixel in the display area #i.
  • the display area #i contains 3XN
  • An image corresponding to pseudo inch image data of an inch, that is, an image corresponding to a check image displayed on a 3 XN inch display device is displayed.
  • the display area #i of the H XV monitor pixel cannot display the entire image corresponding to the pseudo inch image data of 3HX3V pixels, which is larger than the number of pixels.
  • a part of the image corresponding to the pseudo-inch image data of 3HX3V pixels is displayed in the display area #i.
  • Which part of the image corresponding to the pseudo inch image data of 3HX3V pixels is displayed in the display area #i can be specified by operating the remote commander 3, for example. According to the specification, a part of the image corresponding to the pseudo inch image data of 3HX3V pixels is displayed in the display area #i.
  • FIG. 19 shows a state in which pseudo inch image data obtained by reducing the number of pixels of the check image data by the pseudo inch image generation process is displayed in the display area #i of the H XV monitor pixel. ing.
  • the H / 2 XV / 2 pixel pseudo-inch image is generated by performing a pseudo-inch image generation process that reduces the 2X2 pixels of the H XV pixel check image data to 1 pixel. Data is generated and the pseudo inch image data is displayed in the display area #i of the H XV monitor pixel.
  • the image corresponding to the H / 2XV / 2 pixel pseudo-inch image data is the H XV monitor image. Displayed in the H / 2 XV / 2 monitor pixel area of the prime display area ffi. In the display area #i of the H XV monitor pixel, the image corresponding to the H / 2 XV / 2 pixel pseudo-inch image data is displayed. For example, the H / 2 XV / 2 monitor pixel area operates the remote commander 3.
  • the display control unit 13 displays an image corresponding to the pseudo inch image data of the H / 2 XV / 2 pixel in the display area #i according to the specification.
  • control unit 14 determines whether or not remote commander 3 has been operated so as to change (designate) the number of inches n.
  • step S31 If it is determined in step S31 that the remote commander 3 is not operated so as to change the number of inches n, the process returns to step S31.
  • step S31 when it is determined that the remote commander 3 is operated so as to change the number of inches n, that is, the remote commander 3 is operated so as to change the number of inches n.
  • the control signal corresponding to is received by the control unit 14
  • the process proceeds to step S32, and the control unit 14 recognizes the changed number of inches n from the operation signal from the remote commander 3, and the number of inches.
  • the pseudo inch image generation unit 71 determines the ratio of changing the number of pixels of the check image data.
  • control unit 14 supplies the inch number information including the pixel number change rate n / N to the pseudo inch image generation unit 71, and the processing is started from step S32.
  • step S33 the pseudo-inch image generation unit 71 uses the inch number information from the control unit 14 as a reference.
  • the pseudo-inch image generation process that changes (increases or decreases) the number of horizontal and vertical pixels of the check image data from the image converter 11 to a pixel number change rate n / N times.
  • n-inch pseudo-inch image data is generated and displayed in the display control unit 13.
  • step S33 the control unit 14 determines whether the number of inches n is equal to or less than the reference inch N.
  • step S34 If it is determined in step S34 that the number of inches n is equal to or less than the reference inch N, that is, the entire image corresponding to the n-inch pseudo-inch image data may be displayed in the display area # 1. If it can, the process proceeds to step S35, and the display control unit 13 displays the whole of the pseudo-inch image data from the n-inch pseudo-inch image data.
  • step S37 the display control unit 13 displays the image corresponding to the display image data in the display area # 1, and the process returns to step S31. In this case, the entire image corresponding to the n-inch pseudo-inch image data is displayed in the display area # 1.
  • step S34 determines whether the number of inches n is not equal to or less than the reference inch N, that is, the entire image corresponding to the pseudo-inch image data of n inches is displayed in the display area # 1. If not, the process proceeds to step S36, and the display control unit 13 obtains the display area from the pseudo inch image data of the pseudo inch image generation unit 71.
  • H XV pixels that can be displayed in area # 1 are extracted as display image data, and the process proceeds to step S37.
  • step S37 the display control unit 13 displays the image corresponding to the display image data in the display area # 1, and the process returns to step S31.
  • the image corresponding to the H XV pixel extracted in step S36 is displayed in the display area # 1.
  • FIG. 21 shows a seventh configuration example of the signal processing unit 12 in FIG.
  • An inch image generator 71 is configured.
  • the image conversion unit 31 performs image conversion processing according to the enlargement ratio information supplied from the control unit 14.
  • the check image data from the image conversion unit 11 is converted into m-fold enlarged image data and supplied to the pseudo inch image generation unit 71.
  • the pseudo-inch image generation unit 71 performs the number-of-inch information supplied from the control unit 14.
  • the m-fold enlarged image data from the image conversion unit 31 is obtained.
  • N-inch pseudo-inch image data is generated from the data and supplied to the display control unit 13 (FIG. 1) as post-processing image data.
  • the image converter 31 is supplied with the check image data from the image converter 11 and
  • the enlargement rate information is supplied from the control unit 14.
  • the image conversion unit 31 converts the check image data from the image conversion unit 11 into m'-fold enlarged image data by performing image conversion processing according to the enlargement ratio information supplied from the control unit 14. And supplied to the pseudo inch image generation unit 71.
  • the pseudo-inch image generation unit 71 is in accordance with the number-of-inch information supplied from the control unit 14.
  • n ′ inch pseudo inch image data is generated from the m′-fold enlarged image data from the image conversion unit 31, and the display control unit 13 To supply.
  • the image converter 31 is supplied with the check image data from the image converter 11 and
  • the enlargement rate information is supplied from the control unit 14.
  • the image conversion unit 31 performs image conversion processing according to the enlargement ratio information supplied from the control unit 14.
  • the check image data from the image conversion unit 11 is converted into m "-magnified image data and supplied to the pseudo inch image generation unit 71.
  • the pseudo-inch image generation unit 71 performs the inch number information supplied from the control unit 14.
  • the m ”-fold enlarged image data from the image conversion unit 31 is obtained.
  • FIG. 22 shows a display example of the display device 2 when the signal processing unit 12 is configured as shown in FIG.
  • an image corresponding to the n-inch pseudo-inch image data is magnified m times in the display area # 1, and an image corresponding to the n'-inch pseudo-inch image data is displayed in the display area # 2. Images magnified m 'times are displayed in display area # 3. Images corresponding to n "inch pseudo-inch image data are magnified m" times.
  • FIG. 23 shows an eighth configuration example of the signal processing unit 12 in FIG.
  • the image signal generating unit 71 includes a second signal processing unit 12, an image converting unit 31, a simulation processing unit 41, and a pseudo inch image generating unit 71.
  • the third signal processing unit 12 includes a force image converting unit 31. , A simulation processing unit 41, and a pseudo inch image generation unit 71.
  • the image conversion unit 31 performs image processing according to the enlargement ratio information supplied from the control unit 14 (Fig. 1).
  • the image check unit 11 (FIG. 1) converts the force check image data into the m-fold enlarged image data and supplies it to the pseudo inch image generation unit 71.
  • the pseudo-inch image generation unit 71 performs the inch number information supplied from the control unit 14.
  • the m-fold enlarged image data from the image conversion unit 31 is obtained.
  • pseudo-inch image data of n inches which is any value within the range of 20 to 103 inches, is generated from the data and supplied to the display control unit 13 (FIG. 1) as processed image data. .
  • the image conversion unit 31 performs the image conversion process according to the enlargement ratio information supplied from the control unit 14, thereby converting the check image data from the image conversion unit 11 into m'-fold enlarged image data. To the simulation processing unit 4.
  • the simulation processing unit 41 performs, for example, a PDP simulation process according to the type information supplied from the control unit 14, thereby performing a pseudo PDP image from the m'-fold enlarged image data from the image conversion unit 31. Data is generated and supplied to the pseudo inch image generation unit 71.
  • the pseudo-inch image generation unit 71 performs the pseudo-inch image generation process according to the inch number information supplied from the control unit 14, thereby generating, for example, 20
  • n ′ inch pseudo-inch image data that is any value within the range of 103 inches is generated and supplied to the display control unit 13 as processed image data.
  • the image conversion unit 31 converts the check image data from the image conversion unit 11 into m "double-enlarged image data by performing image conversion processing according to the enlargement ratio information supplied from the control unit 14. To the simulation processing unit 41.
  • the simulation processing unit 41 for example, according to the type information supplied from the control unit 14,
  • pseudo CRT image data is generated from the m ”-fold enlarged image data from the image conversion unit 31 and supplied to the pseudo inch image generation unit 71.
  • the pseudo-inch image generation unit 71 performs the number-of-inch information supplied from the control unit 14.
  • n-inch pseudo-inch image data that is any value within the range of 20 to 40 inches, for example, is obtained from the simulated CRT image data of the simulation processing unit 41 force. Generated and supplied to the display control unit 13 as processed image data.
  • FIG. 24 shows a display example of the display device 2 when the signal processing unit 12 is configured as shown in FIG.
  • a check image of reference inch N is displayed in display area # 0.
  • the image area corresponding to the n-inch pseudo-inch image data is displayed in the display area # 1
  • the image corresponding to the n-inch pseudo-inch image data is displayed in m.
  • the image power S is equivalent to the image displayed by PDP with the image magnified twice
  • the display area # 3 has an image corresponding to the n "inch pseudo-inch image data magnified m" times with CRT. Images corresponding to the displayed images are respectively displayed.
  • the above-described image conversion processing is, for example, processing for converting image data into image data having a larger number of pixels than that image data, image data having a high frame rate, or the like, that is, first image data.
  • Is converted into the second image data and the image conversion process for converting the first image data into the second image data can be performed using, for example, a class classification adaptive process.
  • the image conversion processing for converting the first image data into the second image data is the first
  • the image conversion process improves the spatial resolution. It can be called spatial resolution creation (improvement) processing.
  • the first image data is image data having a predetermined number of pixels (size)
  • the second image data is an image in which the number of pixels of the first image data is increased or decreased.
  • the image conversion process can be compared with the resizing process that changes the number of pixels of the image (performs resizing (enlargement or reduction) of the image).
  • the image conversion processing is performed using temporal resolution (frame Time resolution creation (improvement) processing to improve the rate)!
  • the first image that is image data with low spatial resolution is used.
  • the second image data may be image data having the same number of pixels as the first image data. It can also be image data having more pixels than the first image data.
  • the spatial resolution creation process is a process that improves the spatial resolution and resizes to increase the image size (number of pixels) It is also a process.
  • FIG. 25 shows a configuration example of the image conversion apparatus 101 that performs image conversion processing using class classification adaptation processing.
  • the image data supplied thereto is supplied to the tap selection units 112 and 113 as the first image data.
  • the pixel-of-interest selecting unit 111 sequentially sets pixels constituting the second image data as the pixel of interest, and supplies information representing the pixel of interest to a necessary block.
  • the tap selection unit 112 selects some of the pixels (the pixel values) constituting the first image data used to predict the target pixel (the pixel values thereof) as prediction taps.
  • the tap selection unit 112 selects, as prediction taps, a plurality of pixels of the first image data that are spatially or temporally close to the temporal and spatial positions of the target pixel.
  • the tap selection unit 113 clusters some of the pixels constituting the first image data used for classifying the target pixel into one of several classes. Select as a group. That is, tap selection section 113 selects a class tap in the same manner as tap selection section 112 selects a prediction tap.
  • prediction tap and the class tap may have the same tap structure. It may have a different tap structure.
  • the prediction tap obtained by the tap selection unit 112 is supplied to the prediction calculation unit 116, and the class tap obtained by the tap selection unit 113 is supplied to the class classification unit 114.
  • the class classification unit 114 class-categorizes the pixel of interest based on the class tap from the tap selection unit 113, and supplies the class code corresponding to the resulting class to the coefficient output unit 115.
  • ADRC Adaptive Dynamic Range Coding
  • the pixels constituting the class tap are subjected to ADRC processing, and the class of the pixel of interest is determined according to the resulting ADRC code.
  • the pixel value of each pixel composing the class tap is requantized to K bits. That is, the pixel value of each pixel forming the class taps, the minimum value MIN is subtracted, is divided (re-quantized) with the subtraction value force 3 ⁇ 4R / 2 K. Then, a bit string obtained by arranging the pixel values of the K-bit pixels constituting the class tap in a predetermined order, which is obtained as described above, is output as an ADRC code.
  • class tap 1S For example, when 1-bit ADRC processing is performed, the pixel value of each pixel constituting the class tap is divided by the average value of the maximum value MAX and the minimum value MIN (rounded down). As a result, the pixel value of each pixel is made 1 bit (binarized). Then, a bit string in which the 1-bit pixel values are arranged in a predetermined order is output as an ADRC code.
  • the class classification unit 114 can also output, for example, the level distribution pattern of the pixel values of the pixels constituting the class tap as it is as the class code.
  • the class tap force S is composed of pixel values of N pixels, and K bits are assigned to the pixel values of each pixel.
  • the number of is (2 N ) K , which is a large number that is exponentially proportional to the number of bits ⁇ of the pixel value of the pixel.
  • the class classification unit 114 the information amount of the class tap is converted into the above-described ADRC processing. It is also preferable to perform classification by compressing by vector quantization or the like.
  • the coefficient output unit 115 stores the tap coefficient for each class obtained by learning described later, and further corresponds to the class code supplied from the class classification unit 114 among the stored tap coefficients.
  • the tap coefficient stored in the address (the tap coefficient of the class represented by the class code supplied from the class classification unit 114) is output. This tap coefficient is supplied to the prediction calculation unit 116.
  • the tap coefficient corresponds to a coefficient to be multiplied with input data in a so-called tap in the digital filter.
  • the prediction calculation unit 116 acquires the prediction tap output from the tap selection unit 112 and the tap coefficient output from the coefficient output unit 115, and uses the prediction tap and the tap coefficient to calculate the true value of the target pixel. Predetermined calculation for obtaining the predicted value is performed. As a result, the prediction calculation unit 116 calculates and outputs the pixel value of the pixel of interest (predicted value thereof), that is, the pixel value of the pixels constituting the second image data.
  • step S111 the pixel-of-interest selecting unit 111 selects one of the pixels constituting the second image data for the first image data input to the image conversion device 101, which has not yet been set as the pixel of interest. Is selected as a target pixel, and the process proceeds to step S112.
  • the pixel-of-interest selecting unit 111 selects, for example, pixels that are not regarded as the pixel of interest in the raster scan order among the pixels constituting the second image data.
  • step S112 the tap selection units 112 and 113 respectively select the prediction tap and the class tap for the target pixel from the first image data supplied thereto.
  • the prediction tap is supplied from the tap selection unit 112 to the prediction calculation unit 116, and the class tap is supplied from the tap selection unit 113 to the class classification unit 114.
  • the class classification unit 114 receives the class tap for the target pixel from the tap selection unit 113, and classifies the target pixel based on the class tap in step S113. Further, the class classification unit 114 displays the class of the target pixel obtained as a result of the class classification. The class code is output to the coefficient output unit 115, and the process proceeds to step S114.
  • step S114 the coefficient output unit 115 acquires and outputs the tap coefficient stored at the address corresponding to the class code supplied from the class classification unit 114. Further, in step S114, the prediction calculation unit 116 obtains the tap coefficient output by the coefficient output unit 115, and proceeds to step S115.
  • step S115 the prediction calculation unit 116 outputs the prediction tap output from the tap selection unit 112.
  • step S116 a predetermined prediction calculation is performed using the tap coefficient acquired from the coefficient output unit 115.
  • the prediction calculation unit 116 obtains and outputs the pixel value of the target pixel, and proceeds to step S116.
  • step S116 the pixel-of-interest selecting unit 111 determines whether there is second image data that is not yet the pixel of interest. If it is determined in step S116 that there is still second image data that is not the pixel of interest, the process returns to step S111, and the same processing is repeated thereafter.
  • step S116 If it is determined in step S116 that there is no second image data that has not yet been set as the pixel of interest, the processing ends.
  • the high-quality image data (high-quality image data) is used as the second image data, and the high-quality image data is filtered by LPF (Low Pass Filter).
  • LPF Low Pass Filter
  • a prediction tap is selected from the low-quality image data, and the prediction tap and tap coefficient are used to generate high-quality image data.
  • the pixel value y of the high-quality pixel is obtained by the following linear linear expression.
  • Equation (1) X constitutes a prediction tap for the high-quality pixel y.
  • n the nth tap coefficient to be multiplied by the nth low image quality pixel.
  • the prediction tap force S is composed of N low-quality pixels X 1, X 2,.
  • the pixel value y of the high-quality pixel can be obtained by a higher-order expression of the second or higher order than the linear first-order expression shown in the expression (1).
  • the prediction error e is expressed by the following equation.
  • Equation (3) X is the prediction tap for the high-quality pixel of the k-th sample.
  • the optimal tap coefficient w is the sum of the square errors expressed by the following equation:
  • K is the high-quality pixel y and the prediction for the high-quality pixel y.
  • Equation (7) is the normal equation shown in Equation (8).
  • the normal equation of equation (8) can be solved for the tap coefficient w by using, for example, a sweeping method (Gauss-Jordan elimination method).
  • the optimal tap coefficient (here, the tap coefficient that minimizes the sum E of squared errors) w is determined for each class. Can ask for n
  • Fig. 27 shows a configuration example of the learning device 121 that performs learning n to obtain the tap coefficient w by building and solving the normal equation of equation (8).
  • the learning image storage unit 131 converts the learning image o ...- image data used for learning the tap coefficient w into n
  • the learning image data for example, high-resolution image data with high resolution can be used.
  • the teacher data generation unit 132 reads learning image data from the learning image storage unit 131. Further, the teacher data generation unit 132 generates, from the learning image data, teacher data that serves as a tap coefficient learning teacher (true value), that is, a pixel value of a mapping destination as a prediction calculation according to Equation (1). And supplied to the teacher data storage unit 133.
  • the teacher data generation unit 132 supplies high-quality image data as learning image data to the teacher data storage unit 133 as teacher data as it is.
  • the teacher data storage unit 133 stores high-quality image data as teacher data supplied from the teacher data generation unit 132.
  • the student data generation unit 134 reads the learning image data from the learning image storage unit 131. Further, the student data generation unit 134 learns tap coefficients from the learning image data. Student data, that is, student data that is a pixel value to be converted by mapping as a prediction calculation according to Equation (1) is generated and supplied to the student data storage unit 135. Here, the student data generation unit 134 generates low-quality image data by, for example, filtering the high-quality image data as the learning image data to reduce the resolution, and generates the low-quality image data. Is supplied to the student data storage unit 135 as student data.
  • the student data storage unit 135 stores the student data supplied from the student data generation unit 134.
  • the learning unit 136 sequentially sets the pixels constituting the high-quality image data as the teacher data stored in the teacher data storage unit 133 as the pixel of interest, and the student data storage unit 135 for the pixel of interest.
  • the low-quality pixels constituting the low-quality image data stored in the student data the low-quality pixels having the same tap structure as those selected by the tap selection unit 112 in FIG. 25 are selected as the prediction taps.
  • the learning unit 136 uses each pixel constituting the teacher data and the prediction tap selected when the pixel is the pixel of interest, and constructs a normal equation of Equation (8) for each class. Find the tap coefficient for each class by solving
  • FIG. 28 shows a configuration example of the learning unit 136 of FIG.
  • the pixel-of-interest selecting unit 141 sequentially selects pixels constituting the teacher data stored in the teacher data storage unit 133 as the pixel of interest, and uses the information representing the pixel of interest as a necessary block. Supply.
  • the tap selection unit 142 selects the pixel of interest from the low image quality pixels constituting the low image quality image data as the student data stored in the student data storage unit 135, by the tap selection unit 112 in FIG. By selecting the same pixel, a prediction tap having the same tap structure as that obtained by the tap selection unit 112 is obtained and supplied to the adding unit 145.
  • the tap selection unit 143 selects the pixel of interest from the low-quality pixels constituting the low-quality image data as the student data stored in the student data storage unit 135, by the tap selection unit 113 in FIG. As a result, a class tap having the same tap structure as that obtained by the tap selection unit 113 is obtained and supplied to the class classification unit 144.
  • the class classification unit 144 is based on the class tap output from the tap selection unit 143, and the class shown in FIG. The same class classification as the class classification unit 114 is performed, and the class code corresponding to the class obtained as a result is output to the addition unit 145.
  • the addition unit 145 receives the teacher data from the teacher data storage unit 133 as the pixel of interest.
  • the class classification unit 144 adds the target pixel and the target data supplied from the tap selection unit 142 to the student data (pixels) constituting the prediction tap. This is done for each class code supplied from.
  • the adding unit 145 includes the teacher data y stored in the teacher data storage unit 133, the prediction tap X output from the tap selection unit 142, and the class code k n, k output from the class classification unit 144.
  • the adding unit 145 uses the prediction tap (student data) X for each class corresponding to the class code supplied from the class classification unit 144, and generates the raw data in the matrix on the left side of Equation (8).
  • the adding unit 145 also uses the prediction tap (student data) X and the teacher data y for each class corresponding to the class code supplied from the class classification unit 144, and uses equation (8).
  • the adding unit 145 is a combination of the left-side matrix component ( ⁇ ⁇ X) and the right-side vector component in Equation (8) previously obtained for the teacher data set as the target pixel.
  • the addition unit 145 performs the above-described addition using all the teacher data stored in the teacher data storage unit 133 (Fig. 27) as the target pixel, so that the expression (8)
  • the normal equation shown in (1) is established, the normal equation is supplied to the tap coefficient calculation unit 146.
  • the tap coefficient calculation unit 146 performs normalization for each class supplied from the addition unit 145. By solving the equation, the optimum tap coefficient w is obtained and output for each class.
  • the coefficient output unit 115 in the image conversion apparatus 101 in Fig. 25 stores the tap coefficient w for each class obtained as described above!
  • tap coefficients are As described above, it is possible to obtain what performs various image conversion processes.
  • the high-quality image data is used as teacher data corresponding to the second image data
  • the low-quality image data in which the spatial resolution of the high-quality image data is degraded is
  • SD Standard Definition
  • the tap coefficient is the low-quality image data (SD (Standard Definition) image) as shown first in FIG.
  • the first image data may have the same or less number of pixels than the second image data (teacher data).
  • the tap coefficient is the high S / N ratio obtained by removing (decreasing) the noise contained in the first image data that is low S / N image data. It is possible to obtain an image that performs image conversion processing as noise removal processing that converts the image data to second image data.
  • the first image data that is a part or all of a certain image data is converted into the second image data that is an enlarged image data obtained by enlarging the first image data. It is possible to obtain what performs image conversion processing as resizing processing (processing to change the number of pixels) for conversion to image data.
  • the tap coefficient for performing the resizing process is that the high-quality image data is the teacher data.
  • the spatial resolution of the high-quality image data can also be obtained by learning tap coefficients using the low-quality image data that has been degraded by thinning out the number of pixels as student data.
  • high frame rate image data is used as teacher data
  • tap coefficient learning is performed using image data obtained by thinning out frames of high frame rate image data as the teacher data as student data.
  • the tap coefficient is the time required to convert the first image data having a predetermined frame rate into the second image data having a high frame rate. It is possible to obtain an image conversion process as a resolution creation process.
  • step S121 the teacher data generation unit 132 and the student data generation unit 134 obtain the second image data obtained by the image conversion process from the learning image data stored in the learning image storage unit 131.
  • Teacher data corresponding to (or equivalent to) the image data and student data corresponding to the first image data to be subjected to image conversion processing are generated and supplied to the teacher data storage unit 133 and the student data generation unit 134, respectively.
  • step S122 the pixel-of-interest selecting unit 141 selects the teacher data stored in the teacher-data storage unit 133 that has not yet been set as the pixel of interest. , Select as the pixel of interest, and proceed to Step S123.
  • step S 123 the tap selection unit 142 selects a pixel as student data to be a prediction tap from the student data stored in the student data storage unit 135 for the target pixel, and supplies the selected pixel to the addition unit 145.
  • the tap selection unit 143 selects student data as class taps from the student data stored in the student data storage unit 135 for the target pixel, and supplies the selected class data to the class classification unit 144.
  • step S124 the class classification unit 144 performs cluster clustering on the pixel of interest. Based on the group, the target pixel is classified, the class code corresponding to the class obtained as a result is output to the adding unit 145, and the process proceeds to step S125.
  • step S125 the adding unit 145 reads the target pixel from the teacher data storage unit 133, and configures the target pixel and the prediction tap selected for the target pixel supplied from the tap selection unit 142.
  • the addition of Expression (8) for the student data is performed for each class code supplied from the class classification unit 144, and the process proceeds to Step S126.
  • step S126 the pixel-of-interest selecting unit 141 determines whether teacher data that is not yet a pixel of interest is stored in the teacher data storage unit 133. In step S 126, when it is determined that the teacher data power that is not the pixel of interest is still stored in the teacher data storage unit 133, the process returns to step S 122 and the same processing is repeated thereafter.
  • step S126 If it is determined in step S126 that the teacher data is not stored in the teacher data storage unit 133 as the pixel of interest, the adding unit 145 determines that the addition step 145 has been performed in steps S122 to S126.
  • the matrix on the left side and the vector on the right side in Equation (8) for each class obtained by the above process are supplied to the tap coefficient calculation unit 146, and the process proceeds to step S127.
  • step S127 the tap coefficient calculation unit 146 solves the normal equation for each class composed of the matrix on the left side and the vector on the right side in the equation (8) for each class supplied from the addition unit 145. For each class, tap coefficient w is obtained and output for processing.
  • the tap coefficient calculation unit 146 outputs a default tap coefficient, for example.
  • FIG. 31 shows a configuration example of an image conversion apparatus 151 that is another image conversion apparatus that performs image conversion processing using class classification adaptation processing.
  • the image conversion device 151 is different from the coefficient output unit 115 in that the image conversion device 151 of FIG. 25 is provided except that the coefficient output unit 155 is provided.
  • the configuration is the same as that of the device 101.
  • the coefficient output unit 155 is supplied with a class (class code) from the class classification unit 114, and is also supplied with a parameter z input from the outside in response to a user operation, for example. .
  • the coefficient output unit 155 generates a tap coefficient for each class corresponding to the parameter z as described later, and predicts the tap coefficient of the class from the class classification unit 114 out of the tap coefficients for each class. The result is output to the calculation unit 116.
  • FIG. 32 shows a configuration example of the coefficient output unit 155 of FIG.
  • the coefficient generation unit 161 generates a tap coefficient for each class based on the coefficient seed data stored in the coefficient seed memory 162 and the parameter z stored in the parameter memory 163, and the coefficient memory 164 To be stored and overwritten.
  • Coefficient seed memory 162 stores coefficient seed data for each class obtained by learning of coefficient seed data described later.
  • the coefficient seed data is so-called seed data that generates tap coefficients.
  • the parameter memory 163 stores the parameter z input from the outside in accordance with a user operation or the like in an overwritten manner.
  • the coefficient memory 164 stores the tap coefficient for each class supplied from the coefficient generation unit 161 (the tap coefficient for each class corresponding to the parameter z). Then, the coefficient memory 164 reads the tap coefficient of the class supplied from the class classification unit 114 (FIG. 31) and outputs it to the prediction calculation unit 116 (FIG. 31).
  • the parameter z when the parameter z is input from the outside to the coefficient output unit 155, the parameter z is stored in the parameter memory 163 of the coefficient output unit 155 (FIG. 32). Is stored in an overwritten form.
  • the coefficient generation unit 161 reads the coefficient seed data for each class from the coefficient seed memory 162. Then, the parameter z is read from the parameter memory 163, and the tap coefficient for each class is obtained based on the coefficient seed data and the parameter z. Then, the coefficient generation unit 161 supplies the tap coefficient for each class to the coefficient memory 164, and overwrites the coefficient in the form of overwriting.
  • Image conversion apparatus 151 stores tap coefficients, and generates a tap coefficient corresponding to parameter z in coefficient output section 155 provided in place of coefficient output section 115 that outputs the tap coefficient. 25, the same processing as the processing according to the flowchart of FIG. 26 performed by the image conversion apparatus 101 of FIG. 25 is performed.
  • the high-quality image data (high-quality image data) is used as the second image data, and the spatial resolution of the high-quality image data is reduced.
  • High-quality image data (low-quality image data) is used as the first image data, and a prediction tap is selected from the low-quality image data. For example, let us consider obtaining (predicting) the pixel value of by the linear first-order prediction calculation of equation (1).
  • the pixel value y of the high-quality pixel can be obtained by a higher-order expression of the second or higher order than the linear first-order expression shown in the expression (1).
  • the coefficient generation unit 161 performs tap coefficient w force coefficient type memo.
  • the coefficient seed data stored in the memory 162 and the parameter z stored in the parameter memory 163 are generated.
  • Equation (11) the tap coefficient w is given by the linear linear equation of coefficient seed data / 3 and variable t.
  • Equation (13) X is the prediction tap for the high-quality pixel of the k-th sample.
  • Coefficient seed data 13 with the prediction error e of equation (14) set to 0 is used to predict high-quality pixels.
  • coefficient seed data 0 is optimal, for example, the minimum
  • the optimal coefficient seed data 0 is the square error represented by the following equation:
  • Equation (15) K is the high-quality pixel y and the prediction for the high-quality pixel y.
  • equation (17) can be expressed by the normal equation shown in equation (20) using X and Y.
  • Xi, M, N, M ⁇ M, 1 ⁇ , ⁇ 2, 1, 1, 1 2, 1, 1,2--, M, 1, M X2, M, 2, 1--. ⁇ 2 , M, N, M ⁇ ,, 2 ⁇ 2 , 1
  • the normal equation of equation (20) can be solved for coefficient seed data ⁇ by using, for example, a sweep-out method (Gauss-Jordan elimination method).
  • the coefficient generation unit 161 the coefficient seed data ⁇ and m, n stored in the parameter memory 163
  • the tap coefficient w and the target pixel as the high-quality pixel are set to n.
  • N formula (1) is calculated using the low-quality pixels (pixels of the first image data) x that make up the prediction tap, and the pixel value of the target pixel as a high-quality pixel Value).
  • Fig. 33 shows a configuration example of a learning device 171 that performs learning to obtain coefficient seed data 0 for each class by solving the normal equation of equation (20) for each class. .
  • the learning device 171 includes a student data generation unit 174 and a learning unit 176 instead of the student data generation unit 134 and the learning unit 136, respectively, and a parameter generation unit 181. Is configured in the same manner as the learning device 121 of FIG.
  • the student data generation unit 174 generates student data from the learning image data, and supplies it to the student data storage unit 135 to store it, similarly to the student data generation unit 134 of FIG.
  • the student data generation unit 174 filters the high-quality image data as the learning image data with, for example, an LPF having a cutoff frequency corresponding to the parameter z supplied thereto, as student data. Low-quality image data.
  • the student data generation unit 174 generates low-quality image data as student data having different spatial resolutions of Z + 1 for the high-quality image data as the learning image data.
  • the larger the value of the parameter z the higher the cutoff frequency.
  • LPF is used to filter high-quality image data and generate low-quality image data as student data. Therefore, here, the lower the image quality data corresponding to the larger parameter z, the higher the spatial resolution.
  • the student data generation unit 174 supports the spatial resolution in the horizontal and vertical directions of the high-quality image data in the parameter z. It is assumed that low-quality image data that has been reduced by this amount is generated.
  • the learning unit 176 uses the teacher data stored in the teacher data storage unit 133, the student data stored in the student data storage unit 135, and the parameter z supplied from the parameter generation unit 181 to The coefficient seed data for each is obtained and output.
  • FIG. 34 shows a configuration example of the learning unit 176 in FIG.
  • portions corresponding to those in the learning unit 136 in FIG. 28 are denoted by the same reference numerals, and description thereof will be omitted as appropriate.
  • the tap selection unit 192 uses the low-quality pixels constituting the low-quality image data as the student data stored in the student data storage unit 135 for the target pixel. Thirty-one tap selection units 112 select a prediction tap having the same tap structure as that selected by the tap selection unit 112 and supply it to the addition unit 195.
  • the tap selection unit 193 is also configured to display the target pixel from the low image quality pixels constituting the low quality image data as the student data stored in the student data storage unit 135.
  • a cluster having the same tap structure as that selected by the 31 tap selection units 113 is selected and supplied to the class classification unit 144.
  • the parameter z generated by the parameter generation unit 181 of FIG. 33 is supplied to the tap selection units 192 and 193, and the tap selection units 192 and 193 Student data generated corresponding to the parameter z supplied from the data generator 181 (here, low-quality image data as student data generated using an LPF with a cutoff frequency corresponding to the parameter z) To select a prediction tap and a class tap.
  • the adding unit 195 reads out the target pixel from the teacher data storage unit 133 in FIG. 33, and predicts the target pixel and the target pixel supplied from the tap selection unit 192! /. For each class supplied from the class classification unit 144, addition is performed for the student data composing the class and the parameter z when the student data is generated.
  • the addition unit 195 includes the teacher data y stored as the target pixel stored in the teacher data storage unit 133 and the prediction tap X regarding the target pixel output from the tap selection unit 192.
  • the parameter z when the student data constituting the prediction tap for the eye pixel is generated is supplied from the parameter generation unit 181.
  • the adding unit 195 uses the prediction type (student data) X (X) and the parameter z, and in the matrix on the left side of the equation (20), Formula (1
  • the addition unit 195 again performs prediction tap (student data) X, teacher data y, and parameter z for each class corresponding to the class code supplied from the class classification unit 144.
  • the adding unit 195 calculates the component X of the left-hand side matrix and the component of the right-hand side vector i.P.j.q in Equation (20) previously obtained for the teacher data set as the target pixel.
  • Nent Y is stored in its built-in memory (not shown), and the matrix component is stored.
  • the addition unit 195 uses all the teacher data stored in the teacher data storage unit 133 as the target pixel in accordance with the parameters z of all the values of 0, 1, ..., Z,
  • the normal equation shown in Equation (20) is established for each class by performing the above addition, the normal equation is supplied to the coefficient seed calculation unit 196.
  • the coefficient seed calculation unit 196 obtains and outputs coefficient seed data 0 for each class by solving the normal equation for each class supplied from the addition unit 195.
  • step S 131 the teacher data generation unit 132 and the student data generation unit
  • the 174 generates and outputs teacher data and student data from the learning image data stored in the learning image storage unit 131, respectively. That is, the teacher data generation unit 132 outputs the learning image data as it is, for example, as teacher data. Further, the student data generation unit 174 is supplied with the parameter z of Z + 1 value generated by the parameter generation unit 181. For example, the student data generation unit 174 converts the image data for learning to the cutoff frequency corresponding to the parameter z of Z + 1 values (0, 1,..., Z) from the parameter generation unit 181. By filtering with LPF, Z + 1 frame student data is generated and output for each frame of teacher data (learning image data).
  • the teacher data output from the teacher data generation unit 132 is supplied to and stored in the teacher data storage unit 133, and the student data output from the student data generation unit 174 is supplied to and stored in the student data storage unit 135. Is done.
  • step S132 in which the parameter generation unit 181 sets the parameter z to, for example, 0 as an initial value, and arranges the tap selection units 192 and 193 of the learning unit 176 (Fig. 34).
  • step S133 in step S133, the target pixel selection unit 141 is still the target pixel of the teacher data stored in the teacher data storage unit 133. If not, the process proceeds to step S134.
  • step S134 the tap selection unit 192 performs the student data storage unit on the target pixel.
  • the student data for the parameter z output by the parameter generation unit 181 stored in 135 (the learning image data corresponding to the teacher data serving as the pixel of interest is stored in the parameter z
  • the prediction tap is selected from the student data generated by filtering with the LPF having the corresponding cutoff frequency, and supplied to the adding unit 195.
  • the tap selection unit 193 again selects the class tap from the student data for the parameter z output from the parameter generation unit 181 and stored in the student data storage unit 135 for the pixel of interest, and classifies it. Supply to part 144.
  • step S135 the class classification unit 144 classifies the target pixel based on the cluster group for the target pixel, and outputs the class of the target pixel obtained as a result to the addition unit 195. Then, the process proceeds to step S136.
  • step S135 the adding unit 195 reads the target pixel from the teacher data storage unit 133, the target pixel, the prediction tap supplied from the tap selection unit 192, and the parameter z output by the parameter generation unit 181. Is used to calculate the left side matrix component X t X t and the right side vector component X ty in equation (20). Furthermore, the addition part i, K p j, K q i, K p K
  • step S137 the parameter generation unit 181 determines whether or not the parameter z output by itself is equal to Z which is the maximum value that can be taken. If it is determined in step S 136 that the parameter z output by the parameter generation unit 181 is not equal to the maximum value Z (less than the maximum value Z), the process proceeds to step S138, and the parameter generation unit 181 1 is added to the parameter z, and the added value is output as a new parameter z to the tap selection units 192 and 193 and the addition unit 195 of the learning unit 176 (FIG. 34).
  • step S 137 If it is determined in step S 137 that the parameter z is equal to the maximum value Z, the process proceeds to step S 139, where the pixel-of-interest selection unit 141 stores the pixel of interest in the teacher data storage unit 133. Whether or not teacher data is stored is determined.
  • step S 138 when it is determined that the teacher data power not set as the pixel of interest is still stored in the teacher data storage unit 133, the process returns to step S 132, and the same processing is repeated thereafter. It is.
  • step S139 when it is determined that the teacher data is not stored in the teacher data storage unit 133 as the pixel of interest, the addition unit 195 determines the class obtained by the processing so far.
  • the matrix on the left side and the vector on the right side in each equation (20) are supplied to the coefficient seed calculation unit 196, and the process proceeds to step S140.
  • step S140 the coefficient seed calculation unit 196 solves the regular equation for each class composed of the matrix on the left side and the vector on the right side in Equation (20) for each class supplied from the addition unit 195. For each class, the coefficient seed data 13 is obtained and output, and the processing m, n
  • the coefficient seed calculation unit 196 outputs default coefficient seed data, for example.
  • the coefficient seed data learning the student data corresponding to the first image data and the second image data are supported in the same manner as in the tap coefficient learning described in FIG.
  • the coefficient seed data can be obtained by performing various image conversion processes.
  • the learning image data is used as teacher data corresponding to the second image data as it is, and low-quality image data in which the spatial resolution of the learning image data is degraded is used. Since the coefficient seed data is learned as the student data corresponding to the first image data, the first image data is improved as the spatial resolution of the coefficient seed data. It is possible to obtain an image conversion process as a spatial resolution creation process that converts the image data into the second image data.
  • the horizontal resolution and the vertical resolution of the image data can be improved to a resolution corresponding to the parameter z.
  • high-quality image data is used as teacher data
  • image data obtained by superimposing noise at a level corresponding to the parameter z on high-quality image data as the teacher data is used as student data.
  • Coefficient seed data is obtained by learning coefficient seed data.
  • an image conversion process as a noise removal process for converting the first image data into the second image data from which the noise included therein is removed (reduced).
  • the image conversion device 151 in FIG. 31 uses the force S to obtain S / N image data corresponding to the parameter z.
  • certain image data is used as teacher data, and image data obtained by thinning out the number of pixels of the image data as the teacher data corresponding to the parameter z is used as student data, or a predetermined size.
  • the image data is used as student data, and the pixel data of the image data as the student data is used as the teacher data for learning the coefficient seed data using the image data obtained with the space bow IV rate corresponding to the parameter z.
  • the coefficient seed data can be obtained by performing image conversion processing as resizing processing for converting the first image data into second image data whose size is enlarged or reduced.
  • the image conversion device 151 in FIG. 31 can obtain the image data changed to the size (number of pixels) corresponding to the parameter z.
  • the tap coefficient w is set to 0 ⁇ ° + ⁇ ⁇ + ⁇ ⁇ ⁇ , ⁇ 2, ⁇ , as shown in equation (9).
  • the force n is determined to obtain the tap coefficient W to improve the deviation corresponding to the parameter ⁇ .
  • the tap factor W corresponds to the horizontal and vertical resolutions corresponding to the independent parameters Z and Z, n
  • the tap coefficient w is replaced with, for example, the cubic equation / 3 ⁇ ° ⁇ ° + / 3 ⁇ ' ⁇ ° ⁇ ⁇ , ⁇ ⁇ 2, ⁇ ⁇
  • Equation (11) Can be expressed by Equation (11), and accordingly, the learning device 171 in FIG. 33 and the image data in which the horizontal resolution and vertical resolution of the teacher data are deteriorated corresponding to the parameters z and z, By using the data as learning and obtaining coefficient seed data 0, water m, n
  • the flat resolution, vertical resolution, and temporal resolution correspond to the independent parameters Z, Z, Z, t
  • image data in which the horizontal resolution and vertical resolution of the teacher data are deteriorated corresponding to the parameter z and noise is added to the teacher data corresponding to the parameter z is obtained.
  • learning is performed as student data, and the coefficient seed data ⁇ is obtained, so that the horizontal and vertical resolutions corresponding to the parameter ⁇ are changed to m, n
  • the learning device 171 in FIG. 33 uses the horizontal and vertical pixel numbers respectively. However, the image data of m times, m times, ...
  • the coefficient seed data is learned by using the image data of the number of pixels as student data corresponding to the check image data.
  • the image conversion unit 31 is configured by the image conversion device 151 of FIG.
  • the coefficient seed data obtained in this way is used for the image conversion device 151 (FIG. 31) as the image conversion unit 31.
  • the image conversion device 151 as the image conversion unit 31 is expanded as a parameter ⁇ .
  • an image conversion device 15 as the image conversion unit 31 is obtained.
  • the image conversion process for converting the check image data into m-times enlarged image data with m times the number of pixels can be performed by the class classification adaptive process.
  • the above-described series of processing can be performed by software or software.
  • a series of processing is performed by software, it is installed in a program card, a general-purpose computer, or the like that constitutes the software.
  • FIG. 36 shows an example of the configuration of an embodiment of a computer on which a program for executing the series of processes described above is installed.
  • the program can be recorded in advance in a hard disk 205 or ROM 203 as a recording medium built in the computer.
  • the program may be a flexible disk, CD-ROM (Compact Disc Read
  • a removable recording medium 211 such as a Only Memory), MO (Magneto Optical) disk, DVD (Digital Versatile Disc), magnetic disk, or semiconductor memory.
  • a removable recording medium 211 can be provided as so-called knocking software.
  • the program is installed on the computer from the removable recording medium 211 as described above, or transferred from the download site to the computer wirelessly via a digital satellite broadcasting artificial satellite. (Area Network), transferred to the computer via a network such as the Internet, and the computer can receive the program transferred in this way by the communication unit 208 and install it in the built-in hard disk 205. it can.
  • a network such as the Internet
  • the computer has a CPU (Central Processing Unit) 202 built in!
  • An input / output interface 210 is connected to the CPU 202 via the bus 201, and the CPU 202 has an input unit 207 configured with a keyboard, a mouse, a microphone, and the like by the user via the input / output interface 210.
  • a program stored in a ROM (Read Only Memory) 203 is executed accordingly.
  • the CPU 202 is transferred from a program, satellite, or network stored in the hard disk 205, received by the communication unit 208, and installed in the hard disk 205.
  • the program read from the removable recording medium 211 installed in the drive 209 or installed in the hard disk 205 is loaded into a RAM (Random Access Memory) 204 and executed.
  • the CPU 202 performs processing according to the above-described flow chart or processing performed by the above-described configuration of the block diagram.
  • the CPU 202 outputs the processing result as necessary, for example, from an output unit 206 composed of an LCD (Liquid Crystal Display), a speaker, or the like via the input / output interface 210, or a communication unit. It is transmitted from 208 and further recorded on the hard disk 205.
  • the display device 2 in addition to the check image, three images are displayed simultaneously.
  • the images displayed simultaneously with the check image are 1, 2, Or it may be 4 or more.
  • the screen of display device 2 is divided into four display areas # 0 to # 3 which are equally divided horizontally and vertically, and images are displayed in each of the display areas # 0 to # 3.
  • the screen S of the display device 2 can be divided into other display areas such as 2, 8, 16 and the like, and an image can be displayed in each display area. .
  • the arrangement of the display area is not limited to the matrix arrangement, and the display area may be arranged at an arbitrary position on the screen of the display device 2. it can
  • the display device 2 is an LCD with a force S
  • the display device is, for example, a CRT, PDP, organic EL, projector (front projector that emits light from the front of the screen) , And rear projectors that irradiate light from the back of the screen), and FED can be used.
  • the signal processing unit 12 displays an image corresponding to the image displayed on the organic EL, PDP, and CRT on the display device 2 that is an LCD.
  • the signal processing for generating each data is performed and displayed on the display device 2, but the signal processing unit 12 corresponds to an image displayed on the FED, front projector, rear projector, etc.
  • Signal processing for generating post-processing image data for displaying the image on the display device 2 that is an LCD can be displayed on the display device 2.
  • An FPD display device that performs FPD (Flat Panel Display) signal processing, including ABL (Automatic Beam Current Limiter) processing, VM (Velocity Modulation) processing, and CRT (Cathode Ray Tube) saddle processing Embodiment in which the FPD display device is a natural display equivalent to the CRT display device which is a CRT display device]
  • FIG. 37 shows an example of a conventional FPD display device (FPD display device) such as an LCD (Liquid Crystal Display).
  • FPD display device such as an LCD (Liquid Crystal Display).
  • Brightness adjustment Contrast adjustment unit 10011 adjusts the brightness of the image signal by applying an offset to the input image signal, and adjusts the contrast of the image signal by adjusting the gain. , And supply it to the high image quality processing unit 10012.
  • the high image quality processing unit 10012 performs high image quality processing represented by DRC (Digital Reality Creation). That is, the image quality enhancement processing unit 10012 is a processing block for obtaining a high quality image, and performs image signal processing including pixel number conversion on the image signal from the brightness adjustment contrast adjustment unit 10011, ⁇ ⁇ ⁇ Supply to the correction unit 10013.
  • DRC Digital Reality Creation
  • DRC is described as class classification adaptation processing in, for example, JP-A-2005-236634 and JP-A-2002-223167.
  • the ⁇ correction unit 10013 is a gamma that adjusts the signal level of the dark part by signal processing in addition to the ⁇ characteristic of the original phosphor (CRT light emitting part) because the collar part is difficult to see on the CRT display device. It is a processing block for performing correction processing.
  • the LCD panel also contains a processing circuit that adjusts the photoelectric conversion characteristics (transmission characteristics) of the liquid crystal to the ⁇ characteristics of the CRT, so the conventional FPD display device is the same as the CRT display device. ⁇ correction processing is performed.
  • the ⁇ correction unit 10013 performs gamma correction processing on the image signal from the image quality enhancement processing unit 10012, and supplies the resulting image signal to, for example, an LCD as an FPD (not shown). To do. As a result, an image is displayed on the LCD.
  • the image signal is directly input to the FPD through the image quality improvement process and the gamma correction process after the contrast and brightness adjustment processes are performed.
  • the brightness of the input and the display image is proportional to gamma, but the display image is an image that feels glaring if it is too bright compared to the CRT display device. End up.
  • an image displayed on an FPD display device is an image that is brighter than a CRT display device. Only the image signal processing system that performs processing only for the existing image signal was modified for FPD and installed in the FPD display device, so the drive system itself that the CRT display device has only the image signal processing system has This is due to the fact that the display system and the overall system structure are considered by comprehensive signal processing including the unique response characteristics and drive system.
  • Fig. 38 shows a configuration example of an embodiment of an image signal processing device included in an FPD display device capable of performing natural display equivalent to a CRT display device.
  • the image signal processing device in FIG. 38 is a display device of a display method other than CRT, that is, here, for example, when an image signal is displayed on an FPD display device having an FPD such as an LCD, CRT display is performed.
  • the image signal is processed so that it appears as an image displayed on the device.
  • a CRT display device that displays an image to be displayed by the image signal processing device of FIG. 38, that is, the image signal processing device of FIG. Describes the CRT display device that emulates!
  • FIG. 39 shows a configuration example of the CRT display device.
  • the brightness adjustment contrast adjustment unit 10051 and the image quality improvement processing unit 10052 perform the brightness adjustment contrast adjustment unit 10011 in FIG.
  • the image processing unit 10012 performs the same processing, and the processed image signal is supplied to the gain adjusting unit 10053 and the image signal differentiating circuit 10060.
  • the gain adjustment unit (limiter) 10053 limits the signal level of the image signal from the image quality enhancement processing unit 10052 by an ABL control signal from the ABL control unit 10059 described later, and supplies the signal level to the ⁇ correction unit 10054. . That is, the gain adjustment unit 10053 adjusts the gain of the image signal from the image quality enhancement processing unit 10052 instead of directly limiting the amount of electron beam current of the CRT 10056 described later.
  • gamma correction unit 10054 subjects the image signal from the gain adjustment unit 10053 performs the same ⁇ correction processing ⁇ correcting unit 10013 of FIG. 37, an image signal obtained as a result, video (Video) amplifier Supply to 10055.
  • the video amplifier 10055 amplifies the image signal from the ⁇ correction unit 10054 and supplies it to the CRT 10056 as a CRT drive image signal.
  • an FBT (Flyback Transformer) 10057 generates a horizontal deflection drive current for performing horizontal scanning of an electron beam and an anode voltage of a CRT (CRT) 10056 in a CRT display device!
  • the output of the transformer is supplied to the beam current detector 10058.
  • the beam current detection unit 10058 detects the amount of electron beam current necessary for ABL control from the output of the FBT 10057 and supplies it to the CRT 10056 and the ABL control unit 10059.
  • the ABL control unit 10059 measures the current value of the electron beam from the beam current detection unit 10058 and outputs an ABL control signal for controlling the signal level of the image signal to the gain adjustment unit 10053 .
  • the image signal differentiating circuit 10060 differentiates the image signal from the image quality enhancement processing unit 10052 and supplies the differential value of the image signal obtained as a result to the VM drive circuit 10061.
  • VM (Velocity Modulation) drive circuit 10061 performs VM processing that changes the display brightness of the same image signal by partially changing the deflection (horizontal deflection) speed of the electron beam in the CRT display device. .
  • VM processing is performed separately from the main horizontal deflection circuit (consisting of deflection yoke DY, FBT10057, horizontal drive circuit (not shown), etc.) and dedicated VM coil (not shown) and VM drive.
  • circuit 10061 Implemented using circuit 10061. That is, the VM drive circuit 10061 generates a VM coil drive signal for driving the VM coil based on the differential value of the image signal from the image signal differentiation circuit 10060, and supplies the VM coil drive signal to the CRT 10056.
  • the CRT 10056 includes an electron gun EG, a deflection yoke DY, and the like.
  • the CRT 10056 emits an electron beam according to the output of the electron gun EG force beam current detection unit 10058 and the CRT drive image signal from the video amplifier 10055, and the electron beam is a magnetic field generated by the deflection yoke DY which is a coil.
  • the image is displayed by changing (scanning) the horizontal and vertical directions in accordance with and colliding with the phosphor screen of CRT10056.
  • the VM coil is driven in accordance with the VM coil drive signal from the VM drive circuit 10061, whereby the deflection speed of the electron beam is partially changed, and for example, CRT 10056 The edge of the image displayed on the screen is emphasized.
  • VM processing that partially changes the deflection speed
  • ABL processing ABL control
  • Control signals that affect the quality of the image displayed on CRT10056.
  • the image signal processing device of FIG. 38 by converting the image signal in the processing order as shown in FIG. 38, the image signal processing device adapts to the FPD driving method and is similar to the CRT display device. It is possible to perform display.
  • the brightness adjustment contrast adjustment unit 10031 and the image quality improvement processing unit 10032 perform the brightness adjustment contrast adjustment unit 10011 of FIG.
  • the same processing as each of the high image quality processing unit 10012 is performed and supplied to the ABL processing unit 10033, the full screen brightness average level detection unit 10036, and the peak detection differential control value detection unit 10037.
  • the ABL processing unit 10033 receives an image from the high image quality processing unit 10032 when the image has a certain level of brightness (luminance and area).
  • ABL emulation processing is performed to limit the image signal level according to the control from the ABL control unit 10038.
  • the ABL emulation processing in FIG. 38 is processing for emulating the ABL processing in FIG.
  • the ABL process performed in the CRT display device is a process that limits the current when the brightness (luminance and area) exceeds a certain level so that the electron beam (current) does not become excessive in the CRT.
  • the ABL processing unit 10033 performs ABL processing emulation in FIG.
  • the ABL processing unit 10033 performs processing (ABL emulator) to reduce the actual display brightness when attempting to display a bright image in a large area by limiting the current of the electron beam in the CRT. (Rate processing) is performed by nonlinear arithmetic processing as processing to limit the signal level of the image signal.
  • the entire screen brightness average level detection unit 10036 detects the screen brightness and average level based on the image signal from the image quality enhancement processing unit 10032, and determines the peak detection differential control value. This is supplied to the detection unit 10037 and the ABL control unit 10038.
  • the ABL control unit 10038 detects the screen brightness and its area based on the screen brightness and average level detection results from the full screen brightness average level detection unit 10036, thereby limiting the screen brightness.
  • a control signal is generated and supplied to the ABL processing unit 10033.
  • the ABL processing unit 10033 realizes (emulates) the ABL processing by performing the above non-linear operation on the image signal from the image quality enhancement processing unit 10032 based on the control signal from the ABL control unit 10038.
  • the image signal subjected to ABL processing in the ABL processing unit 10033 is supplied to the VM processing unit 10034.
  • the VM processing unit 10034 is a processing block for performing processing equivalent to the VM processing in the CRT display device in FIG. 39 on the image signal, and performs emulation of VM processing performed in the CRT display device in FIG. .
  • the peak detection differential control value detection unit 10037 is a partial peak signal of an image signal or an edge signal obtained by differentiation of the image signal from the image signal from the image quality enhancement processing unit 10032.
  • Image from the full-screen brightness average level detector 10036 It is supplied to the VM control unit 10039 along with the brightness and average level of the surface.
  • the VM control unit 10039 is a partial image based on the partial peak signal of the image signal from the peak detection differential control value detection unit 10037, the edge signal obtained by differentiation of the image signal, the brightness of the screen, and the like.
  • a VM control signal corresponding to the VM coil drive signal in the CRT display device that changes the signal level is generated and supplied to the VM processing unit 10034.
  • the VM processing unit 10034 is a process for changing the level of the image signal from the ABL processing unit 10033 in part by the VM control signal generated by the VM control unit 10039, that is, a partial image signal. Processing such as correction and edge enhancement and peak enhancement of the image signal is performed.
  • the deflection yoke that does not apply correction to the force image signal itself to be subjected to VM processing
  • the luminance is changed as a result by changing the deflection speed (time) of horizontal deflection peculiar to CRT10056.
  • the VM processing unit 10034 calculates a correction value corresponding to a luminance change caused by the VM processing performed in the CRT display device, and performs a calculation process of correcting the image signal using the correction value, thereby performing CRT display. Emulate VM processing performed on the device.
  • the CRT gamma processing unit 10035 corrects defects that include processing performed in the processing circuit (conversion circuit) for obtaining the same gamma characteristics as the CRT that a conventional LCD panel had in the panel. In order to perform processing and color temperature compensation processing, processing for adjusting the level of each color signal (component signal) is performed.
  • the CRT gamma processing unit 10035 in Fig. 38 corrects not only the CRT characteristics on the same LCD screen but also the electro-optical conversion characteristics necessary for expressing multiple display characteristics such as PDP and LED display.
  • processing necessary for matching the input voltage-transmittance characteristics of the LCD with the electrical brightness characteristics of the CRT is performed in this embodiment.
  • the display color temperature compensation controller 10040 divides the LCD display screen into a plurality of display areas (for example, display areas # 0 to # 3 in FIG. 2), and displays each display area.
  • a system that presents an image of the same quality as an image that would be displayed on a display device having a plurality of different display characteristics (for example, the monitor system in FIG. 1), it will be displayed on a CRT.
  • a control signal to be displayed as a color temperature for T is generated to perform control for adjusting the tolerance of each color signal (component signal) and supplied to the CRT ⁇ processing unit 10035.
  • the CRT gamma processing unit 10035 also performs processing for adjusting the balance of the color signals of the image signal from the VM processing unit 10034 in accordance with the control signal from the display color temperature compensation control unit 10040.
  • the display color temperature compensation controller 10040 shown in Fig. 38 is required.
  • the CRT ⁇ processing unit 10035 performs processing according to the control signal from the display color temperature compensation control unit 10040.
  • the gradation characteristics of each panel, which was processed inside a flat panel such as an LCD, are equivalent to the CRT. This includes processing performed by the processing circuit that has been converted so as to absorb the difference in characteristics due to the display panel.
  • the CRT ⁇ processing unit 10035 performs the above processing on the image signal from the VM processing unit 10034, and then supplies the processed image signal to an LCD (not shown) as an FPD. To display.
  • the processing procedure in which the processing performed in the CRT display device is not simply replaced with the image signal processing (after the processing of the ABL processing unit 10033, the VM processing unit 10034 And processing of the CRT y processing unit 10035 after the processing of the VM processing unit 10034 is also taken into consideration, so that the LCD display can be displayed more correctly and the image quality of the image displayed on the CRT display device It is possible to get close to. Therefore, according to the image signal processing apparatus of FIG. 38, an image can be output to the LCD with display characteristics equivalent to those of a CRT.
  • the image signal processing device of Fig. 38 it is possible to emulate the display characteristics due to the characteristic differences of the CRT itself, and it is possible to switch the difference in color and texture on the same LCD. Become. For example, by comparing the color difference between the EBU phosphor and the general phosphor on the same screen, it is possible to easily perform color adjustment and image quality adjustment at the time of transmission.
  • the image is displayed with the “preferred image quality” in the original sense.
  • An image can be displayed.
  • the display is displayed on display devices having different characteristics (for example, CRTs with different phosphors, LCDs and CRTs, etc.) by changing the processing range within the display screen. This makes it easy to use images for comparison and adjustment.
  • step S10011 the brightness adjustment contrast adjustment unit 10031 adjusts the brightness of the image signal supplied thereto, and further Then, the contrast is adjusted and supplied to the image quality enhancement processing unit 10032, and the process proceeds to step S10012.
  • step S10012 the image quality improvement processing unit 10032 performs image signal processing including pixel number conversion on the image signal from the brightness adjustment contrast adjustment unit 10011 1 and after the image signal processing.
  • image signal processing including pixel number conversion on the image signal from the brightness adjustment contrast adjustment unit 10011 1 and after the image signal processing.
  • the ABL processing unit 10033 the full screen brightness average level detection unit 10036, and the peak detection differential control value detection unit 10037, and the process proceeds to step S10013.
  • the full screen brightness average level detection unit 10036 detects the screen brightness and average level based on the image signal from the image quality enhancement processing unit 10032, and detects the peak detection differential control value detection unit 10037, And ABL control unit 10038.
  • the ABL control unit 10038 generates a control signal for limiting the screen brightness based on the screen brightness and average level detection results from the full screen brightness average level detection unit 10036, and the ABL processing unit Supply to 10033.
  • the peak detection differential control value detection unit 10037 obtains a partial peak signal of the image signal and an edge signal obtained by differentiation of the image signal from the image signal from the image quality enhancement processing unit 10032. Then, together with the screen brightness and the average level from the full screen brightness average level detection unit 10036, it is supplied to the VM control unit 10039.
  • the VM control unit 10039 uses the VM in the CRT display device based on the partial peak signal of the image signal from the peak detection differential control value detection unit 10037, the edge signal obtained by the differentiation of the image signal, the brightness of the screen, and the like.
  • a VM control signal corresponding to the coil drive signal is generated and supplied to the VM processing unit 10034.
  • the ABL processing unit 10033 applies a process of emulating ABL processing to the image signal from the image quality enhancement processing unit 10032.
  • the ABL processing unit 10033 emulates the ABL processing (ABL emulation processing, such as limiting the level of the image signal from the image quality enhancement processing unit 10032 in accordance with the control from the ABL control unit 10038. ) And supplies the resulting image signal to the VM processing unit 10034.
  • ABL processing ABL emulation processing, such as limiting the level of the image signal from the image quality enhancement processing unit 10032 in accordance with the control from the ABL control unit 10038.
  • step S10013 the process proceeds from step S10013 to step S10014, and the VM processing unit 10034 applies a process of emulating the VM process to the image signal from the ABL processing unit 10033.
  • the VM processing unit 10034 emulates VM processing such as correcting the luminance of the image signal from the ABL processing unit 10033 in accordance with the VM control signal supplied from the VM control unit 10039 in step S10014.
  • the image signal obtained as a result is supplied to the CRT ⁇ processing unit 10035, and the process proceeds to step S10015.
  • step S10015 the CRT ⁇ processing unit 10035 performs ⁇ correction processing on the image signal from the VM processing unit 10034, and further, according to the control signal from the display color temperature compensation control unit 10040, the VM processing unit Color temperature compensation processing for adjusting the balance of each color signal of the image signal from 10034 is performed. Then, the CRT gamma processing unit 10035 supplies the image signal obtained as a result of the color temperature compensation process to an LCD (not shown) as an FPD for display.
  • FIG. 41 is a block diagram showing a configuration example of the VM processing unit 10034 of FIG.
  • the VM processing unit 10034 includes a luminance correction unit 10210 and an EB processing unit 10220.
  • the brightness correction unit 10210 targets the image signal supplied from the ABL processing unit 10033 (Fig. 38), and the influence of the change in the deflection speed of the horizontal deflection of the electron beam of the CRT display device affects the brightness.
  • the luminance correction processing for correcting the above is performed, and the resulting image signal is supplied to the EB processing unit 10220.
  • the luminance correction unit 10210 includes a VM coefficient generation unit 10211 and a calculation unit 10212.
  • the VM coefficient generator 10211 is supplied with a VM control signal from the VM controller 10039 (Fig. 38).
  • the VM coefficient generation unit 10211 generates a VM coefficient in accordance with the VM control signal from the VM control unit 10039, and supplies the VM coefficient to the calculation unit 10212.
  • the VM coefficient from the VM coefficient generation unit 10211 is supplied to the calculation unit 10212, and the image signal from the ABL processing unit 10033 (Fig. 38) is supplied.
  • the calculation unit 10212 adds the VM coefficient generation unit 102 to the image signal from the ABL processing unit 10033 (Fig. 38).
  • the effect of the change in the deflection speed of the horizontal deflection of the electron beam of the CRT display device on the image signal is corrected for the image signal.
  • the signal is supplied to the EB processing unit 10220.
  • the EB processing unit 10220 targets the image signal from the luminance correction unit 10210 (the image signal processed by the ABL processing unit 10033 and further processed by the luminance correction unit 10210) as an electron beam of the CRT display device.
  • a process that emulates that the light spreads and collides with the phosphor of the CRT display device (EB (Erectron Beam) emulation process) is applied to the CRT gamma processing unit 10035 (Fig. 38).
  • the VM emulation processing performed by the VM processing unit 10034 includes the luminance correction processing performed by the luminance correction unit 10210 and the ⁇ emulation processing performed by the 220 processing unit 10220.
  • FIG. 42 shows an example of the VM coefficient generated by the VM coefficient generation unit 10211 of FIG.
  • the VM coefficient indicates the deflection speed of horizontal deflection (horizontal deflection) in the CRT display device, based on the VM coil drive signal, and the pixel of interest (here, the pixel that corrects the brightness by VM processing).
  • the pixel of interest here, the pixel that corrects the brightness by VM processing.
  • multiple pixels aligned horizontally around the pixel of interest are used as luminance correction targets, and the luminance correction is performed. This coefficient is multiplied by the pixel value (luminance) of the target pixel.
  • the VM coefficient multiplied by the pixel value of the target pixel among the pixels whose luminance is to be corrected is set to a value of 1 or more, and other pixels
  • the VM coefficient multiplied by is set to a value equal to or less than 1 so that the gain in the calculation unit 10212 becomes 1.
  • FIG. 43 shows a method for obtaining the VM coefficient generated by the VM coefficient generation unit 10211 of FIG. That is, A in FIG. 43 shows the waveform of the voltage (deflection voltage) applied to the deflection yoke DY (FIG. 39) of the CRT display device.
  • the deflection yoke DY (Fig. 39) is repeatedly applied with a deflection voltage force that changes with a constant slope and the period of horizontal scanning over time t as shown in A of Fig. 43.
  • the deflection yoke DY (Fig. 39) is repeatedly applied with a deflection voltage force that changes with a constant slope and the period of horizontal scanning over time t as shown in A of Fig. 43.
  • B in Fig. 43 shows a VM coil drive signal generated by the VM drive circuit 10061 (Fig. 39) of the CRT display device.
  • the VM coil force in the deflection yoke DY (Fig. 39) is driven by the VM coil drive signal of B in Fig. 43, and the magnetic field generated by the VM coil reduces the deflection speed of the electron beam. Partially changed, as shown in Figure 43C.
  • C in FIG. 43 shows the time change of the horizontal position of the electron beam when the VM coil generates a magnetic field by the VM coil drive signal in B of FIG.
  • D in Fig. 43 is a subtraction value obtained by subtracting the time change of the horizontal position of the electron beam of C in Fig. 43 from the time change of the horizontal position of the electron beam by the deflection voltage of A in Fig. 43. The derivative value of is shown.
  • VM coefficient generating section 10211 (Fig. 41) generates a value corresponding to the differential value of D in Fig. 43 as the VM coefficient.
  • the specific value of the VM coefficient the range of pixels to be multiplied with the VM coefficient (how many pixel values in the horizontal direction around the target pixel are multiplied with the VM coefficient),
  • the pixel value (level) of the pixel of interest is determined according to the specifications of the CRT display device that emulates the display of the image signal processing device of FIG.
  • Fig. 44 shows the current (beam current) applied to the electron gun that irradiates the electron beam, and the electron beam force S and the spot formed on the display screen of the CRT corresponding to the beam current. Show the relationship with the diameter (spot size).
  • FIG. 44 shows the relationship between the beam current and the spot size for two types of CRTs.
  • the spot size increases as the beam current increases. In other words, if the brightness is large, the spot size is also large.
  • the CRT display screen is coated with red, green, and blue phosphors (fluorescent substances).
  • the red, green, and blue phosphors are coated with red, green, and blue phosphors.
  • the CRT was provided with an opening through which the electron beams pass so that the red, green, and blue phosphors were irradiated with the red, green, and blue electron beams. It is provided on the color selection mechanism display screen.
  • FIG. 45 shows the color selection mechanism.
  • a in FIG. 45 shows a shadow mask which is one of color selection mechanisms.
  • the shadow mask is provided with a hole as a circular opening, and an electron beam passing through the hole is irradiated to the phosphor.
  • a circle without a pattern indicates a hole for irradiating the red phosphor with an electron beam
  • a circle with a diagonal line indicates an electron on the green phosphor.
  • the holes for irradiating the beam and the black circles indicate the Honore for irradiating the blue phosphor with the electron beam.
  • FIG. 45 shows an aperture grill which is another one of the color selection mechanisms.
  • the aperture grill is provided with a slit as an opening extending in the vertical direction, and an electron beam passing through the slit is irradiated to the phosphor.
  • the square without pattern has a slit for irradiating the red phosphor with an electron beam
  • the hatched rectangle has an electron beam on the green phosphor.
  • the slit for irradiating, and the black rectangle indicates the slit for irradiating the blue phosphor with the electron beam.
  • Figure 46 shows the spot of the electron beam formed on the color selection mechanism when the luminance is medium
  • Fig. 47 shows the spot formed on the color selection mechanism when the luminance is high. Each electron beam spot is shown schematically.
  • FIG. 46 and A in FIG. 47 show electron beam spots formed on the shadow mask when the color selection mechanism is a shadow mask.
  • FIG. 46B and FIG. 47B shows the spot of the electron beam formed on the aperture grill when the color selection mechanism is an aperture grill.
  • FIG. 48 is a cross-sectional view showing a state in which an electron beam is irradiated when an aperture grill is employed as a color selection mechanism.
  • FIG. 48 shows the irradiation of the electron beam when the beam current is the first current value.
  • FIG. 48B shows a state in which the electron beam is irradiated when the beam current is a second current value larger than the first current value.
  • the pixel corresponding to the green phosphor is the pixel of interest, and the electron beam when the beam current is the first current value is the spot as shown in A of FIG.
  • the size is within a range between adjacent slits, and only the phosphor corresponding to the target pixel is irradiated, and the other phosphors are blocked from being irradiated.
  • the electron beam when the beam current is the second current value does not fall within the range between the spot size force S and adjacent slits as shown in FIG.
  • Other phosphors are irradiated with just the corresponding phosphor.
  • the spot size of the electron beam is a size including other slits in addition to the phosphor slit corresponding to the pixel of interest.
  • the electron beam passes through another slit and is also irradiated to a phosphor other than the phosphor corresponding to the target pixel.
  • the beam current when the electron beam passes through a slit other than the slit of the phosphor corresponding to the pixel of interest is the spot size of the electron beam, the It is determined by the relationship with the slit width of the slit of the patio grill.
  • FIG. 49 shows the intensity distribution of the electron beam approximated by a two-dimensional normal distribution (Gaussian distribution).
  • FIG. 50 shows the distribution of the intensity of the electron beam passing through the slit of the aperture grille in the electron beam of FIG.
  • a in FIG. 50 shows the intensity distribution of the electron beam passing through the phosphor slit corresponding to the target pixel and the electron beam passing through the slits adjacent to the left and right of the slit. .
  • B in FIG. 50 shows the distribution of the intensity of the electron beam passing through the phosphor slit corresponding to the target pixel in the distribution of the intensity of the electron beam shown in A of FIG. C in FIG. 50 shows the intensity distribution of the electron beam passing through the left slit and the right slit.
  • Fig. 51 shows the distribution of the intensity of the electron beam having a higher intensity than that of Fig. 49 and the distribution of the intensity of the electron beam passing through the slit of the aperture grille among the electron beams. is doing.
  • a in FIG. 51 shows the distribution of the intensity of the electron beam having a higher intensity than in the case of FIG.
  • the electron beam A in FIG. 51 has a larger spot size (intensity range or more) than the electron beam in FIG.
  • B in Fig. 51 shows the distribution of the intensity of the electron beam passing through the slit of the aperture grinolet in the electron beam of A in Fig. 51! /.
  • FIG. 51B compared to the case of FIG. 50, the intensity of the electron beam passing through the left slit and the right slit is large, and therefore, the pixel corresponding to the phosphor of the left slit. In addition, the display with the pixel corresponding to the phosphor in the right slit has a greater effect.
  • C in FIG. 51 shows the distribution of the intensity of the electron beam passing through the phosphor slit corresponding to the target pixel in the electron beam intensity distribution shown in B of FIG. D in FIG. 51 shows the intensity distribution of the electron beam passing through the left slit and the right slit!
  • FIG. 52 shows the electron beam intensity distribution shown in FIG. 49 and the electron beam intensity distribution of the electron beam passing through the slit of the shadow mask.
  • a in FIG. 52 shows the same electron beam intensity distribution as in FIG.
  • B in Fig. 52 shows the intensity distribution of the electron beam passing through the hole of the shadow mask among the electron beams in A in Fig. 52.

Abstract

 本発明は、画像のチェックをすることができる表示制御装置、表示制御方法、及びプログラムに関する。 信号処理部12は、入力画像データを対象として、所定の信号処理を行う。 表示制御部13は、入力画像データの画素数より多い画素数の画面を有する表示装置2の画面の一部の表示領域に、入力画像データに対応する画像を表示させるとともに、表示装置2の画面の他の一部の表示領域に、所定の信号処理によって得られる処理後画像データに対応する画像を表示させる。本発明は、例えば、放送局で、画像の画質等のチェックのために使用される、画像を表示するモニタシステム等に適用できる。

Description

明 細 書
表示制御装置、表示制御方法、及びプログラム
技術分野
[0001] 本発明は、表示制御装置、表示制御方法、及びプログラムに関し、特に、例えば、 テレビジョン放送の放送側にお!/、て、受信側で表示される画像をチェックすること等 ができるようにする表示制御装置、表示制御方法、及びプログラムに関する。
背景技術
[0002] 例えば、テレビジョン放送の放送側では、番組を放送する前に、その番組の画像を 、表示装置 (モニタ)に表示して、画質等のチェックが行われる。
[0003] 画像の画質をチェックする方法としては、原画像と、その原画像を処理した処理画 像とを、スィッチで切り換えて、 1つのディスプレイに表示して、原画像と、処理画像と のそれぞれを、人が主観的に評価し、さらに、原画像の評価の結果を、原画像に近 接して表示し、処理画像の評価の結果を、処理画像に近接して表示する方法がある (例えば、特許文献 1を参照)。
[0004] 特許文献 1:特開 2001-136548号公報
発明の開示
発明が解決しょうとする課題
[0005] 近年、テレビジョン放送を受信するテレビジョン受像機等の表示装置が高性能化し ており、例えば、 50インチ以上の LCD(Liquid Crystal Display)等の大画面を有する表 示装置が普及しつつある。
[0006] このため、テレビジョン放送を受信する家庭等の受信側にお!/、て、放送側で画質等 のチェックに用いられる表示装置(以下、適宜、チェック用の表示装置という)よりも高 性能の表示装置、すなわち、例えば、チェック用の表示装置よりも大画面の表示装置 で、番組の視聴が行われるようになってきて!/、る。
[0007] そして、チェック用の表示装置よりも大画面の表示装置で、番組の視聴が行われる 場合には、チェック用の表示装置では目立たなかったノイズ等の画質の劣化が目立 ち、視聴者に違和感を感じさせることがある。 [0008] 本発明は、このような状況に鑑みてなされたものであり、受信側等で表示される画 像のチェックをすることができるようにするものである。
課題を解決するための手段
[0009] 本発明の一側面の表示制御装置は、画像の表示を制御する表示制御装置であり、 入力画像データを対象として、所定の信号処理を行う信号処理手段と、前記入力画 像データの画素数より多い画素数の画面を有する表示装置の前記画面の一部の表 示領域に、前記入力画像データに対応する画像を表示させるとともに、前記画面の 他の一部の表示領域に、前記所定の信号処理によって得られる処理後画像データ に対応する画像を表示させる表示制御手段とを備える。
[0010] 本発明の一側面の表示制御方法、又は、プログラムは、画像の表示を制御する表 示制御方法、又は、表示制御処理を、コンピュータに実行させるプログラムであり、入 力画像データを対象として、所定の信号処理を行い、前記入力画像データの画素数 より多い画素数の画面を有する表示装置の前記画面の一部の表示領域に、前記入 力画像データに対応する画像を表示させるとともに、前記画面の他の一部の表示領 域に、前記所定の信号処理によって得られる処理後画像データに対応する画像を 表示させるステップを含む。
[0011] 本発明の一側面においては、入力画像データを対象として、所定の信号処理が行 われ、前記入力画像データの画素数より多い画素数の画面を有する表示装置の前 記画面の一部の表示領域に、前記入力画像データに対応する画像が表示されるとと もに、前記画面の他の一部の表示領域に、前記所定の信号処理によって得られる処 理後画像データに対応する画像が表示される。
[0012] なお、プログラムは、伝送媒体を介して伝送することにより、又は、記録媒体に記録 して提供すること力でさる。
発明の効果
[0013] 本発明の一側面によれば、画像を表示することができ、さらに、その表示を確認す ることによって、例えば、受信側等で表示される画像のチェックをすることができる。 図面の簡単な説明
[0014] [図 1]本発明を適用したモニタシステムの一実施の形態の構成例を示すブロック図で ある。
[図 2]表示装置 2の画面の構成例を示す図である。
[図 3]モニタシステムの処理を説明するフローチャートである。
[図 4]信号処理部 12の第 1の構成例を示すブロック図である。
[図 5]表示装置 2の表示例を示す図である。
[図 6]mH X mV画素の画像の表示例を示す図である。
園 7]信号処理部 12の第 2の構成例を示すブロック図である。
[図 8]表示装置 2の表示例を示す図である。
[図 9]信号処理部 12の第 3の構成例を示すブロック図である。
[図 10]表示装置 2の表示例を示す図である。
[図 11]信号処理部 12の第 4の構成例を示すブロック図である。
[図 12]表示装置 2の表示例を示す図である。
[図 13]信号処理部 12の第 5の構成例を示すブロック図である。
[図 14]表示装置 2の表示例を示す図である。
[図 15]信号処理部 12の第 6の構成例を示すブロック図である。
[図 16]表示装置 2の表示例を示す図である。
園 17]擬似インチ画像生成処理を説明する図である。
園 18]擬似インチ画像生成処理を説明する図である。
園 19]擬似インチ画像生成処理を説明する図である。
[図 20]表示領域 #1に、 nインチの擬似インチ画像データに対応する画像を表示する 場合の表示制御装置 1の処理を説明するフローチャートである。
[図 21]信号処理部 12の第 7の構成例を示すブロック図である。
[図 22]表示装置 2の表示例を示す図である。
[図 23]信号処理部 12の第 8の構成例を示すブロック図である。
[図 24]表示装置 2の表示例を示す図である。
園 25]クラス分類適応処理を利用した画像変換処理を行う画像変換装置 101の構成 例を示すブロック図である。
園 26]画像変換装置 101による画像変換処理を説明するフローチャートである。 園 27]タップ係数を学習する学習装置 121の構成例を示すブロック図である。
[図 28]学習装置 121の学習部 136の構成例を示すブロック図である。
[図 29]各種の画像変換処理を説明するための図である。
園 30]学習装置 121による学習処理を説明するフローチャートである。
園 31]クラス分類適応処理を利用した画像変換処理を行う画像変換装置 151の構成 例を示すブロック図である。
園 32]画像変換装置 151の係数出力部 155の構成例を示すブロック図である。
[図 33]係数種データを学習する学習装置 171の構成例を示すブロック図である。
[図 34]学習装置 171の学習部 176の構成例を示すブロック図である。
園 35]学習装置 171による学習処理を説明するフローチャートである。
園 36]本発明を適用したコンピュータの一実施の形態の構成例を示すブロック図で ある。
[図 37]従来の FPD表示装置の一例の構成を示すブロック図である。
[図 38]FPD表示装置が有する画像信号処理装置の一実施の形態の構成例を示すブ ロック図である。
[図 39]CRT表示装置の構成例を示すブロック図である。
[図 40]画像信号処理装置の処理を説明するフローチャートである。
[図 41]VM処理部 10034の構成例を示すブロック図である。
[図 42]VM係数の例を示す図である。
[図 43]VM係数を求める方法を説明する図である。
[図 44]ビーム電流とスポットサイズとの関係を示す図である。
園 45]色識別機構を示す図である。
[図 46]電子ビームのスポットを示す図である。
[図 47]電子ビームのスポットを示す図である。
園 48]色選別機構としてアパーチャ一グリルが採用されている場合の、電子ビームが 照射される様子を示す断面図である。
[図 49]2次元正規分布で近似した電子ビームの強度の分布を示す図である。
[図 50]アパーチャ一グリルのスリットを通過する電子ビームの強度の分布を示す図で ある。
[図 51]電子ビームの強度の分布と、その電子ビームのうちの、アパーチャ一グリルの スリットを通過する電子ビームの強度の分布とを示す図である。
[図 52]電子ビームの強度の分布と、その電子ビームのうちの、シャドウマスクのスリット を通過する電子ビームの強度の分布とを示す図である。
[図 53]電子ビームの強度の分布と、その電子ビームのうちの、シャドウマスクのスリット を通過する電子ビームの強度の分布とを示す図である。
園 54]スリットを通過する電子ビームの強度を求める積分を説明する図である。
園 55]電子ビームが色選別機構としてのアパーチャ一グリルに入射する様子を示す 図である。
[図 56]画素と、電子ビームの強度の分布とを示す図である。
園 57]EB影響分を求める回路の構成例を示す図である。
[図 58]EB処理部 10220の構成例を示すブロック図である。
[図 59]EB処理部 10220の他の構成例を示すブロック図である。
[図 60]CRT γ処理部 10035の色温度補償処理を行う部分の構成例を示すブロック図 である。
[図 61]VM処理部 10034の他の構成例を示すブロック図である。
[図 62]輝度補正部 10310の構成例を示すブロック図である。
園 63]輝度補正の処理を説明する図である。
[図 64]輝度補正部 10310の他の構成例を示すブロック図である。
[図 65]VM係数としてのタップ係数を求める学習の処理を説明するフローチャートであ
[図 66]クラス予測係数を求める学習の処理を説明するフローチャートである。
[図 67]コンピュータの一実施の形態の構成例を示すブロック図である。
園 68]第 1の表示デバイスを用いて、第 1の表示デバイスと異なる特性を有する第 2の 表示デバイスにおいて画像を表示した状態を再現することができるようにする画像処 理装置の第 1実施の形態の構成例を示すブロック図である。
園 69]動き検出部 20100の構成例を示すブロック図である。 園 70]動き検出を説明する図である。
[図 71]動き検出を説明する図である。
[図 72]サブフィールド展開部 20200の構成例を示すブロック図である。
園 73]サブフィールドの構成例を示す図である。
[図 74]サブフィールドの構成例を示す図である。
[図 75]光量積算部 20300の構成例を示すブロック図である。
[図 76]擬似輪郭の発生を説明する図である。
[図 77]光量積算領域を示す図である。
[図 78]光量積算領域を示す図である。
園 79]第 1の表示デバイスを用いて、第 1の表示デバイスと異なる特性を有する第 2の 表示デバイスにおいて画像を表示した状態を再現することができるようにする画像処 理装置の第 2実施の形態の構成例を示すブロック図である。
[図 80]階調変換部 20400の構成例を示すブロック図である。
園 81]ディザ変換回路 20404の動作を説明する図である。
園 82]第 1の表示デバイスを用いて、第 1の表示デバイスと異なる特性を有する第 2の 表示デバイスにおいて画像を表示した状態を再現することができるようにする画像処 理装置の第 3実施の形態の構成例を示すブロック図である。
園 83]第 1の表示デバイスを用いて、第 1の表示デバイスと異なる特性を有する第 2の 表示デバイスにおいて画像を表示した状態を再現することができるようにする画像処 理装置の第 4実施の形態の構成例を示すブロック図である。
[図 84]視覚補正部 20500の構成例を示すブロック図である。
[図 85]ディザ補正回路 20501の動作を説明する図である。
[図 86]拡散誤差補正回路 20502の動作を説明する図である。
園 87]第 1の表示デバイスを用いて、第 1の表示デバイスと異なる特性を有する第 2の 表示デバイスにおいて画像を表示した状態を再現することができるようにする画像処 理装置の第 1実施の形態の動作を説明するフローチャートである。
[図 88]動き検出の処理を説明するフローチャートである。
[図 89]画像をサブフィールドに展開する処理を説明するフローチャートである。 園 90]光量を積算する処理を説明するフローチャートである。
園 91]第 1の表示デバイスを用いて、第 1の表示デバイスと異なる特性を有する第 2の 表示デバイスにおいて画像を表示した状態を再現することができるようにする画像処 理装置の第 2実施の形態の動作を説明するフローチャートである。
園 92]階調を変換する処理を説明するフローチャートである。
園 93]第 1の表示デバイスを用いて、第 1の表示デバイスと異なる特性を有する第 2の 表示デバイスにおいて画像を表示した状態を再現することができるようにする画像処 理装置の第 3実施の形態の動作を説明するフローチャートである。
園 94]第 1の表示デバイスを用いて、第 1の表示デバイスと異なる特性を有する第 2の 表示デバイスにおいて画像を表示した状態を再現することができるようにする画像処 理装置の第 4実施の形態の動作を説明するフローチャートである。
[図 95]視覚補正の処理を説明するフローチャートである。
[図 96]表示モデルを示す図である。
園 97]表示モデルの画素を示す図である。
園 98]表示モデルにおける光量積算領域を示す図である。
園 99]断面領域を示す図である。
[図 100]時刻 Tの経過とともに表示モデル内を移動する断面領域を示す図である。
[図 101]時刻 Tの経過とともに表示モデル内を移動する断面領域を示す図である。
[図 102]光量の積算の処理を説明するフローチャートである。
[図 103]光量積算部 20300の他の構成例を示すブロック図である。
園 104]光量積算値テーブルを示す図である。
[図 105]光量の積算の処理を説明するフローチャートである。
[図 106]コンピュータの一実施の形態の構成例を示すブロック図である。
園 107]PDP以外のディスプレイで PDPの見た目を再現する画像信号処理装置の一 実施の形態の構成例を示すブロック図である。
[図 108]ストライプ配列再現処理を説明する図である。
[図 109]ストライプ配列再現処理を行う画像処理部 30001の構成例を示すブロック図 である。 [図 110]ストライプ配列再現処理を説明するフローチャートである。
[図 111]PDPに表示される画像に生じる色ズレを説明する図である。
[図 112]色ズレ付加処理で画像信号と乗算される係数を示す図である。
[図 113]色ズレ付加処理を行う画像処理部 30001の構成例を示すブロック図である。
[図 114]色ズレ付加処理を説明するフローチャートである。
園 115]画素間ピッチ再現処理を説明する図である。
[図 116]画素間ピッチ再現処理を行う画像処理部 30001の構成例を示す図である。 園 117]画素間ピッチ再現処理を説明するフローチャートである。
園 118]空間ディザ付加処理を説明する図である。
[図 119]空間ディザ付加処理を行う画像処理部 30001の構成例を示すブロック図であ
[図 120]空間ディザパターン ROM30043が記憶しているルックアップテーブルを示す 図である。
園 121]空間ディザ付加処理を説明するフローチャートである。
[図 122]時間ディザ付加処理を行う画像処理部 30001の構成例を示すブロック図であ
[図 123]時間ディザ付加処理を説明するフローチャートである。
[図 124]色ズレ付加処理、空間ディザ付加処理、時間ディザ付加処理、画素間ピッチ 再現処理、及びストライプ配列再現処理のすべてを行う画像処理部 30001の構成例 を示すブロック図である。
[図 125]画像処理部 30001の処理を説明するフローチャートである。
[図 126]コンピュータの一実施の形態の構成例を示すブロック図である。
符号の説明
1 表示制御装置, 2 表示装置, 3 リモートコマンダ, 11 画像変換部, 12 信号処理部, 12 第 1信号処理部, 12 第 2信号処理部, 12 第 3信号処 理部, 13 表示制御部, 14 制御部, 31 , 31 , 31 画像変換部, 41 , 41
, 41 シミュレート処理部, 51, 52 画像変換部, 61 ェンハンス処理部, 62 適応ガンマ処理部, 63 高フレームレート処理部, 71 , 71 , 71 擬似インチ画 像生成部, 101 画像変換装置, 111 注目画素選択部, 112, 113 タップ選 択部, 114 クラス分類部, 115 係数出力部, 116 予測演算部, 121 学習 装置, 131 学習用画像記憶部, 132 教師データ生成部, 133 教師データ 記憶部, 134 生徒データ生成部, 135 生徒データ記憶部, 136 学習部, 141 注目画素選択部, 142, 143 タップ選択部, 145 足し込み部, 146 タ ップ係数算出部, 151 画像変換装置, 155 係数出力部, 161 係数生成部,
162 係数種メモリ, 163 パラメータメモリ, 164 係数メモリ, 174 生徒デー タ生成部, 176 学習部, 181 パラメータ生成部, 192, 193 タップ選択部, 195 足し込み部, 196 係数種算出部, 201 バス, 202 CPU, 203 ROM , 204 RAM, 205 ハードディスク, 206 出力部, 207 入力部, 208 通 信部, 209 ドライブ, 210 入出力インタフェース, 211 リムーバブル記録媒 体, 10011 明るさ調整コントラスト調整部, 10012 高画質化処理部, 10013 γ 補正部, 10031 明るさ調整コントラスト調整部, 10032 高画質化処理部, 10033
ABL処理部, 10034 VM処理部, 10035 CRT γ処理部, 10036 全画面明るさ 平均レベル検出部, 10037 ピーク検出微分制御値検出部, 10038 ABL制御部,
10039 VM制御部, 10040 表示色温度補償制御部, 10051 明るさ調整コントラ スト調整部, 10052 高画質化処理部, 10053 ゲイン調整部, 10054 γ補正部 , 10055 ビデオ増幅器, 10056 CRT, 10057 FBT, 10058 ビーム電流検出 部, 10059 ABL制御部, 10060 画像信号微分回路, 10061 VM駆動回路, 1 0101 バス, 10102 CPU, 10103 ROM, 10104 RAM, 10105 ハードディスク , 10106 出力部, 10107 入力部, 10108 通信部, 10109 ドライブ, 10110 入出力インタフェース, 10111 リムーバブル記録媒体 10210 輝度補正部, 1021 1 VM係数発生部, 10212 演算部, 10220 ΕΒ処理部, 10241 ΕΒ係数発生部 , 10242Aないし 10242D, 10242Fないし 102421 演算部, 10250 ΕΒ機能部, 10 251ないし 10259 遅延部, 10260 ΕΒ係数発生部, 10261 積和演算部, 10271 , 10272 セレクタ, 10281 制御部, 10282 レべノレシフト部, 10283 ゲイン調整 部, 10310 輝度補正部, 10311 遅延タイミング調整部, 10312 微分回路, 10 313 スレツショルド処理部, 10314 波形整形処理部, 10315 乗算回路, 10321 タップ選択部, 10322 クラス分類部, 10323 クラス予測係数記憶部, 10324 予測部, 10325 クラス決定部, 10326 タップ係数記憶部, 10327 予測部, 20 100 動き検出部, 20101 相関演算回路, 20102 遅延回路, 20103 視線決定 回路, 20200 サブフィールド展開部, 20201 サブフィールド割当回路, 20202 発光決定回路, 20300 光量積算部, 20301 光量積算領域決定回路, 20302 光量積算回路, 20303 光量積算値テーブル記憶部, 20304 光量積算領域選択 回路, 20400 階調変換部, 20401 遅延回路, 20402 階調変換回路, 20403 階調変換テーブル, 20404 ディザ変換回路, 405, 406 演算器 20500 視覚 補正部, 20501 ディザ補正回路, 20502 拡散誤差補正回路, 21101 バス, 2 1102 CPU, 21103 ROM, 21104 RAM, 21105 ハードディスク, 21106 出力 部, 21107 入力部, 21108 通信部, 21109 ドライブ, 21110 入出力インタフ エース, 21111 リムーバブル記録媒体, 30001 画像処理部, 30002 モニタ, 3 0011 拡大ストライプ化回路, 30012 リサイズリサンプル回路, 30021 現フレーム メモリ, 30022 前フレームメモリ, 30023 エッジ部切り出し回路, 30024 動き検 出回路, 30025 色係数乗算回路, 30031 拡大処理回路, 30032 画素間輝度 減回路, 30041 平坦部抽出回路, 30042 色比較回路, 30043 空間ディザパタ ーン ROM, 30044 ディザ付加回路, 30051 色比較回路, 30052 時間ディザパ ターン ROM, 30053 ディザ付加回路, 30054ないし 30056 出力メモリ, 30060 画像処理部, 30061 現フレームメモリ, 30062 前フレームメモリ, 30063 エッジ 部切り出し回路, 30064 動き検出回路, 30065 色係数乗算回路, 30070 画像 処理部, 30071 色比較回路, 30072 時間/空間ディザパターン ROM, 30073 ディザ付加回路, 30074ないし 30076 出力メモリ, 30080 画像処理部, 30081 拡大処理回路, 30082 ストライプ化回路, 30083 画素間輝度減回路, 30101 バス, 30102 CPU, 30103 ROM, 30104 RAM, 30105 ハードディスク, 301 06 出力部, 30107 入力部, 30108 通信部, 30109 ドライブ, 30110 入出力 インタフェース, 30111 リムーバブル記録媒体
発明を実施するための最良の形態
図 1は、本発明を適用したモニタシステム (システムとは、複数の装置が論理的に集 合した物をいい、各構成の装置が同一筐体中にあるか否かは、問わない)の一実施 の形態の構成例を示すブロック図である。
[0017] モニタシステムは、表示制御装置 1、表示装置 2、及びリモートコマンダ 3から構成さ れ、例えば、テレビジョン放送を行う放送局等で、画質等のチェックに使用される。
[0018] モニタシステムには、画像を撮像するカメラが出力する画像データや、いわゆる素 材を編集する編集装置が出力する画像データ、 MPEG(Moving Picture Expert Grou p)方式等でエンコードされたエンコードデータをデコードするデコーダが出力する画 像データ、その他の放送局等で放送を行う前の番組の動画の画像データが、モニタ システムへの入力となる入力画像データとして供給される。
[0019] そして、モニタシステムでは、入力画像データとしての、放送前の番組の画像デー タに対応する画像の、家庭等の受信側の表示装置 (表示装置 2の他の表示装置)で の表示のシミュレーション(エミユレーシヨン)が行われ、つまり、入力画像データを受 信する受信側の各種の表示装置において、その入力画像データに対応する画像が 表示されたならば表示されるであろう画像が表示され、これにより、画質等のチェック (評価)を行う評価者等が、その表示を見て、入力画像データに対応する画像が、受 信側の表示装置で、どのような画質等で表示されるかのチェックを行うことができるよ うになつている。
[0020] 表示制御装置 1は、画像変換部 11、信号処理部 12、表示制御部 13、及び制御部
14から構成され、入力画像データを対象として、所定の信号処理を行い、表示装置 2の画面の一部の表示領域に、入力画像データに対応する画像を表示させるととも に、その画面の他の一部の表示領域に、所定の信号処理によって得られる処理後画 像データに対応する画像を表示させる。
[0021] すなわち、画像変換部 11には、入力画像データが供給される。画像変換部 11は、 入力画像データを、受信側の表示装置でどのような画像が表示されるかのチェックの 対象であるチェック画像データとして、そのチェック画像データに対して、画素数を変 換する画像変換処理を、必要に応じて施し、信号処理部 12と表示制御部 13とに供 給する。
[0022] 信号処理部 12は、図 1の実施の形態では、 3つの第 1信号処理部 12、第 2信号処 理部 12、及び第 3信号処理部 12から構成され、画像変換部 1 1からのチェック画像
2 3
データに対して、受信側の表示装置において入力画像データ(チェック画像データ) に対応する画像が表示されたならば表示されるであろう画像が表示装置 2で表示さ れるようにするための信号処理を施し、その信号処理によって得られる処理後画像デ ータを、表示制御部 13に供給する。
[0023] すなわち、第 1信号処理部 12は、画像変換部 1 1からのチェック画像データに対し
1
て、制御部 14からの制御にしたがった信号処理を施し、その信号処理によって得ら れる処理後画像データを、表示制御部 13に供給する。
[0024] 第 2信号処理部 12と第 3信号処理部 12も、第 1信号処理部 12と同様に、画像変
2 3 1
換部 1 1からのチェック画像データに対して、制御部 14からの制御にしたがった信号 処理をそれぞれ施し、その信号処理によって得られる処理後画像データを、表示制 御部 13に供給する。
[0025] 表示制御部 13は、制御部 14の制御にしたがい、画像変換部 1 1から供給されるチ エック画像データに対応する画像を、表示装置 2の画面の一部の表示領域に表示さ せる。さらに、表示制御部 13は、制御部 14の制御にした力 Sい、第 1信号処理部 12、
1 第 2信号処理部 12、又は第 3信号処理部 12からそれぞれ供給される処理後画像
2 3
データに対応する画像を、表示装置 2の画面の他の一部の表示領域に表示させる。
[0026] なお、表示制御部 13は、制御部 14から供給されるパラメータにした力 Sい、表示装 置 2に画像を表示する位置や大きさを制御する。
[0027] ここで、以下、適宜、表示制御部 13に対して、第 1信号処理部 12、第 2信号処理
1
部 12、又は第 3信号処理部 12からそれぞれ供給される処理後画像データを、第 1
2 3
処理後画像データ、第 2処理後画像データ、又は第 3処理後画像データともいう。
[0028] 制御部 14は、リモートコマンダ 3や、表示制御装置 1に設けられた図示せぬ操作部 から送信されてくる操作信号を受信し、その操作信号に対応して、第 1信号処理部 1 2、第 2信号処理部 12、及び第 3信号処理部 12、並びに表示制御部 13を制御す
1 2 3
る。また、制御部 14は、第 1信号処理部 12、第 2信号処理部 12、及び第 3信号処
1 2
理部 12、並びに表示制御部 13の各ブロックに対して、処理に必要なパラメータその
3
他の情報を供給する。 [0029] 表示装置 2は、例えば、 LCD(Liquid Crystal Display)で画像を表示する装置であり 、画像変換部 11が信号処理部 12及び表示制御部 13に供給するチェック画像デー タの画素数より多い画素数の画面を有する。そして、表示装置 2は、表示制御部 13 の制御にした力 Sい、チェック画像データに対応する画像を、画面の一部の表示領域 に表示するとともに、第 1処理後画像データ、第 2処理後画像データ、及び第 3処理 後画像データに対応する画像それぞれを、画面の他の一部の表示領域に表示する
[0030] リモートコマンダ 3は、例えば、チェック画像データ、ひいては、入力画像データに 対応する画像が、受信側の表示装置で、どのような画質等で表示されるかのチェック を行う評価者等によって操作され、その操作に対応する操作信号を、赤外線等の無 線で、制御部 14に送信する。
[0031] 図 2は、表示装置 2の画面の構成例を示している。
[0032] 表示装置 2では、その画面を、横と縦にそれぞれ等分する 4つの表示領域 #0,#1,#2 ,#3のそれぞれに画像が表示される。
[0033] すなわち、表示装置 2では、 4つの表示領域 #0ないし #3のうちの、左上の表示領域 #0に、チェック画像データに対応する画像が表示され、右上の表示領域 #1に、第 1処 理後画像データに対応する画像が表示され、左下の表示領域 #2に、第 2処理後画 像データに対応する画像が表示され、右下の表示領域 #3に、第 3処理後画像データ に対応する画像が表示される。
[0034] ここで、表示装置 2の画面を構成する画素を、画像データの画素と区別するために 、以下、適宜、モニタ画素ということとすると、表示装置 2の画面は、横 X縦が、 2H X 2 Vモニタ画素(2H X 2V個のモニタ画素)で構成されて!/、る。
[0035] したがって、表示領域 #0ないし #3は、いずれも、 H XVモニタ画素で構成される。
[0036] なお、例えば、表示領域 #i(i=0,l,2,3)の横のモニタ画素の画素数 Hを、 1920画素と するとともに、縦のモニタ画素の画素数 Vを、 1080画素とすると、表示領域 #iには、ァ スぺタト比が 16:9の HDTV(High-Definition Television)用の画像を表示することができ
[0037] また、本実施の形態では、表示装置 2の画面を、 4つの表示領域 #0ないし #3に区分 し、その 4つの表示領域 #0ないし #3のそれぞれを、いわば仮想的な 1画面として、表 示領域 #0ないし #3のそれぞれに、(1つの)画像を表示する力 表示装置 2では、 4つ の表示領域 #0ないし #3の全体、つまり、表示装置 2の画面全体に、(1つの)画像を表 示すること力 Sでさる。
[0038] 上述したように、表示領域 #iが、 1920 X 1080モニタ画素で構成されることとすると、 表示装置 2の画面全体に、画像を表示する場合には、表示装置 2では、 [2 X 1920J X
[2 X 1080]画素からなる、 HDTV用の画像よりも高精細な画像を表示することができる
[0039] 次に、図 3のフローチャートを参照して、図 1のモニタシステムの処理について説明 する。
[0040] 表示制御装置 1の画像変換部 11に対して、外部から入力画像データが供給される と、ステップ S 11において、画像変換部 11は、入力画像データを、チェック画像デー タとして、そのチェック画像データが、例えば、表示領域 #0を構成するモニタ画素と同 一の画素数で構成されるかどうか、すなわち、チェック画像データ力 H X V画素で構 成されるかどうかを判定する。
[0041] ステップ S 11において、チェック画像データ力 表示領域 #0を構成するモニタ画素 と同一の H X V画素で構成されると判定された場合、処理は、ステップ S 12をスキップ して、ステップ S 13に進む。
[0042] また、ステップ S 11において、チェック画像データ力 表示領域 #0を構成するモニタ 画素と同一の H X V画素以外の画素数で構成されると判定された場合、処理は、ステ ップ S 12に進み、画像変換部 1 1は、チェック画像データを対象として、そのチェック 画像データの画素数を、表示領域 #0を構成するモニタ画素の画素数と同一の H X V 画素に変換する画像変換処理を行い、その画像変換処理後のチェック画像データを 、信号処理部 12と表示制御部 13とに供給して、処理は、ステップ S 13に進む。
[0043] ステップ S 13では、信号処理部 12を構成する第 1信号処理部 12、第 2信号処理部
1
12、及び第 3信号処理部 12のそれぞれが、画像変換部 11からのチェック画像デー
2 3
タに対して、制御部 14からの制御にしたがった信号処理を施し、その信号処理によ つて得られる第 1処理後画像データ、第 2処理後画像データ、及び第 3処理後画像 データを、表示制御部 13に供給して、処理は、ステップ S 14に進む。
[0044] ステップ S 14では、表示制御部 13が、制御部 14の制御にしたがい、画像変換部 1 1からのチェック画像データに対応する画像を、表示装置 2の表示領域 #0に表示させ さらに、ステップ S 14では、表示制御部 13が、制御部 14の制御にしたがい、第 1信号 処理部 12からの第 1処理後画像データに対応する画像を表示領域 #1に、第 2信号
1
処理部 12からの第 2処理後画像データに対応する画像を表示領域 #2に、第 3信号 処理部 12からの第 3処理後画像データを表示領域 #3に、それぞれ表示させる。
3
[0045] 以上のようにして、表示領域 #0には、チェック画像データに対応する画像が表示さ れ、表示領域 #1には、チェック画像データに所定の信号処理を施すことによって得ら れた第 1処理後画像データに対応する画像、すなわち、受信側のある種類の表示装 置においてチェック画像データに対応する画像が表示されたならば表示されるであ ろう画像が表示される。
[0046] また、表示領域 #2には、チェック画像データに所定の信号処理を施すことによって 得られた第 2処理後画像データに対応する画像、すなわち、受信側の他の種類の表 示装置においてチェック画像データに対応する画像が表示されたならば表示される であろう画像が表示され、表示領域 #3には、チェック画像データに所定の信号処理 を施すことによって得られた第 3処理後画像データに対応する画像、すなわち、受信 側のさらに他の種類の表示装置においてチェック画像データに対応する画像が表示 されたならば表示されるであろう画像が表示される。
[0047] したがって、表示領域 #0に表示される画像によって、番組の画像データの、例えば 、 S/N(Signal to Noise Ratio)等の画質をチェックすることができる。さらに、表示領域 # 1ないし #3に表示される画像によって、表示領域 #0に表示される画像が、受信側の各 種の表示装置において、どのように表示されるかのチェックを行うことができる。
[0048] さらに、表示装置 2は、 H X V画素のチェック画像データの画素数より多いモニタ画 素の画面を有するので、図 2に示したように、画面の一部の表示領域である、例えば 、表示領域 #0に、チェック画像データに対応する画像を表示するのと同時に、画面の 他の一部の表示領域である、表示領域 #1や、 #2、 #3に、チェック画像データに所定 の信号処理を施すことによって得られる処理後画像データに対応する画像、すなわ ち、受信側の表示装置においてチェック画像データに対応する画像が表示されたな らば表示されるであろう画像を表示することができる。
[0049] したがって、チェック画像データに対応する画像と、その画像の、受信側の表示装 置での表示の状態、つまり、チェック画像データが番組として放送され、受信側の表 示装置で受信されて表示されるまでに生じる画質等の劣化がある劣化画像とを比較 しながら、受信側の表示装置で表示される画像 (劣化画像)の劣化の状態をチェック すること力 Sでさる。
そして、受信側の表示装置で表示される画像の劣化の状態を定性的に考慮して、番 組の編集 (編集のし直し)等を行うことができる。
[0050] また、チェック画像データに対応する画像と、処理後画像データに対応する画像と
1S 表示装置 2の、物理的に 1つの画面に表示されるので、チェック画像データに対 応する画像と、処理後画像データに対応する画像とを、別々の表示装置に表示した 場合に問題となる表示装置の各種の特性の違いを考慮する必要がない。
[0051] 次に、図 4は、図 1の信号処理部 12の第 1の構成例を示している。
[0052] 図 4では、信号処理部 12の第 1信号処理部 12 、画像変換部 31から構成され、
1 1
第 2信号処理部 12 、画像変換部 31から構成され、第 3信号処理部 12 、画像 変換部 31力 構成されている。
3
[0053] 画像変換部 31 (i=l,2,3)には、画像変換部 11 (図 1)からチェック画像データが供給 されるとともに、制御部 14 (図 1)から、画像を拡大する拡大率 m,m',m"(〉l)を表す拡 大率情報が供給される。
[0054] そして、画像変換部 31は、制御部 14から供給される拡大率情報にした力 Sい、画像 変換部 11からのチェック画像データを対象として、受信側の表示装置が行う、画像を 拡大する処理に相当する信号処理を行う。
[0055] すなわち、受信側の表示装置の中には、放送局からの番組としての画像を拡大す る処理を行う拡大機能を有するものがあり、画像変換部 31は、そのような、受信側の 表示装置が行う、画像を拡大する処理に相当する信号処理を行う。
[0056] 具体的には、画像変換部 31は、制御部 14から供給される拡大率情報にしたがい 、画像変換部 11からのチェック画像データを、そのチェック画像データを m倍にした m 倍拡大画像データに変換する画像変換処理を行い、その画像変換処理によって得 られる m倍拡大画像データを、処理後画像データとして、表示制御部 13 (図 1 )に供 給する。
[0057] 画像変換部 31は、制御部 14から供給される拡大率情報にした力 Sい、画像変換部
11からのチェック画像データを、そのチェック画像データを m'倍にした m'倍拡大画像 データに変換する画像変換処理を行い、その画像変換処理によって得られる m'倍拡 大画像データを、処理後画像データとして、表示制御部 13に供給する。同様に、画 像変換部 31も、制御部 14から供給される拡大率情報にした力 Sい、画像変換部 11か
3
らのチェック画像データを、そのチェック画像データを m"倍にした m"倍拡大画像デ ータに変換する画像変換処理を行い、その画像変換処理によって得られる m"倍拡 大画像データを、処理後画像データとして、表示制御部 13に供給する。
[0058] 図 5は、信号処理部 12が図 4に示したように構成される場合の、表示装置 2の表示 例を示している。
[0059] 表示装置 2においては、表示領域 #0に、チェック画像データに対応する画像(以下 、適宜、チェック画像ともいう)が表示される。また、表示領域 #1には、 m倍拡大画像デ ータに対応する画像が、表示領域 #2には、 m'倍拡大画像データに対応する画像が、 表示領域 #3には、 m"倍拡大画像データに対応する画像が、それぞれ表示される。
[0060] したがって、受信側の表示装置のうちの、拡大機能を有する表示装置において、放 送局からの番組としての画像が、拡大機能によって拡大されて表示される場合の、そ の表示の状態(拡大された画像の画質等)のチェックを行うことができる。
[0061] なお、拡大率 m,m',m"は、例えば、リモートコマンダ 3 (図 1)を操作することにより指 定すること力 Sでさる。
[0062] ところで、図 4の画像変換部 31では(他の画像変換部 31及び 31でも同様)、画
1 2 3
像変換処理によって、チェック画像データ力 横と縦それぞれの画素数が m倍の m倍 拡大画像データに変換される。
[0063] 本実施の形態では、上述したように、チェック画像データは、 H X Vモニタ画素で構 成される表示領域 #iと同一の画素数の H X V画素で構成されるため、 m倍拡大画像デ ータは、 mH X mV画素で構成される。
[0064] したがって、 mH X mV画素で構成される m倍拡大画像データに対応する画像の全 体を、表示領域 #1に表示することはできないため、表示領域 #1では、図 6に示すよう に、 m倍拡大画像データに対応する mH X mV画素の画像のうちの一部が表示される
[0065] すなわち、図 6は、 m倍拡大画像データに対応する mH X mV画素の画像の表示例 を示している。
[0066] H X Vモニタ画素で構成される表示領域 #1では、 m倍拡大画像データに対応する m H X mV画素の画像のうちの、 H X V画素の領域の部分が表示される。
[0067] いま、 m倍拡大画像データに対応する mH X mV画素の画像のうちの、表示領域 #1 に表示される H X V画素の領域に対応する、チェック画像の領域(図 6において斜線 を付してある部分)を、表示範囲領域ということとすると、表示範囲領域は、例えば、リ モートコマンダ 3を操作することにより指定することができ、表示制御部 13は、その指 定にしたがって、 m倍拡大画像データに対応する mH X mV画素の画像の一部を、表 示領域 #1に表示させる。
[0068] また、チェック画像における表示範囲領域は、例えば、チェック画像が表示される表 示領域 #0にお!/、て、チェック画像に重畳して表示することができる。
[0069] 次に、図 7は、図 1の信号処理部 12の第 2の構成例を示している。
[0070] 図 7では、信号処理部 12の第 1信号処理部 12力 シミュレート処理部 41力、ら構成
1 1 され、第 2信号処理部 12 、シミュレート処理部 41から構成され、第 3信号処理部 1 2 1 シミュレート処理部 41力、ら構成されている。
3 3
[0071] シミュレート処理部 41 (i=l,2,3)には、画像変換部 11 (図 1)力もチェック画像データ が供給されるとともに、制御部 14 (図 1)から、画像を表示する表示デバイスの種類を 表す種類情報が供給される。
[0072] そして、シミュレート処理部 41は、制御部 14から供給される種類情報にしたがい、 画像変換部 11からのチェック画像データを対象として、表示装置 2と異なる表示特性 を有する他の表示装置でチェック画像が表示されるときに他の表示装置に表示され る画像に相当する画像を、表示装置 2の表示領域 #iに表示させる画像データを、処 理後画像データとして生成する信号処理を行う。
[0073] すなわち、上述したように、表示装置 2は、 LCDから構成される力 受信側の表示装 置としては、 LCDとは異なる表示特性を有する表示デバイスである、例えば、 CRT(Ca thode Ray Tube)や、 PDP(Plasma Display Panel),有機 EL(Electro Luminescence)ディ スプレイ、 FED(Field Emission Display),その他を有する表示装置があり得る。また、 今後、新たな表示デバイスを有する表示装置が開発されることがあり得る。
[0074] そこで、シミュレート処理部 41は、そのような、表示装置 2と異なる表示特性を有す る受信側の表示装置で表示されるチェック画像に相当する画像を表示装置 2の表示 領域 #iに表示させる画像データを、処理後画像データとして生成する信号処理を行 5。
[0075] ここで、有機 ELディスプレイを有する受信側の表示装置で表示されるチェック画像 に相当する画像を LCDの表示装置 2に表示させる画像データを、擬似有機 EL画像 データというとともに、チェック画像データから、擬似有機 EL画像データを生成する信 号処理を、有機 ELシミュレート処理という。
[0076] また、 PDPを有する受信側の表示装置で表示されるチェック画像に相当する画像を LCDの表示装置 2に表示させる画像データを、擬似 PDP画像データというとともに、チ エック画像データから、擬似 PDP画像データを生成する信号処理を、 PDPシミュレート 処理という。
[0077] さらに、 CRTを有する受信側の表示装置で表示されるチェック画像に相当する画像 を LCDの表示装置 2に表示させる画像データを、擬似 CRT画像データというとともに、 チェック画像データから、擬似 CRT画像データを生成する信号処理を、 CRTシミュレ ート処理という。
[0078] この場合、シミュレート処理部 41は、制御部 14から供給される種類情報にしたがい
1
、画像変換部 11からのチェック画像データから、例えば、擬似有機 EL画像データを 生成する有機 ELシミュレート処理を行い、その有機 ELシミュレート処理によって得ら れる擬似有機 EL画像データを、処理後画像データとして、表示制御部 13 (図 1)に供 給する。
[0079] シミュレート処理部 41は、制御部 14から供給される種類情報にした力 Sい、制御部 1 4から供給される種類情報にした力 Sい、画像変換部 11からのチェック画像データから 、例えば、擬似 PDP画像データを生成する PDPシミュレート処理を行い、その PDPシミ ュレート処理によって得られる擬似 PDP画像データを、処理後画像データとして、表 示制御部 13に供給する。
[0080] 同様に、シミュレート処理部 41も、制御部 14から供給される種類情報にしたがい、 画像変換部 11からのチェック画像データから、例えば、擬似 CRT画像データを生成 する CRTシミュレート処理を行い、その CRTシミュレート処理によって得られる擬似 CR T画像データを、処理後画像データとして、表示制御部 13に供給する。
[0081] 図 8は、信号処理部 12が図 7に示したように構成される場合の、表示装置 2の表示 例を示している。
[0082] LCDを有する表示装置 2においては、表示領域 #0に、チェック画像が表示される。
また、表示領域 #1には、擬似有機 EL画像データに対応する画像が、表示領域 #2に は、擬似 PDP画像データに対応する画像力 S、表示領域 #3には、擬似 CRT画像データ に対応する画像が、それぞれ表示される。
[0083] したがって、受信側の表示装置のうちの、 LCDを有する表示装置、有機 ELディスプ レイパネルを有する表示装置、 PDPを有する表示装置、及び、 CRTを有する表示装 置のそれぞれにおいて、放送局からの番組としての画像が、どのような画質等で表示 されるかのチェックを行うことができる。
[0084] なお、図 7のシミュレート処理部 41において、どのような表示特性の表示デバイスを 有する表示装置で表示されるチェック画像に相当する画像を LCDの表示装置 2に表 示させる画像データを生成する信号処理を行うかは、制御部 14からシミュレート処理 部 41に供給される種類情報によって決定される。制御部 14からシミュレート処理部 4 1に対して、どのような種類情報を供給するかは、例えば、リモートコマンダ 3 (図 1)を 操作することにより旨定すること力 Sでさる。
[0085] また、制御部 14からシミュレート処理部 41に対しては、その他、信号処理を行うの に必要なパラメータが供給される。
[0086] 次に、図 9は、図 1の信号処理部 12の第 3の構成例を示している。
[0087] なお、図中、図 4又は図 7の場合と対応する部分については、同一の符号を付して ある。
[0088] 図 9では、信号処理部 12の第 1信号処理部 12 1 画像変換部 31及びシミュレ
1 1 一 ト処理部 41から構成され、第 2信号処理部 12 1S、画像変換部 31及びシミュレート 処理部 41から構成され、第 3信号処理部 12
2 3 、画像変換部 31及びシミュレート処
3
理部 41力 構成されている。
3
[0089] 画像変換部 31には、画像変換部 11 (図 1)力 チェック画像データが供給されると
1
ともに、制御部 14 (図 1)から、拡大率情報が供給される。
[0090] 画像変換部 31は、制御部 14から供給される拡大率情報にしたがって画像変換処
1
理を行うことにより、画像変換部 11からのチェック画像データを、 m倍拡大画像データ に変換し、シミュレート処理部 41に供給する。
1
[0091] シミュレート処理部 41は、制御部 14から供給される種類情報にしたがって、例えば
1
、有機 ELシミュレート処理を行うことにより、画像変換部 31からの m倍拡大画像デー
1
タから、擬似有機 EL画像データを生成し、処理後画像データとして、表示制御部 13 (図 1)に供給する。
[0092] 画像変換部 31には、画像変換部 11からチェック画像データが供給されるとともに
、制御部 14から、拡大率情報が供給される。
[0093] 画像変換部 31は、制御部 14から供給される拡大率情報にしたがって画像変換処 理を行うことにより、画像変換部 11からのチェック画像データを、 m'倍拡大画像デー タに変換し、シミュレート処理部 41に供給する。
[0094] シミュレート処理部 41は、制御部 14から供給される種類情報にしたがって、例えば
、 PDPシミュレート処理を行うことにより、画像変換部 31からの m'倍拡大画像データ から、擬似 PDP画像データを生成し、処理後画像データとして、表示制御部 13に供 給する。
[0095] 画像変換部 31には、画像変換部 11からチェック画像データが供給されるとともに
3
、制御部 14から、拡大率情報が供給される。
[0096] 画像変換部 31は、制御部 14から供給される拡大率情報にしたがって画像変換処
3
理を行うことにより、画像変換部 11からのチェック画像データを、 m"倍拡大画像デー タに変換し、シミュレート処理部 41に供給する。 [0097] シミュレート処理部 41は、制御部 14から供給される種類情報にしたがって、例えば
3
、 CRTシミュレート処理を行うことにより、画像変換部 31からの m"倍拡大画像データ
3
から、擬似 CRT画像データを生成し、処理後画像データとして、表示制御部 13に供 給する。
[0098] 図 10は、信号処理部 12が図 9に示したように構成される場合の、表示装置 2の表 示例を示している。
[0099] 表示装置 2においては、表示領域 #0に、チェック画像が表示される。また、表示領 域 #1には、 m倍拡大画像データから生成された擬似有機 EL画像データに対応する 画像が、表示領域 #2には、 m'倍拡大画像データから生成された擬似 PDP画像データ に対応する画像が、表示領域 #3には、 m"倍拡大画像データから生成された擬似 CR T画像データに対応する画像が、それぞれ表示される。
[0100] したがって、受信側の表示装置のうちの、有機 ELディスプレイパネルを有する表示 装置、 PDPを有する表示装置、及び、 CRTを有する表示装置のそれぞれにおいて、 放送局からの番組としての画像が拡大されて表示される場合の、その表示の状態( 拡大された画像の画質等)のチェックを行うことができる。
[0101] 次に、図 11は、図 1の信号処理部 12の第 4の構成例を示している。
[0102] なお、図中、図 4の場合と対応する部分については、同一の符号を付してある。
[0103] 図 11では、信号処理部 12の第 1信号処理部 12 、画像変換部 31から構成され
1 1
、第 2信号処理部 12 1 画像変換部 51から構成され、第 3信号処理部 12 1 画像
2 3 変換部 31及び画像変換部 52から構成されている。
3
[0104] 画像変換部 31は、図 4で説明したように、制御部 14から供給される拡大率情報に
1
したがって画像変換処理を行うことにより、画像変換部 11からのチェック画像データ を、 m倍拡大画像データに変換し、処理後画像データとして、表示制御部 13 (図 1) に供給する。
[0105] 画像変換部 51には、画像変換部 11からチェック画像データが供給されるとともに、 制御部 14から、スロー再生の再生速度を表す再生速度情報が供給される。
[0106] 画像変換部 51は、制御部 14から供給される再生速度情報にした力 Sい、画像変換 部 11からのチェック画像データを、チェック画像の表示を 1倍速未満の q (く 1)倍速の 再生速度で行う q倍速スロー再生画像データに変換する画像変換処理を行い、その 画像変換処理によって得られる q倍速スロー再生画像データを、処理後画像データと して、表示制御部 13 (図 1)に供給する。
[0107] すなわち、例えば、いま、表示装置 2の表示レート (表示を更新するレート)と、チェ ック画像のフレームレートとが、 30Hzであるとするとともに、再生速度情報が表す再生 速度が、例えば、 1/2倍速であるとすると、画像変換部 51は、フレームレートが 30Hz のチェック画像データを、フレームレートが 2倍の 60Hzの画像データである q倍速スロ 一再生画像データに変換する画像変換処理を行う。
[0108] フレームレートが 60Hzの画像データを、 30Hzの表示レートで表示することにより、 1/
2倍速でのスロー再生をしたかのような画像が表示される。
[0109] 画像変換部 31は、図 4で説明したように、制御部 14から供給される拡大率情報に したがって画像変換処理を行うことにより、画像変換部 11からのチェック画像データ を、 m"倍拡大画像データに変換し、画像変換部 52に供給する。
[0110] 画像変換部 52には、画像変換部 31力 m"倍拡大画像データが供給される他、 制御部 14から、再生速度情報が供給される。
[0111] 画像変換部 52は、制御部 14から供給される再生速度情報にした力 Sい、画像変換 部 31力もの m"倍拡大画像データを、チェック画像の表示を 1倍速未満の q" (く 1)倍 速の再生速度で行う q"倍速スロー再生画像データに変換する画像変換処理を行い 、その画像変換処理によって得られる q"倍速スロー再生画像データを、処理後画像 データとして、表示制御部 13に供給する。
[0112] 図 12は、信号処理部 12が図 11に示したように構成される場合の、表示装置 2の表 示例を示している。
[0113] 表示装置 2においては、表示領域 #0に、チェック画像が表示され、表示領域 #1には
、 m倍拡大画像データに対応する画像が表示される。
[0114] また、表示領域 #2には、 q倍速スロー再生画像データに対応する画像が表示され、 表示領域 #3には、 m"倍拡大画像データに対応する画像を、 q"倍速スロー再生した かのような画像が表示される。
[0115] 表示領域 #1に表示される、 m倍拡大画像データに対応する画像は、表示領域 #0に 表示されるチェック画像よりも空間的な解像度が高!/、ので、表示領域 #0に表示される チェック画像では目立たな力 た、いわば空間的な画像の劣化がある場合に、その 空間的な画像の劣化をチェックすることができる。
[0116] また、表示領域 #2に表示される、 q倍速スロー再生画像データに対応する画像は、 表示領域 #0に表示されるチェック画像よりも時間的な解像度が高!/、ので、表示領域 # 0に表示されるチェック画像では目立たなかった、 V、わば時間的な画像の劣化(例え ば、動きのぎこちなさ等)がある場合に、その時間的な画像の劣化をチェックすること ができる。
[0117] さらに、表示領域 #3に表示される、 m"倍拡大画像データに対応する画像を、 q"倍 速スロー再生したかのような画像は、表示領域 #0に表示されるチェック画像よりも空 間的及び時間的な解像度が高!/、ので、表示領域 #0に表示されるチェック画像では 目立たな力、つた、空間的な画像の劣化や、時間的な画像の劣化がある場合に、その ような画像の劣化をチェックすることができる。
[0118] なお、画像変換部 51と 52のそれぞれにおいて、チェック画像データを、何倍速の スロー再生をしたかのような画像データに変換するかは、制御部 14から画像変換部 51と 52のそれぞれに供給される再生速度情報によって決定される。制御部 14から 画像変換部 51と 52のそれぞれに対して、どのような再生速度情報を供給するかは、 例えば、リモートコマンダ 3 (図 1)を操作することにより指定することができる。
[0119] 次に、図 13は、図 1の信号処理部 12の第 5の構成例を示している。
[0120] 図 13では、信号処理部 12の第 1信号処理部 12力 ェンハンス処理部 61から構成
1
され、第 2信号処理部 12 、適応ガンマ処理部 62から構成され、第 3信号処理部 1 2 1 高フレームレート処理部 63から構成されている。
3
[0121] ェンノ、ンス処理部 61には、画像変換部 11 (図 1)力もチェック画像データが供給さ れるとともに、制御部 14 (図 1)から信号処理用パラメータが供給される。
[0122] そして、ェンハンス処理部 61は、画像変換部 11からのチェック画像データを対象と して、受信側の表示装置が画像データに対応する画像を表示するときに、その画像 データに施す処理に相当する信号処理を施す。
[0123] すなわち、受信側の表示装置の中には、放送局からの番組としての画像にェンノ、 ンス処理を施して表示する機能を有するものがあり、ェンハンス処理部 61は、そのよ うな、受信側の表示装置が行うのと同様の信号処理としてのェンノヽンス処理を行う。
[0124] 具体的には、ェンノヽンス処理部 61は、制御部 14から供給される信号処理用パラメ ータにしたがい、画像変換部 11からのチェック画像データをフィルタリング等すること により、そのチェック画像データのエッジ部分等の一部を強調するェンハンス処理を 行い、そのェンノ、ンス処理後のチェック画像データを、処理後画像データとして、表 示制御部 13 (図 1)に供給する。
[0125] ここで、ェンハンス処理部 61において、ェンハンス処理によって、チェック画像デー タを強調する程度は、制御部 14から供給される信号処理用パラメータに含まれるェ ンハンス処理用のパラメータにしたがって決定される。ェンハンス処理用のパラメータ は、例えば、リモートコマンダ 3 (図 1)を操作することにより指定することができる。
[0126] 適応ガンマ処理部 62には、画像変換部 11からチェック画像データが供給されると ともに、制御部 14から信号処理用パラメータが供給される。
[0127] そして、適応ガンマ処理部 62は、画像変換部 11からのチェック画像データを対象 として、受信側の表示装置が画像データに対応する画像を表示するときに、その画 像データに施す処理に相当する信号処理を施す。
[0128] すなわち、現在、表示装置では、表示装置を製造する各メーカが採用する表示デ バイスの特性を吸収して、画像の見え方が、メーカによって異ならないようにするガン マ )補正処理が施されるが、将来的には、各メーカが、表示対象の画像や表示デ バイスの特性に応じて、そのメーカに特有の画像の見え方がするような固有のガンマ 補正処理が施されることが予想され、この場合、表示装置のメーカによって、画像の 見え方が異なることになる。
[0129] そこで、適応ガンマ処理部 62は、各メーカの表示装置で表示される画像に相当す る画像を、 LCDの表示装置 2に表示する(再現する)ことができるように、適応的なガ ンマ補正処理である適応ガンマ補正処理を行う。
[0130] つまり、適応ガンマ処理部 62は、メーカ固有のガンマ補正処理が施される受信側 の表示装置で表示されるチェック画像に相当する画像を LCDの表示装置 2に表示さ せる画像データを得ることができるように、画像変換部 11からのチェック画像データ に対して、適応ガンマ補正処理を施し、その適応ガンマ補正処理後のチェック画像 データを、処理後画像データとして、表示制御部 13に供給する。
[0131] ここで、適応ガンマ処理部 62において、どのような特性の適応ガンマ補正処理を行 うかは、制御部 14から供給される信号処理用パラメータに含まれる適応ガンマ補正 処理用のパラメータにしたがって決定される。適応ガンマ補正処理用のパラメータは 、例えば、リモートコマンダ 3を操作することにより指定することができる。
[0132] また、適応ガンマ補正処理としては、例えば、特開平 08-023460号公報や、特開 20 02-354290号公報、特開 2005-229245号公報等に記載のガンマ補正処理を採用する こと力 Sでさる。
[0133] 特開平 08-023460号公報には、 LCDや PDPのように、輝度コントラストの取りにくい デバイスに、 APL(Average Picture Level)の変動の大きい画像信号を表示するときに 、画像信号の絵柄に応じた最適なガンマ補正を行うガンマ補正処理として、画像信 号の輝度レベルを、複数個の区分に分けその各々の区分での度数を取り、各輝度レ ベルの区分毎に複数個の度数レベルを設けその度数レベルで度数分布を区分けし 、この結果をガンマ補正特性の選択信号としてガンマ補正特性を選択し、画像信号 に適応したダイナミックなガンマ補正を行うことが記載されている。
[0134] 特開 2002-354290号公報には、ガンマ補正の動作点を変えることで、常にガンマ補 正が力、かるようにして階調再現性の改善を図るガンマ補正処理として、 APLと、動作 点の初期値とから、 APLに適応した動作点を求め、動作点より白側の輝度信号に対 して、ガンマ補正をかけることが記載されている。
[0135] 特開 2005-229245号公報には、色の飽和を低減し、かつ画像信号に適応した階調 拡大制御を行う方法として、画像信号の RGB各色の最大値を検出し、 RGB各色の最 大値それぞれに重み付けの係数をかけたもののうちの最大値を検出し、その最大値 と、画像信号の輝度レベルの最大値と比較し、大きい方を画像信号の輝度レベルの 最大値とすることによって画像信号の信号制御を行う方法が記載されている。
[0136] 高フレームレート処理部 63には、画像変換部 11からチェック画像データが供給さ れるとともに、制御部 14から信号処理用パラメータが供給される。
[0137] そして、高フレームレート処理部 63は、画像変換部 1 1からのチェック画像データを 対象として、受信側の表示装置が画像データに対応する画像を表示するときに、そ の画像データに施す処理に相当する信号処理を施す。
[0138] すなわち、受信側の表示装置の中には、放送局からの番組としての画像のフレー ムレートを 2倍等の高フレームレートの画像に変換し、その高フレームレートに相当す る表示レートで表示をする高レート表示機能を有するものがあり、高フレームレート処 理部 63は、そのような、受信側の表示装置が行うのと同様の信号処理としての高フレ ームレート処理を行う。
[0139] 具体的には、高フレームレート処理部 63は、制御部 14から供給される信号処理用 パラメータにした力 Sい、画像変換部 1 ;Lからのチェック画像データのフレーム間にフレ ームを補間して、フレームレートが、元のチェック画像データの 2倍の画像データを生 成する倍速処理等の高フレームレート処理を行い、その高フレームレート処理後のチ エック画像データを、処理後画像データとして、表示制御部 13に供給する。
[0140] ここで、高フレームレート処理部 63において、高フレームレート処理によって、チェ ック画像データのフレームレートを何倍にするかは、制御部 14から供給される信号処 理用パラメータに含まれる高フレームレート処理用のパラメータにしたがって決定され 高フレームレート処理用のパラメータは、例えば、リモートコマンダ 3 (図 1)を操作する ことにより旨定すること力 Sでさる。
[0141] なお、例えば、いま、表示装置 2の表示レートと、チェック画像のフレームレートとが 、 30Hzであるとするとともに、高フレームレート処理部 63の高フレームレート処理によ つて得られる画像データのフレームレート力 チェック画像のフレームレートの 2倍の 6 0Hzである場合には、表示装置 2において、フレームレートが 60Hzの画像力 30Hzの 表示レートで表示されることになり、この場合、 1/2倍速でのスロー再生をしたかのよう な画像が表示されることになる。
[0142] そこで、ここでは、表示装置 2は、 30Hzの他に、 30Hzよりも高い、例えば、 60Hzや、 1 20Hz、 240Hz等の高表示レートでの画像の表示を行うことができるようになつており、 表示制御部 13 (図 1)は、 30Hzの他、高表示レートで、画像の表示を行うように、表示 装置 2を制御することができるようになつていることとする。 [0143] 表示制御部 13は、高フレームレート処理部 63の高フレームレート処理によって得ら れる画像データ(以下、適宜、高フレームレート画像データという)のフレームレートが 、例えば、チェック画像のフレームレートの 2倍の 60Hzである場合には、その高フレー ムレート画像データのフレームレートと同一の 60Hzの表示レートで、高フレームレート 画像データに対応する画像を表示するように、表示装置 2を制御する。
[0144] これにより、高フレームレート画像データに対応する画像は、その高フレームレート 画像データのフレームレートに相当する(同一の)表示レートで表示される。
[0145] なお、表示装置 2において、第 3信号処理部 12を構成する高フレームレート処理 部 63による高フレームレート処理によって得られる、例えば、フレームレートが 60Hz の高フレームレート画像データに対応する画像は、表示領域 #3に表示されるが、そ の表示領域 #3以外の、例えば、表示領域 #0に表示されるチェック画像のフレームレ ートが 30Hzである場合に、表示装置 2の表示レートを、高フレームレート画像データ のフレームレートと同一の 60Hzとすると、表示領域 #0に表示されるチェック画像は、 2 倍速で再生したかのような画像となる。
[0146] このため、例えば、フレームレートが 60Hzの高フレームレート画像データに対応す る画像を、表示装置 2の表示レートを 60Hzにして、表示領域 #3に表示する場合には、 フレームレートが 30Hzのチェック画像が表示される表示領域 #0の表示の更新は、実 質的に、 2フレームの表示が行われる期間に、 1回だけ行われる。
[0147] すなわち、例えば、いま、表示領域 #0に、あるフレーム #fのチェック画像が表示され ているとすると、表示領域 #0の次の表示の更新時には、再度、フレーム #fのチェック 画像が表示され、その次の表示の更新時に、次のフレーム #f+lのチェック画像が表 示される。フレームレートが 30Hzの画像が表示される表示領域 #1及び #2の表示の更 新も、同様である。
[0148] ここで、表示制御部 13において、表示装置 2の表示レートをどのようにするかは、高 フレームレート処理部 63の高フレームレート処理によって、チェック画像データのフレ 一ムレートを何倍にするかに連動して、制御部 14により制御される。
[0149] 図 14は、信号処理部 12が図 13に示したように構成される場合の、表示装置 2の表 示例を示している。 [0150] 表示装置 2においては、表示領域 #0に、チェック画像が表示され、表示領域 #1には 、ェンハンス処理後のチェック画像データに対応する画像が表示される。さらに、表 示領域 #1には、適応ガンマ補正処理後のチェック画像データに対応する画像が表 示され、表示領域 #2には、高フレームレート処理後のチェック画像データに対応する 画像が表示される。
[0151] したがって、受信側の表示装置のうちの、画像にェンノヽンス処理を施して表示する 機能を有する表示装置において、ェンハンス処理後の画像データに対応する画像 が表示される場合の、その画像の画質等のチェックを行うことができる。
[0152] さらに、受信側の表示装置のうちの、画像にメーカに固有のガンマ補正処理を施し て表示する表示装置において、その固有のガンマ補正処理後の画像データに対応 する画像が表示される場合の、その画像の画質等のチェックを行うことができる。
[0153] また、受信側の表示装置のうちの、高レート表示機能を有する表示装置において、 高フレームレート処理後の画像データに対応する画像が表示される場合の、その画 像の画質等のチェックを行うことができる。
[0154] 次に、図 15は、図 1の信号処理部 12の第 6の構成例を示している。
[0155] 図 15では、信号処理部 12の第 1信号処理部 12 、擬似インチ画像生成部 71か
1 1 ら構成され、第 2信号処理部 12 、擬似インチ画像生成部 71から構成され、第 3信 号処理部 12力 擬似インチ画像生成部 71から構成されている。
3 3
[0156] 擬似インチ画像生成部 71i(i= l,2,3)には、画像変換部 11 (図 1)からチェック画像デ ータが供給されるとともに、制御部 14 (図 1)から、画像を表示する画面のサイズであ るィンチ数1,1 ',1 "(〉1)を表すィンチ数情報が供給される。
[0157] そして、擬似インチ画像生成部 71は、制御部 14から供給されるインチ数情報にし たがい、画像変換部 11からのチェック画像データを対象として、あるインチ数の受信 側の表示装置でチェック画像が表示されるときに、その表示装置に表示される画像 に相当する画像を表示装置 2の表示領域 #iに表示させる画像データを、処理後画像 データとして生成する信号処理を行う。
[0158] すなわち、受信側の表示装置としては、様々なインチ数の表示装置が存在する。そ こで、擬似インチ画像生成部 71は、ある nインチの受信側の表示装置で表示される チェック画像に相当する画像を表示装置 2の表示領域 #1に表示させる画像データを 、処理後画像データとして生成する信号処理を行う。擬似インチ画像生成部 71 71 も同様に、それぞれ、 n'インチの受信側の表示装置で表示されるチェック画像に相
3
当する画像を、表示装置 2の表示領域 #1に表示させる画像データと、 n"インチの受 信側の表示装置で表示されるチェック画像に相当する画像を、表示装置 2の表示領 域 #1に表示させる画像データを、処理後画像データとして生成する信号処理を行う。
[0159] ここで、あるインチ数の受信側の表示装置で表示されるチェック画像に相当する画 像を表示装置 2の表示領域 #iに表示させる画像データを、擬似インチ画像データとも いう。また、チェック画像データから擬似インチ画像データを生成する信号処理を、擬 似インチ画像生成処理ともレ、う。
[0160] 擬似インチ画像生成部 71では、制御部 14から供給されるインチ数情報にしたがつ
1
て、画像変換部 11からのチェック画像データから、 nインチの擬似インチ画像データ を生成する擬似インチ画像生成処理が行われ、その結果得られる nインチの擬似イン チ画像データが、処理後画像データとして、表示制御部 13 (図 1)に供給される。
[0161] 擬似インチ画像生成部 71と 71でも同様に、制御部 14から供給されるインチ数情
2 3
報にしたがって、画像変換部 11からのチェック画像データから、 n'インチの擬似イン チ画像データを生成する擬似インチ画像生成処理と、 n"インチの擬似インチ画像デ ータを生成する擬似インチ画像生成処理が行われ、その結果得られる n'インチの擬 似インチ画像データと n"インチの擬似インチ画像データが、処理後画像データとして 、表示制御部 13に供給される。
[0162] なお、擬似インチ画像生成処理では、チェック画像データの画素数を増加又は減 少させる処理を行うことにより、擬似インチ画像データが生成される。画像データの画 素数を増加させる処理としては、例えば、画素を補間する処理や、画像データを、そ の画像データより画素数が多い画像データに変換する画像変換処理等を採用する こと力 Sできる。また、画像データの画素数を減少させる処理としては、例えば、画素を 間引く処理や、複数の画素の平均値等を 1の画素の画素値とする平均化の処理等を 採用すること力でさる。
[0163] 図 16は、信号処理部 12が図 15に示したように構成される場合の、表示装置 2の表 示例を示している。
[0164] 表示装置 2においては、表示領域 #0に、チェック画像が表示される。また、表示領 域 #1には、 nインチの擬似インチ画像データに対応する画像力 表示領域 #2には、 η' インチの擬似インチ画像データに対応する画像力 表示領域 #3には、 η"インチの擬 似インチ画像データに対応する画像が、それぞれ表示される。
[0165] したがって、各種のインチ数の受信側の表示装置にお!/、て、放送局からの番組とし ての画像が表示される場合の、その表示の状態のチェックを行うことができる。
[0166] なお、インチ数 η,η',η"は、例えば、リモートコマンダ 3 (図 1)を操作することにより指 定すること力 Sでさる。
[0167] 次に、図 17ないし図 19を参照して、図 15の擬似インチ画像生成部 71で行われる 擬似インチ画像生成処理について、さらに説明する。
[0168] 上述したように、表示領域 #iは、 H X Vモニタ画素で構成され、チェック画像データも
、表示領域 #iと同一の画素数である H X V画素で構成される。
[0169] 図 17は、 H X V画素のチェック画像データ力 H X Vモニタ画素の表示領域 #iに表 示される様子を示している。
[0170] H X V画素のチェック画像データ力 そのまま、 H X Vモニタ画素の表示領域 #iに表 示される場合、チェック画像データの 1画素(の画素値)が、表示領域 #iの 1モニタ画 素に表示される。
[0171] したがって、 H X Vモニタ画素の表示領域 #iが、例えば、 30インチなどの Nインチに 相当する場合には、 H X V画素のチェック画像データを、そのまま、 H X Vモニタ画素 の表示領域 #iに表示することにより、 Nインチの表示装置で表示されるチェック画像に 相当する画像が表示される。
[0172] 表示装置 2の表示領域 #0ないし #3のうちの、表示領域 #0では、 H X V画素のチエツ ク画像がそのまま表示されるので、 Nインチの表示装置で表示されるチェック画像に 相当する画像が表示されることになる。ここで、この Nインチを、基準インチともいう。
[0173] 次に、図 18は、擬似インチ画像生成処理によりチェック画像データの画素数を増 加して得られる擬似インチ画像データが、 H X Vモニタ画素の表示領域 #iに表示され る様子を示している。 [0174] 図 18においては、 HXV画素のチェック画像データの 1画素を、 3X3画素に増加す る補間を行う擬似インチ画像生成処理により、 3H X 3V画素の擬似インチ画像データ が生成され、その擬似インチ画像データのうちの H XV画素力 H XVモニタ画素の 表示領域 #iに表示されて!/、る。
[0175] この場合、等価的に、元の H XV画素のチェック画像データの 1画素力 表示領域 #i の 3X3モニタ画素に表示されることになり、その結果、表示領域 #iには、 3XNインチ の擬似インチ画像データに対応する画像、つまり、 3 XNインチの表示装置で表示さ れるチェック画像に相当する画像が表示される。
[0176] なお、 H XVモニタ画素の表示領域 #iには、その画素数よりも多い 3HX3V画素の擬 似インチ画像データに対応する画像の全体を表示することはできないため、図 6で説 明した、 m倍拡大画像データに対応する画像を、表示領域 #1に表示する場合と同様 に、表示領域 #iには、 3HX3V画素の擬似インチ画像データに対応する画像の一部 が表示される。 3HX3V画素の擬似インチ画像データに対応する画像のうちの、どの 部分を表示領域 #iに表示するかは、例えば、リモートコマンダ 3を操作することにより 指定することができ、表示制御部 13は、その指定にしたがって、 3HX3V画素の擬似 インチ画像データに対応する画像の一部を、表示領域 #iに表示させる。
[0177] 次に、図 19は、擬似インチ画像生成処理によりチェック画像データの画素数を減 少して得られる擬似インチ画像データが、 H XVモニタ画素の表示領域 #iに表示され る様子を示している。
[0178] 図 19においては、 H XV画素のチェック画像データの 2X2画素を、 1画素に減少す る間弓 Iきを行う擬似インチ画像生成処理により、 H/2 X V/2画素の擬似インチ画像デ ータが生成され、その擬似インチ画像データが、 H XVモニタ画素の表示領域 #iに表 示されている。
[0179] この場合、等価的に、元の H XV画素のチェック画像データの 2X2画素力 表示領 域 #iの 1モニタ画素に表示されることになり、その結果、表示領域 #iには、 N/2インチ の擬似インチ画像データに対応する画像、つまり、 N/2インチの表示装置で表示され るチェック画像に相当する画像が表示される。
[0180] なお、 H/2XV/2画素の擬似インチ画像データに対応する画像は、 H XVモニタ画 素の表示領域 ffiのうちの、 H/2 XV/2モニタ画素の領域に表示される。 H XVモニタ画 素の表示領域 #iにおいて、 H/2 XV/2画素の擬似インチ画像データに対応する画像 を表示する H/2 XV/2モニタ画素の領域は、例えば、リモートコマンダ 3を操作するこ とにより指定することができ、表示制御部 13は、その指定にしたがって、 H/2 XV/2画 素の擬似インチ画像データに対応する画像を、表示領域 #iに表示させる。
[0181] 次に、図 20のフローチャートを参照して、表示領域 #1に、 nインチの擬似インチ画像 データに対応する画像を表示する場合の、図 1の表示制御装置 1の処理について説 明する。
[0182] なお、表示領域 #2に、 n'インチの擬似インチ画像データに対応する画像を表示す る場合、及び、表示領域 #3に、 n"インチの擬似インチ画像データに対応する画像を 表示する場合も、表示領域 #1に、 nインチの擬似インチ画像データに対応する画像を 表示する場合と同様の処理が行われる。
[0183] 制御部 14は、ステップ S31において、インチ数 nを変更(指定)するように、リモート コマンダ 3が操作されたかどうかを判定する。
[0184] ステップ S31において、インチ数 nを変更するように、リモートコマンダ 3が操作され ていないと判定された場合、処理は、ステップ S31に戻る。
[0185] また、ステップ S31において、インチ数 nを変更するように、リモートコマンダ 3が操作 されたと判定された場合、すなわち、リモートコマンダ 3が、インチ数 nを変更するよう に操作され、その操作に対応する操作信号が、制御部 14によって受信された場合、 処理は、ステップ S32に進み、制御部 14は、リモートコマンダ 3からの操作信号から 変更後のインチ数 nを認識し、そのインチ数 nと、基準インチ Nとに基づいて、擬似イン チ画像生成部 71 (図 15)において、チェック画像データの画素数を変更する割合を
1
表す画素数変更率 n/Nを求める。さらに、制御部 14は、画素数変更率 n/Nを含むィ ンチ数情報を、擬似インチ画像生成部 71に供給して、処理は、ステップ S32からス
1
テツプ S 33に進む。
[0186] ステップ S33では、擬似インチ画像生成部 71 は、制御部 14からのインチ数情報に
1
したがい、画像変換部 11からのチェック画像データの横と縦の画素数それぞれを、 画素数変更率 n/N倍の画素数に変更(増加又は減少)する擬似インチ画像生成処理 を行い、これにより、 nインチの受信側の表示装置で表示されるチェック画像に相当す る画像を表示領域 #1に表示させる nインチの擬似インチ画像データを生成して、表示 制御部 13に供給する。
[0187] その後、処理は、ステップ S33からステップ S34に進み、制御部 14は、インチ数 nが 、基準インチ N以下であるかどうかを判定する。
[0188] ステップ S34において、インチ数 nが、基準インチ N以下であると判定された場合、 すなわち、 nインチの擬似インチ画像データに対応する画像の全体を、表示領域 #1 に表示することができる場合、処理は、ステップ S35に進み、表示制御部 13は、擬似 インチ画像生成部 71力、らの nインチの擬似インチ画像データから、その全体を、表
1
示領域 #1に表示する表示用画像データとして抽出し、処理は、ステップ S37に進む。
[0189] ステップ S37では、表示制御部 13が、表示用画像データに対応する画像を、表示 領域 #1に表示させ、ステップ S31に戻る。この場合、 nインチの擬似インチ画像データ に対応する画像の全体が、表示領域 #1に表示される。
[0190] 一方、ステップ S34において、インチ数 nが、基準インチ N以下でないと判定された 場合、すなわち、 nインチの擬似インチ画像データに対応する画像の全体を、表示領 域 #1に表示することができない場合、処理は、ステップ S36に進み、表示制御部 13 は、擬似インチ画像生成部 71力 の nインチの擬似インチ画像データから、表示領
1
域 #1に表示すること力 Sできる H XV画素を、表示用画像データとして抽出し、処理は、 ステップ S37に進む。
[0191] ステップ S37では、上述したように、表示制御部 13が、表示用画像データに対応す る画像を、表示領域 #1に表示させ、ステップ S31に戻る。この場合、 nインチの擬似ィ ンチ画像データに対応する画像のうちの、ステップ S36で抽出された H XV画素に対 応する画像が、表示領域 #1に表示される。
[0192] 次に、図 21は、図 1の信号処理部 12の第 7の構成例を示している。
[0193] なお、図中、図 4又は図 15と対応する部分については、同一の符号を付してある。
[0194] 図 21では、信号処理部 12の第 1信号処理部 12 、画像変換部 31及び擬似イン
1 1
チ画像生成部 71から構成され、第 2信号処理部 12 、画像変換部 31及び擬似ィ ンチ画像生成部 71から構成され、第 3信号処理部 12 、画像変換部 31及び擬似 インチ画像生成部 71力、ら構成されている。
3
[0195] 画像変換部 31には、画像変換部 11 (図 1 )からチェック画像データが供給されると
1
ともに、制御部 14 (図 1)から、拡大率情報が供給される。
[0196] 画像変換部 31は、制御部 14から供給される拡大率情報にしたがって画像変換処
1
理を行うことにより、画像変換部 11からのチェック画像データを、 m倍拡大画像データ に変換し、擬似インチ画像生成部 71に供給する。
1
[0197] 擬似インチ画像生成部 71は、制御部 14から供給されるインチ数情報にしたがって
1
、擬似インチ画像生成処理を行うことにより、画像変換部 31からの m倍拡大画像デ
1
ータから、 nインチの擬似インチ画像データを生成し、処理後画像データとして、表示 制御部 13 (図 1)に供給する。
[0198] 画像変換部 31には、画像変換部 11からチェック画像データが供給されるとともに
、制御部 14から、拡大率情報が供給される。
[0199] 画像変換部 31は、制御部 14から供給される拡大率情報にしたがって画像変換処 理を行うことにより、画像変換部 11からのチェック画像データを、 m'倍拡大画像デー タに変換し、擬似インチ画像生成部 71に供給する。
[0200] 擬似インチ画像生成部 71は、制御部 14から供給されるインチ数情報にしたがって
、擬似インチ画像生成処理を行うことにより、画像変換部 31からの m'倍拡大画像デ ータから、 n'インチの擬似インチ画像データを生成し、処理後画像データとして、表 示制御部 13に供給する。
[0201] 画像変換部 31には、画像変換部 11からチェック画像データが供給されるとともに
3
、制御部 14から、拡大率情報が供給される。
[0202] 画像変換部 31は、制御部 14から供給される拡大率情報にしたがって画像変換処
3
理を行うことにより、画像変換部 11からのチェック画像データを、 m"倍拡大画像デー タに変換し、擬似インチ画像生成部 71に供給する。
3
[0203] 擬似インチ画像生成部 71は、制御部 14から供給されるインチ数情報にしたがって
3
、擬似インチ画像生成処理を行うことにより、画像変換部 31からの m"倍拡大画像デ
3
ータから、 n"インチの擬似インチ画像データを生成し、処理後画像データとして、表 示制御部 13に供給する。 [0204] 図 22は、信号処理部 12が図 21に示したように構成される場合の、表示装置 2の表 示例を示している。
[0205] 表示装置 2においては、表示領域 #0に、基準インチ Nのチェック画像が表示される。
また、表示領域 #1には、 nインチの擬似インチ画像データに対応する画像を m倍に拡 大した画像が、表示領域 #2には、 n'インチの擬似インチ画像データに対応する画像 を m'倍に拡大した画像が、表示領域 #3には、 n"インチの擬似インチ画像データに対 応する画像を m"倍に拡大した画像が、それぞれ表示される。
[0206] したがって、各種のインチ数の受信側の表示装置が拡大機能を有する場合におい て、放送局からの番組としての画像が拡大して表示される場合の、その表示の状態 のチェックを行うことができる。
[0207] 次に、図 23は、図 1の信号処理部 12の第 8の構成例を示している。
[0208] なお、図中、図 4、図 7、又は図 15と対応する部分については、同一の符号を付し てある。
[0209] 図 23では、信号処理部 12の第 1信号処理部 12 、画像変換部 31及び擬似イン
1 1
チ画像生成部 71から構成され、第 2信号処理部 12 、画像変換部 31、シミュレ一 ト処理部 41、及び擬似インチ画像生成部 71から構成され、第 3信号処理部 12力 画像変換部 31 、シミュレート処理部 41、及び擬似インチ画像生成部 71から構成さ
3 3 3 れている。
[0210] 画像変換部 31は、制御部 14 (図 1)から供給される拡大率情報にしたがって画像
1
変換処理を行うことにより、画像変換部 11 (図 1)力 のチェック画像データを、 m倍拡 大画像データに変換し、擬似インチ画像生成部 71に供給する。
1
[0211] 擬似インチ画像生成部 71は、制御部 14から供給されるインチ数情報にしたがって
1
、擬似インチ画像生成処理を行うことにより、画像変換部 31からの m倍拡大画像デ
1
ータから、例えば、 20ないし 103インチの範囲内のいずれかの値である nインチの擬 似インチ画像データを生成し、処理後画像データとして、表示制御部 13 (図 1)に供 給する。
[0212] 画像変換部 31は、制御部 14から供給される拡大率情報にしたがって画像変換処 理を行うことにより、画像変換部 11からのチェック画像データを、 m'倍拡大画像デー タに変換し、シミュレート処理部 4 に供給する。
[0213] シミュレート処理部 41は、制御部 14から供給される種類情報にしたがって、例えば 、 PDPシミュレート処理を行うことにより、画像変換部 31からの m'倍拡大画像データ から、擬似 PDP画像データを生成し、擬似インチ画像生成部 71に供給する。
[0214] 擬似インチ画像生成部 71は、制御部 14から供給されるインチ数情報にしたがって 、擬似インチ画像生成処理を行うことにより、シミュレート処理部 41力 の擬似 PDP 画像データから、例えば、 20ないし 103インチの範囲内のいずれかの値である n'イン チの擬似インチ画像データを生成し、処理後画像データとして、表示制御部 13に供 給する。
[0215] 画像変換部 31は、制御部 14から供給される拡大率情報にしたがって画像変換処 理を行うことにより、画像変換部 11からのチェック画像データを、 m"倍拡大画像デー タに変換し、シミュレート処理部 41に供給する。
[0216] シミュレート処理部 41は、制御部 14から供給される種類情報にしたがって、例えば
、 CRTシミュレート処理を行うことにより、画像変換部 31からの m"倍拡大画像データ から、擬似 CRT画像データを生成し、擬似インチ画像生成部 71に供給する。
[0217] 擬似インチ画像生成部 71は、制御部 14から供給されるインチ数情報にしたがって
、擬似インチ画像生成処理を行うことにより、シミュレート処理部 41力 の擬似 CRT 画像データから、例えば、 20ないし 40インチの範囲内のいずれかの値である n"イン チの擬似インチ画像データを生成し、処理後画像データとして、表示制御部 13に供 給する。
[0218] 図 24は、信号処理部 12が図 23に示したように構成される場合の、表示装置 2の表 示例を示している。
[0219] LCDの表示装置 2においては、表示領域 #0に、基準インチ Nのチェック画像が表示 される。また、表示領域 #1には、 nインチの擬似インチ画像データに対応する画像を m 倍に拡大した画像力 表示領域 #2には、 n'インチの擬似インチ画像データに対応す る画像を m'倍に拡大した画像を PDPで表示した画像に相当する画像力 S、表示領域 #3 には、 n"インチの擬似インチ画像データに対応する画像を m"倍に拡大した画像を C RTで表示した画像に相当する画像が、それぞれ表示される。 [0220] したがって、受信側の表示装置のうちの、各種のインチ数の、 LCDを有する表示装 置、 PDPを有する表示装置、及び、 CRTを有する表示装置のそれぞれにおいて、放 送局からの番組としての画像が拡大されて表示される場合の、その表示の状態のチ エックを行うことができる。
[0221] 以上のように、図 1のモニタシステムによれば、受信側の各種の表示装置での画像 の表示のシミュレーションを行うことができ、受信側の各種の表示装置において、画 像がどのように表示されるかのチェックを行うことができる。
[0222] ところで、上述した画像変換処理は、例えば、画像データを、その画像データよりも 画素数の多い画像データや、フレームレートの高い画像データ等に変換する処理、 つまり、第 1の画像データを第 2の画像データに変換する処理であり、第 1の画像デ 一タを第 2の画像データに変換する画像変換処理は、例えば、クラス分類適応処理 を利用して行うことができる。
[0223] ここで、第 1の画像データを第 2の画像データに変換する画像変換処理は、その第
1と第 2の画像データの定義によって様々な処理となる。
[0224] すなわち、例えば、第 1の画像データを低空間解像度の画像データとするとともに、 第 2の画像データを高空間解像度の画像データとすれば、画像変換処理は、空間解 像度を向上させる空間解像度創造(向上)処理ということができる。
[0225] また、例えば、第 1の画像データを低 S/N(Siginal/Noise)の画像データとするととも に、第 2の画像データを高 S/Nの画像データとすれば、画像変換処理は、ノイズを 除去するノイズ除去処理と!/ヽうこと力 Sできる。
[0226] さらに、例えば、第 1の画像データを所定の画素数 (サイズ)の画像データとするとと もに、第 2の画像データを、第 1の画像データの画素数を多く又は少なくした画像デ ータとすれば、画像変換処理は、画像の画素数を変更する(画像のリサイズ (拡大又 は縮小)を行う)リサイズ処理とレ、うこと力 Sできる。
[0227] また、例えば、第 1の画像データを低時間解像度の画像データとするとともに、第 2 の画像データを高時間解像度の画像データとすれば、画像変換処理は、時間解像 度(フレームレート)を向上させる時間解像度創造(向上)処理と!/、うこと力 Sできる。
[0228] なお、空間解像度創造処理において、低空間解像度の画像データである第 1の画 像データを、高空間解像度の画像データである第 2の画像データに変換するにあた つては、第 2の画像データを、第 1の画像データと同一の画素数の画像データとする こともできるし、第 1の画像データよりも画素数が多い画像データとすることもできる。 第 2の画像データを、第 1の画像データよりも画素数が多い画像データとする場合、 空間解像度創造処理は、空間解像度を向上させる処理であるとともに、画像サイズ( 画素数)を拡大するリサイズ処理でもある。
[0229] 以上のように、画像変換処理によれば、第 1および第 2の画像データをどのように定 義するかによって、様々な処理を実現することができる。
[0230] 以上のような画像変換処理をクラス分類適応処理を利用して行う場合には、第 2の 画像データのうちの注目して!/、る注目画素(の画素値)を複数のクラスのうちの!/、ず れかのクラスにクラス分類することにより得られるクラスのタップ係数と、注目画素に対 して選択される第 1の画像データの画素(の画素値)とを用いた演算により、注目画素 (の画素値)が求められる。
[0231] すなわち、図 25は、クラス分類適応処理を利用した画像変換処理を行う画像変換 装置 101の構成例を示して!/、る。
[0232] 画像変換装置 101では、そこに供給される画像データが、第 1の画像データとして 、タップ選択部 112及び 113に供給される。
[0233] 注目画素選択部 111は、第 2の画像データを構成する画素を、順次、注目画素とし 、その注目画素を表す情報を、必要なブロックに供給する。
[0234] タップ選択部 112は、注目画素(の画素値)を予測するのに用いる第 1の画像デー タを構成する画素(の画素値)の幾つかを、予測タップとして選択する。
[0235] 具体的には、タップ選択部 112は、注目画素の時空間の位置から空間的又は時間 的に近い位置にある第 1の画像データの複数の画素を、予測タップとして選択する。
[0236] タップ選択部 113は、注目画素を、幾つかのクラスのうちのいずれかにクラス分けす るクラス分類を行うのに用いる第 1の画像データを構成する画素の幾つかを、クラスタ ップとして選択する。すなわち、タップ選択部 113は、タップ選択部 112が予測タップ を選択するのと同様にして、クラスタップを選択する。
[0237] なお、予測タップとクラスタップは、同一のタップ構造を有するものであっても良いし 、異なるタップ構造を有するものであっても良い。
[0238] タップ選択部 112で得られた予測タップは、予測演算部 116に供給され、タップ選 択部 113で得られたクラスタップは、クラス分類部 114に供給される。
[0239] クラス分類部 114は、タップ選択部 113からのクラスタップに基づき、注目画素をク ラス分類し、その結果得られるクラスに対応するクラスコードを、係数出力部 115に供 給する。
[0240] ここで、クラス分類を行う方法としては、例えば、 ADRC(Adaptive Dynamic Range Co ding)等を採用することができる。
[0241] ADRCを用いる方法では、クラスタップを構成する画素(の画素値)が、 ADRC処理さ れ、その結果得られる ADRCコードにしたがって、注目画素のクラスが決定される。
[0242] なお、 Kビット ADRCにおいては、例えば、クラスタップを構成する画素の画素値の 最大値 MAXと最小値 MINが検出され、 DR=MAX_MINを、集合の局所的なダイナミツ クレンジとし、このダイナミックレンジ DRに基づいて、クラスタップを構成する各画素の 画素値が Kビットに再量子化される。すなわち、クラスタップを構成する各画素の画素 値から、最小値 MINが減算され、その減算値力 ¾R/2Kで除算(再量子化)される。そし て、以上のようにして得られる、クラスタップを構成する Kビットの各画素の画素値を、 所定の順番で並べたビット列が、 ADRCコードとして出力される。従って、クラスタップ 1S 例えば、 1ビット ADRC処理された場合には、そのクラスタップを構成する各画素 の画素値は、最大値 MAXと最小値 MINとの平均値で除算され (小数点以下切り捨て )、これにより、各画素の画素値が 1ビットとされる(2値化される)。そして、その 1ビット の画素値を所定の順番で並べたビット列が、 ADRCコードとして出力される。
[0243] なお、クラス分類部 1 14には、例えば、クラスタップを構成する画素の画素値のレべ ル分布のパターンを、そのままクラスコードとして出力させることも可能である。しかし ながら、この場合、クラスタップ力 S、 N個の画素の画素値で構成され、各画素の画素 値に、 Kビットが割り当てられているとすると、クラス分類部 114が出力するクラスコー ドの場合の数は、(2N) K通りとなり、画素の画素値のビット数 Κに指数的に比例した膨 大な数となる。
[0244] 従って、クラス分類部 114においては、クラスタップの情報量を、上述の ADRC処理 や、あるいはベクトル量子化等によって圧縮することにより、クラス分類を行うのが好ま しい。
[0245] 係数出力部 115は、後述する学習によって求められたクラスごとのタップ係数を記 憶し、さらに、その記憶したタップ係数のうちの、クラス分類部 114から供給されるクラ スコードに対応するアドレスに記憶されているタップ係数 (クラス分類部 114から供給 されるクラスコードが表すクラスのタップ係数)を出力する。このタップ係数は、予測演 算部 116に供給される。
[0246] ここで、タップ係数とは、ディジタルフィルタにおける、いわゆるタップにおいて入力 データと乗算される係数に相当するものである。
[0247] 予測演算部 116は、タップ選択部 112が出力する予測タップと、係数出力部 115が 出力するタップ係数とを取得し、その予測タップとタップ係数とを用いて、注目画素の 真値の予測値を求める所定の予測演算を行う。これにより、予測演算部 116は、注目 画素の画素値(の予測値)、すなわち、第 2の画像データを構成する画素の画素値を 求めて出力する。
[0248] 次に、図 26のフローチャートを参照して、図 25の画像変換装置 101による画像変 換処理について説明する。
[0249] ステップ S111において、注目画素選択部 111は、画像変換装置 101に入力される 第 1の画像データに対する第 2の画像データを構成する画素のうち、まだ、注目画素 とされていないものの 1つを、注目画素として選択し、ステップ S112に進む。すなわ ち、注目画素選択部 111は、例えば、第 2の画像データを構成する画素のうち、ラス タスキャン順で、まだ、注目画素とされていないものが、注目画素として選択される。
[0250] ステップ S112において、タップ選択部 112と 113が、そこに供給される第 1の画像 データから、注目画素についての予測タップとクラスタップとするものを、それぞれ選 択する。そして、予測タップは、タップ選択部 112から予測演算部 116に供給され、ク ラスタップは、タップ選択部 113からクラス分類部 114に供給される。
[0251] クラス分類部 114は、タップ選択部 113から、注目画素についてのクラスタップを受 信し、ステップ S113において、そのクラスタップに基づき、注目画素をクラス分類する 。さらに、クラス分類部 114は、そのクラス分類の結果得られる注目画素のクラスを表 すクラスコードを、係数出力部 115に出力し、ステップ S114に進む。
[0252] ステップ S114では、係数出力部 115が、クラス分類部 114から供給されるクラスコ ードに対応するアドレスに記憶されているタップ係数を取得して出力する。さらに、ス テツプ S 114では、予測演算部 116が、係数出力部 115が出力するタップ係数を取 得し、ステップ S 115に進む。
[0253] ステップ S115では、予測演算部 116が、タップ選択部 112が出力する予測タップと
、係数出力部 115から取得したタップ係数とを用いて、所定の予測演算を行う。これ により、予測演算部 116は、注目画素の画素値を求めて出力し、ステップ S116に進 む。
[0254] ステップ S116では、注目画素選択部 111が、まだ、注目画素としていない第 2の画 像データがあるかどうかを判定する。ステップ S116において、まだ、注目画素として いない第 2の画像データがあると判定された場合、ステップ S 111に戻り、以下、同様 の処理が繰り返される。
[0255] また、ステップ S 116において、まだ、注目画素とされていない第 2の画像データが ないと判定された場合、処理を終了する。
[0256] 次に、図 25の予測演算部 116における予測演算と、係数出力部 115に記憶された タップ係数の学習について説明する。
[0257] いま、例えば、高画質の画像データ(高画質画像データ)を第 2の画像データとする とともに、その高画質画像データを LPF(Low Pass Filter)によってフィルタリングする等 してその画質 (解像度)を低下させた低画質の画像データ(低画質画像データ)を第 1の画像データとして、低画質画像データから予測タップを選択し、その予測タップと タップ係数を用いて、高画質画像データの画素(高画質画素)の画素値を、所定の 予測演算によって求める(予測する)ことを考える。
[0258] 所定の予測演算として、例えば、線形 1次予測演算を採用することとすると、高画質 画素の画素値 yは、次の線形 1次式によって求められることになる。
[0259] 國
N
y= L wnxn
n= 1 •••(l)
[0260] 但し、式(1)において、 Xは、高画質画素 yについての予測タップを構成する、 n番
n
目の低画質画像データの画素(以下、適宜、低画質画素とレ、う)の画素値を表し、 W
n は、 n番目の低画質画素(の画素値)と乗算される n番目のタップ係数を表す。なお、 式(1)では、予測タップ力 S、 N個の低画質画素 X , X , · · · , Xで構成されるものとして
1 2 N
ある。
[0261] ここで、高画質画素の画素値 yは、式(1)に示した線形 1次式ではなぐ 2次以上の 高次の式によって求めるようにすることも可能である。
[0262] いま、第 kサンプルの高画質画素の画素値の真値を yと表すとともに、式(1)によつ
k
て得られるその真値 yの予測値を y 'と表すと、その予測誤差 eは、次式で表される。
k k k
[0263] [数 2] ek=yk一 yk,
•••(2)
[0264] いま、式(2)の予測ィ直 'は、式(1)にしたがって求められるため、式(2)の y 'を、
k k 式(1)にしたがって置き換えると、次式が得られる。
[0265] [数 3]
N ヽ
ek= Yk- ∑ wnxn, k
\ n= 1 ノ
•••(3)
[0266] 但し、式(3)において、 X は、第 kサンプルの高画質画素についての予測タップを
n,k
構成する n番目の低画質画素を表す。
[0267] 式(3) (又は式(2) )の予測誤差 eを 0とするタップ係数 w 、高画質画素を予測す
k n
るのに最適なものとなるが、すべての高画質画素について、そのようなタップ係数 W
n を求めることは、一般には困難である。
[0268] そこで、タップ係数 wが最適なものであることを表す規範として、例えば、最小自乗
n
法を採用することとすると、最適なタップ係数 wは、次式で表される自乗誤差の総和
n
Eを最 /J、にすることで求めること力 Sできる。 [0269] [数 4]
Figure imgf000046_0001
レ=1
••• (4)
[0270] 但し、式(4)において、 Kは、高画質画素 yと、その高画質画素 yについての予測
k k
タップを構成する低画質画素 x , X , · · ·, X とのセットのサンプル数(学習用のサ
l,k 2,k N,k
)数)を表す。
[0271] 式(4)の自乗誤差の総和 Eの最小値(極小値)は、式(5)に示すように、総和 Eをタ ップ係数 wで偏微分したものを 0とする wによって与えられる。
n n
[0272] [数 5コ
Figure imgf000046_0002
••• (5)
[0273] そこで、上述の式(3)をタップ係数 wで偏微分すると、次式が得られる。
η
[0274] [数 6]
H —
Figure imgf000046_0003
" 2'… 'κ)
••• (6)
[0275] 式(5)と(6)から、次式が得られる。
[0276] 國
Κ Κ Κ
2 kXi,k=0, ∑ekX2,k=0- ■■■∑ekXN,k=0
••• (7)
[0277] 式(7)の eに、式(3)を代入することにより、式(7)は、式(8)に示す正規方程式で
k
表すことができる。
[0278] [数 8] k) W1 (∑xi , kYk) k= 1
M II
一 X
f K 、
< > k) (∑X2, kx2, k) ■ - (∑X2, kXN. k) W2 ―
k= 1 k= 1
、 '
(∑XN, k l k) ( XN,kX2,k) - - ( XN,kXN,k) WN (∑XN, kYk) k= 1 k= 1 k= 1 k= 1
•••(8)
[0279] 式(8)の正規方程式は、例えば、掃き出し法(Gauss-Jordanの消去法)などを用い ることにより、タップ係数 wについて解くことができる。
n
[0280] 式(8)の正規方程式を、クラスごとにたてて解 Xくことにより、最適なタップ係数 (ここで は、自乗誤差の総和 Eを最小にするタップ係数) wを、クラスごとに求めることができ n
[0281] 次に、図 27は、式(8)の正規方程式をたてて解くことによりタップ係数 wを求める学 n 習を行う学習装置 121の構成例を示している。 _ >· v
[0282] 学習用画像記憶部 131は、タップ係数 wの学習に用いられる学習用画 o…-像データを n
記憶している。ここで、学習用画像データとしては、例えば、解像度の高い高画質画 像データを用いることができる。
[0283] 教師データ生成部 132は、学習用画像記憶部 131から学習用画像データを読み 出す。さらに、教師データ生成部 132は、学習用画像データから、タップ係数の学習 の教師 (真値)、すなわち、式(1)による予測演算としての写像の写像先の画素値と なる教師データを生成し、教師データ記憶部 133に供給する。ここでは、教師データ 生成部 132は、例えば、学習用画像データとしての高画質画像データを、そのまま 教師データとして、教師データ記憶部 133に供給する。
[0284] 教師データ記憶部 133は、教師データ生成部 132から供給される教師データとし ての高画質画像データを記憶する。
[0285] 生徒データ生成部 134は、学習用画像記憶部 131から学習用画像データを読み 出す。さらに、生徒データ生成部 134は、学習用画像データから、タップ係数の学習 の生徒、すなわち、式(1)による予測演算としての写像による変換対象の画素値とな る生徒データを生成し、生徒データ記憶部 135に供給する。ここでは、生徒データ生 成部 134は、例えば、学習用画像データとしての高画質画像データをフィルタリング することにより、その解像度を低下させることで、低画質画像データを生成し、この低 画質画像データを、生徒データとして、生徒データ記憶部 135に供給する。
[0286] 生徒データ記憶部 135は、生徒データ生成部 134から供給される生徒データを記
[0287] 学習部 136は、教師データ記憶部 133に記憶された教師データとしての高画質画 像データを構成する画素を、順次、注目画素とし、その注目画素について、生徒デ ータ記憶部 135に記憶された生徒データとしての低画質画像データを構成する低画 質画素のうちの、図 25のタップ選択部 112が選択するのと同一のタップ構造の低画 質画素を、予測タップとして選択する。さらに、学習部 136は、教師データを構成する 各画素と、その画素が注目画素とされたときに選択された予測タップとを用い、クラス ごとに、式(8)の正規方程式をたてて解くことにより、クラスごとのタップ係数を求める
[0288] すなわち、図 28は、図 27の学習部 136の構成例を示している。
[0289] 注目画素選択部 141は、教師データ記憶部 133に記憶されている教師データを構 成する画素を、順次、注目画素として選択し、その注目画素を表す情報を、必要なブ ロックに供給する。
[0290] タップ選択部 142は、注目画素について、生徒データ記憶部 135に記憶された生 徒データとしての低画質画像データを構成する低画質画素から、図 25のタップ選択 部 112が選択するの同一の画素を選択し、これにより、タップ選択部 112で得られる のと同一のタップ構造の予測タップを得て、足し込み部 145に供給する。
[0291] タップ選択部 143は、注目画素について、生徒データ記憶部 135に記憶された生 徒データとしての低画質画像データを構成する低画質画素から、図 25のタップ選択 部 113が選択するのと同一の画素を選択し、これにより、タップ選択部 113で得られ るのと同一のタップ構造のクラスタップを得て、クラス分類部 144に供給する。
[0292] クラス分類部 144は、タップ選択部 143が出力するクラスタップに基づき、図 25のク ラス分類部 114と同一のクラス分類を行い、その結果得られるクラスに対応するクラス コードを、足し込み部 145に出力する。
[0293] 足し込み部 145は、教師データ記憶部 133から、注目画素となっている教師データ
(画素)を読み出し、その注目画素と、タップ選択部 142から供給される注目画素に っレ、ての予測タップを構成する生徒データ(画素)とを対象とした足し込みを、クラス 分類部 144から供給されるクラスコードごとに行う。
[0294] すなわち、足し込み部 145には、教師データ記憶部 133に記憶された教師データ y 、タップ選択部 142が出力する予測タップ X 、クラス分類部 144が出力するクラスコ k n,k
ードが供給される。
[0295] そして、足し込み部 145は、クラス分類部 144から供給されるクラスコードに対応す るクラスごとに、予測タップ (生徒データ) X を用い、式(8)の左辺の行列における生
n,k
徒データどうしの乗算 (X X )と、サメーシヨン(∑ )に相当する演算を行う。
n,k n,k
[0296] さらに、足し込み部 145は、やはり、クラス分類部 144から供給されるクラスコードに 対応するクラスごとに、予測タップ (生徒データ) X と教師データ yを用い、式(8)の
n,k k
右辺のベクトルにおける生徒データ x 及び教師データ yの乗算(X y )と、サメーシ
n,k k n,k k
ヨン(∑)に相当する演算を行う。
[0297] すなわち、足し込み部 145は、前回、注目画素とされた教師データについて求めら れた式(8)における左辺の行列のコンポーネント(Σ χ X )と、右辺のベクトルのコ
n,k η ,κ
ンポーネン H∑x y )を、その内蔵するメモリ(図示せず)に記憶しており、その行列
n,k k
のコンポーネント(∑x X )又はべタトルのコンポーネント(∑χ y )に対して、新た
n,k n,k n,k k
に注目画素とされた教師データについて、その教師データ y 及び生徒データ X
k+1 n,k+l を用いて計算される、対応するコンポーネント χ X 又は X y を足し込む(式(
i 'k+1 n',k+l i 'k+1 k+1
8)のサメーシヨンで表される加算を行う)。
[0298] そして、足し込み部 145は、教師データ記憶部 133 (図 27)に記憶された教師デー タすべてを注目画素として、上述の足し込みを行うことにより、各クラスについて、式( 8)に示した正規方程式をたてると、その正規方程式を、タップ係数算出部 146に供 給する。
[0299] タップ係数算出部 146は、足し込み部 145から供給される各クラスについての正規 方程式を解くことにより、各クラスについて、最適なタップ係数 wを求めて出力する。
n
[0300] 図 25の画像変換装置 101における係数出力部 115には、以上のようにして求めら れたクラスごとのタップ係数 wが記憶されて!/、る。
n
[0301] ここで、第 1の画像データに対応する生徒データとする画像データと、第 2の画像デ ータに対応する教師データとする画像データの選択の仕方によって、タップ係数とし ては、上述したように、各種の画像変換処理を行うものを得ることができる。
[0302] すなわち、上述のように、高画質画像データを、第 2の画像データに対応する教師 データとするとともに、その高画質画像データの空間解像度を劣化させた低画質画 像データを、第 1の画像データに対応する生徒データとして、タップ係数の学習を行 うことにより、タップ係数としては、図 29上から 1番目に示すように、低画質画像データ (SD(Standard Definition)画像)である第 1の画像データを、その空間解像度を向上さ せた高画質画像データ(HD(High Definition)画像データ)である第 2の画像データに 変換する空間解像度創造処理としての画像変換処理を行うものを得ることができる。
[0303] なお、この場合、第 1の画像データ(生徒データ)は、第 2の画像データ(教師デー タ)と画素数が同一であっても良いし、少なくても良い。
[0304] また、例えば、高画質画像データを教師データとするとともに、その教師データとし ての高画質画像データに対して、ノイズを重畳した画像データを生徒データとして、 タップ係数の学習を行うことにより、タップ係数としては、図 29上から 2番目に示すよう に、低 S/Nの画像データである第 1の画像データを、そこに含まれるノイズを除去(低 減)した高 S/Nの画像データである第 2の画像データに変換するノイズ除去処理とし ての画像変換処理を行うものを得ることができる。
[0305] さらに、例えば、ある画像データを教師データとするとともに、その教師データとして の画像データの画素数を間引いた画像データを生徒データとして、タップ係数の学 習を行うことにより、タップ係数としては、図 29上から 3番目に示すように、ある画像デ ータの一部又は全部である第 1の画像データを、その第 1の画像データを拡大した拡 大画像データである第 2の画像データに変換するリサイズ処理 (画素数を変更する処 理)としての画像変換処理を行うものを得ることができる。
[0306] なお、リサイズ処理を行うタップ係数は、高画質画像データを教師データとするとと もに、その高画質画像データの空間解像度を、画素数を間引くことにより劣化させた 低画質画像データを生徒データとして、タップ係数の学習を行うことによつても得るこ と力 Sできる。
[0307] また、例えば、高フレームレートの画像データを教師データとするとともに、その教 師データとしての高フレームレートの画像データのフレームを間引いた画像データを 生徒データとして、タップ係数の学習を行うことにより、タップ係数としては、図 29上か ら 4番目(1番下)に示すように、所定のフレームレートの第 1の画像データを、高フレ ームレートの第 2の画像データに変換する時間解像度創造処理としての画像変換処 理を fiうものを得ることができる。
[0308] 次に、図 30のフローチャートを参照して、図 27の学習装置 121の処理(学習処理) について、説明する。
[0309] まず最初に、ステップ S 121において、教師データ生成部 132と生徒データ生成部 134が、学習用画像記憶部 131に記憶された学習用画像データから、画像変換処 理で得る第 2の画像データに対応(相当)する教師データと、画像変換処理の対象と なる第 1の画像データに対応する生徒データを生成し、教師データ記憶部 133と生 徒データ生成部 134にそれぞれ供給して記憶させる。
[0310] なお、教師データ生成部 132と生徒データ生成部 134において、それぞれ、どのよ うな生徒データと教師データを生成するかは、上述したような種類の画像変換処理の うちのいずれの処理用のタップ係数の学習を行うかによつて異なる。
[0311] その後、ステップ S 122に進み、学習部 136 (図 28)において、注目画素選択部 14 1は、教師データ記憶部 133に記憶された教師データのうち、まだ、注目画素として いないものを、注目画素として選択し、ステップ S 123に進む。ステップ S 123では、タ ップ選択部 142が、注目画素について、生徒データ記憶部 135に記憶された生徒デ ータから予測タップとする生徒データとしての画素を選択し、足し込み部 145に供給 するとともに、タップ選択部 143が、やはり、注目画素について、生徒データ記憶部 1 35に記憶された生徒データからクラスタップとする生徒データを選択し、クラス分類 部 144に供給する。
[0312] そして、ステップ S124に進み、クラス分類部 144は、注目画素についてのクラスタツ プに基づき、注目画素のクラス分類を行い、その結果得られるクラスに対応するクラス コードを、足し込み部 145に出力して、ステップ S125に進む。
[0313] ステップ S125では、足し込み部 145は、教師データ記憶部 133から、注目画素を 読み出し、その注目画素と、タップ選択部 142から供給される注目画素について選 択された予測タップを構成する生徒データとを対象とした式(8)の足し込みを、クラス 分類部 144から供給されるクラスコードごとに行い、ステップ S126に進む。
[0314] ステップ S126では、注目画素選択部 141が、教師データ記憶部 133に、まだ、注 目画素としていない教師データが記憶されているかどうかを判定する。ステップ S 126 において、注目画素としていない教師データ力 まだ、教師データ記憶部 133に記 憶されていると判定された場合、ステップ S 122に戻り、以下、同様の処理が繰り返さ れる。
[0315] また、ステップ S 126において、注目画素としていない教師データ力 教師データ記 憶部 133に記憶されていないと判定された場合、足し込み部 145は、いままでのステ ップ S 122乃至 S126の処理によって得られたクラスごとの式(8)における左辺の行列 と、右辺のベクトルを、タップ係数算出部 146に供給し、ステップ S127に進む。
[0316] ステップ S127では、タップ係数算出部 146は、足し込み部 145から供給されるクラ スごとの式(8)における左辺の行列と右辺のベクトルによって構成されるクラスごとの 正規方程式を解くことにより、各クラスごとに、タップ係数 wを求めて出力し、処理を
n
終了する。
[0317] なお、学習用画像データの数が十分でないこと等に起因して、タップ係数を求める のに必要な数の正規方程式が得られないクラスが生じることがあり得る力 そのような クラスについては、タップ係数算出部 146は、例えば、デフォルトのタップ係数を出力 するようになつている。
[0318] 次に、図 31は、クラス分類適応処理を利用した画像変換処理を行う他の画像変換 装置である画像変換装置 151の構成例を示している。
[0319] なお、図中、図 25における場合と対応する部分については、同一の符号を付して あり、以下では、その説明は、適宜省略する。すなわち、画像変換装置 151は、係数 出力部 115に代えて、係数出力部 155が設けられている他は、図 25の画像変換装 置 101と同様に構成されている。
[0320] 係数出力部 155には、クラス分類部 114からクラス(クラスコード)が供給される他、 例えば、ユーザの操作に応じて外部から入力されるパラメータ zが供給されるようにな つている。係数出力部 155は、後述するようにして、ノ ラメータ zに対応するクラスごと のタップ係数を生成し、そのクラスごとのタップ係数のうちの、クラス分類部 114からの クラスのタップ係数を、予測演算部 116に出力する。
[0321] 図 32は、図 31の係数出力部 155の構成例を示している。
[0322] 係数生成部 161は、係数種メモリ 162に記憶されている係数種データと、ノ ラメータ メモリ 163に記憶されたパラメータ zとに基づいて、クラスごとのタップ係数を生成し、 係数メモリ 164に供給して上書きする形で記憶させる。
[0323] 係数種メモリ 162は、後述する係数種データの学習によって得られるクラスごとの係 数種データを記憶している。ここで、係数種データは、タップ係数を生成する、いわば 種になるデータである。
[0324] パラメータメモリ 163は、ユーザの操作等に応じて外部から入力されるパラメータ zを 上書きする形で記憶する。
[0325] 係数メモリ 164は、係数生成部 161から供給されるクラスごとのタップ係数 (パラメ一 タ zに対応するクラスごとのタップ係数)を記憶する。そして、係数メモリ 164は、クラス 分類部 114 (図 31 )から供給されるクラスのタップ係数を読み出し、予測演算部 116 ( 図 31)に出力する。
[0326] 図 31の画像変換装置 151では、外部から係数出力部 155に対して、パラメータ zが 入力されると、係数出力部 155 (図 32)のパラメータメモリ 163において、そのパラメ ータ zが、上書きする形で記憶される。
[0327] ノ ラメータメモリ 163にパラメータ zが記憶されると(パラメータメモリ 163の記憶内容 が更新されると)、係数生成部 161は、係数種メモリ 162からクラスごとの係数種デー タを読み出すとともに、ノ ラメータメモリ 163からパラメータ zを読み出し、その係数種 データとパラメータ zに基づいて、クラスごとのタップ係数を求める。そして、係数生成 部 161は、そのクラスごとのタップ係数を、係数メモリ 164に供給し、上書きする形で g己 fc、 せる。 [0328] 画像変換装置 151では、タップ係数を記憶しており、そのタップ係数を出力する係 数出力部 115に代えて設けられている係数出力部 155において、パラメータ zに対応 するタップ係数を生成して出力することを除いて、図 25の画像変換装置 101が行う 図 26のフローチャートにしたがった処理と同様の処理が行われる。
[0329] 次に、図 31の予測演算部 116における予測演算、並びに図 32の係数生成部 161 におけるタップ係数の生成及び係数種メモリ 162に記憶させる係数種データの学習 について説明する。
[0330] 図 25の実施の形態における場合のように、高画質の画像データ(高画質画像デー タ)を第 2の画像データとするとともに、その高画質画像データの空間解像度を低下 させた低画質の画像データ(低画質画像データ)を第 1の画像データとして、低画質 画像データから予測タップを選択し、その予測タップとタップ係数を用いて、高画質 画像データの画素である高画質画素の画素値を、例えば、式(1)の線形 1次予測演 算によって求める(予測する)ことを考える。
[0331] ここで、高画質画素の画素値 yは、式(1)に示した線形 1次式ではなぐ 2次以上の 高次の式によって求めるようにすることも可能である。
[0332] 図 32の実施の形態では、係数生成部 161において、タップ係数 w力 係数種メモ
n
リ 162に記憶された係数種データと、ノ ラメータメモリ 163に記憶されたパラメータ zと から生成されるが、この係数生成部 161におけるタップ係数 wの生成が、例えば、係
n
数種データとパラメータ zを用いた次式によって行われることとする。
[0333] [数 9コ
M
Wn=∑ , n Zm1
•••(9)
[0334] 但し、式(9)において、 /3 は、 n番目のタップ係数 wを求めるのに用いられる m番
m,n n
目の係数種データを表す。なお、式(9)では、タップ係数 w力 M個の係数種データ
n
0 , β , · · · , 13 を用いて求められるようになつている。
Ι,η 2,η Μ,η
[0335] ここで、係数種データ 0 とパラメータ ζから、タップ係数 wを求める式は、式(9)に
m,n n
限定されるものではない。 [0336] いま、式(9)におけるパラメータ zによって決まる値 z1"—1を、新たな変数 tを導入して
m
、次式で定義する。
[0337] [数 10] tm=zm1 (m=1,2, ' · ',Μ)
•••do)
[0338] 式(10)を、式(9)に代入することにより、次式が得られる。
[0339] [数 11]
Μ
Wn=∑ ^m, n ½
m= 1
•••(11)
[0340] 式(11)によれば、タップ係数 wは、係数種データ /3 と変数 tとの線形 1次式によ
n m,n m
つて求められることになる。
[0341] ところで、いま、第 kサンプルの高画質画素の画素値の真値を yと表すとともに、式 (
k
1)によって得られるその真値 yの予測値を y 'と表すと、その予測誤差 eは、次式で
k k k
表される。
[0342] [数 12] ek=yk一 yk,
•••(12)
[0343] いま、式(12)の予測ィ直 'は、式(1)にしたがって求められるため、式(12)の y 'を
k k
、式(1)にしたがって置き換えると、次式が得られる。
[0344] [数 13]
N ヽ
ek=Yk- ∑ wnxn, k
\ n= 1 ノ
•••(13)
[0345] 但し、式(13)において、 X は、第 kサンプルの高画質画素についての予測タップ
n,k
を構成する n番目の低画質画素を表す。
[0346] 式(13)の wに、式(1 1)を代入することにより、次式が得られる。
n [0347] [数 14]
Figure imgf000056_0001
•••(14)
[0348] 式(14)の予測誤差 eを 0とする係数種データ 13 、高画質画素を予測するのに
k m,n
最適なものとなるが、すべての高画質画素について、そのような係数種データ β を
m,n 求めることは、一般には困難である。
[0349] そこで、係数種データ 0 が最適なものであることを表す規範として、例えば、最小
m,n
自乗法を採用することとすると、最適な係数種データ 0 は、次式で表される自乗誤
m,n
差の総和 Eを最小にすることで求めることができる。
[0350] [数 15]
Figure imgf000056_0002
k=1
•••(15)
[0351] 但し、式(15)において、 Kは、高画質画素 yと、その高画質画素 yについての予測
k k
タップを構成する低画質画素 X , X , · · ·, χ とのセットのサンプル数(学習用のサ
l,k 2,k N,k
)数)を表す。
[0352] 式(15)の自乗誤差の総和 Eの最小値(極小値)は、式(16)に示すように、総和 Eを 係数種データ β で偏微分したものを 0とする β によって与えられる。
m,n m,n
[0353] [数 16] dE 2 96k eK = 0
0 βϊη, η 二 1 3 ^m, n
•••(16)
[0354] 式(13)を、式(16)に代入することにより、次式が得られる。
[0355] [数 17]
Figure imgf000056_0003
•••(17)
[0356] いま、 X と Y を、式(18)と(19)に示すように定義する。
i.p.j.q ι.Ρ
[0357] [数 18]
K
Ai, p, j, q= _ xi, ktpXj, klq
k=1
(i=1,2, ·'·,Ν:」 = 1,2, '·',Ν:ρ=1,2, '·',Μ:ς=1,2, '·',Μ)
•••(18)
[0358] [数 19]
Κ
Yi,p=∑Xi,ktpyk
k=1
•••(19)
[0359] この場合、式(17)は、 X と Y を用いた式(20)に示す正規方程式で表すことが
i.p.j.q ι.Ρ
できる。
[0360] [数 20]
Χι, 1, 1, 1 Xl, 1, 1,2 - - l, 1, 1, M XI, 1,2, 1 - -. Xi, 1,N, M Υι,ι
Xl,2, 1, 1 Xl,2, 1,2 - - l,2, 1, M Xi, 2,2, 1 - -. Xi, 2, N, M 2,1 Yl,2
Xl, M, 1, 1 Χΐ,Μ, 1,2 - - l, M, 1, M Xi, M,2, 1 - -. Xi, M, N, M ^M, 1 = Υί,Μ 2, 1, 1, 1 2, 1, 1,2 - - , M, 1, M X2, M,2, 1 - -. χ2, M, N, M β、,2 Υ2,1
XN, M, 1, 1 XN, M, 1,2 - - XN, M, 1, M XN, M,2, M - ·■ XN, M, N, M ΥΝ, Μ
•••(20)
[0361] 式(20)の正規方程式は、例えば、掃き出し法(Gauss-Jordanの消去法)などを用い ることにより、係数種データ β について解くことができる。
m,n
[0362] 図 31の画像変換装置 151においては、多数の高画質画素 y , y , ···, yを学習
1 2 K の教師となる教師データとするとともに、各高画質画素 yについての予測タップを構
k
成する低画質画素 X , X , · · · , X を学習の生徒となる生徒データとして、クラスご
l,k 2,k N,k
とに式(20)の正規方程式をたてて解く学習を行うことにより求められたクラスごとの係 数種データ β 力 係数出力部 155 (図 32)の係数種メモリ 162に記憶されており、 m,n
係数生成部 161では、その係数種データ β と、パラメータメモリ 163に記憶された m,n
パラメータ zから、式(9)にしたがって、クラスごとのタップ係数 wが生成される。そして n
、予測演算部 116において、そのタップ係数 wと、高画質画素としての注目画素に n
ついての予測タップを構成する低画質画素(第 1の画像データの画素)xを用いて、 n 式(1)が計算されることにより、高画質画素としての注目画素の画素値(に近い予測 値)が求められる。
[0363] 次に、図 33は、式(20)の正規方程式をクラスごとにたてて解くことにより、クラスごと の係数種データ 0 を求める学習を行う学習装置 171の構成例を示している。
m,n
[0364] なお、図中、図 27の学習装置 121における場合と対応する部分については、同一 の符号を付してあり、以下では、その説明は、適宜省略する。すなわち、学習装置 17 1は、生徒データ生成部 134と学習部 136に代えて、生徒データ生成部 174と学習 部 176がそれぞれ設けられているとともに、パラメータ生成部 181が新たに設けられ ている他は、図 27の学習装置 121と同様に構成されている。
[0365] 生徒データ生成部 174は、図 27の生徒データ生成部 134と同様に、学習用画像 データから生徒データを生成し、生徒データ記憶部 135に供給して記憶させる。
[0366] 但し、生徒データ生成部 174には、学習用画像データの他、図 32のパラメータメモ リ 163に供給されるパラメータ zが取り得る範囲の幾つかの値力 S、パラメータ生成部 18 1から供給されるようになっている。すなわち、いま、ノ ラメータ zが取り得る値が 0乃至 Zの範囲の実数であるとすると、生徒データ生成部 174には、例えば、 z = 0, 1 , 2, · · · , Zが、パラメータ生成部 181から供給されるようになっている。
[0367] 生徒データ生成部 174は、学習用画像データとしての高画質画像データを、例え ば、そこに供給されるパラメータ zに対応するカットオフ周波数の LPFによってフィルタ リングすることにより、生徒データとしての低画質画像データを生成する。
[0368] 従って、生徒データ生成部 174では、学習用画像データとしての高画質画像デー タについて、 Z+ 1種類の、空間解像度の異なる生徒データとしての低画質画像デー タが生成される。
[0369] なお、ここでは、例えば、パラメータ zの値が大きくなるほど、カットオフ周波数の高い LPFを用いて、高画質画像データをフィルタリングし、生徒データとしての低画質画像 データを生成するものとする。従って、ここでは、値の大きいパラメータ zに対応する低 画質画像データほど、空間解像度が高い。
[0370] また、本実施の形態では、説明を簡単にするために、生徒データ生成部 174にお いて、高画質画像データの水平方向及び垂直方向の両方向の空間解像度を、パラ メータ zに対応する分だけ低下させた低画質画像データを生成するものとする。
[0371] 学習部 176は、教師データ記憶部 133に記憶された教師データ、生徒データ記憶 部 135に記憶された生徒データ、及びパラメータ生成部 181から供給されるパラメ一 タ zを用いて、クラスごとの係数種データを求めて出力する。
[0372] パラメータ生成部 181は、パラメータ zが取り得る範囲の幾つかの値としての、例え ば、上述したような z = 0, 1 , 2, · · · , Zを生成し、生徒データ生成部 174と学習部 17
6に供給する。
[0373] 次に、図 34は、図 33の学習部 176の構成例を示している。なお、図中、図 28の学 習部 136における場合と対応する部分については、同一の符号を付してあり、以下 では、その説明は、適宜省略する。
[0374] タップ選択部 192は、図 28のタップ選択部 142と同様に、注目画素について、生徒 データ記憶部 135に記憶された生徒データとしての低画質画像データを構成する低 画質画素から、図 31のタップ選択部 112が選択するのと同一のタップ構造の予測タ ップを選択し、足し込み部 195に供給する。
[0375] タップ選択部 193も、図 28のタップ選択部 143と同様に、注目画素について、生徒 データ記憶部 135に記憶された生徒データとしての低画質画像データを構成する低 画質画素から、図 31のタップ選択部 113が選択するのと同一のタップ構造のクラスタ ップを選択し、クラス分類部 144に供給する。
[0376] 但し、図 34では、タップ選択部 192と 193に、図 33のパラメータ生成部 181が生成 するパラメータ zが供給されるようになっており、タップ選択部 192と 193は、ノ ラメ一 タ生成部 181から供給されるパラメータ zに対応して生成された生徒データ(ここでは 、 ノ ラメータ zに対応するカットオフ周波数の LPFを用いて生成された生徒データとし ての低画質画像データ)から、予測タップとクラスタップをそれぞれ選択する。 [0377] 足し込み部 195は、図 33の教師データ記憶部 133から、注目画素を読み出し、そ の注目画素、タップ選択部 192から供給される注目画素につ!/、て構成された予測タ ップを構成する生徒データ、及びその生徒データを生成したときのパラメータ zを対 象とした足し込みを、クラス分類部 144から供給されるクラスごとに行う。
[0378] すなわち、足し込み部 195には、教師データ記憶部 133に記憶された注目画素と しての教師データ y、タップ選択部 192が出力する注目画素についての予測タップ X
k i
(x )、及びクラス分類部 144が出力する注目画素のクラスが供給されるとともに、注
,k j,k
目画素についての予測タップを構成する生徒データを生成したときのパラメータ zが、 ノ ラメータ生成部 181から供給される。
[0379] そして、足し込み部 195は、クラス分類部 144から供給されるクラスごとに、予測タツ プ(生徒データ) X (X )とパラメータ zを用い、式(20)の左辺の行列における、式(1
i,k j,k
8)で定義されるコンポーネント X を求めるための生徒データ及びパラメータ zの乗 i.P.j.q
算 (X t x t )と、サメーシヨン(∑)に相当する演算を行う。なお、式(18)の tは、式( i.k p J,k q P
10)にしたがって、パラメータ zから計算される。式(18)の tも同様である。
q
[0380] さらに、足し込み部 195は、やはり、クラス分類部 144から供給されるクラスコードに 対応するクラスごとに、予測タップ (生徒データ) X 、教師データ y、及びパラメータ z
i,k k
を用い、式(20)の右辺のベクトノレにおける、式(19)で定義されるコンポーネント Y
LP
を求めるための生徒データ X 、教師データ y、及びパラメータ zの乗算 (X t y )と、
i,k k i,k p k サメーシヨン(∑)に相当する演算を行う。なお、式(19)の tは、式(10)にしたがって
P
、ノ ラメータ zから計算される。
[0381] すなわち、足し込み部 195は、前回、注目画素とされた教師データについて求めら れた式(20)における左辺の行列のコンポーネント X と、右辺のベクトルのコンポ一 i.P.j.q
ネント Y を、その内蔵するメモリ(図示せず)に記憶しており、その行列のコンポーネ
LP
ント X 又はベクトルのコンポーネント Y に対して、新たに注目画素とされた教師デ i.P.j.q LP
ータについて、その教師データ y、生徒データ X (X )、及びパラメータ zを用いて計
k i,k j,k
算される、対応するコンポーネント x t X t又は X t yを足し込む(式(18)のコンポ
i,k ρ j,k q i,k p k
一ネント X 又は式(19)のコンポーネント Y におけるサメーシヨンで表される加算 i.P.j.q LP
を行う)。 [0382] そして、足し込み部 195は、 0, 1 , · · · , Zのすベての値のパラメータ zにっき、教師 データ記憶部 133に記憶された教師データすベてを注目画素として、上述の足し込 みを行うことにより、各クラスについて、式(20)に示した正規方程式をたてると、その 正規方程式を、係数種算出部 196に供給する。
[0383] 係数種算出部 196は、足し込み部 195から供給されるクラスごとの正規方程式を解 くことにより、各クラスごとの係数種データ 0 を求めて出力する。
m,n
[0384] 次に、図 35のフローチャートを参照して、図 33の学習装置 171の処理(学習処理) について、説明する。
[0385] まず最初に、ステップ S 131において、教師データ生成部 132と生徒データ生成部
174が、学習用画像記憶部 131に記憶された学習用画像データから、教師データと 生徒データを、それぞれ生成して出力する。すなわち、教師データ生成部 132は、 学習用画像データを、例えば、そのまま、教師データとして出力する。また、生徒デ ータ生成部 174には、パラメータ生成部 181が生成する Z+ 1個の値のパラメータ zが 供給される。生徒データ生成部 174は、例えば、学習用画像データを、ノ ラメータ生 成部 181からの Z+ 1個の値(0, 1 , · · · , Z)のパラメータ zに対応するカットオフ周波 数の LPFによってフィルタリングすることにより、各フレームの教師データ(学習用画像 データ)について、 Z+ 1フレームの生徒データを生成して出力する。
[0386] 教師データ生成部 132が出力する教師データは、教師データ記憶部 133に供給さ れて記憶され、生徒データ生成部 174が出力する生徒データは、生徒データ記憶部 135に供給されて記憶される。
[0387] その後、ステップ S 132に進み、パラメータ生成部 181は、パラメータ zを、初期値と しての、例えば 0にセットし、学習部 176 (図 34)のタップ選択部 192及び 193、並び ίこ足し込みき 195ίこ供給して、ステップ S133(こ進む。ステップ S133で (ま、注目画 素選択部 141は、教師データ記憶部 133に記憶された教師データのうち、まだ、注 目画素としていないものを、注目画素として、ステップ S134に進む。
[0388] ステップ S134では、タップ選択部 192が、注目画素について、生徒データ記憶部
135に記憶された、パラメータ生成部 181が出力するパラメータ zに対する生徒デー タ(注目画素となっている教師データに対応する学習用画像データを、ノ ラメータ zに 対応するカットオフ周波数の LPFによってフィルタリングすることにより生成された生徒 データ)から予測タップを選択し、足し込み部 195に供給する。さらに、ステップ S134 では、タップ選択部 193が、やはり、注目画素について、生徒データ記憶部 135に記 憶された、パラメータ生成部 181が出力するパラメータ zに対する生徒データからクラ スタップを選択し、クラス分類部 144に供給する。
[0389] そして、ステップ S135に進み、クラス分類部 144は、注目画素についてのクラスタツ プに基づき、注目画素のクラス分類を行い、その結果得られる注目画素のクラスを、 足し込み部 195に出力して、ステップ S136に進む。
[0390] ステップ S135では、足し込み部 195は、教師データ記憶部 133から注目画素を読 み出し、その注目画素、タップ選択部 192から供給される予測タップ、パラメータ生成 部 181が出力するパラメータ zを用い、式(20)における左辺の行列のコンポーネント X t X tと、右辺のベクトルのコンポーネント X t yを計算する。さらに、足し込み部 i,K p j,K q i,K p K
195は、既に得られている行列のコンポーネントとベクトルのコンポーネントのうち、ク ラス分類部 144からの注目画素のクラスに対応するものに対して、注目画素、予測タ ップ、及びパラメータ zから求められた行列のコンポーネント X t X tとベクトルのコン
i,K p j,K q
ポーネント x t vを足し込み、ステップ S 137に進む。
i,K p K
[0391] ステップ S137では、パラメータ生成部 181が、 自身が出力しているパラメータ zが、 その取り得る値の最大値である Zに等しいかどうかを判定する。ステップ S 136におい て、パラメータ生成部 181が出力しているパラメータ zが最大値 Zに等しくない(最大 値 Z未満である)と判定された場合、ステップ S138に進み、パラメータ生成部 181は 、 ノ ラメータ zに 1を加算し、その加算値を新たなパラメータ zとして、学習部 176 (図 3 4)のタップ選択部 192及び 193、並びに足し込み部 195に出力する。
そして、ステップ S134に戻り、以下、同様の処理が繰り返される。
[0392] また、ステップ S 137において、ノ ラメータ zが最大値 Zに等しいと判定された場合、 ステップ S 139に進み、注目画素選択部 141が、教師データ記憶部 133に、まだ、注 目画素としていない教師データが記憶されているかどうかを判定する。ステップ S 138 において、注目画素としていない教師データ力 まだ、教師データ記憶部 133に記 憶されていると判定された場合、ステップ S 132に戻り、以下、同様の処理が繰り返さ れる。
[0393] また、ステップ S 139において、注目画素としていない教師データ力 教師データ記 憶部 133に記憶されていないと判定された場合、足し込み部 195は、いままでの処 理によって得られたクラスごとの式(20)における左辺の行列と、右辺のベクトルを、 係数種算出部 196に供給し、ステップ S140に進む。
[0394] ステップ S140では、係数種算出部 196は、足し込み部 195から供給されるクラスご との式(20)における左辺の行列と右辺のベクトルによって構成されるクラスごとの正 規方程式を解くことにより、各クラスごとに、係数種データ 13 を求めて出力し、処理 m,n
を終了する。
[0395] なお、学習用画像データの数が十分でないこと等に起因して、係数種データを求 めるのに必要な数の正規方程式が得られないクラスが生じることがあり得る力 S、そのよ うなクラスについては、係数種算出部 196は、例えば、デフォルトの係数種データを 出力するようになっている。
[0396] なお、係数種データの学習においても、図 29で説明したタップ係数の学習におけ る場合と同様に、第 1の画像データに対応する生徒データと、第 2の画像データに対 応する教師データとする画像データの選択の仕方によって、係数種データとしては、 各種の画像変換処理を行うものを得ることができる。
[0397] すなわち、上述の場合には、学習用画像データを、そのまま第 2の画像データに対 応する教師データとするとともに、その学習用画像データの空間解像度を劣化させ た低画質画像データを、第 1の画像データに対応する生徒データとして、係数種デ ータの学習を行うようにしたことから、係数種データとしては、第 1の画像データを、そ の空間解像度を向上させた第 2の画像データに変換する空間解像度創造処理として の画像変換処理を行うものを得ることができる。
[0398] この場合、図 31の画像変換装置 151では、画像データの水平解像度及び垂直解 像度を、パラメータ zに対応する解像度に向上させることができる。
[0399] また、例えば、高画質画像データを教師データとするとともに、その教師データとし ての高画質画像データに対して、パラメータ zに対応するレベルのノイズを重畳した 画像データを生徒データとして、係数種データの学習を行うことにより、係数種データ としては、第 1の画像データを、そこに含まれるノイズを除去(低減)した第 2の画像デ ータに変換するノイズ除去処理としての画像変換処理を行うものを得ることができる。 この場合、図 31の画像変換装置 151では、ノ ラメータ zに対応する S/Nの画像データ を得ること力 Sでさる。
[0400] また、例えば、ある画像データを教師データとするとともに、その教師データとして の画像データの画素数を、パラメータ zに対応して間引いた画像データを生徒データ として、又は、所定のサイズの画像データを生徒データとするとともに、その生徒デー タとしての画像データの画素をパラメータ zに対応する間弓 Iき率で間弓 I V、た画像デー タを教師データとして、係数種データの学習を行うことにより、係数種データとしては 、第 1の画像データを、そのサイズを拡大又は縮小した第 2の画像データに変換する リサイズ処理としての画像変換処理を行うものを得ることができる。この場合、図 31の 画像変換装置 151では、パラメータ zに対応するサイズ (画素数)に変更した画像デ ータを得ること力 Sできる。
[0401] なお、上述の場合には、タップ係数 wを、式(9)に示したように、 0 ζ°+ β ζ + · η Ι,η 2,η
· ·+ β ζΜ1で定義し、この式(9)によって、水平及び垂直方向の空間解像度を、い
Μ,η
ずれも、パラメータ ζに対応して向上させるためのタップ係数 Wを求めるようにした力 n
タップ係数 Wとしては、水平解像度と垂直解像度を、独立のパラメータ Zと Zに対応し n
て、それぞれ独立に向上させるものを求めるようにすることも可能である。
[0402] すなわち、タップ係数 wを、式(9)に代えて、例えば、 3次式 /3 ζ °ζ°+ /3 ζ 'ζ ° η Ι,η χ 2,η χ
+ β ζ 2ζ °+ β ζ 3ζ °+ /3 ζ °ζ '+ /3 ζ °ζ 2+ β ζ °ζ 3+ /3 ζ 'ζ '+ /3 ζ 1
3,η χ 4,η χ 5,η χ 6,η χ 7,η χ 8,η χ 9,η χ
+ β ζ Ιζ 2で定義するとともに、式(10)で定義した変数 tを、式(10)に代えて、例
10,n m
j- >^ιί , 0 0 , 1 0 , 2 0 , 3 0 , 0 1 , 0 2 , 0 3 , 、 t =z ζ , t =z ζ , t =z ζ , t =z ζ , t =z ζ , t =z ζ , t =z ζ , t
1 χ 2 χ 3 x 4 x 5 x 6 x 7 x 8
=z lz t =z 2z t =z lz 2で定義する。この場合も、タップ係数 Wは、最終的に
9 10 n
は、式(11)で表すことができ、従って、図 33の学習装置 171や、ノ ラメータ zと zに 対応して、教師データの水平解像度と垂直解像度をそれぞれ劣化させた画像データ を、生徒データとして用いて学習を行って、係数種データ 0 を求めることにより、水 m,n
平解像度と垂直解像度を、独立のパラメータ Zと Zに対応して、それぞれ独立に向上 させるタップ係数 wを求めること力 sできる。
n [0403] その他、例えば、水平解像度と垂直解像度それぞれに対応するパラメータ zと zに 加えて、さらに、時間方向の解像度に対応するパラメータ zを導入することにより、水 t
平解像度、垂直解像度、時間解像度を、独立のパラメータ Z , Z , Zに対応して、それ t
ぞれ独立に向上させるタップ係数 Wを求めることが可能となる。
n
[0404] また、リサイズ処理についても、空間解像度創造処理における場合と同様に、水平 及び垂直方向を、いずれもパラメータ zに対応する拡大率(又は縮小率)でリサイズす るタップ係数 wの他、水平と垂直方向を、それぞれパラメータ zと zに対応する拡大 n
率で、独立にリサイズするタップ係数 Wを求めることが可能である。
n
[0405] さらに、図 33の学習装置 171において、ノ ラメータ zに対応して教師データの水平 解像度及び垂直解像度を劣化させるとともに、ノ ラメータ zに対応して教師データに ノイズを付加した画像データを、生徒データとして用いて学習を行って、係数種デー タ β を求めることにより、ノ ラメータ Ζに対応して水平解像度及び垂直解像度を向 m,n
上させるとともに、ノ ラメータ Zに対応してノイズ除去を行うタップ係数 Wを求めること n
ができる。
[0406] 上述した画像変換処理は、以上のようなクラス分類適応処理を利用して行うことが できる。
[0407] すなわち、例えば、図 4の画像変換部 31において、チェック画像データを、サイズ(
1
画素数)が m倍の m倍拡大画像データに変換する画像変換処理を、クラス分類適応 処理を利用して行う場合には、図 33の学習装置 171において、横と縦の画素数それ ぞれが、チェック画像データの m倍、 m倍、 · · ·の画像データを、 m倍拡大画像デー
1 2
タに対応する教師データとするとともに、その教師データとしての画像データの画素 数を、パラメータ zに対応して 1/m , 1/m , · · ·に間引いた、チェック画像データと同一
1 2
の画素数の画像データを、チェック画像データに対応する生徒データとして、係数種 データの学習を行う。
[0408] そして、画像変換部 31を、図 31の画像変換装置 151によって構成し、学習によつ
1
て求めた係数種データを、画像変換部 31としての画像変換装置 151 (図 31)の係
1
数出力部 155を構成する係数種メモリ 162 (図 32)に記憶させておく。
[0409] この場合、画像変換部 31としての画像変換装置 151に対し、ノ ラメータ ζとして、拡 大率 mに対応する値を与えることによって、画像変換部 31としての画像変換装置 15
1
1において、チェック画像データを、画素数が m倍の m倍拡大画像データに変換する 画像変換処理を、クラス分類適応処理によって行うことができる。
[0410] 次に、上述した一連の処理は、ノ、一ドウエアにより行うこともできるし、ソフトウェアに より行うこともできる。一連の処理をソフトウェアによって行う場合には、そのソフトゥェ ァを構成するプログラムカ、汎用のコンピュータ等にインストールされる。
[0411] そこで、図 36は、上述した一連の処理を実行するプログラムがインストールされるコ ンピュータの一実施の形態の構成例を示してレ、る。
[0412] プログラムは、コンピュータに内蔵されている記録媒体としてのハードディスク 205 や ROM203に予め記録しておくことができる。
[0413] あるいはまた、プログラムは、フレキシブルディスク、 CD-ROM(Compact Disc Read
Only Memory), MO(Magneto Optical)ディスク, DVD(Digital Versatile Disc),磁気デ イスク、半導体メモリなどのリムーバブル記録媒体 211に、一時的あるいは永続的に 格納(記録)しておくことができる。このようなリムーバブル記録媒体 211は、いわゆる ノ クケージソフトウェアとして提供することカできる。
[0414] なお、プログラムは、上述したようなリムーバブル記録媒体 211からコンピュータにィ ンストールする他、ダウンロードサイトから、ディジタル衛星放送用の人工衛星を介し て、コンピュータに無線で転送したり、 LAN(Local Area Network),インターネットとい つたネットワークを介して、コンピュータに有線で転送し、コンピュータでは、そのよう にして転送されてくるプログラムを、通信部 208で受信し、内蔵するハードディスク 20 5にインストールすることができる。
[0415] コンピュータは、 CPU(Central Processing Unit)202を内蔵して!/、る。 CPU202には 、バス 201を介して、入出力インタフェース 210が接続されており、 CPU202は、入出 力インタフェース 210を介して、ユーザによって、キーボードや、マウス、マイク等で構 成される入力部 207が操作等されることにより指令が入力されると、それにしたがって 、 ROM(Read Only Memory)203に格納されているプログラムを実行する。あるいは、 また、 CPU202は、ハードディスク 205に格納されているプログラム、衛星若しくはネッ トワークから転送され、通信部 208で受信されてハードディスク 205にインストールさ れたプログラム、またはドライブ 209に装着されたリムーバブル記録媒体 211から読 み出されてハードディスク 205にインストールされたプログラムを、 RAM(Random Acce ss Memory)204にロードして実行する。これにより、 CPU202は、上述したフローチヤ ートにしたがった処理、あるいは上述したブロック図の構成により行われる処理を行う 。そして、 CPU202は、その処理結果を、必要に応じて、例えば、入出力インタフエ一 ス 210を介して、 LCD(Liquid Crystal Display)やスピーカ等で構成される出力部 206 から出力、あるいは、通信部 208から送信、さらには、ハードディスク 205に記録等さ せる。
[0416] なお、例えば、本実施の形態では、表示装置 2において、チェック画像の他に、 3つ の画像を同時に表示するようにしたが、チェック画像と同時に表示する画像は、 1 , 2 、又は 4以上であっても良い。
[0417] すなわち、図 2では、表示装置 2の画面を、横と縦にそれぞれ等分する 4つの表示 領域 #0ないし #3に分割し、その表示領域 #0ないし #3のそれぞれに、画像を表示する ようにした力 S、表示装置 2の画面は、その他、例えば、 2, 8, 16その他の数の複数の 表示領域に分割して、各表示領域に、画像を表示することができる。
[0418] さらに、表示領域の配置は、図 2に示したように、マトリクス状の配置に限定されるも のではなぐ表示領域は、表示装置 2の画面上の任意の位置に配置することができる
[0419] また、図 1では、表示装置 2を、 LCDとした力 S、表示装置としては、その他、例えば、 CRTや、 PDP、有機 EL、プロジェクタ(スクリーンの正面から光を照射するフロントプロ ジェクタ、及び、スクリーンの背面から光を照射するリアプロジェクタの両方を含む)、 F ED等を採用すること力 Sできる。
[0420] さらに、図 7及び図 8では、信号処理部 12が、有機 EL, PDP、及び CRTに表示され る画像に相当する画像を、 LCDである表示装置 2で表示するための処理後画像デー タそれぞれを生成する信号処理を行い、表示装置 2で表示するようにしたが、信号処 理部 12では、その他、例えば、 FEDや、フロントプロジェクタ、リアプロジェクタ等に表 示される画像に相当する画像を、 LCDである表示装置 2で表示するための処理後画 像データを生成する信号処理を行!/ \表示装置 2で表示することが可能である。 [0421] [ABL(Automatic Beam current Limiter)処理、 VM(Velocity Modulation)処理、及び CRT(Cathode Ray Tube)用 Ί処理を含む FPD(Flat Panel Display)用信号処理を行う ことにより、 FPDの表示装置である FPD表示装置において、 CRTの表示装置である C RT表示装置と同等の自然な表示を行う実施の形態]
[0422] 次に、 FPD表示装置において、 CRT表示装置と同等の自然な表示を行う実施の形 態について説明する。
[0423] 図 37は、従来の、例えば、 LCD(Liquid Crystal Display)等の FPDの表示装置(FPD 表示装置)の一例の構成を示して!/、る。
[0424] 明るさ調整コントラスト調整部 10011は、入力された画像信号にオフセットを掛けるこ とで、画像信号の明るさ調整をし、ゲインを調整することで、画像信号のコントラスト調 整をして、高画質化処理部 10012に供給する。
[0425] 高画質化処理部 10012は、 DRC(Digital Reality Creation)を代表とする高画質化処 理を行う。すなわち、高画質化処理部 10012は、高画質画像を得るための処理ブロッ クで、明るさ調整コントラスト調整部 10011からの画像信号に対して、画素数変換など を含む画像信号処理を行って、 Ί補正部 10013に供給する。
[0426] ここで、 DRCについては、例えば、特開 2005-236634号公報ゃ特開 2002-223167号 公報等に、クラス分類適応処理として記載されている。
[0427] γ補正部 10013は、 CRT表示装置において喑部が見えにくいなどの理由で本来の 蛍光体(CRTの発光部)が持つ γ特性に加えて信号処理により暗部の信号レベルを 調整するガンマ補正処理を行う処理ブロックである。
[0428] ここで、 LCDにおいても LCDパネル内部に液晶の光電変換特性(透過特性)を CRT の γ特性に合わせる処理回路が入っているため、従来の FPD表示装置では、 CRT表 示装置と同様に γ補正処理を行っている。
[0429] γ補正部 10013は、高画質化処理部 10012からの画像信号に対してガンマ補正処 理を施し、その結果得られる画像信号を、図示せぬ FPDとしての、例えば、 LCDに供 給する。これにより、 LCDでは、画像が表示される。
[0430] 以上のように、従来の FPD表示装置では、画像信号はコントラストや明るさ調整の処 理が行われた後、高画質化処理、ガンマ補正処理を経て FPDに直接入力されている [0431] このため、 FPD表示装置では、入力と表示画像の明るさはガンマに従った比例関係 になるが、表示画像は、 CRT表示装置と比べ、明るすぎたりゃギラツキが感じられる 画像になってしまう。
[0432] そこで、喑ぃ部分の階調表現能力が CRTに比べてパネルの特性が落ちるディスプ レイ装置において、別の ABL回路を使用せずに、適応的に階調表現力を改善する方 法が、例えば、特開 2005-39817号公報に記載されている。
[0433] ところで、上述のように、 FPD表示装置で表示される画像が、 CRT表示装置と比べ、 明るすぎたりゃギラツキが感じられる画像になってしまうのは、従来の CRT表示装置 に搭載していた画像信号だけを対象とした処理を行う画像信号処理系のみを FPD向 けに修正して、 FPD表示装置に搭載したためで、 CRT表示装置が画像信号処理系 だけでなぐ駆動系そのものの持つ特有の応答特性と駆動系を含めた総合的な信号 処理による表示装置とレ、うシステム構造が考慮されて!/、な!/、ことに原因がある。
[0434] そこで、以下では、 CRT表示装置以外の表示方式の、例えば、 FPD表示装置で画 像信号を表示したときに、 CRT表示装置で表示された画像に見えるような、 CRT表示 装置と同等の自然な表示を行うことができるようにする実施の形態について説明する
[0435] 図 38は、 CRT表示装置と同等の自然な表示を行うことができる FPD表示装置が有 する画像信号処理装置の一実施の形態の構成例を示している。
[0436] 図 38の画像信号処理装置は、 CRT以外の表示方式の表示装置、すなわち、ここで は、例えば、 LCD等の FPDを有する FPD表示装置で画像信号を表示したときに、 CR T表示装置で表示された画像に見えるように画像信号を処理する。
[0437] ここで、図 38の画像信号処理装置について説明する前に、図 38の画像信号処理装 置で表示しょうとしている画像を表示する CRT表示装置、すなわち、図 38の画像信 号処理装置がエミュレート (シミュレート)する CRT表示装置につ!/、て説明する。
[0438] 図 39は、 CRT表示装置の構成例を示している。
[0439] CRT表示装置では、明るさ調整コントラスト調整部 10051と、高画質化処理部 10052 において、画像信号に対して、図 37の明るさ調整コントラスト調整部 10011と、高画質 化処理部 10012のそれぞれと同様の処理が施され、その処理後の画像信号が、ゲイ ン調整部 10053、及び画像信号微分回路 10060に供給される。
[0440] ゲイン調整部(リミッタ) 10053は、後述する ABL制御部 10059からの ABL制御信号に より、高画質化処理部 10052からの画像信号の信号レベルを制限し、 γ補正部 10054 に供給する。すなわち、ゲイン調整部 10053は、後述する CRT10056の電子ビームの 電流量を直接制限する代わりに、高画質化処理部 10052から画像信号のゲインを調 整する。
[0441] γ補正部 10054は、ゲイン調整部 10053からの画像信号に対して、図 37の Ί補正 部 10013と同様の Ί補正処理を施し、その結果得られる画像信号を、ビデオ (Video) 増幅器 10055に供給する。
[0442] ビデオ増幅器 10055は、 γ補正部 10054からの画像信号を増幅し、 CRT駆動画像 信号として、 CRT10056に供給する。
[0443] 一方、 FBT(Flyback Transformer)10057は、 CRT表示装置にお!/、て、電子ビームの 水平走査を行うための水平偏向駆動電流、及び CRT (ブラウン管) 10056のアノード 電圧を発生するためのトランスで、その出力は、ビーム電流検出部 10058に供給され
[0444] ビーム電流検出部 10058は、 FBT10057の出力から、 ABL制御に必要な電子ビーム の電流量を検出し、 CRT10056、及び ABL制御部 10059に供給する。
[0445] ABL制御部 10059は、ビーム電流検出部 10058からの電子ビームの電流値を計測し 、画像信号の信号レベルを制御する ABL制御のための ABL制御信号を、ゲイン調整 部 10053に出力する。
[0446] 一方、画像信号微分回路 10060は、高画質化処理部 10052からの画像信号を微分 し、その結果得られる画像信号の微分値を、 VM駆動回路 10061に供給する。
[0447] VM(Velocity Modulation) (速度変調)駆動回路 10061は、 CRT表示装置において、 電子ビームの偏向(水平偏向)速度を部分的に変えることで同一画像信号でも表示 輝度を変える VM処理を行う。 CRT表示装置において、 VM処理は、主たる水平偏向 回路 (偏向ヨーク DY、 FBT10057、水平駆動回路(図示せず)等により構成される)と は別に、専用の VMコイル(図示せず)と VM駆動回路 10061を用いて実現される。 [0448] すなわち、 VM駆動回路 10061は、画像信号微分回路 10060からの画像信号の微分 値に基づき、 VMコイルを駆動する VMコイル駆動信号を生成し、 CRT10056に供給す
[0449] CRT10056は、電子銃 EGや、偏向ヨーク DY等で構成される。 CRT10056では、電子 銃 EG力 ビーム電流検出部 10058の出力や、ビデオ増幅器 10055からの CRT駆動画 像信号にしたがって電子ビームを放射し、その電子ビームが、コイルである偏向ョー ク DYが発生する磁界に応じて水平と垂直の方向を変えて(走査され)、 CRT10056の 蛍光面に衝突することにより、画像が表示される。
[0450] また、 CRT10056では、 VM駆動回路 10061からの VMコイル駆動信号に応じて、 VM コイルが駆動され、これにより、電子ビームの偏向速度が部分的に変更され、これに より、例えば、 CRT10056に表示される画像のエッジの強調等がされる。
[0451] 図 39からわかるように、 CRT表示装置では、偏向速度を部分的に変える VM処理、 及び電子ビームの電流量を制限する ABL処理 (ABL制御)が画像信号が処理される パス以外で行われ、 CRT10056に表示される画像の画質に影響を与える制御信号を 作っている。
[0452] これらの VM処理、及び ABL処理による影響が現れた画像を FPDで表示するには、 FPDは、 CRTと駆動方法が全く異なるため、画像信号が処理されるパス上で、 VM処 理、及び ABL処理に相当する処理を行う形をとる必要がある。
[0453] そこで、図 38の画像信号処理装置においては、図 38に示すような処理順で画像 信号を変換することにより、 FPDの駆動方法に適応し、かつ、 CRT表示装置と同様の 自然な表示を行うことを可能とする。
[0454] すなわち、図 38の画像信号処理装置において、明るさ調整コントラスト調整部 1003 1と、高画質化処理部 10032では、画像信号に対して、図 37の明るさ調整コントラスト 調整部 10011と、高画質化処理部 10012のそれぞれと同様の処理が施され、 ABL処 理部 10033、全画面明るさ平均レベル検出部 10036、及びピーク検出微分制御値検 出部 10037に供給される。
[0455] ABL処理部 10033は、 LCDにおいて CRTと同様の明るさ特性を得るために、画像が 一定以上の明るさ (輝度とその面積)になる場合に、高画質化処理部 10032からの画 像信号のレベルを、 ABL制御部 10038からの制御に従って制限する ABLエミュレート 処理を行う。
[0456] ここで、図 38における ABLエミュレート処理は、図 39における ABL処理をエミユレ一 シヨンする処理である。
[0457] すなわち、 CRT表示装置で行われる ABL処理は、 CRTにおいて、電子ビーム(電流 )が過大とならないよう一定以上の明るさ (輝度とその面積)になった場合に電流を制 限する処理であるが、 ABL処理部 10033は、図 39における ABL処理のエミユレーショ ンを行う。
[0458] 図 38では、 ABL処理部 10033は、 CRTにおいて電子ビームの電流を制限することに より、大面積で明るい画像を表示させようとした場合に実際の表示輝度を低く抑える 処理 (ABLエミュレート処理)を、画像信号の信号レベルを制限する処理として非線形 演算処理により行う。
[0459] すなわち、図 38において、全画面明るさ平均レベル検出部 10036は、高画質化処 理部 10032からの画像信号に基づき、画面の明るさや平均レベルを検出し、ピーク検 出微分制御値検出部 10037、及び ABL制御部 10038に供給する。 ABL制御部 10038 は、全画面明るさ平均レベル検出部 10036からの画面の明るさや平均レベルの検出 結果より画面の明るさとその面積を検出し、それによつて画面上の明るさを制限する ための制御信号を生成して、 ABL処理部 10033に供給する。 ABL処理部 10033は、 A BL制御部 10038からの制御信号を元に高画質化処理部 10032からの画像信号に対 し上記非線形演算を行うことで ABL処理を実現 (エミュレート)する。
[0460] ABL処理部 10033で ABL処理が施された画像信号は、 VM処理部 10034に供給され
[0461] VM処理部 10034は、図 39の CRT表示装置における VM処理と同等の処理を画像 信号に対して行うための処理ブロックで、図 39の CRT表示装置で行われる VM処理 のエミユレーシヨンを行う。
[0462] すなわち、図 38において、ピーク検出微分制御値検出部 10037は、高画質化処理 部 10032からの画像信号から、画像信号の部分的なピーク信号や、画像信号の微分 により得られるエッジ信号を求めて、全画面明るさ平均レベル検出部 10036からの画 面の明るさや平均レベルとともに、 VM制御部 10039に供給する。 VM制御部 10039は 、ピーク検出微分制御値検出部 10037からの、画像信号の部分的なピーク信号や画 像信号の微分により得られるエッジ信号、画面の明るさなどを元に、部分的に画像信 号のレベルを変化させる、 CRT表示装置における VMコイル駆動信号に相当する VM 制御信号を生成し、 VM処理部 10034に供給する。
[0463] VM処理部 10034は、 VM制御部 10039により生成された VM制御信号により、部分的 に、 ABL処理部 10033からの画像信号のレベルを変化させる処理、すなわち、画像信 号の部分的な補正、画像信号のエッジ部やピークの強調などの処理を行う。
[0464] ここで、図 39の CRT表示装置では、 CRT10056において信号の立ち上がり時に輝 度変化が不足するのを補うために、 VM処理が行われる力 画像信号そのものに補正 を掛けるのではなぐ偏向ヨーク DYにある VMコイルを用い、 CRT10056特有の水平偏 向の偏向速度(時間)を変化させることで結果として輝度を変化させている。
[0465] VM処理部 10034は、 CRT表示装置で行われる VM処理によって生じる輝度変化分 に相当する補正値を演算して、その補正値によって画像信号を補正する演算処理を 行うことで、 CRT表示装置で行われる VM処理のエミユレーシヨンをする。
[0466] CRT γ処理部 10035は、 LCDにおいて、従来の LCDパネルがパネル内部に持って いた CRTと同等の γ特性を得るための処理回路(変換回路)で行われていた処理を 含む Ί補正処理、及び色温度補償処理を行うため、各色信号 (コンポーネント信号) のレベルを調整する処理を行う。
[0467] ここで、図 38における CRT γ処理部 10035は、同一 LCD画面上で CRTの特性だけ でなく PDPや LEDディスプレイなど複数の表示特性を表現する際に必要となる電気光 変換特性の補正を行う部分で、本実施の形態では LCDの入力電圧一透過率特性を CRTの電気一輝度特性に合わせるために必要な処理を行う。
[0468] すなわち、図 38において、表示色温度補償制御部 10040は、 LCDの表示画面を複 数の表示エリア(例えば、図 2の表示領域 #0ないし #3)に区分して、各表示エリアに、 複数の異なる表示特性を持った表示デバイスで表示されるであろう画像と同様の画 質の画像を提示するシステム(例えば、図 1のモニタシステム)において、 CRTで表示 されるであろう画像と同様の画質の画像を表示させる表示エリアの表示色温度を CR T用の色温度として表示させるための制御信号を、各色信号 (コンポーネント信号)の ノ ランスを調整する制御を行うために生成し、 CRT γ処理部 10035に供給する。そし て、 CRT γ処理部 10035では、表示色温度補償制御部 10040からの制御信号に従い 、VM処理部 10034からの画像信号の各色信号のバランスを調整する処理も行う。
[0469] CRT、 LCD、 PDPではホワイトバランスや色温度、およびその対輝度変化がそれぞ れ異なるため、図 38の表示色温度補償制御部 10040が必要になる。
[0470] CRT γ処理部 10035が表示色温度補償制御部 10040からの制御信号に従って行う 処理には従来 LCDなどフラットパネルの内部で処理されていた、各パネルの階調特 性を CRTと同等になるように変換していた処理回路が行う処理を含み、表示パネルに よる特性の違!/、を吸収する処理を行う。
[0471] そして、 CRT γ処理部 10035は、 VM処理部 10034からの画像信号に対して、以上の 処理を施した後、その処理後の画像信号を、図示せぬ FPDとしての LCDに供給して 表示させる。
[0472] 以上のように、図 38の画像信号処理装置では、 CRT表示装置において行われてい た処理を画像信号処理に置き換えるだけではなぐ処理手順 (ABL処理部 10033の 処理後に、 VM処理部 10034の処理を行い、 VM処理部 10034の処理後に、 CRT y処 理部 10035の処理を行うという処理手順)も考慮することで、より正しく LCDの表示を、 CRT表示装置で表示される画像の画質に近づけることを可能にする。したがって、図 38の画像信号処理装置によれば、 LCDに CRTと同等な表示特性にて画像を出力す ることが可能になる。
[0473] さらに、図 38の画像信号処理装置によれば、 CRTそのものの特性違いによる表示 特性をエミュレートすることが可能になり、色合いや質感の違いを同一 LCDにて切り 替えることが可能になる。例えば、 EBU蛍光体と一般蛍光体の発色の違いを同一画 面上で比べることで送出時の色調整や画質調整を正確に行う、などを容易に行うこと が可能になる。
[0474] また、図 38の画像信号処理装置によれば、同様に、 LCDと CRTの表示特性による 違レ、を容易に確認することが可能である。
[0475] さらに、図 38の画像信号処理装置によれば、本来の意味での「好みの画質」で画 像を表示することが可能になる。
[0476] また、図 38の画像信号処理装置によれば、処理の範囲を表示画面内で変える事 により特性の異なる表示デバイス(例えば、蛍光体の異なる CRT、 LCDと CRT、など) で表示される画像を同時に見ることが可能になるため、比較や調整といった用途での 利用を容易にすることができる。
[0477] 次に、図 40のフローチャートを参照して、図 38の画像信号処理装置による画像信 号に対する処理の流れにつ!/、て説明する。
[0478] 明るさ調整コントラスト調整部 10031に、画像信号が供給されると、ステップ S10011に おいて、明るさ調整コントラスト調整部 10031は、そこに供給される画像信号の明るさ 調整をし、さらに、コントラスト調整をして、高画質化処理部 10032に供給して、処理は 、ステップ S10012に進む。
[0479] ステップ S10012では、高画質化処理部 10032が、明るさ調整コントラスト調整部 1001 1からの画像信号に対して、画素数変換などを含む画像信号処理を行って、その画 像信号処理後の画像信号を、 ABL処理部 10033、全画面明るさ平均レベル検出部 10 036、及びピーク検出微分制御値検出部 10037に供給して、処理は、ステップ S10013 に進む。
[0480] ここで、全画面明るさ平均レベル検出部 10036は、高画質化処理部 10032からの画 像信号に基づき、画面の明るさや平均レベルを検出し、ピーク検出微分制御値検出 部 10037、及び ABL制御部 10038に供給する。 ABL制御部 10038は、全画面明るさ平 均レベル検出部 10036からの画面の明るさや平均レベルの検出結果に基づき、画面 上の明るさを制限するための制御信号を生成して、 ABL処理部 10033に供給する。
[0481] また、ピーク検出微分制御値検出部 10037は、高画質化処理部 10032からの画像信 号から、画像信号の部分的なピーク信号や、画像信号の微分により得られるエッジ信 号を求めて、全画面明るさ平均レベル検出部 10036からの画面の明るさや平均レべ ノレとともに、 VM制御部 10039に供給する。 VM制御部 10039は、ピーク検出微分制御 値検出部 10037からの、画像信号の部分的なピーク信号や画像信号の微分により得 られるエッジ信号、画面の明るさなどを元に、 CRT表示装置における VMコイル駆動 信号に相当する VM制御信号を生成し、 VM処理部 10034に供給する。 [0482] ステップ S10033では、 ABL処理部 10033が、高画質化処理部 10032からの画像信号 に対して ABL処理をエミュレートする処理を適用する。
[0483] すなわち、 ABL処理部 10033は、 ABL制御部 10038からの制御に従って、高画質化 処理部 10032からの画像信号のレベルを制限する等の ABL処理をエミュレートする処 理 (ABLエミュレート処理)を行い、その結果得られる画像信号を、 VM処理部 10034に 供給する。
[0484] そして、処理は、ステップ S10013からステップ S10014に進み、 VM処理部 10034は、 A BL処理部 10033からの画像信号に対して VM処理をエミュレートする処理を適用する
[0485] すなわち、 VM処理部 10034は、ステップ S10014において、 VM制御部 10039から供 給される VM制御信号に従って、 ABL処理部 10033からの画像信号の輝度を補正す る等の VM処理をエミュレートする処理 (VMエミュレート処理)を行い、その結果得られ る画像信号を、 CRT γ処理部 10035に供給して、処理は、ステップ S10015に進む。
[0486] ステップ S10015では、 CRT γ処理部 10035は、 VM処理部 10034からの画像信号に 対して γ補正処理を施し、さらに、表示色温度補償制御部 10040からの制御信号に 従い、 VM処理部 10034からの画像信号の各色信号のバランスを調整する色温度補 償処理を行う。そして、 CRT γ処理部 10035は、色温度補償処理の結果得られる画像 信号を、図示せぬ FPDとしての LCDに供給して表示させる。
[0487] 次に、図 41は、図 38の VM処理部 10034の構成例を示すブロック図である。
[0488] 図 41において、 VM処理部 10034は、輝度補正部 10210及び EB処理部 10220から構 成される。
[0489] 輝度補正部 10210は、 ABL処理部 10033 (図 38)から供給される画像信号を対象と して、 CRT表示装置の電子ビームの水平偏向の偏向速度の変化が輝度に影響する 影響分の補正を行う輝度補正処理を行い、その結果得られる画像信号を、 EB処理 部 10220に供給する。
[0490] すなわち、輝度補正部 10210は、 VM係数発生部 10211及び演算部 10212から構成 される。
[0491] VM係数発生部 10211には、 VM制御部 10039 (図 38)から、 VM制御信号が供給され る。 VM係数発生部 10211は、 VM制御部 10039からの VM制御信号に従い、 VM係数 を発生し、演算部 10212に供給する。
[0492] 演算部 10212には、 VM係数発生部 10211からの VM係数が供給される他、 ABL処理 部 10033 (図 38)からの画像信号が供給される。
[0493] 演算部 10212は、 ABL処理部 10033 (図 38)からの画像信号に、 VM係数発生部 102
11からの VM係数を乗算することで、その画像信号について、 CRT表示装置の電子ビ ームの水平偏向の偏向速度の変化が輝度に影響する影響分の補正を行い、その補 正後の画像信号を、 EB処理部 10220に供給する。
[0494] EB処理部 10220は、輝度補正部 10210からの画像信号 (ABL処理部 10033で処理さ れ、さらに、輝度補正部 10210で処理された画像信号)を対象として、 CRT表示装置 の電子ビームが広がって CRT表示装置の蛍光体に衝突することをエミュレートする処 理(EB(Erectron Beam)エミュレート処理)を施し、 CRT γ処理部 10035 (図 38)に供給 する。
[0495] 以上のように、 VM処理部 10034で行われる VMエミュレート処理は、輝度補正部 102 10で行われる輝度補正処理と、 ΕΒ処理部 10220で行われる ΕΒエミュレート処理とから なる。
[0496] 図 42は、図 41の VM係数発生部 10211で発生する VM係数の例を示している。
[0497] VM係数は、 CRT表示装置において、水平偏向(水平方向の偏向)の偏向速度を、 VMコイル駆動信号により、注目画素(ここでは、 VM処理により輝度を強調する補正 をする画素)の位置で遅くすることによって、等価的に、注目画素の輝度を増す VM 処理をエミユレーシヨンするために、注目画素を中心として水平方向に並ぶ複数の画 素を、輝度の補正対象として、その輝度の補正対象の画素の画素値 (輝度)に乗算さ れる係数である。
[0498] VM係数発生部 10211では、図 42に示すように、輝度の補正対象の画素のうちの、 注目画素の画素値に乗算される VM係数は、 1以上の値とされ、他の画素に乗算され る VM係数は、演算部 10212でのゲインが 1となるように、 1以下の値とされる。
[0499] 図 43は、図 41の VM係数発生部 10211で発生される VM係数を求める方法を示して いる。 [0500] すなわち、図 43の Aは、 CRT表示装置の偏向ヨーク DY (図 39)に印加される電圧( 偏向電圧)の波形を示して!/、る。
[0501] 偏向ヨーク DY (図 39)に対しては、図 43の Aに示すように、時間 tの経過に対して、 一定の傾きで変化する偏向電圧力、水平走査の周期で繰り返し印加される。
[0502] 図 43の Bは、 CRT表示装置の VM駆動回路 10061 (図 39)で生成される VMコイル駆 動信号を示している。
[0503] CRT表示装置では、偏向ヨーク DY (図 39)にある VMコイル力 図 43の Bの VMコィ ル駆動信号によって駆動され、その VMコイルが発生する磁界によって、電子ビーム の偏向速度が、図 43の Cに示すように、部分的に変更される。
[0504] すなわち、図 43の Cは、図 43の Bの VMコイル駆動信号によって VMコイルが磁界を 発生する場合の、電子ビームの水平方向の位置の時間変化を示している。
[0505] 電子ビームの水平方向の位置の時間変化(図 43の Cのグラフの傾き)、つまり、電 子ビームの水平偏向の偏向速度は、 VMコイルが磁界を発生することによって、その 磁界が発生して!/、る区間等にお!/、て一定ではなくなる(変化する)。
[0506] 図 43の Dは、図 43の Aの偏向電圧による電子ビームの水平方向の位置の時間変 化から、図 43の Cの電子ビームの水平方向の位置の時間変化を減算した減算値の 微分値を示している。
[0507] 図 43の Aの偏向電圧のみによって、電子ビームの水平偏向が行われる場合を基準 とすると、 VMコイル駆動信号によって VMコイルが磁界を発生する場合には、 CRT表 示装置の CRT10056 (図 39)の蛍光体に衝突する電子ビームの強度(量)、つまり、 C RT10056に表示される画像の輝度(明るさ)は、図 43の Dに示すように変化する。
[0508] VM係数発生部 10211 (図 41)は、図 43の Dの微分値に相当する値を、 VM係数とし て発生する。
[0509] なお、 VM係数の具体的な値や、 VM係数との乗算をする画素の範囲(注目画素を 中心として水平方向に並ぶ幾つの画素の画素値を、 VM係数と乗算するか)、注目画 素とする画素の画素値(レベル)等は、図 38の画像信号処理装置が表示をエミユレ ートする CRT表示装置の仕様等に応じて決定される。
[0510] 次に、図 41の EB処理部 10220で行われる EBエミュレート処理について説明する。 [0511] EBエミュレート処理では、上述したように、 CRT表示装置の電子ビームが広がって C RT表示装置の CRT10056 (図 39)の蛍光体に衝突することをエミュレートする処理が 行われる。
[0512] すなわち、いま、電子ビームを照射しょうとする蛍光体に対応する画素(サブピクセ ノレ)を、注目画素とすると、電子ビームの強度が大である場合に、その電子ビームの スポットの形状が大となって、注目画素に対応する蛍光体だけでなぐその周辺の画 素に対応する蛍光体にも衝突し、その周辺の画素の画素値に影響を与える。 EBエミ ュレート処理では、その影響をエミュレートする処理が行われる。
[0513] 図 44は、電子ビームを照射する電子銃に与えられる電流(ビーム電流)と、そのビ ーム電流に対応して照射される電子ビーム力 S、 CRTの表示画面上に形成するスポッ トの径 (スポットサイズ)との関係を示してレ、る。
[0514] なお、図 44では、 2種類の CRTについての、ビーム電流とスポットサイズとの関係が 示されている。
[0515] ビーム電流とスポットサイズとの関係は、 CRTの種類や最大輝度の設定などによつ て差があるものの、スポットサイズは、ビーム電流が大であるほど大となる。つまり、輝 度が大であると、スポットサイズも大になる。
[0516] このようなビーム電流とスポットサイズとの関係は、例えば、特開 2004- 39300号公報 等に記載されている。
[0517] CRTの表示画面には、赤、緑、及び青の 3色の蛍光体(蛍光物質)が塗布されてお り、その赤、緑、及び青の蛍光体に、赤、緑、及び青(用)の電子ビームが衝突するこ とで、赤、緑、及び青の光が、それぞれ放出され、これにより、画像が表示される。
[0518] また、 CRTには、赤、緑、及び青の 3色の蛍光体に、赤、緑、及び青の電子ビーム が照射されるように、電子ビームが通過する開口部が設けられた色選別機構力 表 示画面に設けられている。
[0519] 図 45は、色選別機構を示している。
[0520] すなわち、図 45の Aは、色選別機構の 1つであるシャドウマスクを示している。
[0521] シャドウマスクには、円形状の開口部としてのホールが設けられており、このホール を通過した電子ビームが蛍光体に照射される。 [0522] なお、図 45の Aにおいて、模様を付していない丸印は、赤の蛍光体に電子ビーム を照射するためのホールを、斜線を付した丸印は、緑の蛍光体に電子ビームを照射 するためのホールを、黒塗りの丸印は、青の蛍光体に電子ビームを照射するための ホーノレを、それぞれ示している。
[0523] 図 45の Bは、色選別機構の他の 1つであるアパーチャ一グリルを示している。
[0524] アパーチャ一グリルには、垂直方向に延びる開口部としてのスリットが設けられてお り、このスリットを通過した電子ビームが蛍光体に照射される。
[0525] なお、図 45の Bにおいて、模様を付していない方形は、赤の蛍光体に電子ビームを 照射するためのスリットを、斜線を付した方形は、緑の蛍光体に電子ビームを照射す るためのスリットを、黒塗りの方形は、青の蛍光体に電子ビームを照射するためのスリ ットを、それぞれ示している。
[0526] 図 44で説明したように、電子ビームのスポットサイズは、輝度が大であるほど大にな
[0527] 図 46は、輝度が中程度である場合に、色選別機構上に形成される電子ビームのス ポットを、図 47は、輝度が大である場合に、色選別機構上に形成される電子ビームの スポットを、それぞれ模式的に示している。
[0528] なお、図 46の A及び図 47の Aは、色選別機構がシャドウマスクである場合に、その シャドウマスク上に形成される電子ビームのスポットを示しており、図 46の B及び図 47 の Bは、色選別機構がアパーチャ一グリルである場合に、そのアパーチャ一グリル上 に形成される電子ビームのスポットを示してレ、る。
[0529] 輝度が大であるほど、電子ビーム(のスポット)の中心部分の強度が大となり、それ に引きずられる形で、電子ビームの周辺部分の強度も大となって、色選別機構上に 形成される電子ビームのスポットのスポットサイズが大となる。その結果、電子ビーム 力 注目画素(電子ビームを照射しょうとする蛍光体に対応する画素)に対応する蛍 光体だけでなぐ注目画素の周囲の画素に対応する蛍光体にも照射される。
[0530] 図 48は、色選別機構としてアパーチャ一グリルが採用されている場合の、電子ビー ムが照射される様子を示す断面図である。
[0531] すなわち、図 48の Aは、ビーム電流が第 1の電流値である場合の電子ビームが照 射される様子を示しており、図 48の Bは、ビーム電流が第 1の電流値より大の第 2の 電流値である場合の電子ビームが照射される様子を示している。
[0532] 図 48では、緑の蛍光体に対応する画素が注目画素となっており、ビーム電流が第 1の電流値である場合の電子ビームは、図 48の Aに示すように、そのスポットサイズが 、隣接するスリットどうしの間の範囲に収まっており、注目画素に対応する蛍光体にの み照射され、かつ、それ以外の蛍光体に照射されないように遮断される。
[0533] 一方、ビーム電流が第 2の電流値である場合の電子ビームは、図 48の Bに示すよう に、そのスポットサイズ力 S、隣接するスリットどうしの間の範囲に収まらず、注目画素に 対応する蛍光体だけでなぐ他の蛍光体にも照射される。
[0534] すなわち、ビーム電流が第 2の電流値である場合の電子ビームのスポットサイズは、 注目画素に対応する蛍光体のスリットの他、他のスリットをも含む大きさとなり、その結 果、電子ビームが、他のスリットを通過し、注目画素に対応する蛍光体以外の蛍光体 にも照射される。
[0535] なお、図 48の Bに示したように、電子ビームが、注目画素に対応する蛍光体のスリツ ト以外のスリットをも通過する場合のビーム電流は、電子ビームのスポットサイズと、ァ パーチヤーグリルのスリットのスリット幅との関係で決まる。
[0536] EBエミュレート処理では、以上のように、電子ビームが、注目画素に対応する蛍光 体だけでなぐ他の蛍光体にも照射されることで、画像が受ける影響が、画像信号に 反映される。
[0537] ここで、図 49は、 2次元正規分布(ガウス分布)で近似した電子ビームの強度の分 布を示している。
[0538] 図 50は、図 49の電子ビームのうちの、アパーチャ一グリルのスリットを通過する電 子ビームの強度の分布を示してレ、る。
[0539] すなわち、図 50の Aは、注目画素に対応する蛍光体のスリットを通過する電子ビー ムと、そのスリットの左右に隣接するスリットを通過する電子ビームとの強度の分布を 示している。
[0540] 電子ビームの大部分は、注目画素に対応する蛍光体のスリットを通過する力 電子 ビームの残りの一部が、注目画素に対応する蛍光体のスリットの左に隣接する左スリ ットと、右に隣接する右スリットとを通過し、その通過した電子ビームによって、左スリツ トの蛍光体に対応する画素と、右スリットの蛍光体に対応する画素との表示が影響を 受ける。
[0541] なお、図 50の Bは、図 50の Aに示した電子ビームの強度の分布のうちの、注目画素 に対応する蛍光体のスリットを通過する電子ビームの強度の分布を示しており、図 50 の Cは、左スリット及び右スリットを通過する電子ビームの強度の分布を示している。
[0542] 図 51は、図 49の場合よりも強度が大の電子ビームの強度の分布と、その電子ビー ムのうちの、アパーチャ一グリルのスリットを通過する電子ビームの強度の分布とを示 している。
[0543] すなわち、図 51の Aは、図 49の場合よりも強度が大の電子ビームの強度の分布を 示している。
[0544] 図 51の Aの電子ビームは、図 49の電子ビームよりもスポットサイズ(強度が所定値 以上の範囲)が大となって!/、る。
[0545] 図 51の Bは、図 51の Aの電子ビームのうちの、アパーチャーグリノレのスリットを通過 する電子ビームの強度の分布を示して!/、る。
[0546] 図 51の Bでは、図 50の場合に比較して、左スリット及び右スリットを通過する電子ビ ームの強度が大になっており、したがって、左スリットの蛍光体に対応する画素と、右 スリットの蛍光体に対応する画素との表示には、より大きな影響がでる。
[0547] なお、図 51の Cは、図 51の Bに示した電子ビームの強度の分布のうちの、注目画素 に対応する蛍光体のスリットを通過する電子ビームの強度の分布を示しており、図 51 の Dは、左スリット及び右スリットを通過する電子ビームの強度の分布を示して!/、る。
[0548] 図 52は、図 49に示した電子ビームの強度の分布と、その電子ビームのうちの、シャ ドウマスクのスリットを通過する電子ビームの強度の分布とを示している。
[0549] すなわち、図 52の Aは、図 49と同一の電子ビームの強度の分布を示している。
[0550] 図 52の Bは、図 52の Aの電子ビームのうちの、シャドウマスクのホールを通過する電 子ビームの強度の分布を示してレ、る。
[0551] すなわち、図 52の Bは、注目画素に対応する蛍光体のホールを通過する電子ビー ムと、そのホールの周辺のホール(周辺ホール)を通過する電子ビームとの強度の分 布を示している。
[0552] 図 52の Cは、図 52の Bに示した電子ビームの強度の分布のうちの、注目画素に対 応する蛍光体のホールを通過する電子ビームの強度の分布を示しており、図 52の D は、周辺ホールを通過する電子ビームの強度の分布を示して!/、る。
[0553] 図 53は、図 52の場合よりも強度が大の電子ビームの強度の分布と、その電子ビー ムのうちの、シャドウマスクのホールを通過する電子ビームの強度の分布とを示して!/ヽ
[0554] すなわち、図 53の Aは、図 52の場合よりも強度が大の電子ビームの強度の分布を 示している。
[0555] 図 53の Aの電子ビームは、図 52の Aの電子ビームよりもスポットサイズ(強度が所定 値以上の範囲)が大となって!/、る。
[0556] 図 53の Bは、図 53の Aの電子ビームのうちの、シャドウマスクのホールを通過する電 子ビームの強度の分布を示してレ、る。
[0557] 図 53の Bでは、図 52の Bの場合に比較して、周辺ホールを通過する電子ビームの 強度が大になっており、したがって、周辺ホールの蛍光体に対応する画素の表示に は、図 52の Bの場合より大きな影響がでる。
[0558] 図 53の Cは、図 53の Bに示した電子ビームの強度の分布のうちの、注目画素に対 応する蛍光体のホールを通過する電子ビームの強度の分布を示しており、図 53の D は、周辺ホールを通過する電子ビームの強度の分布を示して!/、る。
[0559] なお、図 49ないし図 53では、電子ビームのスポットの拡がりを分かりやすくするため
、電子ビームの強度を表す高さ方向のスケールを、位置を表す X方向及び y方向のス ケールよりも圧縮してある。
[0560] ところで、 1次元正規分布(1次元の正規分布)のある区間の面積は、 1次元正規分 布を表す式(21)の確率密度関数 ί(χ)を、面積を求めようとする区間に亘つて積分す ることで求めること力 Sでさる。
[0561] [数 21]
Figure imgf000083_0001
(21)
[0562] ここで、式(21)において、 は、平均値を表し、 は、分散を表す。
[0563] 上述したように、電子ビームの強度の分布を、 2次元正規分布(2次元の正規分布) で近似する場合、ある範囲の電子ビームの強度は、 2次元正規分布を表す式(22) の確率密度関数 x,y)を、強度を求めようとする範囲に亘つて積分することで求めるこ と力 Sできる。
[0564] [数 22]
2
1
f ( x, y) exp
2 7Γ σχ σγ 2 2
1 - xy
Figure imgf000084_0001
(22)
[0565] ここで、式(22)において、 は、 X方向の平均値を表し、 a は、 y方向の平均値を 表す。また、 σ 2は、 X方向の分散を表し、 σ 2は、 X方向の分散を表す。 ρ は、 X方向 と y方向の相関係数 (x方向と y方向の共分散を、 X方向の標準偏差 σ と y方向の標準 偏差 σ との積で除算した値)を表す。
[0566] 平均値(平均ベクトル) , ιι )は、理想的には、電子ビームの中心の位置 (x,y)を 表す。いま、説明を簡単にするために、電子ビームの中心の位置 (x,y)を、(0,0) (原点 )とすると、平均値 及び は 0となる。
[0567] また、 CRT表示装置において、電子銃や力ソード等の設計は、電子ビームのスポッ トが円形となるように行われることから、相関係数 p を 0とする。
[0568] いま、色選別機構力 アパーチャ一グリルであるとすると、平均値 及び 、並び に、相関係数 p を 0とした式(22)の確率密度関数 i(x,y)を、スリットの範囲で積分す ることにより、スリットを通過する電子ビームの強度(量)を求めることができる。
[0569] すなわち、図 54は、スリットを通過する電子ビームの強度を求める積分を説明する 図である。
[0570] 図 54の Aは、水平方向である X方向の積分の区間を示している。 [0571] 注目画素に対応する蛍光体のスリット(注目スリット)を通過する電子ビームの強度 は、 X方向については、アパーチャ グリルのスリットのスリット幅を Sとすると、 -S/2か ら +S/2の範囲に亘つて、確率密度関数 f(xy)を積分することにより求めることができる
[0572] また、左スリットを通過する電子ビームの強度は、 X方向については、その左スリット のスリット幅に亘つて、確率密度関数 x y)を積分することにより求めることができ、右 スリットを通過する電子ビームの強度は、 X方向については、その右スリットのスリット幅 に亘つて、確率密度関数 i(X y)を積分することにより求めることができる。
[0573] 図 54の B及び図 54の Cは、垂直方向である y方向の積分の区間を示している。
[0574] 注目スリットを通過する電子ビームの強度は、 y方向については、図 54の Bに示すよ うに、 _∞から +∞の範囲に亘つて、確率密度関数 i(x y)を積分することにより求めるこ と力 Sできる。
[0575] 左スリット及び右スリットを通過する電子ビームの強度それぞれも、 y方向について は、図 54の Cに示すように、 -∞から +∞の範囲に亘つて、確率密度関数 i(x y)を積分 することにより求めること力 Sでさる。
[0576] 一方、電子ビーム全体の強度は、 X方向及び y方向のいずれにも、 -∞力、ら+∞の範 囲に亘つて、確率密度関数 i(x,y)を積分することにより求めることができ、いま、その値 を Pとする。
0
[0577] また、注目スリットを通過する電子ビームの強度を Pと表すとともに、左スリット及び
1
右スリットを通過する電子ビームの強度それぞれを、 P及び Pと表すこととする。
R
[0578] この場合、注目画素の表示には、電子ビーム全体の強度 Pのうちの、強度 Pだけが
0 1 影響し、この注目画素の表示によって、電子ビーム全体の強度 pのうちの、強度 pが
0
、左スリットの蛍光体に対応する画素(左画素)の表示に影響し、強度 P 、左スリット
R
の蛍光体に対応する画素 (右画素)の表示に影響する。
[0579] すなわち、電子ビーム全体の強度 Pを基準とすると、注目画素の表示には、電子ビ
0
ームの強度の P /Pが影響し、さらに、電子ビームの強度の P /Pが左画素の表示に
1 0 0
影響を与えるとともに、電子ビームの強度の P /Pが右画素の表示に影響を与える。
R 0
[0580] したがって、注目画素の表示を基準とすると、注目画素の表示は、左画素の表示に 、 P /P /(P /P )だけ影響を与え、右画素の表示に、 P /P /(P /P )だけ影響を与える。
L 0 1 0 R 0 1 0
[0581] EBエミュレート処理では、左画素については、注目画素の表示の影響を反映する ために、注目画素の表示の影響分 P /P /(P /P )を、 EBエミュレート処理に用いる EB
0 1 0
係数として、左画素の画素値に乗算し、その結果得られる乗算値力 左画素の(元の
)画素値に加算される。さらに、 EBエミュレート処理では、左画素の表示に影響を与 える、左画素の周囲の画素の表示の影響分を EB係数として、同様の処理が行われ、 これにより、左画素の周囲の画素の表示時に電子ビームが広がって、左画素の蛍光 体に衝突することによる影響を考慮した左画素の画素値が求められる。
[0582] 右画素についても、同様に、右素の周囲の画素の表示時に電子ビームが広がって 、右画素の蛍光体に衝突することによる影響を考慮した右画素の画素値が求められ
[0583] なお、色選別機構が、シャドウマスクである場合も、アパーチャ一グリルの場合と同 様にして、 EBエミュレート処理に用いる EB係数を求めることができる。但し、シャドウマ スクについては、アパーチャ一グリルの場合に比較して、積分が複雑になる。シャドウ マスクについては、上述の積分を用いるのではなぐシャドウマスクのホールの位置と ホールの半径からモンテカルロ法などで、 EB係数を求める方が容易である。
[0584] 以上のように、 EB係数は、理論上は、計算によって求めることが可能である力 図 4 4に示したように、電子ビームのスポットサイズは、ビーム電流によって変化する。した がって、 EB係数を求めるには、電子ビームの強度の分布を近似する式(22)の確率 密度関数 x,y)の分散 σ 2及び σ 2を、ビーム電流の電流値ごとに変える必要がある。
[0585] また、上述の場合には、電子ビームが、色選別機構(アパーチャ一グリル、及びシャ ドウマスク)に入射する角度が直角であることを、当然の前提としたが、実際には、電 子ビームが色選別機構に入射する角度は、表示画面の中央から離れるほど浅くなる
[0586] すなわち、図 55は、電子ビームが色選別機構としてのアパーチャ一グリルに入射 する様子を示している。
[0587] 図 55の Aは、表示画面の中央付近での、電子ビームがアパーチャ一グリルに入射 する様子を示している。 [0588] 図 55の Aに示すように、表示画面の中央付近では、電子ビームは、アパーチャーグ リルに対して、垂直に入射する。
[0589] 図 55の Bは、表示画面の中央から離れた位置での、電子ビームがアパーチャーグ リルに入射する様子を示してレ、る
[0590] 図 55の Bに示すように、表示画面の中央から離れた位置では、電子ビームは、垂直 から傾いた角度で、アパーチャ一グリルに入射する。
[0591] 電子ビームが、図 55の Bに示したように、垂直から傾いた角度で、アパーチャ一ダリ ルに入射する場合、電子ビームの強度の分布は、式(22)の確率密度関数 f(x,y)の形 状から乖離するため、電子ビームがアパーチャ一グリルに垂直に入射することを前提 として、 EB係数を求めたのでは、 EB係数の精度が劣化する。
[0592] 以上から、 EB係数は、計算のみによって求めるのではなぐ実験も併用して求める ことが望ましい。
[0593] 次に、図 56、及び図 57を参照して、図 41の EB処理部 10220で行われる EBエミユレ ート処理についてさらに説明する。
[0594] 図 56は、画素と、電子ビームの強度の分布とを示している。
[0595] すなわち、図 56の Aは、画素 Eを中心とする横 X縦が 3 X 3の 9画素 A, B, C, D, F,
G, H、及び Iを示している。
[0596] いま、図 56の Aにおいて、画素 Eを注目画素として注目する。また、横方向を x方向 とし、縦方向を y方向とするとともに、注目画素 Eの位置 (x,y)を基準として、他の画素 A なレ、し D及び Fな!/、し Iの位置を表すこととする。
[0597] この場合、画素どうしの間隔を 1とすると、画素 Aの位置は (x-l,y-l)に、画素 Bの位 置は (x,y-l)に、画素 Cの位置は (x+l,y_l)に、画素 Dの位置は (X_l,y)に、画素 Fの位 置は (x+l,y)に、画素 Gの位置は (x_l,y+l)に、画素 Hの位置は (x,y+l)に、画素 Iの位置 は (x+l,y+l)に、それぞれなる。
[0598] ここで、画素 Aを、その位置 (x-l,y_l)をも用いて、画素 A(x_l,y-1)ともいい、画素 A(x
-l,y-l)の画素値を、画素値 Aともいう。他の画素 Bないし Iについても同様とする。
[0599] 図 56の B及び図 56の Cは、 CRT表示装置において、注目画素 E(x,y)を表示すると きの電子ビームの強度の分布を模式的に示している。 [0600] すなわち、図 56の Bは、注目画素 E(x,y)を表示するときの電子ビームの強度の X方 向の分布を表し、図 56の Cは、注目画素 E(x,y)を表示するときの電子ビームの強度の y方向の分布を表している。
[0601] 注目画素 E(x,y)の画素値 Eが大であるほど、電子ビームは、図 56の B及び図 56の C に示すように広がり、他の画素 A(x-l,y-l)ないし D(x-l,y)及び F(x+l,y)ないし I(x+l,y+ 1)の表示に影響を与える。
[0602] このため、図 41の EB処理部 10220は、注目画素 E(x,y)を表示するときの電子ビーム
1S 他の画素 A(x-l,y-l)ないし D(x-l,y)及び F(x+l,y)ないし I(x+l,y+l)の表示に影響 を与える程度を表す EB係数を、他の画素 A(x-l,y-l)ないし D(x-l,y)及び F(x+l,y)な いし I(x+l,y+l)の画素値 Aないし D及び Fないし Iに乗算することにより、注目画素 E(x,y )を表示するときの電子ビーム力 他の画素 A(x-l,y-l)ないし D(x-l,y)及び F(x+l,y)な いし I(x+l,y+l)の表示に影響を与える影響分を求め、その影響分を考慮して、他の画 素 A(x-l,y_l)ないし D(x_l,y)及び F(x+l,y)ないし I(x+l,y+l)の、 EBエミュレート処理後 の画素値を決定する。
[0603] 図 57は、注目画素 E(x,y)を表示するときの電子ビームが、他の画素 A(x_l,y-1)ない し D(x-l,y)及び F(x+l,y)ないし I(x+l,y+l)の表示に影響を与える影響分(以下、適宜、 EB影響分と!/、う)を求める回路の構成例を示して!/、る。
[0604] 画素値 Aは演算部 10242Aに、画素値 Bは演算部 10242Bに、画素値 Cは演算部 102 42Cに、画素値 Dは演算部 10242Dに、画素値 Eは EB係数発生部 10241に、画素値 F は演算部 10242Fに、画素値 Gは演算部 10242Gに、画素値 Hは演算部 10242Hに、 画素値 Iは演算部 102421に、それぞれ供給される。
[0605] EB係数発生部 10241は、画素値 Eに基づいて、注目画素 E(x,y)を表示するときの電 子ビームが、他の画素 A(x-l,y_l)ないし D(x_l,y)及び F(x+l,y)ないし I(x+l,y+l)の表 示に影響を与える程度を表す EB係数 A ,B ,C ,D ,F ,G ,H 、及び I を発生し
EB EB EB EB EB EB EB EB
、演算部 10242A, 10242B, 10242C, 10242D, 10242F, 10242G, 10242H、及び 102 421に、それぞれ供給する。
[0606] 演算部 10242Aないし 10242D、及び 10242Fないし 102421は、そこに供給される画 素値 Aないし D、及び Fないし Iと、 EB係数発生部 10241からの EB係数 A ないし D 、 及び F ないし I とを、それぞれ乗算し、その結果得られる値 A'ないし D'、及び F'ない
EB EB
し を、 EB影響分として出力する。
[0607] 画素値 Eは、そのまま出力され、他の画素 A(x-l,y-l)ないし D(x-l,y)及び F(x+l,y)な いし I(x+l,y+l)を表示するときの電子ビームそれぞれが、注目画素 E(x,y)の表示に影 響を与える EB影響分と加算され、その加算値力 S、注目画素 E(x,y)の、 EBエミュレート 処理後の画素値とされる。
[0608] 図 58は、図 41の EB処理部 10220の構成例を示すブロック図である。
[0609] 図 58において、 EB処理部 10220は、 EB機能部 10250から構成され、 EB機能部 1025
0は、遅延部 10251ないし 10259、 EB係数発生部 10260、及び積和演算部 10261から 構成される。
[0610] EB機能部 10250は、例えば、図 56に示したように、画素 E(x,y)を表示するときの電 子ビームが、その画素 E(x,y)に隣接する画素 A(x-l,y-l)ないし D(x-l,y)及び F(x+l,y) ないし I(x+l,y+l)の表示に影響を与えることとして、つまり、画素 E(x,y)については、そ の画素 E(x,y)に隣接する画素 A(x-l,y-l)ないし D(x-l,y)及び F(x+l,y)ないし I(x+l,y+l )それぞれからの EB影響分があるとして、画素 E(x,y)の、 EBエミュレート処理後の画素 値を求める。
[0611] すなわち、 EB機能部 10250には、輝度補正部 10210 (図 41)力 画像信号が供給さ れる。
[0612] EB機能部 10250では、輝度補正部 10210からの画像信号を構成する画素の画素値 、ラスタスキャン順に、遅延部 10251, 10253、及び 10258、 EB係数発生部 10260、並 びに積和演算部 10261に供給される。
[0613] 遅延部 10251は、輝度補正部 10210からの画素値を 1ライン (水平ライン)分だけ遅 延して、遅延部 10252に供給する。遅延部 10252は、遅延部 10251からの画素値を 1ラ イン分だけ遅延して、遅延部 10254、及び積和演算部 10261に供給する。
[0614] 遅延部 10254は、遅延部 10252からの画素値を 1画素分だけ遅延して、遅延部 1025 5、及び積和演算部 10261に供給する。遅延部 10255は、遅延部 10254からの画素値 を 1画素分だけ遅延して、積和演算部 10261に供給する。
[0615] 遅延部 10253は、輝度補正部 10210からの画素値を 1ライン分だけ遅延して、遅延 部 10256、及び積和演算部 10261に供給する。遅延部 10256は、遅延部 10253からの 画素値を 1画素分だけ遅延して、遅延部 10257、及び積和演算部 10261に供給する。 遅延部 10257は、遅延部 10256からの画素値を 1画素分だけ遅延して、積和演算部 1 0261に供給する。
[0616] 遅延部 10258は、輝度補正部 10210からの画素値を 1画素分だけ遅延して、遅延部
10259、及び積和演算部 10261に供給する。遅延部 10259は、遅延部 10258からの画 素値を 1画素分だけ遅延して、積和演算部 10261に供給する。
[0617] EB係数発生部 10260は、輝度補正部 10210からの画素値に基づき、その画素値が 、隣接する画素値に与える EB影響分を求めるための、上述したような EB係数を発生 し、積和演算部 10261に供給する。
[0618] 積和演算部 10261は、輝度補正部 10210からの画素値と、遅延部 10252ないし 10255 、及び 10257ないし 10259それぞれからの画素直との、合計で 8つの画素 それぞれ と、 EB係数発生部 10260からの EB係数とを乗算することにより、その 8つの画素値から 、遅延部 10256で遅延された画素値が受ける EB影響分を求め、その EB影響分を、遅 延部 10256からの画素値に加算することで、遅延部 10256からの画素値について、 EB エミュレート処理後の画素値を求めて出力する。
[0619] したがって、例えば、図 56に示した画素値 Aないし Iがラスタスキャン順で、 EB機能 部 10250に供給され、いま、画素値 Iが、 EB機能部 10250に供給されたとすると、遅延 部 10255の出力は画素値 Aに、遅延部 10254の出力は画素値 Bに、遅延部 10252の出 力は画素値 Cに、遅延部 10257の出力は画素値 Dに、遅延部 10256の出力は画素値 Eに、遅延部 10253の出力は画素値 Fに、遅延部 10259の出力は画素値 Gに、遅延部 10258の出力は画素値 Hに、それぞれなって、積和演算部 10261に供給される。
[0620] また、 EB係数発生部 10260及び積和演算部 10261には、 EB機能部 10250に供給さ れた画素値 Iが供給される。
[0621] EB係数発生部 10260には、画素値 Iが供給される前に、画素値 Aないし Hが供給さ れているので、 EB係数発生部 10260では、画素値 Aないし Iのそれぞれ力 隣接する 画素値に影響する EB影響分を求めるための EB係数が発生され、積和演算部 10261 に供給されている。 [0622] 積和演算部 10261は、遅延部 10256からの画素値 Eと、 EB係数発生部 10260からの、 画素値 Aないし D、及び Fないし Iのそれぞれが、画素値 Eに影響する EB影響分を求め るための EB係数それぞれとを乗算することにより、画素値 Aないし D、及び Fないし Iの それぞれが、画素値 Eに影響する EB影響分を求め、遅延部 10256からの画素値 Eと加 算して、その加算値を、遅延部 10256からの画素値 Eについての、 EBエミュレート処理 後の画素値として出力する。
[0623] 次に、図 59は、図 41の EB処理部 10220の他の構成例を示している。
[0624] なお、図中、図 58の場合と対応する部分については、同一の符号を付してあり、以 下では、その説明は、適宜省略する。
[0625] すなわち、図 59の EB処理部 10220は、 EB機能部 10250を有する点で、図 58の場合 と共通し、セレクタ 10271及び 10272をさらに有する点で、図 58の場合と相違している
[0626] 図 59の EB処理部 10220では、輝度補正部 10210 (図 41)からの画像信号が、セレク タ 10271に供給される。
[0627] また、セレクタ 10271には、セレクタ 10272からの画像信号も供給される。
[0628] セレクタ 10271は、輝度補正部 10210からの画像信号、又は、セレクタ 10272からの 画像信号のうちの一方を選択し、 EB機能部 10250に供給する。
[0629] セレクタ 10272には、 EB機能部 10250からの、 EBエミュレート処理後の画像信号が供 糸 m る。
[0630] セレクタ 10272は、 EB機能部 10250からの画像信号を、最終的な EBエミュレート処理 後の画像信号として出力するか、又は、セレクタ 10271に供給する。
[0631] 以上のように構成される EB処理部 10220では、セレクタ 10271は、まず、輝度補正部
10210からの画像信号を選択し、 EB機能部 10250に供給する。
[0632] EB機能部 10250は、セレクタ 10271からの画像信号に対して、 EBエミュレート処理を 施し、セレクタ 10272に供給する。
[0633] セレクタ 10272は、 EB機能部 10250からの画像信号を、セレクタ 10271に供給する。
[0634] セレクタ 10271は、セレクタ 10272からの画像信号を選択し、 EB機能部 10250に供給 する。 [0635] 以上のようにして、 EB機能部 10250において、輝度補正部 10210からの画像信号に 対して、所定の回数だけ、 EBエミュレート処理が繰り返し施されると、セレクタ 10272は 、 EB機能部 10250からの画像信号を、最終的な EBエミュレート処理後の画像信号とし て出力する。
[0636] 以上のように、 EBエミュレート処理は、再帰的に行うことができる。
[0637] なお、図 58では、説明を簡単にするために、画素 E(x,y)を表示するときの電子ビー ムカ その画素 E(x,y)に隣接する画素 A(x-l,y-l)ないし D(x-l,y)及び F(x+l,y)ないし 1( x+l,y+l)の表示にし力、影響を与えないこととした力 画素 E(x,y)を表示するときの電子 ビームが表示に影響を与える画素の範囲は、電子ビームの強度の分布が異なるごと に異なる。
[0638] 次に、図 60は、図 38の CRT γ処理部 10035の色温度補償処理を行う部分の構成 例を示している。
[0639] 図 60において、制御部 10281には、表示色温度補償制御部 10040 (図 38)力、らの制 御信号が供給され、レベルシフト部 10282には、 VM処理部 10034 (図 38)力、らの画像 信号としての色信号 R(Red),G(Green),B(Blue)が供給される。
[0640] 制御部 10281は、表示色温度補償制御部 10040からの制御信号が表す色温度の設 定値に基づき、レベルシフト部 10282とゲイン調整部 10283を制御する。
[0641] レベルシフト部 10282は、 VM処理部 10034からの色信号 R,G,Bについて、制御部 10
281からの制御に従ったレベルのシフト(加算)を行い(CRT表示装置においては DC バイアス)、その結果得られる色信号 R,G,Bを、ゲイン調整部 10283に供給する。
[0642] ゲイン調整部 10283は、レベルシフト部 10282からの色信号 R,G,Bのゲインの調整を
、制御部 10281からの制御に従って行い、その結果得られる色信号 R,G,Bを、色温度 補償処理後の色信号 R,G,Bとして出力する。
[0643] なお、色温度補償処理の方法としては、その他、例えば、特開平 08-163582号公報 や、特開 2002-232905号公報に記載されて!/ヽる方法を採用することができる。
[0644] 図 61は、図 38の VM処理部 10034の他の構成例を示している。
[0645] なお、図中、図 41の VM処理部 10034と対応する部分については、同一の符号を付 してあり、以下では、その説明は、適宜省略する。 [0646] すなわち、図 61の VM処理部 10034は、輝度補正部 10210 (図 41)に代えて、輝度 補正部 10310が設けられていることを除き、図 41の VM処理部 10034と同様に構成さ れている。
[0647] 図 62は、図 61の輝度補正部 10310の構成例を示している。
[0648] 図 62において、輝度補正部 10310は、遅延タイミング調整部 10311、微分回路 1031 2、スレツショルド処理部 10313、波形整形処理部 10314、及び乗算回路 10315から構 成され、例えば、特開昭 61-167280号公報(特公平 05-84706号公報)や、国際公開 第 WO00/010324号パンフレット等に記載されている、 CRT表示装置における VM処 理(電子ビームの速度変調)のエミユレーシヨンとしての輝度補正を行う。
[0649] すなわち、輝度補正部 10310には、 ABL処理部 10033 (図 38)力、らの画像信号が供 給され、その画像信号は、遅延タイミング調整部 10311、及び微分回路 10312に供給 される。
[0650] 遅延タイミング調整部 10311は、 ABL処理部 10033からの画像信号を、微分回路 103
12、スレツショルド処理部 10313、及び波形整形処理部 10314での処理に要する時間 に対応する時間だけ遅延し、乗算回路 10315に供給する。
[0651] 一方、微分回路 10312は、 ABL処理部 10033からの画像信号を 1次微分することによ り、その画像信号のエッジの部分を検出し、そのエッジの部分の微分値(1次微分の 微分値)を、スレツショルド処理部 10313に供給する。
[0652] スレツショルド処理部 10313は、微分回路 10312からの微分値の絶対値を、所定の閾 値と比較し、絶対値が所定の閾値より大の微分値だけを、波形整形処理部 10314に 供給することで、微分値の絶対値が所定の閾値以下のエッジの部分に対して、輝度 補正が行われることを制限する。
[0653] 波形整形処理部 10314は、スレツショルド処理部 10313からの微分値に基づき、エツ ジの部分の画素値に乗算することにより輝度補正を行う VM係数として、平均値が 1.0 となる VM係数を算出し、乗算回路 10315に供給する。
[0654] 乗算回路 10315は、遅延タイミング調整部 10311から供給される画像信号における エッジの部分の画素値と、波形整形処理部 10314から供給される VM係数とを乗算す ることにより、そのエッジの部分の輝度補正を行って、 EB処理部 10220 (図 61)に供給 する。
[0655] なお、波形整形処理部 10314で算出する VM係数は、エッジの部分の輝度補正の 程度をユーザの好みに合致するように、例えば、ユーザの操作に応じて調整すること が可能である。
[0656] また、スレツショルド処理部 10313、及び波形整形処理部 10314は、それぞれ、 VM制 御部 10039 (図 38)から供給される VM制御信号に従い、動作条件を設定する。
[0657] 図 63は、波形整形処理部 10314で算出される VM係数と、その VM係数を用いて輝 度補正が行われる前後の画像信号との例を示している。
[0658] すなわち、図 63の Aは、 VM係数の第 1の例を示している。
[0659] 図 63の Aでは、エッジ画素値(エッジを構成する、大の画素値と小の画素値とのうち の、大の画素値)に乗算される VM係数力 1.1となっており、エッジ画素値の左と右に 隣接する画素値それぞれに乗算される VM係数が、いずれも、 0.95になっている。
[0660] 図 63の Bは、 VM係数の第 2の例を示している。
[0661] 図 63の Bでは、エッジ画素値に乗算される VM係数力 1.2になっており、エッジ画 素値の左と、そのさらに左に隣接する画素値それぞれに乗算される VM係数、及び、 エッジ画素値の右と、そのさらに右に隣接する画素値それぞれに乗算される VM係数 、いずれも、 0.95になっている。
[0662] 図 63の Cは、輝度補正がされる前の画像信号を示している。
[0663] 図 63の Cでは、左から 3番目の画素値と、 4番目の画素値との間がエッジとなってお り、したがって、左から 4番目の画素値力 S、エッジ画素値になっている。
[0664] 図 63の Dは、図 63の Cの画像信号に対して、図 63の Aの VM係数を用いて輝度補 正を行って得られる画像信号を示して!/、る。
[0665] 図 63の Dの画像信号では、図 63の Cの元の画像信号と比較して、エッジ画素値で ある 4番目の画素値が大になって!/、るとともに、左から 3番目の画素値と 5番目の画素 値が小になっており、その結果、エッジが強調されている。
[0666] 図 63の Eは、図 63の Cの画像信号に対して、図 63の Bの VM係数を用いて輝度補 正を行って得られる画像信号を示して!/、る。
[0667] 図 63の Eの画像信号では、図 63の Cの元の画像信号と比較して、エッジ画素値で ある 4番目の画素値が大になって!/、るとともに、左から 2番目、 3番目、 5番目、及び 6 番目の画素値が小になっており、その結果、エッジが、図 63の Dの場合より強調され ている。
[0668] なお、図 63の VM係数は、一例にすぎない。また、図 63では、左から右方向に見て 、暗い画像から明るい画像に変化するエッジの部分を示した力 明るい画像から暗い 画像に変化するエッジの部分についても、同様に、輝度補正が行われる。
[0669] 次に、図 64は、図 61の輝度補正部 10310の他の構成例を示している。
[0670] 図 64において、輝度補正部 10310は、タップ選択部 10321、クラス分類部 10322、タ ップ係数記憶部 10326、及び予測部 10327から構成され、例えば、特開平 07-95591 号公報(特許第 3271101号)等に記載の DRC (クラス分類適応処理)を利用して、輝度 補正を行う。
[0671] ここで、 DRCについて説明する。
[0672] DRCは、第 1の画像信号を第 2の画像信号に変換 (マッピング)する処理であり、第
1と第 2の画像データの定義によって様々な信号処理を行うことができる。
[0673] 即ち、例えば、第 1の画像信号を低空間解像度の画像信号とするとともに、第 2の 画像信号を高空間解像度の画像信号とすれば、 DRCは、空間解像度を向上させる 空間解像度創造(向上)処理ということができる。
[0674] また、例えば、第 1の画像信号を低 S/N(Siginal/N0ise)の画像信号とするとともに、 第 2の画像信号を高 S/Nの画像信号とすれば、 DRCは、ノイズを除去するノイズ除 去処理ということができる。
[0675] さらに、例えば、第 1の画像信号を所定の画素数 (サイズ)の画像信号とするとともに
、第 2の画像信号を、第 1の画像信号の画素数を多くまたは少なくした画像信号とす れば、 DRCは、画像のリサイズ (拡大または縮小)を行うリサイズ処理ということができ
[0676] また、例えば、第 1の画像信号を低時間解像度の画像信号とするとともに、第 2の画 像信号を高時間解像度の画像信号とすれば、 DRCは、時間解像度を向上させる時 間解像度創造(向上)処理ということができる。
[0677] さらに、例えば、第 1の画像信号を、 MPEG(Moving Picture Experts Group)符号化 などのブロック単位で符号化された画像信号を復号することによって得られる復号画 像信号とするとともに、第 2の画像信号を、符号化前の画像信号とすれば、 DRCは、 MPEG符号化および復号によって生じるブロック歪み等の各種の歪みを除去する歪 み除去処理と!/、うこと力 Sできる。
[0678] なお、空間解像度創造処理にお!/、て、低空間解像度の画像信号である第 1の画像 信号を、高空間解像度の画像信号である第 2の画像信号に変換するにあたっては、 第 2の画像信号を、第 1の画像信号と同一の画素数の画像信号とすることもできるし、 第 1の画像信号よりも画素数が多い画像信号とすることもできる。第 2の画像信号を、 第 1の画像信号よりも画素数が多い画像信号とする場合、空間解像度創造処理は、 空間解像度を向上させる処理であるとともに、画像サイズ (画素数)を拡大するリサイ ズ処理でもある。
[0679] 以上のように、 DRCによれば、第 1および第 2の画像信号をどのように定義するかに よって、様々な信号処理を実現することができる。
[0680] DRCでは、第 2の画像信号のうちの注目して!/、る注目画素を複数のクラスのうちの いずれかのクラスにクラス分類することにより得られるクラスのタップ係数と、注目画素 に対して選択される第 1の画像信号の複数の画素(の画素値)とを用いた予測演算に より、注目画素の画素値(の予測値)が求められる。
[0681] 図 64において、 ABL処理部 10033 (図 38)から VM処理部 10034の輝度補正部 1031
0に供給される画像信号は、第 1の画像信号として、タップ選択部 10321に供給される
[0682] タップ選択部 10321は、 ABL処理部 10033からの第 1の画像信号の輝度補正を行つ て得られる画像信号を、第 2の画像信号として、その第 2の画像信号を構成する画素 を、順次、注目画素とし、注目画素(の画素値)を予測するのに用いる第 1の画像信 号を構成する画素(の画素値)の幾つかを、予測タップとして選択する。
[0683] 具体的には、タップ選択部 10321は、注目画素の時空間の位置から空間的または 時間的に近い位置にある第 1の画像信号の複数の画素を、予測タップとして選択す
[0684] さらに、タップ選択部 10321は、注目画素を、複数のクラスのうちのいずれかにクラス 分けするクラス分類を行うのに用いる第 1の画像信号を構成する画素の幾つかを、ク ラスタップとして選択する。すなわち、タップ選択部 10321は、タップ選択部 10321が予 測タップを選択するのと同様にして、クラスタップを選択する。
[0685] なお、予測タップとクラスタップは、同一のタップ構造 (注目画素に対する位置関係
)を有するものであっても良いし、異なるタップ構造を有するものであっても良い。
[0686] タップ選択部 10321で得られた予測タップは、予測部 10327に供給され、タップ選択 部 10321で得られたクラスタップは、クラス分類部 10322に供給される。
[0687] クラス分類部 10322は、クラス予測係数記憶部 10323、予測部 10324、及びクラス決 定部 10325から構成され、タップ選択部 10321からのクラスタップに基づき、注目画素 をクラス分類し、その結果得られるクラスに対応するクラスコードを、タップ係数記憶部
10326に供給する。
[0688] ここで、クラス分類部 10322によるクラス分類の詳細については、後述する。
[0689] タップ係数記憶部 10326は、後述する学習によって求められたクラスごとのタップ係 数を、 VM係数として記憶し、さらに、その記憶したタップ係数のうちの、クラス分類部 1 0322から供給されるクラスコードに対応するアドレスに記憶されているタップ係数 (クラ ス分類部 10322から供給されるクラスコードが表すクラスのタップ係数)を出力する。こ のタップ係数は、予測部 10327に供給される。
[0690] ここで、タップ係数とは、ディジタルフィルタにおける、いわゆるタップにおいて入力 データと乗算される係数に相当するものである。
[0691] 予測部 10327は、タップ選択部 10321が出力する予測タップと、タップ係数記憶部 10 326が出力するタップ係数とを取得し、その予測タップとタップ係数とを用いて、注目 画素の真値の予測値を求める所定の予測演算を行う。これにより、予測部 10327は、 注目画素の画素値(の予測値)、すなわち、第 2の画像信号を構成する画素の画素 値、つまり、輝度補正後の画素値を求めて出力する。
[0692] なお、クラス分類部 10322を構成するクラス予測係数記憶部 10323、及び予測部 103 24、並びに、タップ係数記憶部 10326は、それぞれ、 VM制御部 10039 (図 38)から供 給される VM制御信号に従!/ \動作条件の設定や必要な選択を行う。
[0693] 次に、図 64のタップ係数記憶部 10326に、 VM係数として記憶されるクラスごとのタツ プ係数の学習について説明する。
[0694] DRCの所定の予測演算に用いられるタップ係数は、多数の画像信号を、学習用の 画像信号として用いた学習によって求められる。
[0695] すなわち、例えば、いま、輝度補正前の画像信号を、第 1の画像信号とするとともに
、その第 1の画像信号について輝度補正を行って得られる、輝度補正後の画像信号 を、第 2の画像信号として、 DRCにおいて、第 1の画像信号から予測タップを選択し、 その予測タップとタップ係数を用いて、第 2の画像信号の注目画素の画素値を、所定 の予測演算によって求める(予測する)こととする。
[0696] 所定の予測演算として、例えば、線形 1次予測演算を採用することとすると、第 2の 画像信号の画素値 yは、次の線形 1次式によって求められることになる。
[0697] [数 23]
N
y= ∑wnxn
n= 1
•••(23)
[0698] 但し、式(23)において、 Xは、第 2の画像信号の注目画素 yについての予測タップ n
を構成する、第 1の画像信号の n番目の画素(以下、適宜、補正前画素という)の画素 値を表し、 wは、 n番目の補正前画素(の画素値)と乗算される n番目のタップ係数を n
表す。なお、式(23)では、予測タップ力 N個の補正前画素 X , X , · · · , Xで構成さ
1 2 N れるあのとしてある。
[0699] ここで、第 2の画像信号の注目画素の画素値 yは、式(23)に示した線形 1次式では なぐ 2次以上の高次の式によって求めるようにすることも可能である。
[0700] いま、第 2の画像信号の第 kサンプルの画素値の真値を yと表すとともに、式(23) k
によって得られるその真値 yの予測値を y 'と表すと、その予測誤差 eは、次式で表 k k k
される。
[0701] [数 24] ek=yk一 yk,
•••(24) [0702] いま、式(24)の予測ィ直 'は、式(23)にしたがって求められるため、式(24)の y '
k k を、式(23)にしたがって置き換えると、次式が得られる。
[0703] [数 25]
N \
ek=Yk- ∑ wnxn, k
\n=1 ノ
•••(25)
[0704] 但し、式(25)において、 X は、第 2の画像信号の第 kサンプルの画素についての
n,k
予測タップを構成する n番目の補正前画素を表す。
[0705] 式(25)ほたは式(24))の予測誤差 eを 0とするタップ係数 w力 第 2の画像信号
k n
の画素を予測するのに最適なものとなる力 すべての第 2の画像信号の画素につい て、そのようなタップ係数 wを求めることは、一般には困難である。
n
[0706] そこで、タップ係数 Wが最適なものであることを表す規範として、例えば、最小自乗
n
法を採用することとすると、最適なタップ係数 wは、次式で表される自乗誤差の総和
n
Eを最 /J、にすることで求めること力 Sできる。
[0707] [数 26]
Figure imgf000099_0001
レ=1
•••(26)
[0708] 但し、式(26)において、 Kは、第 2の画像信号の画素 yと、その第 2の画像信号の
k
画素 yについての予測タップを構成する補正前画素 X , X , ···, χ とのセットの k l,k 2,k N,k サンプル数 (学習用のサンプルの総数)を表す。
[0709] 式(26)の自乗誤差の総和 Eの最小値(極小値)は、式(27)に示すように、総和 Eを タップ係数 wで偏微分したものを 0とする wによって与えられる。
n n
[0710] [数 27]
^=^ -2^ + ...+ek^=0 (n=1, 2,.,N)
•••(27) [0711] そこで、上述の式(25)をタップ係数 wで偏微分すると、次式が得られる。
[0712] [数 28]
M M
一一 X X
=— X Xl'k, ^=— X2k, ..., ^=— XN,k, ( 2, ..., κ)
X X
•••(28)
[0713] 式(27)と(28)から、次式が得られる。
[0714] [数 29]
Κ Κ Κ
∑ekxi, k=0, ∑ekX2,k=0- ■■■ ∑ekXN,k=0
•••(29)
[0715] 式(29)の eに、式(25)を代入することにより、式(29)は、式(30)に示す正規方程 式で表すことができる。
[0716] [数 30]
t K 、 f K 、
(∑Xl,kX2,k) - - (∑Xl,kXN,k) W1
k=1 k=1
M
一 X
k) (∑X2,kx2,k) ■ - (∑X2, kXN.k) W2 ―
k=1 k=1 γ
( XN,kX2,k) - - ( XN,kXN,k) WN (∑XN,kYk) k=1 k=1 k=1
•••(30)
[0717] 式(30)の正規方程式は、例えば、掃き出し法(Gauss-Jordanの消去法)などを用い ることにより、タップ係数 wについて解くことができる。
[0718] 式(30)の正規方程式を、クラスごとにたてて解くことにより、最適なタップ係数 (ここ では、自乗誤差の総和 Eを最小にするタップ係数) wを、クラスごとに求めることがで きる。
[0719] 以上のようにして、タップ係数 wを求める学習は、例えば、後述するコンピュータ(図
67)によって fiうことができる。 [0720] 次に、図 65のフローチャートを参照して、コンピュータが行う、タップ係数 wを求める n 学習の処理 (学習処理)について、説明する。
[0721] まず最初に、ステップ S10021において、コンピュータは、あらかじめ学習用に用意さ れた学習用画像信号から、第 2の画像信号に相当する教師データと、第 1の画像信 号に相当する生徒データを生成して、処理は、ステップ S10022に進む。
[0722] すなわち、コンピュータは、学習用画像信号から、タップ係数の学習の教師 (真値) となる、第 2の画像信号に相当する教師データとして、式(23)による予測演算として の写像の写像先の画素値、つまり、輝度補正後の画素値を生成する。
[0723] さらに、コンピュータは、学習用画像信号から、タップ係数の学習の生徒となる、第 1 の画像信号に相当する生徒データとして、式 (23)による予測演算としての写像によ る変換対象の画素値を生成する。ここでは、コンピュータは、例えば、学習用画像信 号を、そのまま、第 1の画像信号に相当する生徒データとする。
[0724] ステップ S10022では、コンピュータは、教師データのうち、まだ、注目画素としていな いものを、注目画素として選択し、処理は、ステップ S10023に進む。ステップ S10023 では、コンピュータは、図 64のタップ選択部 10321と同様に、注目画素について、生 徒データから予測タップとする複数の画素を選択するとともに、クラスタップとする複 数の画素を選択して、処理は、ステップ S10024に進む。
[0725] ステップ S10024では、コンピュータは、注目画素についてのクラスタップに基づき、 注目画素のクラス分類を、図 64のクラス分類部 10322と同様にして行い、注目画素の クラスに対応するクラスコードを得て、処理は、ステップ S10025に進む。
[0726] ステップ S10025では、コンピュータは、注目画素と、注目画素について選択された 予測タップを構成する生徒データとを対象とした式(30)の足し込みを、注目画素の クラスについて行い、処理は、ステップ S10026に進む。
[0727] すなわち、コンピュータは、注目画素のクラスについて、予測タップ(生徒データ) X n, を用い、式(30)の左辺の行列における生徒データどうしの乗算(X X )と、サメ κ n,k n,k 一 シヨン(∑ )に相当する演算を行う。
[0728] さらに、コンピュータは、注目画素のクラスについて、予測タップ(生徒データ) X と n,k 教師データ yを用い、式(30)の右辺のベクトルにおける生徒データ X および教師 データ yの乗算 (x y )と、サメーシヨン(∑ )に相当する演算を行う。
k n,k k
[0729] すなわち、コンピュータは、注目画素のクラスにおいて、前回、注目画素とされた教 師データにつ!/、て求められた式(30)における左辺の行列のコンポーネント(∑ X X
n,k n
)と、右辺のベクトルのコンポーネント(Σ χ y )を、その内蔵するメモリ(例えば、図 6
,k n,k k
7の RAM10104)に記憶しており、その行列のコンポーネント(Σ χ χ )またはべタト
η,κ n,k
ルのコンポーネント(∑x y )に対して、新たに注目画素とされた教師データについ
n,k k
て、その教師データ y および生徒データ X を用いて計算される、対応するコンポ
k+1 n,k+l
一ネント x X または X y を足し込む(式(30)のサメーシヨンで表される加算
n'k+l n',k+l n'k+1 k+1
を行う)。
[0730] ステップ S10026では、コンピュータが、まだ、注目画素としていない教師データがあ るかどうかを判定する。ステップ S10026において、注目画素としていない教師データ 1S まだあると判定された場合、ステップ S10022に戻り、以下、同様の処理が繰り返さ れる。
[0731] また、ステップ S10026において、注目画素としていない教師データがないと判定さ れた場合、処理は、ステップ S10027に進み、コンピュータは、いままでのステップ S100 22乃至 S10026の処理によって得られたクラスごとの式(30)における左辺の行列と、 右辺のベクトルによって構成されるクラスごとの正規方程式を解くことにより、クラスご とに、タップ係数 wを求めて出力し、処理を終了する。
n
[0732] 図 64のタップ係数記憶部 10326には、以上のようにして求められたクラスごとのタツ プ係数 w力 S、 VM係数として記憶されている。
n
[0733] 次に、図 64のクラス分類部 10322によるクラス分類について説明する。
[0734] クラス分類部 10322において、タップ選択部 10321からの、注目画素についてのクラ スタップは、予測部 10324、及びクラス決定部 10325に供給される。
[0735] 予測部 10324は、タップ選択部 10321からのクラスタップを構成する複数の画素のう ちの 1つの画素の画素値を、他の画素の画素値と、クラス予測係数記憶部 10323に記 憶されたクラス予測係数とを用いて予測し、その予測値を、クラス決定部 10325に供 給する。
[0736] すなわち、クラス予測係数記憶部 10323は、クラスごとに、クラスタップを構成する複 数の画素のうちの 1つの画素の画素値を予測するのに用いられるクラス予測係数を 記†意してレヽる。
[0737] 具体的には、注目画素についてのクラスタップ力 S、 M+1個の画素の画素値から構成 され、予測部 10324が、例えば、クラスタップを構成する M+1個の画素の画素値 X ,χ,·
1 2
•· ,χ ,χ のうちの、 M+1番目の画素値 X を、予測対象として、他の M個の画素 X ,χ,
M M+1 M+1 1 2
• • ·,χを用いて、予測対象である M+1番目の画素値 X を予測することとすると、クラ ス予測係数記憶部 10323は、例えば、クラス #jについて、 M個の画素 X,χ,· · ·,χそれ
1 2 Μ ぞれと乗算される Μ個のクラス予測係数 c ,c , · · · ,ο を記憶している。
j,l j,2 j,M
[0738] この場合、予測部 10324は、例えば、式 x' =x c +x c + · · · +,χ c に従って、クラ
j,M+l 1 j,l 2 j,2 M j,M
ス¾についての、予測対象の画素ィ直 X の予測ィ直 X' を求める。
M+1 j,M+l
[0739] 例えば、いま、クラス分類によって、注目画素力 ¾個のクラス #1ないし #Jのうちのいず れかのクラスに分類されるとすると、予測部 10324は、クラス #1ないし #Jのそれぞれに ついて、予測値 x' ないし x' を求め、クラス決定部 10325に供給する。
1.M+1 J.M+1
[0740] クラス決定部 10325は、予測部 10324からの予測ィ直 x' ないし x それぞれを、タ
Ι,Μ+l J, M+1
ップ選択部 10321からの、注目画素についてのクラスタップの予測対象の M+1番目の 画素値 (真値) X と比較し、予測値 x' ないし x' のうちの、予測対象の M+1番目
M+1 1.M+1 J.M+1
の画素値 X との予測誤差が最も小さい予測値 χ' を求めるのに用いられたクラス
M+1 j,M+l
予測係数 c ,c , · · · ,ο のクラス ·を、注目画素のクラスに決定し、そのクラス ·を表す
j,l j,2 j,M
クラスコードを、タップ係数記憶部 10326 (図 64)に供給する。
[0741] ここで、クラス予測係数記憶部 10323に記憶されるクラス予測係数 c は、学習によつ
j'm
て求められる。
[0742] クラス予測係数 c を求める学習は、例えば、後述するコンピュータ(図 67)によって
j'm
fiうこと力 sでさる。
[0743] 図 66のフローチャートを参照して、コンピュータが行う、クラス予測係数 c を求める
j'm
学習の処理 (学習処理)について説明する。
[0744] コンピュータは、ステップ S10031において、例えば、図 65のステップ S10021と同様 に、学習用画像信号から、第 2の画像信号に相当する教師データと、第 1の画像信 号に相当する生徒データを生成する。さらに、コンピュータは、ステップ S10031にお いて、教師データを、順次、注目画素として選択し、各注目画素について、図 65のス テツプ S10023と同様に、生徒データからクラスタップとする複数の画素を選択して、処 理は、ステップ S10032に進む。
[0745] ステップ S10032では、コンピュータは、クラスを表す変数 jを、 1に初期化して、処理 は、ステップ S10033に進む。
[0746] ステップ S10033では、コンピュータは、ステップ S10031で得たクラスタップのすべて を、学習用のクラスタップ(学習用クラスタップ)として選択して、処理は、ステップ S100
34に進む。
[0747] ステップ S10034では、コンピュータは、図 65のタップ係数の学習の場合と同様に、 式 x' =x c +x c + · · · +,χ c に従って求められる、クラスめについての、予測対象 j,M+l 1 j,l 2 j,2 M j,M
の画素値 X の予測値 X' の、真値 X に対する予測誤差を最小にする正規方程
M+1 j,M+l M+1
式 (式 (30)に相当する正規方程式)を、学習用クラスタップを対象として生成し、処 理は、ステップ S10035に進む。
[0748] ステップ S10035では、コンピュータは、ステップ S10034で得た正規方程式を解くこと で、クラス ·についてのクラス予測係数 c を求め(m=l,2,. · ·,Μ)、処理は、ステップ S1 j'm
0036に進む。
[0749] ステップ S10036では、コンピュータは、変数 jがクラスの総数 Jに等しいかどうかを判 定し、等しくないと判定した場合、処理は、ステップ S 10037に進む。
[0750] コンピュータは、ステップ S10037において、変数 jを 1だけインクリメントして、処理は、 ステップ S10038に進み、ステップ S10035で得たクラス予測係数 c を用い、学習用クラ
j'm
スタップを対象として、予測対象の画素 X を予測したときの予測誤差を求めて、処
M+1
理は、ステップ S10039に進む。
[0751] ステップ S10039では、コンピュータは、学習用クラスタップの中から、ステップ S10038 で求めた予測誤差が所定の閾値以上となるものを、新たな学習用クラスタップとして 選択する。
[0752] そして、処理は、ステップ S10039からステップ S10034に戻り、以下、上述した場合と 同様にして、新たな学習用クラスタップを用いて、クラス ·についてのクラス予測係数 c が求められる。 [0753] 一方、ステップ S10036において、変数 jがクラスの総数 Jに等しいと判定された場合、 すなわち、 J個のクラス #1ないし #Jすべてについて、クラス予測係数 c ないし c が求
l,m J,m められた場合、処理は、終了する。
[0754] 以上のように、図 38の画像信号処理装置では、 CRT表示装置が、電子ビームによ り蛍光体を光らせることで表示をしていることに鑑み、電子ビームを偏向する際に行う 処理、及び、電子ビームの物理的な形状とその変化による表示への影響を考慮した 信号処理を行うので、 LCD等を用いた FPD表示装置において、 CRT表示装置で表示 したのと同等の画質の画像を表示することが可能となる。
[0755] さらに、図 38の画像信号処理装置によれば、 CRTそのものの特性違いによる表示 特性をエミュレートすることが可能になり、輝度特性や質感の違いを同一 LCDにて切 り替えることが可能になる。例えば、業務用の CRTと一般用(一般向け)の CRTの発色 特性の違いを同一画面上で比べることで送出時の色調整や画質調整を正確に行う、 などを容易に行うことが可能になる。
[0756] また、図 38の画像信号処理装置によれば、同様に、 LCDと CRTの表示特性による 違レ、を容易に確認することが可能である。
[0757] さらに、図 38の画像信号処理装置によれば、本来の意味での「好みの画質」で画 像を表示することが可能になる。
[0758] また、図 38の画像信号処理装置によれば、処理の範囲を表示画面内で変える事 により特性の異なる表示デバイス(例えば、業務用と一般用の CRT、 LCDと CRT、など )を同時に見ることが可能になるため、比較や調整といった用途での利用を容易にす ること力 Sでさる。
[0759] 次に、上述した一連の処理のうちの少なくとも一部は、専用のハードウェアにより行 うこともできるし、ソフトウェアにより行うこともできる。一連の処理をソフトウェアによって 行う場合には、そのソフトウェアを構成するプログラム力 汎用のコンピュータ等にイン ストールされる。
[0760] そこで、図 67は、上述した一連の処理を実行するプログラムがインストールされるコ ンピュータの一実施の形態の構成例を示してレ、る。
[0761] プログラムは、コンピュータに内蔵されている記録媒体としてのハードディスク 10105 や ROM10103に予め記録しておくことができる。
[0762] あるいはまた、プログラムは、フレキシブルディスク、 CD-ROM(Compact Disc Read
Only Memory), MO(Magneto Optical)ディスク, DVD(Digital Versatile Disc),磁気デ イスク、半導体メモリなどのリムーバブル記録媒体 10111に、一時的あるいは永続的に 格納(記録)しておくことができる。このようなリムーバブル記録媒体 10111は、いわゆ るノ ンケージソフトウェアとして提供すること力 Sできる。
[0763] なお、プログラムは、上述したようなリムーバブル記録媒体 10111からコンピュータに インストールする他、ダウンロードサイトから、ディジタル衛星放送用の人工衛星を介 して、コンピュータに無線で転送したり、 LAN(Local Area Network),インターネットと いったネットワークを介して、コンピュータに有線で転送し、コンピュータでは、そのよ うにして転送されてくるプログラムを、通信部 10108で受信し、内蔵するハードディスク 10105にインストールすることができる。
[0764] コンピュータは、 CPU(Central Processing Unit)10102を内蔵して!/、る。 CPU10102に は、バス 10101を介して、入出力インタフェース 10110が接続されており、 CPU10102は 、入出力インタフェース 10110を介して、ユーザによって、キーボードや、マウス、マイ ク等で構成される入力部 10107が操作等されることにより指令が入力されると、それに したがって、 ROM(Read Only Memory)10103に格納されているプログラムを実行する 。あるいは、また、 CPU10102は、ハードディスク 10105に格納されているプログラム、 衛星若しくはネットワークから転送され、通信部 10108で受信されてハードディスク 101 05にインストールされたプログラム、またはドライブ 10109に装着されたリムーバブル記 録媒体 10111から読み出されてハードディスク 10105にインストールされたプログラム を、 RAM(Random Access Memory)10104にロードして実行する。これにより、 CPU101 02は、上述したフローチャートにしたがった処理、あるいは上述したブロック図の構成 により行われる処理を行う。そして、 CPU10102は、その処理結果を、必要に応じて、 例えば、入出力インタフェース 10110を介して、 LCD(Liquid Crystal Display)ゃスピー 力等で構成される出力部 10106から出力、あるいは、通信部 10108から送信、さらには 、ハードディスク 10105に記録等させる。
[0765] [画像を表示する LCD(Liquid Crystal Display)等の第 1の表示デバイスを用いて、 第 1の表示デバイスと異なる特性を有する PDP(Plasma Display Panel)等の第 2の表示 デバイスにおいて画像を表示した状態を再現する実施の形態]
[0766] 次に、第 1の表示デバイスを用いて、第 1の表示デバイスと異なる特性を有する第 2 の表示デバイスにおいて画像を表示した状態を再現する実施の形態について説明 する。
[0767] 画像信号を表示する表示デバイスとして、例えば、 CRT(Cathode Ray Tube), LCD 、 PDP、有機 EL(Electroluminescence)、プロジェクタ等、様々な表示デバイスが存在 する。
[0768] そして、例えば、 PDPについては、表示画面上で移動画素に対し視線が追従したと きに、各網膜位置に入る光量の計算を行い、その出力データから新しいサブフィー ルドデータを生成することで、偽輪郭の発生を抑制する方法が、例えば、特開 2000-3 9864号公報にお!/、て提案されて!/、る。
[0769] ところで、表示特性は表示デバイスによって異なるため、画像信号が適切な視聴状 態(表示状態)にあるかを確認するモニタリングにおいては、表示デバイスの特性 (表 示特性)の違いが大きな問題となる。すなわち、ある画像信号を LCDに表示してモニ タリングを行ったとしても、その画像信号を PDPに表示した際に、どのように見えるか を確認することは困難であった。
[0770] そのため、複数の表示デバイスの特性を考慮してモニタリングを行うには、表示デ バイスを必要な分だけ用意する必要があり、モニタリングシステムの規模の増大につ ながっていた。
[0771] また PDPは、入力画像信号の 1フィールドを複数のサブフィールドで構成し、各サブ フィールドを発光、非発光のどちらかの状態にするように制御することで、多階調表 示を実現する表示デバイスである。
[0772] そのため、動画像を表示した際に、画像内の動き物体等に人の視線が追従すると、 サブフィールドの発光パターンによっては、表示している画像と人の目に見える画像 が異なるといった特徴がある。し力もながら PDPにおいて、実際に動画像がどのように 見える力、を確認するには、 PDPに動画像を表示し、人が目で見て確認するしかなぐ 確認作業が大変な上、客観的な評価が困難であった。 [0773] そこで、以下では、例えば、 LCD等の第 1の表示デバイスを用いて、第 1の表示デ バイスと異なる特性を有する PDP等の第 2の表示デバイスにおいて画像を表示した状 態を再現することができるようにする実施の形態について説明する。
[0774] 図 68は、第 1の表示デバイスを用いて、第 1の表示デバイスと異なる特性を有する 第 2の表示デバイスにおいて画像を表示した状態を再現することができるようにする 画像処理装置の第 1実施の形態の構成例を示している。
[0775] 入力画像信号 Vinは、動き検出部 20100と、サブフィールド展開部 20200へ供給され
[0776] 図 69は、図 68の動き検出部 20100の構成を示している。動き検出部 20100では、入 力画像信号 Vinから、各画素の動きベクトルを、入力画像信号 Vinを人が見た際の画 素毎の視線として検出する。
[0777] 入力画像信号 Vinは、相関演算回路 20101と遅延回路 20102へ供給される。相関演 算回路 20101では、現フィールドの入力画像信号 Vinと、遅延回路 20102で 1フィール ド遅延された前フィールドの入力画像信号との間で、相関演算を行う。
[0778] 図 70に相関演算の動作を示す。
[0779] 相関演算回路 20101は、現フィールドの注目画素において、注目画素を中心とした ブロック BLを設定する。ブロック BLは例えば 5 X 5画素のブロックである。そして、相 関演算回路 20101は、遅延回路 20102で遅延された前フィールドにおいて、現フィー ルドでのブロック BLと同じ位置を中心としたサーチ範囲を設定する。サーチ範囲は例 えば、現フィールドでのブロック BLと同じ位置を基準とし、水平、垂直方向に 8〜+ 7画素分の領域である。そして、相関演算回路 20101は、ブロック BLとサーチ範囲内 の、ブロック BLと同一サイズの各候補ブロックとの間で、例えば、画素値どうしの差分 絶対値の総和を、ブロック BLと候補ブロックとの相関を評価するための評価値として 求める演算を、相関演算として行い、各候補ブロックでの演算結果を、視線決定回路 20103へ供給する。
[0780] 図 69に戻り、視線決定回路 20103では、相関演算回路 20101から供給された演算 結果の中から、最小の値の演算結果が得られた候補ブロックの位置を、注目画素の 動きベクトルとして検出する。ここで、候補ブロックの位置は、図 71に示すように、ブロ ック BLからの相対位置である。視線決定回路 20103は、注目画素の動きベクトルの方 向を、人が注目画素を見たときの視線の方向、すなわち、現フィールドを見た人の視 線が追っていく方向(視線方向) mvに決定する。
[0781] 相関演算回路 20101では、注目画素毎にブロック BLを設定する力 現フィールドを 最初に 5 X 5画素のブロックに分割し、ブロック毎に視線方向(動きベクトル)を求め、 ブロック内の画素では、全て同じ視線方向を適用してもよい。またサーチ範囲内の各 候補ブロックとの相関演算には、注目画素の近傍の画素における差分絶対値に一定 の重みをつけて評価値を求めてもよい。この場合、注目画素の近傍の画素の相関を 重く評価することになる。
[0782] 図 72は、図 68のサブフィールド展開部 20200の構成例を示している。
[0783] サブフィールド展開部 20200では、入力画像信号 Vinを PDPに表示する際の各サブ フィールドの発光パターンを生成する。
[0784] サブフィールド展開部 20200の動作を説明する前に、 PDPにおける多階調表示の方 法について説明する。 PDPは、 1フィールドを複数のサブフィールドに分割し、各サブ フィールドの発光の輝度の重みを変えることで多階調表示を行う。
[0785] 図 73に PDPにおけるサブフィールドの構成例を示す。図 73では 1フィールドは 8つ のサブフィーノレド、 SF1、 SF2、 SF3、 SF4、 SF5、 SF6、 SF7、 SF8に分害 ijされ、各サ ブフィールド SFlないし SF8は異なる輝度の重み(光量)を持っている。各サブフィー ノレド SF1ないし SF8は、それぞれの画素を発光、非発光のどちらかに設定するァドレ ス期間と、アドレス期間において発光と設定された画素を発光させる発光期間から構 成されている。
[0786] 各サブフィールド SF1ないし SF8の輝度の重みを例えば 1、 2、 4、 8、 16、 32、 64、
128とすると、これらのサブフィールド SF1ないし SF8を組み合わせることで、 0〜25
5までの 256階調を実現することができる。
[0787] 実際の PDPは 2次元平面において構成されるため、 PDPによる画像の表示は、図 7
4に示すように、 PDPにおける画素位置 X,Yと時間方向 Tのサブフィールドからなる 3 次元的なモデル図で表現される。
[0788] 図 72に戻り、入力画像信号 Vinは、サブフィールド割当回路 20201へ供給される。サ ブフィールド割当回路 20201は、入力画像信号 Vinの 1フィールドの画素値を、以下の 式(31)を用いて表す。ただし Nは、サブフィールド SFffiの非発光または発光を表す 発光情報であり、 0または 1である。
[0789] [数 31]
1 X N +2 X N +4 N3+8 N4+16 x N5+32 x N6+64 x N7+128 x N8
•••(31)
[0790] なおここでは、表示対象とする PDPのサブフィールド構造を図 73に示す場合と同様 に、 8つのサブフィールド SF1ないし SF8で構成し、各サブフィールド SF1ないし SF 8の輝度の重みをそれぞれ 1、 2、 4、 8、 16、 32、 64、 128としている。また以下の説 明でもこの構造を元にするものとする。
[0791] そして、サブフィールド割当回路 20201は、各画素についての発光情報 Nの値を発 光決定回路 20202へ供給する。発光決定回路 20202では、 Nが 1の場合を発光、 0の 場合を非発光として、サブフィールドの発光パターンを表す発光制御情報 SFを生成 する。
[0792] 例えば入力画像信号 Vinのある画素値力 S「7」である場合、サブフィーノレド SF1、 SF 2、 SF3を発光、それ以外を非発光と割り当てる発光制御情報 SFを生成する。また 例えば、入力画像信号 Vinのある画素値が「22」である場合、サブフィールド SF2、 S F3、 SF5を発光、それ以外を非発光と割り当てる発光制御情報 SFを生成する。
[0793] 図 75は、図 68の光量積算部 20300の構成を示している。光量積算部 20300では、 入力画像信号 Vinを PDPに表示した際に、人の網膜で積分される光量を画素値とす る画像を、 PDPにおいて入力画像信号を表示したときに人の目に見える、いわば擬 似的な画像として生成して出力する。
[0794] 光量積算部 20300の動作を説明する前に、 PDP特有の、視線方向と発光パターン による画像の見え方につ!/、て説明する。
[0795] 図 76は、横軸を画素位置 X (Y)とするとともに、縦軸を時間 Τとしたサブフィールドの 、画素値 127と 128の境界を示しており、影を付してあるサブフィールドが発光するサ ブフィールドを示してレ、る。
[0796] 画像が動いていない場合には、人の視線方向は、縦軸の時間方向 Τと平行な方向 A— A'となり、サブフィールドの発光が正しく人の網膜で積分されるため、画素値 12 7と 128力 S正しく言忍識される。
[0797] しかし画像が左方向に 1フィールドで 1画素分動くとすると、動きに人の目(視線)が 追従するため、視線方向が、縦軸の時間方向 Tと平行でない方向 B— B'となり、サブ フィールドの発光が人の網膜で積分されず、画素値 127と 128の間に黒い線を認識 してしまう。また逆に画像が右方向に 1フィールドで 1画素分動くとすると、動きに人の 目が追従するため、視線方向が、縦軸の時間方向 Tと平行でない方向 C C'となり 、サブフィールドの発光が人の網膜に積分されすぎて、画素値 127と 128の間に白 い線を認識してしまう。
[0798] 以上のように PDPにおいては、サブフィールドを用いる駆動方式のため、視線方向 とサブフィールドの発光パターンによって、表示している画像と人の目に見えている 画像とが異なる現象が発生する場合があり、一般に動画擬似輪郭として知られている
[0799] 図 75に戻り、動き検出部 20100で検出された各画素の視線方向 mvと、サブフィール ド展開部 20200で生成された発光制御情報 SFが光量積算領域決定回路 20301へ供 る。
[0800] 光量積算領域決定回路 20301は、動き検出部 20100で検出された視線方向 mvとサ ブフィールド展開部 20200で生成されたサブフィールドの発光パターンを表す発光制 御情報 SFとから、入力画像信号 Vinを PDPに表示した際に、人の網膜で積分される 光量を擬似的に再現するための、光量積算領域を、画素ごとに決定する。すなわち 図 77に示すように、注目画素に対し、検出された視線方向に 1画素分の断面積の光 量積算領域を設定する。
[0801] さらに、光量積算領域決定回路 20301は、光量積算領域内の各サブフィールドの発 光、非発光の領域の比率に応じて各サブフィールド SF # iでの光量を積算する。例 えば図 77の場合、サブフィールド SF8において発光、非発光の領域の比率が 7 : 1で あるとき、サブフィールド SF8において積算される光量は、 128 X 1 + (7+ 1) = 16と なる。光量積算領域決定回路 20301は、同様に全てのサブフィールド SF1ないし SF 8において積分される光量を算出し、光量積算回路 20302に供給する。 [0802] 光量積算回路 20302は、光量積算領域決定回路 20301からのサブフィールド SF1な いし SF8それぞれの光量の総和を求め、注目画素における画素値とする。そして、 光量積算回路 20302は、全ての画素に対し、同様の処理を行うことで出力画像 Vout を生成する。
[0803] また、光量積算領域決定回路 20301、及び光量積算回路 20302の処理は、以下の ように簡便に fiうことあでさる。
[0804] すなわち、図 77において、各サブフィールドの発光、非発光の領域の比率におい て、大きい方を採用する。この場合、サブフィールド SF8は非発光となり光量 0、サブ フィールド SF7は発光となり光量 64、以下同様に全てのサブフィールドでの結果の 総和を注目画素における画素値とする。
[0805] 実際の PDPは 2次元平面において構成されるため、 PDPによる画像の表示は、図 7 8に示すように、 PDPにおける画素位置 X,Yと時間方向 Tのサブフィールドからなる 3 次元的なモデル図で表現される。
[0806] 以上のように、図 68に示す画像処理装置は、入力画像信号 Vinから、画素毎の視 線方向と、 PDPに表示した際のサブフィールドの発光パターンから、 PDPに表示され た画像を見る人の網膜に積分される光量を画素値とする画像を、 PDPに表示された 画像を見る人の目に見える画像として生成するので、入力画像信号 Vinを PDPに表 示し、人が見た場合の画像を擬似的に再現することができる。
[0807] 図 79は、第 1の表示デバイスを用いて、第 1の表示デバイスと異なる特性を有する 第 2の表示デバイスにおいて画像を表示した状態を再現することができるようにする 画像処理装置の第 2実施の形態の構成例を示している。
[0808] 一般に PDPにおいて、動画擬似輪郭を抑制するために、使用する階調に制限を設 け、さらに見た目に階調を出すために、入力画像と表示する画像の画素値の差分を 、時空間の周辺の画素に割り振る誤差拡散処理、そして複数の画素値の時空間バタ ーンによって、見た目の階調を表現するディザ処理などが行われている。図 79に示 す画像処理装置は、入力画像信号 Vinを表示する PDPにおいて、前記の誤差拡散処 理ゃディザ処理が行われる場合に人の目に見える画像を擬似的に再現する。
[0809] 図 79において、入力画像信号 Vinは動き検出部 20100と階調変換部 20400へ供給 される。動き検出部 20100の構成は図 68のものと同様であるため説明を省略する。
[0810] 図 80は、図 79の階調変換部 20400の構成例を示している。
[0811] 入力画像信号 Vinは、演算器 405において、後述する表示階調誤差 Vpdと加算され 、画素値(階調) Vpとなり、階調変換回路 20402へ供給される
[0812] 階調変換回路 20402では、階調変換テーブル 20403に応じて、入力された画素の階 調(画素値) Vpを別の階調 Vpoへと変換する。すなわち動画擬似輪郭の発生しにくい 階調として 0、 1、 3、 7、 15、 31、 63、 127、 255を使用するとした場合、階調変換テ 一ブル 20403では、前記の使用する階調と、前記の使用する階調の時空間の分布で 表現する見た目の階調 (ディザ階調)を設定する。
[0813] 階調変換回路 20402では、階調変換テーブル 20403で設定された階調のみを用い るものとして、入力された階調 Vpを、階調変換テーブル 20403の階調のうちの、階調 V pとの差分がもっとも小さい階調 Vpoに置き換えて出力する。階調変換回路 20402の 出力である階調 Vpoはディザ変換回路 20404に供給されるとともに、演算器 406にお いて、階調変換回路 20402の入力である階調 Vpとの差分が求められることにより、表 示階調誤差 Vpdとされ、遅延回路 20401で水平方向で 1画素分遅延され、演算器 40 5で次の入力画像信号 Vinの画素値と加算される。このように変換された階調の差分 を周辺の画素の階調で表現することを誤差拡散処理と呼ぶ。
[0814] ディザ変換回路 20404では、使用する階調の時空間の分布によって、見た目の階 調を表現するディザ処理 (ディザ変換)を行う。ディザ変換回路 20404の動作例を図 8 1に示す。ディザ変換回路 20404では、例えば階調を 4として表示する領域があつたと すると、使用する階調である 3と 7を用いて、例えば図 81に示すように階調を分布させ る。このようにすると、人の目には、階調の値が平均されて、階調の値力 として見え ることになる。
[0815] 図 79に戻り、以上のように、階調変換部 20400では、入力画像信号 Vinを実際に表 示に用いる画像信号 Vdに変換し、サブフィールド展開部 20200へ供給する。サブフィ 一ルド展開部 20200、および光量積算部 20300の構成は、図 68のものと同様であるた め説明を省略する。
[0816] すなわち、図 79の画像処理装置では、階調変換部 20400によって、実際に表示さ れる階調を元に、人の目に見える画像を擬似的に画像として出力する。この場合、動 き検出部 20100では入力画像信号 Vinから視線を検出(決定)しているが、階調変換 部 20400で変換される階調の見た目が入力画像信号 Vinと大きく異ならない場合、視 線方向も大きく異ならないため、このような構成にしても問題がなくなる。また階調変 換部 20400は、入力画像信号 Vinを表示に用いる画像信号 Vdに変換するものであれ ば何でもよぐ例えば特開 2004— 138783号公報などに記載の手法を用いてもよい
[0817] 図 82は、第 1の表示デバイスを用いて、第 1の表示デバイスと異なる特性を有する 第 2の表示デバイスにおいて画像を表示した状態を再現することができるようにする 画像処理装置の第 3実施の形態の構成例を示している。
[0818] この画像処理装置では、階調変換部 20400の出力である画素(画像信号の) Vdを 動き検出部 20100 供給する。この場合、動き検出部 20100では、実際に表示する画 像信号を元に視線 (視線方向)を検出することになる。そのため制限された階調ゃ拡 散誤差やディザそのものが視覚的に検知される場合の視線を検出するとともに、階 調変換部 20400によって、実際に表示される階調を元に、人の目に見える画像を擬 似的に画像として出力することができる。
[0819] なお、図 82において、動き検出部 20100、サブフィールド展開部 20200、光量積算 部 20300、および階調変換部 20400の構成は、図 79のものと同様であるため説明を省 略する。
[0820] 図 83は、第 1の表示デバイスを用いて、第 1の表示デバイスと異なる特性を有する 第 2の表示デバイスにおいて画像を表示した状態を再現することができるようにする 画像処理装置の第 4実施の形態の構成例を示している。
[0821] 入力画像信号 Vinは階調変換部 20400 供給され、表示に用いる画像信号 Vd 変 換される。表示に用いる画像信号 Vdは視覚補正部 20500 供給される。
[0822] 図 84は視覚補正部 20500の構成例を示している。視覚補正部 20500では、表示に 用いる画像信号 Vdを人の見た目の画像(画像信号)へと擬似的に補正する。表示に 用いる画像信号 Vdはディザ補正回路 20501へ供給される。ディザ補正回路 20501で は、ディザで表示する階調を見た目の階調へと擬似的に補正する。すなわち図 81に 示したようにディザ階調が用いられていた場合、人の見た目には、階調の値が平均さ れるものとして、図 85に示すように階調を補正する。そしてディザ補正された画像 Vm bは、拡散誤差補正回路 20502へ供給される。
[0823] 拡散誤差補正回路 20502では、注目画素の周辺の画素に拡散した誤差を見た目 の階調へと擬似的に補正する。すなわち、拡散誤差補正回路 20502では、ディザ補 正された画像信号 Vmbにお!/、て、入力画像信号 Vinとの差分 (誤差)が拡散されて!/、 るものとし、拡散された誤差を補正する。例えば図 86に示すように、画像信号 Vmbが 90である画素の誤差は、右隣の画像信号 Vmbが 110である画素における入力画像 信号 Vinとの差分であるとし、 110— 105 = 5を拡散された誤差として画像信号 Vmbに 加算し、視覚補正された画像信号 Vmを出力する。同様に全ての画素についても同じ 処理を行う。
[0824] 以上のように、視覚補正部 20500では、階調変換部 20400によって変換された階調 を、人の目に見える際の階調として擬似的に補正を行い、補正した画像信号を動き 検出部 20100へ供給する。そのため制限された階調や拡散誤差やディザが人の目に 見える際の擬似的な画像を元に視線を検出するとともに、階調変換部 20400によって 、実際に表示される階調を元に、人の目に見える画像を擬似的に得ることができる。 なお、図 83の動き検出部 20100、サブフィールド展開部 20200、光量積算部 20300、 および階調変換部 20400の構成は、図 79のものと同様であるため説明を省略する。
[0825] 以上のように、図 68、図 79、図 82、及び図 83の画像処理装置では、 PDPに画像を 表示した際に、サブフィールドの発光パターンと視線方向から、人の目に見える画像 を擬似的に得ることができる。このため PDPと異なる表示デバイスにおいて、任意の画 像信号を PDPに表示した際に、人の目に見える画像を擬似的に表示することが可能 となる。すなわち、例えば、 LCDや、 CRT、有機 EL、プロジェクタ等の第 1の表示デバ イスを用いて、第 1の表示デバイスと異なる特性を有する PDP等の第 2の表示デバィ スにおいて画像を表示した状態を再現することができ、第 2の表示デバイスの表示の エミユレーシヨンを、第 2の表示デバイスとは異なる特性の第 1の表示デバイスを用い て fiうこと力 Sできる。
[0826] なお、 PDPのサブフィールドの構造として図 73を例に用いた力 サブフィールドの 枚数、および各サブフィールドの輝度の重みは任意のものでよ!/、。
[0827] 図 87は、図 68の画像処理装置の処理を説明するフローチャートを示している。
[0828] ステップ ST20100にお!/、て、入力画像信号 Vinが、画像処理装置に入力される。次 にステップ ST20200において、動き検出部 20100が、入力画像信号 Vinのフィールド( 又はフレーム)を、順次、注目フィールドとして、その注目フィールドについて、画素 毎に動きベクトルを検出し、その動きベクトルの方向を、視線方向として決定する。
[0829] 図 88は、ステップ ST20200における動き(ベクトル)の検出の処理を説明するフロー チャートである。
[0830] ステップ ST20201において注目フィールドの入力画像信号 Vinが動き検出部 20100 に入力される。次にステップ ST20202において、動き検出部 20100は、注目フィールド を構成する画素を、順次、注目画素として選択し、注目画素を中心とする所定のサイ ズのブロックを注目ブロックとする。そして、動き検出部 20100は、注目フィールドの注 目ブロックと 1フィールド前の所定のサーチ範囲内の候補ブロックとの間で、相関演 算を行う。次にステップ ST20203において、動き検出部 20100は、全ての候補ブロック と演算が終了したかを判定する。終了した場合、処理はステップ ST20204へ進み、終 了してない場合、処理は、ステップ ST20202へ戻り処理を継続する。ステップ ST20204 では、動き検出部 20100は、候補ブロックの中で最も相関の高い候補ブロック(差分 絶対値の総和の最も小さい候補ブロック)の位置を、動きベクトルとして検出し、その 動きベクトルを、注目画素における視線方向 mvと決定する。そしてステップ ST20205 において、動き検出部 20100は、視線方向 mvを出力する。
[0831] 図 87に戻り、次のステップ ST20300において、サブフィールド展開部 20200は、入力 画像信号 Vinの注目フィールドを PDPに表示する際のサブフィールドの発光パターン を表す発光制御情報 SFを生成する。
[0832] 図 89は、ステップ ST20300におけるサブフィールドの発光パターンを表す発光制御 情報 SFを生成するフローチャートである。
[0833] ステップ ST20301において入力画像信号 Vinの注目フィールドがサブフィールド展 開部 20200に入力される。次にステップ ST20302において、サブフィールド展開部 202 00は、入力画像信号 Vinの注目フィールドを、式(31)の各サブフィールドの輝度の重 みの総和で表現し、発光情報 Niを求める。次にステップ ST20303において、サブフィ 一ルド展開部 20200は、発光情報 Niに基づき、注目フィールドの各サブフィールドの 発光、非発光の発光パターンを表す発光制御情報 SFを生成する。そしてステップ ST 20304で、サブフィールド展開部 20200は、サブフィールドの発光パターンを表す発光 制御情報 SFを出力する。
[0834] 図 87に戻り、次のステップ ST20400において、光量積算部 20300は、入力画像信号 Vinの注目フィールドを PDPに表示した際に、人の網膜で積分される光量 (人の目に 見える画像)に相当する画像信号 Voutを、擬似的に生成する。
[0835] 図 90は、ステップ ST20400における光量の積算を示すフローチャートである。
[0836] ステップ ST20401において、ステップ ST20200で検出された注目フィールドの各画素 における視線方向 mvと、ステップ ST20300で生成された注目フィールドのサブフィー ルドの発光制御情報 SFが光量積算部 20300に入力される。次にステップ ST20402で は、光量積算部 20300において、注目フィールドの各画素力 順次、注目画素として 選択され、注目画素における視線方向 mvに応じて、光量を積算する光量積算領域 が決定される。そしてステップ ST20403で、光量積算部 20300は、ステップ ST20402で 決定された光量積算領域内で発光するサブフィールドの光量を、発行制御情報 SF が表す発光パターンに基づいて積算し、注目画素の画素値を求めることにより、その 画素値で構成される出力画像 (信号) Voutを生成する。そしてステップ ST20404で、 光量積算部 20300は、出力画像 Voutを出力する。
[0837] 図 87に戻り、次のステップ ST20500において、図示せぬ第 2の表示デバイスとして の、例えば、 LCDは、生成された出力画像 Voutを表示する。
[0838] 図 91は、図 79の画像処理装置の処理を説明するフローチャートを示している。
[0839] ステップ ST20110において、図 87のステップ ST20100と同様に、入力画像信号 Vin が入力される。次にステップ ST20210において画素毎に動きベクトル、ひいては視線 方向 mvを検出する。ステップ ST20210の動作は図 87のステップ ST20200と同様であ る。次にステップ ST20310において、階調変換部 20400は、 PDPで表示する際に行わ れる階調変換を行う。
[0840] 図 92は、ステップ ST20310における階調変換の動作を示すフローチャートである。 [0841] ステップ ST20311において、入力画像信号 Vinが階調変換部 20400に入力される。 次にステップ ST20312において、階調変換部 20400では、入力画像信号 Vinが、周辺 の画像から拡散された誤差を加算することにより、画像信号 Vpとされる。次にステップ ST20313において、階調変換部 20400は、階調変換テーブル 20403 (図 80)に従って 、画像信号 Vpの階調を変換する。次にステップ ST20314において、階調変換部 2040 0は、階調の変換前の画像信号 Vpと変換後の画像信号 Vpoとの誤差 (表示階調誤差 ) Vpdを算出する。次にステップ ST20315で、階調変換部 20400は、画像信号 Vpoのデ ィザ変換を行う。そしてステップ ST20316で、階調変換部 20400は、ディザ変換によつ て得られた画像信号を、階調変換された画像信号 Vdとして出力する。
[0842] 図 91に戻り、次のステップ ST20410で、ステップ ST20310で変換された画像信号 Vd に対し、図 87のステップ ST20300と同様の処理を行う。また以下のステップ ST20510と ST20610は、図 87のステップ ST20400と ST20500とそれぞれ同様であるため説明を省 略する。
[0843] 図 93は、図 82の画像処理装置の処理を説明するフローチャートを示している。
[0844] なお図 93では、ステップ ST20220で変換された画像信号 Vdに対し、次のステップ S T20320で視線方向(動きベクトル)の検出が実行される以外は、ステップ ST20120, S T20220, ST20320, ST20420, ST20520, ST20620において、それぞれ、図 91のステツ プ ST20110, ST20310, ST20210, ST20410, ST20510, ST20610と同様の処理が行わ れる。
[0845] 図 94は、図 83の画像処理装置の処理を説明するフローチャートを示している。
[0846] ステップ ST20130において、図 93のステップ ST20120と同様に、入力画像信号 Vin が入力される。次にステップ ST20230で、図 93の場合と同様に階調が変換された画 像信号 Vdが生成される。次にステップ ST20330で、ステップ ST20320で変換された画 像信号 Vdに対し、視覚補正が行われる。以下、ステップ ST20430, ST20530, ST2063 0, ST20730において、それぞれ図 93のステップ ST20320, ST20420, ST20520, ST20 620と同様の処理が行われる。
[0847] 図 95は、ステップ ST20330における、視覚補正の動作を示すフローチャートである。
ステップ ST20331で画像信号 Vdが視覚補正部 20500に入力される。次にステップ ST2 0332において、視覚補正部 20500は、ディザの視覚的な効果に応じて、画像信号 Vd を補正する。
次にステップ ST20333で、視覚補正部 20500は、周辺の画素に拡散した誤差の影響 を擬似的に補正し、画像信号 Vmを生成する。そしてステップ ST20334で、視覚補正 部 20500は、画像信号 Vmを出力する。
[0848] 以上のように、図 68、図 79、図 82、及び図 83の画像処理装置では、 PDPに画像を 表示した際に、サブフィールドの発光パターンと視線方向から、人の目に見える画像 を擬似的に生成する。このため PDPと異なる表示デバイスにおいて、任意の画像信 号を PDPに表示した際に、人の目に見える画像を擬似的に表示することが可能となる
[0849] 次に、図 68の光量積算部 20300の処理の詳細を説明するが、その前に、 PDPによる 画像の表示について、再度説明する。
[0850] PDPによる画像の表示は、図 74や図 78に示したように、 PDPにおける画素位置 X,Y と時間方向 Τのサブフィールドからなる 3次元的なモデル図で表現される。
[0851] 図 96は、 PDPによる画像の表示をモデル化したモデル(以下、適宜、表示モデルと いう)を示している。
[0852] ここで、図 96は、上述の図 74や図 78と同様の図である。
[0853] 表示モデルでは、 PDPにおいて入力画像信号 Vinを表示する表示面としての ΧΥ平 面に垂直な方向を時間 Tの方向として、 8つのサブフィールド SF1ないし SF8が時間 Tの方向に並べられている。
[0854] なお、表示面としての XY平面は、例えば、表示面の左上の点を原点とするとともに 、左から右方向を X方向とし、上から下方向を Y方向とする。
[0855] 光量積算部 20300 (図 68)では、 PDPに表示される入力画像信号 Vinの画素(入力 画像信号 Vinに従って PDPに表示される、入力画像信号 Vinに対応する画像の画素) を、順次、注目画素として選択し、表示モデルにおいて、注目画素の領域を断面とし 、かつ、注目画素における視線方向 mv (注目画素について検出された動きベクトル の方向)に延びる領域を、光量の積算を行う光量積算領域として、その光量積算領 域内の光量を、発光制御情報 SFが表すサブフィールドの発光パターンに従って積 算することにより、注目画素の画素値を算出する。
[0856] すなわち、光量積算部 20300は、図 96に示すように、表示モデルの表示面の画素 の領域を断面とし、かつ、時間 Tの方向に、サブフィールド SFffiの発光の光量に対応 する長さだけ延びる直方体形状の領域 (空間)を、画素サブフィールド領域として、画 素サブフィールド領域内を光量積算領域が占める比率である占有比率に、画素サブ フィールド領域に対応するサブフィールド SFffiの発光パターン(サブフィールド SF#i の画素サブフィールド領域が発光であるの力、、又は非発光であるの力、)に従った発光 の光量 Lを乗算することにより、画素サブフィールド領域が注目画素の画素値に影響 する分の影響光量を、光量積算領域が通る画素サブフィールド領域すべてにつ!/、て 求める。
[0857] そして、光量積算部 20300は、光量積算領域が通る画素サブフィールド領域すベて について求められた影響光量を積算することにより、その積算値を、注目画素の画素 値として算出する。
[0858] 以下、光量積算部 20300による、表示モデルを用いた、注目画素の画素値の算出 の方法の詳細について説明する。
[0859] 図 97は、表示モデルの画素の例を示している。
[0860] 表示モデルでは、画素は、例えば、横と縦の長さがいずれも 1の方形状の領域にな つていることとする。この場合、画素の領域の面積は、 1 ( = 1 X 1)である。
[0861] また、表示モデルでは、画素の位置(画素位置)を、画素の左上の座標で表すこと とする。この場合、例えば、画素位置 (X,Y)が (300,200)の画素(としての方形状の領域 )については、図 97に示すように、その左上の点の座標は (300,200)となり、右上の点 の座標は (301,200)となる。また、左下の点の座標は (300,201)となり、右下の点の座標 は (301,201)となる。
[0862] なお、表示モデルにおける画素の、例えば、左上の点を、以下、適宜、基準点とい
5。
[0863] 図 98は、表示モデルにおける光量積算領域を示している。
[0864] 例えば、いま、画素位置 (x,y)にある画素を注目画素として、時亥 ijT= aにおいて、注 目画素(に映る被写体) 、時間 Tの間に、動きベクトル (V ,ν )で表される動き量だけ f 動き、時亥 IJT= [i ( = a + T )において、位置 (χ+ν ,y+v )に移動したとする。
[0865] この場合、注目画素の領域としての方形状の領域が、位置 (x,y)力 位置 (x+v ,y+v ) に移動するのに描く軌跡が、光量積算領域 (空間)となる。
[0866] いま、光量積算領域の断面、つまり、位置 (x,y)から位置 (x+v ,y+v )に移動する注目 画素の領域を、断面領域(平面)ということとすると、断面領域は、画素の領域と同一 の形状の領域であるので、 4つの頂点を有する。
[0867] 時刻 α力、ら βまでの間の任意の時亥 ljT=t ( a≤t≤ β )における断面領域の 4つの 頂点のうちの、左上、右上、左下、及び右下の点(頂点)を、それぞれ、 A,B,C、及び Dと表すこととすると、左上の点 Aは、時間 Tの間に、位置 (x,y)力、ら位置 (x+v ,y+v )に 移動するので、時刻 tにおける点 Aの座標 (X,Y)は、(x+v (t- a )/T ,y+v (t_ a )/T )とな
[0868] また、右上の点 Bは、点 A力、ら X方向に + 1だけ離れた点であるから、時刻 tにおける 点 Bの座標 (X,Y)は、(x+v (t- a )/T + l ,y+v (t_ a )/T )となる。同様に、左下の点 Cは、 点 A力も Y方向に + 1だけ離れた点であるから、時刻 tにおける点 Cの座標 (Χ,Υ)は、(x+v (t- a )/T ,y+v (t_ a )/T + l)となり、右下の点 Dは、点 Aから X方向に + 1だけ離れ、 Y方 向に + 1だけ離れた点であるから、時刻 tにおける点 Dの座標 (X,Y)は、(x+v (t- a )/T + l
,y+v (t_ a )/T + l)となる。
[0869] 図 99は、時亥 ijT=tの断面領域を示している。
[0870] 点 Aな!/、し Dを頂点とする断面領域は、変形しな!/、ので、任意の時刻 T=tにお!/、て、
(XY平面上に射影したときに)基準点を 1以上の数だけ含む。図 99では、断面領域 に、 1つの基準点 (a, b)が含まれている。
[0871] ここで、断面領域に、複数の基準点がある場合がある力 その場合については、後 述する。
[0872] また、断面領域は、時刻 Tの経過とともに移動し、これにより、断面領域内の基準点 の位置が変化するが、これは、断面領域を基準とすれば、相対的に、基準点が、時 刻 Tの経過とともに移動していると捉えることができる。そして、時刻 Tの経過とともに 基準点が移動することによって、断面領域内の基準点が(他の基準点)に変更される 場合があるが、この場合についても、後述する。 [0873] 断面領域では、基準点 (a, b)を通り、 X軸に平行な直線 Lと、 Y軸に平行な直線 Lと
X Y
、表示モデルを構成する画素の境界になるため、光量の積算は、断面領域を、直 線しとしとで分割して得られる領域 (以下、適宜、分割領域という)ごとに行う必要が
X Y
ある。
[0874] 図 99では、基準点 (a,b)力 断面領域の内部(境界以外の部分)にあり、このため、 断面領域は、 4つの分割領域 S,S,S、及び Sに分割される。なお、図 99では、基準
1 2 3 4
点 (a, b)の右上の領域が分割領域 Sと、基準点 (a, b)の左上の領域が分割領域 Sと、基
1 2 準点 (a, b)の左下の領域が分割領域 Sと、基準点 (a, b)の右上の領域が分割領域 Sと、
3 4 それぞれされている。
[0875] 時亥 ijT=tにおける分割領域 S (i=l,2,3,4)の面積 (S )は、以下の式(32)ないし(35)で 表される。
[0876] [数 32]
Figure imgf000122_0001
(32)
[0877] [数 33] t - ) - b
Figure imgf000122_0002
(33)
[0878] [数 34]
(t一 ) +1— b
Figure imgf000122_0003
(34)
[0879] [数 35]
Figure imgf000122_0004
•(35) [0880] いま、表示モデル(図 96)の 8つのサブフィールド SF1ないし SF8のうちの、ある 1つ のサブフィールド SF#jを、注目サブフィールド SF#jとして、断面領域が、注目サブフィ 一ノレド SF#jを、時亥 IJT= 力、ら時亥 IJT= の間に通過することとする。
sfa sfb
[0881] 断面領域が、注目サブフィールド SF#jを通過するときに描く軌跡としての光量積算 領域は、その通過時に、分割領域 Sないし Sのそれぞれが描く軌跡の結合に等しい
[0882] いま、光量積算領域のうちの、分割領域 Sが描く軌跡としての領域 (分割領域 Sを断 面とする立体)の部分を、分割立体 Vということとすると、分割立体 Vの体積 (V)は、以 下の式(36)ないし(39)に従って、分割領域 Sを、時刻 t から t にわたつて積分する
sfa
ことで求めること力 Sでさる。
[0883] [数 36]
Figure imgf000123_0001
(36)
[0884] [数 37]
Figure imgf000123_0002
(37)
[0885] [数 38]
Figure imgf000123_0003
(38)
[0886] [数 39]
Figure imgf000123_0004
(39)
なお、ここでは、断面領域が、注目サ 一ルド SF#jを通過するときに、基準点 (a, b)は変更されな!/、(断面領域が注目サ 一ルド SF#iの通過を開始するときに、断 面領域内に存在した基準点 (a,b)力 S、断面領域が注目サブフィールド SF#jを通過する まで、断面領域内に存在し続ける)こととする。
[0888] 一方、表示モデルにお!/、て、注目サブフィールド SF#jの、画素の領域を断面として 時間 Tの方向に延びる直方体形状の立体である画素フィールド領域(図 96)の体積 を Vとすると、その画素フィールド領域の体積 Vと、分割立体 V,V,V、及び Vの体積(
1 2 3 4
V)との間には、式 (40)の関係がある。
[0889] [数 40]
Figure imgf000124_0001
•••(40)
[0890] 光量積算領域の一部である分割立体 Vは、注目サブフィールド SF#jの、ある画素 フィールド領域の一部を占める力 S、その占める比率を、占有比率ということとすると、 占有比率は、 V/Vで表され、式(36)ないし式 (40)力も求めることができる。
[0891] いま、分割立体 Vがー部を占める、注目サブフィールド SF#jの画素フィールド領域 を、占有画素フィールド領域ということとすると、その占有画素フィールド領域(の光量 )が、注目画素の画素値に影響する分の光量 (以下、適宜、影響光量という)は、占 有比率 V/Vに、占有画素フィールド領域の光量 SF を乗算することで求めることがで
i Vi
きる。
[0892] ここで、占有画素フィールド領域の光量 SF は、注目サブフィールド SF#jの占有画
Vi
素フィールド領域が発光して!/、る場合には、その注目サブフィールド SF#jの輝度の 重み Lとされ、注目サブフィールド SF#jの占有画素フィールド領域が発光して!/、な!/ヽ (非発光である)場合には、 0とされる。なお、注目サブフィールド SF#jの占有画素フィ 一ルド領域の発光/非発光は、サブフィールド展開部 20200 (図 68)から光量積算部 20300に供給される発光制御情報 SFが表す発光パターン力 認識することができる
[0893] 注目サブフィールド SF#j (の光量)力 注目画素の画素値に影響する分の光量 (注 目サブフィールド SF#jによる光量) P ,は、分割立体 V,V,V、及び Vそれぞれがー
SFL j 1 2 3 4
部を占有する占有画素フィールド領域の影響光量 SF XV /V,SF XV /V,SF XV /V、及び SF XV /Vの総和であるから、式(41)により求めること力 Sできる。
V4 4
[0894] [数 41]
Figure imgf000125_0001
•••(41)
[0895] 光量積算部 20300 (図 68)では、式(41)に従い、注目画素について、 8つのサブフ ィールド SF1ないし SF8それぞれによる P ,ないし P ,が求められる。そして、光量
SF 1 SF 8
積算部 20300では、 8つのサブフィールド SF1ないし SF8それぞれによる P ,ないし
SFL 1
P ,が積算され、その積算値 P +P +· · ·+Ρ , 、注目画素の画素値とされる
SF 8 SF 1 SF 2 SF 8
。なお、積算値 Ρ +Ρ +· · ·+Ρ ,を求めることは、光量積算領域が通る画素サ ルド領域すベての影響光量を求め、その影響光量を積算することと等価で ある。
[0896] ところで、時刻 Τの経過とともに移動する断面領域については、上述したように、断 面領域内に、複数の基準点が存在する場合や、断面領域内の基準点が (他の基準 点)に変更される場合がある。図 100及び図 101を参照して、そのような場合につい て説明する。
[0897] 図 100及び図 101は、表示モデルの位置 (x y)にある画素を注目画素として、時刻 T の経過とともに表示モデル内を移動する断面領域を示している。
[0898] なお、図 101は、図 100に続く図である。
[0899] 図 100及び図 101では、画素位置 (x y)にある画素を注目画素として、注目画素(に 映る被写体)が、時刻 T=t 力、ら時刻 T=t にかけて、動きベクトル (+2,-1)で表される動 sfa sfb
き量だけ動き、位置 (x+2 y-l)に移動している。
[0900] 以上のように、位置 (x y)から位置 (x+2 y-l)に移動する注目画素の領域である断面 領域においては、その断面領域と、表示モデルの画素の領域との(XY平面から見た )位置が完全に一致するとき、その画素の領域の 4つの頂点が、基準点として、断面 領域内に存在する。
[0901] すなわち、例えば、移動を開始するときの位置 (x y)にある断面領域 (左上の頂点の 位置が位置 (x y)の断面領域)内には、点 (x y)、点 (x+l y)、点 (x y+l)、及び点 (x+l y+l )の 4つの基準点が存在する。
[0902] 以上のように、断面領域内に複数の基準点が存在する場合、例えば、注目画素に おける視線方向 mv (注目画素について検出された動きベクトルの方向)にある 1つの 基準点が、注目画素の画素値を求めるのに用いる基準点(以下、適宜、注目基準点 という)として選択される。
[0903] すなわち、例えば、注目画素における視線方向 mvを表す動きベクトルの X成分が 0 より大(符号が正)で、 Y成分が 0以下 (Y成分が 0か、又はその符号が負)である場合 には、 4っの基準点0^) +1 ),0^+1)、及び (x+l,y+l)のうちの、右上の基準点 (x+l, y)が、注目基準点として選択される。
[0904] また、例えば、注目画素における視線方向 mvを表す動きベクトルの X成分が 0以下 で、 Y成分が 0以下である場合には、 4っの基準点0^) +1 ),0^+1)、及び (x+l,y+l )のうちの、左上の基準点 (x,y)が、注目基準点として選択される。
[0905] さらに、例えば、注目画素における視線方向 mvを表す動きベクトルの X成分が 0以 下で、 Y成分が 0より大である場合には、 4っの基準点0^) +1 ),0^+1)、及び (x+l, y+1)のうちの、左下の基準点 (x,y+l)が、注目基準点として選択される。
[0906] また、例えば、注目画素における視線方向 mvを表す動きベクトルの X成分及び Y成 分がいずれも 0より大である場合には、 4っの基準点0^) +1 ),0^+1)、及び( 1 +1)のうちの、右下の基準点 (x+l, y+1)が、注目基準点として選択される。
[0907] 図 100では、注目画素における視線方向 mvを表す動きベクトルは、ベクトル (+2,-1) であるため、右上の基準点 (x+l,y)が、注目基準点として選択される。
[0908] 以上のようにして、注目基準点 (x+l,y)が選択された後は、断面領域は、注目基準 点 (x+l,y)によって、図 99で説明した 4つの分割領域 S,S,S、及び Sに分割すること
1 2 3 4
ができ、したがって、断面領域が視線方向 mvに移動することにより、その断面領域内 に、新たな基準点が含まれる状態とならない限り、式(32)ないし式 (41)に従って、 注目画素の画素値を求めることができる。
[0909] 一方、断面領域が視線方向 mvに移動することにより、その断面領域内に、新たな 基準点が含まれる状態となった場合、その新たな基準点を対象として、上述した場合 と同様にして、新たな注目基準点が選択し直され、これにより、注目基準点が変更さ れる。
[0910] すなわち、例えば、図 100では、時亥 ljT= γにおいて、断面領域の位置の X座標 χ+1
1S 表示モデルの画素の位置の X座標 χ+1と一致し、これにより、断面領域内に、新た な基準点 (x+2,y)が含まれる状態となっている。
[0911] この場合、新たな基準点 (x+2,y)を対象として、新たな注目基準点が選択し直される 、いまの場合、新たな基準点は、基準点 (x+2,y)だけなので、その基準点 (x+2,y)が、 新たな注目基準点として選択され、これにより、注目基準点が、基準点 (x+l,y)から基 準点 (x+2,y)に変更される。
[0912] なお、断面領域の位置の Y座標力 表示モデルの画素の位置の Y座標と一致し、こ れにより、断面領域内に、新たな基準点が含まれる状態となった場合も、上述したよう に、注目基準点が変更される。
[0913] 図 101は、注目基準点が変更された後、すなわち、新たな注目基準点 (x+2,y)が選 択された後の断面領域を示してレ、る。
[0914] 新たな注目基準点が選択された後は、断面領域は、その新たな注目基準点によつ て、図 99で説明した場合と同様に、 4つの分割領域に分割することができる。図 101 では、断面領域は、 4つの分割領域 S ',S ',S '、及び S 'に分割されている。
1 2 3 4
[0915] 新たな注目基準点の選択後、断面領域が視線方向 mvに移動することにより、その 断面領域内に、新たな基準点が含まれる状態となった場合、その新たな基準点を対 象として、上述した場合と同様にして、新たな注目基準点が選択し直され、これにより 、注目基準点が変更される。
[0916] 図 101では、時亥 ijT=t において、断面領域の位置の X座標 x+2が、表示モデルの sfb
画素の位置 (x+2, y-1)の X座標 x+2と一致するとももに、断面領域の位置の Y座標 y-1 1S 表示モデルの画素の位置 (x+2, y-1)の Y座標 y-1と一致し、これにより、断面領域 内に、 3っの新たな基準点( 2 -1) +3 -1)、及び0^3 )が含まれる状態となって いる。
[0917] 断面領域が、それ以降も移動する場合には、 3っの新たな基準点( 2 -1) +3 -
1)、及び (x+3,y)の中から、上述したようにして、新たな注目基準点が選択し直される。
[0918] 以上のように、注目基準点を選択し直す(変更する)ことで、光量積算領域が占有 画素フィールド領域(図 96)を占める占有比率、つまり、占有画素フィールド領域のう ちの、光量積算領域が占める部分 (この部分は、上述の分割立体に相当するので、 この部分を、以下、適宜、分割立体の部分という) V の体積 (V )と、占有画素フィー ルド領域 Vの体積 (V)との比 V /Vを求めることができる。
[0919] すなわち、例えば、図 100及び図 101に示したように、断面領域が、時刻 T=t 力も
sfa 時刻 T=t にかけて、位置 (x,y)力、ら位置 (X+2,y_l)に移動して、注目サブフィーノレド SF sfb
#jを通過する場合において、注目基準点の変更が、時刻 Τ= γにおいて 1回だけ行わ れるときには、注目サブフィールド SF#jの、例えば、位置 (x+l,y_l)の画素の領域を断 面とする占有画素フィールド領域のうちの光量積算領域が占める分割立体の部分 V の体積 (V )は、式 (42)で求めることができる。
[0920] [数 42] ε = Jtsf s^t+^ S2,dt
•••(42)
[0921] ここで、式 (42)において、 Sは、図 100に示すように、基準点 (x+l,y)が注目基準点
1
となっている時刻 T=t 力ら時刻 Τ= γまでの間の、占有画素フィールド領域の断面と
sfa
なっている位置 (x+l,y-l)の画素の領域上の分割領域の面積を表す。また、 S 'は、図 101に示すように、基準点 (x+2,y)が注目基準点となって!/、る時刻 Τ= γ力も時刻 T=t sfb までの間の、占有画素フィールド領域の断面となっている位置 (x+l,y_l)の画素の領 域上の分割領域の面積を表す。
[0922] 式(42)に示したように、注目サブフィールド SF#jの、ある位置 (X,Y)の画素の領域 を断面とする占有画素フィールド領域のうちの光量積算領域が占める分割立体の部 分 V の体積 (V )は、積分の区間を、注目基準点が変更される区間(式 (42)では、時 刻 T=t 力も時刻 Τ= γまでの間と、時亥 IJT= γ力も時刻 T=t までの間)に分けて、占有 sfa sfb
画素フィールド領域の断面となっている画素の領域上の分割領域の面積(式(42)で は、面積 Sと S ')を積分することで求めること力 Sできる。
1 2
[0923] そして、光量積算領域が占有画素フィールド領域を占める占有比率 V /Vは、占有 画素フィールド領域のうちの光量積算領域が占める分割立体の部分 V の体積 (V ) を、占有画素フィールド領域 Vの体積 (V)で除算することにより求めることができる。
[0924] 占有比率 V f /Vを求めた後は、図 98及び図 99で説明したように、占有比率 V^Vに 、占有画素フィールド領域の光量を乗算することで、占有画素フィールド領域(の光 量)が注目画素の画素値に影響する分の光量 (影響光量)を求めること力 Sできる。そ して、光量積算領域が通る画素サブフィールド領域すベての影響光量を求め、その 影響光量を積算することで、注目画素の画素値を求めることができる。
[0925] 次に、式 (42)に示したように、占有画素フィールド領域のうちの光量積算領域が占 める分割立体の部分 V の体積 (V )を求めるには、注目基準点が変更される時刻(式 (42)では、時刻 γ ) (以下、適宜、変更時刻という)が必要となる。
[0926] 注目基準点の変更は、断面領域の位置の X座標が、表示モデルの画素の位置の X 座標と一致するか、又は、断面領域の位置の Υ座標が、表示モデルの画素の位置の Υ座標 y- 1と一致するときに生じる。したがって、変更時刻は、次のようにして求めるこ と力 Sできる。
[0927] すなわち、例えば、いま、上述の図 98に示したように、画素位置 (x,y)にある画素を 注目画素として、時亥 IJT= «において、位置 (x,y)にある断面領域力 S、時間 Tの間に、
f
動きベクトル (V,v )で表される動き量だけ動き、時刻 Τ= β ( = α + Τ )において、位置 (
f
x+v,y+v )に移動したとする。
x y
[0928] この場合、断面領域の位置の X座標が、表示モデルの画素の位置の X座標と一致 する時刻としての変更時刻 T は、式 (43)で表される。
[0929] [数 43] τ = i N
cx Ι νχΓ
Ν = 1, 2, ' ' ·, | νχ |
••• (43)
[0930] ここで、動きベクトルの X成分 νは、整数値をとることとする。
[0931] また、断面領域の位置の Υ座標が、表示モデルの画素の位置の Υ座標と一致する 時刻としての変更時刻 Τ は、式 (44)で表される。
cy
[0932] [数 44]
Figure imgf000130_0001
N = 1, 2, ' . ., |Vy|
•••(44)
[0933] ここで、動きベクトルの Y成分 vは、整数値をとることとする。
y
[0934] なお、動きベクトルの X成分 V力 以外の値である場合には、時刻 Tが、式(43)に従 つて求められる変更時刻 T になるごとに、直前に注目基準点であった基準点の X座
cx
標に +1又は- 1を加算した点が、新たな注目基準点(変更後の基準点)となる。すなわ ち、動きベクトルの X成分 Vが正である場合には、直前に注目基準点であった基準点 の X座標を +1した点力 新たな注目基準点となり、動きベクトルの X成分 Vが負である 場合には、直前に注目基準点であった基準点の X座標を- 1した点力 s、新たな注目基 準点となる。
[0935] 同様に、動きベクトルの Y成分 V力 以外の値である場合には、時刻 Tが、式(44)に 従って求められる変更時刻 τ になるごとに、直前に注目基準点であった基準点の Y cy
座標に +1又は- 1を加算した点力 新たな注目基準点となる。すなわち、動きベクトル の Y成分 Vが正である場合には、直前に注目基準点であった基準点の Y座標を +1し
y
た点が、新たな注目基準点となり、動きベクトルの Y成分 Vが負である場合には、直前
y
に注目基準点であった基準点の γ座標を- 1した点が、新たな注目基準点となる。
[0936] なお、変更時刻 T と T とが等しい場合には、直前に注目基準点であった基準点の
cx cy
X座標及び Y座標の両方を、上述したように、 +1又は- 1した点が、新たな注目基準点 となる。
[0937] ここで、図 100及び図 101では、時刻 T=t において、位置 (x,y)にある断面領域力
sfa
時間 Tの間に、動きベクトル (V ,ν Η+2,-1)で表される動き量だけ動き、時刻 T=t ( = t f x y sfb
+ T )において、位置 (x+2,y-l)に移動している。
sfa τ
[0938] 図 100及び図 101において、時亥 ijT= yは、式(43)の変数 N力 であるときの変更 時刻 T であり、式(43)において、 T=t -t , N=l、及び v =+2とすることにより、変更 cx f sfb sfa x
時刻 T = γは、式 (t - 1 ) X 1/|+2|に従って求めることができる。
cx sib sfa
[0939] 次に、図 102のフローチャートを参照して、図 90で説明した、図 87のステップ ST20 400における光量の積算の処理の詳細について、さらに説明する。
[0940] ステップ ST21001において、図 87のステップ ST20200で検出された注目フィールド の各画素における視線方向 mv力 動き検出部 20100 (図 68)から光量積算部 20300 に供給されるとともに、図 87のステップ ST20300で生成された注目フィールドのサブフ ィールドの発光パターンを表す発光制御情報 SF力 サブフィールド展開部 20200 (図 68)から光量積算部 20300に供給される。
[0941] ここで、ステップ ST21001は、図 90のステップ ST20401に対応する。
[0942] その後、処理は、ステップ ST21001からステップ ST21002に進み、光量積算部 20300
(図 75)において、光量積算領域決定回路 20301は、注目フィールドを構成する画素 のうちの、まだ注目画素として選択していない画素の 1つを、注目画素に選択して、 処理は、ステップ ST21003に進む。
[0943] ステップ ST21003では、光量積算領域決定回路 20301は、注目画素について、その 注目画素における視線方向 mvに基づき、表示モデルの基準点の中から、初期(最初 )の注目基準点となる基準点を設定 (選択)し、処理は、ステップ ST21004に進む。
[0944] ステップ ST21004では、光量積算領域決定回路 20301は、式(43)及び式(44)で説 明したように、注目画素について、注目基準点が変更する変更時刻を求めるとともに 、各変更時刻において、新たな注目基準点となる基準点を求めて、処理は、ステップ ST21005に進む。
[0945] ステップ ST21005では、光量積算領域決定回路 20301は、注目画素における視線 方向 mvと、ステップ ST21004で求めた変更時亥 I」、及び、各変更時刻において新たな 注目基準点となる基準点とを用いて、光量積算領域を求める。
[0946] すなわち、ステップ ST21005では、光量積算領域決定回路 20301は、注目画素にお ける視線方向 mvと、変更時刻、及び、各変更時刻において新たな注目基準点となる 基準点とを用いることにより、 8つのサブフィールド SF1ないし SF8それぞれについて 、占有画素フィールド領域のうちの、注目画素の光量積算領域が占める分割立体の 部分 V (式(41) )の体積 (V)を求める。ここで、 8つのサブフィールド SF1ないし SF8 それぞれについて得られる分割立体の部分 Vをすベて合わせた領域が、光量積算 領域となる。 [0947] ステップ ST21005では、さらに、光量積算領域決定回路 20301は、 8つのサブフィー ルド SF1な!/、し SF8それぞれにつ!/、て、注目画素の光量積算領域が占有画素フィ 一ルド領域を占める占有比率 V/Vを求め、処理は、ステップ ST21006に進む。
[0948] ステップ ST21006では、光量積算領域決定回路 20301は、 8つのサブフィールド SF 1な!/、し SF8それぞれにつ!/、て、注目画素の光量積算領域が占有画素フィールド領 域を占める占有比率 V /Vに、その占有画素フィールド領域の光量 SF を乗算すること
i Vi
で、式 (41)で説明したように、占有画素フィールド領域(の光量)が注目画素の画素 値に影響する分の光量 (影響光量) P ,ないし P ,を求め、光量積算回路 20302に
SF 1 SF 8
供給する。
[0949] なお、サブフィールド SF#jの占有画素フィールド領域の光量 SF は、サブフィールド
Vi
SF#jが発光している場合には、そのサブフィールド SF#jの輝度の重み Lとされ、サブ フィールド SF#jが発光していない(非発光である)場合には、 0とされる。光量積算領 域決定回路 20301は、サブフィールド SF#jの発光/非発光を、サブフィールド展開部 20200 (図 68)から供給される発光制御情報 SFが表す発光パターン力 認識する。
[0950] ここで、以上のステップ ST21002ないしステップ ST21006が、図 90のステップ ST2040 2に対応する。
[0951] その後、処理は、ステップ ST21006からステップ ST21007に進み、光量積算回路 203 02は、光量積算領域決定回路 20301からの影響光量 P ,ないし P ,を積算すること
SFL 1 SFL 8
で、注目画素の画素値を求め、処理は、ステップ ST21008に進む。
[0952] ここで、ステップ ST21007は、図 90のステップ ST20403に対応する。
[0953] ステップ ST21008では、光量積算領域決定回路 20301が、注目フィールドを構成す る画素のすべてを、注目画素とした力、どうかを判定する。
[0954] ステップ ST21008において、注目フィールドを構成する画素のすべてを、まだ、注目 画素としていないと判定された場合、処理は、ステップ ST21002に戻り、光量積算領 域決定回路 20301は、注目フィールドを構成する画素のうちの、まだ注目画素として 選択していない画素の 1つを、注目画素に新たに選択し、以下、同様の処理が繰り 返される。
[0955] また、ステップ ST21008において、注目フィールドを構成する画素のすべてを、注目 画素としたと判定された場合、処理は、ステップ ST21009に進み、光量積算回路 2030 2は、注目フィールドを構成する画素のすべてを注目画素として求めた画素値からな る出力画像 Voutを出力する。
[0956] ここで、ステップ ST21009は、図 90のステップ ST20404に対応する。
[0957] 次に、図 103は、図 68の光量積算部 20300の他の構成例を示している。
[0958] なお、図中、図 75の場合と対応する部分については、同一の符号を付してあり、以 下では、その説明は、適宜省略する。
[0959] すなわち、図 103の光量積算部 20300は、光量積算回路 20302が設けられている点 で、図 75の場合と共通する力 図 75の光量積算領域決定回路 20301に代えて、光 量積算値テーブル記憶部 20303、及び光量積算領域選択回路 20304が設けられて!/、 る点で、図 75の場合と相違する。
[0960] 図 103の光量積算部 20300では、視線方向 mvと、占有比率とを対応付けたテープ ル (以下、適宜、光量積算値テーブルという)を用い、注目画素における視線方向 mv に基づき、注目画素について、占有比率が求められる。
[0961] すなわち、図 103において、光量積算値テーブル記憶部 20303は、光量積算値テ 一ブルを記憶している。
[0962] 光量積算値テーブル記憶部 20303には、動き検出部 20100 (図 68)から、注目フィ 一ルドの各画素における視線方向 mvが供給される。光量積算値テーブル記憶部 203 03は、注目フィールドを構成する画素を、順次、注目画素として、そこに供給される注 目画素における視線方向 mvに対付けられて!/、る占有比率を、注目画素の光量積算 領域が占有画素フィールド領域を占める占有比率 V/Vとして、光量積算値テーブル から読み出し、光量積算領域選択回路 20304に供給する。
[0963] 光量積算領域選択回路 20304には、上述したように、光量積算値テーブル記憶部 2 0303から占有比率が供給される他、サブフィールド展開部 20200 (図 68)から、注目フ ィールドのサブフィールドの発光パターンを表す発光制御情報 SFが供給される。
[0964] 光量積算領域選択回路 20304は、サブフィールド SF#jの占有画素フィールド領域 の発光/非発光を、サブフィールド展開部 20200からの発光制御情報 SFが表す発 光パターン力 認識する。さらに、光量積算領域選択回路 20304は、サブフィーノレド S F#jの占有画素フィールド領域が発光して!/、る場合には、その占有画素フィールド領 域の光量 SF を、そのサブフィールド SF#jの輝度の重み Lに設定し、サブフィールド S
Vi
F#jの占有画素フィールド領域が発光して!/、な!/、(非発光である)場合には、その占 有画素フィールド領域の光量 SF を、 0に設定する。
Vi
[0965] そして、光量積算領域選択回路 20304は、 8つのサブフィールド SF 1ないし SF8そ れぞれについて、光量積算値テーブル記憶部 20303からの、注目画素の光量積算 領域が占有画素フィールド領域を占める占有比率 ν,νに、その占有画素フィールド 領域の光量 SF を乗算することで、式 (41 )で説明したように、占有画素フィールド領
Vi
域(の光量)が注目画素の画素値に影響する分の光量 (影響光量) P ,ないし P
SF 1 SF 8 を求め、光量積算回路 20302に供給する。
[0966] 図 104は、図 103の光量積算値テーブル記憶部 20303に記憶された光量積算値テ ブルを、模式的に示している。
[0967] 光量積算値テーブルには、動き検出部 20100が検出し得る動きベクトルとしての視 線方向 mvと、その視線方向 mvに対して計算によりあら力、じめ求められた、 8つのサブ フィールド SF 1ないし SF8それぞれについての、画素の領域を断面とする光量積算 領域が占有画素フィールド領域を占める占有比率 V /Vとが対応付けられて記憶され ている。
[0968] すなわち、光量積算値テーブルは、視線方向 mvごとに用意されている。したがって 、視線方向 mvとしての動きベクトルのサーチ範囲力 例えば、後述するように、 16 X 16画素の範囲であり、視線方向 mv力 56通りをとり得ると、光量積算値テーブルは、 256個だけ存在する。
[0969] 1つの視線方向 mvに対する光量積算値テーブルには、 8つのサブフィールド SF 1 ないし SF8それぞれについての占有比率 V /Vが登録されており、これにより、視線方 向 mvと、その視線方向 mvに対する、 8つのサブフィールド SF 1ないし SF8それぞれ につ!/、ての占有比率 V /Vとが対応付けられて!/、る。
[0970] 図 104は、ある 1つの視線方向 mvに対する光量積算値テーブルを示している。
[0971] 1つの視線方向 mvに対する光量積算値テーブルは、例えば、横軸をサブフィール ド SF#jとし、縦軸を注目画素からの相対位置 [x y]とするテーブルになって!/、る。 [0972] ここで、本実施の形態では、 8つのサブフィールド SF1ないし SF8があるので、光量 積算値テーブルの横軸には、その 8つのサブフィールド SF1ないし SF8それぞれに 対応する欄が設けられる。
[0973] また、光量積算値テーブルの縦軸の相対位置 [x,y]の X座標と y座標は、注目画素の 位置を基準 (原点)とする X方向の位置と Y方向の位置を、それぞれ表す。例えば、相 対位置 [1,0]は、注目画素の右に隣接する画素の位置を表し、例えば、相対位置 [0,- 1]は、注目画素の上に隣接する画素の位置を表す。
[0974] いま、視線方向 mvとしての動きベクトルのサーチ範囲力 例えば、注目画素を中心 として、 X方向及び Y方向のいずれにも、 8画素ないし + 7画素の、 16 X 16画素の 範囲であるとすると、注目画素が 1フィールドの間に動く動き量は、注目画素を基準と して、 [-8,-8]ないし [7,7]の 256通りがあるので、光量積算値テーブルの縦軸には、そ の 256通りの相対位置 [x,y]それぞれに対応する欄が設けられる。
[0975] 視線方向 mvが、ある動きベクトル MVで表される場合の、その視線方向 MVに対する 光量積算値テーブルでは、ある相対位置 [x,y]の行の、あるサブフィールド SF#jの列 の欄には、注目画素の視線方向 mvが、動きベクトル MVで表される場合において、注 目画素からの相対位置が [x,y]で表される画素の領域を断面とする、サブフィールド S F#jの占有画素フィールド領域 B を、注目画素の光量積算領域が占める占有比
SF#j[x,y]
率 R (式(41)の V/V)、又は、式(42)の V を占有画素フィールド領域 Vの体積(
SF#j[x,y] i ε
V)で除算した V /V)が、計算によりあらかじめ求められて登録されている。
[0976] なお、注目画素からの相対位置が [x,y]で表される画素の領域を断面とする、サブフ ィールド SF#jの占有画素フィールド領域 B を、注目画素の光量積算領域が通ら
SF#j[x,y]
ない場合(占有画素フィールド領域 B と、注目画素の光量積算領域とが重複し
SF#j[x,y]
なレヽ場合)、その占有画素フィールド領域 B を、注目画素の光量積算領域が占
SF#j[x,y]
める占有比率 R は、 0とされる。
SF#j[x,y]
[0977] ここで、注目画素における視線方向 mv力 例えば、動きベクトル (1,-1)で表される場 合には、注目画素の光量積算領域は、注目画素を中心とする 16 X 16画素のサーチ 範囲にある 256画素それぞれの領域を断面とする、サブフィールド SF1ないし SF8そ れぞれの占有画素フィールド領域(256 X 8個の占有画素フィールド領域) 注目画素の領域を断面とする、サブフィールド SF1ないし SF8それぞれの 8個の占 有画素フィールド領域 B ないし B 、注目画素の右に隣接する画素を断面と
SF1[0,0] SF8[0,0]
する、サブフィールド SF1ないし SF8それぞれの 8個の占有画素フィールド領域 B
SF1[1, ないし B 、注目画素の上に隣接する画素を断面とする、サブフィールド SF1な
0] SF8[1,0]
いし SF8それぞれの 8個の占有画素フィールド領域 B ないし B 、及び、注
SF1[0,-1] SF8[0,-1]
目画素の右上に隣接する画素を断面とする、サブフィールド SF1ないし SF8それぞ れの 8個の占有画素フィールド領域 B ないし B だけを通り、他の占有画素
SF1[1,-1] SF8[1,-1]
フィールド領域を通らなレ、。
[0978] したがって、注目画素の領域を断面とする、サブフィールド SF1ないし SF8それぞ れの 8個の占有画素フィールド領域 B ないし B のうちの、注目画素の光量積
SF1[0,0] SF8[0,0]
算領域が通る部分(分割立体の部分)の体積(式(36)な!/、し式 (40)の V )を、 V
i SF1[0,0] ないし V と、注目画素の右に隣接する画素を断面とする、サブフィールド SF1な
SF8[0'0]
V、し SF8それぞれの 8個の占有画素フィールド領域 B な!/、し B のうちの、注
SF1[1,0] SF8[1,0]
目画素の光量積算領域が通る部分の体積を、 V ないし V と、注目画素の上
SF1[1,0] SF8[1,0]
に隣接する画素を断面とする、サブフィールド SF1ないし SF8それぞれの 8個の占有 画素フィールド領域 B ないし B のうちの、注目画素の光量積算領域が通る
SF1[0,-1] SF8[0,-1]
部分の体積を、 V な!/、し V と、注目画素の右上に隣接する画素を断面とす
SF1[0,-1] SF8[0,-1]
る、サブフィールド SF1ないし SF8それぞれの 8個の占有画素フィールド領域 B
SF1[1,-1] ないし B のうちの、注目画素の光量積算領域が通る部分の体積を、 V ない
SF8[1,-1] SF1[1,-1] し V と、それぞれ表すこととすると、視線方向 mvが、動きベクトル (1,-1)で表され
SF8[1,_1]
る、その視線方向 mvに対する光量積算値テーブルでは、占有比率 R ないし R
SF1[0,0] SF8[ 力 s、値 V /Vないし V /Vに、占有比率 R ないし R 力 S、値 V /V
0,0] SF1[0,0] SF8[0,0] SF1[1,0] SF8[1,0] SF1[1,0] ないし V /Vに、占有比率 R ないし R 力 値 V /Vないし V /V
SF8[1,0] SF1[0,-1] SF8[0,-1] SF1[0,_1] SF8[0,_1] に、占有比率 R ないし R 力 S、値 V /Vないし V /Vに、それぞれな
SF1[1,-1] SF8[1,-1] SF1[1,-1] SF8[1,— 1]
つており、他の占有比率は、すべて 0になっている。
[0979] 光量積算値テーブル記憶部 20303 (図 103)は、注目画素における視線方向 mvに 対する光量積算値テーブルに登録されている、 8つのサブフィールド SF1ないし SF8 それぞれと、 256通りの相対位置 [-8,-8]ないし [7,7]それぞれとの、合計で、 8 X 256 通りの占有比率を読み出し、光量積算領域選択回路 20304に供給する。
[0980] 光量積算領域選択回路 20304は、光量積算値テーブル記憶部 20303からの占有比 率の中から、値力 以外の占有比率を選択し、その値力 以外の占有比率に、対応す る光量 SF を乗算することで、影響光量を求める。
Vi
[0981] なお、ここでは、光量積算領域選択回路 20304が、光量積算値テーブル記憶部 203 03からの占有比率の中から、値力 以外の占有比率を選択し、その値が 0以外の占有 比率に、対応する光量 SF を乗算することで、影響光量を求めることとしたが、値が 0
Vi
の占有比率に対しては、どのような光量 SF を乗算を乗算しても、影響光量は 0となる
Vi
ので、光量積算領域選択回路 20304では、光量積算値テーブル記憶部 20303からの 占有比率の中から、値力 以外の占有比率を特に選択することなぐ光量積算値テー ブル記憶部 20303からの占有比率のそれぞれに、対応する光量 SF を乗算することで
Vi
、影響光量を求めることが可能である。
[0982] 次に、図 105のフローチャートを参照して、図 103の光量積算部 20300による光量 の積算の処理の詳細について説明する。
[0983] ステップ ST21011において、注目フィールドの各画素における視線方向 mvが、動き 検出部 20100 (図 68)から光量積算部 20300の光量積算値テーブル記憶部 20303に 供給されるとともに、注目フィールドのサブフィールドの発光パターンを表す発光制 御情報 SF力 サブフィールド展開部 20200 (図 68)から光量積算部 20300の光量積 算領域選択回路 20304に供給される。
[0984] その後、処理は、ステップ ST21011からステップ ST21012に進み、光量積算値テー ブル記憶部 20303は、注目フィールドを構成する画素のうちの、まだ注目画素として 選択していない画素の 1つを、注目画素に選択して、処理は、ステップ ST21013に進 む。
[0985] ステップ ST21013では、光量積算値テーブル記憶部 20303は、動き検出部 20100か らの視線方向 mvのうちの、注目画素における視線方向 mvに対する光量積算値テー ブルから、そこに登録されているすべての占有比率 R を読み出して、光量積算
SF#j[x,y]
領域選択回路 20304に供給し、処理は、ステップ ST21014に進む。
[0986] ステップ ST21014では、光量積算領域選択回路 20304は、光量積算値テーブル記 憶部 20303からの占有比率 R に、対応する占有画素フィールド領域 B の光
SF#j[x,y] SF#j[x,y] 量 SFを乗算することで、占有画素フィールド領域 B (の光量)が注目画素の画素 j SF#j[x,y]
値に影響する分の光量 (影響光量)を求め、光量積算回路 20302に供給する。
[0987] なお、サブフィールド SF#jの占有画素フィールド領域の光量 SFは、サブフィールド
j
SF#jが発光している場合には、そのサブフィールド SF#jの輝度の重み Lとされ、サブ フィールド SF#jが発光していない(非発光である)場合には、 0とされる。光量積算領 域選択回路 20304は、サブフィールド SF#jの発光/非発光を、サブフィールド展開部 20200 (図 68)から供給される発光制御情報 SFが表す発光パターン力 認識する。
[0988] その後、処理は、ステップ ST21014からステップ ST21015に進み、光量積算回路 203 02は、光量積算領域選択回路 20304からの影響光量すベてを積算することで、注目 画素の画素値を求め、処理は、ステップ ST21016に進む。
[0989] ステップ ST21016では、光量積算領域選択回路 20304が、注目フィールドを構成す る画素のすべてを、注目画素とした力、どうかを判定する。
[0990] ステップ ST21016において、注目フィールドを構成する画素のすべてを、まだ、注目 画素としていないと判定された場合、処理は、ステップ ST21012に戻り、光量積算値 テーブル記憶部 20303は、注目フィールドを構成する画素のうちの、まだ注目画素と して選択していない画素の 1つを、注目画素に新たに選択し、以下、同様の処理が 繰り返される。
[0991] また、ステップ ST21016において、注目フィールドを構成する画素のすべてを、注目 画素としたと判定された場合、処理は、ステップ ST21017に進み、光量積算回路 2030 2は、注目フィールドを構成する画素のすべてを注目画素として求めた画素値からな る出力画像 Voutを出力する。
[0992] 次に、上述した一連の処理は、専用のハードウェアにより行うこともできるし、ソフトゥ エアにより行うこともできる。一連の処理をソフトウェアによって行う場合には、そのソフ トウエアを構成するプログラム力 汎用のコンピュータ等にインストールされる。
[0993] そこで、図 106は、上述した一連の処理を実行するプログラムがインストールされる コンピュータの一実施の形態の構成例を示している。
[0994] プログラムは、コンピュータに内蔵されている記録媒体としてのハードディスク 21105 や ROM21103に予め記録しておくことができる。
[0995] あるいはまた、プログラムは、フレキシブルディスク、 CD-ROM(Compact Disc Read
Only Memory), MO(Magneto Optical)ディスク, DVD(Digital Versatile Disc),磁気デ イスク、半導体メモリなどのリムーバブル記録媒体 21111に、一時的あるいは永続的に 格納(記録)しておくことができる。このようなリムーバブル記録媒体 21111は、いわゆ るノ ンケージソフトウェアとして提供すること力 Sできる。
[0996] なお、プログラムは、上述したようなリムーバブル記録媒体 21111からコンピュータに インストールする他、ダウンロードサイトから、ディジタル衛星放送用の人工衛星を介 して、コンピュータに無線で転送したり、 LAN(Local Area Network),インターネットと いったネットワークを介して、コンピュータに有線で転送し、コンピュータでは、そのよ うにして転送されてくるプログラムを、通信部 21108で受信し、内蔵するハードディスク 21105にインストールすることができる。
[0997] コンピュータは、 CPU(Central Processing Unit)21102を内蔵している。 CPU21102に は、バス 21101を介して、入出力インタフェース 21110が接続されており、 CPU21102は 、入出力インタフェース 21110を介して、ユーザによって、キーボードや、マウス、マイ ク等で構成される入力部 21107が操作等されることにより指令が入力されると、それに したがって、 ROM(Read Only Memory)21103に格納されているプログラムを実行する 。あるいは、また、 CPU21102は、ハードディスク 21105に格納されているプログラム、 衛星若しくはネットワークから転送され、通信部 21108で受信されてハードディスク 211 05にインストールされたプログラム、またはドライブ 21109に装着されたリムーバブル記 録媒体 21111から読み出されてハードディスク 21105にインストールされたプログラム を、 RAM(Random Access Memory)21104にロードして実行する。これにより、 CPU211 02は、上述したフローチャートにしたがった処理、あるいは上述したブロック図の構成 により行われる処理を行う。そして、 CPU21102は、その処理結果を、必要に応じて、 例えば、入出力インタフェース 21110を介して、 LCD(Liquid Crystal Display)ゃスピー 力等で構成される出力部 21106から出力、あるいは、通信部 21108から送信、さらには 、ハードディスク 21105に記録等させる。
[0998] [CRT(Cathode Ray Tube)や LCD(Liquid Crystal Display)等の他のデバイスのディ スプレイでプラズマディスプレイ (PDP(Plasma Display Panel))の見た目を再現する事 を信号処理により可能とする画像信号処理装置の実施の形態]
[0999] 次に、 PDPに画像を表示したときの見た目を、他のデバイスのディスプレイで再現す る画像信号処理装置の実施の形態について説明する。
[1000] PDPでは、例えば、河村正行著、「よくわ力、るプラズマテレビ」、電波新聞社に記載さ れているように、ストライプリブ構造等が採用され、各画素は、 R(Red),G(Green),B(Blu e)を発光する部分がストライプに配列されて構成される。
[1001] ところで、 PDPに画像がどのように表示される力、を評価する場合に、 CRTや LCDなど のモニタを評価用モニタとして使用すると、 PDPと LCD等とでは、表示特性が異なるた め、 LCDに表示された画像によっては、 PDPに表示される(であろう)画像の見た目や 画質を評価することが困難であった。
[1002] すなわち、評価時に LCDに表示される画像の画質と、実際の PDPでの観賞時に PD
Pに表示される画像の画質とが必ずしも一致してはいな力 た。
[1003] そこで、以下では、 PDP以外の、例えば、 LCD等のディスプレイで、 PDP (に画像を 表示したとき)の見た目を再現する事を信号処理により可能とする実施の形態にっレ、 て説明する。
[1004] 図 107は、 PDP以外のディスプレイで PDPの見た目を再現する画像信号処理装置 の一実施の形態の構成例を示してレ、る。
[1005] 図 107において、画像信号処理装置は、画像処理部 30001と、モニタ 30002とから 構成され、 PDP以外の表示方式の表示装置であるモニタ 30002で画像信号を表示し たときに、 PDP表示装置で表示された画像に見えるように、画像処理部 30001に供給 される画像信号を処理して、モニタ 30002に表示させる。
[1006] すなわち、画像処理部 30001は、そこに供給される画像信号に対して、 RGB(Red,Gr een,Bule)の順で点灯しているために生ずる動画による色ズレを再現する色ズレ付加 処理、空間方向に適用するディザパターンを再現する空間ディザ付加処理、時間方 向に適用するディザパターンを再現する時間ディザ付加処理、画素ピッチ間の空白 を再現する画素間ピッチ再現処理、又は、ストライプ配列を再現するストライプ配列再 現処理のうちの少なくともひとつを施し、モニタ 30002に供給する。 [1007] モニタ 30002は、 PDP以外の表示方式の表示装置、すなわち、例えば、 LCDや CRT の表示装置であり、画像処理部 30001から供給される画像信号に応じて、画像を表 示する。モニタ 30002が、画像処理部 30001からの画像信号に応じて、画像を表示す ることにより、モニタ 30002では、 PDP表示装置で表示されたならば表示されるであろう 画像が表示される。
[1008] 上述したように、画像処理部 30001では、色ズレ付加処理、空間ディザ付加処理、 時間ディザ付加処理、画素間ピッチ再現処理、又はストライプ配列再現処理のうちの
Figure imgf000141_0001
[1009] まず、画像処理部 30001で行われる、色ズレ付加処理、空間ディザ付加処理、時間 ディザ付加処理、画素間ピッチ再現処理、又はストライプ配列再現処理のうちの、スト ライプ配列再現処理にっレ、て説明する。
[1010] 図 108は、ストライプ配列再現処理を説明する図である。
[1011] ストライプ配列再現処理では、 PDP特有のストライプ配列を再現する。 PDPの 1画素 の表示に出力モニタでは 2画素以上を使用する。
[1012] ストライプ配列再現処理では、画素値を RGBに分解し、それぞれ縦に並べて表示を する。
[1013] 2画素など 3の等倍でない場合、見かけ上混ざった色を表示する事で同様の再現が 可能となる。
[1014] これにより、 PDP特有のストライプの見た目が液晶モニタなどでも可能となる。
[1015] また対象となるパネルによっては RGBの幅が等間隔でないものもあり、それに合わ せて RGBの幅を変えることで、より再現度が高まる。
[1016] 図 109は、ストライプ配列再現処理を行う画像処理部 30001の構成例を示している。
[1017] 拡大ストライプ化回路 30011は、画像処理部 30001に供給される画像信号を N倍化 し、すなわち、例えば、 3倍化し、ストライプ配列に分解して、ストライプ化された画像 信号を出力する。
[1018] リサイズリサンプル回路 30012は、拡大ストライプ化回路 30011が出力する画像信号 を、出力画像サイズ (モニタ 30002が表示する画像のサイズ)に合わせて、リサンプル を行い出力する。 [1019] ななおお、、リリササイイズズリリササンンププルル回回路路 3300001122がが出出力力すするる画画像像信信号号力力 モモニニタタ 3300000022にに供供給給ささ れれてて表表示示さされれるる。。
[1020] 図図 111100はは、、図図 110099のの画画像像処処理理部部 3300000011でで行行わわれれるるスストトラライイププ配配列列再再現現処処理理をを説説明明すす るるフフロローーチチャャーートトででああるる。。
[1021] スステテッッププ SS3300001111ににおおいいてて、、拡拡大大スストトラライイププ化化回回路路 3300001111はは、、画画像像信信号号のの 11画画素素をを 33倍倍 にに拡拡大大しし、、横横にに RRGGBBをを並並べべたた形形状状にに変変形形しし、、リリササイイズズリリササンンププルル回回路路 3300001122にに供供給給しし てて、、処処理理はは、、スステテッッププ SS3300001122にに進進むむ。。
[1022] スステテッッププ SS3300001122でではは、、リリササイイズズリリササンンププルル回回路路 3300001122がが、、拡拡大大スストトラライイププ化化回回路路 3300001111 かかららのの画画像像信信号号をを、、出出力力画画像像ササイイズズにに合合わわせせててリリササイイズズしし、、再再ササンンププリリンンググすするる処処理理 をを行行っってて、、処処理理はは、、スステテッッププ SS3300001133にに進進むむ。。スステテッッププ SS3300001133でではは、、リリササイイズズリリササンンププルル 回回路路 3300001122がが、、スステテッッププ SS3300001122のの処処理理でで得得らられれたた画画像像信信号号をを、、モモニニタタ 3300000022にに出出力力すす
[1023] 次次にに、、画画像像処処理理部部 3300000011でで行行わわれれるる、、色色ズズレレ付付加加処処理理、、空空間間デディィザザ付付加加処処理理、、時時間間 デディィザザ付付加加処処理理、、画画素素間間ピピッッチチ再再現現処処理理、、又又ははスストトラライイププ配配列列再再現現処処理理ののううちちのの、、色色 ズズレレ付付加加処処理理 ((動動画画にによよるる色色ズズレレ再再現現をを行行うう処処理理))ににつついいてて説説明明すするる。。
[1024] 図図 111111はは、、 PPDDPPにに表表示示さされれるる画画像像にに生生じじるる色色ズズレレをを説説明明すするる図図ででああるる。。
[1025] PPDDPPににおおいいてて、、 RRGGBBのの点点灯灯時時間間のの違違いいにによよっってて、、白白色色物物体体がが横横にに移移動動すするる場場合合にに 特特にに顕顕著著ででああるるがが、、そそのの物物体体をを人人間間がが目目でで追追っってて見見るるとと仮仮定定すするるとと、、色色ががずずれれてて見見ええ るるとといいうう特特性性ががああるる。。
[1026] 色色ズズレレ付付加加処処理理でではは、、ここれれをを液液晶晶パパネネルルななどどののモモニニタタ 3300000022ででもも再再現現すするる。。以以下下のの 手手順順にによよりり再再現現ををすするる。。
[1027] 11..物物体体境境界界検検出出
[1028] 画画像像よよりり、、エエッッジジ検検出出ななどどにによよりり物物体体境境界界をを検検出出すするる。。特特にに白白色色物物体体ななどどをを対対象象とと すするる。。
[1029] 動動きき量量抽抽出出
[1030] 上上記記 11ででのの手手順順でで求求めめたた物物体体ににおおいいてて、、次次フフレレーームムととのの動動きき量量をを求求めめるる。。手手法法ははブブ
Figure imgf000142_0001
[1031] 色色ズズレレのの付付加加 [1032] 再現対象とする PDPの RGB発光特性と、物体の動き量に応じて最適な色ズレを付 加してゆく。
[1033] 色ズレの付加量は、移動量と合わせようとする PDPの発光特性によって決定される
[1034] 例えば青 (B)の点灯が緑 (G)よりも l/3frの時間だけ早く消灯する特性の場合 (frはフ レーム周期)、エッジ際の画素値は、青色成分を 2/3とする。
[1035] 同様にその横の画素値は、移動量幅分の色ズレを起こすように青成分の減算を減 らすことで生成が可能となる。
[1036] 図 112は、青が緑よりも l/3frの時間だけ早く消灯する特性の PDPにおいて、画像に 映っている物体の移動量力 ¾画素の場合に生じる色ズレを付加するために、元の画 素値に掛ける係数を表す。
[1037] 図 113は、色ズレ付加処理を行う画像処理部 30001の構成例を示している。
[1038] 現フレームメモリ 30021は、画像処理部 30001に供給される画像信号を記憶し、現フ レームの画像信号として、前フレームメモリ 30022、エッジ部切り出し回路 30023、及び 動き検出回路 30024に供給する。
[1039] 前フレームメモリ 30022は、現フレームメモリ 30021から供給される現フレームの画像 信号を記憶し、 1フレーム分の時間だけ遅延して、動き検出回路 30024に供給する。 したがって、現フレームメモリ 30021から動き検出回路 30024に対して、現フレームの 画像信号が供給されるとき、前フレームメモリ 30022から動き検出回路 30024に対して 、現フレームの 1フレーム前の前フレームの画像信号が供給される。
[1040] エッジ部切り出し回路 30023は、現フレームメモリ 30021からの現フレームの画像信 号のエッジ部分を検出し、そのエッジ部のエッジ位置を、動き検出回路 30024、及び 色係数乗算回路 30025に供給する。さらに、エッジ部切り出し回路 30023は、現フレー ムメモリ 30021からの現フレームの画像信号も、色係数乗算回路 30025に供給する。
[1041] 動き検出回路 30024は、エッジ部切り出し回路 30023からの指定位置のフレーム間 の動き量を算出し、色係数乗算回路 30025に出力する。
[1042] すなわち、動き検出回路 30024は、エッジ部切り出し回路 30023からのエッジ位置の エッジ部の動き量を、現フレームメモリ 30021からの現フレームの画像信号と、前フレ ームメモリ 30022からの画像信号とを用いて検出し、色係数乗算回路 30025に供給す
[1043] 色係数乗算回路 30025は、指定された (PDPの)発光特性にあわせ、指定位置の動 き量に応じた色ズレを付加する係数を生成し、画像に乗算して出力する。
[1044] すなわち、色係数乗算回路 30025には、 PDPの発光特性 (表示特性)を表す発光特 性パラメータが供給されるようになっている。
[1045] 色係数乗算回路 30025は、発光特性パラメータが表す発光特性、エッジ部切り出し 回路 30023からのエッジ位置からの位置(画素の位置)、及び、動き検出回路 30024か らのエッジ部の動き量に応じて、色ズレを生じさせる係数を求め、その係数を、エッジ 部切り出し回路 30023からの画像信号(の画素値)に乗算して得られる色の画像信号 を出力する。そして、色係数乗算回路 30025が出力する画像信号が、モニタ 30002に 供給されて表示される。
[1046] 図 114は、図 113の画像処理部 30001で行われる色ズレ付加処理を説明するフロ 一チャートである。
[1047] ステップ S30021において、エッジ部切り出し回路 30023は、現フレームメモリ 30021か らの現フレームの画像信号から、色ズレの起こるエッジ部を検出し、そのエッジ部の エッジ位置を、動き検出回路 30024と色係数乗算回路 30025に供給するとともに、現フ レームの画像信号を、色係数乗算回路 30025に供給して、処理は、ステップ S30022に 進む。
[1048] ステップ S30022では、動き検出回路 30024が、エッジ部切り出し回路 30023からのエツ ジ位置のエッジ部の動き量を、現フレームメモリ 30021からの現フレームの画像信号と 、前フレームメモリ 30022の画像信号とを用いて検出し、色係数乗算回路 30025に供 給して、処理は、ステップ S30023に進む。
[1049] ステップ S30023では、色係数乗算回路 30025が、発光特性パラメータが表す発光特 性、動き検出回路 30024からのエッジ部の動き量、及び、エッジ部切り出し回路 30023 力、らのエッジ位置のエッジ部からの位置に応じて、色ズレを生じさせる係数を求め、 エッジ部切り出し回路 30023からの現フレームの画像信号の各画素の色(画素値)に かけて、その結果得られる色の画像信号を、モニタ 30002に出力する。 [1050] 次に、画像処理部 30001で行われる、色ズレ付加処理、空間ディザ付加処理、時間 ディザ付加処理、画素間ピッチ再現処理、又はストライプ配列再現処理のうちの、画 素間ピッチ再現処理(同一サイズ再現時の画素ピッチ再現の処理)について説明す
[1051] 対象となる PDPのサイズも再現することを狙う場合、 DRC(Digital Reality Creation)等 の電子ズーム機能でサイズは同等のものを得ることが出来る力 画素ピッチ間の空白 も再現することでより見た目を合わせることが可能となる。
[1052] ここで、 DRCについては、例えば、特開 2005-236634号公報ゃ特開 2002-223167号 公報等に、クラス分類適応処理として記載されている。
[1053] 例えば、合わせようとする PDPのサイズ力 ¾倍であるとする。この場合、 2倍電子ズー ムを用いる事で同サイズに見せることが出来る力 S、大画面 PDP特有の画素間の溝の 視覚的効果も付加する事でより再現性が高まる。
[1054] 2倍の場合、図 115に示すような効果を付加すればよい。
[1055] 図 116は、画素間ピッチ再現処理を行う画像処理部 30001の構成例を示している。
[1056] 拡大処理回路 30031は、画像処理部 30001に供給される画像信号を出力画像サイ ズに拡大し、すなわち、画像の一部を、そこに供給される拡大率に応じて拡大する処 理をして、その結果得られる拡大画像を、画素間輝度減回路 30032に出力する。
[1057] 画素間輝度減回路 30032は、そこに供給される拡大率に応じて、画素間の溝の存 在する位置に対して輝度値を下げる処理をし、すなわち、画素間の空白が存在する 部分の輝度を下げるように、拡大処理回路 30031からの画像信号を処理し、その処理 の結果得られる画像信号を、モニタ 30002に出力する。
[1058] 図 117は、図 116の画像処理部 30001で行われる画素間ピッチ再現処理を説明す るフローチャートである。
[1059] ステップ S30031において、拡大処理回路 30031は、出力画像サイズに画像を拡大し 、画素間輝度減回路 30032に供給して、処理は、ステップ S30032に進む。ステップ S3 0032では、画素間輝度減回路 30032は、拡大処理回路 30031からの画像に対して、 想定画素間のある部分の輝度を下げる処理をする。そして、処理は、ステップ S30032 からステップ S30033に進み、画素間輝度減回路 30032は、ステップ S30032で得られた 画像を、モニタ 30002に出力する。
[1060] 次に、画像処理部 30001で行われる、色ズレ付加処理、空間ディザ付加処理、時間 ディザ付加処理、画素間ピッチ再現処理、又はストライプ配列再現処理のうちの、空 間ディザ付加処理 (空間ディザパターン再現の処理)について説明する。
[1061] PDPパネルにおいては、色階調を稼ぐためにディザ (編み目状に色を配置し擬似 的に階調を増やす)を用いることが多レ、。
[1062] このディザパターンを再現する事でより見た目を合わせることが可能となる。
[1063] 対象となる PDPパネルによって、ディザが見える色というものが存在する。画面内の 色変化の少ない部分において、もしそのディザの見える色にマッチするものであれば
、図 118に示すように、ディザを付加する処理を行うことで再現することが可能となる。
[1064] 図 119は、空間ディザ付加処理を行う画像処理部 30001の構成例を示している。
[1065] 平坦部抽出回路 30041は、画像処理部 30001に供給される画像信号の平坦な部分
(平坦部)を抽出し、画像信号とともに、色比較回路 30042に供給する。
[1066] 色比較回路 30042は、平坦部抽出回路 30041からの平坦部の色は、ディザが見える 色かどうかを判定する。
[1067] すなわち、色比較回路 30042は、平坦部抽出回路 30041で抽出された平坦部の色と 、空間ディザパターン ROMに記憶されたルックアップテーブルに登録されて!/、る (RG Bの値が表す)色と比較し、平坦部の色が、ルックアップテーブルに登録されている色 のうちの、後述する空間ディザパターン「なし」に対応付けられている色以外の色であ る場合には、平坦部の色は、ディザが見える色であると判定する。そして、色比較回 路 30042は、その判定結果とともに、平坦部抽出回路 30041からの画像信号を、ディ ザ付加回路 30044に供給する。
[1068] 空間ディザパターン ROM30043はルックアップテーブルを記憶して!/、る。
[1069] ここで、図 120は、空間ディザパターン ROM30043が記憶しているルックアップテー ブルを示している。
[1070] ルックアップテーブルでは、各色の RGBの値と、その RGBの値で表される色力 SPDP に表示されたときに見えやすい空間的なディザのパターンである空間ディザパターン とが対応付けられている。 [1071] なお、ルックアップテーブルにおいて、ディザが見えない色の RGBの値については
、空間ディザパターンとして、「なし」(ディザが見えない旨)が登録されている。
[1072] また、色比較回路 30042 (図 119)では、空間ディザパターン「なし」と対応付けられ ている RGBの値で表される色力 S、ディザが見える色でないと判定され、それ以外の色
1S ディザが見える色であると判定される。
[1073] 図 119に戻り、空間ディザパターン ROM30043は、その記憶しているルックアップテ 一ブルにおいて、色比較回路 30042が判定の対象とした、平坦部抽出回路 30041か らの平坦部の色を表す RGBの値に対応付けられて!/、る空間ディザパターンを、ディ ザ付加回路 30044に供給する。
[1074] ディザ付加回路 30044は、空間ディザパターン ROM30043から指定された空間ディ ザパターンが表す空間的なディザを、色比較回路 30042からの画像信号に付加する
[1075] すなわち、ディザ付加回路 30044は、色比較回路 30042から、平坦部の色はディザ が見える色である旨の判定結果が供給された場合に、色比較回路 30042からの画像 信号の、その平坦部の画像信号に、空間ディザパターン ROM30043から供給される 空間ディザパターンが表すディザを付加して、モニタ 30002に出力する。
[1076] 図 121は、図 119の画像処理部 30001が行う空間ディザ付加処理を説明するフロー チャートである。
[1077] ステップ S30041において、平坦部抽出回路 30041は、画像信号から、空間方向で 色変化の少ない部分である平坦部を抽出し、画像信号とともに、色比較回路 30042に 供給して、処理は、ステップ S30042に進む。
[1078] ステップ S30042では、色比較回路 30042が、空間ディザパターン ROM30043に記憶 されたルックアップテーブルを参照し、平坦部抽出回路 30041からの平坦部の色が P DPでディザの見える色かどうかを判定する。
[1079] ステップ S30042において、平坦部抽出回路 30041からの平坦部の色が PDPでディ ザの見える色であると判定された場合、色比較回路 30042は、その旨の判定結果と、 平坦部抽出回路 30041からの画像信号を、ディザ付加回路 30044に供給するとともに 、空間ディザパターン ROM30043が、ルックアップテーブルにおいて、色比較回路 30 042の判定の対象になった平坦部の色の RGB値と対応付けられている空間ディザパ ターンを、ディザ付加回路 30044に供給して、処理は、ステップ S30043に進む。
[1080] ステップ S30043では、ディザ付加回路 30044は、色比較回路 30042からの画像信号 の平坦部に対して、指定パターン、すなわち、空間ディザパターン ROM30043からの 空間ディザパターンが表す空間的なディザを付加して、処理は、ステップ S30044に進 む。ステップ S30044では、ディザ付加回路 30044は、ディザが付加された画像信号を
、モニタ 30002に出力する。
[1081] 一方、ステップ S30042において、平坦部抽出回路 30041からの平坦部の色が PDP でディザの見える色でないと判定された場合、色比較回路 30042は、その旨の判定 結果と、平坦部抽出回路 30041からの画像信号を、ディザ付加回路 30044に供給して
、処理は、ステップ S30045に進む。
[1082] ステップ S30045では、ディザ付加回路 30044は、色比較回路 30042からの画像信号 を、ディザを付加せずに、そのまま、モニタ 30002に出力する。
[1083] 次に、画像処理部 30001で行われる、色ズレ付加処理、空間ディザ付加処理、時間 ディザ付加処理、画素間ピッチ再現処理、又はストライプ配列再現処理のうちの、時 間ディザ付加処理(時間方向ディザ再現の処理)について説明する。
[1084] PDPパネルにおいては、色階調を稼ぐために時間方向にもディザを用いている。こ れも同様の処理をすることで再現性が高まる。
[1085] 入力画像 1フレームを、色に応じて使用するモニタの応答速度で出力可能な枚数 に分割し表示する。分割の仕方は近づけようとする PDPの時間方向を積分して得られ るディザパターンを出力する。
[1086] 図 122は、時間ディザ付加処理を行う画像処理部 30001の構成例を示している。
[1087] 色比較回路 30051は、画像処理部 30001に供給される 1フレームの画像信号の各画 素の色と、時間ディザパターン ROM30052に記憶されたルックアップテーブルに登録 されている色(を表す RGBの値)と比較することにより、画像信号の画素の色は、ディ ザが見える色かどうかを判定する。
[1088] そして、色比較回路 30051は、画像信号の色が、ルックアップテーブルに登録され ている色である場合には、その色は、ディザが見える色であると判定する。そして、色 比較回路 30051は、その判定結果とともに、 1フレームの画像信号を、ディザ付加回 路 30044に供給する。
[1089] 時間ディザパターン ROM30052は、ルックアップテーブルを記憶している。時間ディ ザパターン ROM30052が記憶して!/、るルックアップテーブルには、 PDPで表示された ときにディザが見える色(を表す RGBの値)と、その色を、複数のサブフレームで表示 するときの各サブフレームの画素値のパターンである時間ディザパターンとが対応付 けられて登録されている。
[1090] ここで、サブフレームとは、 PDPの表示で使用されるサブフィールドに相当する。
[1091] また、ここでは、上述の複数のサブフレームとは、例えば、 3枚のサブフレームとし、 モニタ 30002は、少なくとも、 1フレームの間に、 3枚のサブフレームを表示することが できる十生倉を有することとする。
[1092] 時間ディザパターン ROM30052は、その記憶して!/、るルックアップテーブルにお!/ヽ て、色比較回路 30051でディザが見えると判定された色に対応付けられている時間デ ィザパターン、すなわち、 3枚のサブフレームそれぞれの画素値のセットを表す情報 を、ディザ付加回路 30053に供給する。
[1093] ディザ付加回路 30053は、色比較回路 30051からのディザが見える旨の判定がされ た色について、色比較回路 30051からの 1フレームの画像信号を、時間ディザパター ン ROM30052から供給される時間ディザパターンが表す画素値の 3枚のサブフレーム に分割(時分割)することにより、色比較回路 30051からの 1フレームの画像信号に時 間ディザパターンを付加する。
[1094] すなわち、 1フレームの画像信号に時間ディザパターンを付加するとは、 1フレーム の画像信号を、画素ごとに、時間ディザパターンが表す画素値の複数のサブフレー ム(ここでは、 3枚のサブフレーム)に分割することを意味する。
[1095] ディザ付加回路 30053で時間ディザパターンの付加が行われることにより得られる 3 枚のサブフレームの画像信号のうちの 1つの画像信号は、出力メモリ 30054に、他の 1 つの画像信号は、出力メモリ 30055に、残りの 1つの画像信号は、出力メモリ 30056に 、それぞれ供給される。
[1096] 出力メモリ 30054ないし 30056は、それぞれ、ディザ付加回路 30053から供給される サブフレームの画像信号を記憶し、そのサブフレームを表示すべきタイミングで、モ ユタ 30002に供給する。
[1097] なお、モニタ 30002では、サブフレームが、フレーム周期の 1/3の周期等の、 1フレー ムの間に 3枚のサブフレームを表示することができる周期で表示される。
[1098] ここで、図 122では、サブフレームの画像信号を記憶するメモリとして、 3つの出カメ モリ 30054ないし 30056が設けられている力 S、サブフレームの画像信号を記憶するメモ リは、ディザ付加回路 30053で時間ディザパターンの付加が行われることにより得られ るサブフレームの枚数と同一の個数だけ必要となる。
[1099] 例えば、ディザ付加回路 30053で時間ディザパターンの付加が行われることにより 得られるサブフレームの枚数が、モニタ 30002で 1フレームの間に表示することができ る最大の枚数 (モニタ 30002の応答速度)に等しい場合、その枚数に等しい個数のメ モリが、サブフレームの画像信号を記憶するメモリとして必要となる。
[1100] 図 123は、図 122の画像処理部 30001が行う時間ディザ付加処理を説明するフロー チャートである。
[1101] 色比較回路 30051は、時間ディザパターン ROM30052に記憶されたルックアップテ 一ブルを参照し、画像処理部 30001に供給される 1フレームの画像信号の各画素の 色力 ディザが見える色かどうかを判定し、その画素ごとの判定結果とともに、その 1 フレームの画像信号を、ディザ付加回路 30053に供給する。
[1102] 一方、時間ディザパターン ROM30052では、ルックアップテーブルにお!/、て、色比 較回路 30051でディザが見えると判定された色に対応付けられている時間ディザバタ ーンを、画素ごとに、ディザ付加回路 30053に供給する。
[1103] ディザ付加回路 30053は、ステップ S30051において、色比較回路 30051からのディ ザが見える旨の判定がされた色につ!/、て、色比較回路 30051からの 1フレームの画像 信号に、時間ディザパターンを付加して、処理は、ステップ S30052に進む。
[1104] すなわち、ディザ付加回路 30053は、色比較回路 30051からの 1フレームの画像信 号の各画素の画素値を、時間ディザパターン ROM30052から供給される時間ディザ パターンが表す 3つの画素値に分割し、その 3つの画素値を、 3枚のサブフレームの 対応する画素それぞれの画素値とすることにより、 1フレームの画像信号を 3つのサ ブフレームの画像信号に分割する。そして、ディザ付加回路 30053は、その 3枚のサ ブフレームの画像信号のうちの 1つの画像信号を、出力メモリ 30054に、他の 1つの画 像信号を、出力メモリ 30055に、残りの 1つの画像信号を、出力メモリ 30056に、それぞ れ供給して記憶させる。なお、ディザが見えない色の画素については、例えば、その 画素値の 1/3を、サブフレームの画素値とすることができる。
[1105] ステップ S30052では、出力メモリ 30054ないし 30056は、ステップ S30051で記憶した サブフレームの画像信号を、そのサブフレームを表示すべきタイミングで、モニタ 300 02に出力する。
[1106] 次に、図 124は、色ズレ付加処理、空間ディザ付加処理、時間ディザ付加処理、画 素間ピッチ再現処理、及びストライプ配列再現処理のすべてを行う画像処理部 30001 の構成例を示している。
[1107] 図 124において、画像処理部 30001は、画像処理部 30060, 30070、及び 30080から 構成されている。
[1108] 画像処理部 30060は、現フレームメモリ 30061、前フレームメモリ 30062、エッジ部切り 出し回路 30063、動き検出回路 30064、及び色係数乗算回路 30065から構成される。
[1109] 現フレームメモリ 30061ないし色係数乗算回路 30065は、図 113の現フレームメモリ 3 0021ないし色係数乗算回路 30025とそれぞれ同様に構成され、したがって、画像処 理部 30060は、画像処理部 30001に供給される画像信号に対して、図 113の場合と同 様の色ズレ付加処理を施し、画像処理部 30070に供給する。
[1110] 画像処理部 30070は、色比較回路 30071、時間/空間ディザパターン ROM30072、 ディザ付加回路 30073、及び出力メモリ 30074ないし 30076から構成される。
[1111] 色比較回路 30071は、画像処理部 30060から供給される画像信号を対象として、図 119の色比較回路 30042と、図 122の色比較回路 30051それぞれと同様の処理を行
5。
[1112] 時間/空間ディザパターン ROM30072は、図 119の空間ディザパターン ROM30043 が記憶しているルックアップテーブルと、図 122の時間ディザパターン ROM30052が 記憶しているルックアップテーブルとそれぞれ同様のルックアップテーブルを記憶し ており、そのルックアップテーブルに基づき、図 119の空間ディザパターン ROM3004 3と、図 122の時間ディザパターン ROM30052それぞれと同様の処理を行う。
[1113] ディザ付加回路 30073は、図 119のディザ付加回路 30044と同様に、画像信号に、 空間ディザパターンが表す空間的なディザを付加し、また、画像信号に時間ディザ ノ ターンを付加することにより、その画像信号を、 3枚のサブフレームに分割し、それ ぞれを、出力メモリ 30074ないし 30076に供給する。
[1114] 出力メモリ 30074ないし 30076は、図 122の出力メモリ 30054ないし 30056と同様に、 ディザ付加回路 30073からのサブフレームの画像信号を記憶する。出力メモリ 30074 ないし 30076に記憶されたサブフレームの画像信号は、画像処理部 30080に供給され
[1115] 以上のように構成される画像処理部 30070では、画像処理部 30060が出力する画像 信号を対象として、図 1 19の場合と同様の空間ディザ付加処理と、図 122の場合と同 様の時間ディザ付加処理が行われる。
[1116] 画像処理部 30080は、拡大処理回路 30081、ストライプ化回路 30082、及び画素間 輝度減回路 30083から構成される。
[1117] 拡大処理回路 30081は、画像処理部 30070からの画像信号を対象として、図 116の 拡大処理回路 30031と同様の処理を行い、ストライプ化回路 30082に供給する。
[1118] ストライプ化回路 30082は、拡大処理回路 30081からの画像信号を対象として、図 1
09の拡大ストライプ化回路 30011が行う処理のうちの、ストライプ配列に分解する処理 だけを行い、画素間輝度減回路 30083に供給する。
[1119] したがって、拡大処理回路 30081及びストライプ化回路 30082の両方で、図 109の 拡大ストライプ化回路 30011が行うのと同様の処理が行われる。
[1120] 画素間輝度減回路 30083は、ストライプ化回路 30082からの画像信号を対象として、 図 116の画素間輝度減回路 30032が行うのと同様の処理を行い、その結果得られる 画像信号を、モニタ 30002に出力する。
[1121] したがって、画像処理部 30080では、図 116の場合と同様のストライプ配列再現処 理と、図 119の場合と同様の画素間ピッチ再現処理とが行われる。
[1122] なお、画像処理部 30080において、ストライプ配列再現処理、及び画素間ピッチ再 現処理は、画像処理部 30070から供給される 3つのサブフレームの画像信号それぞ れを対象として行われる。
[1123] 図 125は、図 124の画像処理部 30001の処理を説明するフローチャートである。
[1124] ステップ S30061において、時間方向を伴う処理が行われる。すなわち、ステップ S30
061では、画像処理部 30060において、色ズレ付加処理が行われ、画像処理部 30070 において、空間ディザ付加処理、及び時間ディザ付加処理が行われる。
[1125] そして、処理は、ステップ S30061からステップ S30062に進み、サイズ拡大を伴う処理 が行われる。すなわち、ステップ S30062では、画像処理部 30080において、画素間ピ ツチ再現処理、及びストライプ配列再現処理が行われる。
[1126] 以上のように、画像処理部 30001では、色ズレ付加処理、空間ディザ付加処理、時 間ディザ付加処理、画素間ピッチ再現処理、又はストライプ配列再現処理のうちの少 なくとも 1つを行うので、 PDP以外の、例えば、 LCD等のディスプレイで、 PDPの見た目 を再現する事が信号処理により可能となる。
[1127] また、信号処理で行う事で、同一モニタの同一画面上でプラズマディスプレイの画 質評価などを同時に行う事を可能とする。
[1128] 次に、上述した一連の処理は、専用のハードウェアにより行うこともできるし、ソフトゥ エアにより行うこともできる。一連の処理をソフトウェアによって行う場合には、そのソフ トウエアを構成するプログラム力 汎用のコンピュータ等にインストールされる。
[1129] そこで、図 126は、上述した一連の処理を実行するプログラムがインストールされる コンピュータの一実施の形態の構成例を示している。
[1130] プログラムは、コンピュータに内蔵されている記録媒体としてのハードディスク 30105 や ROM30103に予め記録しておくことができる。
[1131] あるいはまた、プログラムは、フレキシブルディスク、 CD-ROM(Compact Disc Read
Only Memory), MO(Magneto Optical)ディスク, DVD(Digital Versatile Disc),磁気デ イスク、半導体メモリなどのリムーバブル記録媒体 30111に、一時的あるいは永続的に 格納(記録)しておくことができる。このようなリムーバブル記録媒体 30111は、いわゆ るノ ンケージソフトウェアとして提供すること力 Sできる。
[1132] なお、プログラムは、上述したようなリムーバブル記録媒体 30111からコンピュータに インストールする他、ダウンロードサイトから、ディジタル衛星放送用の人工衛星を介 して、コンピュータに無線で転送したり、 LAN(Local Area Network),インターネットと いったネットワークを介して、コンピュータに有線で転送し、コンピュータでは、そのよ うにして転送されてくるプログラムを、通信部 30108で受信し、内蔵するハードディスク 30105にインストールすることができる。
[1133] コンピュータは、 CPU(Central Processing Unit)30102を内蔵している。 CPU30102に は、バス 30101を介して、入出力インタフェース 30110が接続されており、 CPU30102は 、入出力インタフェース 30110を介して、ユーザによって、キーボードや、マウス、マイ ク等で構成される入力部 30107が操作等されることにより指令が入力されると、それに したがって、 ROM(Read Only Memory)30103に格納されているプログラムを実行する 。あるいは、また、 CPU30102は、ハードディスク 30105に格納されているプログラム、 衛星若しくはネットワークから転送され、通信部 30108で受信されてハードディスク 301 05にインストールされたプログラム、またはドライブ 30109に装着されたリムーバブル記 録媒体 30111から読み出されてハードディスク 30105にインストールされたプログラム を、 RAM(Random Access Memory)30104にロードして実行する。これにより、 CPU301 02は、上述したフローチャートにしたがった処理、あるいは上述したブロック図の構成 により行われる処理を行う。そして、 CPU30102は、その処理結果を、必要に応じて、 例えば、入出力インタフェース 30110を介して、 LCD(Liquid Crystal Display)ゃスピー 力等で構成される出力部 30106から出力、あるいは、通信部 30108から送信、さらには 、ハードディスク 30105に記録等させる。
[1134] ここで、本明細書において、コンピュータに各種の処理を行わせるためのプログラム を記述する処理ステップは、必ずしもフローチャートとして記載された順序に沿って時 系列に処理する必要はなぐ並列的あるいは個別に実行される処理 (例えば、並列 処理あるいはオブジェクトによる処理)も含むものである。
[1135] また、プログラムは、 1のコンピュータにより処理されるものであっても良いし、複数の コンピュータによって分散処理されるものであっても良い。さらに、プログラムは、遠方 のコンピュータに転送されて実行されるものであっても良い。
[1136] なお、本発明の実施の形態は、上述した実施の形態に限定されるものではなぐ本 発明の要旨を逸脱しなレヽ範囲におレヽて種々の変更が可能である。

Claims

請求の範囲
[1] 画像の表示を制御する表示制御装置にお!/、て、
入力画像データを対象として、所定の信号処理を行う信号処理手段と、 前記入力画像データの画素数より多い画素数の画面を有する表示装置の前記画 面の一部の表示領域に、前記入力画像データに対応する画像を表示させるとともに 、前記画面の他の一部の表示領域に、前記所定の信号処理によって得られる処理 後画像データに対応する画像を表示させる表示制御手段と
を備える表示制御装置。
[2] 前記信号処理手段は、前記表示装置と異なる表示特性を有する他の表示装置で 表示される、前記入力画像データに対応する画像に相当する画像を前記表示装置 に表示させる画像データを、前記処理後画像データとして生成する信号処理を行う 請求項 1に記載の表示制御装置。
[3] 前記他の表示装置は、 PDP(Plasma Display Panel),又は CRT(Cathode Ray Tube) で画像を表示する装置である
請求項 2に記載の表示制御装置。
[4] 前記信号処理手段は、他の表示装置が画像を表示するときに前記入力画像デー タに施す処理に相当する信号処理を行う
請求項 1に記載の表示制御装置。
[5] 前記信号処理手段は、前記他の表示装置が画像を表示するときに前記入力画像 データに施す、画像の一部を強調するェンノヽンス処理、適応的なガンマ補正を行う 適応ガンマ補正処理、又は、高フレームレートの画像データを生成する高フレームレ ート処理に相当する信号処理を行う
請求項 4に記載の表示制御装置。
[6] 前記信号処理手段は、他の表示装置が行う、画像を拡大する処理、又は、フレーム を補間する処理に相当する信号処理を行う
請求項 1に記載の表示制御装置。
[7] 画像の表示を制御する表示制御方法にお!/、て、
入力画像データを対象として、所定の信号処理を行い、 前記入力画像データの画素数より多い画素数の画面を有する表示装置の前記画 面の一部の表示領域に、前記入力画像データに対応する画像を表示させるとともに 、前記画面の他の一部の表示領域に、前記所定の信号処理によって得られる処理 後画像データに対応する画像を表示させる
ステップを含む表示制御方法。
[8] 画像の表示を制御する表示制御処理を、コンピュータに実行させるプログラムにお いて、
入力画像データを対象として、所定の信号処理を行い、
前記入力画像データの画素数より多い画素数の画面を有する表示装置の前記画 面の一部の表示領域に、前記入力画像データに対応する画像を表示させるとともに 、前記画面の他の一部の表示領域に、前記所定の信号処理によって得られる処理 後画像データに対応する画像を表示させる
ステップを含む表示制御処理を、コンピュータに実行させるプログラム。
PCT/JP2007/074259 2006-12-18 2007-12-18 表示制御装置、表示制御方法、及びプログラム WO2008075657A1 (ja)

Priority Applications (6)

Application Number Priority Date Filing Date Title
AU2007335486A AU2007335486B2 (en) 2006-12-18 2007-12-18 Display control apparatus, display control method, and program
CN2007800466052A CN101563725B (zh) 2006-12-18 2007-12-18 显示控制设备和显示控制方法
US12/517,558 US20100026722A1 (en) 2006-12-18 2007-12-18 Display control apparatus display control method, and program
IN2592CHN2009 IN2009CN02592A (ja) 2006-12-18 2007-12-18
BRPI0720516-3A BRPI0720516A2 (pt) 2006-12-18 2007-12-18 Aparelho e método de controle de exibição para controlar a exibição de uma imagem, e, programa para fazer com que um computador execute um processo de controle de exibição
EP07850747A EP2101313A4 (en) 2006-12-18 2007-12-18 DISPLAY CONTROL DEVICE, DISPLAY CONTROL METHOD, AND PROGRAM

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2006340080 2006-12-18
JP2006-340080 2006-12-18
JP2007-288456 2007-11-06
JP2007288456A JP2008178075A (ja) 2006-12-18 2007-11-06 表示制御装置、表示制御方法、及びプログラム

Publications (1)

Publication Number Publication Date
WO2008075657A1 true WO2008075657A1 (ja) 2008-06-26

Family

ID=39536287

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2007/074259 WO2008075657A1 (ja) 2006-12-18 2007-12-18 表示制御装置、表示制御方法、及びプログラム

Country Status (11)

Country Link
US (1) US20100026722A1 (ja)
EP (1) EP2101313A4 (ja)
JP (1) JP2008178075A (ja)
KR (1) KR20090090346A (ja)
CN (1) CN101563725B (ja)
AU (1) AU2007335486B2 (ja)
BR (1) BRPI0720516A2 (ja)
IN (1) IN2009CN02592A (ja)
RU (1) RU2450366C2 (ja)
TW (1) TWI385636B (ja)
WO (1) WO2008075657A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010185988A (ja) * 2009-02-11 2010-08-26 Nanao Corp 表示ムラの再現方法、画像表示システム、表示装置、コンピュータプログラム及び記録媒体

Families Citing this family (62)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7738712B2 (en) * 2006-01-04 2010-06-15 Aten International Co., Ltd. Mixing 2-D gradient-difference and interpolation/decimation method and device for scaling a digital image
JP4835949B2 (ja) * 2007-12-21 2011-12-14 ソニー株式会社 画像処理装置および方法、学習装置および方法、プログラム、並びに記録媒体
TWI410119B (zh) * 2008-11-18 2013-09-21 Innolux Corp 應用3d對照表以進行四面體內插之色彩管理系統及其方法
US8071943B2 (en) * 2009-02-04 2011-12-06 Advantest Corp. Mask inspection apparatus and image creation method
US20120223881A1 (en) * 2009-11-11 2012-09-06 Sharp Kabushiki Kaisha Display device, display control circuit, and display control method
KR102031848B1 (ko) * 2010-01-20 2019-10-14 가부시키가이샤 한도오따이 에네루기 켄큐쇼 전자 기기 및 전자 시스템
US8654250B2 (en) * 2010-03-30 2014-02-18 Sony Corporation Deriving visual rhythm from video signals
US20130016138A1 (en) * 2010-04-09 2013-01-17 Sharp Kabushiki Kaisha Display panel driving method, display device driving circuit, and display device
CN102860026A (zh) * 2010-04-23 2013-01-02 Nec显示器解决方案株式会社 显示装置、显示系统、显示方法以及程序
US9053562B1 (en) 2010-06-24 2015-06-09 Gregory S. Rabin Two dimensional to three dimensional moving image converter
JP5398667B2 (ja) * 2010-08-23 2014-01-29 株式会社東芝 画像処理装置
KR20120058763A (ko) * 2010-11-30 2012-06-08 삼성전자주식회사 영상 장치에서 영상 데이터를 송신하기 위한 장치 및 방법
US8963800B2 (en) * 2011-02-10 2015-02-24 Sharp Kabushiki Kaisha Multi-display device and image display device
US20130066452A1 (en) * 2011-09-08 2013-03-14 Yoshiyuki Kobayashi Information processing device, estimator generating method and program
KR20140063774A (ko) 2011-09-09 2014-05-27 파나몰프, 인코포레이티드 이미지 처리 시스템 및 방법
US9013502B2 (en) * 2011-12-29 2015-04-21 Tektronix, Inc. Method of viewing virtual display outputs
JP2015518350A (ja) * 2012-04-24 2015-06-25 ヴィド スケール インコーポレイテッド Mpeg/3gpp−dashにおける滑らかなストリーム切り換えのための方法および装置
BR112015001555A2 (pt) 2012-07-26 2017-07-04 Olive Medical Corp vídeo contínuo em ambiente com deficiência de luz
KR102127100B1 (ko) 2012-07-26 2020-06-29 디퍼이 신테스 프로덕츠, 인코포레이티드 광 부족 환경에서 ycbcr 펄싱된 조명 수법
US20140028726A1 (en) * 2012-07-30 2014-01-30 Nvidia Corporation Wireless data transfer based spanning, extending and/or cloning of display data across a plurality of computing devices
US9143823B2 (en) 2012-10-01 2015-09-22 Google Inc. Providing suggestions for optimizing videos to video owners
EP2967294B1 (en) 2013-03-15 2020-07-29 DePuy Synthes Products, Inc. Super resolution and color motion artifact correction in a pulsed color imaging system
WO2014145249A1 (en) 2013-03-15 2014-09-18 Olive Medical Corporation Controlling the integral light energy of a laser pulse
EP2967301B1 (en) 2013-03-15 2021-11-03 DePuy Synthes Products, Inc. Scope sensing in a light controlled environment
US9531992B2 (en) * 2013-03-26 2016-12-27 Sharp Kabushiki Kaisha Display apparatus, portable terminal, television receiver, display method, program, and recording medium
KR102025184B1 (ko) * 2013-07-31 2019-09-25 엘지디스플레이 주식회사 데이터 변환 장치 및 이를 이용한 디스플레이 장치
JP2015088828A (ja) * 2013-10-29 2015-05-07 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム
US9349160B1 (en) * 2013-12-20 2016-05-24 Google Inc. Method, apparatus and system for enhancing a display of video data
KR102185249B1 (ko) * 2014-01-20 2020-12-02 삼성디스플레이 주식회사 표시 장치 및 그 구동 방법
US9930349B2 (en) * 2014-02-20 2018-03-27 Konica Minolta Laboratory U.S.A., Inc. Image processing to retain small color/gray differences
KR20150100998A (ko) * 2014-02-24 2015-09-03 삼성디스플레이 주식회사 영상처리장치 및 영상처리방법
JP6573960B2 (ja) 2014-03-21 2019-09-11 デピュイ・シンセス・プロダクツ・インコーポレイテッド イメージングセンサ用のカードエッジコネクタ
KR102391860B1 (ko) * 2014-05-09 2022-04-29 소니그룹주식회사 정보 처리 시스템 및 정보 처리 방법
JP6078038B2 (ja) * 2014-10-31 2017-02-08 株式会社Pfu 画像処理装置、画像処理方法、および、プログラム
US9401107B2 (en) * 2014-12-31 2016-07-26 Shenzhen China Star Optoelectronics Technology Co., Ltd. Image data processing method and device thereof
WO2016110943A1 (ja) * 2015-01-06 2016-07-14 日立マクセル株式会社 映像表示装置、映像表示方法、及び映像表示システム
JP6597041B2 (ja) * 2015-08-18 2019-10-30 富士ゼロックス株式会社 サーバー装置及び情報処理システム
CN105072430B (zh) * 2015-08-19 2017-10-03 海信集团有限公司 一种调整投影图像的方法和设备
CN105611213A (zh) * 2016-01-04 2016-05-25 京东方科技集团股份有限公司 一种图像处理方法、播放方法及相关的装置和系统
KR102468329B1 (ko) * 2016-01-22 2022-11-18 삼성디스플레이 주식회사 액정 표시 장치 및 이의 구동 방법
US10448912B2 (en) * 2016-04-06 2019-10-22 Canon Medical Systems Corporation Image processing apparatus
KR102208872B1 (ko) * 2016-08-26 2021-01-28 삼성전자주식회사 디스플레이 장치 및 그 구동 방법
CN106205460B (zh) * 2016-09-29 2018-11-23 京东方科技集团股份有限公司 显示装置的驱动方法、时序控制器和显示装置
US10395584B2 (en) * 2016-11-22 2019-08-27 Planar Systems, Inc. Intensity scaled dithering pulse width modulation
CN110476427A (zh) * 2017-03-24 2019-11-19 索尼公司 编码装置和编码方法以及解码装置和解码方法
US10269279B2 (en) * 2017-03-24 2019-04-23 Misapplied Sciences, Inc. Display system and method for delivering multi-view content
KR102390476B1 (ko) * 2017-08-03 2022-04-25 엘지디스플레이 주식회사 유기발광 표시장치 및 유기발광 표시장치의 데이터 처리방법
KR102442449B1 (ko) * 2017-09-01 2022-09-14 삼성전자주식회사 영상 처리 장치, 영상 처리 방법 및 컴퓨터 판독가능 기록 매체
CN109493809B (zh) * 2017-09-12 2021-01-01 纬创资通(中山)有限公司 显示装置以及背光驱动方法
JP2019090858A (ja) * 2017-11-10 2019-06-13 キヤノン株式会社 表示装置、表示制御装置及び表示制御方法
JP7058800B2 (ja) * 2019-04-12 2022-04-22 三菱電機株式会社 表示制御装置、表示制御方法、及び表示制御プログラム
KR20210014260A (ko) * 2019-07-29 2021-02-09 삼성디스플레이 주식회사 영상 보정부를 포함하는 표시장치
CN110572595B (zh) * 2019-08-28 2022-08-30 深圳Tcl数字技术有限公司 激光电视的调整方法、激光电视及可读存储介质
CN110674433B (zh) * 2019-09-25 2022-05-06 博锐尚格科技股份有限公司 一种图表显示方法、存储介质及电子设备
US11357087B2 (en) * 2020-07-02 2022-06-07 Solomon Systech (Shenzhen) Limited Method for driving a passive matrix LED display
CN114205658A (zh) * 2020-08-27 2022-03-18 西安诺瓦星云科技股份有限公司 图像显示方法、装置、系统以及计算机可读存储介质
US11508273B2 (en) * 2020-11-12 2022-11-22 Synaptics Incorporated Built-in test of a display driver
CN112817548B (zh) * 2021-01-28 2022-08-12 浙江大华技术股份有限公司 电子设备、显示控制方法、显示方法、装置和存储介质
CN112985616B (zh) * 2021-05-06 2021-10-22 北京泽声科技有限公司 一种具有多种配置方案的人体红外线感应信号处理系统
CN113314085B (zh) * 2021-06-15 2022-09-27 武汉华星光电技术有限公司 显示面板的显示方法及显示装置
US20230338841A1 (en) * 2022-04-26 2023-10-26 Sony Interactive Entertainment Inc. Foveated enhancement of non-xr games within a hmd system
CN116684687B (zh) * 2023-08-01 2023-10-24 蓝舰信息科技南京有限公司 基于数字孪生技术的增强可视化教学方法

Citations (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS61167280A (ja) 1985-01-19 1986-07-28 Sony Corp テレビ受像機における速度変調回路の制御回路
JPH0795591A (ja) 1993-09-21 1995-04-07 Sony Corp ディジタル画像信号処理装置
JPH0823460A (ja) 1994-07-11 1996-01-23 Fujitsu General Ltd ダイナミックガンマ補正回路
JPH0876741A (ja) * 1994-09-02 1996-03-22 Konica Corp 画像表示装置
JPH08163582A (ja) 1994-11-30 1996-06-21 Sony Corp カラーブラウン管色温度設定装置
JPH11231827A (ja) * 1997-07-24 1999-08-27 Matsushita Electric Ind Co Ltd 画像表示装置及び画像評価装置
JP2000039864A (ja) 1998-07-24 2000-02-08 Matsushita Electric Ind Co Ltd 動画像表示方法及び動画像表示装置
WO2000010324A1 (fr) 1998-08-14 2000-02-24 Sony Corporation Circuit modulateur de vitesse d'exploration pour dispositif de visualisation d'image
JP2000310987A (ja) * 1999-04-28 2000-11-07 Mitsubishi Electric Corp 画像表示装置
JP2001136548A (ja) 1999-11-08 2001-05-18 Ddi Corp 画像の客観評価用モニタ装置
JP2002223167A (ja) 2001-01-25 2002-08-09 Sony Corp データ処理装置およびデータ処理方法、並びにプログラムおよび記録媒体
JP2002232905A (ja) 2001-01-30 2002-08-16 Sony Corp 色度変換装置および色度変換方法、表示装置および表示方法、記録媒体、並びにプログラム
JP2002354290A (ja) 2001-05-28 2002-12-06 Nec Viewtechnology Ltd ガンマ補正回路
JP2004039300A (ja) 2002-06-28 2004-02-05 Sony Corp 陰極線管用電子銃及び陰極線管
JP2004138783A (ja) 2002-10-17 2004-05-13 Matsushita Electric Ind Co Ltd 画像表示装置
JP2005039817A (ja) 2003-07-15 2005-02-10 Samsung Electronics Co Ltd 画質改善装置およびその方法
JP2005229245A (ja) 2004-02-12 2005-08-25 Matsushita Electric Ind Co Ltd 映像信号処理装置
JP2005236634A (ja) 2004-02-19 2005-09-02 Sony Corp 画像処理装置および画像処理方法、プログラム、並びに記録媒体

Family Cites Families (34)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR2549671B1 (fr) * 1983-07-22 1987-05-22 Thomson Csf Dispositif d'affichage d'une image de television de grandes dimensions et recepteur de television comportant un tel dispositif
US5012333A (en) * 1989-01-05 1991-04-30 Eastman Kodak Company Interactive dynamic range adjustment system for printing digital images
JP3152396B2 (ja) * 1990-09-04 2001-04-03 株式会社東芝 医用画像表示装置
DE4418782C2 (de) * 1993-05-21 1997-01-09 Mitsubishi Electric Corp System und Verfahren zum Einstellen eines Farbbildes
US5515488A (en) * 1994-08-30 1996-05-07 Xerox Corporation Method and apparatus for concurrent graphical visualization of a database search and its search history
US5982953A (en) * 1994-09-02 1999-11-09 Konica Corporation Image displaying apparatus of a processed image from temporally sequential images
US5940089A (en) * 1995-11-13 1999-08-17 Ati Technologies Method and apparatus for displaying multiple windows on a display monitor
JP3344197B2 (ja) * 1996-03-08 2002-11-11 株式会社日立製作所 映像信号の処理装置及びこれを用いた表示装置
US6525734B2 (en) * 1996-09-17 2003-02-25 Fujitsu Limited Display control apparatus, display control method and computer program product
JP3586351B2 (ja) * 1997-03-21 2004-11-10 インターナショナル・ビジネス・マシーンズ・コーポレーション ウインドウ表示装置および方法、並びにウインドウ表示制御プログラムを記録した記録媒体
US6005636A (en) * 1997-03-27 1999-12-21 Sharp Laboratories Of America, Inc. System for setting user-adjustable image processing parameters in a video system
US6809776B1 (en) * 1997-04-23 2004-10-26 Thomson Licensing S.A. Control of video level by region and content of information displayed
EP0891075A3 (en) * 1997-06-09 2002-03-06 Seiko Epson Corporation An image processing apparatus and method, and an image evaluation device and method
EP0893916B1 (en) * 1997-07-24 2004-04-07 Matsushita Electric Industrial Co., Ltd. Image display apparatus and image evaluation apparatus
JP3582382B2 (ja) * 1998-11-13 2004-10-27 株式会社日立製作所 マルチディスプレイ装置の表示制御装置、表示装置及びマルチディスプレイ装置
JP2000338941A (ja) * 1999-05-27 2000-12-08 Seiko Epson Corp 投射型表示装置
JP4114279B2 (ja) * 1999-06-25 2008-07-09 コニカミノルタビジネステクノロジーズ株式会社 画像処理装置
JP2001202053A (ja) * 1999-11-09 2001-07-27 Matsushita Electric Ind Co Ltd 表示装置及び情報携帯端末
JP3526019B2 (ja) * 1999-11-30 2004-05-10 インターナショナル・ビジネス・マシーンズ・コーポレーション 画像表示システム、画像表示装置、および画像表示方法
JP4920834B2 (ja) * 2000-06-26 2012-04-18 キヤノン株式会社 画像表示装置、及び画像表示装置の駆動方法
US6985637B1 (en) * 2000-11-10 2006-01-10 Eastman Kodak Company Method and apparatus of enhancing a digital image using multiple selected digital images
JP2002354367A (ja) * 2001-05-25 2002-12-06 Canon Inc マルチ画面表示装置、マルチ画面表示方法、記録媒体、及びプログラム
JP3927995B2 (ja) * 2001-12-27 2007-06-13 ソニー株式会社 画像表示制御装置と画像表示制御方法及び撮像装置
JP2003319933A (ja) * 2002-05-01 2003-11-11 Fuji Photo Film Co Ltd 画像表示システム
JP4032355B2 (ja) * 2003-03-27 2008-01-16 カシオ計算機株式会社 表示処理装置、表示制御方法および表示処理プログラム
JP4369151B2 (ja) * 2003-03-31 2009-11-18 セイコーエプソン株式会社 画像処理装置および画像処理方法並びにこれらに用いるプログラム
US7034776B1 (en) * 2003-04-08 2006-04-25 Microsoft Corporation Video division detection methods and systems
NO20031586L (no) * 2003-04-08 2004-10-11 Favourite Systems As Vindussystem for datainnretning
US7777691B1 (en) * 2004-03-05 2010-08-17 Rockwell Collins, Inc. System and method for driving multiple tiled displays from a single digital video source
WO2005088602A1 (ja) * 2004-03-10 2005-09-22 Matsushita Electric Industrial Co., Ltd. 画像伝送システムおよび画像伝送方法
JP4281593B2 (ja) * 2004-03-24 2009-06-17 セイコーエプソン株式会社 プロジェクタの制御
US7487118B2 (en) * 2005-05-06 2009-02-03 Crutchfield Corporation System and method of image display simulation
US7882442B2 (en) * 2007-01-05 2011-02-01 Eastman Kodak Company Multi-frame display system with perspective based image arrangement
TW200915217A (en) * 2007-09-20 2009-04-01 Awind Inc Method for detecting and replaying an image region of computer picture

Patent Citations (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0584706B2 (ja) 1985-01-19 1993-12-02 Sony Corp
JPS61167280A (ja) 1985-01-19 1986-07-28 Sony Corp テレビ受像機における速度変調回路の制御回路
JP3271101B2 (ja) 1993-09-21 2002-04-02 ソニー株式会社 ディジタル画像信号処理装置および処理方法
JPH0795591A (ja) 1993-09-21 1995-04-07 Sony Corp ディジタル画像信号処理装置
JPH0823460A (ja) 1994-07-11 1996-01-23 Fujitsu General Ltd ダイナミックガンマ補正回路
JPH0876741A (ja) * 1994-09-02 1996-03-22 Konica Corp 画像表示装置
JPH08163582A (ja) 1994-11-30 1996-06-21 Sony Corp カラーブラウン管色温度設定装置
JPH11231827A (ja) * 1997-07-24 1999-08-27 Matsushita Electric Ind Co Ltd 画像表示装置及び画像評価装置
JP2000039864A (ja) 1998-07-24 2000-02-08 Matsushita Electric Ind Co Ltd 動画像表示方法及び動画像表示装置
WO2000010324A1 (fr) 1998-08-14 2000-02-24 Sony Corporation Circuit modulateur de vitesse d'exploration pour dispositif de visualisation d'image
JP2000310987A (ja) * 1999-04-28 2000-11-07 Mitsubishi Electric Corp 画像表示装置
JP2001136548A (ja) 1999-11-08 2001-05-18 Ddi Corp 画像の客観評価用モニタ装置
JP2002223167A (ja) 2001-01-25 2002-08-09 Sony Corp データ処理装置およびデータ処理方法、並びにプログラムおよび記録媒体
JP2002232905A (ja) 2001-01-30 2002-08-16 Sony Corp 色度変換装置および色度変換方法、表示装置および表示方法、記録媒体、並びにプログラム
JP2002354290A (ja) 2001-05-28 2002-12-06 Nec Viewtechnology Ltd ガンマ補正回路
JP2004039300A (ja) 2002-06-28 2004-02-05 Sony Corp 陰極線管用電子銃及び陰極線管
JP2004138783A (ja) 2002-10-17 2004-05-13 Matsushita Electric Ind Co Ltd 画像表示装置
JP2005039817A (ja) 2003-07-15 2005-02-10 Samsung Electronics Co Ltd 画質改善装置およびその方法
JP2005229245A (ja) 2004-02-12 2005-08-25 Matsushita Electric Ind Co Ltd 映像信号処理装置
JP2005236634A (ja) 2004-02-19 2005-09-02 Sony Corp 画像処理装置および画像処理方法、プログラム、並びに記録媒体

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP2101313A4

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010185988A (ja) * 2009-02-11 2010-08-26 Nanao Corp 表示ムラの再現方法、画像表示システム、表示装置、コンピュータプログラム及び記録媒体

Also Published As

Publication number Publication date
RU2450366C2 (ru) 2012-05-10
EP2101313A1 (en) 2009-09-16
TWI385636B (zh) 2013-02-11
IN2009CN02592A (ja) 2015-08-07
JP2008178075A (ja) 2008-07-31
CN101563725A (zh) 2009-10-21
TW200844975A (en) 2008-11-16
US20100026722A1 (en) 2010-02-04
CN101563725B (zh) 2013-01-23
BRPI0720516A2 (pt) 2013-12-31
KR20090090346A (ko) 2009-08-25
AU2007335486B2 (en) 2012-12-20
EP2101313A4 (en) 2010-12-29
RU2009123156A (ru) 2010-12-27
AU2007335486A1 (en) 2008-06-26

Similar Documents

Publication Publication Date Title
WO2008075657A1 (ja) 表示制御装置、表示制御方法、及びプログラム
US6456302B2 (en) Image display apparatus and image evaluation apparatus
EP0947976B1 (en) Motion pixel distortion reduction for a digital display device using pulse number equalization
JP4064268B2 (ja) サブフィールド法を用いた表示装置及び表示方法
JP2004133467A (ja) パルス数変調方式デジタルディスプレイパネルにおける擬似輪郭減少のための方法及び装置
CN102054424B (zh) 图像处理装置及图像处理方法
US8363071B2 (en) Image processing device, image processing method, and program
KR100799893B1 (ko) 서브-필드들에서 영상을 디스플레이하기 위한 방법 및 유닛
AU2007335487B2 (en) Image signal processing device, image signal processing method, and program
KR100472483B1 (ko) 의사 윤곽 제거 방법 및 이에 적합한 장치
WO2008075660A1 (ja) 画像信号処理装置
JP2000352954A (ja) 表示装置に表示するためにビデオ画像を処理する方法及び装置
JP2002123211A (ja) ビデオ画像を処理する方法及び装置
JP2002333858A (ja) 画像表示装置および画像再生方法
JP5110358B2 (ja) 画像信号処理装置、画像信号処理方法、及びプログラム
JP2004514176A (ja) ビデオピクチャ処理方法及び装置
JP3593799B2 (ja) 複数画面表示装置の誤差拡散回路
JP2001042819A (ja) 階調表示方法、及び階調表示装置
JP2008209427A (ja) 画像信号処理装置

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 200780046605.2

Country of ref document: CN

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 07850747

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 2592/CHENP/2009

Country of ref document: IN

WWE Wipo information: entry into national phase

Ref document number: 2007335486

Country of ref document: AU

WWE Wipo information: entry into national phase

Ref document number: 12517558

Country of ref document: US

ENP Entry into the national phase

Ref document number: 2007335486

Country of ref document: AU

Date of ref document: 20071218

Kind code of ref document: A

WWE Wipo information: entry into national phase

Ref document number: 2007850747

Country of ref document: EP

ENP Entry into the national phase

Ref document number: 2009123156

Country of ref document: RU

Kind code of ref document: A

WWE Wipo information: entry into national phase

Ref document number: 1020097012590

Country of ref document: KR

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: PI0720516

Country of ref document: BR

Kind code of ref document: A2

Effective date: 20090618