WO2001097510A1 - Image processing system, image processing method, program, and recording medium - Google Patents

Image processing system, image processing method, program, and recording medium Download PDF

Info

Publication number
WO2001097510A1
WO2001097510A1 PCT/JP2001/005117 JP0105117W WO0197510A1 WO 2001097510 A1 WO2001097510 A1 WO 2001097510A1 JP 0105117 W JP0105117 W JP 0105117W WO 0197510 A1 WO0197510 A1 WO 0197510A1
Authority
WO
WIPO (PCT)
Prior art keywords
image signal
image
pixel
signal
pixels
Prior art date
Application number
PCT/JP2001/005117
Other languages
French (fr)
Japanese (ja)
Inventor
Tetsujiro Kondo
Yasunobu Node
Katsuhisa Shinmei
Original Assignee
Sony Corporation
Shiraki, Hisakazu
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from JP2000179342A external-priority patent/JP4470282B2/en
Priority claimed from JP2000179341A external-priority patent/JP4407015B2/en
Application filed by Sony Corporation, Shiraki, Hisakazu filed Critical Sony Corporation
Priority to US10/049,553 priority Critical patent/US7085318B2/en
Publication of WO2001097510A1 publication Critical patent/WO2001097510A1/en

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/14Picture signal circuitry for video frequency region
    • H04N5/21Circuitry for suppressing or minimising disturbance, e.g. moiré or halo
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/20Image enhancement or restoration using local operators
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/117Filters, e.g. for pre-processing or post-processing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/40Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using video transcoding, i.e. partial or full decoding of a coded input stream followed by re-encoding of the decoded output stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/59Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial sub-sampling or interpolation, e.g. alteration of picture size or resolution
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/85Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/91Television signal processing therefor
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/01Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level
    • H04N7/0125Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level one of the standards being a high definition standard
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/14Picture signal circuitry for video frequency region
    • H04N5/21Circuitry for suppressing or minimising disturbance, e.g. moiré or halo
    • H04N5/213Circuitry for suppressing or minimising impulsive noise
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/01Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level
    • H04N7/0135Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level involving interpolation processes
    • H04N7/0137Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level involving interpolation processes dependent on presence/absence of motion, e.g. of motion zones
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/01Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level
    • H04N7/0135Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level involving interpolation processes
    • H04N7/014Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level involving interpolation processes involving the use of motion vectors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/01Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level
    • H04N7/0135Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level involving interpolation processes
    • H04N7/0145Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level involving interpolation processes the interpolation being class adaptive, i.e. it uses the information of class which is determined for a pixel based upon certain characteristics of the neighbouring pixels

Definitions

  • Image processing apparatus image processing method, program, and recording medium
  • the present invention is applicable to, for example, a noise elimination device and a noise elimination method for removing noise of an image signal, and an image conversion device and an image conversion method for converting an input image signal into an image signal having a higher resolution.
  • the present invention relates to an image processing device, an image processing method, a program, and a recording medium. Background art
  • FIG. 1 shows a configuration in which image signals are accumulated with time, which is a configuration known as a motion adaptive recursive filter.
  • the input image signal is supplied to an addition circuit 2 through an amplifier 1 that performs amplitude adjustment for each pixel.
  • the frame memory 3 stores the output image signal of the frame immediately before (current frame) the current frame (current frame of the input image signal (hereinafter, current frame)). I have.
  • the image signal stored in the frame memory 3 is sequentially read out for each pixel corresponding to each pixel position of the input image signal, and is supplied to the addition circuit 2 through the amplifier 4 that performs amplitude adjustment.
  • the addition circuit 1 adds the pixel of the current frame passed through the pump 1 and the pixel of the previous frame passed through the amplifier 4, outputs the added output as an output image signal, and supplies it to the frame memory 3.
  • the stored image signal is rewritten to the output image signal of the addition circuit 1.
  • the input image signal of the current frame is also supplied to the subtraction circuit 5 for each pixel. Further, the image signal of the previous frame stored in the frame memory 3 is sequentially read out for each pixel corresponding to each pixel position of the input image signal and supplied to the subtraction circuit 5.
  • the subtraction circuit 5 outputs the difference between the pixel value of the current frame at the same pixel position on the image and the pixel value of the previous frame.
  • the difference output from the subtraction circuit 5 is supplied to an absolute value conversion circuit 6, converted into an absolute value, and then supplied to a threshold value processing circuit 7.
  • the threshold value processing circuit 7 compares the absolute value of the pixel difference supplied thereto with a predetermined threshold value, and determines whether the pixel is a moving part or a stationary part for each pixel. That is, when the absolute value of the pixel difference is smaller than the threshold value, the threshold value processing circuit 7 determines that the input pixel is a stationary portion, and when the absolute value of the pixel difference is larger than the threshold value, the input pixel is Judge as a moving part.
  • the result of the static motion determination in the threshold value processing circuit ⁇ is supplied to the weight coefficient generation circuit 8.
  • the weighting coefficient generation circuit 8 sets the value of the weighting coefficient k (0 ⁇ k ⁇ 1) according to the result of the static / dynamic determination in the threshold processing circuit 7, supplies the coefficient k to the amplifier 1, and
  • the coefficient 1 k is supplied to the amplifier 4.
  • the amplifier 1 multiplies its input signal by k, and the amplifier 4 multiplies its input signal by 11 k.
  • the output of the addition circuit 2 is a value obtained by weighting and adding the pixel value of the current frame and the pixel value of the previous frame from the frame memory 3.
  • the stored signal in the frame memory 3 is rewritten every frame by the output image signal from the adder circuit 2, the pixel values of a plurality of frames are integrated in the still portion in the image signal stored in the frame memory 3. It becomes something. Therefore, assuming that the noise changes randomly for each frame, the noise is gradually reduced and removed by the weighted addition, and the noise of the image signal (same as the output image signal) stored in the frame memory 3 is reduced.
  • the stationary part is the one after noise removal.
  • noise removal by the above-described motion adaptive recursive fill has the following problems.
  • noise level when the noise level is high, a moving part may be mistaken for a still part, and in such a case, image quality deterioration such as blur may be observed. In addition, noise cannot be removed from moving parts.
  • noise eliminator using the classification adaptive processing has been proposed by the present applicant.
  • noise can be removed from both stationary and moving parts.
  • the above-described motion-adaptive recursive fill has better noise removal performance.
  • the present invention is also effective when applied to a resolution conversion device for increasing the resolution of an input image signal in addition to the noise removal processing.
  • the current television system is a so-called standard system in which the number of scanning lines per frame is 525 or 625, and a high-definition system in which the number of scanning lines per frame is larger than that.
  • a multi-level system for example, a high-definition system with 1 1 2 5 lines.
  • an image signal having the resolution of the standard method must be converted into an image signal having a resolution matching the high-definition method.
  • Resolution conversion (referred to as up conversion as appropriate). Therefore, conventionally, various resolution conversion devices for image signals using methods such as linear interpolation have been proposed. For example, up conversion by accumulation type processing and up conversion by class classification adaptive processing have been proposed.
  • the resolution conversion device based on the accumulation type processing can output the converted output image with little deterioration for the still image portion, but the image degradation occurs for the image portion with large motion.
  • the resolution conversion device using the classification adaptive processing can obtain a converted output image with little deterioration in the case of a moving image portion, but cannot obtain a very good image in a stationary portion. There was a problem.
  • an object of the present invention is to provide an image processing apparatus and an image processing method capable of performing good processing as a whole by taking advantage of the configuration of accumulating image signals over time and the configuration of adaptive classification processing. , A program and a recording medium.
  • the invention according to claim 1 is an image processing apparatus that receives an input image signal and generates an output image signal having higher quality than the input image signal.
  • a storage unit for storing an image signal of the same quality as the output image signal, and by adding the input image signal and the image stored in the storage unit, First signal processing means for generating a first image signal of higher quality than the image and storing the first image signal in the storage means;
  • the feature based on the input image signal is extracted according to the position of the pixel of interest in the output image signal, the pixel of interest is classified into one of a plurality of classes according to the characteristic, and a predetermined value is determined corresponding to the classified class.
  • a second signal processing means for generating a second image signal of higher quality than the input image by calculating the input image signal by a calculation method;
  • Output selection means for making a determination based on the first image signal and the second image signal, and selecting one of the first and second image signals as an output image signal
  • An image processing apparatus having
  • the invention according to claim 26 is an image processing method for receiving an input image signal and generating an output image signal with higher quality than the input image signal, wherein the image signal having the same quality as the output image signal is stored in storage means, A first signal processing step of generating a higher quality first image signal than the input image by adding the signal and the stored image, and storing the first image signal in storage means;
  • the feature based on the input image signal is extracted according to the position of the pixel of interest in the output image signal, the pixel of interest is classified into one of a plurality of classes according to the characteristic, and a predetermined value is determined corresponding to the classified class.
  • the invention according to claim 51 is a program for causing a computer to execute image processing for generating an output image signal having higher quality than an input image signal.
  • An image signal of the same quality as the output image signal is stored in the storage means, and the input image signal and the stored image are added to generate a first image signal of higher quality than the input image, and the first image
  • the feature based on the input image signal is extracted according to the position of the pixel of interest in the output image signal, the pixel of interest is classified into one of a plurality of classes according to the characteristic, and a predetermined value is determined corresponding to the classified class.
  • the invention according to claim 52 is a computer-readable recording medium which records a program for causing a computer to execute image processing for generating an output image signal having higher quality than an input image signal.
  • An image signal of the same quality as the image signal is stored in the storage means, and the input image signal and the stored image are added to generate a first image signal of higher quality than the input image, and the first image signal
  • the feature based on the input image signal is extracted according to the position of the pixel of interest in the output image signal, the pixel of interest is classified into one of a plurality of classes according to the characteristic, and a predetermined value is determined corresponding to the classified class.
  • the input image signal A second signal processing step of generating a second image signal of higher quality than the input image by calculating the
  • FIG. 1 is a block diagram showing an example of a conventional motion adaptive recovery filter.
  • FIG. 2 is a block diagram showing a basic configuration of the present invention.
  • FIG. 3 is a block diagram showing an embodiment of the present invention.
  • FIG. 4 is a block diagram of an example of a noise elimination circuit by accumulation type processing according to an embodiment of the present invention.
  • FIG. 5 is a flowchart showing an example of processing of a noise elimination circuit by accumulation type processing according to an embodiment of the present invention.
  • FIG. 6 is a block diagram showing an example of a class classification adaptive noise elimination circuit according to one embodiment.
  • FIG. 7 is a schematic diagram illustrating an example of a cluster map and a prediction map.
  • FIG. 8 is a block diagram showing an example of a feature detection circuit constituting a part of the classification adaptive noise elimination circuit.
  • FIG. 9 is a schematic diagram for explaining an example of a feature detection circuit.
  • FIG. 10 is a block diagram showing a configuration at the time of learning for generating the coefficient data used in the classifying adaptive noise elimination circuit.
  • FIG. 11 shows a case where an embodiment of the present invention is processed by software. Is a flowchart for explaining the processing of FIG.
  • FIG. 12 is a flowchart showing a processing flow of the motion adaptive recursive filter.
  • FIG. 13 is a flowchart showing the flow of noise removal processing by the classification adaptive processing.
  • FIG. 14 is a flowchart showing the flow of processing at the time of learning for generating coefficient data used in the classifying adaptive noise elimination circuit.
  • FIG. 15 is a block diagram of another embodiment of the present invention.
  • FIG. 16 is a schematic diagram for explaining a resolution conversion process performed by another embodiment.
  • FIG. 17 is a block diagram showing an example of a configuration of a resolution conversion section by a storage process in another embodiment.
  • FIG. 18 is a schematic diagram for explaining the conversion processing of the resolution conversion unit by the accumulation processing.
  • FIG. 19 is a schematic diagram for explaining the conversion processing of the resolution conversion unit by the accumulation processing.
  • FIG. 20 is a block diagram showing an example of the configuration of a resolution conversion unit based on the classification adaptive processing.
  • FIG. 21 is a schematic diagram for explaining the processing operation of the resolution conversion unit by the class classification adaptive processing.
  • FIG. 22 is a block diagram showing an example of a feature detection circuit in the resolution conversion unit based on the classification adaptive processing.
  • FIG. 23 is a schematic diagram for explaining the operation of the feature detection circuit.
  • FIG. 24 is a block diagram showing a configuration at the time of learning for generating coefficient data used in the resolution conversion unit by the classification adaptive processing.
  • FIG. 25 is a diagram illustrating a process of selecting an output image signal according to another embodiment.
  • FIG. 26 is a flowchart for explaining a process of selecting an output image signal in another embodiment.
  • FIG. 27 is a flowchart for explaining a process when another embodiment of the present invention is processed by software.
  • FIG. 28 is a flowchart showing the flow of the conversion process of the resolution conversion unit by the accumulation process.
  • FIG. 29 is a flowchart showing the flow of the resolution conversion processing by the classification adaptive processing.
  • FIG. 30 is a flowchart showing a flow of a learning process for generating coefficient data used in the resolution conversion process by the class classification adaptive process.
  • FIG. 2 shows the overall configuration of the present invention.
  • the input image signal is supplied to an accumulation processing unit 100 and a class classification adaptive processing unit 00.
  • the accumulation processing section 100 is a processing section having a configuration for accumulating image signals as time passes.
  • the class classification adaptive processing unit 200 detects a feature based on the input image signal according to the position of the pixel of interest in the output image signal, classifies the pixel of interest into one of a plurality of classes according to the characteristic, and performs classification.
  • An output image signal is generated by calculating an input image signal by a predetermined calculation method corresponding to the class.
  • the output image signal of the accumulation type processing unit 100 and the output image signal of the class classification adaptive processing unit 200 are supplied to the selection circuit 301 and the output judgment circuit 302 of the output selection unit 300. .
  • the output determination circuit 302 determines which output image signal is appropriate to output based on the output image signal of each processing unit. A selection signal corresponding to the result of this determination is generated.
  • the selection signal is The signal is supplied to the selection circuit 301, and one of the two output image signals is selected.
  • the accumulation processing unit 100 has the same configuration as the above-described motion adaptive recursive filter. Then, by repeating the weighted addition of the current frame and the previous frame, noise removal is satisfactorily performed on the pixels in the stationary portion.
  • the classification adaptive processing unit 200 is a noise removing unit based on the classification adaptive processing.
  • the noise elimination unit using the classification adaptive processing extracts pixels of each frame at the same position among a plurality of frames, classifies noise components of the pixels based on a change between the frames of the pixels, and classifies the noise components. Since the noise component is removed from the input image signal by the arithmetic processing set in advance corresponding to the class, the noise is removed regardless of the moving part and the stationary part.
  • the noise elimination unit of the accumulation type which can accumulate information of long frames, has a larger noise elimination effect than the noise elimination unit by the classification adaptive processing.
  • the output selection unit 300 determines the stillness of the image in units of a predetermined number of pixels, and selects an output image signal from the noise removal unit based on the accumulation type processing in the stationary part according to the determination result. By selecting an output image signal from the noise removing unit based on the classification adaptive processing in the moving part, an output image signal from which the noise is removed in both the stationary part and the moving part can be obtained.
  • the storage type processing unit 100 stores image information in a frame memory over a long period in the time direction, High resolution images It is configured to form an image signal. According to this configuration, a converted output image signal with little deterioration can be obtained for a still image or an image in which panning or tilting is performed simply on the entire screen.
  • the classification adaptive processing unit 200 is a resolution conversion unit based on the classification adaptive processing.
  • the resolution conversion unit classifies a feature of a pixel of interest in an image based on an input image signal based on a feature of a plurality of pixels including the pixel of interest and its temporal and spatial surrounding pixels. Generates a high-resolution output image signal by generating a plurality of pixels in a high-resolution image corresponding to the target pixel by performing image conversion calculation processing that is set in advance corresponding to the classified class. I do. Therefore, the resolution conversion unit based on the classification adaptive processing can obtain a converted output image signal with little deterioration even in the moving part. However, for the stationary part, the storage-type resolution converter that handles image information longer in the time direction can perform better resolution conversion.
  • the output selection unit 300 outputs the image signal from one resolution conversion unit and the image signal from the other resolution conversion unit for each pixel or every predetermined number of pixels. Since either one of the image signals can be selected and output, a high-quality converted output image with little deterioration can be obtained.
  • the input image signal is supplied to the motion adaptive recursive filter 11 forming an example of the accumulation type processing unit 100 for each pixel, and the class classification forming the example of the classification adaptive processing unit 200. It is supplied to the adaptive noise elimination circuit 12.
  • This motion adaptive recursive filter 11 As the motion adaptive recursive filter 11, a configuration similar to that of the example of FIG. 1 described above can be used. This motion adaptive recursive filter 1 1 These output image signals are supplied to the output selection unit 13 corresponding to the output selection unit 300.
  • the classifying adaptive noise elimination circuit 12 extracts pixels of each frame at the same position among a plurality of frames, classifies the noise components of the pixels based on a change between the frames of the pixels, and An output image signal from which a noise component has been removed is generated from an input image signal by an arithmetic processing set in advance corresponding to the classified class, and its detailed configuration will be described later.
  • the output image signal from the classification adaptive noise elimination circuit 12 is also supplied to the output selection unit 13.
  • the output selection unit 13 includes a static / movement determination circuit 14, a delay circuit 15 for timing adjustment, and a selection circuit 16, and the output image signal from the motion adaptive recursive filter 11 is delayed.
  • the image signal supplied to the selection circuit 16 through the circuit 15 and output from the adaptive noise removal circuit 12 is supplied to the selection circuit 16 as it is.
  • the output image signal from the motion adaptive recursive filter 11 and the output image signal from the classification adaptive noise elimination circuit 12 are supplied to a static / motion determination circuit 14.
  • the static / movement determining circuit 14 determines whether each pixel is a stationary portion or a moving portion from the two output image signals, and supplies the determination output as a selection control signal to the selection circuit 16.
  • the pixels in the still part of the image are noise-removed, but the pixels in the moving part of the image are output as they are without noise removal. You.
  • noise elimination is performed irrespective of the still part and the moving part of the image.
  • the static / movement determining circuit 14 determines whether each pixel is a static portion or a moving portion of the image by using the above-described properties. That is, the still / moving judgment circuit 14 calculates the difference between the pixel value of the output image signal from the motion adaptive recursive filter 11 and the pixel value of the output image signal from the classification adaptive noise elimination circuit 12. It has a difference value calculation circuit 14 1, an absolute value conversion circuit 14 2 for converting a difference value from the difference value calculation circuit 14 1 into an absolute value, and a comparison judgment circuit 14 3.
  • the comparison determination circuit 144 determines that the moving portion is present, and determines the difference value from the absolute value conversion circuit 144.
  • the comparison and determination circuit 144 controls the selection circuit 16 so as to select the output image signal from the motion adaptive recursive filter 11 for the pixel determined to be a still part of the image,
  • the selection circuit 16 is controlled so as to select an image signal output from the classifying adaptive noise elimination circuit 12 for the pixel determined to be the moving part of the image.
  • the selection circuit 16 that is, from the output selection unit 13, for the stationary part, information of a long frame can be accumulated, and the output image from the motion adaptive recursive filter that can remove noises well can be stored.
  • the signal is output, and the motion part is
  • An output image signal from the class classification adaptive noise elimination circuit 12 is output instead of the output image signal from the adaptive recursive filter. Therefore, an output image signal from which noise has been removed is obtained from the output selection unit 13 over the stationary part and the moving part.
  • the motion adaptive recursive filter 11 is not limited to the configuration shown in FIG. 1 but may be a configuration shown in FIG.
  • reference numeral 101 denotes a delay circuit for time alignment
  • reference numeral 104 denotes a motion vector detection circuit.
  • the input image signal passed through the delay circuit 101 is supplied to the synthesizing circuit 102.
  • the image stored in the storage memory 103 is supplied to the synthesizing circuit 102 via the shift circuit 105.
  • the combined output of the combining circuit 102 is stored in the storage memory 103.
  • the stored image in the storage memory 103 is taken out as an output and supplied to the motion vector detection circuit 104.
  • the motion vector detection circuit 104 detects a motion vector between the input image signal and the image stored in the storage memory 103.
  • the shift circuit 105 shifts the position of the image read from the storage memory 103 horizontally and / or vertically according to the motion vector detected by the motion vector detection circuit 104. . Since the motion compensation is performed by the shift circuit 105, in the synthesizing circuit 102, the pixels spatially located at the same position are added as described below.
  • the composite value of the output of the composite circuit 102 (pixel value of input image X N + pixel value of accumulated image X M) / (N + M) (N and M are predetermined coefficients)
  • the accumulation memory 103 accumulates the result of adding the pixel data over a plurality of frame periods. By this processing, noise components having no correlation can be removed.
  • Fig. 5 shows the case where the processing of the configuration shown in Fig. 4 is performed by software processing.
  • This is a flowchart showing the flow of the operation.
  • a motion vector is detected between an image region on the accumulated image and an image region on the input image corresponding to the image region.
  • the position of the stored image is shifted based on the detected motion vector.
  • the input image and the stored image whose position has been shifted are synthesized and stored (step S53).
  • step S54 the stored image is read from the storage memory and output.
  • class classification adaptive noise elimination circuit used in this embodiment will be described in detail.
  • class classification adaptive processing class classification is performed according to the three-dimensional (spatio-temporal) distribution of the signal level of the input image signal, and the prediction coefficients obtained by learning in advance for each class are stored in a memory. Then, a process of outputting an optimum estimated value (that is, a pixel value after noise removal) by an arithmetic process according to a weighted addition formula using such a prediction coefficient is described.
  • noise removal is performed by performing the classification adaptive processing in consideration of the motion of the image. That is, a pixel region to be referred to for detecting a noise component and a pixel region to be used for an arithmetic process for removing noise are cut out according to the motion estimated from the input image signal, Based on these, an image from which noise has been removed by the classification adaptive processing is output.
  • FIG. 6 shows an overall configuration of a class adaptive noise removal circuit used in this embodiment.
  • the input image signal to be processed is supplied to a frame memory 21.
  • the frame memory 1 stores the supplied image of the current frame and supplies the image of the previous frame to the frame memory 22.
  • Frey The memory 22 stores the supplied one-frame image, and supplies the image one frame before to the frame memory 23. In this way, images of newer frames are stored in the frame memories 21, 22, and 23 in this order.
  • the frame memory 2 stores the current frame
  • the frame memory 21 stores the frame one frame after the current frame
  • the frame memory 23 stores the frame one frame before the current frame.
  • the case is taken as an example.
  • the storage contents of the frame memories 21, 11, 23 are not limited to this.
  • images at a time interval of two frames may be stored.
  • five frame memories may be provided to store images of five consecutive frames.
  • a field memory can be used instead of the frame memory.
  • the image data of the rear frame, the current frame, and the previous frame stored in the frame memories 21, 1, and 23 are respectively stored in the motion vector detector 24, the motion vector detector 25, and the first frame. It is supplied to the area cutout section 26 and the second area cutout section 27.
  • the motion vector detection unit 24 detects a motion vector for a pixel of interest between the current frame image stored in the frame memory 12 and the previous frame image stored in the frame memory 23. I do. Further, the motion vector detection unit 25 calculates the motion vector of the pixel of interest between the image of the current frame stored in the frame memory 22 and the image of the subsequent frame stored in the frame memory 21. Detects torque.
  • the motion vector (movement direction and motion amount) of the pixel of interest detected by each of the motion vector detection units 24 and 25 is determined by the first area segmentation. It is supplied to the output section 26 and the second area cutout section 27.
  • a method of detecting a motion vector a block matching method, an estimation using a correlation coefficient, a gradient method, or the like can be used.
  • the first area cutout unit 26 starts the image data of each frame supplied thereto from the evening, referring to the motion vectors detected by the motion vector detection units 24 and 25, and The extracted pixel value is supplied to the feature detection unit 28.
  • the feature detection unit 28 generates a class code representing information related to the noise component based on the output of the first area cutout unit 26, as described later, and stores the generated class code in the coefficient ROM 29. Supply. in this way
  • the pixels extracted by the first area cutout unit 26 are used for generating a class code, they are called class taps.
  • the coefficient R OM 29 stores a prediction coefficient determined by learning as described later in advance in Class I, more specifically, along with an address associated with the class code.
  • the coefficient R OM 29 is calculated by the feature detector
  • the first area cutout unit 27 is a frame memory 21, 1, 2
  • the estimation operation unit 30 outputs the output of the second region extraction unit 27 and the coefficient R OM
  • a weighting operation as shown in the following equation (1) is performed to generate a predicted image signal from which noise has been removed.
  • the pixel values extracted by the second region cutout unit 27 are used in the weighted addition for generating the predicted image signal.
  • FIG. 7 shows the tap structures of the class taps and the prediction taps cut out by the first area cut-out unit 26 and the second area cut-out unit 27, respectively.
  • a target pixel to be predicted is indicated by a black circle
  • a pixel cut out as a class tap or a prediction tap is indicated by a circle with a shadow.
  • Fig. 7A shows an example of the structure of a basic class tap. From the current frame f [0] including the pixel of interest and the frames temporally before and after the current frame, that is, f [1-1] and f [+1], the pixel at the same spatial position as the pixel of interest is Cut out as a class tap.
  • the class tap has a tap structure in which only one pixel is extracted in each of the previous frame f [-1], the current frame f [0], and the subsequent frame f [+1].
  • the pixel at the same pixel position in each frame of the subsequent frame f [+1] is extracted as a class tap for noise detection. Therefore, the pixel position of the class tap in each frame to be processed is constant, and the tap structure does not change.
  • the first area cutout unit 26 sets the previous frame f [-1], the current frame f [0], and the subsequent frame f From each frame of [+ 1], the pixel at the position corresponding to the Extract. In other words, the pixel at the position corresponding to the motion vector is extracted
  • FIG. 7B shows an example of a basic prediction tap structure extracted by the second region cutout unit 27. From the pixel data of the frame of interest and the image data of the frames temporally located before and after the frame of interest, a total of 13 pixels including the pixel of interest and, for example, 12 pixels surrounding the pixel of interest are obtained. It is cut out as a prediction tap.
  • FIGS. 7C and 7D show the case where the cut-out position is temporally shifted according to the motion vector output from the motion vector detection units 24 and 25.
  • FIG. 7E the motion vector in the frame of interest is (0, 0), the motion vector in the previous frame is (11, 11), and the motion vector in the subsequent frame is (0, 0).
  • the cutout positions of the class taps and prediction taps in the entire frame are translated in accordance with the motion vector.
  • the cluster tap extracted by the first region cutout unit 26 becomes a corresponding pixel on the image between a plurality of frames.
  • the prediction tap extracted by the second area cutout unit 27 also becomes a corresponding pixel on an image between a plurality of frames due to the motion correction.
  • the number of frame memories is increased and, for example, five instead of three, for example, by storing the current frame and two frames before and after the current frame.
  • a class tap structure may be used in which only the pixel of interest is extracted from the current frame, and a pixel corresponding to the pixel of interest is extracted from each of the preceding and succeeding two frames. In such a case, the pixel region to be extracted is expanded temporally, so that more effective noise removal can be performed.
  • the feature detection unit 28 uses the variation in the pixel value of the pixel of the three frames extracted as a class tap in the first area extraction unit 26 as To detect. Then, a class code corresponding to the level change of the noise component is output to the coefficient ROM 29. That is, the feature detecting unit 28 classifies the level variation of the noise component of the target pixel into classes, and outputs a class code indicating which of the classified classes.
  • the feature detection unit 28 performs ADRC (Adaptive Dynamic Range Coding) on the output of the first region cutout unit 26, and performs level fluctuation of the corresponding pixel of the pixel of interest over a plurality of frames. Generates a class code consisting of the ADRC output.
  • ADRC Adaptive Dynamic Range Coding
  • FIG. 8 shows an example of the feature detecting section 28.
  • Fig. 8 shows the generation of class code by 1-bit ADRC.
  • the dynamic range detection circuit 281 includes, from each of the frame memories 21, 1, and 23, two pixels corresponding to the pixel of interest of the current frame and the pixel of interest before and after the current frame. A total of three pixels are supplied. The value of each pixel is represented by, for example, 8 bits.
  • the dynamic range detection circuit 281 as its output, The calculated dynamic range DR, the minimum value MIN, and the pixel value p X of each of the three input pixels are output.
  • the pixel values P of the three pixels from the dynamic range detection circuit 281 are sequentially supplied to a subtraction circuit 282, and the minimum value M IN is subtracted from each pixel value PX. By removing the minimum value M IN from each pixel value P X, the normalized pixel value is supplied to the comparison circuit 283.
  • the output (DR / 2) of the bit shift circuit 284 that reduces the dynamic range DR to 1/2 is supplied to the comparison circuit 283, and the magnitude relationship between the pixel value PX and DR / 2 is detected. .
  • the 1-bit comparison output of the comparison circuit 283 is set to “ ⁇ ”, otherwise, the comparison output is set to “0”.
  • the 283 generates the 3-bit ADRC output by parallelizing the comparison outputs of the three pixels obtained sequentially.
  • the dynamic range DR is supplied to a bit number conversion circuit 285, and the number of bits is converted from 8 bits to, for example, 5 bits by quantization. Then, the dynamic range converted into the number of bits and the 3-bit ADRC output are supplied to the coefficient ROM 29 as a class code.
  • the pixel value should not fluctuate or be small between the target pixel of the current frame and the corresponding pixels of the previous and subsequent frames. Therefore, when a change in pixel value is detected, it can be determined that the change is caused by noise.
  • the pixel value of the class tap extracted from each temporally continuous frame of t-1, t, t + 1 is 1-bit ADRC processing. This generates a 3-bit [0 10] ADRC output. And the dynamic range DR The one converted to 5 bits is output. The 3-bit ADRC output represents the noise level fluctuation for the pixel of interest.
  • the noise level is represented by a code obtained by converting the dynamic range DR into 5 bits.
  • the purpose of converting 8 bits to 5 bits is to avoid having too many classes.
  • the class code generated by the feature detection unit 28 is, for example, a 3-bit code related to the noise level fluctuation in the time direction obtained as a result of ADRC, and the result of the dynamic range DR. And a code consisting of, for example, 5 bits related to the noise level obtained as By using the dynamic range DR for class classification, motion and noise can be distinguished, and differences in noise level can be distinguished.
  • a noise-free input image signal (referred to as a teacher signal) used for learning is supplied to a noise adding unit 31 and a normal equation adding unit 32.
  • the noise adding unit 31 adds a noise component to the input image signal to generate a noise-added image (referred to as a student signal), and supplies the generated student signal to the frame memory 21.
  • the frame memories 21, 23 store the images of the student signal of three frames that are temporally continuous, respectively.
  • the frame memory 22 stores the image of the current frame
  • the frame memories 11 and 23 respectively store the image after the current frame. And the case where the image of the previous frame is recorded.
  • the storage contents of the frame memories 21, 1, and 23 are not limited to this.
  • the class code generated by the feature detecting unit 28 and the prediction tap extracted by the second region extracting unit 27 are supplied to the normal equation adding unit 32.
  • the teacher signal is further supplied to the normal equation addition unit 32.
  • the normal equation adding unit 32 performs a process of generating a normal equation in order to generate a coefficient based on these three types of inputs, and the prediction coefficient determination unit 33 executes a prediction coefficient for each class code from the normal equation. To determine. Then, the prediction coefficient determination unit 33 supplies the determined prediction coefficient to the memory 34.
  • the memory 34 stores the supplied prediction coefficients for each class.
  • the prediction coefficients stored in the memory 34 and the prediction coefficients stored in the coefficient ROM 29 (FIG. 6) are the same.
  • the prediction coefficients are undetermined coefficients. Learning is performed by inputting multiple teacher signals for each class.
  • the number of classes of the teacher signal ⁇ is denoted by m
  • the following equation (2) is set from the equation (1).
  • the prediction coefficient is determined so as to minimize the error vector e defined by the following equation (4). That is, the prediction coefficient is uniquely determined by the so-called least square method.
  • e sigma e
  • (4) k o formula e 2 (4)
  • each prediction coefficient wi should be determined so that the partial differential value becomes 0 for each value of i. 21 ⁇ 2 e. (5)
  • the specific procedure for determining each prediction coefficient wi from equation (5) will be described. If ⁇ and ⁇ are defined as in equations (6) and (7), equation (5) can be written in the form of the determinant of equation (8) below.
  • the prediction coefficient determination unit 33 calculates each parameter in the normal equation (8) based on the above three types of inputs, and further converts the normal equation (8) according to a general matrix solution such as a sweeping-out method. Perform the calculation process to solve to calculate the prediction coefficient.
  • any of the following four methods can be used.
  • the noise component is extracted as the difference between the signal obtained by performing the processing using the RF system on the flat image signal and the image signal component from which the noise is removed by frame addition of the signal.
  • the extracted noise component is added to the input image signal.
  • the noise elimination circuit 12 using the above-described class classification adaptive processing performs, for example, a pixel of interest and a pixel corresponding to the pixel of interest as a class tap when performing the class classification adaptive processing to remove noise from the image signal.
  • the noise level between frames based on the data of the class It detects the fluctuation of the noise level and generates a class code corresponding to the detected fluctuation of the noise level.
  • pixels to be used for noise component detection processing (class taps) and pixels to be used for prediction calculation processing (prediction taps) are extracted so as to estimate the motion between frames and correct the estimated motion. I do.
  • an image signal from which noise has been removed is calculated by linear linear combination of the prediction tap and the prediction coefficient.
  • a prediction coefficient that accurately corresponds to the inter-frame variation of the noise component it is possible to effectively remove the noise component. Yes And even if there is movement, the noise level can be detected correctly and noise can be removed. In particular, it is possible to prevent the image from being blurred due to the erroneous determination that the moving part is a stationary part as in the case of the motion adaptive recursive fill described with reference to FIG.
  • a cluster-top structure having no spatial spread in a frame for example, only a pixel of interest is extracted from the current frame, and a pixel corresponding to the pixel of interest is extracted from a frame temporally before / after the current frame.
  • the influence of a spatial blur factor on processing can be reduced. That is, it is possible to reduce the occurrence of blurring in the output image signal due to, for example, the influence of edges and the like.
  • Denoising is performed independently of motion.
  • the perfectly stationary part is inferior to a moving adaptive recursive filter that can store information of long frames.
  • the output of the motion adaptive recursive filter as shown in FIG. 1 or FIG. 4 is selected and output, and in the moving part, the class classification as shown in FIG. Since the output of the adaptive noise elimination circuit is selectively output, an image signal output with good noise elimination can be obtained in both the moving part and the stationary part of the image.
  • the class taps and prediction taps in the first area cutout section 26 and the second area cutout section 27 in the description of the class classification adaptive elimination circuit are merely examples, and it goes without saying that they are not limited to these.
  • the feature detection unit 28 uses a one-bit ADRC encoding circuit.
  • a multi-bit ADRC encoding circuit may be used.
  • An encoding circuit may be used.
  • the selection between the output of the motion adaptive recursive filter 11 and the output of the classification adaptive noise elimination circuit 12 is performed on a pixel-by-pixel basis.
  • the selection may be performed in units of pixel blocks or objects each including a number of pixels, or in units of frames.
  • the static / movement determination circuit performs the static / movement determination in selected units.
  • the output of one motion adaptive recursive filter and the output of one class classification adaptive elimination circuit are selected as alternatives. It is also possible to provide a plurality of noise removing circuits by processing and select an output image signal from them.
  • FIG. 11 shows an embodiment of the present invention.
  • 9 is a flowchart showing a flow of a noise removal process. As shown in steps S 1 and S 2, the classification adaptive noise elimination process and the motion adaptive recursive fill process are performed in parallel. The difference between the outputs obtained in each process is calculated (step S3).
  • step S4 the difference is converted into an absolute value, and in step S5 of the determination, it is determined whether or not the absolute value of the difference is large. If it is determined that the absolute value of the difference is large, the output of the adaptive noise removal for classification is selected (step S6). Otherwise, the output of the motion adaptive recursive filter is selected (step S7). This completes the processing for one pixel.
  • FIG. 12 is a flowchart showing details of the processing S2 of the motion adaptive recursive filter.
  • a first step S11 an initial input image is stored in a frame memory.
  • the next step S12 the difference between the image in the frame memory and the next input image (frame difference) is calculated. This difference is converted into an absolute value in step S13.
  • the absolute difference is compared with a threshold value in step S14.
  • the weight coefficient k by which the input image signal is multiplied is set to 1 (step S15). That is, the weighting factor (11 k) multiplied to the output signal of the frame memory is set to 0 because it is a moving part.
  • k is set to a value within the range (0 to 0.5) in step S16.
  • step S17 the pixel in the frame memory and the pixel at the same position of the next input image are weighted and added.
  • the addition result is stored in the frame memory (step S18).
  • the process returns to step S12.
  • the addition result is output (step S 1 9) ⁇
  • FIG. 13 is a flowchart showing details of the classification adaptive noise elimination process S1.
  • a motion vector is detected between the current frame and the previous frame.
  • a motion vector is detected between the current frame and the next frame.
  • the first region is cut out. That is, the class setup is extracted.
  • the extracted class tap is subjected to feature detection processing.
  • the coefficient corresponding to the detected feature is read out of the coefficients obtained by the learning processing in advance (step S25).
  • step S26 a second area (prediction tap) is cut out.
  • step S27 an estimation operation is performed using the coefficient and the prediction tap, and an output from which noise has been removed is obtained.
  • the motion vectors detected in steps S21 and S22 are used. The cutout position is changed.
  • FIG. 14 is a flowchart showing a flow of a learning process for obtaining a coefficient used in the classification adaptive noise elimination process.
  • a student signal is generated by adding noise to an image signal (teacher signal) without noise.
  • a motion vector is detected between the current frame and the previous frame.
  • a motion vector is detected between the current frame and the next frame. The region cutout position is changed by these detected motion vectors.
  • step S34 the first area (class tap) is cut out.
  • Feature detection is performed based on the extracted class taps (step Step S35).
  • step S36 a second region (prediction tap) is cut out.
  • step S37 based on the teacher image signal, the data of the prediction gap, and the detected features, data necessary for solving a normal equation having a prediction coefficient as a solution is calculated.
  • step S38 it is determined whether the addition of the normal equations has been completed. If not, the process returns to step S31. If it is determined that the processing has been completed, a prediction coefficient is determined in step S39. The obtained prediction coefficients are stored in the memory and used in the noise removal processing.
  • the output of the noise elimination circuit having a large noise elimination effect for the stationary part such as the motion adaptive recovery filter is selectively output.
  • the output of the noise elimination circuit that can remove noise in the moving part, such as the adaptive noise elimination circuit for classification, is selected and output, so that the noise can be removed well in both the moving part and the stationary part of the image.
  • the resulting image signal output is obtained.
  • an image signal of the above-described standard television system (hereinafter, referred to as SD) is used as an input image signal, and is converted into an output image signal of a high-definition system (hereinafter, referred to as HD). This is the case.
  • SD standard television system
  • HD high-definition system
  • FIG. 16 for each pixel of interest of the SD image, four pixels of the HD image are created and the resolution is converted. is there.
  • FIG. 15 is a block diagram showing a configuration of another embodiment.
  • the input image signal is stored in a storage type Supply to the high-density storage resolution conversion circuit 111 that constitutes an example of the resolution conversion unit based on logic, and to the class classification adaptive processing resolution conversion circuit 112 that constitutes an example of the resolution conversion unit that performs the classification adaptive processing. Is done.
  • the high-density storage resolution conversion circuit 1 1 1 includes a frame memory for storing image signals of HD-equivalent images, and converts between an image based on the image signals stored in the frame memory and an image based on the SD input image signal. By accumulating the SD input image signal in the frame memory while correcting the pixel position with reference to the movement of the image, an HD-equivalent output image signal is generated in the frame memory. The detailed configuration will be described later.
  • the converted image signal equivalent to HD from the high-density storage resolution conversion circuit 111 is supplied to the output selection unit 113.
  • the class classification adaptive processing resolution conversion circuit 112 includes a plurality of features including a target pixel in the image based on the SD input image signal and its temporal and spatial surrounding pixels. Detect from pixel. Then, the target pixel is classified into classes based on the detected features, and a plurality of pixels in the HD image corresponding to the target pixel are determined by an image conversion operation set in advance corresponding to the classified class. By generating it, a high-resolution output image signal is generated, and its detailed configuration will be described later.
  • the converted image signal corresponding to HD from the class classification adaptive processing resolution conversion circuit 112 is also supplied to the output selection unit 113.
  • the output selection unit 113 includes a judgment circuit 114, which will be described in detail later, and a selection circuit 115, and converts the converted image signal from the high-density storage resolution conversion circuit 111, and class classification adaptive processing.
  • the converted image signals from the resolution conversion circuits 112 are supplied to the selection circuits 115, respectively.
  • the converted image signal from the high-density storage resolution conversion circuit 111 The converted image signal from the Lass classification adaptive processing resolution conversion circuit 112 is supplied to the judgment circuit 114.
  • the determination circuit 114 determines, from the two converted image signals, the motion and the activity of the image based on the image signals in units of a predetermined number of pixels, and selects a selection circuit 111 according to the determination result. 5 is used to select either the converted image signal from the high-density storage resolution conversion circuit 111 or the converted image signal from the class classification adaptive processing resolution conversion circuit 112 in units of a predetermined number of pixels.
  • a selection control signal for performing selection control is generated. In this example, it is determined which conversion image signal to select for each pixel, and the determination output is supplied to the selection circuit 115 as a selection control signal.
  • FIG. 17 shows a configuration example of the high-density storage resolution conversion circuit 111 used in this embodiment.
  • This high-density storage resolution conversion circuit 1 1 1 is effective for resolution conversion of an image having a static or full-screen simple pan / tilt movement, excluding scene change zoom.
  • the high-density storage resolution conversion circuit 111 includes a frame memory 110 as shown in FIG. This frame memory 110 stores each pixel value of an image signal of one frame having a resolution equivalent to an HD image (see FIG. 16).
  • the SD input image signal is first supplied to the linear interpolation unit 211.
  • the linear interpolation unit 211 generates an image signal having the number of pixels equivalent to the HD image from the SD input image signal by linear interpolation, and outputs the generated image signal to the motion vector detection unit 212.
  • the processing in the linear interpolation unit 211 is performed in order to perform matching with the same image size when detecting a motion vector between an SD input image and an HD equivalent image in the frame memory 210. It is.
  • the motion vector detection unit 2 1 2 outputs the output image of the linear interpolation unit 2 1 1
  • the motion vector is detected between the image stored in the frame memory 210 and the image equivalent to the HD image.
  • a method of detecting a motion vector for example, representative point matching on the entire screen is performed.
  • the accuracy of the detected motion vector is one pixel unit in an image equivalent to HD. That is, the input image signal of the SD image has an accuracy of one pixel or less.
  • the motion vector detected by the motion vector detector 2 12 is supplied to the phase shifter 2 13.
  • the phase shift unit 211 shifts the phase of the SD input image signal in accordance with the motion vector supplied thereto, and supplies it to the image storage processing unit 214.
  • the image storage processing section 214 stores the image signal stored in the frame memory 210 and the SD input image signal that has been phase-shifted by the phase shift section 213. The signal stored in the frame memory 210 is rewritten by the signal.
  • FIGS. 18 and 19 show conceptual diagrams of the processing in the image accumulation processing section 2 14.
  • FIGS. 18 and 19 show the accumulation processing only in the vertical direction for the sake of simplicity, but the accumulation processing is similarly performed in the horizontal direction.
  • FIGS. 18A and 19A show SD input image signals.
  • black circles indicate pixels actually existing on the SD image, and white circles indicate non-existent pixels.
  • the motion vector detector 2 12 detects 3 pixels of motion in the vertical direction in an HD-equivalent image, so the phase shifter 2 13 detects the SD input image signal. The phase shift of the three pixels in the vertical direction is shown.
  • the accuracy of the detected motion vector is one pixel equivalent to HD as described above, and the pixel position in the SD input image signal after the phase shift is shown in FIG. 19B.
  • each pixel after the phase shift and the corresponding pixel in the image signal (FIG. 18B, FIG. 19C) corresponding to the HD image of the frame memory 110 are stored.
  • the corresponding pixel of the frame memory 210 is rewritten by the added output pixel.
  • motion compensation is performed for the motion of the SD image, and the pixels of the HD accumulated image and the pixels of the SD input image at the same position are added.
  • weighting may be performed between the HD accumulated image and the SD input image.
  • the original SD image is shifted according to the motion vector with an accuracy of one pixel unit of the HD image, and is stored in the frame memory 210.
  • the image stored in the frame memory 210 is an HD equivalent image as shown in FIG. 18B or FIG. 19C.
  • FIG. 18 and FIG. 19 are explanatory diagrams of only the vertical direction, but the horizontal image is similarly converted from the SD image to the HD equivalent image.
  • the image signal stored in the frame memory 210 by the above-described storage processing is supplied to the output selection unit 113 as an HD output image signal as an output of the high-density storage resolution conversion circuit 111. Since the HD output image signal from the high-density storage resolution conversion circuit 111 is generated by the above-described high-density storage processing of the image in the time direction, the scene change is performed as described above. In the case of an SD input image having a static portion or a simple pan and tilt movement excluding zoom and the like, it is possible to obtain an HD output image without deterioration and without aliasing.
  • Class-adaptive resolution conversion circuit that performs SD-to-HD conversion can obtain high-quality HD output images.
  • the target pixel of the SD input image signal is subjected to class classification according to the characteristics of the target pixel, and the prediction coefficients obtained by learning in advance for each class are stored in the memory.
  • a process of outputting optimal estimated pixel values of a plurality of HD pixels corresponding to a pixel of interest by an arithmetic process according to a weighted addition formula using such prediction coefficients is described.
  • FIG. 20 shows an example of the overall configuration of the class classification adaptive processing resolution conversion circuit 112 used in this embodiment.
  • the SD input image signal to be processed is supplied to a field memory 122.
  • This field memory 1 2 1 always stores the SD image signal one field before. Then, the SD input image signal and the SD image signal one field before stored in the field memory 221 are supplied to the first area cutout section 222 and the second area cutout section 223. You.
  • the first area cutout unit 222 looks at a plurality of pixels (hereinafter referred to as class taps) from the SD input image signal or the SD image signal in order to extract the feature of the pixel of interest in the SD input image signal. Perform the following processing.
  • the first area cutout unit 222 supplies the extracted pixel values of the plurality of images to the feature detection unit 222.
  • the feature detection unit 222 generates a class code representing the feature of the pixel of interest from the pixel of interest in the first area and its temporal and spatial surrounding pixels, and generates the generated class code as a coefficient ROM 2. Supply 2 to 5.
  • the plurality of pixels cut out by the first area cutout unit 222 are used for generating a class code, they are called class taps as described above.
  • the coefficient ROM 225 stores in advance a prediction coefficient determined by learning as will be described later, in class I, more specifically, along with an address associated with the class code. Then, the coefficient ROM 225 receives the class code supplied from the feature detecting unit 224 as an address, and outputs a prediction coefficient corresponding to the address.
  • the second area cutout unit 223 converts the SD input image signal and the SD image signal of the previous field stored in the field memory 221 into a pixel area for prediction (second area).
  • a plurality of prediction pixels including the target pixel included therein are extracted, and the values of the extracted pixels are supplied to the estimation calculation unit 226.
  • the estimation calculation unit 226 uses the following equation (1).
  • equation (1) By performing the operation shown in 1), a plurality of pixel values of the HD image corresponding to the target pixel of the SD image are obtained, and a predicted HD image signal is generated.
  • the pixel values extracted by the second area cutout unit 223 are used in weighted addition for generating a predicted HD image signal, and are therefore referred to as prediction taps.
  • Equation (11) is similar to equation (1) in the above-described embodiment.
  • y w 1 XX 1 + w 2 XX 2 + ⁇ ⁇ ⁇ + Wn X n (11) where X,, X 2, ⁇ ⁇ ⁇ , X ⁇ are each prediction tap, and W , ⁇ ⁇ ⁇ ⁇ ⁇ , W n are the prediction coefficients.
  • FIG. 21 An example of a class tap extracted by the first area cutout unit 222 will be described.
  • the plurality of pixels output are assumed to be as shown in FIG. 21.It is assumed that the field including the pixel of interest and the field before it are included.
  • the pixels indicated by black circles are: Pixels in the n-th field (for example, odd-numbered fields) indicate pixels in the white circle, pixels in the n-th field (for example, even-numbered fields) indicate pixels, and the cluster type indicates the pixel of interest and its time. And a plurality of pixels spatially and spatially adjacent to each other.
  • the pixel of interest When the pixel of interest is a pixel in the n-th field, it has a class tap structure as shown in Fig. 21A. From the n-field, the pixel of interest and the upper and lower Seven pixels, that is, a pixel and two pixels on each side of the pixel, are extracted as class taps, and six pixels spatially adjacent to the pixel of interest are extracted as class taps from the previous field. Therefore, a total of 13 pixels are cut out as clusters.
  • the pixel of interest When the pixel of interest is a pixel in the n + 1st field, it has a class tap structure as shown in FIG. 21B. From the n + 1 field, the pixel of interest and the left and right 1 Three pixels with each pixel are extracted as class taps, and six pixels spatially adjacent to the pixel of interest are extracted as class taps from the previous field. Therefore, a total of nine pixels are cut out as class taps. In this example, a tap structure similar to the above-described class tap is also used for the prediction tap cut out by the second region cutout unit 27. Next, a configuration example of the feature detection unit 224 will be described.
  • a plurality of pixel value patterns that are cut out as class taps in the first area cutout 222 are characterized as the target pixel.
  • This pixel value There are a plurality of patterns corresponding to the cluster type, and each of the pixel value patterns is regarded as one class.
  • the feature detection unit 224 classifies the feature of the pixel of interest into classes using the plurality of pixel values cut out as class taps by the first region cutout unit 222, and responds to the class tap in advance. It outputs a class code indicating which of a plurality of classes is assumed.
  • the feature detection unit 224 performs ADRC (Adactive Dynamic Range Coding) on the output of the first region cutout unit 222, and uses the ADRC output as the feature of the pixel of interest. Generated as a class code that represents ADRC (Adactive Dynamic Range Coding)
  • FIG. 22 shows an example of the feature detecting section 224.
  • Fig. 22 shows the generation of class code by 1-bit ADRC.
  • 13 or 9 pixels are supplied as class taps to the dynamic range detection circuit 122 from the first area cutout section 222.
  • the value of each pixel is represented by, for example, 8 bits.
  • the dynamic range detection circuit 11 outputs the calculated dynamic range DR, the minimum value MIN, and the pixel value PX of each of the plurality of input pixels as its output.
  • the pixel values PX of the plurality of pixels from the dynamic range detection circuit 122 are sequentially supplied to a subtraction circuit 222, and the minimum value MIN is subtracted from each pixel value PX.
  • the normalized pixel value is supplied to the comparison circuit 123.
  • the output (DR / 2) of the bit shift circuit 124 that reduces the dynamic range DR to 1/2 is supplied to the comparison circuit 123, and the magnitude relationship between the pixel value PX and DR / 2 is detected. .
  • the 1-bit comparison output of the comparison circuit 12 3 is set to “ ⁇ ”.
  • the comparison circuit 1 2 3 The comparison output of one bit is set to “0.” Then, the comparison circuit 13 parallelizes the comparison outputs of a plurality of pixels as the class taps obtained in order to make a 13-bit or 9-bit comparison output. Generates ADRC output.
  • the dynamic range DR is supplied to a bit number conversion circuit 125, and the number of bits is converted from 8 bits to, for example, 5 bits by quantization. Then, the dynamic range obtained by converting the number of bits and the ADRC output are supplied to the coefficient ROM 225 as a class code. Note that if multi-bit ADRC is performed instead of one bit, Of course, the feature of the target pixel can be classified in more detail.
  • An HD image signal (referred to as a teacher signal) used for learning is supplied to a thinning processing unit 13 1 and a normal equation adding unit 13 2.
  • the thinning processing unit 1331 performs a thinning process on the HD image signal to generate an SD image signal (referred to as a student signal), and supplies the generated student signal to the field memory 121.
  • the field memory 221 stores the student signal one field earlier in time. One field of the issue is stored.
  • the class code generated by the feature detection unit 222 and the prediction tap extracted by the second region extraction unit 222 are supplied to the normal equation addition unit 132.
  • a teacher signal is further supplied to the normal equation adding unit 1 32.
  • the normal equation adding unit 1 3 2 performs a process of generating a normal equation in order to generate a coefficient based on these three types of inputs, and the prediction coefficient determining unit 1 3 3 performs prediction for each class code from the normal equation. Determine the coefficient.
  • the prediction coefficient determination unit 133 supplies the determined prediction coefficient to the memory 134.
  • the memory 134 stores the supplied prediction coefficients.
  • the prediction coefficient stored in the memory 13 and the prediction coefficient stored in the coefficient R OM 25 (FIG. 20) are the same.
  • the class classification adaptive processing resolution conversion circuit 112 classifies the feature of the target pixel of the SD image into a class, and performs an estimation operation using a prediction coefficient prepared in advance based on the classified class. By creating a plurality of pixels of the HD image corresponding to the pixel of interest.
  • the class classification adaptive processing resolution conversion circuit 1 1 2 A converted image signal with little deterioration can be obtained without depending on the stillness and motion of the image.However, long frames are required for the complete still part as described above and simple motion of the entire image such as pan and tilt. It is inferior to the converted image signal from the high-density storage resolution conversion circuit 111 that can store the information of the image.
  • a resolution-converted output image signal with less deterioration is appropriately output from the output selection unit 113.
  • the determination circuit 114 determines which resolution conversion output is to be selected, and, based on the determination output, outputs an appropriate Control to Obtain Resolution-Converted Output Image Signal
  • the details of the determination circuit 114 will be described, and the selection operation thereby will be described.
  • the converted image signal from the high-density accumulated resolution converting circuit 1 11 and the converted image signal from the class classification adaptive processing resolution converting circuit 1 1 2 are sent to the difference value calculating circuit 2 4 1
  • the difference value between the two is calculated.
  • the difference value is converted to an absolute value by the absolute value conversion circuit 242 and supplied to the comparison determination circuit 243.
  • the comparison judgment circuit 243 judges whether the absolute value of the difference value from the absolute value generation circuit 242 is larger than a predetermined value, and supplies the judgment result to the selection signal generation circuit 249. I do.
  • Classification adaptive processing The resolution conversion image signal from the resolution conversion circuit 1 1 2 is selected by the selection circuit 1 1 5 A selection control signal is generated and supplied to the selection circuit 1 15.
  • the class classification adaptive processing resolution conversion circuit 213 capable of responding to motion is also used. It is better to use the converted image signal.
  • the difference value calculation circuit 241, the absolute value conversion circuit 242, and the comparison judgment circuit 243 constitute a static motion judgment circuit for an image.
  • the selection signal generation circuit 249 becomes As described below, the converted image signal from the high-density storage resolution conversion circuit 111 and the converted image signal from the class classification adaptive processing resolution conversion circuit 112 that have the higher activity are used. A selection control signal to be output from the selection circuit 115 is generated and supplied to the selection circuit 115. By outputting the pixel with the higher activity, it is possible to output a more active image without blurring.
  • the converted image signal from the high-density accumulation resolution converting circuit 111 and the converted image signal from the class classification adaptive processing resolution converting circuit 112 are used for the activity calculation. Are supplied to the region cutout portions 244 and 245, respectively, for cutting out the region of FIG.
  • the region cutout sections 2 4 4 and 2 4 5 are used to output resolution conversion signals equivalent to HD from the high-density storage resolution conversion circuit 1 11 and the class classification adaptive processing resolution conversion circuit 1 12, for example, as shown in Fig. 25B As shown by a broken line in FIG. 25C, a plurality of pixels before and after the target pixel of the SD image are cut out as pixels in the activity calculation area.
  • the plurality of pixels cut out as an area for the activity calculation are supplied to detectors 246 and 247, respectively, which detect a dynamic range as an activity, and each of the activities within the area (in this example, dynamic Range) is detected. Then, those detection outputs are supplied to a comparison circuit 248, the magnitudes of the two dynamic ranges are compared, and the comparison output is supplied to a selection signal generation circuit 249.
  • the selection signal generation circuit 24 9 is used when the judgment output of the comparison judgment circuit 24 3 indicates that the absolute value of the difference value is smaller than a predetermined threshold value. Based on the output of the above, a selection control signal for selecting and outputting a resolution conversion output having a larger dynamic range of a plurality of pixels cut out as an activity calculation area is output to the selection circuit 1. Supply 1 to 5.
  • the operation of the decision circuit 114 and the selection circuit 115 will be further described with reference to the flowchart of FIG. Figure 26
  • the operation of the flowchart corresponds to a case where the determination circuit 114 is realized by software processing.
  • an example will be described in which an appropriate one of the output of the high-density accumulation resolution conversion circuit 111 and the output of the class classification adaptive processing resolution conversion circuit 112 is selected for each pixel.
  • a difference value between the two pixels is calculated (step S101), and it is determined whether or not the absolute value of the difference value is larger than a threshold value (step S102).
  • the converted output image signal from the adaptive processing resolution conversion circuit 112 is selected and output (step S107).
  • the two activities in this example, the dynamic range
  • the two activities are calculated in units of the activity calculation area described above (steps S103 and S104), and the calculated values are calculated.
  • the two activities are compared (step S105), and the pixel with the larger activity is output (steps S106, S108).
  • an image without blurring with higher activity is selected and output.
  • the dynamic range in a specific area surrounded by a dotted line as shown in FIG. 25 is used, but the present invention is not limited to this.
  • the variance in a specific area the sum of absolute differences between a target pixel and pixels on both sides thereof, or the like can be used.
  • the selection processing the case where selection is performed in pixel units has been described.
  • the selection is not limited to selection in pixel units, and may be performed in block units, object units, frame units, or the like. Good.
  • the output of one high-density storage resolution conversion circuit and the output of one class classification adaptive processing resolution conversion circuit have been selected as an alternative.
  • Classification adaptive processing It is also possible to provide a plurality of resolution conversion circuits and select an output image signal from them.
  • class taps and prediction taps in the first area cutout section 222 and the second area cutout section 223 in the description of the classification adaptive processing are merely examples, and it goes without saying that they are not limited thereto. No. Also, in the above description, the structure of the class tap and the prediction tap are the same, but they need not be the same structure.
  • the conversion from the SD image to the HD image has been described as an example.
  • the classification adaptive processing and the high-density accumulation are not limited to the above-described embodiments.
  • FIG. 27 is a flowchart showing the flow of the resolution conversion processing of one embodiment. As shown in steps S111 and S112, the resolution conversion processing by the class classification adaptive processing and the resolution conversion processing by the high-density accumulation processing are performed in parallel. The output obtained in each process is processed by the output determination process (step S113). Then, in step S114, an output is selected according to the determination result in step S113. Thus, the processing for one pixel is completed.
  • FIG. 28 is a flowchart showing details of the resolution conversion processing S112 by the high-density accumulation processing.
  • first step S1221 an initial input frame image is linearly interpolated to form an image having the number of pixels of HD.
  • the image after this interpolation is stored in the frame memory (step S122).
  • step S 1 2 similarly linear for the next frame Interpolation is performed.
  • step S14 a motion vector is detected using the two-frame image obtained by the linear interpolation.
  • step S125 the input SD image is phase-shifted by the detected motion vector.
  • the phase-shifted image undergoes an image accumulation process (step S126).
  • step S127 the accumulation result is stored in the frame memory. Then, an image is output from the frame memory (step S128).
  • FIG. 29 is a flowchart showing details of the resolution conversion processing S111 by the class classification adaptive processing.
  • a first region is cut out. That is, class taps are extracted.
  • feature detection is performed on the extracted class tap.
  • the coefficient corresponding to the detected feature is read out (step S133).
  • the second region is cut out.
  • an estimation operation is performed using the coefficients and the prediction taps, and an up-converted output (HD image) is obtained.
  • FIG. 30 is a flowchart showing a flow of a learning process for obtaining a coefficient used for a resolution conversion process by the class classification adaptation.
  • a high-resolution HD signal teacher signal
  • step S142 the first area (class tap) is cut out.
  • Feature detection is performed based on the extracted class taps (step S144).
  • step S144 a second region (prediction tap) is cut out.
  • step S145 based on the teacher image signal, the data of the prediction taps, and the detected features, data necessary for solving a normal equation in which the prediction coefficient is solved is calculated.
  • step S146 it is determined whether the addition of the normal equations has been completed. If not, the process returns to step S142 (first region cutout process).
  • step S147 a prediction coefficient is determined. The obtained prediction coefficients are stored in the memory and used in the resolution conversion processing.
  • a high-density storage structure capable of handling information in the time direction for a long time and a result of the classification adaptive processing can be selected for each pixel. Images can be output.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Picture Signal Circuits (AREA)
  • Television Systems (AREA)

Abstract

An image processing system for receiving an input image signal to generate an output image signal of a higher quality than that of the input image signal, comprising first and second signal processing means. The first signal processing means performs a processing of storage type and includes storage means for storing an image signal of a quality identical to that of the output image signal. The first signal processing means adds the input image signal and the image, as stored in the storage means, to generate a first image signal of a higher quality than that of the input signal and to store the first image signal in the storage means. The second signal processing means performs classifying and adapting operations, and generates a second image signal of a quality higher than that of the input image by extracting based on the input image signal in accordance with a pixel position in the output image signal, by classifying the target pixel into one of a plurality of classes according to the features, and by operating the input image signal by an operation system preset in conforming with the classified class. The image processing system further comprises output selecting means for making a decision on the basis of the first image signal and the second image signal to select one of these first and second image signals as the output image signal.

Description

明 細 書  Specification
画像処理装置、 画像処理方法、 プログラムおよび記録媒体 技術分野  Image processing apparatus, image processing method, program, and recording medium
この発明は、 例えば画像信号のノイズを除去するノイズ除去装置お よびノイズ除去方法、 並びに入力画像信号を解像度がより高い画像信 号へ変換する画像変換装置および画像変換方法に対して適用可能な画 像処理装置、 画像処理方法、 プログラムおよび記録媒体に関する。 背景技術  The present invention is applicable to, for example, a noise elimination device and a noise elimination method for removing noise of an image signal, and an image conversion device and an image conversion method for converting an input image signal into an image signal having a higher resolution. The present invention relates to an image processing device, an image processing method, a program, and a recording medium. Background art
画像信号処理装置として時間と共に画像信号を蓄積する構成のもの と本願出願人の提案にかかるクラス分類適応処理とがある。 例えばノ ィズ除去の処理を例に説明すると、 第 1図が時間と共に画像信号を蓄 積する構成のものであり、 動き適応型リカーシブフィルタとして知ら れている構成である。  As the image signal processing device, there are a device that accumulates image signals with time and a classification adaptive process proposed by the present applicant. For example, taking the noise removal process as an example, FIG. 1 shows a configuration in which image signals are accumulated with time, which is a configuration known as a motion adaptive recursive filter.
入力画像信号は画素ごとに、 振幅調整を行うアンプ 1 を通じて加算 回路 2に供給される。 フレームメモリ 3には、 現時点のフレーム (入 力画像信号についての現時点のフレーム (以下、 現フレームという) ) よりも 1つ前のフレーム (以下、 前フレームという) の出力画像信 号が記憶されている。 このフレームメモリ 3に記憶されている画像信 号は、 入力画像信号の各画素位置に対応して画素ごとに順次に読み出 されて、 振幅調整を行うアンプ 4を通じて加算回路 2に供給される。 加算回路 1は、 ァンプ 1 を通じた現フレームとアンプ 4を通じた前 フレームの画素を加算し、 その加算出力を出力画像信号として出力す ると共に、 フレームメモリ 3に供給する。 フレームメモリ 3では、 記 憶されている画像信号が加算回路 1の出力画像信号に書き換えられる 現フレームの入力画像信号は、 また、 画素ごとに減算回路 5に供給 される。 また、 フレームメモリ 3に記憶されている前フレームの画像 信号が、 入力画像信号の各画素位置に対応して画素ごとに順次に読み 出されて減算回路 5に供給される。 減算回路 5は、 画像上の同じ画素 位置の現フレームの画素値と、 前フレームの画素値との差分を出力す る。 The input image signal is supplied to an addition circuit 2 through an amplifier 1 that performs amplitude adjustment for each pixel. The frame memory 3 stores the output image signal of the frame immediately before (current frame) the current frame (current frame of the input image signal (hereinafter, current frame)). I have. The image signal stored in the frame memory 3 is sequentially read out for each pixel corresponding to each pixel position of the input image signal, and is supplied to the addition circuit 2 through the amplifier 4 that performs amplitude adjustment. The addition circuit 1 adds the pixel of the current frame passed through the pump 1 and the pixel of the previous frame passed through the amplifier 4, outputs the added output as an output image signal, and supplies it to the frame memory 3. In the frame memory 3, the stored image signal is rewritten to the output image signal of the addition circuit 1. The input image signal of the current frame is also supplied to the subtraction circuit 5 for each pixel. Further, the image signal of the previous frame stored in the frame memory 3 is sequentially read out for each pixel corresponding to each pixel position of the input image signal and supplied to the subtraction circuit 5. The subtraction circuit 5 outputs the difference between the pixel value of the current frame at the same pixel position on the image and the pixel value of the previous frame.
この減算回路 5からの差分出力は、 絶対値化回路 6に供給されて絶 対値に変換され、 そして、 しきい値処理回路 7に供給される。 しきい 値処理回路 7は、 これに供給される画素差分の絶対値と予め定めたし きい値とを比較して、 画素毎に動き部分か、 静止部分かの静動判定を 行う。 すなわち、 しきい値処理回路 7は、 画素差分の絶対値がしきい 値よりも小さいときには、 入力画素は静止部分と判定し、 画素差分の 絶対値がしきい値よりも大きいときには、 入力画素は動き部分と判定 する。  The difference output from the subtraction circuit 5 is supplied to an absolute value conversion circuit 6, converted into an absolute value, and then supplied to a threshold value processing circuit 7. The threshold value processing circuit 7 compares the absolute value of the pixel difference supplied thereto with a predetermined threshold value, and determines whether the pixel is a moving part or a stationary part for each pixel. That is, when the absolute value of the pixel difference is smaller than the threshold value, the threshold value processing circuit 7 determines that the input pixel is a stationary portion, and when the absolute value of the pixel difference is larger than the threshold value, the input pixel is Judge as a moving part.
しきい値処理回路 Ίでの静動判定結果は、 重み係数発生回路 8に供 給される。 重み係数発生回路 8は、 しきい値処理回路 7での静動判定 結果に応じて、 重み係数 k ( 0≤ k≤ 1 ) の値を設定し、 係数 kをァ ンプ 1に供給すると共に、 係数 1 一 kをアンプ 4に供給する。 ァンプ 1は、 その入力信号を k倍し、 アンプ 4は、 その入力信号を 1 一 k倍 する。  The result of the static motion determination in the threshold value processing circuit Ί is supplied to the weight coefficient generation circuit 8. The weighting coefficient generation circuit 8 sets the value of the weighting coefficient k (0≤k≤1) according to the result of the static / dynamic determination in the threshold processing circuit 7, supplies the coefficient k to the amplifier 1, and The coefficient 1 k is supplied to the amplifier 4. The amplifier 1 multiplies its input signal by k, and the amplifier 4 multiplies its input signal by 11 k.
この場合、 しきい値処理回路 7で、 現フレームの画素が静止と判定 されるときには、 係数 kの値として k = 0〜 0 . 5の間の固定値が設 定される。 したがって、 加算回路 2の出力は、 現フレームの画素値と 、 フレームメモリ 3からの前フレームの画素値とが重み付け加算され た値とされる。  In this case, when the threshold value processing circuit 7 determines that the pixel of the current frame is stationary, a fixed value between k = 0 to 0.5 is set as the value of the coefficient k. Therefore, the output of the addition circuit 2 is a value obtained by weighting and adding the pixel value of the current frame and the pixel value of the previous frame from the frame memory 3.
—方、 しきい値処理回路 7で、 現フレームの画素が動き部分と判定 されるときには、 係数 kの値として k = 1が設定される。 したがって 、 加算回路 2からは現フレームの画素値 (入力画像信号の画素値) が そのまま出力される。 -, The threshold processing circuit 7 determines that the pixel of the current frame is a moving part , K = 1 is set as the value of the coefficient k. Therefore, the pixel value of the current frame (the pixel value of the input image signal) is output from the adding circuit 2 as it is.
加算回路 2からの出力画像信号により、 フレームメモリ 3の記憶信 号は、 毎フレーム、 書き換えられるので、 フレームメモリ 3に記憶さ れる画像信号中の静止部分は、 複数フレームの画素値が積算されたも のになる。 したがって、 ノイズがフレーム毎にランダムな変化をする ものとすれば、 重み付け加算により、 ノイズは徐々に小さくなって除 去され、 フレームメモリ 3に記憶される画像信号 (出力画像信号と同 じ) の静止部分は、 ノイズ除去が行われたものとなる。  Since the stored signal in the frame memory 3 is rewritten every frame by the output image signal from the adder circuit 2, the pixel values of a plurality of frames are integrated in the still portion in the image signal stored in the frame memory 3. It becomes something. Therefore, assuming that the noise changes randomly for each frame, the noise is gradually reduced and removed by the weighted addition, and the noise of the image signal (same as the output image signal) stored in the frame memory 3 is reduced. The stationary part is the one after noise removal.
しかしながら、 上述の動き適応型リカーシブフィル夕によるノイズ 除去では、 下記の問題がある。  However, noise removal by the above-described motion adaptive recursive fill has the following problems.
例えば、 ノイズレベルが大きい場合など、 動き部分を静止部分と誤 つてしまうことがあり、 その場合には、 ぼけなどの画質劣化が見られ る場合がある。 また、 動き部分はノイズ除去ができない。  For example, when the noise level is high, a moving part may be mistaken for a still part, and in such a case, image quality deterioration such as blur may be observed. In addition, noise cannot be removed from moving parts.
一方、 クラス分類適応処理を用いたノイズ除去装置が本願出願人に より提案されている。 クラス分類適応処理では、 静止、 動きの何れの 部分もノイズ除去することができる。 しかしながら、 完全な静止画部 分に関しては、 上述した動き適応型リカーシブフィル夕の方がノイズ 除去の性能が優れている。  On the other hand, a noise eliminator using the classification adaptive processing has been proposed by the present applicant. In the classification adaptive processing, noise can be removed from both stationary and moving parts. However, with respect to the complete still image portion, the above-described motion-adaptive recursive fill has better noise removal performance.
ノィズ除去処理以外に入力画像信号の解像度をより高くする解像度 変換装置についても、 この発明は、 適用して有効である。  The present invention is also effective when applied to a resolution conversion device for increasing the resolution of an input image signal in addition to the noise removal processing.
すなわち、 現行のテレビジョン方式としては、 1 フレーム当たりの 走査線数が 5 2 5本や 6 2 5本などの、 いわゆる標準方式と、 1 フレ —ム当たりの走査線数がそれよりも多い高精細度方式、 例えば 1 1 2 5本のハイ ビジョ ン方式など、 種々のものがある。 この場合に、 例えば高精細度方式に対応した機器で、 標準方式の画 像信号を取り扱えるようにするためには、 標準方式の解像度の画像信 号を高精細度方式に合致する解像度の画像信号に解像度変換 (アップ コンバートと適宜称する) する必要がある。 そこで、 従来から、 線形 補間などの方法を用いた画像信号の解像度変換装置が種々提案されて いる。 例えば蓄積形処理によるアツプコンバ一トとクラス分類適応処 理によるアップコンバ一トとが提案されている。 In other words, the current television system is a so-called standard system in which the number of scanning lines per frame is 525 or 625, and a high-definition system in which the number of scanning lines per frame is larger than that. There are various types such as a multi-level system, for example, a high-definition system with 1 1 2 5 lines. In this case, for example, in order for a device compatible with the high-definition method to be able to handle the image signal of the standard method, an image signal having the resolution of the standard method must be converted into an image signal having a resolution matching the high-definition method. Resolution conversion (referred to as up conversion as appropriate). Therefore, conventionally, various resolution conversion devices for image signals using methods such as linear interpolation have been proposed. For example, up conversion by accumulation type processing and up conversion by class classification adaptive processing have been proposed.
しかしながら、 蓄積形処理による解像度変換装置は、 静止画像部分 については劣化の少ない変換出力画像を出力することができるが、 動 きの大きい画像部分の場合には、 画像の劣化が生じてしまうという問 題があり、 また、 クラス分類適応処理による解像度変換装置は、 動き のある画像部分の場合には、 劣化の少ない変換出力画像が得られるが 、 静止部分については、 それほど良好な画像が得られないという問題 があった。  However, the resolution conversion device based on the accumulation type processing can output the converted output image with little deterioration for the still image portion, but the image degradation occurs for the image portion with large motion. In addition, the resolution conversion device using the classification adaptive processing can obtain a converted output image with little deterioration in the case of a moving image portion, but cannot obtain a very good image in a stationary portion. There was a problem.
すなわち、 従来は、 画像の静止、 動き部分の両方に的確に対応して 劣化のない画像を形成することができる解像度変換装置を実現するこ とが困難であった。  That is, in the past, it has been difficult to realize a resolution conversion device capable of forming an image without deterioration by accurately responding to both stationary and moving portions of the image.
したがって、 この発明の目的は、 時間と共に画像信号を蓄積する構 成とクラス分類適応処理による構成とのそれぞれの利点を生かすこと によって、 全体として良好な処理が可能な画像処理装置、 画像処理方 法、 プログラムおよび記録媒体を提供することにある。  Therefore, an object of the present invention is to provide an image processing apparatus and an image processing method capable of performing good processing as a whole by taking advantage of the configuration of accumulating image signals over time and the configuration of adaptive classification processing. , A program and a recording medium.
発明の開示 Disclosure of the invention
請求の範囲 1の発明は、 入力画像信号を受け取り、 入力画像信号よ り高品質な出力画像信号を生成する画像処理装置において、  The invention according to claim 1 is an image processing apparatus that receives an input image signal and generates an output image signal having higher quality than the input image signal.
出力画像信号と同質の画像信号を格納する格納手段を有し、 入力画 像信号と格納手段に格納された画像とを加算することによって、 入力 画像より高品質の第 1の画像信号を生成すると共に、 格納手段に第 1 の画像信号を格納する第 1の信号処理手段と、 A storage unit for storing an image signal of the same quality as the output image signal, and by adding the input image signal and the image stored in the storage unit, First signal processing means for generating a first image signal of higher quality than the image and storing the first image signal in the storage means;
出力画像信号中の注目画素位置に応じて、 入力画像信号に基づく特 徴を抽出し、 特徴によって注目画素を複数のクラスの一つに分類し、 分類されたクラスに対応して予め定められた演算方式で、 入力画像信 号を演算することで、 入力画像より高品質の第 2の画像信号を生成す る第 2の信号処理手段と、  The feature based on the input image signal is extracted according to the position of the pixel of interest in the output image signal, the pixel of interest is classified into one of a plurality of classes according to the characteristic, and a predetermined value is determined corresponding to the classified class. A second signal processing means for generating a second image signal of higher quality than the input image by calculating the input image signal by a calculation method;
第 1の画像信号と第 2の画像信号とに基づいた判定を行い、 第 1お よび第 2の画像信号の内の一方を出力画像信号として選択する出力選 択手段と  Output selection means for making a determination based on the first image signal and the second image signal, and selecting one of the first and second image signals as an output image signal;
を有する画像処理装置である。  An image processing apparatus having
請求の範囲 2 6の発明は、 入力画像信号を受け取り、 入力画像信号 より高品質な出力画像信号を生成する画像処理方法において、 出力画像信号と同質の画像信号を格納手段に格納し、 入力画像信号 と格納された画像とを加算することによって、 入力画像より高品質の 第 1の画像信号を生成すると共に、 第 1の画像信号を格納手段に格納 する第 1の信号処理ステップと、  The invention according to claim 26 is an image processing method for receiving an input image signal and generating an output image signal with higher quality than the input image signal, wherein the image signal having the same quality as the output image signal is stored in storage means, A first signal processing step of generating a higher quality first image signal than the input image by adding the signal and the stored image, and storing the first image signal in storage means;
出力画像信号中の注目画素位置に応じて、 入力画像信号に基づく特 徴を抽出し、 特徴によって注目画素を複数のクラスの一つに分類し、 分類されたクラスに対応して予め定められた演算方式で、 入力画像信 号を演算することで、 入力画像より高品質の第 2の画像信号を生成す る第 2の信号処理ステップと、  The feature based on the input image signal is extracted according to the position of the pixel of interest in the output image signal, the pixel of interest is classified into one of a plurality of classes according to the characteristic, and a predetermined value is determined corresponding to the classified class. A second signal processing step of generating a second image signal of higher quality than the input image by calculating the input image signal by an arithmetic method;
第 1の画像信号と第 2の画像信号とに基づいた判定を行い、 第 1お よび第 2の画像信号の内の一方を出力画像信号として選択する出力選 択ステップと  An output selection step of performing a determination based on the first image signal and the second image signal, and selecting one of the first and second image signals as an output image signal;
を有する画像処理方法である。 請求の範囲 5 1の発明は、 コンピュータに対して、 入力画像信号よ り高品質な出力画像信号を生成する画像処理を実行させるためのプロ グラムにおいて、 Is an image processing method. The invention according to claim 51 is a program for causing a computer to execute image processing for generating an output image signal having higher quality than an input image signal.
出力画像信号と同質の画像信号を格納手段に格納し、 入力画像信号 と格納された画像とを加算することによって、 入力画像より高品質の 第 1の画像信号を生成すると共に、 第 1 の画像信号を格納手段に格納 する第 1 の信号処理ステツプと、  An image signal of the same quality as the output image signal is stored in the storage means, and the input image signal and the stored image are added to generate a first image signal of higher quality than the input image, and the first image A first signal processing step for storing the signal in the storage means;
出力画像信号中の注目画素位置に応じて、 入力画像信号に基づく特 徴を抽出し、 特徴によって注目画素を複数のクラスの一つに分類し、 分類されたクラスに対応して予め定められた演算方式で、 入力画像信 号を演算することで、 入力画像より高品質の第 2の画像信号を生成す る第 2の信号処理ステップと、  The feature based on the input image signal is extracted according to the position of the pixel of interest in the output image signal, the pixel of interest is classified into one of a plurality of classes according to the characteristic, and a predetermined value is determined corresponding to the classified class. A second signal processing step of generating a second image signal of higher quality than the input image by calculating the input image signal by an arithmetic method;
第 1の画像信号と第 2の画像信号とに基づいた判定を行い、 第 1お よび第 2の画像信号の内の一方を出力画像信号として選択する出力選 択ステップと  An output selection step of performing a determination based on the first image signal and the second image signal, and selecting one of the first and second image signals as an output image signal;
を実行させるためのプログラムである。  Is a program for executing.
請求の範囲 5 2の発明は、 コンピュータに対して、 入力画像信号よ り高品質な出力画像信号を生成する画像処理を実行させるためのプロ グラムを記録したコンピュータで読み取り可能な記録媒体において、 出力画像信号と同質の画像信号を格納手段に格納し、 入力画像信号 と格納された画像とを加算することによって、 入力画像より高品質の 第 1の画像信号を生成すると共に、 第 1 の画像信号を格納手段に格納 する第 1 の信号処理ステツプと、  The invention according to claim 52 is a computer-readable recording medium which records a program for causing a computer to execute image processing for generating an output image signal having higher quality than an input image signal. An image signal of the same quality as the image signal is stored in the storage means, and the input image signal and the stored image are added to generate a first image signal of higher quality than the input image, and the first image signal A first signal processing step of storing
出力画像信号中の注目画素位置に応じて、 入力画像信号に基づく特 徴を抽出し、 特徴によって注目画素を複数のクラスの一つに分類し、 分類されたクラスに対応して予め定められた演算方式で、 入力画像信 号を演算することで、 入力画像より高品質の第 2の画像信号を生成す る第 2の信号処理ステップと、 The feature based on the input image signal is extracted according to the position of the pixel of interest in the output image signal, the pixel of interest is classified into one of a plurality of classes according to the characteristic, and a predetermined value is determined corresponding to the classified class. The input image signal A second signal processing step of generating a second image signal of higher quality than the input image by calculating the
第 1の画像信号と第 2の画像信号とに基づいた判定を行い、 第 1お よび第 2の画像信号の内の一方を出力画像信号として選択する出力選 択ステップと  An output selection step of performing a determination based on the first image signal and the second image signal, and selecting one of the first and second image signals as an output image signal;
を実行させるためのプログラムを記録したコンピュータで読み取り 可能な記録媒体である。  Is a computer-readable recording medium on which a program for executing the program is recorded.
図面の簡単な説明 BRIEF DESCRIPTION OF THE FIGURES
第 1図は、 従来の動き適応リカ一シブフィルタの一例を示すブ口ッ ク図である。  FIG. 1 is a block diagram showing an example of a conventional motion adaptive recovery filter.
第 2図は、 この発明の基本的な構成を示すプロック図である。  FIG. 2 is a block diagram showing a basic configuration of the present invention.
第 3図は、 この発明の一実施形態を示すプロック図である。  FIG. 3 is a block diagram showing an embodiment of the present invention.
第 4図は、 この発明の一実施形態における蓄積形処理によるノイズ 除去回路の一例のプロック図である。  FIG. 4 is a block diagram of an example of a noise elimination circuit by accumulation type processing according to an embodiment of the present invention.
第 5図は、 この発明の一実施形態における蓄積形処理によるノイズ 除去回路の一例の処理を示すフロ一チヤ一卜である。  FIG. 5 is a flowchart showing an example of processing of a noise elimination circuit by accumulation type processing according to an embodiment of the present invention.
第 6図は、 一実施形態におけるクラス分類適応ノイズ除去回路の一 例を示すブロック図である。  FIG. 6 is a block diagram showing an example of a class classification adaptive noise elimination circuit according to one embodiment.
第 7図は、 クラスタツプおよび予測夕ップの一例を示す略線図であ る。  FIG. 7 is a schematic diagram illustrating an example of a cluster map and a prediction map.
第 8図は、 クラス分類適応ノイズ除去回路の一部を構成する特徴検 出回路の一例を示すブロック図である。  FIG. 8 is a block diagram showing an example of a feature detection circuit constituting a part of the classification adaptive noise elimination circuit.
第 9図は、 特徴検出回路の一例を説明するための略線図である。 第 1 0図は、 クラス分類適応ノイズ除去回路に用いられる係数デ一 夕を生成する学習時の構成を示すブロック図である。  FIG. 9 is a schematic diagram for explaining an example of a feature detection circuit. FIG. 10 is a block diagram showing a configuration at the time of learning for generating the coefficient data used in the classifying adaptive noise elimination circuit.
第 1 1図は、 この発明の一実施形態をソフ トウェアで処理する場合 の処理を説明するためのフローチヤ一トである。 FIG. 11 shows a case where an embodiment of the present invention is processed by software. Is a flowchart for explaining the processing of FIG.
第 1 2図は、 動き適応リカーシブフィルタの処理の流れを示すフロ —チヤ一トである。  FIG. 12 is a flowchart showing a processing flow of the motion adaptive recursive filter.
第 1 3図は、 クラス分類適応処理によるノイズ除去処理の流れを示 すフローチャートである。  FIG. 13 is a flowchart showing the flow of noise removal processing by the classification adaptive processing.
第 1 4図は、 クラス分類適応ノイズ除去回路に用いられる係数デー 夕を生成する学習時の処理の流れを示すフローチヤ一トである。  FIG. 14 is a flowchart showing the flow of processing at the time of learning for generating coefficient data used in the classifying adaptive noise elimination circuit.
第 1 5図は、 この発明の他の実施形態のブロック図である。  FIG. 15 is a block diagram of another embodiment of the present invention.
第 1 6図は、 他の実施形態によりなされる解像度変換処理を説明す るための略線図である。  FIG. 16 is a schematic diagram for explaining a resolution conversion process performed by another embodiment.
第 1 7図は、 他の実施形態における蓄積処理による解像度変換部の 一例の構成を示すブロック図である。  FIG. 17 is a block diagram showing an example of a configuration of a resolution conversion section by a storage process in another embodiment.
第 1 8図は、 蓄積処理による解像度変換部の変換処理を説明するた めの略線図である。  FIG. 18 is a schematic diagram for explaining the conversion processing of the resolution conversion unit by the accumulation processing.
第 1 9図は、 蓄積処理による解像度変換部の変換処理を説明するた めの略線図である。  FIG. 19 is a schematic diagram for explaining the conversion processing of the resolution conversion unit by the accumulation processing.
第 2 0図は、 クラス分類適応処理による解像度変換部の一例の構成 を示すブロック図である。  FIG. 20 is a block diagram showing an example of the configuration of a resolution conversion unit based on the classification adaptive processing.
第 2 1図は、 クラス分類適応処理による解像度変換部の処理動作を 説明するための略線図である。  FIG. 21 is a schematic diagram for explaining the processing operation of the resolution conversion unit by the class classification adaptive processing.
第 2 2図は、 クラス分類適応処理による解像度変換部における特徴 検出回路の一例を示すプロック図である。  FIG. 22 is a block diagram showing an example of a feature detection circuit in the resolution conversion unit based on the classification adaptive processing.
第 2 3図は、 特徴検出回路の動作を説明するための略線図である。 第 2 4図は、 クラス分類適応処理による解像度変換部に用いられる 係数データを生成する学習時の構成を示すプロック図である。  FIG. 23 is a schematic diagram for explaining the operation of the feature detection circuit. FIG. 24 is a block diagram showing a configuration at the time of learning for generating coefficient data used in the resolution conversion unit by the classification adaptive processing.
第 2 5図は、 他の実施形態における出力画像信号の選択処理を説明 するための略線図である。 FIG. 25 is a diagram illustrating a process of selecting an output image signal according to another embodiment. FIG.
第 2 6図は、 他の実施形態における出力画像信号の選択処理の説明 のためのフローチャートである。  FIG. 26 is a flowchart for explaining a process of selecting an output image signal in another embodiment.
第 2 7図は、 この発明の他の実施形態をソフトウエアで処理する場 合の処理を説明するためのフローチャートである。  FIG. 27 is a flowchart for explaining a process when another embodiment of the present invention is processed by software.
第 2 8図は、 蓄積処理による解像度変換部の変換処理の流れを示す フローチャ一トである。  FIG. 28 is a flowchart showing the flow of the conversion process of the resolution conversion unit by the accumulation process.
第 2 9図は、 クラス分類適応処理による解像度変換処理の流れを示 すフローチャートである。  FIG. 29 is a flowchart showing the flow of the resolution conversion processing by the classification adaptive processing.
第 3 0図は、 クラス分類適応処理による解像度変換処理に用いられ る係数データを生成する学習時の処理の流れを示すフローチヤ一トで ある。  FIG. 30 is a flowchart showing a flow of a learning process for generating coefficient data used in the resolution conversion process by the class classification adaptive process.
発明を実施するための最良の形態 BEST MODE FOR CARRYING OUT THE INVENTION
第 2図は、 この発明の全体的構成を示す。 入力画像信号が蓄積形処 理部 1 0 0およびクラス分類適応処理部 0 0に対して供給される。 蓄積形処理部 1 0 0は、 時間経過に伴って画像信号を蓄積する構成を 有する処理部である。 クラス分類適応処理部 2 0 0は、 出力画像信号 中の注目画素位置に応じて、 入力画像信号に基づく特徴を検出し、 特 徴によって注目画素を複数のクラスの一つに分類し、 分類されたクラ スに対応して予め定められた演算方式で、 入力画像信号を演算するこ とによって、 出力画像信号を生成するものである。  FIG. 2 shows the overall configuration of the present invention. The input image signal is supplied to an accumulation processing unit 100 and a class classification adaptive processing unit 00. The accumulation processing section 100 is a processing section having a configuration for accumulating image signals as time passes. The class classification adaptive processing unit 200 detects a feature based on the input image signal according to the position of the pixel of interest in the output image signal, classifies the pixel of interest into one of a plurality of classes according to the characteristic, and performs classification. An output image signal is generated by calculating an input image signal by a predetermined calculation method corresponding to the class.
蓄積形処理部 1 0 0の出力画像信号とクラス分類適応処理部 2 0 0 の出力画像信号とが出力選択部 3 0 0の選択回路 3 0 1および出力判 定回路 3 0 2に供給される。 出力判定回路 3 0 2は、 各処理部の出力 画像信号に基づいて、 何れの出力画像信号を出力するのが適切かを判 断する。 この判断の結果に対応する選択信号を生成する。 選択信号が 選択回路 3 0 1に供給され、 二つの出力画像信号の内の一方が選択さ れる。 The output image signal of the accumulation type processing unit 100 and the output image signal of the class classification adaptive processing unit 200 are supplied to the selection circuit 301 and the output judgment circuit 302 of the output selection unit 300. . The output determination circuit 302 determines which output image signal is appropriate to output based on the output image signal of each processing unit. A selection signal corresponding to the result of this determination is generated. The selection signal is The signal is supplied to the selection circuit 301, and one of the two output image signals is selected.
この発明をノイズ除去に対して適用する場合では、 蓄積形処理部 1 0 0が前述した動き適応型リカーシブフィルタと同様の構成とされる 。 そして、 現フレームと前フレームとの重み付け加算が繰り返される ことにより、 静止部分の画素については、 良好にノイズ除去が行われ る。  When the present invention is applied to noise elimination, the accumulation processing unit 100 has the same configuration as the above-described motion adaptive recursive filter. Then, by repeating the weighted addition of the current frame and the previous frame, noise removal is satisfactorily performed on the pixels in the stationary portion.
一方、 クラス分類適応処理部 2 0 0がクラス分類適応処理に基づく ノイズ除去部とされる。 クラス分類適応処理によるノイズ除去部では 、 複数フレーム間で同じ位置にある各フレームの画素を抽出し、 それ らの画素のフレーム間の変化に基づいて画素のノィズ成分をクラス分 類し、 分類されたクラスに対応して予め設定されている演算処理によ り、 入力画像信号からノイズ成分が除去されるので、 動き部分と静止 部分とに関係なく、 ノイズ除去が行われる。 ただし、 完全な静止部分 に関しては、 長いフレームの情報を蓄積することができる蓄積形のノ ィズ除去部の方が、 クラス分類適応処理によるノィズ除去部に比して ノイズ除去効果が大きい。  On the other hand, the classification adaptive processing unit 200 is a noise removing unit based on the classification adaptive processing. The noise elimination unit using the classification adaptive processing extracts pixels of each frame at the same position among a plurality of frames, classifies noise components of the pixels based on a change between the frames of the pixels, and classifies the noise components. Since the noise component is removed from the input image signal by the arithmetic processing set in advance corresponding to the class, the noise is removed regardless of the moving part and the stationary part. However, with regard to the completely stationary part, the noise elimination unit of the accumulation type, which can accumulate information of long frames, has a larger noise elimination effect than the noise elimination unit by the classification adaptive processing.
出力選択部 3 0 0では、 所定数の画素単位で、 画像の静動を判定し 、 その判定結果に応じて、 静止部分では、 蓄積形処理に基づく ノイズ 除去部からの出力画像信号を選択し、 動き部分では、 クラス分類適応 処理に基づく ノイズ除去部からの出力画像信号を選択することにより 、 静止部分および動き部分で、 ともにノイズ除去が行われた出力画像 信号が得られる。  The output selection unit 300 determines the stillness of the image in units of a predetermined number of pixels, and selects an output image signal from the noise removal unit based on the accumulation type processing in the stationary part according to the determination result. By selecting an output image signal from the noise removing unit based on the classification adaptive processing in the moving part, an output image signal from which the noise is removed in both the stationary part and the moving part can be obtained.
また、 この発明をアップコンバートを行う解像度変換装置に対して 適用する場合には、 蓄積形処理部 1 0 0がフレームメモリに、 画像情 報を時間方向に長い期間に渡って蓄積することにより、 高解像度の画 像信号を形成する構成とされる。 この構成によれば、 静止画や、 全画 面について単純にパンやチルトをする画像に対しては、 劣化の少ない 変換出力画像信号が得られる。 Further, when the present invention is applied to a resolution conversion device that performs up-conversion, the storage type processing unit 100 stores image information in a frame memory over a long period in the time direction, High resolution images It is configured to form an image signal. According to this configuration, a converted output image signal with little deterioration can be obtained for a still image or an image in which panning or tilting is performed simply on the entire screen.
一方、 クラス分類適応処理部 2 0 0がクラス分類適応処理に基づく 解像度変換部とされる。 この解像度変換部は、 入力画像信号による画 像中の注目画素についての特徴を、 その注目画素と、 その時間的およ び空間的な周囲画素とを含む複数個の画素についての特徴によってク ラス分類し、 分類されたクラスに対応して予め設定されている画像変 換演算処理により、 注目画素に対応する高解像度の画像中の複数画素 を生成することにより、 高解像度の出力画像信号を生成する。 したが つて、 クラス分類適応処理に基づく解像度変換部は、 動き部分におい ても劣化の少ない変換出力画像信号が得られる。 しかしながら、 静止 部分に関しては、 画像情報を時間方向に長く扱う蓄積形の解像度変換 部の方がより良好な解像度変換を行うことができる。  On the other hand, the classification adaptive processing unit 200 is a resolution conversion unit based on the classification adaptive processing. The resolution conversion unit classifies a feature of a pixel of interest in an image based on an input image signal based on a feature of a plurality of pixels including the pixel of interest and its temporal and spatial surrounding pixels. Generates a high-resolution output image signal by generating a plurality of pixels in a high-resolution image corresponding to the target pixel by performing image conversion calculation processing that is set in advance corresponding to the classified class. I do. Therefore, the resolution conversion unit based on the classification adaptive processing can obtain a converted output image signal with little deterioration even in the moving part. However, for the stationary part, the storage-type resolution converter that handles image information longer in the time direction can perform better resolution conversion.
そして、 各解像度変換部の特徴を考慮して、 画素単位あるいは所定 数の画素毎に、 出力選択部 3 0 0により、 一方の解像度変換部からの '画像信号と、 他方の解像度変換部からの画像信号のいずれか一方の画 像信号を選択して出力することができるので、 劣化の少ない高画質の 変換出力画像を得ることができる。  In consideration of the characteristics of each resolution conversion unit, the output selection unit 300 outputs the image signal from one resolution conversion unit and the image signal from the other resolution conversion unit for each pixel or every predetermined number of pixels. Since either one of the image signals can be selected and output, a high-quality converted output image with little deterioration can be obtained.
以下、 この発明をノイズ除去装置に対して適用した一実施形態につ いて第 3図を参照しながら説明する。 入力画像信号は画素ごとに、 '蓄 積形処理部 1 0 0の例を構成する動き適応型リカーシブフィルタ 1 1 に供給されるとともに、 クラス分類適応処理部 2 0 0の例を構成する クラス分類適応ノイズ除去回路 1 2に供給される。  Hereinafter, an embodiment in which the present invention is applied to a noise removing device will be described with reference to FIG. The input image signal is supplied to the motion adaptive recursive filter 11 forming an example of the accumulation type processing unit 100 for each pixel, and the class classification forming the example of the classification adaptive processing unit 200. It is supplied to the adaptive noise elimination circuit 12.
動き適応型リカーシブフィルタ 1 1 として、 上述した第 1図の例と 同様の構成を使用できる。 この動き適応型リカーシブフィルタ 1 1か らの出力画像信号は、 出力選択部 3 0 0に対応する出力選択部 1 3に 供給される。 As the motion adaptive recursive filter 11, a configuration similar to that of the example of FIG. 1 described above can be used. This motion adaptive recursive filter 1 1 These output image signals are supplied to the output selection unit 13 corresponding to the output selection unit 300.
また、 クラス分類適応ノイズ除去回路 1 2は、 複数フレーム間で同 じ位置にある各フレームの画素を抽出し、 それらの画素のフレーム間 の変化に基づいて前記画素のノイズ成分をクラス分類し、 分類された クラスに対応して予め設定されている演算処理により、 入力画像信号 からノイズ成分の除去された出力画像信号を生成するもので、 その詳 細な構成については後述する。 このクラス分類適応ノイズ除去回路 1 2からの出力画像信号も、 出力選択部 1 3に供給される。  Further, the classifying adaptive noise elimination circuit 12 extracts pixels of each frame at the same position among a plurality of frames, classifies the noise components of the pixels based on a change between the frames of the pixels, and An output image signal from which a noise component has been removed is generated from an input image signal by an arithmetic processing set in advance corresponding to the classified class, and its detailed configuration will be described later. The output image signal from the classification adaptive noise elimination circuit 12 is also supplied to the output selection unit 13.
出力選択部 1 3は、 静動判定回路 1 4 と、 タイミング調整用の遅延 回路 1 5 と、 選択回路 1 6 とを有し、 動き適応型リカーシブフィル夕 1 1からの出力画像信号は、 遅延回路 1 5を通じて選択回路 1 6に供 給され、 クラス分類適応ノイズ除去回路 1 2からの出力画像信号は、 そのまま選択回路 1 6に供給される。  The output selection unit 13 includes a static / movement determination circuit 14, a delay circuit 15 for timing adjustment, and a selection circuit 16, and the output image signal from the motion adaptive recursive filter 11 is delayed. The image signal supplied to the selection circuit 16 through the circuit 15 and output from the adaptive noise removal circuit 12 is supplied to the selection circuit 16 as it is.
また、 動き適応型リカーシブフィル夕 1 1からの出力画像信号と、 クラス分類適応ノイズ除去回路 1 2からの出力画像信号とは、 静動判 定回路 1 4に供給される。 静動判定回路 1 4では、 それら 2つの出力 画像信号から、 この例では、 各画素ごとに、 静止部分か動き部分かを 判定し、 その判定出力を選択制御信号として、 選択回路 1 6に供給す る。  The output image signal from the motion adaptive recursive filter 11 and the output image signal from the classification adaptive noise elimination circuit 12 are supplied to a static / motion determination circuit 14. In this example, the static / movement determining circuit 14 determines whether each pixel is a stationary portion or a moving portion from the two output image signals, and supplies the determination output as a selection control signal to the selection circuit 16. You.
動き適応型リカーシブフィルタ 1 1からの出力画像信号では、 前述 したように、 画像の静止部分の画素はノイズ除去されるが、 画像の動 き部分の画素は、 ノイズ除去されずに、 そのまま出力される。 一方、 クラス分類適応ノイズ除去回路 1 2からの出力画像信号では、 画像の 静止部分、 動き部分に関係なく、 ノイズ除去が施される。  In the output image signal from the motion adaptive recursive filter 11, as described above, the pixels in the still part of the image are noise-removed, but the pixels in the moving part of the image are output as they are without noise removal. You. On the other hand, in the output image signal from the classification adaptive noise elimination circuit 12, noise elimination is performed irrespective of the still part and the moving part of the image.
このため、 動き適応型リカーシブフィルタ 1 1力、らの出力画像信号 と、 クラス分類適応ノイズ除去回路 1 2からの出力画像信号とを比較 した場合、 静止部分は、 ともにノイズ除去されているので両者の画素 値はほぼ等しくなるが、 動き部分では、 動き適応型リカーシブフィル 夕 1 1の出力画像信号にはノイズが残留しているのに対して、 クラス 分類適応ノイズ除去回路 1 2からの出力画像信号ではノイズが除去さ れているため、 両者の画素値がノイズ分だけ異なることになる。 Therefore, the output image signal of the motion adaptive recursive filter When compared with the output image signal from the classifying adaptive noise elimination circuit 12, both pixel values of the stationary portion are almost equal because the noise is removed, but the motion adaptive recursive Although noise remains in the output image signal of the filter 11, the noise is removed in the output image signal from the adaptive noise removal circuit 12, so that the pixel values of both pixels are noise. Will be different by the minute.
静動判定回路 1 4は、 以上の性質を利用して、 この例では、 各画素 毎に、 画像の静止部分であるか、 画像の動き部分であるかを判定する 。 すなわち、 静動判定回路 1 4は、 動き適応型リカーシブフィル夕 1 1からの出力画像信号の画素値と、 クラス分類適応ノイズ除去回路 1 2からの出力画像信号の画素値との差分を算出する差分値算出回路 1 4 1 と、 差分値算出回路 1 4 1からの差分値を絶対値化する絶対値化 回路 1 4 2 と、 比較判定回路 1 4 3 とを有する。  In this example, the static / movement determining circuit 14 determines whether each pixel is a static portion or a moving portion of the image by using the above-described properties. That is, the still / moving judgment circuit 14 calculates the difference between the pixel value of the output image signal from the motion adaptive recursive filter 11 and the pixel value of the output image signal from the classification adaptive noise elimination circuit 12. It has a difference value calculation circuit 14 1, an absolute value conversion circuit 14 2 for converting a difference value from the difference value calculation circuit 14 1 into an absolute value, and a comparison judgment circuit 14 3.
比較判定回路 1 4 3は、 絶対値化回路 1 4 2からの差分値の絶対値 が、 予め定めた値よりも大きいときには、 動き部分と判定し、 絶対値 化回路 1 4 2からの差分値の絶対値が、 予め定めた値よりも小さいと きには、 静止部分と判定する。 そして、 比較判定回路 1 4 3は、 画像 の静止部分であると判定した画素については、 動き適応型リカーシブ フィルタ 1 1からの出力画像信号を選択するように選択回路 1 6を制 御し、 画像の動き部分であると判定した画素については、 クラス分類 適応ノイズ除去回路 1 2からの出力画像信号を選択するように選択回 路 1 6を制御する。  When the absolute value of the difference value from the absolute value conversion circuit 144 is larger than a predetermined value, the comparison determination circuit 144 determines that the moving portion is present, and determines the difference value from the absolute value conversion circuit 144. When the absolute value of is smaller than a predetermined value, it is determined that the portion is a stationary portion. Then, the comparison and determination circuit 144 controls the selection circuit 16 so as to select the output image signal from the motion adaptive recursive filter 11 for the pixel determined to be a still part of the image, The selection circuit 16 is controlled so as to select an image signal output from the classifying adaptive noise elimination circuit 12 for the pixel determined to be the moving part of the image.
したがって、 選択回路 1 6からは、 すなわち、 出力選択部 1 3から は、 静止部分については、 長いフレームの情報を蓄積することできて 、 良好にノイズ除去される動き適応型リカーシブフィルタからの出力 画像信号が出力され、 動き部分については、 ノイズ除去されない動き 適応型リカーシブフィルタからの出力画像信号に代わって、 クラス分 類適応ノイズ除去回路 1 2からの出力画像信号が出力される。 したが つて、 出力選択部 1 3からは、 静止部分および動き部分にわたって、 ノイズ除去された出力画像信号が得られる。 Therefore, from the selection circuit 16, that is, from the output selection unit 13, for the stationary part, information of a long frame can be accumulated, and the output image from the motion adaptive recursive filter that can remove noises well can be stored. The signal is output, and the motion part is An output image signal from the class classification adaptive noise elimination circuit 12 is output instead of the output image signal from the adaptive recursive filter. Therefore, an output image signal from which noise has been removed is obtained from the output selection unit 13 over the stationary part and the moving part.
動き適応型リカーシブフィルタ 1 1 としては、 第 1図の例の構成に 限らず、 第 4図に示す構成のものを使用しても良い。 第 4図において 、 参照符号 1 0 1が時間合わせ用の遅延回路を示し、 参照符号 1 0 4 が動きべク トル検出回路を示す。 遅延回路 1 0 1 を介された入力画像 信号が合成回路 1 0 2に供給される。 合成回路 1 0 2には、 蓄積メモ リ 1 0 3に蓄積されている画像がシフト回路 1 0 5を介して供給され る。 合成回路 1 0 2の合成後の出力が蓄積メモリ 1 0 3に蓄積される 。 蓄積メモリ 1 0 3の蓄積画像が出力として取り出されると共に、 動 きべク トル検出回路 1 0 4に供給される。  The motion adaptive recursive filter 11 is not limited to the configuration shown in FIG. 1 but may be a configuration shown in FIG. In FIG. 4, reference numeral 101 denotes a delay circuit for time alignment, and reference numeral 104 denotes a motion vector detection circuit. The input image signal passed through the delay circuit 101 is supplied to the synthesizing circuit 102. The image stored in the storage memory 103 is supplied to the synthesizing circuit 102 via the shift circuit 105. The combined output of the combining circuit 102 is stored in the storage memory 103. The stored image in the storage memory 103 is taken out as an output and supplied to the motion vector detection circuit 104.
動きべク トル検出回路 1 0 4は、 入力画像信号と蓄積メモリ 1 0 3 の蓄積画像との間の動きベク トルを検出する。 シフ ト回路 1 0 5は、 動きべク トル検出回路 1 0 4で検出された動きべク トルにしたがって 蓄積メモリ 1 0 3から読み出された画像の位置を水平および/または 垂直方向にシフトする。 シフト回路 1 0 5によって動き補償がなされ るので、 合成回路 1 0 2では、 下記のように、 互いに空間的に同一位 置の画素同士が加算されることになる。  The motion vector detection circuit 104 detects a motion vector between the input image signal and the image stored in the storage memory 103. The shift circuit 105 shifts the position of the image read from the storage memory 103 horizontally and / or vertically according to the motion vector detected by the motion vector detection circuit 104. . Since the motion compensation is performed by the shift circuit 105, in the synthesizing circuit 102, the pixels spatially located at the same position are added as described below.
合成回路 1 0 2の出力の合成値 = (入力画像の画素値 X N +蓄積画 像の画素値 X M ) / ( N + M ) ( Nおよび Mは、 所定の係数)  The composite value of the output of the composite circuit 102 = (pixel value of input image X N + pixel value of accumulated image X M) / (N + M) (N and M are predetermined coefficients)
したがって、 蓄積メモリ 1 0 3には、 複数フレーム期間にわたって 画素のデ一夕が足し込まれた結果が蓄積される。 この処理によって、 相関のないノイズ成分を除去することができる。  Therefore, the accumulation memory 103 accumulates the result of adding the pixel data over a plurality of frame periods. By this processing, noise components having no correlation can be removed.
第 5図は、 第 4図に示す構成の処理をソフトウエア処理で行う場合 の流れを示すフローチヤ一卜である。 最初のステップ S 5 1では、 蓄 積画像上の画像領域とその画像領域に対応する入力画像上の画像領域 との間で動きべク トルを検出する。 次のステップ S 5 2では、 検出し た動きべク トルに基づいて、 蓄積画像の位置をシフトする。 そして、 入力画像と位置がシフ トされた蓄積画像を合成して蓄積する (ステツ プ S 5 3 ) 。 ステップ S 5 4では、 蓄積メモリから蓄積画像を読み出 して出力する。 Fig. 5 shows the case where the processing of the configuration shown in Fig. 4 is performed by software processing. This is a flowchart showing the flow of the operation. In the first step S51, a motion vector is detected between an image region on the accumulated image and an image region on the input image corresponding to the image region. In the next step S52, the position of the stored image is shifted based on the detected motion vector. Then, the input image and the stored image whose position has been shifted are synthesized and stored (step S53). In step S54, the stored image is read from the storage memory and output.
[クラス分類適応ノィズ除去回路の説明]  [Explanation of Classification Adaptive Noise Removal Circuit]
次に、 この実施形態に用いられるクラス分類適応ノイズ除去回路に ついて詳細に説明する。 以下に説明する例では、 クラス分類適応処理 として、 入力画像信号の信号レベルの 3次元 (時空間) 分布に応じて クラス分類を行い、 クラス毎に予め学習によって獲得された予測係数 をメモリに格納し、 かかる予測係数を使用した重み付け加算式に従う 演算処理によって最適な推定値 (すなわち、 ノイズ除去後の画素値) を出力する処理を挙げている。  Next, the class classification adaptive noise elimination circuit used in this embodiment will be described in detail. In the example described below, as the class classification adaptive processing, class classification is performed according to the three-dimensional (spatio-temporal) distribution of the signal level of the input image signal, and the prediction coefficients obtained by learning in advance for each class are stored in a memory. Then, a process of outputting an optimum estimated value (that is, a pixel value after noise removal) by an arithmetic process according to a weighted addition formula using such a prediction coefficient is described.
また、 この例は、 画像の動きを考慮してクラス分類適応処理を行う ことによってノイズ除去を行うものである。 すなわち、 入力画像信号 から推定される動きに応じて、 ノイズ成分を検出するために参照され るべき画素領域と、 ノイズを除去するための演算処理に使用されるべ き画素領域とが切り出され、 これらに基づいてクラス分類適応処理に よってノイズが除去された画像を出力するようにしたものである。 第 6図は、 この実施形態に用いられるクラス分類適応ノイズ除去回 路の全体的構成を示すものである。  In this example, noise removal is performed by performing the classification adaptive processing in consideration of the motion of the image. That is, a pixel region to be referred to for detecting a noise component and a pixel region to be used for an arithmetic process for removing noise are cut out according to the motion estimated from the input image signal, Based on these, an image from which noise has been removed by the classification adaptive processing is output. FIG. 6 shows an overall configuration of a class adaptive noise removal circuit used in this embodiment.
処理されるべき入力画像信号はフレームメモリ 2 1に供給される。 フレームメモリ 1は、 供給される現在フレームの画像を記憶すると 共に、 1 フレーム前の画像をフレームメモリ 2 2に供給する。 フレー ムメモリ 2 2は、 供給される 1 フレームの画像を記憶すると共に、 そ の 1 フレーム前の画像をフレームメモリ 2 3に供給する。 このように して、 フレームメモリ 2 1、 2 2、 2 3には、 この順に、 より新しい フレ一ムの画像が記憶される。 The input image signal to be processed is supplied to a frame memory 21. The frame memory 1 stores the supplied image of the current frame and supplies the image of the previous frame to the frame memory 22. Frey The memory 22 stores the supplied one-frame image, and supplies the image one frame before to the frame memory 23. In this way, images of newer frames are stored in the frame memories 21, 22, and 23 in this order.
以下の説明は、 フレームメモリ 2が現フレームを記憶し、 また、 フレームメモリ 2 1が現フレームの 1 フレーム後のフレームを記憶し 、 フレームメモリ 2 3が現フレームの 1 フレーム前のフレームを記憶 する場合を例として行う。  In the following description, the frame memory 2 stores the current frame, the frame memory 21 stores the frame one frame after the current frame, and the frame memory 23 stores the frame one frame before the current frame. The case is taken as an example.
なお、 フレームメモリ 2 1、 1 1、 2 3の記憶内容は、 これに限定 されるものではない。 例えば時間的に 2フレーム間隔の画像を記憶し ても良い。 また、 連続する 3 フレームに限らず、 5個のフレームメモ リを設け、 連続する 5フレームの画像を記憶するようにしてもよい。 さらに、 フレ一ムメモリに代えてフィールドメモリを使用することも 可能である。  Note that the storage contents of the frame memories 21, 11, 23 are not limited to this. For example, images at a time interval of two frames may be stored. Also, not limited to three consecutive frames, five frame memories may be provided to store images of five consecutive frames. Furthermore, a field memory can be used instead of the frame memory.
フレームメモリ 2 1、 1 、 2 3にそれぞれ記憶されている後フレ —ム、 現フレーム、 前フレームの画像データは、 動きべク トル検出部 2 4、 動きべク トル検出部 2 5、 第 1領域切り出し部 2 6および第 2 領域切り出し部 2 7に供給される。  The image data of the rear frame, the current frame, and the previous frame stored in the frame memories 21, 1, and 23 are respectively stored in the motion vector detector 24, the motion vector detector 25, and the first frame. It is supplied to the area cutout section 26 and the second area cutout section 27.
動きべク トル検出部 2 4は、 フレームメモリ 1 2に記憶された現フ レームの画像と、 フレームメモリ 2 3に記憶された前フレームの画像 との間の注目画素についての動きベク トルを検出する。 また、 動きべ ク トル検出部 2 5は、 フレームメモリ 2 2に記憶された現フレームの 画像と、 フレームメモリ 2 1に記億された後フレームの画像との間の 注目画素についての動きべク トルを検出する。  The motion vector detection unit 24 detects a motion vector for a pixel of interest between the current frame image stored in the frame memory 12 and the previous frame image stored in the frame memory 23. I do. Further, the motion vector detection unit 25 calculates the motion vector of the pixel of interest between the image of the current frame stored in the frame memory 22 and the image of the subsequent frame stored in the frame memory 21. Detects torque.
動きべク トル検出部 2 4および 2 5のそれぞれで検出された注目画 素に関する動きべク トル (動き方向および動き量) は、 第 1領域切り 出し部 2 6および第 2領域切り出し部 2 7に供給される。 動きべク ト ルを検出する方法としては、 ブロックマッチング法、 相関係数による 推定、 勾配法等を使用することができる。 The motion vector (movement direction and motion amount) of the pixel of interest detected by each of the motion vector detection units 24 and 25 is determined by the first area segmentation. It is supplied to the output section 26 and the second area cutout section 27. As a method of detecting a motion vector, a block matching method, an estimation using a correlation coefficient, a gradient method, or the like can be used.
第 1領域切り出し部 2 6は、 これに供給される各フレームの画像デ —夕から、 動きベク トル検出部 2 4、 2 5で検出された動きベク トル を参照しながら、 後述するような位置の画素を抽出し、 抽出した画素 値を特徴検出部 2 8に供給する。  The first area cutout unit 26 starts the image data of each frame supplied thereto from the evening, referring to the motion vectors detected by the motion vector detection units 24 and 25, and The extracted pixel value is supplied to the feature detection unit 28.
特徴検出部 2 8は、 第 1領域切り出し部 2 6の出力に基づいて、 後 述するように、 ノイズ成分に係る情報を表現するクラスコードを発生 し、 発生したクラスコードを係数 R O M 2 9に供給する。 このように The feature detection unit 28 generates a class code representing information related to the noise component based on the output of the first area cutout unit 26, as described later, and stores the generated class code in the coefficient ROM 29. Supply. in this way
、 第 1領域切り出し部 2 6が抽出する画素は、 クラスコードの発生の ために使用されるので、 クラスタップと称される。 Since the pixels extracted by the first area cutout unit 26 are used for generating a class code, they are called class taps.
係数 R O M 2 9は、 後述するような学習によって決定される予測係 数をクラス每に、 より具体的にはクラスコ一ドに関連するァドレスに 沿って、 予め記憶している。 そして、 係数 R O M 2 9は、 特徴検出部 The coefficient R OM 29 stores a prediction coefficient determined by learning as described later in advance in Class I, more specifically, along with an address associated with the class code. The coefficient R OM 29 is calculated by the feature detector
2 8から供給されるクラスコードをア ドレスとして受け、 それに対応 する予測係数を出力する。 28 Receives the class code supplied from 8 as an address and outputs the corresponding prediction coefficient.
一方、 第 1領域切り出し部 2 7は、 フレームメモリ 2 1、 1 、 2 On the other hand, the first area cutout unit 27 is a frame memory 21, 1, 2
3がそれぞれ記憶している連続する 3フレームの画像のデ一夕から予 測用の画素を抽出し、 抽出した画素の値を推定演算部 3 0に供給する3 extracts pixels for prediction from the data of three consecutive frames stored in each of the three, and supplies the values of the extracted pixels to the estimation calculation unit 30.
。 推定演算部 3 0は、 第 2領域切り出し部 2 7の出力と、 係数 R O M. The estimation operation unit 30 outputs the output of the second region extraction unit 27 and the coefficient R OM
2 9から読み出される予測係数とに基づいて、 以下の式 ( 1 ) に示す ような重み付け演算を行って、 ノイズが除去された予測画像信号を生 成する。 このように、 第 2領域切り出し部 2 7が抽出する画素値は、 予測画像信号を生成するための重み付け加算において使用されるのてBased on the prediction coefficient read out from the reference numeral 29, a weighting operation as shown in the following equation (1) is performed to generate a predicted image signal from which noise has been removed. As described above, the pixel values extracted by the second region cutout unit 27 are used in the weighted addition for generating the predicted image signal.
、 予測タップと称される。 = W 1 X X 1 + W 2 X 2 + ' - - - + Wn X n ( 1 ) ここで、 Χ , , X 2 , · · · ·, X ηが各予測タップであり、 W i, 2 , · · · · , Wnが各予測係数である。 , Called prediction taps. = W 1 XX 1 + W 2 X 2 + '---+ Wn X n (1) where Χ,, X 2, ···, X η are each prediction taps, and W i, 2, , W n are the prediction coefficients.
第 1領域切り出し部 2 6および第 2領域切り出し部 2 7によってそ れぞれ切り出されるクラスタップおよび予測タップのタツプ構造を第 7図に示す。 第 7図において、 予測されるべき注目画素を黒丸で示し 、 クラスタップまたは予測タップとして切り出される画素を影を符し た丸で示した。 第 7図 Aには、 基本的なクラスタップの構造の一例を 示す。 注目画素を含む現フレーム f [ 0 ] と、 時間的に現フレームの 前後に位置するフレーム、 すなわち、 f [一 1 ] と f [+ 1 ] とから 注目画素と同一の空間的位置の画素がクラスタップとして切り出され る。  FIG. 7 shows the tap structures of the class taps and the prediction taps cut out by the first area cut-out unit 26 and the second area cut-out unit 27, respectively. In FIG. 7, a target pixel to be predicted is indicated by a black circle, and a pixel cut out as a class tap or a prediction tap is indicated by a circle with a shadow. Fig. 7A shows an example of the structure of a basic class tap. From the current frame f [0] including the pixel of interest and the frames temporally before and after the current frame, that is, f [1-1] and f [+1], the pixel at the same spatial position as the pixel of interest is Cut out as a class tap.
すなわち、 この例においては、 クラスタップが前フレーム f [- 1 ] 、 現フレーム f [ 0 ] 、 後フレーム f [+ 1 ] のそれぞれにおいて 、 1画素のみが抽出されるタップ構造である。  That is, in this example, the class tap has a tap structure in which only one pixel is extracted in each of the previous frame f [-1], the current frame f [0], and the subsequent frame f [+1].
第 1領域切り出し部 2 6においては、 動きべク トル検出部 2 4およ び 2 5によって検出された注目画素の動きべク トルが充分小さく、 静 止部分と判定される場合には、 前フレーム f [_ 1 ] , 現フレーム f  In the first area cutout unit 26, if the motion vector of the pixel of interest detected by the motion vector detection units 24 and 25 is sufficiently small and determined to be a static part, Frame f [_ 1], current frame f
[ 0 ] 、 後フレーム f [+ 1 ] の各フレームにおける同一画素位置の 画素がノイズ検出のためのクラスタップとして抽出される。 したがつ て、 処理対象の各フレーム内のクラスタップの画素位置は一定であり 、 タップ構造に変動は無い。  [0], the pixel at the same pixel position in each frame of the subsequent frame f [+1] is extracted as a class tap for noise detection. Therefore, the pixel position of the class tap in each frame to be processed is constant, and the tap structure does not change.
一方、 注目画素の動きがある程度以上大きく、 動き部分であると判 定される場合には、 第 1領域切り出し部 2 6は、 前フレーム f [- 1 ] , 現フレーム f [ 0 ] 、 後フレーム f [+ 1 ] の各フレームから、 画像上において注目画素に対応する位置の画素をクラスタップとして 抽出する。 つまり、 動きべク トルに対応した位置の画素が抽出されるOn the other hand, if it is determined that the movement of the target pixel is larger than a certain level and it is a moving part, the first area cutout unit 26 sets the previous frame f [-1], the current frame f [0], and the subsequent frame f From each frame of [+ 1], the pixel at the position corresponding to the Extract. In other words, the pixel at the position corresponding to the motion vector is extracted
。 後フレーム f [ + 1 ] の画像データから抽出する画素の位置は、 動 きべク トル検出部 2 4で検出された動きべク トルによって決定され、 前フレーム f [一 1 ] の画像デ一夕から抽出する画素の位置は、 動き べク トル検出部 2 5で検出された動きべク トルによって決定される。 第 7図 Bは、 第 2領域切り出し部 2 7によって抽出される基本的な 予測タップ構造の一例を示す。 注目フレームの画素データと、 時間的 に注目フレームの前後に位置するフレームの画像データとから、 注目 画素と、 注目画素の周囲に位置する例えば 1 2個の画素との計 1 3個 の画素が予測タップとして切り出される。 . The position of the pixel to be extracted from the image data of the subsequent frame f [+1] is determined by the motion vector detected by the motion vector detection unit 24, and the image data of the previous frame f [1-1] is determined. The position of the pixel extracted from the evening is determined by the motion vector detected by the motion vector detection unit 25. FIG. 7B shows an example of a basic prediction tap structure extracted by the second region cutout unit 27. From the pixel data of the frame of interest and the image data of the frames temporally located before and after the frame of interest, a total of 13 pixels including the pixel of interest and, for example, 12 pixels surrounding the pixel of interest are obtained. It is cut out as a prediction tap.
さらに、 動きべク トル検出部 2 4、 2 5から出力される動きべク ト ルに応じて時間的に切り出し位置がずらされる場合について、 第 7図 C、 第 7図 Dに示す。 第 7図 Eに示すように、 注目フレームにおける 動きべク トルが ( 0 , 0 ) であり、 前フレームにおける動きべク トル が (一 1, 一 1 ) 、 後フレームにおける動きべク トルが ( 1, 1 ) で ある場合に、 フレーム全体におけるクラスタップ、 予測タップの切り 出し位置が動きベク トルにしたがって平行移動させられる。  Further, FIGS. 7C and 7D show the case where the cut-out position is temporally shifted according to the motion vector output from the motion vector detection units 24 and 25. FIG. As shown in Fig. 7E, the motion vector in the frame of interest is (0, 0), the motion vector in the previous frame is (11, 11), and the motion vector in the subsequent frame is (0, 0). In the case of 1, 1), the cutout positions of the class taps and prediction taps in the entire frame are translated in accordance with the motion vector.
なお、 予測タップとして上述のクラスタップと同様のタップ構造を 用いても良い。  Note that a tap structure similar to the above-described class tap may be used as the prediction tap.
このような動きべク トルに基づく画素抽出の結果、 第 1領域切り出 し部 2 6によつて抽出されるクラスタツプは、 複数フレーム間におけ る画像上の対応画素となる。 同様に、 第 2領域切り出し部 2 7によつ て抽出される予測タップも、 動き補正によって、 複数フレーム間にお ける画像上の対応画素となる。  As a result of the pixel extraction based on such a motion vector, the cluster tap extracted by the first region cutout unit 26 becomes a corresponding pixel on the image between a plurality of frames. Similarly, the prediction tap extracted by the second area cutout unit 27 also becomes a corresponding pixel on an image between a plurality of frames due to the motion correction.
なお、 フレームメモリ数を増やし、 3個に代わって例えば 5個とし 、 例えば現フレームおよびその前後の 2個ずつのフレームを記億して 、 現フレームから注目画素のみを抽出し、 前/後の 2個ずつのフレー ムから注目画素に対応する画素を抽出するようなクラスタップ構造を 使用しても良い。 そのようにした場合には、 抽出される画素領域が時 間的に拡張されるので、 より効果的なノイズ除去が可能となる。 It should be noted that the number of frame memories is increased and, for example, five instead of three, for example, by storing the current frame and two frames before and after the current frame. Alternatively, a class tap structure may be used in which only the pixel of interest is extracted from the current frame, and a pixel corresponding to the pixel of interest is extracted from each of the preceding and succeeding two frames. In such a case, the pixel region to be extracted is expanded temporally, so that more effective noise removal can be performed.
特徴検出部 2 8は、 後述するように、 第 1領域切り出し部 2 6でク ラスタップとして切り出された 3フレームの画素の画素値の変動から 、 注目画素についてのノイズ成分のレベル変動を特徴量として検出す る。 そして、 そのノイズ成分のレベル変動に応じたクラスコードを係 数 ROM 2 9に出力する。 つまり、 特徴検出部 2 8は、 注目画素のノ ィズ成分のレベル変動をクラス分けし、 そのクラス分けしたクラスの いずれであるかを示すクラスコ一ドを出力する。  As will be described later, the feature detection unit 28 uses the variation in the pixel value of the pixel of the three frames extracted as a class tap in the first area extraction unit 26 as To detect. Then, a class code corresponding to the level change of the noise component is output to the coefficient ROM 29. That is, the feature detecting unit 28 classifies the level variation of the noise component of the target pixel into classes, and outputs a class code indicating which of the classified classes.
この実施形態においては、 特徴検出部 2 8は、 第 1領域切り出し部 2 6の出力について、 ADRC (Ad a p t i v e D y n a m i c R a n g e C o d i n g ) を行い、 複数フレームに渡る注目画素 の対応画素のレベル変動を ADRC出力からなるクラスコードを発生 する。  In this embodiment, the feature detection unit 28 performs ADRC (Adaptive Dynamic Range Coding) on the output of the first region cutout unit 26, and performs level fluctuation of the corresponding pixel of the pixel of interest over a plurality of frames. Generates a class code consisting of the ADRC output.
第 8図は、 特徴検出部 2 8の一例を示す。 第 8図は、 1 ビッ ト AD RCによって、 クラスコードを発生するものである。  FIG. 8 shows an example of the feature detecting section 28. Fig. 8 shows the generation of class code by 1-bit ADRC.
ダイナミックレンジ検出回路 2 8 1には、 前述したように、 フレー ムメモリ 2 1 , 1 , 2 3のそれぞれから、 現フレームの注目画素と 、 現フレームの前後のフレームの前記注目画素に対応する 2個の画素 との合計 3個の画素が供給される。 各画素の値は、 例えば 8 ビッ 卜で 表現されている。 ダイナミックレンジ検出回路 2 8 1は、 3個の画素 の中の最大値 MAXと、 最小値 M I Nとを検出し、 MAX_M I N = DRなる演算によって、 ダイナミックレンジ DRを算出する。  As described above, the dynamic range detection circuit 281 includes, from each of the frame memories 21, 1, and 23, two pixels corresponding to the pixel of interest of the current frame and the pixel of interest before and after the current frame. A total of three pixels are supplied. The value of each pixel is represented by, for example, 8 bits. The dynamic range detection circuit 281 detects the maximum value MAX and the minimum value MIN among the three pixels, and calculates the dynamic range DR by an operation of MAX_MIN = DR.
そして、 ダイナミックレンジ検出回路 2 8 1は、 その出力として、 算出したダイナミックレンジ DRと、 最小値 M I Nと、 入力された 3 個の画素のそれぞれの画素値 p Xを、 それぞれ出力する。 And the dynamic range detection circuit 281, as its output, The calculated dynamic range DR, the minimum value MIN, and the pixel value p X of each of the three input pixels are output.
ダイナミックレンジ検出回路 2 8 1からの 3個の画素の画素値 P は、 減算回路 2 8 2に順に供給され、 各画素値 P Xから最小値 M I N が減算される。 各画素値 P Xから最小値 M I Nが除去されることで、 正規化された画素値が比較回路 2 8 3に供給される。  The pixel values P of the three pixels from the dynamic range detection circuit 281 are sequentially supplied to a subtraction circuit 282, and the minimum value M IN is subtracted from each pixel value PX. By removing the minimum value M IN from each pixel value P X, the normalized pixel value is supplied to the comparison circuit 283.
比較回路 2 8 3には、 ダイナミックレンジ D Rを 1 / 2にするビッ トシフ ト回路 2 8 4の出力 (DR/ 2 ) が供給され、 画素値 P Xと D R/ 2との大小関係が検出される。 画素値 P Xが D R/ 2より大きい 時には、 比較回路 2 8 3の 1 ビッ トの比較出力が" Γ とされ、 そうで ないときは、 前記比較出力が" 0" とされる。 そして、 比較回路 2 8 3 は、 順次得られる 3画素の比較出力を並列化して 3 ビッ トの ADRC 出力を発生する。  The output (DR / 2) of the bit shift circuit 284 that reduces the dynamic range DR to 1/2 is supplied to the comparison circuit 283, and the magnitude relationship between the pixel value PX and DR / 2 is detected. . When the pixel value PX is larger than DR / 2, the 1-bit comparison output of the comparison circuit 283 is set to “Γ”, otherwise, the comparison output is set to “0”. The 283 generates the 3-bit ADRC output by parallelizing the comparison outputs of the three pixels obtained sequentially.
また、 ダイナミックレンジ DRがビッ ト数変換回路 2 8 5に供給さ れ、 量子化によってビッ ト数が 8 ビッ 卜から例えば 5 ビッ 卜に変換さ れる。 そして、 このビッ ト数変換されたダイナミックレンジと、 3 ビ ッ トの ADRC出力とが、 クラスコードとして、 係数 ROM 2 9に供 給される。  The dynamic range DR is supplied to a bit number conversion circuit 285, and the number of bits is converted from 8 bits to, for example, 5 bits by quantization. Then, the dynamic range converted into the number of bits and the 3-bit ADRC output are supplied to the coefficient ROM 29 as a class code.
上述したようなクラスタツプ構造の下では、 現フレームの注目画素 と、 その前後のフレームの対応画素との間では、 画素値の変動が生じ ない、 あるいは小さいはずである。 したがって、 画素値の変動が検出 される場合には、 それはノイズに起因すると判定できる。  Under the cluster-top structure described above, the pixel value should not fluctuate or be small between the target pixel of the current frame and the corresponding pixels of the previous and subsequent frames. Therefore, when a change in pixel value is detected, it can be determined that the change is caused by noise.
一例を説明すると、 第 9図に示す例の場合には、 時間的に連続した t - 1 , t, t + 1の各フレームから抽出されたクラスタップの画素 値が 1 ビッ ト ADRCの処理を受けることによって、 3 ビッ ト [ 0 1 0 ] の AD R C出力が発生する。 そして、 ダイナミックレンジ D Rが 5 ビッ 卜に変換されたものが出力される。 3 ビッ トの A D R C出力に よって、 注目画素についてのノイズレベルの変動が表現される。 To explain one example, in the case of the example shown in Fig. 9, the pixel value of the class tap extracted from each temporally continuous frame of t-1, t, t + 1 is 1-bit ADRC processing. This generates a 3-bit [0 10] ADRC output. And the dynamic range DR The one converted to 5 bits is output. The 3-bit ADRC output represents the noise level fluctuation for the pixel of interest.
この場合、 1 ビッ トではなく、 多ビッ ト A D R Cを行うようにすれ ば、 ノイズレベル変動をより的確に表現することが可能となる。 また 、 ダイナミックレンジ D Rを 5 ビッ トに変換したコードによって、 ノ ィズレベルの大きさが表現される。 8ビッ トを 5 ビッ トに変換するの は、 クラス数があまり多くならないようにするためである。  In this case, by performing multi-bit ADRC instead of one bit, it is possible to more accurately express the noise level fluctuation. The noise level is represented by a code obtained by converting the dynamic range DR into 5 bits. The purpose of converting 8 bits to 5 bits is to avoid having too many classes.
このように、 特徴検出部 2 8が生成するクラスコードは、 この例の 場合には A D R Cの結果として得られる時間方向のノイズレベル変動 に係る例えば 3 ビッ トからなるコードと、 ダイナミックレンジ D Rの 結果として得られるノイズレベルに係る例えば 5 ビッ トからなるコー ドとを含むものとされる。 ダイナミックレンジ D Rをクラス分類に用 いることにより、 動きとノイズとを区別でき、 また、 ノイズレベルの 違いを区別できる。  Thus, in this example, the class code generated by the feature detection unit 28 is, for example, a 3-bit code related to the noise level fluctuation in the time direction obtained as a result of ADRC, and the result of the dynamic range DR. And a code consisting of, for example, 5 bits related to the noise level obtained as By using the dynamic range DR for class classification, motion and noise can be distinguished, and differences in noise level can be distinguished.
次に、 学習処理、 すなわち、 係数 R O M 2 9に格納する予測係数を 得る処理について、 第 1 0図を参照して説明する。 ここで、 第 6図中 の構成要素と同様な構成要素には、 同一の参照符号を付した。  Next, a learning process, that is, a process of obtaining a prediction coefficient to be stored in the coefficient ROM 29 will be described with reference to FIG. Here, the same components as those in FIG. 6 are denoted by the same reference numerals.
学習を行うために用いられる、ノイズを含まない入力画像信号 (教 師信号と称する) が、 ノイズ付加部 3 1、 および正規方程式加算部 3 2に供給される。 ノイズ付加部 3 1は、 入力画像信号にノイズ成分を 付加してノイズ付加画像 (生徒信号と称する) を生成し、 生成した生 徒信号をフレームメモリ 2 1に供給する。 第 6図を参照して説明した ように、 フレームメモリ 2 1、 、 2 3には、 時間的に連続する 3 フレームの生徒信号の画像がそれぞれ記憶される。  A noise-free input image signal (referred to as a teacher signal) used for learning is supplied to a noise adding unit 31 and a normal equation adding unit 32. The noise adding unit 31 adds a noise component to the input image signal to generate a noise-added image (referred to as a student signal), and supplies the generated student signal to the frame memory 21. As described above with reference to FIG. 6, the frame memories 21, 23 store the images of the student signal of three frames that are temporally continuous, respectively.
以下の説明は、 フレームメモリ 2 2が現フレームの画像を記憶し、 また、 フレームメモリ 1 1および 2 3がそれぞれ、 現フレームの後お よび前のフレームの画像を記億する場合を例として行う。 但し、 前述 したように、 フレームメモリ 2 1、 1 、 2 3の記憶内容は、 これに 限定されるものではない。 In the following description, the frame memory 22 stores the image of the current frame, and the frame memories 11 and 23 respectively store the image after the current frame. And the case where the image of the previous frame is recorded. However, as described above, the storage contents of the frame memories 21, 1, and 23 are not limited to this.
フレームメモリ 2 1、 1 、 2 3の後段においては、 第 6図を参照 して上述した処理とほぼ同様な処理がなされる。 同じ処理を行うプロ ックに対しては、 第 6図と同一の参照符号を付した。 但し、 特徴検出 部 2 8が発生するクラスコードおよび第 2領域切り出し部 2 7が抽出 する予測タップは、 正規方程式加算部 3 2に供給される。 正規方程式 加算部 3 2には、 さらに、 教師信号が供給される。 正規方程式加算部 3 2は、 これら 3種類の入力に基づいて係数を生成するために、 正規 方程式を生成する処理を行い、 予測係数決定部 3 3は、 正規方程式か らクラスコード毎の予測係数を決定する。 そして、 予測係数決定部 3 3は、 決定した予測係数をメモリ 3 4に供給する。 メモリ 3 4は、 供 給される予測係数をクラス毎に記憶する。 メモリ 3 4に記憶される予 測係数と、 係数 ROM 2 9 (第 6図) に記憶される予測係数とは、 同 一のものである。  In the subsequent stage of the frame memories 21, 1, and 23, almost the same processing as that described above with reference to FIG. 6 is performed. The same reference numerals as those in FIG. 6 denote the same processes. However, the class code generated by the feature detecting unit 28 and the prediction tap extracted by the second region extracting unit 27 are supplied to the normal equation adding unit 32. The teacher signal is further supplied to the normal equation addition unit 32. The normal equation adding unit 32 performs a process of generating a normal equation in order to generate a coefficient based on these three types of inputs, and the prediction coefficient determination unit 33 executes a prediction coefficient for each class code from the normal equation. To determine. Then, the prediction coefficient determination unit 33 supplies the determined prediction coefficient to the memory 34. The memory 34 stores the supplied prediction coefficients for each class. The prediction coefficients stored in the memory 34 and the prediction coefficients stored in the coefficient ROM 29 (FIG. 6) are the same.
次に、 正規方程式について説明する。 上述の式 ( 1 ) において、 学 習前は予測係数 , · · ■ , Wn が未定係数である。 学習は、 クラ ス毎に複数の教師信号を入力することによって行う。 教師信号のクラ ス每の種類数を mと表記する場合、 式 ( 1 ) から、 以下の式 ( 2 ) が 設定される。  Next, the normal equation will be described. In the above equation (1), before learning, the prediction coefficients,..., Wn are undetermined coefficients. Learning is performed by inputting multiple teacher signals for each class. When the number of classes of the teacher signal 信号 is denoted by m, the following equation (2) is set from the equation (1).
y k =W l X X k l +W2 X X k2 + - · · - + Wn X kn (2) yk = W l XX kl + W 2 XX k2 +---+ Wn X kn (2)
( k = 1、 ■ · ·、 m)  (k = 1, ■ · ·, m)
m>nの場合、 予測係数 w!, . . · · , wnは一意に決まらないの で、 誤差べク トル eの要素 e kを、 以下の式 ( 3 ) で定義する。 For m> n, prediction coefficients w !,.. · ·, than w n are not uniquely determined, elements e k error base-vector e, it is defined by the following equation (3).
e k=yk - {wi X xki + w2 x k2 + - · · - + wn x x kn} (3) (k= 1、 2、 · · ·、 m) ek = yk-{wi X xki + w 2 x k2 +-·-+ w n xx kn } (3) (k = 1, 2, · · ·, m)
そして、 以下の式 ( 4 ) によって定義される誤差べク トル eを最小 とするように予測係数を定めるようにする。 すなわち、 いわゆる最小 2乗法によつて予測係数を一意に定める。 e =∑ e, (4) k = o 式 ( 4 ) の e 2を最小とする予測係数を求めるための実際的な計算 方法としては、 e 2 を予測係数 Wi (〖 = 1 , 2 , · · · ) で偏微分 し (以下の式 ( 5 ) ) 、 iの各値について偏微分値が 0となるように 各予測係数 wi を定めれば良い。 2½ e. (5)
Figure imgf000026_0001
式 ( 5 ) から各予測係数 wi を定める具体的な手順について説明す る。 式 ( 6 ) 、 ( 7 ) のように Χ , Υι を定義すると、 式 ( 5 ) は 、 以下の式 ( 8 ) の行列式の形に書くことができる。
Then, the prediction coefficient is determined so as to minimize the error vector e defined by the following equation (4). That is, the prediction coefficient is uniquely determined by the so-called least square method. e = sigma e, (4) k = o formula e 2 (4) As a practical calculation method for determining the prediction coefficients to minimize, predict e 2 coefficients Wi (〖= 1, 2, · )) (Equation (5) below), and each prediction coefficient wi should be determined so that the partial differential value becomes 0 for each value of i. 2½ e. (5)
Figure imgf000026_0001
The specific procedure for determining each prediction coefficient wi from equation (5) will be described. If Χ and Υι are defined as in equations (6) and (7), equation (5) can be written in the form of the determinant of equation (8) below.
xpi 'xpj (6)xpi ' x pj (6)
/J=0 / J = 0
Figure imgf000026_0002
X\2 ' · · X 一 Ά
Figure imgf000026_0002
X \ 2 '
21 X22 . w2 21 X 22 .w 2
( 8 ) (8)
• · · « · • ·■ • · · «· • · ■
Xn2 · · · Xnn_ 一 Y n一 式 ( 8 ) が一般に正規方程式と呼ばれるものである。 予測係数決定 部 3 3は、 上述した 3種類の入力に基づいて、 正規方程式 ( 8 ) 中の 各パラメータを算出し、 さらに、 掃き出し法等の一般的な行列解法に 従って正規方程式 ( 8 ) を解く計算処理を行って予測係数 を算出 する。 X n2 ··· X nn — one Y n set (8) is generally called a normal equation. The prediction coefficient determination unit 33 calculates each parameter in the normal equation (8) based on the above three types of inputs, and further converts the normal equation (8) according to a general matrix solution such as a sweeping-out method. Perform the calculation process to solve to calculate the prediction coefficient.
次に、 ノイズ付加部 3 1におけるノイズ付加を行うためには、 例え ば以下の 4通りの何れかの方法を用いることができる。  Next, in order to add noise in the noise adding unit 31, for example, any of the following four methods can be used.
1 . コンピュータシミュレーショ ンと同様にランダムノイズを発生 させて入力画像信号に付加する。  1. Like in computer simulation, random noise is generated and added to the input image signal.
2 . 入力する画像信号に対し R F系を介してノイズを付加する。 2. Add noise to the input image signal via the RF system.
3 . レベル変化が少ない平坦な画像信号と、 かかる画像信号に R F 系を介した処理を行うことによって得られる信号との間の差としてノ ィズ成分を抽出し、 抽出したノィズ成分を入力画像信号に付加する。 3. Extract a noise component as a difference between a flat image signal with a small level change and a signal obtained by processing the image signal through an RF system, and use the extracted noise component as an input image. Add to signal.
4 . 平坦な画像信号に R F系を用いた処理を行うことによって得ら れる信号と、 かかる信号をフレーム加算することによってノイズが除 去されてなる画像信号成分との差としてノイズ成分を抽出し、 抽出し たノイズ成分を入力画像信号に付加する。  4. The noise component is extracted as the difference between the signal obtained by performing the processing using the RF system on the flat image signal and the image signal component from which the noise is removed by frame addition of the signal. The extracted noise component is added to the input image signal.
上述したクラス分類適応処理を用いたノイズ除去回路 1 2は、 画像 信号からノイズを除去するためクラス分類適応処理を行うに際し、 例 えば注目画素および注目画素に対応する画素等をクラスタップとして 抽出し、 クラス夕ップのデータに基づいてフレーム間でのノイズレべ ルの変動を検出し、 検出したノイズレベルの変動に対応してクラスコ 一ドを生成するようにしたものである。 The noise elimination circuit 12 using the above-described class classification adaptive processing performs, for example, a pixel of interest and a pixel corresponding to the pixel of interest as a class tap when performing the class classification adaptive processing to remove noise from the image signal. The noise level between frames based on the data of the class It detects the fluctuation of the noise level and generates a class code corresponding to the detected fluctuation of the noise level.
そして、 フレームの間の動きを推定し、 推定した動きを補正するよ うに、 ノイズ成分の検出処理に使用すべき画素 (クラスタップ) と予 測演算処理に使用すべき画素 (予測タップ) を抽出する。 そして、 ノ ィズ成分を反映したクラス情報毎に、 予測タップと予測係数との線形 1次結合によって、 ノイズ除去された画像信号を算出する。  Then, pixels to be used for noise component detection processing (class taps) and pixels to be used for prediction calculation processing (prediction taps) are extracted so as to estimate the motion between frames and correct the estimated motion. I do. Then, for each class information reflecting the noise component, an image signal from which noise has been removed is calculated by linear linear combination of the prediction tap and the prediction coefficient.
したがって、 ノィズ成分のフレーム間変動に的確に対応する予測係 数を選択することができるので、 そのような予測係数を使用して推定 演算を行うことにより、 ノイズ成分の除去を良好に行うことができる そして、 動きがある場合にもノイズレベルが正しく検出でき、 ノィ ズ除去が可能となる。 特に、 第 1図を参照して説明した動き適応リカ ーシブフィル夕のように動き部分を静止部分であると誤判定すること が要因となつて画像にボケが生じることを回避することができる。 さらに、 フレーム内において空間的な広がりがないクラスタツプ構 造、 例えば現フレームから注目画素のみが抽出され、 現フレームに対 して時間的に前/後にあるフレームから注目画素に対応する画素が抽 出されるようなタツプ構造をクラスタップおよび/または予測夕ップ として用いる場合には、 空間方向のぼけ要因が処理に与える影響を低 減することができる。 すなわち、 例えばエッジ等の影響により、 出力 画像信号中にぼけが生じることを低減できる。  Therefore, it is possible to select a prediction coefficient that accurately corresponds to the inter-frame variation of the noise component.Thus, by performing the estimation operation using such a prediction coefficient, it is possible to effectively remove the noise component. Yes And even if there is movement, the noise level can be detected correctly and noise can be removed. In particular, it is possible to prevent the image from being blurred due to the erroneous determination that the moving part is a stationary part as in the case of the motion adaptive recursive fill described with reference to FIG. Furthermore, a cluster-top structure having no spatial spread in a frame, for example, only a pixel of interest is extracted from the current frame, and a pixel corresponding to the pixel of interest is extracted from a frame temporally before / after the current frame. When such a tap structure is used as a class tap and / or a prediction tap, the influence of a spatial blur factor on processing can be reduced. That is, it is possible to reduce the occurrence of blurring in the output image signal due to, for example, the influence of edges and the like.
このように、 クラス分類適応ノイズ除去回路 1 2では、 画像の静止 Thus, the classification adaptive noise elimination circuit 1 2
、 動きに依存せずに、 ノイズ除去が行われる。 しかしながら、 完全な 静止部分に関しては、 長いフレームの情報を蓄積することができる動 き適応リカーシブフィルタには劣る。 この発明においては、 前述したように、 静止部分では、 第 1図また は第 4図に示すような動き適応リカーシブフィルタの出力を選択出力 し、 動き部分では、 第 6図に示すようなクラス分類適応ノイズ除去回 路の出力を選択出力するので、 画像の動き部分、 静止部分のいずれに おいても、 良好にノイズ除去がなされた画像信号出力が得られる。 なお、 クラス分類適応除去回路の説明における第 1領域切り出し部 2 6および第 2領域切り出し部 2 7でのクラスタップおよび予測夕ッ プは、 一例であって、 これに限るものでないことは言うまでもない。 また、 特徴検出部 2 8は、 上述の説明では、 1 ビッ ト A D R Cのェ ンコード回路を用いたが、 上述したように多ビッ ト A D R Cのェンコ ード回路としてもよいし、 また、 A D R C以外の符号化回路を用いる ようにしてもよい。 Denoising is performed independently of motion. However, the perfectly stationary part is inferior to a moving adaptive recursive filter that can store information of long frames. In the present invention, as described above, in the stationary part, the output of the motion adaptive recursive filter as shown in FIG. 1 or FIG. 4 is selected and output, and in the moving part, the class classification as shown in FIG. Since the output of the adaptive noise elimination circuit is selectively output, an image signal output with good noise elimination can be obtained in both the moving part and the stationary part of the image. It should be noted that the class taps and prediction taps in the first area cutout section 26 and the second area cutout section 27 in the description of the class classification adaptive elimination circuit are merely examples, and it goes without saying that they are not limited to these. . Also, in the above description, the feature detection unit 28 uses a one-bit ADRC encoding circuit. However, as described above, a multi-bit ADRC encoding circuit may be used. An encoding circuit may be used.
さらに、 以上の説明においては、 動き適応型リカーシブフィルタ 1 1の出力と、 クラス分類適応ノイズ除去回路 1 2の出力との選択は、 画素単位に行うように説明したが、 画素単位ではなく、 所定個数の画 素からなる画素ブロックやォブジヱク ト単位、 さらには、 フレーム単 位で、 選択を行うようにしてもよい。 それらの場合には、 静動判定回 路においては、 選択単位で静動判定を行う。  Furthermore, in the above description, the selection between the output of the motion adaptive recursive filter 11 and the output of the classification adaptive noise elimination circuit 12 is performed on a pixel-by-pixel basis. The selection may be performed in units of pixel blocks or objects each including a number of pixels, or in units of frames. In those cases, the static / movement determination circuit performs the static / movement determination in selected units.
また、 以上の例では、 一つの動き適応型リカーシブフィルタの出力 と、 一つのクラス分類適応除去回路の出力との 2者択一の選択とした が、 動き適応リカーシブフィル夕および/またはクラス分類適応処理 によるノイズ除去回路を複数個設け、 それらから、 出力画像信号を選 択するようにすることもできる。  In the above example, the output of one motion adaptive recursive filter and the output of one class classification adaptive elimination circuit are selected as alternatives. It is also possible to provide a plurality of noise removing circuits by processing and select an output image signal from them.
この発明の一実施形態は、 処理をハードウエアにより実施するのに 限らず、 ソフトゥヱァによって実施することも可能である。 ソフトゥ エアによる処理について以下に説明する。 第 1 1図は、 一実施形態の ノイズ除去処理の流れを示すフロ一チヤ一トである。 ステップ S 1お よび S 2で示すように、 クラス分類適応ノイズ除去処理と動き適応型 リカーシブフィル夕処理とが並行してなされる。 それぞれの処理で求 められた出力の差分が演算される (ステップ S 3 ) 。 In one embodiment of the present invention, the processing is not limited to being performed by hardware, but may be performed by software. The processing by soft-to-air will be described below. FIG. 11 shows an embodiment of the present invention. 9 is a flowchart showing a flow of a noise removal process. As shown in steps S 1 and S 2, the classification adaptive noise elimination process and the motion adaptive recursive fill process are performed in parallel. The difference between the outputs obtained in each process is calculated (step S3).
ステップ S 4において、 差分が絶対値化され、 判定のステップ S 5 において、 差分の絶対値が大きいか否かが決定される。 差分の絶対値 が大きいと決定されると、 クラス分類適応ノイズ除去の出力が選択さ れる (ステップ S 6 ) 。 そうでないときは、 動き適応型リカーシブフ イルクの出力が選択される (ステップ S 7 ) 。 以上で 1画素当りの処 理が終了する。  In step S4, the difference is converted into an absolute value, and in step S5 of the determination, it is determined whether or not the absolute value of the difference is large. If it is determined that the absolute value of the difference is large, the output of the adaptive noise removal for classification is selected (step S6). Otherwise, the output of the motion adaptive recursive filter is selected (step S7). This completes the processing for one pixel.
第 1 2図は、 動き適応型リカーシブフィルタの処理 S 2の詳細を示 すフローチャートである。 最初のステップ S 1 1において、 フレーム メモリに初期入力画像が格納される。 次のステップ S 1 2では、 フレ ームメモリ内の画像と次の入力画像の差分 (フレーム差分) が演算さ れる。 この差分がステップ S 1 3において、 絶対値化される。  FIG. 12 is a flowchart showing details of the processing S2 of the motion adaptive recursive filter. In a first step S11, an initial input image is stored in a frame memory. In the next step S12, the difference between the image in the frame memory and the next input image (frame difference) is calculated. This difference is converted into an absolute value in step S13.
絶対値化された差分がステップ S 1 4において、 しきい値と比較さ れる。 差分がしきい値以上のときには、 入力画像信号に対して乗じら れる重み係数 kが 1に設定される (ステップ S 1 5 ) 。 すなわち、 動 き部分であるために、 フレームメモリの出力信号に対して乗じられる 重み係数 ( 1 一 k ) が 0とされる。 一方、 差分がしきい値よりも小さ いときには、 ステップ S 1 6において、 kが ( 0 ~ 0 . 5 ) の範囲内 の値に設定される。  The absolute difference is compared with a threshold value in step S14. When the difference is equal to or larger than the threshold, the weight coefficient k by which the input image signal is multiplied is set to 1 (step S15). That is, the weighting factor (11 k) multiplied to the output signal of the frame memory is set to 0 because it is a moving part. On the other hand, if the difference is smaller than the threshold value, k is set to a value within the range (0 to 0.5) in step S16.
そして、 フレームメモリ内の画素と次の入力画像の同一位置の画素 とが重み付け加算される (ステップ S 1 7 ) 。 加算結果がフレームメ モリに対して格納される (ステップ S 1 8 ) 。 これと共に、 処理がス テツプ S 1 2に戻る。 そして、 加算結果が出力される (ステップ S 1 9 ) σ Then, the pixel in the frame memory and the pixel at the same position of the next input image are weighted and added (step S17). The addition result is stored in the frame memory (step S18). At the same time, the process returns to step S12. Then, the addition result is output (step S 1 9) σ
第 1 3図は、 クラス分類適応ノイズ除去処理 S 1の詳細を示すフロ —チャートである。 最初のステツプ S 2 1 において、 現フレームと前 フレーム間で動きべク トルが検出される。 次のステップ S 2 2におい ては、 現フレームと次のフレーム間で動きベク トルが検出される。 ス テツプ S 2 3では、 第 1領域切り出しがなされる。 すなわち、 クラス 夕ップが抽出される。 抽出されたクラスタップに対して、 ステップ S 2 4において、 特徴検出の処理がなされる。 予め学習処理が取得して いる係数の内で、 検出された特徴に対応するものが読み出される (ス テツプ S 2 5 ) 。  FIG. 13 is a flowchart showing details of the classification adaptive noise elimination process S1. In the first step S21, a motion vector is detected between the current frame and the previous frame. In the next step S22, a motion vector is detected between the current frame and the next frame. In step S23, the first region is cut out. That is, the class setup is extracted. In step S24, the extracted class tap is subjected to feature detection processing. The coefficient corresponding to the detected feature is read out of the coefficients obtained by the learning processing in advance (step S25).
ステップ S 2 6では、 第 2領域 (予測タップ) が切り出される。 ス テツプ S 2 7では、 係数と予測タップを用いて推定演算がなされ、 ノ ィズ除去された出力が得られる。 なお、 第 1領域切り出し処理 (ステ ップ S 2 3 ) および第 2領域切り出し処理 (ステップ S 2 6 ) におい ては、 ステップ S 2 1および S 2 2において検出された動きべク トル に基づいて切り出し位置が変更される。  In step S26, a second area (prediction tap) is cut out. In step S27, an estimation operation is performed using the coefficient and the prediction tap, and an output from which noise has been removed is obtained. In the first region cutout processing (step S23) and the second region cutout processing (step S26), the motion vectors detected in steps S21 and S22 are used. The cutout position is changed.
第 1 4図は、 クラス分類適応ノイズ除去処理に使用する係数を得る ための学習処理の流れを示すフローチャートである。 ステップ S 3 1 では、 ノイズのない画像信号 (教師信号) に対してノイズを付加して 、 生徒信号を生成する。 生徒信号に関して、 ステップ S 3 2において 、 現フレームと前フレーム間で動きべク トルが検出される。 次のステ ップ S 3 3においては、 現フレームと次のフレーム間で動きべク トル が検出される。 検出されたこれらの動きべク トルによって領域切り出 し位置が変更される。  FIG. 14 is a flowchart showing a flow of a learning process for obtaining a coefficient used in the classification adaptive noise elimination process. In step S31, a student signal is generated by adding noise to an image signal (teacher signal) without noise. Regarding the student signal, in step S32, a motion vector is detected between the current frame and the previous frame. In the next step S33, a motion vector is detected between the current frame and the next frame. The region cutout position is changed by these detected motion vectors.
ステップ S 3 4では、 第 1領域 (クラスタップ) 切り出しがなされ る。 抽出されたクラスタップに基づいて特徴検出がなされる (ステツ プ S 3 5 ) 。 次にステップ S 3 6において、 第 2領域 (予測タップ) 切り出しがなされる。 そして、 ステップ S 3 7では、 教師画像信号、 予測夕ップのデ一タおよび検出された特徴に基づいて、 予測係数を解 とする正規方程式を解くために必要なデータが計算される。 In step S34, the first area (class tap) is cut out. Feature detection is performed based on the extracted class taps (step Step S35). Next, in step S36, a second region (prediction tap) is cut out. Then, in step S37, based on the teacher image signal, the data of the prediction gap, and the detected features, data necessary for solving a normal equation having a prediction coefficient as a solution is calculated.
そして、 ステップ S 3 8では、 正規方程式の加算が終了したか否か が決定される。 終了していない場合には、 ステップ. S 3 1に処理が戻 る。 処理が終了したと決定されると、 ステップ S 3 9において、 予測 係数が決定される。 求められた予測係数がメモリに格納され、 ノイズ 除去処理で使用される。  Then, in step S38, it is determined whether the addition of the normal equations has been completed. If not, the process returns to step S31. If it is determined that the processing has been completed, a prediction coefficient is determined in step S39. The obtained prediction coefficients are stored in the memory and used in the noise removal processing.
以上説明したように、 この発明によるノイズ除去回路によれば、 静 止部分では、 動き適応リカ一シブフィル夕などの静止部分についての ノイズ除去効果が大きいノイズ除去回路の出力を選択出力し、 動き部 分では、 クラス分類適応ノイズ除去回路などの動き部分でのノイズ除 去が可能なノイズ除去回路の出力を選択出力するので、 画像の動き部 分、 静止部分のいずれにおいても、 良好にノイズ除去がなされた画像 信号出力が得られる。  As described above, according to the noise elimination circuit of the present invention, in the stationary part, the output of the noise elimination circuit having a large noise elimination effect for the stationary part such as the motion adaptive recovery filter is selectively output. The output of the noise elimination circuit that can remove noise in the moving part, such as the adaptive noise elimination circuit for classification, is selected and output, so that the noise can be removed well in both the moving part and the stationary part of the image. The resulting image signal output is obtained.
次に、 この発明をアップコンバートを行う解像度変換装置に対して 適用した他の実施形態について、 第 1 5図以降の図面を参照して説明 する。 以下に説明する他の実施形態は、 前述した標準テレビジョ ン方 式 (以下、 S Dという) の画像信号を入力画像信号として、 これを、 ハイビジョン方式 (以下、 H Dという) の出力画像信号に変換する場 合である。 そして、 以下に説明する他の実施形態では、 第 1 6図に示 すように、 S D画像の 1個の注目画素毎について、 H D画像の 4個の 画素を創造して、 解像度変換するものである。  Next, another embodiment in which the present invention is applied to a resolution conversion device that performs up-conversion will be described with reference to FIGS. In another embodiment described below, an image signal of the above-described standard television system (hereinafter, referred to as SD) is used as an input image signal, and is converted into an output image signal of a high-definition system (hereinafter, referred to as HD). This is the case. In another embodiment described below, as shown in FIG. 16, for each pixel of interest of the SD image, four pixels of the HD image are created and the resolution is converted. is there.
第 1 5図は、 他の実施形態の構成を示すブロック図である。 第 1 5 図に示すように、 この例では、 入力画像信号は画素ごとに、 蓄積形処 理による解像度変換部の一例を構成する高密度蓄積解像度変換回路 1 1 1に供給されるとともに、 クラス分類適応処理による解像度変換部 の一例を構成するクラス分類適応処理解像度変換回路 1 1 2に供給さ れる。 FIG. 15 is a block diagram showing a configuration of another embodiment. As shown in FIG. 15, in this example, the input image signal is stored in a storage type Supply to the high-density storage resolution conversion circuit 111 that constitutes an example of the resolution conversion unit based on logic, and to the class classification adaptive processing resolution conversion circuit 112 that constitutes an example of the resolution conversion unit that performs the classification adaptive processing. Is done.
高密度蓄積解像度変換回路 1 1 1は、 H D相当の画像の画像信号を 記憶するフレームメモリを備え、 そのフレームメモリに記憶されてい る画像信号による画像と、 S D入力画像信号による画像との間での動 きを参照して画素位置を補正をしながら、 S D入力画像信号を、 その フレ一ムメモリに蓄積するようにすることで、 当該フレ一ムメモリに 、 H D相当の出力画像信号を生成するもので、 その詳細な構成につい ては後述する。 この高密度蓄積解像度変換回路 1 1 1からの H D相当 の変換画像信号は、 出力選択部 1 1 3に供給される。  The high-density storage resolution conversion circuit 1 1 1 includes a frame memory for storing image signals of HD-equivalent images, and converts between an image based on the image signals stored in the frame memory and an image based on the SD input image signal. By accumulating the SD input image signal in the frame memory while correcting the pixel position with reference to the movement of the image, an HD-equivalent output image signal is generated in the frame memory. The detailed configuration will be described later. The converted image signal equivalent to HD from the high-density storage resolution conversion circuit 111 is supplied to the output selection unit 113.
また、 クラス分類適応処理解像度変換回路 1 1 2は、 S D入力画像 信号による画像中の注目画素についての特徴を、 その注目画素と、 そ の時間的および空間的な周囲画素とを含む複数個の画素から検出する 。 そして、 その注目画素を検出した特徴に基づいてクラス分類し、 分 類されたクラスに対応して予め設定されている画像変換演算処理によ り、 注目画素に対応する H D画像中の複数画素を生成することにより 、 高解像度の出力画像信号を生成するもので、 その詳細な構成につい ては後述する。 このクラス分類適応処理解像度変換回路 1 1 2からの H D相当の変換画像信号も、 出力選択部 1 1 3に供給される。  Further, the class classification adaptive processing resolution conversion circuit 112 includes a plurality of features including a target pixel in the image based on the SD input image signal and its temporal and spatial surrounding pixels. Detect from pixel. Then, the target pixel is classified into classes based on the detected features, and a plurality of pixels in the HD image corresponding to the target pixel are determined by an image conversion operation set in advance corresponding to the classified class. By generating it, a high-resolution output image signal is generated, and its detailed configuration will be described later. The converted image signal corresponding to HD from the class classification adaptive processing resolution conversion circuit 112 is also supplied to the output selection unit 113.
出力選択部 1 1 3は、 後で詳述する判定回路 1 1 4と、 選択回路 1 1 5とからなり、 高密度蓄積解像度変換回路 1 1 1からの変換画像信 号と、 クラス分類適応処理解像度変換回路 1 1 2からの変換画像信号 とは、 それぞれ、 選択回路 1 1 5に供給される。  The output selection unit 113 includes a judgment circuit 114, which will be described in detail later, and a selection circuit 115, and converts the converted image signal from the high-density storage resolution conversion circuit 111, and class classification adaptive processing. The converted image signals from the resolution conversion circuits 112 are supplied to the selection circuits 115, respectively.
また、 高密度蓄積解像度変換回路 1 1 1からの変換画像信号と、 ク ラス分類適応処理解像度変換回路 1 1 2からの変換画像信号とは、 判 定回路 1 1 4に供給される。 判定回路 1 1 4では、 それら 2つの変換 画像信号から、 それらの画像信号による画像の動きとァクティビティ とを、 それぞれ所定数の画素単位で判定し、 その判定結果に応じて、 選択回路 1 1 5を、 高密度蓄積解像度変換回路 1 1 1からの変換画像 信号と、 クラス分類適応処理解像度変換回路 1 1 2からの変換画像信 号のいずれか一方を、 所定数の画素単位で選択するように選択制御す る選択制御信号を生成する。 この例では、 各画素ごとに、 どちらの変 換画像信号を選択するかを判定し、 その判定出力を選択制御信号とし て、 選択回路 1 1 5に供給する。 Also, the converted image signal from the high-density storage resolution conversion circuit 111 The converted image signal from the Lass classification adaptive processing resolution conversion circuit 112 is supplied to the judgment circuit 114. The determination circuit 114 determines, from the two converted image signals, the motion and the activity of the image based on the image signals in units of a predetermined number of pixels, and selects a selection circuit 111 according to the determination result. 5 is used to select either the converted image signal from the high-density storage resolution conversion circuit 111 or the converted image signal from the class classification adaptive processing resolution conversion circuit 112 in units of a predetermined number of pixels. A selection control signal for performing selection control is generated. In this example, it is determined which conversion image signal to select for each pixel, and the determination output is supplied to the selection circuit 115 as a selection control signal.
[高密度蓄積解像度変換回路の構成例]  [Configuration example of high-density storage resolution conversion circuit]
第 1 7図は、 この実施形態に用いられる高密度蓄積解像度変換回路 1 1 1の構成例を示すものである。 この高密度蓄積解像度変換回路 1 1 1は、 シーンチヱンジゃズームを除いた、 静止や、 全画面で単純な パン、 チルトの動きを持つ画像の解像度変換に有効である。  FIG. 17 shows a configuration example of the high-density storage resolution conversion circuit 111 used in this embodiment. This high-density storage resolution conversion circuit 1 1 1 is effective for resolution conversion of an image having a static or full-screen simple pan / tilt movement, excluding scene change zoom.
高密度蓄積解像度変換回路 1 1 1は、 第 1 7図に示すように、 フレ —ムメモリ 1 1 0を備える。 このフレームメモリ 1 1 0は、 H D画像 相当の解像度 (第 1 6図参照) の 1 フレームの画像信号の各画素値を 格納する。  The high-density storage resolution conversion circuit 111 includes a frame memory 110 as shown in FIG. This frame memory 110 stores each pixel value of an image signal of one frame having a resolution equivalent to an HD image (see FIG. 16).
S D入力画像信号は、 まず、 線形補間部 2 1 1に供給される。 この 線形補間部 2 1 1は、 S D入力画像信号から、 線形補間により、 H D 画像相当の画素数の画像信号を生成し、 動きベク トル検出部 2 1 2に 出力する。 この線形補間部 2 1 1での処理は、 S D入力画像と、 フレ —ムメモリ 2 1 0内の H D相当画像との間で動きべク トル検出を行う 際に、 同じ画像サイズでマッチングを行うためである。  The SD input image signal is first supplied to the linear interpolation unit 211. The linear interpolation unit 211 generates an image signal having the number of pixels equivalent to the HD image from the SD input image signal by linear interpolation, and outputs the generated image signal to the motion vector detection unit 212. The processing in the linear interpolation unit 211 is performed in order to perform matching with the same image size when detecting a motion vector between an SD input image and an HD equivalent image in the frame memory 210. It is.
動きベク トル検出部 2 1 2では、 線形補間部 2 1 1 の出力画像と、 フレ一ムメモリ 2 1 0に蓄えられている H D画像相当の画像との間で 動きべク トル検出を行う。 動きべク トル検出の手法としては、 例えば 全画面での代表点マッチングを行う。 この場合、 検出される動きべク トルの精度は、 H D相当の画像において 1画素単位分とする。 つまり 、 S D画像の入力画像信号では、 1画素分以下の精度を持つ。 The motion vector detection unit 2 1 2 outputs the output image of the linear interpolation unit 2 1 1 The motion vector is detected between the image stored in the frame memory 210 and the image equivalent to the HD image. As a method of detecting a motion vector, for example, representative point matching on the entire screen is performed. In this case, the accuracy of the detected motion vector is one pixel unit in an image equivalent to HD. That is, the input image signal of the SD image has an accuracy of one pixel or less.
動きべク トル検出部 2 1 2で検出された動きべク トルは、 位相シフ ト部 2 1 3に供給される。 位相シフ ト部 2 1 3は、 これに供給される 動きべク トルに応じて、 S D入力画像信号の位相シフトを行い、 画像 蓄積処理部 2 1 4に供給する。 画像蓄積処理部 2 1 4では、 フレーム メモリ 2 1 0に記憶されている画像信号と、 位相シフト部 2 1 3で位 相シフト した S D入力画像信号との蓄積処理を行い、 蓄積処理した画 像信号により、 フレームメモリ 2 1 0の記憶内容を書き換える。  The motion vector detected by the motion vector detector 2 12 is supplied to the phase shifter 2 13. The phase shift unit 211 shifts the phase of the SD input image signal in accordance with the motion vector supplied thereto, and supplies it to the image storage processing unit 214. The image storage processing section 214 stores the image signal stored in the frame memory 210 and the SD input image signal that has been phase-shifted by the phase shift section 213. The signal stored in the frame memory 210 is rewritten by the signal.
画像蓄積処理部 2 1 4での処理の概念図を第 1 8図および第 1 9図 に示す。 第 1 8図および第 1 9図は、 説明の簡単のために、 垂直方向 のみについての蓄積処理を示すが、 水平方向についても同様に蓄積処 理が行われる。  FIGS. 18 and 19 show conceptual diagrams of the processing in the image accumulation processing section 2 14. FIGS. 18 and 19 show the accumulation processing only in the vertical direction for the sake of simplicity, but the accumulation processing is similarly performed in the horizontal direction.
第 1 8図 Aおよび第 1 9図 Aが S D入力画像信号を示し、 第 1 9図 において、 黒丸は、 S D画像上で実際に存在する画素であり、 白丸は 存在しない画素を示している。 第 1 9図の例は、 動きべク トル検出部 2 1 2において、 H D相当の画像で垂直方向に 3画素分の動きが検出 されたので、 位相シフト部 2 1 3で、 S D入力画像信号を、 その 3画 素分、 垂直方向に位相シフ卜 したものを示している。 この場合、 検出 される動きべク トルの精度は、 上述したように、 H D相当の 1画素で あるので、 位相シフ ト後の S D入力画像信号における画素位置は、 第 1 9図 Bに示されるように、 フレームメモリ 1 0に記憶されている H D画像相当の画像信号におけるいずれかの画素位置に対応するもの となっている。 FIGS. 18A and 19A show SD input image signals. In FIG. 19, black circles indicate pixels actually existing on the SD image, and white circles indicate non-existent pixels. In the example shown in Fig. 19, the motion vector detector 2 12 detects 3 pixels of motion in the vertical direction in an HD-equivalent image, so the phase shifter 2 13 detects the SD input image signal. The phase shift of the three pixels in the vertical direction is shown. In this case, the accuracy of the detected motion vector is one pixel equivalent to HD as described above, and the pixel position in the SD input image signal after the phase shift is shown in FIG. 19B. As described above, the one corresponding to any pixel position in the image signal equivalent to the HD image stored in the frame memory 10 It has become.
そして、 画像蓄積処理においては、 位相シフト後の各画素と、 それ に対応するフレームメモリ 1 1 0の H D画像相当の画像信号 (第 1 8 図 B、 第 1 9図 C ) における各画素とを、 互いに加算し、 平均化した 後、 その加算出力画素により、 フレームメモリ 2 1 0の対応する画素 を書き換えるようにする。 つまり、 S D画像の動きに対して動き補償 を行い、 同じ位置にある H D蓄積画像の画素と S D入力画像の画素の 足し合わせを行うものである。 なお、 この足し合わせに関しては、 H D蓄積画像と、 S D入力画像間で重み付けを行ってもよい。  Then, in the image storage process, each pixel after the phase shift and the corresponding pixel in the image signal (FIG. 18B, FIG. 19C) corresponding to the HD image of the frame memory 110 are stored. After adding and averaging each other, the corresponding pixel of the frame memory 210 is rewritten by the added output pixel. In other words, motion compensation is performed for the motion of the SD image, and the pixels of the HD accumulated image and the pixels of the SD input image at the same position are added. In addition, regarding this addition, weighting may be performed between the HD accumulated image and the SD input image.
この画像蓄積処理により、 元の S D画像が、 H D画像の 1画素単位 の精度で動きべク トルに応じてシフ トされて、 フレームメモリ 2 1 0 に蓄積される結果、 第 1 9図 Aに示す S D画像に対して、 フレームメ モリ 2 1 0に記憶される画像は、 第 1 8図 Bまたは第 1 9図 Cに示す ような H D相当の画像となる。 第 1 8図および第 1 9図は、 垂直方向 のみについての説明図であるが、 水平方向についても同様に S D画像 から H D相当画像に変換されるものである。  As a result of this image storage processing, the original SD image is shifted according to the motion vector with an accuracy of one pixel unit of the HD image, and is stored in the frame memory 210. For the SD image shown, the image stored in the frame memory 210 is an HD equivalent image as shown in FIG. 18B or FIG. 19C. FIG. 18 and FIG. 19 are explanatory diagrams of only the vertical direction, but the horizontal image is similarly converted from the SD image to the HD equivalent image.
上述のような蓄積処理によりフレームメモリ 2 1 0に蓄積された画 像信号が H D出力画像信号として、 高密度蓄積解像度変換回路 1 1 1 の出力として、 出力選択部 1 1 3に供給される。 この高密度蓄積解像 度変換回路 1 1 1からの H D出力画像信号は、 上述したような画像の 時間方向の高密度蓄積処理により生成されるものであるため、 前述し たように、 シーンチヱンジゃズームなどを除いた、 画像の静止部分や 、 単純なパン、 チルトの動きを持つ S D入力画像の場合には、 劣化が なく、 かつ、 折り返し歪みのない H D出力画像を得ることができる。  The image signal stored in the frame memory 210 by the above-described storage processing is supplied to the output selection unit 113 as an HD output image signal as an output of the high-density storage resolution conversion circuit 111. Since the HD output image signal from the high-density storage resolution conversion circuit 111 is generated by the above-described high-density storage processing of the image in the time direction, the scene change is performed as described above. In the case of an SD input image having a static portion or a simple pan and tilt movement excluding zoom and the like, it is possible to obtain an HD output image without deterioration and without aliasing.
しかし、 それ以外のシーンチヱンジ部分やズーム部分など、 動き多 い部分の場合には、 以下に説明する、 1個以上の所定数の画素単位で の S D— H D変換を行うクラス分類適応処理解像度変換回路の方が、 高品質の H D出力画像を得ることができる。 However, in the case of other moving parts such as a scene change part and a zoom part, one or more predetermined number of pixels described below are used. Class-adaptive resolution conversion circuit that performs SD-to-HD conversion can obtain high-quality HD output images.
[クラス分類適応処理解像度変換回路の構成例]  [Example of configuration of class classification adaptive processing resolution conversion circuit]
次に、 他の実施形態に用いられるクラス分類適応処理解像度変換回 路 1 1 2について詳細に説明する。 以下に説明する例では、 クラス分 類適応処理として、 S D入力画像信号の注目画素について、 注目画素 の特徴に応じてクラス分類を行い、 クラス毎に予め学習によって獲得 された予測係数をメモリに格納しておき、 かかる予測係数を使用した 重み付け加算式に従う演算処理によって、 注目画素に対応する複数個 の H D画素の最適な推定画素値を出力する処理を挙げている。  Next, a class classification adaptive processing resolution conversion circuit 112 used in another embodiment will be described in detail. In the example described below, as the class classification adaptive processing, the target pixel of the SD input image signal is subjected to class classification according to the characteristics of the target pixel, and the prediction coefficients obtained by learning in advance for each class are stored in the memory. In addition, a process of outputting optimal estimated pixel values of a plurality of HD pixels corresponding to a pixel of interest by an arithmetic process according to a weighted addition formula using such prediction coefficients is described.
第 2 0図は、 この実施形態に用いられるクラス分類適応処理解像度 変換回路 1 1 2の全体的構成例を示すものである。  FIG. 20 shows an example of the overall configuration of the class classification adaptive processing resolution conversion circuit 112 used in this embodiment.
処理されるべき S D入力画像信号はフィールドメモリ 1 2 1に供給 される。 このフィールドメモリ 1 2 1 には常時 1 フィールド前の S D 画像信号が記憶されている。 そして、 S D入力画像信号と、 フィール ドメモリ 2 2 1に記憶されている 1 フィールド前の S D画像信号とは 、 第 1領域切り出し部 2 2 2および第 2の領域切り出し部 2 2 3に供 給される。  The SD input image signal to be processed is supplied to a field memory 122. This field memory 1 2 1 always stores the SD image signal one field before. Then, the SD input image signal and the SD image signal one field before stored in the field memory 221 are supplied to the first area cutout section 222 and the second area cutout section 223. You.
第 1領域切り出し部 2 2 2は、 S D入力画像信号における注目画素 の特徴を抽出するために、 S D入力画像信号や S D画像信号から複数 画素 (以下に説明するようにクラスタップと称する) を注目する処理 を行う。  The first area cutout unit 222 looks at a plurality of pixels (hereinafter referred to as class taps) from the SD input image signal or the SD image signal in order to extract the feature of the pixel of interest in the SD input image signal. Perform the following processing.
第 1領域切り出し部 2 2 2は、 抽出した複数画像の画素値を特徴検 出部 2 2 4に供給する。 特徵検出部 2 2 4は、 第 1領域の注目画素お よびその時間的、 空間的周囲画素から、 注目画素についての特徴を表 現するクラスコードを発生し、 発生したクラスコードを係数 R O M 2 2 5に供給する。 このように、 第 1領域切り出し部 2 2 2が切り出す 複数個の画素は、 クラスコードの発生のために使用されるので、 前述 したように、 クラスタップと称される。 The first area cutout unit 222 supplies the extracted pixel values of the plurality of images to the feature detection unit 222. The feature detection unit 222 generates a class code representing the feature of the pixel of interest from the pixel of interest in the first area and its temporal and spatial surrounding pixels, and generates the generated class code as a coefficient ROM 2. Supply 2 to 5. As described above, since the plurality of pixels cut out by the first area cutout unit 222 are used for generating a class code, they are called class taps as described above.
係数 ROM 2 2 5は、 後述するような学習によって決定される予測 係数をクラス每に、 より具体的にはクラスコードに関連するア ドレス に沿って、 予め記憶している。 そして、 係数 ROM 2 2 5は、 特徴検 出部 2 2 4から供給されるクラスコ一ドをァドレスとして受け、 それ に対応する予測係数を出力する。  The coefficient ROM 225 stores in advance a prediction coefficient determined by learning as will be described later, in class I, more specifically, along with an address associated with the class code. Then, the coefficient ROM 225 receives the class code supplied from the feature detecting unit 224 as an address, and outputs a prediction coefficient corresponding to the address.
一方、 第 2領域切り出し部 2 2 3は、 S D入力画像信号と、 フィ一 ルドメモリ 2 2 1が記憶している 1フィールド前の S D画像信号とか ら、 予測用の画素領域 (第 2領域) に含まれる注目画素を含む複数個 の予測用画素を抽出し、 抽出した画素の値を推定演算部 2 2 6に供給 する。  On the other hand, the second area cutout unit 223 converts the SD input image signal and the SD image signal of the previous field stored in the field memory 221 into a pixel area for prediction (second area). A plurality of prediction pixels including the target pixel included therein are extracted, and the values of the extracted pixels are supplied to the estimation calculation unit 226.
推定演算部 2 2 6は、 第 2領域切り出し部 2 2 3からの複数個の予 測用画素の画素値と、 係数 ROM 2 2 5から読み出される予測係数と に基づいて、 以下の式 ( 1 1 ) に示すような演算を行って、 S D画像 の注目画素に対応する HD画像の複数個の画素値を求めて、 予測 HD 画像信号を生成する。 このように、 第 2領域切り出し部 2 2 3が抽出 する画素値は、 予測 HD画像信号を生成するための重み付け加算にお いて使用されるのて、 予測タップと称される。 式 ( 1 1 ) は、 上述し た一実施形態における式 ( 1 ) と同様のものである。  Based on the pixel values of the plurality of prediction pixels from the second region cutout unit 223 and the prediction coefficients read from the coefficient ROM 225, the estimation calculation unit 226 uses the following equation (1). By performing the operation shown in 1), a plurality of pixel values of the HD image corresponding to the target pixel of the SD image are obtained, and a predicted HD image signal is generated. As described above, the pixel values extracted by the second area cutout unit 223 are used in weighted addition for generating a predicted HD image signal, and are therefore referred to as prediction taps. Equation (11) is similar to equation (1) in the above-described embodiment.
y = w 1 X X 1 + w 2 X X 2 + · · · · + Wn X n (11) ここで、 X ,, X 2 , · · · · , X ηが各予測タップであり、 Wい W 2 , · · · · , Wnが各予測係数である。 y = w 1 XX 1 + w 2 XX 2 + · · · + Wn X n (11) where X,, X 2, · · ·, X η are each prediction tap, and W , · · · · ·, W n are the prediction coefficients.
次に、 第 1 1図を参照して、 第 1領域切り出し部 2 2 2で抽出され るクラスタップの例を説明する。 この例では、 クラスタップとして抽 出される複数画素は、 第 2 1図に示すものとされており、 注目画素が 含まれるフィールドと、 その前のフィ一ルドとを含むものとしている 第 2 1図において、 黒丸で示す画素は、 第 nフィールド (例えば奇 数フィールド) の画素を示し、 また、 白丸で示す画素は、 第 n + 1 フ ィールド (例えば偶数フィールド) の画素を示しており、 クラスタツ プは、 注目画素と、 その時間的および空間的に近傍の複数個の画素と からなるものとされる。 Next, with reference to FIG. 11, an example of a class tap extracted by the first area cutout unit 222 will be described. In this example, it is extracted as a class tap. The plurality of pixels output are assumed to be as shown in FIG. 21.It is assumed that the field including the pixel of interest and the field before it are included.In FIG. 21, the pixels indicated by black circles are: Pixels in the n-th field (for example, odd-numbered fields) indicate pixels in the white circle, pixels in the n-th field (for example, even-numbered fields) indicate pixels, and the cluster type indicates the pixel of interest and its time. And a plurality of pixels spatially and spatially adjacent to each other.
そして、 注目画素が第 nフィールドの画素のときにおいては、 第 2 1図 Aに示すようなクラスタップの構造とされており、 その nフィー ルドからは注目画素と、 その上下の 1個ずつの画素と、 その左右の 2 個ずつ画素との 7個の画素がクラスタップとして抽出され、 その前の フィールドからは、 注目画素に空間的に隣接する 6個の画素がクラス タップとして抽出される。 したがって、 合計 1 3個の画素がクラスタ ップとして切り出される。  When the pixel of interest is a pixel in the n-th field, it has a class tap structure as shown in Fig. 21A. From the n-field, the pixel of interest and the upper and lower Seven pixels, that is, a pixel and two pixels on each side of the pixel, are extracted as class taps, and six pixels spatially adjacent to the pixel of interest are extracted as class taps from the previous field. Therefore, a total of 13 pixels are cut out as clusters.
また、 注目画素が第 n + 1 フィールドの画素のときにおいては、 第 2 1図 Bに示すようなクラスタップの構造とされており、 その n + 1 フィールドからは注目画素と、 その左右の 1個ずつの画素との 3個の 画素がクラスタップとして抽出され、 その前のフィールドからは、 注 目画素に空間的に隣接する 6個の画素がクラスタップとして抽出され る。 したがって、 合計 9個の画素がクラスタップとして切り出される 。 第 2領域切り出し部 2 7で切り出される予測タップについても、 この例では、 上述のクラスタップと同様のタップ構造が用いられる。 次に、 特徴検出部 2 2 4の構成例について説明する。 他の実施形態 では、 第 1領域切り出し咅 2 2 2でクラスタップとして切り出される 複数個の画素値パターンを、 注目画素の特徴としている。 この画素値 パターンは、 クラスタツプに応じた複数個が存在することになるが、 その画素値パターンのそれぞれを 1つのクラスとする。 When the pixel of interest is a pixel in the n + 1st field, it has a class tap structure as shown in FIG. 21B. From the n + 1 field, the pixel of interest and the left and right 1 Three pixels with each pixel are extracted as class taps, and six pixels spatially adjacent to the pixel of interest are extracted as class taps from the previous field. Therefore, a total of nine pixels are cut out as class taps. In this example, a tap structure similar to the above-described class tap is also used for the prediction tap cut out by the second region cutout unit 27. Next, a configuration example of the feature detection unit 224 will be described. In another embodiment, a plurality of pixel value patterns that are cut out as class taps in the first area cutout 222 are characterized as the target pixel. This pixel value There are a plurality of patterns corresponding to the cluster type, and each of the pixel value patterns is regarded as one class.
特徴検出部 2 2 4は、 第 1領域切り出し部 2 2 2でクラスタップと して切り出された複数個の画素値を用いて、 注目画素についての特徴 をクラス分類して、 予めクラスタップに応じて想定される複数個のク ラスのうちのいずれであるかを示すクラスコ一ドを出力する。  The feature detection unit 224 classifies the feature of the pixel of interest into classes using the plurality of pixel values cut out as class taps by the first region cutout unit 222, and responds to the class tap in advance. It outputs a class code indicating which of a plurality of classes is assumed.
この実施形態においては、 特徴検出部 2 2 4は、 第 1領域切り出し 部 2 2 2の出力について、 ADRC (Ad a p t i v e D y n am i c R a n g e C o d i n g ) を行い、 その A D R C出力を注目 画素の特徴を表すクラスコードとして発生する。  In this embodiment, the feature detection unit 224 performs ADRC (Adactive Dynamic Range Coding) on the output of the first region cutout unit 222, and uses the ADRC output as the feature of the pixel of interest. Generated as a class code that represents
第 2 2図は、 特徴検出部 2 2 4の一例を示す。 第 2 2図は、 1 ビッ ト ADRCによって、 クラスコードを発生するものである。  FIG. 22 shows an example of the feature detecting section 224. Fig. 22 shows the generation of class code by 1-bit ADRC.
ダイナミックレンジ検出回路 1 2 1には、 前述したように、 第 1領 域切り出し部 2 2 2から、 クラスタップとして、 1 3個あるいは 9個 の画素が供給される。 各画素の値は、 例えば 8ビッ トで表現されてい る。 ダイナミックレンジ検出回路 1 2 1は、 クラスタップとしての複 数個の画素の中の最大値 MAXと、 最小値 M I Nとを検出し、 MAX -M I N = DRなる演算によって、 ダイナミックレンジ DRを算出す る。  As described above, 13 or 9 pixels are supplied as class taps to the dynamic range detection circuit 122 from the first area cutout section 222. The value of each pixel is represented by, for example, 8 bits. The dynamic range detection circuit 1 2 1 detects the maximum value MAX and the minimum value MIN of the plurality of pixels as the class tap, and calculates the dynamic range DR by the operation of MAX-MIN = DR .
そして、 ダイナミックレンジ検出回路 1 1は、 その出力として、 算出したダイナミックレンジ DRと、 最小値 M I Nと、 入力された複 数個の画素のそれぞれの画素値 P Xを、 それぞれ出力する。  Then, the dynamic range detection circuit 11 outputs the calculated dynamic range DR, the minimum value MIN, and the pixel value PX of each of the plurality of input pixels as its output.
ダイナミックレンジ検出回路 1 2 1からの複数個の画素の画素値 P Xは、 減算回路 2 2に順に供給され、 各画素値 P Xから最小値 M I N が減算される。 各画素値 P xから最小値 M I Nが除去されることで、 正規化された画素値が比較回路 1 2 3に供給される。 比較回路 1 2 3には、 ダイナミックレンジ D Rを 1 / 2にするビッ トシフ ト回路 1 2 4の出力 (D R / 2 ) が供給され、 画素値 P Xと D R / 2 との大小関係が検出される。 そして、 第 I 3図に示すように、 画素値 P Xが D R / 2より大きい時には、 比較回路 1 2 3の 1 ビッ ト の比較出力が" Γ とされ、 そうでないときは、 比較回路 1 2 3の 1 ビ ッ トの比較出力が" 0" とされる。 そして、 比較回路 1 3は、 順次得 られるクラスタップとしての複数個の画素の比較出力を並列化して 1 3 ビッ トあるいは 9 ビッ 卜の A D R C出力を発生する。 The pixel values PX of the plurality of pixels from the dynamic range detection circuit 122 are sequentially supplied to a subtraction circuit 222, and the minimum value MIN is subtracted from each pixel value PX. By removing the minimum value MIN from each pixel value Px, the normalized pixel value is supplied to the comparison circuit 123. The output (DR / 2) of the bit shift circuit 124 that reduces the dynamic range DR to 1/2 is supplied to the comparison circuit 123, and the magnitude relationship between the pixel value PX and DR / 2 is detected. . Then, as shown in FIG. 13, when the pixel value PX is larger than DR / 2, the 1-bit comparison output of the comparison circuit 12 3 is set to “、”. Otherwise, the comparison circuit 1 2 3 The comparison output of one bit is set to “0.” Then, the comparison circuit 13 parallelizes the comparison outputs of a plurality of pixels as the class taps obtained in order to make a 13-bit or 9-bit comparison output. Generates ADRC output.
また、 ダイナミックレンジ D Rがビッ ト数変換回路 1 2 5に供給さ れ、 量子化によってビッ ト数が 8ビッ トから例えば 5 ビッ トに変換さ れる。 そして、 このビッ ト数変換されたダイナミックレンジと、 A D R C出力とが、 クラスコードとして、 係数 R O M 2 2 5に供給される なお、 1 ビッ トではなく、 多ビッ ト A D R Cを行うようにすれば、 注目画素の特徴を、 より詳細にクラス分類することができることは勿 ョ冊である。  The dynamic range DR is supplied to a bit number conversion circuit 125, and the number of bits is converted from 8 bits to, for example, 5 bits by quantization. Then, the dynamic range obtained by converting the number of bits and the ADRC output are supplied to the coefficient ROM 225 as a class code. Note that if multi-bit ADRC is performed instead of one bit, Of course, the feature of the target pixel can be classified in more detail.
次に、 学習、 すなわち、 係数 R O M 2 2 5に格納する予測係数を得 る処理について、 第 1 4図を参照して説明する。 ここで、 第 2 0図の クラス分類適応処理解像度変換回路 1 1 2中の構成要素と同様な構成 要素には、 同一の参照符号を付した。  Next, learning, that is, a process of obtaining a prediction coefficient to be stored in the coefficient RM225 will be described with reference to FIG. Here, the same reference numerals are given to the same components as those in the class classification adaptive processing resolution conversion circuit 112 of FIG.
学習を行うために用いられる H D画像信号 (教師信号と称する) が 、 間引き処理部 1 3 1および正規方程式加算部 1 3 2に供給される。 間引き処理部 1 3 1は、 H D画像信号について間引き処理を行って、 S D画像信号 (生徒信号と称する) を生成し、 生成した生徒信号をフ ィ一ルドメモリ 1 2 1に供給する。 第 2 0図を参照して説明したよう に、 フィールドメモリ 2 2 1には、 時間的に 1 フィールド前の生徒信 号の 1フィールドが記憶される。 An HD image signal (referred to as a teacher signal) used for learning is supplied to a thinning processing unit 13 1 and a normal equation adding unit 13 2. The thinning processing unit 1331 performs a thinning process on the HD image signal to generate an SD image signal (referred to as a student signal), and supplies the generated student signal to the field memory 121. As described with reference to FIG. 20, the field memory 221 stores the student signal one field earlier in time. One field of the issue is stored.
フィールドメモリ 2 1の後段においては、 第 2 0図を参照して上 述した処理とほぼ同様な処理がなされる。 但し、 特徴検出部 2 2 4が 発生するクラスコードおよび第 2領域切り出し部 2 2 3が抽出する予 測タップは、 正規方程式加算部 1 3 2に供給される。 正規方程式加算 部 1 3 2には、 さらに、 教師信号が供給される。 正規方程式加算部 1 3 2は、 これら 3種類の入力に基づいて係数を生成するために、 正規 方程式を生成する処理を行い、 予測係数決定部 1 3 3は、 正規方程式 からクラスコード毎の予測係数を決定する。 そして、 予測係数決定部 1 3 3は、 決定した予測係数をメモリ 1 3 4に供給する。 メモリ 1 3 4は、 供給される予測係数を記憶する。 メモリ 1 3 4に記憶される予 測係数と、 係数 R O M 2 2 5 (第 2 0図) に記憶される予測係数とは 、 同一のものである。  In the subsequent stage of the field memory 21, almost the same processing as described above with reference to FIG. 20 is performed. However, the class code generated by the feature detection unit 222 and the prediction tap extracted by the second region extraction unit 222 are supplied to the normal equation addition unit 132. A teacher signal is further supplied to the normal equation adding unit 1 32. The normal equation adding unit 1 3 2 performs a process of generating a normal equation in order to generate a coefficient based on these three types of inputs, and the prediction coefficient determining unit 1 3 3 performs prediction for each class code from the normal equation. Determine the coefficient. Then, the prediction coefficient determination unit 133 supplies the determined prediction coefficient to the memory 134. The memory 134 stores the supplied prediction coefficients. The prediction coefficient stored in the memory 13 and the prediction coefficient stored in the coefficient R OM 25 (FIG. 20) are the same.
上述の式 ( 1 1 ) における予測係数 , · · · ·, w n をクラス毎に 決定する処理は、 上述した一実施形態において式 ( 2 ) 〜式 ( 8 ) を 参照して説明したのと同様のものであるので、 その説明を省略する。 以上のようにして、 クラス分類適応処理解像度変換回路 1 1 2は、 S D画像の注目画素の特徴をクラス分類し、 分類されたクラスに基づ いて、 予め用意された予測係数を用いた推定演算を行うことによって 、 注目画素に対応する H D画像の複数画素を創造する。 The process of determining the prediction coefficients,..., W n in the above equation (11) for each class is the same as that described with reference to equations (2) to (8) in the above-described embodiment. The description is omitted because it is similar. As described above, the class classification adaptive processing resolution conversion circuit 112 classifies the feature of the target pixel of the SD image into a class, and performs an estimation operation using a prediction coefficient prepared in advance based on the classified class. By creating a plurality of pixels of the HD image corresponding to the pixel of interest.
したがって、 S D画像の注目画素の特徴に的確に対応する予測係数 を選択することができるので、 そのような予測係数を使用して推定演 算を行うことにより、 注目画素に対応する H D画像の複数画素を良好 に創造することができる。 そして、 動きがある場合にも劣化の少ない 変換画像信号を得ることができる。  Therefore, it is possible to accurately select a prediction coefficient corresponding to the feature of the target pixel of the SD image. By performing an estimation operation using such a prediction coefficient, a plurality of HD images corresponding to the target pixel can be obtained. Pixels can be created well. Then, even if there is movement, a converted image signal with little deterioration can be obtained.
このように、 クラス分類適応処理解像度変換回路 1 1 2では、 画像 の静止、 動きに依存せずに、 劣化の少ない変換画像信号を得ることが できるが、 前述したような完全な静止部分や、 パン、 チルトなどの画 像全体の単純な動きに関しては、 長いフレームの情報を蓄積すること ができる高密度蓄積解像度変換回路 1 1 1からの変換画像信号には劣 る。 Thus, the class classification adaptive processing resolution conversion circuit 1 1 2 A converted image signal with little deterioration can be obtained without depending on the stillness and motion of the image.However, long frames are required for the complete still part as described above and simple motion of the entire image such as pan and tilt. It is inferior to the converted image signal from the high-density storage resolution conversion circuit 111 that can store the information of the image.
他の実施形態においては、 以上のような、 2つの解像度変換回路 1 1 1、 1 1 2の特徴を生かして、 出力選択部 1 1 3から、 より劣化の 少ない解像度変換出力画像信号を、 適切に得るようにしている。 すな わち、 出力選択部 1 1 3では、 その判定回路 1 1 4で、 いずれの解像 度変換出力を選択するかを判定し、 その判定出力により、 選択回路 1 1 5から、 適切な解像度変換出力画像信号が得られるように制御する 次に、 第 1 5図に戻って判定回路 1 1 4の詳細について説明すると 共に、 それによる選択動作について説明する。  In another embodiment, by taking advantage of the features of the two resolution conversion circuits 111 and 112 as described above, a resolution-converted output image signal with less deterioration is appropriately output from the output selection unit 113. To get to. That is, in the output selection section 113, the determination circuit 114 determines which resolution conversion output is to be selected, and, based on the determination output, outputs an appropriate Control to Obtain Resolution-Converted Output Image Signal Next, returning to FIG. 15, the details of the determination circuit 114 will be described, and the selection operation thereby will be described.
判定回路 1 1 4においては、 高密度蓄積解像度変換回路 1 1 1から の変換画像信号と、 クラス分類適応処理解像度変換回路 1 1 2からの 変換画像信号とが、 差分値算出回路 2 4 1に供給されて、 両者の差分 値が算出される。 そして、 その差分値が絶対値化回路 2 4 2にて絶対 値化され、 比較判定回路 2 4 3に供給される。  In the decision circuit 1 14, the converted image signal from the high-density accumulated resolution converting circuit 1 11 and the converted image signal from the class classification adaptive processing resolution converting circuit 1 1 2 are sent to the difference value calculating circuit 2 4 1 The difference value between the two is calculated. Then, the difference value is converted to an absolute value by the absolute value conversion circuit 242 and supplied to the comparison determination circuit 243.
比較判定回路 2 4 3では、 絶対値化回路 2 4 2からの差分値の絶対 値が、 予め定めた値よりも大きいか否か判定し、 その判定結果を選択 信号生成回路 2 4 9に供給する。  The comparison judgment circuit 243 judges whether the absolute value of the difference value from the absolute value generation circuit 242 is larger than a predetermined value, and supplies the judgment result to the selection signal generation circuit 249. I do.
選択信号生成回路 2 4 9は、 比較判定回路 2 4 3から、 絶対値化回 路 2 4 2からの差分値の絶対値が予め定めた値よりも大きいという判 定結果を受けたときには、 クラス分類適応処理解像度変換回路 1 1 2 からの解像度変換画像信号を選択回路 1 1 5で選択するようにするた めの選択制御信号を生成し、 選択回路 1 1 5に供給する。 When the selection signal generation circuit 249 receives from the comparison determination circuit 243 a judgment result that the absolute value of the difference value from the absolute value conversion circuit 242 is larger than a predetermined value, Classification adaptive processing The resolution conversion image signal from the resolution conversion circuit 1 1 2 is selected by the selection circuit 1 1 5 A selection control signal is generated and supplied to the selection circuit 1 15.
このように選択するのは、 以下のような理由による。 すなわち、 前 述したように、 高密度蓄積解像度変換回路 1 1 1 の場合、 静止や単純 • なパン、 チルトの画像では信号劣化が少ないが、 回転や変形といった 動きや、 画像中のォブジヱク 卜の動きに対しては、 画像信号に劣化が 見られる。 そのため、 高密度蓄積解像度変換回路 1 1 1からの変換画 像信号と、 クラス分類適応処理解像度変換回路 1 1 2からの変換画像 信号との両者の出力画素のレベルが極端に異なる場合は、 それがの劣 化によるものと考えられる。  This choice is made for the following reasons. That is, as described above, in the case of the high-density accumulation resolution conversion circuit 111, signal deterioration is small in still or simple pan / tilt images, but movements such as rotation and deformation, and observables in images are not affected. Degradation is seen in the image signal with respect to movement. Therefore, if the level of output pixels of the converted image signal from the high-density storage resolution conversion circuit 111 and the level of the converted image signal from the classification adaptive processing resolution conversion circuit 112 are extremely different, This is thought to be due to the deterioration of
したがって、 差分値算出回路 2 4 1で算出された差分値の絶対値が 、 予め定めたしきい値よりも大きい場合には、 動きにも対応できるク ラス分類適応処理解像度変換回路 1 1 2からの変換画像信号を用いた ほうが良い。 以上のことから分かるように、 差分値算出回路 2 4 1、 絶対値化回路 2 4 2、 比較判定回路 2 4 3は、 画像の静動判定回路を 構成するものである。  Therefore, when the absolute value of the difference value calculated by the difference value calculation circuit 241 is larger than a predetermined threshold value, the class classification adaptive processing resolution conversion circuit 213 capable of responding to motion is also used. It is better to use the converted image signal. As can be seen from the above, the difference value calculation circuit 241, the absolute value conversion circuit 242, and the comparison judgment circuit 243 constitute a static motion judgment circuit for an image.
次に、 比較判定回路 2 4 3で、 絶対値化回路 2 4 2からの差分値の 絶対値が、 予め定めた値よりも小さいと判定されたときには、 選択信 号生成回路 2 4 9は、 以下に説明するように、 高密度蓄積解像度変換 回路 1 1 1 からの変換画像信号と、 クラス分類適応処理解像度変換回 路 1 1 2からの変換画像信号のうちのアクティビティの大きい方の画 素を、 選択回路 1 1 5から出力するようにする選択制御信号を生成し 、 選択回路 1 1 5に供給する。 ァクティビティの大きい方の画素を出 力することで、 よりアクティビティの高いぼけのない画像を出力する ことができる。  Next, when the comparison / judgment circuit 243 determines that the absolute value of the difference value from the absolute value generation circuit 242 is smaller than a predetermined value, the selection signal generation circuit 249 becomes As described below, the converted image signal from the high-density storage resolution conversion circuit 111 and the converted image signal from the class classification adaptive processing resolution conversion circuit 112 that have the higher activity are used. A selection control signal to be output from the selection circuit 115 is generated and supplied to the selection circuit 115. By outputting the pixel with the higher activity, it is possible to output a more active image without blurring.
なお、 アクティビティの規範としては、 この例では、 H D相当の解 像度変換出力信号についての、 S D画像の注目画素の前後の複数画素 からなる特定領域のダイナミックレンジを用いている。 . Note that, in this example, a plurality of pixels before and after the target pixel of the SD image in the resolution conversion output signal equivalent to HD are used as the activity standard. Is used. .
このため、 判定回路 1 1 4においては、 高密度蓄積解像度変換回路 1 1 1からの変換画像信号と、 クラス分類適応処理解像度変換回路 1 1 2からの変換画像信号とがそれぞれァクティビティ演算のための領 域を切り出す領域切り出し部 2 4 4 と、 2 4 5 とにそれぞれ供給され る。  For this reason, in the judgment circuit 114, the converted image signal from the high-density accumulation resolution converting circuit 111 and the converted image signal from the class classification adaptive processing resolution converting circuit 112 are used for the activity calculation. Are supplied to the region cutout portions 244 and 245, respectively, for cutting out the region of FIG.
領域切り出し部 2 4 4および 2 4 5は、 高密度蓄積解像度変換回路 1 1 1およびクラス分類適応処理解像度変換回路 1 1 2からの H D相 当の解像度変換出力信号について、 例えば第 2 5図 Bおよび第 2 5図 Cにおいて破線で示すように、 S D画像の注目画素の前後の複数画素 を、 アクティビティ演算領域の画素として切り出す。  The region cutout sections 2 4 4 and 2 4 5 are used to output resolution conversion signals equivalent to HD from the high-density storage resolution conversion circuit 1 11 and the class classification adaptive processing resolution conversion circuit 1 12, for example, as shown in Fig. 25B As shown by a broken line in FIG. 25C, a plurality of pixels before and after the target pixel of the SD image are cut out as pixels in the activity calculation area.
ァクティビティ演算のための領域として切り出された複数画素は、 それぞれァクティビティとしてのダイナミックレンジを検出する検出 部 2 4 6および 2 4 7に供給され、 それぞれ領域内のァクティビティ (この例では、 ダイナミックレンジ) が検出される。 そして、 それら の検出出力が比較回路 2 4 8に供給され、 両者のダイナミックレンジ の大きさが比較され、 その比較出力が選択信号生成回路 2 4 9に供給 される。  The plurality of pixels cut out as an area for the activity calculation are supplied to detectors 246 and 247, respectively, which detect a dynamic range as an activity, and each of the activities within the area (in this example, dynamic Range) is detected. Then, those detection outputs are supplied to a comparison circuit 248, the magnitudes of the two dynamic ranges are compared, and the comparison output is supplied to a selection signal generation circuit 249.
選択信号生成回路 2 4 9は、 比較判定回路 2 4 3の判定出力が、 差 分値の絶対値が所定のしきい値よりも小さいことを示している場合に おいて、 比較回路 2 4 8の出力に基づき、 ァクティビティ演算領域と して切り出された複数画素のダイナミックレンジが大きい方の解像度 変換出力を選択して出力するようにする選択制御信号を生成して、 そ れを選択回路 1 1 5に供給する。  The selection signal generation circuit 24 9 is used when the judgment output of the comparison judgment circuit 24 3 indicates that the absolute value of the difference value is smaller than a predetermined threshold value. Based on the output of the above, a selection control signal for selecting and outputting a resolution conversion output having a larger dynamic range of a plurality of pixels cut out as an activity calculation area is output to the selection circuit 1. Supply 1 to 5.
以上の判定回路 1 1 4および選択回路 1 1 5の動作を、 第 2 6図の フローチャートを参照しながら、 さらに説明する。 この第 2 6図のフ ローチャートの動作は、 判定回路 1 1 4を、 ソフ トウェア処理により 実現する場合にも相当している。 以下の説明は、 高密度蓄積解像度変 換回路 1 1 1 の出力とクラス分類適応処理解像度変換回路 1 1 2の出 力のうち、 適当な方を画素単位に選択する例について述べる。 The operation of the decision circuit 114 and the selection circuit 115 will be further described with reference to the flowchart of FIG. Figure 26 The operation of the flowchart corresponds to a case where the determination circuit 114 is realized by software processing. In the following description, an example will be described in which an appropriate one of the output of the high-density accumulation resolution conversion circuit 111 and the output of the class classification adaptive processing resolution conversion circuit 112 is selected for each pixel.
まず、 両者の画素の差分値を算出し (ステップ S 1 0 1 ) 、 差分値 の絶対値がしきい値より大きいか否か判定し (ステップ S 1 0 2 ) 、 大きい場合には、 クラス分類適応処理解像度変換回路 1 1 2からの変 換出力画像信号を選択して出力する (ステップ S 1 0 7 ) 。  First, a difference value between the two pixels is calculated (step S101), and it is determined whether or not the absolute value of the difference value is larger than a threshold value (step S102). The converted output image signal from the adaptive processing resolution conversion circuit 112 is selected and output (step S107).
次に、 この差分値の絶対値が小さい場合、 前述したアクティビティ 演算領域単位で、 両者のアクティビティ (この例では、 ダイナミック レンジ) を算出し (ステップ S 1 0 3、 S 1 0 4 ) 、 算出した両ァク テイビティを比較し (ステップ S 1 0 5 ) 、 ァクティビティの大きい 方の画素を出力する (ステップ S 1 0 6、 S 1 0 8 ) 。 これにより、 よりァクティビティの高いぼけのない画像が選択されて出力される。 なお、 ァクティビティの規範としては、 上述の例では、 第 2 5図に 示すような点線で囲まれた特定の領域内でのダイナミックレンジを用 いるようにしたが、 これに限られるものではなく、 それ以外にも、 例 えば、 特定領域内の分散や、 注目画素とその両隣の画素の差分絶対値 和等を用いることもできる。  Next, when the absolute value of the difference value is small, the two activities (in this example, the dynamic range) are calculated in units of the activity calculation area described above (steps S103 and S104), and the calculated values are calculated. The two activities are compared (step S105), and the pixel with the larger activity is output (steps S106, S108). As a result, an image without blurring with higher activity is selected and output. In addition, as a criterion of the activity, in the above example, the dynamic range in a specific area surrounded by a dotted line as shown in FIG. 25 is used, but the present invention is not limited to this. Alternatively, for example, the variance in a specific area, the sum of absolute differences between a target pixel and pixels on both sides thereof, or the like can be used.
また、 以上の選択処理の説明においては、 画素単位で選択する場合 について説明したが、 画素単位で選択するものに限定されるものでは なく、 プロック単位、 オブジェク ト単位、 フレーム単位等であっても よい。  Further, in the above description of the selection processing, the case where selection is performed in pixel units has been described. However, the selection is not limited to selection in pixel units, and may be performed in block units, object units, frame units, or the like. Good.
また、 以上の例では、 一つの高密度蓄積解像度変換回路の出力と、 —つのクラス分類適応処理解像度変換回路の出力との 2者択一の選択 としたが、 高密度解像度変換回路および またはクラス分類適応処理 解像度変換回路をそれぞれ複数個設け、 それらから、 出力画像信号を 選択するようにすることもできる。 Also, in the above example, the output of one high-density storage resolution conversion circuit and the output of one class classification adaptive processing resolution conversion circuit have been selected as an alternative. Classification adaptive processing It is also possible to provide a plurality of resolution conversion circuits and select an output image signal from them.
さらに、 クラス分類適応処理の説明における第 1領域切り出し部 2 2 2および第 2領域切り出し部 2 2 3でのクラスタップおよび予測夕 ップは、 一例であって、 これに限るものでないことは言うまでもない 。 また、 上述の説明では、 クラスタップと予測タップの構造は同じも のとしたが、 両者は、 同じ構造としなくてもよい。  Furthermore, the class taps and prediction taps in the first area cutout section 222 and the second area cutout section 223 in the description of the classification adaptive processing are merely examples, and it goes without saying that they are not limited thereto. No. Also, in the above description, the structure of the class tap and the prediction tap are the same, but they need not be the same structure.
また、 上述の実施形態は、 S D画像から H D画像への変換について 例示したが、 これに限らず、 あらゆる解像度の変換に応用できる。 ま た、 クラス分類適応処理と、 高密度蓄積も、 上述のような形態のもの に限定されるものではない。  Further, in the above-described embodiment, the conversion from the SD image to the HD image has been described as an example. In addition, the classification adaptive processing and the high-density accumulation are not limited to the above-described embodiments.
この発明の他の実施形態は、 処理をハ一ドウエアにより実施するの に限らず、 ソフトゥヱァによって実施することも可能である。 ソフト ウェアによる処理について以下に説明する。 第 2 7図は、 一実施形態 の解像度変換処理の流れを示すフローチヤ一トである。 ステップ S 1 1 1および S 1 1 2で示すように、 クラス分類適応処理による解像度 変換処理と高密度蓄積処理による解像度変換処理とが並行してなされ る。 それぞれの処理で求められた出力が出力判定処理によつて処理さ れる (ステップ S 1 1 3 ) 。 そして、 ステップ S 1 1 3による判定結 果に応じて、 ステップ S 1 1 4において、 出力が選択される。 以上で 1画素当りの処理が終了する。  In another embodiment of the present invention, the processing is not limited to being performed by hardware, but may be performed by software. The processing by software will be described below. FIG. 27 is a flowchart showing the flow of the resolution conversion processing of one embodiment. As shown in steps S111 and S112, the resolution conversion processing by the class classification adaptive processing and the resolution conversion processing by the high-density accumulation processing are performed in parallel. The output obtained in each process is processed by the output determination process (step S113). Then, in step S114, an output is selected according to the determination result in step S113. Thus, the processing for one pixel is completed.
第 2 8図は、 高密度蓄積処理による解像度変換処理 S 1 1 2の詳細 を示すフローチヤ一トである。 最初のステップ S 1 2 1において、 初 期入力フレーム画像を線形補間し、 H Dの画素数を有する画像を形成 する。 この補間後の画像がフレームメモリに格納される (ステップ S 1 2 2 ) 。 ステップ S 1 2 3では、 次のフレームに対して同様に線形 補間がなされる。 そして、 ステップ S 1 4において、 線形補間で得 られた 2フレームの画像を使用して動きべク トルが検出される。 FIG. 28 is a flowchart showing details of the resolution conversion processing S112 by the high-density accumulation processing. In the first step S1221, an initial input frame image is linearly interpolated to form an image having the number of pixels of HD. The image after this interpolation is stored in the frame memory (step S122). In step S 1 2 3, similarly linear for the next frame Interpolation is performed. Then, in step S14, a motion vector is detected using the two-frame image obtained by the linear interpolation.
ステップ S 1 2 5では、 検出された動きべク トルによって入力 S D 画像が位相シフトされる。 位相シフ 卜された画像が画像蓄積処理を受 ける (ステップ S 1 2 6 ) 。 次のステップ S 1 2 7において、 蓄積結 果がフレームメモリに格納される。 そして、 フレ一ムメモリから画像 が出力される (ステップ S 1 2 8 ) 。  In step S125, the input SD image is phase-shifted by the detected motion vector. The phase-shifted image undergoes an image accumulation process (step S126). In the next step S127, the accumulation result is stored in the frame memory. Then, an image is output from the frame memory (step S128).
第 2 9図は、 クラス分類適応処理による解像度変換処理 S 1 1 1の 詳細を示すフローチヤ一トである。 最初のステップ S 1 3 1では、 第 1領域切り出しがなされる。 すなわち、 クラスタップが抽出される。 抽出されたクラスタップに対して、 ステップ S 1 3 2において、 特徴 検出の処理がなされる。 予め学習処理が取得している係数の内で、 検 出された特徴に対応するものが読み出される (ステップ S 1 3 3 ) 。 ステップ S 1 3 4では、 第 2領域 (予測タップ) が切り出される。 ス テツプ S 1 3 5では、 係数と予測タップを用いて推定演算がなされ、 アップコンバートされた出力 (H D画像) が得られる。  FIG. 29 is a flowchart showing details of the resolution conversion processing S111 by the class classification adaptive processing. In the first step S131, a first region is cut out. That is, class taps are extracted. In step S132, feature detection is performed on the extracted class tap. Among the coefficients obtained by the learning processing in advance, the coefficient corresponding to the detected feature is read out (step S133). In step S134, the second region (predicted tap) is cut out. In step S135, an estimation operation is performed using the coefficients and the prediction taps, and an up-converted output (HD image) is obtained.
第 3 0図は、 クラス分類適応による解像度変換処理に使用する係数 を得るための学習処理の流れを示すフローチャートである。 ステップ S 1 4 1では、 高解像度の H D信号 (教師信号) が間引き処理される ことによって、 生徒信号が生成される。 生徒信号に関して、 ステップ S 1 4 2では、 第 1領域 (クラスタップ) 切り出しがなされる。 抽出 されたクラスタップに基づいて特徴検出がなされる (ステップ S 1 4 3 ) 。 次にステップ S 1 4 4において、 第 2領域 (予測タップ) 切り 出しがなされる。 そして、 ステップ S 1 4 5では、 教師画像信号、 予 測タップのデータおよび検出された特徴に基づいて、 予測係数を解と する正規方程式を解くために必要なデータが計算される。 そして、 ステップ S 1 4 6では、 正規方程式の加算が終了したか否 かが決定される。 終了していない場合には、 ステップ S 1 4 2 (第 1 領域切り出し処理) に処理が戻る。 処理が終了したと決定されると、 ステップ S 1 4 7において、 予測係数が決定される。 求められた予測 係数がメモリに格納され、 解像度変換処理で使用される。 FIG. 30 is a flowchart showing a flow of a learning process for obtaining a coefficient used for a resolution conversion process by the class classification adaptation. In step S141, a high-resolution HD signal (teacher signal) is thinned out to generate a student signal. Regarding the student signal, in step S142, the first area (class tap) is cut out. Feature detection is performed based on the extracted class taps (step S144). Next, in step S144, a second region (prediction tap) is cut out. Then, in step S145, based on the teacher image signal, the data of the prediction taps, and the detected features, data necessary for solving a normal equation in which the prediction coefficient is solved is calculated. Then, in step S146, it is determined whether the addition of the normal equations has been completed. If not, the process returns to step S142 (first region cutout process). When it is determined that the processing has been completed, in step S147, a prediction coefficient is determined. The obtained prediction coefficients are stored in the memory and used in the resolution conversion processing.
以上説明したように、 この発明の他の実施形態によれば、 時間方向 の情報を長く扱える高密度蓄積構造とクラス分類適応処理の結果を画 素ごとに選択できるため、 劣化のない高画質な画像を出力できる。  As described above, according to another embodiment of the present invention, a high-density storage structure capable of handling information in the time direction for a long time and a result of the classification adaptive processing can be selected for each pixel. Images can be output.
この発明は、 上述した実施形態に限定されるものではなく、 この発 明の要旨を逸脱しない範囲内で種々の変形や応用が可能である。  The present invention is not limited to the above-described embodiment, and various modifications and applications are possible without departing from the gist of the present invention.

Claims

請求の範囲 The scope of the claims
1 . 入力画像信号を受け取り、 入力画像信号より高品質な出力画像信 号を生成する画像処理装置において、  1. An image processing apparatus that receives an input image signal and generates an output image signal with higher quality than the input image signal
出力画像信号と同質の画像信号を格納する格納手段を有し、 上記入 力画像信号と上記格納手段に格納された画像とを加算することによつ て、 入力画像より高品質の第 1の画像信号を生成すると共に、 上記格 納手段に上記第 1の画像信号を格納する第 1 の信号処理手段と、 上記出力画像信号中の注目画素位置に応じて、 上記入力画像信号に 基づく特徴を抽出し、 上記特徴によつて上記注目画素を複数のクラス の一つに分類し、 分類された上記クラスに対応して予め定められた演 算方式で、 上記入力画像信号を演算することで、 入力画像より高品質 の第 1の画像信号を生成する第 の信号処理手段と、  A storage unit for storing an image signal having the same quality as the output image signal, and adding the input image signal and the image stored in the storage unit to obtain a first image having higher quality than the input image. A first signal processing unit that generates an image signal and stores the first image signal in the storage unit; and a feature based on the input image signal according to a pixel position of interest in the output image signal. Extracting, classifying the pixel of interest into one of a plurality of classes according to the characteristics, and calculating the input image signal by a predetermined calculation method corresponding to the classified class, First signal processing means for generating a first image signal of higher quality than the input image;
上記第 1の画像信号と上記第 2の画像信号とに基づいた判定を行い 、 上記第 1および第 2の画像信号の内の一方を出力画像信号として選 択する出力選択手段と  Output selection means for performing a determination based on the first image signal and the second image signal, and selecting one of the first and second image signals as an output image signal;
を有する画像処理装置。  An image processing apparatus having:
2 . 請求の範囲 1において、  2. In Claim 1,
上記第 1 の信号処理手段は、  The first signal processing means,
時間的に連続している多数枚の画像信号を累算することによって、 上記第 1の画像信号を生成するものである画像処理装置。  An image processing apparatus for generating the first image signal by accumulating a large number of temporally continuous image signals.
3 . 請求の範囲 1において、  3. In Claim 1,
上記第 2の信号処理手段は、  The second signal processing means,
上記第 2の画像信号中の注目画素位置に応じて、 上記入力画像信号 から第 1の画素データを抽出する第 1の抽出手段と、  First extraction means for extracting first pixel data from the input image signal according to a pixel position of interest in the second image signal;
上記第 1の画素データに基づく特徴を検出し、 上記特徴によって上 記注目画素を複数のクラスの一つに分類する特徴検出手段と、 上記注目画素位置に応じて、 上記入力画像信号から第 2の画素デ一 夕を抽出する第 2の抽出手段と、 Feature detecting means for detecting a feature based on the first pixel data, and classifying the noted pixel into one of a plurality of classes according to the feature; Second extraction means for extracting a second pixel data from the input image signal according to the target pixel position;
上記クラス毎に上記第 2の画素データを利用して上記注目画素位置 の画素データを生成する方法を特定する方法情報を格納する格納手段 と、  Storage means for storing method information for specifying a method of generating the pixel data at the target pixel position using the second pixel data for each class;
上記方法情報と上記第 2の画素データとに基づいて、 上記注目画素 位置のデータを生成する画素生成手段と  A pixel generation unit configured to generate data of the target pixel position based on the method information and the second pixel data;
を有する画像処理装置。  An image processing apparatus having:
4 . 請求の範囲 1において、  4. In Claim 1,
上記第 1の画像信号と上記第 2の画像信号とに基づいて判定情報を 生成し、 上記判定情報によって上記出力選択手段を制御するようにし た画像処理装置。  An image processing apparatus that generates determination information based on the first image signal and the second image signal, and controls the output selection unit based on the determination information.
5 . 請求の範囲 1において、  5. In Claim 1,
上記出力画像信号は、 上記入力画像信号よりもノイズ成分が少ない ことを特徴とする画像処理装置。  An image processing apparatus, wherein the output image signal has a smaller noise component than the input image signal.
6 . 請求の範囲 5において、  6. In Claim 5,
上記第 1の信号処理手段は、  The first signal processing means,
上記格納手段に記憶されている画像信号と、 入力画像信号とを、 上 記入力画像信号による画像の静動に応じた重み付けを行って加算し、 その加算出力により上記格納手段の画像信号を書き換えることで、 上 記加算出力としてノイズの除去された第 1の画像信号を生成し、 上記第 2の信号処理手段は、  The image signal stored in the storage means and the input image signal are added by performing weighting according to the static movement of the image based on the input image signal, and the added output rewrites the image signal of the storage means. As a result, the first image signal from which noise has been removed is generated as the addition output, and the second signal processing means includes:
複数フレーム間で、 画像上の対応する画素を抽出し、 それらの画素 のフレーム間の変化に基づく上記画素のノィズ成分を上記特徴として クラス分類し、 分類されたクラスに対応して予め設定されている演算 処理により、 上記入力画像信号からノイズ成分の除去された第 2の画 像信号を生成し、 The corresponding pixels on the image are extracted among a plurality of frames, the noise component of the pixels based on the change between the frames of the pixels is classified as the feature, and the noise component is set in advance according to the classified class. The second image from which the noise component has been removed from the input image signal Generate an image signal,
上記出力選択手段は、'所定数の画素単位で、 上記第 1および第 2の 画像信号に基づいて画像の静動を判定し、 その判定結果に応じて、 上 記所定数の画素単位で、 上記第 1の画像信号と上記第 2の画像信号と の一方を選択して出力する画像処理装置。  The output selection means determines a static motion of an image based on the first and second image signals in a predetermined number of pixels, and according to the determination result, the predetermined number of pixels An image processing device for selecting and outputting one of the first image signal and the second image signal.
7 . 請求の範囲 6において、  7. In Claim 6,
上記出力選択部は、  The output selection unit,
上記所定数の画素が、 画像の静止部分か動き部分かを判定する判定 部と、  A determining unit that determines whether the predetermined number of pixels is a still portion or a moving portion of the image;
上記判定部の判定結果に基づいて、 静止部分の画素については、 上 記第 1の画像信号を選択して出力し、 動き部分の画素については上記 第 2の画像信号を選択して出力する選択部と  Based on the determination result of the determination unit, a selection is made to select and output the above-described first image signal for pixels in a stationary portion, and to select and output the above-described second image signal for pixels in a moving portion. Department and
を有する画像処理装置。  An image processing apparatus having:
8 . 請求の範囲 7において、  8. In Claim 7,
上記判定部は、  The determination unit is
上記所定数の画素毎に、 上記第 1の画像信号と上記第 2の画像信号 との差分値を算出する差分値算出部と、  A difference value calculation unit that calculates a difference value between the first image signal and the second image signal for each of the predetermined number of pixels;
上記差分値の絶対値と予め設定されたしきい値との比較結果に基づ いて、 上記差分値の絶対値が上記しきい値以上の場合には、 上記動き 部分の画素であることを示す判定値を出力し、 上記差分値の絶対値が 上記しきい値より小さい場合には、 静止部分の画素であることを示す 判定値を出力する比較部と  If the absolute value of the difference value is equal to or greater than the threshold value based on the comparison result between the absolute value of the difference value and a preset threshold value, it indicates that the pixel is the moving part. A comparing unit that outputs a judgment value and outputs a judgment value indicating that the pixel is a stationary part when the absolute value of the difference value is smaller than the threshold value;
を有する画像処理装置。  An image processing apparatus having:
9 . 請求の範囲 6において、  9. In Claim 6,
上記第 1の信号処理手段は、  The first signal processing means,
上記入力画像信号による画像の静動判定を行なう動き判定部と、 上記動き判定部での静動判定に応じて、 上記入力画像信号と上記格 納手段に記憶されている画像信号とに重み付けを行なう重み付け部と A motion determining unit that determines whether the image is still or not based on the input image signal, A weighting unit that weights the input image signal and the image signal stored in the storage unit in accordance with the still / movement determination in the motion determination unit.
上記重み付けされた入力画像信号と上記格納手段からの画像信号と を加算する加算部と An adding unit that adds the weighted input image signal and the image signal from the storage unit.
を有し、  Has,
上記格納手段の画像信号は、 上記加算部からの画像信号に書き換え られる画像処理装置。  An image processing device wherein the image signal of the storage means is rewritten with the image signal from the adding unit.
1 0 . 請求の範囲 6において、  10. In Claim 6,
上記第 の信号処理手段は、  The second signal processing means includes:
上記入力画像信号による画像中の注目画素についての動き情報を検 出する動き情報検出部と、  A motion information detector for detecting motion information about a pixel of interest in the image based on the input image signal;
上記動き情報検出部で検出された上記動き情報を用いて、 複数フレ —ムについて、 上記注目画素に対応した位置の複数の画素をクラスタ ップとして抽出するクラスタップ抽出部と、  A class tap extracting unit for extracting, as a cluster, a plurality of pixels at positions corresponding to the target pixel for a plurality of frames using the motion information detected by the motion information detecting unit;
上記クラスタップ抽出部で抽出された上記クラスタップの特徴に基 づいて、 上記注目画素についてのノイズ成分を、 クラス分類するクラ ス分類部と、  A class classification unit that classifies the noise component of the pixel of interest based on the characteristics of the class tap extracted by the class tap extraction unit;
上記クラス分類部によって分類されたクラスに基づいて、 当該クラ スに対応する演算処理を定め、 その定めた演算処理によって、 上記注 目画素についてのノイズ成分を除去した画像信号を生成する演算処理 部と、  An arithmetic processing unit that determines an arithmetic processing corresponding to the class based on the class classified by the class classification unit, and generates an image signal from which the noise component of the pixel of interest is removed by the determined arithmetic processing. When,
を有する画像処理装置。  An image processing apparatus having:
1 1 . 請求の範囲 1 0において、  1 1. In Claim 10,
上記クラス分類部で用いる上記クラスタップの特徴は、 上記クラス タップとしての上記複数の画素のノィズ成分分布である画像処理装置 The feature of the class tap used in the class classification unit is that the image processing device is a noise component distribution of the plurality of pixels as the class tap.
1 2 . 請求の範囲 1 0において、 1 2. In Claim 10,
上記演算処理部では、  In the arithmetic processing unit,
上記注目画素に対応した位置の複数の画素の画素値と、 上記クラス 分類部において分類されたクラスに応じて予め設定されている上記複 数の画素についての演算係数との演算を行うことにより、 上記注目画 素についてのノィズ成分を除去した画像信号を生成する画像処理装置  By calculating the pixel values of a plurality of pixels at the position corresponding to the target pixel and calculation coefficients for the plurality of pixels set in advance according to the class classified by the class classification unit, An image processing apparatus for generating an image signal from which the noise component of the pixel of interest has been removed.
1 3 . 請求の範囲 1 0において、 1 3. In Claim 10,
上記演算処理部で用いる上記演算係数は、 予め求められている予測 係数であって、  The calculation coefficient used in the calculation processing unit is a prediction coefficient obtained in advance,
上記入力画像信号よりノイズが少ない教師画像データから注目画素 を抽出するステップと、  Extracting a pixel of interest from the teacher image data having less noise than the input image signal;
上記入力画像信号と同等のノイズを有する生徒画像データから、 上 記注目画素についての動き情報を検出するステップと、  Detecting motion information about the pixel of interest from student image data having noise equivalent to the input image signal;
上記注目画素について検出された上記動き情報に応じて、 複数フレ ームの上記生徒画像データから上記注目画素に対応した位置の複数の 画素をクラスタップとして抽出するステップと、  Extracting, as a class tap, a plurality of pixels at positions corresponding to the pixel of interest from the student image data of the plurality of frames according to the motion information detected for the pixel of interest;
上記クラスタップの特徴に基づいて、 上記注目画素についてのノィ ズ成分をクラス分類するステップと、  Classifying the noise component of the pixel of interest based on the characteristics of the class tap;
上記教師信号から抽出された上記注目画素に対応する画素と同質の 出力信号を上記生徒信号から生成するための予測係数を、 上記クラス 分類されたクラス毎に導出するステップと  Deriving a prediction coefficient for generating, from the student signal, an output signal having the same quality as the pixel corresponding to the pixel of interest extracted from the teacher signal for each of the classes.
によって、 上記予測係数として求められる画像処理装置。  An image processing device obtained as the above prediction coefficient.
1 4 . 請求の範囲 1において、  1 4. In Claim 1,
上記出力画像信号は、 上記入力画像信号よりも高解像度であること を特徴とする画像処理装置。 The output image signal has a higher resolution than the input image signal. An image processing apparatus characterized by the above-mentioned.
1 5 . 請求の範囲 1 4において、  1 5. In Claims 14,
上記第 1 の信号処理手段は、  The first signal processing means,
上記格納手段に記憶されている画像信号による画像と、 上記入力画 像信号による画像との間での動きを参照して画素位置を補正をしなが ら、 上記入力画像信号を上記格納手段に蓄積するようにすることで、 上記格納手段に、 上記高解像度の第 1の画像信号を生成し、  The input image signal is stored in the storage unit while correcting the pixel position by referring to the movement between the image based on the image signal stored in the storage unit and the image based on the input image signal. By accumulating, the storage means generates the high-resolution first image signal,
上記第 の信号処理手段は、  The second signal processing means includes:
注目画素と、 その時間的および空間的な周囲画素とを含む複数個の 画素に基づいて上記特徴を検出し、 上記特徴によってクラス分類する ことで、 上記高解像度の第 2の画像信号を生成する画像処理装置。 The feature is detected based on a plurality of pixels including a target pixel and its temporal and spatial surrounding pixels, and the high-resolution second image signal is generated by classifying the feature based on the feature. Image processing device.
1 6 . 請求の範囲 1 5において、 1 6. In Claim 15,
上記出力選択部は、  The output selection unit,
上記第 1および第 2の画像信号による画像の動きとァクティビティ とを、 それぞれ所定数の画素単位で判定する判定部と、  A determining unit that determines the image motion and the activity based on the first and second image signals in units of a predetermined number of pixels,
上記判定部の判定結果に応じて、 上記第 1および第 2の画像信号の いずれか一方を、 所定数の画素単位で選択する選択部と  A selection unit that selects one of the first and second image signals in units of a predetermined number of pixels according to a determination result of the determination unit;
を備える画像処理装置。  An image processing apparatus comprising:
1 7 . 請求の範囲 1 6において、  1 7. In claim 16,
上記判定部は、  The determination unit is
上記所定数の画素毎に、 上記第 1の画像信号と上記第 2の画像信号 との差分値を算出する差分値算出部と、  A difference value calculation unit that calculates a difference value between the first image signal and the second image signal for each of the predetermined number of pixels;
上記差分値の絶対値と予め設定されたしきい値との比較結果に基づ いて、 上記差分値の絶対値が上記しきい値以上の場合には、 上記所定 数の画素部分が動き部分であることを示す判定値を出力し、 上記差分 値の絶対値が上記しきい値より小さい場合には、 上記所定数の画素部 分が静止部分であることを示す判定値を出力する比較部と When the absolute value of the difference value is equal to or greater than the threshold value based on the result of comparison between the absolute value of the difference value and a preset threshold value, the predetermined number of pixel portions is a motion portion. And outputting a determination value indicating that the absolute value of the difference value is smaller than the threshold value. A comparison unit that outputs a judgment value indicating that the minute is a stationary part;
を有する画像処理装置。  An image processing apparatus having:
1 8 . 請求の範囲 1 6において、  1 8. In Claim 16,
上記判定部は、  The determination unit is
上記所定数の画素每の静動を判定する静動判定部と、  A static motion determining unit that determines the static motion of the predetermined number of pixels 、,
上記静動判定部で上記所定数の画素部分が動き部分であると判定さ れるときに、 上記選択部に対し、 上記第 2の画像信号を選択して出力 するようにするための信号を供給する選択信号生成部と  When the static / movement determining unit determines that the predetermined number of pixel portions is a moving portion, a signal for selecting and outputting the second image signal is supplied to the selecting unit. Selection signal generator
を有する画像処理装置。  An image processing apparatus having:
1 9 . 請求の範囲 1 6において、  1 9. In claim 16,
上記判定部は、  The determination unit is
上記所定数の画素毎の静動を判定する静動判定部と、  A static motion determining unit that determines static motion for each of the predetermined number of pixels,
上記第 1の画像信号と上記第 2の画像信号のいずれの画像のァクテ ィビティがより高いかを判定するァクティビティ判定部と、  An activity determining unit that determines which of the first image signal and the second image signal has higher activity;
上記静動判定部で上記所定数の画素部分が静止部分であると判定さ れるときに、 上記アクティビティ判定部での判定結果に基づいて、 上 記第 1および第 2の画像信号のうちの、 上記画像のァクティビティが より高い方を選択して出力するための信号を上記選択部に供給する選 択信号生成部と  When the predetermined number of pixel portions is determined to be a static portion by the still / movement determining unit, based on the determination result by the activity determining unit, the first and second image signals A selection signal generation unit that supplies a signal for selecting and outputting a higher activity of the image to the selection unit;
を有する画像処理装置。  An image processing apparatus having:
2 0 . 請求の範囲 1 9において、  20. In claim 19,
上記ァクティビティ判定部は、  The activity determination unit includes:
上記第 1および第 2の画像信号について、 それぞれ所定領域内にお ける複数の画素の画素値のダイナミックレンジを算出して、 算出され た二つのダイナミックレンジを比較することによって、 ァクティビテ ィの高低を判定する画像処理装置。 For each of the first and second image signals, the dynamic range of the pixel values of a plurality of pixels within a predetermined area is calculated, and the calculated two dynamic ranges are compared to determine the level of activity. Image processing device to determine.
2 1 . 請求の範囲 1 5において、 2 1. In claim 15,
上記第 1の信号処理手段は、 ( 上記格納手段に記憶されている画像信号による画像と、 上記入力画 像信号による画像との間の動きを検出する動き検出部と、  The first signal processing means includes: (a motion detection unit that detects a motion between an image based on the image signal stored in the storage unit and an image based on the input image signal;
上記動き検出部で検出された動きにより画素位置を補正して、 上記 入力画像信号を、 上記格納手段に記憶されている画像信号に加算して 蓄積する画像蓄積処理部と  An image accumulation processing unit that corrects a pixel position based on the motion detected by the motion detection unit, adds the input image signal to an image signal stored in the storage unit, and accumulates the image signal;
を備える画像処理装置。  An image processing apparatus comprising:
2 1 . 請求の範囲 1 5において、  2 1. In claim 15,
上記第 2の信号処理手段は、  The second signal processing means,
上記入力画像信号による画像中の注目画素と、 その注目画素の時間 的および空間的な周囲画素とを含む複数個の画素をクラスタップと,し て抽出するクラスタツプ抽出部と、  A cluster tap extraction unit that extracts a plurality of pixels including a target pixel in an image based on the input image signal and temporally and spatially surrounding pixels of the target pixel as a class tap,
上記クラスタツプ抽出部で抽出された上記クラスタツプの特徴によ つてクラス分類するクラス分類部と、  A class classifying unit for classifying based on the characteristics of the cluster map extracted by the cluster map extracting unit;
上記クラス分類部によって分類されたクラスに基づいて、 当該クラ スに対応する画像変換演算処理を定め、 その定めた演算処理により、 上記注目画素に対応する上記高解像度の画像中の複数画素を生成する ことにより、 上記第 2の画像信号を生成する演算処理部と  An image conversion operation corresponding to the class is determined based on the class classified by the class classification unit, and a plurality of pixels in the high-resolution image corresponding to the pixel of interest are generated by the determined operation. By doing so, an arithmetic processing unit that generates the second image signal
を有する画像処理装置。  An image processing apparatus having:
2 3 . 請求の範囲 1 2において、  2 3. In Claims 1 and 2,
上記クラス分類部は、  The class classification unit,
上記クラスタツプの特徴を、 上記クラスタップとしての上記複数の 画素の画素値のパターンによってクラス分類することを特徴とする画 像処理装置。  An image processing apparatus characterized in that the features of the cluster tap are classified into classes by the pixel value pattern of the plurality of pixels as the class tap.
2 4 · 請求の範囲 2において、 上記演算処理部では、 2 4 · In Claim 2, In the arithmetic processing unit,
上記クラスタツプに対応して上記入力画像信号について予め定めら れた領域の複数個の画素と、 上記クラス分類部において分類されたク ラスに応じて予め設定されている上記複数個の画素についての演算係 数との演算を行うことにより、 上記注目画素に対応する、 上記高解像 度の画像中の複数画素を生成する画像処理装置。  Calculation of a plurality of pixels in a predetermined region of the input image signal corresponding to the cluster map and an operation of the plurality of pixels set in advance according to the class classified by the class classification unit An image processing apparatus that generates a plurality of pixels in the high-resolution image corresponding to the target pixel by performing an operation with a coefficient.
2 5 . 請求の範囲 1 4において、  2 5. In claim 14,
上記演算処理部で用いる上記演算係数は、 予め求められている予測 係数であって、  The calculation coefficient used in the calculation processing unit is a prediction coefficient obtained in advance,
上記出力画像信号と同質である教師信号から、 上記注目画素に対応 する複数個の画素を抽出するステツプと、  Extracting a plurality of pixels corresponding to the pixel of interest from a teacher signal having the same quality as the output image signal;
上記入力画像信号と同質である生徒信号から、 上記注目画素およぴ その時間的および空間的な周囲画素を含む複数の画素をクラスタップ として抽出するステップと、  Extracting a plurality of pixels including the target pixel and its temporal and spatial surrounding pixels as class taps from a student signal having the same quality as the input image signal;
上記クラスタップの特徴に基づいて、 上記注目画素についての特徴 をクラス分類するステップと、  Classifying the feature of the pixel of interest based on the feature of the class tap;
上記教師信号から抽出された上記注目画素に対応ずる画素と同質の 出力信号を上記生徒信号から生成するための予測係数を、 上記クラス 分類されたクラス毎に導出するステツプと  A step of deriving, for each of the classes, a prediction coefficient for generating an output signal of the same quality as the pixel corresponding to the pixel of interest extracted from the teacher signal from the student signal;
によって、 上記予測係数として求められる画像処理装置。  An image processing device obtained as the above prediction coefficient.
2 6 . 入力画像信号を受け取り、 入力面像信号より高品質な出力画像 信号を生成する画像処理方法において、  26. In an image processing method for receiving an input image signal and generating an output image signal with higher quality than the input plane image signal,
出力画像信号と同質の画像信号を格納手段に格納し、 上記入力画像 信号と格納された画像とを加算することによって、 入力画像より高品 質の第 1の画像信号を生成すると共に、 上記第 1の画像信号を上記格 納手段に格納する第 1の信号処理ステップと、 上記出力画像信号中の注目画素位置に応じて、 上記入力画像信号に 基づく特徴を抽出し、 上記特徴によって上記注目画素を複数のクラス の一つに分類し、 分類された上記クラスに対応して予め定められた演 算方式で、 上記入力画像信号を演算することで、 入力画像より高品質 の第 2の画像信号を生成する第 1の信号処理ステップと、 An image signal of the same quality as the output image signal is stored in a storage unit, and the input image signal and the stored image are added to generate a first image signal of higher quality than the input image. A first signal processing step of storing one image signal in the storage means; According to the position of the pixel of interest in the output image signal, a feature based on the input image signal is extracted, and the pixel of interest is classified into one of a plurality of classes according to the feature. A first signal processing step of generating a second image signal of higher quality than the input image by calculating the input image signal by a predetermined arithmetic method;
上記第 1 の画像信号と上記第 2の画像信号とに基づいた判定を行い 、 上記第 1および第 2の画像信号の内の一方を出力画像信号として選 択する出力選択ステップと  An output selection step of making a determination based on the first image signal and the second image signal, and selecting one of the first and second image signals as an output image signal;
を有する画像処理方法。  An image processing method comprising:
2 7 . 請求の範囲 2 6において、  2 7. In Claim 26,
上記第 1 の信号処理ステツプは、  The first signal processing step is
時間的に連続している多数枚の画像信号を累算することによって、 上記第 1の画像信号を生成するものである画像処理方法。  An image processing method for generating the first image signal by accumulating a large number of temporally continuous image signals.
2 8 . 請求の範囲 2 6において、  2 8. In Claim 26,
上記第 2の信号処理ステップは、  The second signal processing step includes:
上記第 2の画像信号中の注目画素位置に応じて、 上記入力画像信号 から第 1の画素データを抽出する第 1の抽出ステップと、  A first extraction step of extracting first pixel data from the input image signal according to a pixel position of interest in the second image signal;
上記第 1の画素データに基づく特徴を検出し、 上記特徴によって上 記注目画素を複数のクラスの一つに分類する特徴検出ステップと、 上記注目画素位置に応じて、 上記入力画像信号から第 2の画素デ一 夕を抽出する第 2の抽出ステップと、  A feature detecting step of detecting a feature based on the first pixel data and classifying the noted pixel into one of a plurality of classes according to the feature; A second extraction step of extracting pixel data of
上記クラス毎に上記第 2の画素データを利用して上記注目画素位置 の画素データを生成する方法を特定する方法情報を格納する格納ステ ップと、  A storage step for storing method information for specifying a method of generating the pixel data at the pixel position of interest using the second pixel data for each class;
上記方法情報と上記第 2の画素データとに基づいて、 上記注目画素 位置のデータを生成する画素生成ステップと を有する画像処理方法。 A pixel generating step of generating data of the target pixel position based on the method information and the second pixel data; An image processing method comprising:
2 9 . 請求の範囲 6において、  2 9. In Claim 6,
上記第 1 の画像信号と上記第 2の画像信号とに基づいて判定情報を 生成し、 上記判定情報によって上記第 1および第 2の画像信号の一方 を出力として選択するようにした画像処理方法。  An image processing method for generating determination information based on the first image signal and the second image signal, and selecting one of the first and second image signals as an output based on the determination information.
3 0 . 請求の範囲 1 6において、  30. In claim 16,
上記出力画像信号は、 上記入力画像信号よりもノイズ成分が少ない ことを特徴とする画像処理方法。  An image processing method, wherein the output image signal has less noise components than the input image signal.
3 1 . 請求の範囲 3 0において、  3 1. In Claim 30,
上記第 1の信号処理ステップは、 格納手段に記憶されている画像信 号と、 入力画像信号とを、 上記入力画像信号による画像の静動に応じ た重み付けを行って加算し、 その加算出力により上記格納手段の画像 信号を書き換えることで、 上記加算出力としてノイズの除去された第 1の画像信号を生成し、  In the first signal processing step, the image signal stored in the storage unit and the input image signal are added by performing weighting according to the static movement of the image by the input image signal, and the added output is obtained. By rewriting the image signal in the storage means, a first image signal from which noise has been removed is generated as the addition output,
上記第 2の信号処理ステップは、 複数フレーム間で、 画像上の対応 する画素を抽出し、 それらの画素のフレーム間の変化に基づく上記画 素のノイズ成分を特徴としてクラス分類し、 分類されたクラスに対応 して予め設定されている演算処理により、 上記入力画像信号からノィ ズ成分の除去された第 2の画像信号を生成し、  In the second signal processing step, corresponding pixels on an image are extracted from a plurality of frames, and the noise components of the pixels based on the change between the frames of the pixels are classified into classes, and the classified pixels are classified. A second image signal from which a noise component has been removed is generated from the input image signal by an arithmetic process preset for the class,
上記出力選択ステップは、 所定数の画素単位で、 画像の静動を判定 し、 その判定結果に応じて、 上記所定数の画素単位で、 上記第 1の画 像信号と上記第 2の画像信号との一方を選択して出力する画像処理方 法。  The output selection step includes determining a static motion of an image in a predetermined number of pixels, and according to the determination result, the first image signal and the second image signal in the predetermined number of pixels. An image processing method that selects and outputs one of the following.
3 2 . 請求の範囲 3 1において、  3 2. In Claim 31,
上記出力選択ステップは、  The output selection step includes:
上記所定数の画素が、 画像の静止部分か動き部分かを判定する判定 ステップと、 Judgment to determine whether the predetermined number of pixels is a still portion or a moving portion of an image Steps and
上記判定ステップでの判定結果に基づいて、 静止部分の画素につい ては上記第 1の画像信号を選択して出力し、 動き部分の画素について は上記第 2の画像信号を選択して出力する選択ステップと  Based on the determination result in the determination step, selection is made to select and output the first image signal for pixels in a stationary portion and to select and output the second image signal for pixels in a moving portion. Steps and
を有する画像処理方法。  An image processing method comprising:
3 3 . 請求の範囲 3 2において、  3 3. In Claim 3 2,
上記判定ステップは、  The above determination step includes:
上記所定数の画素毎に、 上記第 1の画像信号と上記第 2の画像信号 との差分値を算出する差分値算出ステップと、  A difference value calculating step of calculating a difference value between the first image signal and the second image signal for each of the predetermined number of pixels;
上記差分値算出ステップで算出された上記差分値の絶対値と予め設 定されたしきい値との比較結果に基づいて、 上記差分値の絶対値が上 記しきい値以上の場合には、 上記動き部分の画素であることを示す判 定値を出力し、 上記差分値の絶対値が上記しきい値より小さい場合に は、 静止部分の画素であることを示す判定値を出力する比較ステップ と  If the absolute value of the difference value is equal to or greater than the threshold value based on a comparison result between the absolute value of the difference value calculated in the difference value calculation step and a preset threshold value, A comparing step of outputting a judgment value indicating that the pixel is a moving part, and outputting a judgment value indicating that the pixel is a stationary part when the absolute value of the difference value is smaller than the threshold value;
を有する画像処理方法。  An image processing method comprising:
3 4 . 請求の範囲 3 1において、  3 4. In Claim 31,
上記第 1の信号処理ステップは、  The first signal processing step includes:
上記入力画像信号による画像の静動判定を行なう動き判定ステップ と、  A motion determining step of determining whether the image is still or not based on the input image signal;
上記動き判定ステップでの静動判定に応じて、 上記入力画像信号と 上記格納手段に記憶されている画像信号とに重み付けを行なう重み付 けステップと、  A weighting step of weighting the input image signal and the image signal stored in the storage means according to the still / movement determination in the motion determination step;
上記重み付けされた入力画像信号と上記格納手段からの画像信号と を加算する加算ステップと  An adding step of adding the weighted input image signal and the image signal from the storage means.
を有し、 上記格納手段の画像信号は、 上記加算ステップからの画素信号に書 き換えられる画像処理方法。 Has, An image processing method in which the image signal in the storage means is rewritten with the pixel signal from the adding step.
3 5 . 請求の範囲 3 1 において、  3 5. In Claim 31,
上記第 2の信号処理ステップは、  The second signal processing step includes:
上記入力画像信号による画像中の注目画素についての動き情報を検 出する動き情報検出ステツプと、  A motion information detection step for detecting motion information on a pixel of interest in an image based on the input image signal;
上記動き情報検出ステップで検出された上記動き情報を用いて、 複 数フレームについて、 上記注目画素に対応した位置の複数の画素をク ラスタップとして抽出するクラスタップ抽出ステップと、  A class tap extracting step of extracting, as a class tap, a plurality of pixels at a position corresponding to the target pixel for a plurality of frames using the motion information detected in the motion information detecting step;
上記クラスタップ抽出ステップで抽出された上記クラスタップの特 徴に基づいて、 上記注目画素についてのノイズ成分を、 クラス分類す るクラス分類ステップと、  A class classification step of classifying a noise component of the pixel of interest based on characteristics of the class tap extracted in the class tap extraction step;
上記クラス分類ステップによって分類されたクラスに基づいて、 当 該クラスに対応する演算処理を定め、 その定めた演算処理によって、 上記注目画素についてのノィズ成分を除去した画像信号を生成する演 算処理ステップと  An operation processing step of determining an operation processing corresponding to the class based on the class classified in the class classification step, and generating an image signal from which the noise component of the pixel of interest has been removed by the determined operation processing When
を有する画像処理方法。  An image processing method comprising:
3 6 . 請求の範囲 3 5において、  3 6. In claim 35,
上記クラス分類ステップで用いる上記クラスタツプの特徴は、 上記 クラスタップとしての上記複数の画素のノィズ成分分布である画像処 理方法。  A feature of the cluster tap used in the class classification step is an image processing method in which a noise component distribution of the plurality of pixels as the class tap is used.
3 7 . 請求の範囲 3 5において、  3 7. In claim 35,
上記演算処理ステップでは、  In the calculation processing step,
上記注目画素に対応した位置の複数の画素の画素値と、 上記クラス 分類ステップで分類されたクラスに応じて予め設定されている上記複 数の画素についての演算係数との演算を行うことにより、 上記注目画 素についてのノイズ成分を除去した画像信号を生成する画像処理方法 By calculating the pixel values of a plurality of pixels at the position corresponding to the target pixel and the calculation coefficients for the plurality of pixels set in advance according to the class classified in the class classification step, Featured image above Image processing method for generating image signal from which noise component of element is removed
3 8 . 請求の範囲 3 7において、 3 8. In Claim 3 7,
上記演算係数は、 予め求められている予測係数であって、 上記入力画像信号よりノイズが少ない教師画像データから注目画素 を抽出するステップと、  Extracting the target pixel from the teacher image data having less noise than the input image signal, wherein the operation coefficient is a prediction coefficient obtained in advance;
上記入力画像信号と同等のノイズを有する生徒画像デー夕から、 上 記注目画素についての動き情報を検出するステップと、  Detecting, from the student image data having noise equivalent to the input image signal, motion information about the pixel of interest;
上記注目画素について検出された上記動き情報に応じて、 複数フレ ームの上記生徒画像データから上記注目画素に対応した位置の複数の 画素をクラスタッフ °として抽出するステップと、  Extracting a plurality of pixels at a position corresponding to the pixel of interest from the student image data of the plurality of frames as Crustal degrees according to the motion information detected for the pixel of interest;
上記クラスタツプの特徴に基づいて、 上記注目画素についてのノィ ズ成分をクラス分類するステップと、  Classifying the noise component of the pixel of interest based on the characteristics of the cluster map;
上記教師信号から抽出された上記注目画素に対応した位置の複数の 画素と同質の出力信号を上記生徒信号から生成するための予測係数を 、 上記クラス分類されたクラス每に導出するステップと  Deriving, from the student signal, a prediction coefficient for generating an output signal having the same quality as a plurality of pixels at a position corresponding to the pixel of interest extracted from the teacher signal, into the class 每.
によって、 上記予測係数として算出する画像処理方法。  An image processing method that calculates the above as the prediction coefficient.
3 9 . 請求の範囲 I 6において、  3 9. In claim I 6,
上記出力画像信号は、 上記入力画像信号よりも高解像度であること を特徴とする画像処理方法。  An image processing method, wherein the output image signal has a higher resolution than the input image signal.
4 0 . 請求の範囲 3 9において、  40. In Claims 39,
上記第 1の信号処理ステップは、 格納手段に記憶されている画像信 号による、 上記出力画像信号の画像の解像度と同じ解像度の画像と、 上記入力画像信号による画像との間での動きを参照して画素位置を補 正をしながら、 上記入力画像信号を上記格納手段に蓄積するようにす ることで、 上記格納手段に、 高解像度の上記第 1の画像信号を生成し 上記第 2の信号処理ステップは、 注目画素と、 その時間的および空 間的な周囲画素とを含む複数個の画素に基づいて上記特徴を検出し、 上記特徴によってクラス分類することによつて上記第 2の画像信号を 生成し、 The first signal processing step refers to a motion between an image having the same resolution as the image of the output image signal and an image based on the input image signal, based on the image signal stored in the storage unit. By accumulating the input image signal in the storage means while correcting the pixel position, the first image signal of high resolution is generated in the storage means. The second signal processing step includes detecting the feature based on a plurality of pixels including a pixel of interest and its temporal and spatial surrounding pixels, and classifying the feature based on the feature. Generate a second image signal,
上記出力選択ステップは、 上記第 1および第 2の画像信号の一方を 選択的に出力する画像処理方法。  The output selection step is an image processing method for selectively outputting one of the first and second image signals.
4 1 . 請求の範囲 4 0において、 4 1. In claim 40,
上記出力選択ステップは、  The output selection step includes:
上記第 1および第 1の画像信号による画像の動きとァクティビティ とを、 それぞれ所定数の画素単位で判定する判定ステップと、 上記判定ステップでの判定結果に応じて、 上記第 1および第 2の画 像信号のいずれか一方を、 所定数の画素単位で選択する選択ステップ と、  A judging step of judging the motion and the activity of the image based on the first and first image signals in units of a predetermined number of pixels, respectively, and according to the judgment results in the judging step, the first and second A selection step of selecting one of the image signals in units of a predetermined number of pixels;
を備える画像処理方法。  An image processing method comprising:
4 2 . 請求の範囲 4 1において、  4 2. In Claim 41,
上記判定ステップは、  The above determination step includes:
上記所定数の画素毎に、 上記第 1および第 2の画像信号の差分値を 算出する差分値算出ステップと、  A difference value calculating step of calculating a difference value between the first and second image signals for each of the predetermined number of pixels;
上記差分値の絶対値と予め設定されたしきい値との比較結果に基づ いて、 上記差分値の絶対値が上記しきい値以上の場合には、 上記所定 数の画素部分が動き部分であることを示す判定値を出力し、 上記差分 値の絶対値が上記しきい値より小さい場合には、 上記所定数の画素部 分が静止部分であることを示す判定値を出力する比較ステツプと を有する画像処理方法。  When the absolute value of the difference value is equal to or greater than the threshold value based on the result of comparison between the absolute value of the difference value and a preset threshold value, the predetermined number of pixel portions is a motion portion. And a comparison step of outputting a judgment value indicating that the predetermined number of pixel portions is a stationary portion when the absolute value of the difference value is smaller than the threshold value. An image processing method comprising:
4 3 . 請求の範囲 4 1において、 上記判定ステップは、 4 3. In Claim 41, The above determination step includes:
上記所定数の画素毎の静動を判定する静動判定ステップと、 上記静動判定部で上記所定数の画素部分が動き部分であると判定さ れるときに、 上記選択部に対し、 上記第 2の画像信号を選択して出力 するための信号を供給する選択信号生成ステップと  A static motion determining step of determining static motion for each of the predetermined number of pixels; and when the static motion determining unit determines that the predetermined number of pixel portions is a moving portion, A selection signal generating step of supplying a signal for selecting and outputting the image signal of (2);
を有する画像処理方法。  An image processing method comprising:
4 4 . 請求の範囲 4 1において、  4 4. In Claim 41,
上記判定ステップは、  The above determination step includes:
上記所定数の画素毎の静動を判定する静動判定ステップと、 上記第 1および第 2の画像信号の、 いずれの画像のアクティビティ がより高いを判定するァクティビティ判定ステップと、  A static motion determining step of determining static motion for each of the predetermined number of pixels; and an activity determining step of determining which of the first and second image signals has a higher image activity.
上記静動判定ステップで上記所定数の画素部分が静止部分であると 判定されるときに、 上記アクティビティ判定ステツプでの判定結果に 基づいて、 上記第 1および第 2の画像信号のうちの、 上記画像のァク ティビティがより高い方を選択して出力するための信号を上記選択部 に供給する選択信号生成ステツプと  When the predetermined number of pixel portions is determined to be a static portion in the static motion determination step, based on a determination result in the activity determination step, the first and second image signals of the first and second image signals are determined. A selection signal generation step of supplying a signal for selecting and outputting a higher image activity to the selection unit;
を有する画像処理方法。  An image processing method comprising:
4 5 . 請求の範囲 4 4において、  4 5. In Claim 4 4,
上記ァクティ ビティ判定ステップは、  The above activity determination step includes:
上記第 1および第 2の画像信号について、 それぞれ所定領域内にお ける複数の画素の画素値のダイナミックレンジを算出して、 二つのダ イナミックレンジを比較することにより、 ァクティビティの高低を判 定する画像処理方法。  For each of the first and second image signals, the dynamic range of the pixel values of a plurality of pixels within a predetermined area is calculated, and the two dynamic ranges are compared to determine the level of activity. Image processing method.
4 6 . 請求の範囲 4 0において、  4 6. In Claim 40,
上記第 1の信号処理ステップは、  The first signal processing step includes:
上記格納手段に記憶されている画像信号による画像と、 上記入力画 像信号による画像との間の動きを検出する動き検出ステップと、 上記動き検出ステップで検出された動きにより画素位置を補正して 、 上記入力画像信号を、 上記格納手段に記憶されている画像信号に加 算して蓄積する画像蓄積処理ステップと、 An image based on the image signal stored in the storage means; A motion detection step for detecting a motion between the image signal and the image, and a pixel position corrected by the motion detected in the motion detection step, and the input image signal is stored in the storage means. An image accumulation processing step of accumulating by adding to
を備える画像処理方法。  An image processing method comprising:
4 7 . 請求の範囲 4 0において、  4 7. In claim 40,
上記第 2の信号処理ステップは、  The second signal processing step includes:
上記入力画像信号による画像中の注目画素と、 その時間的および空 間的な周囲画素とを含む複数個の画素をクラスタップとして抽出する クラスタップ抽出ステップと、  A class tap extracting step of extracting, as class taps, a plurality of pixels including a pixel of interest in an image based on the input image signal and temporally and spatially surrounding pixels thereof;
上記クラスタップ抽出ステツプで抽出された上記クラスタップの特 徴によってクラス分類するクラス分類ステップと、  A class classification step of classifying according to the characteristics of the class tap extracted in the class tap extraction step;
上記クラス分類ステップによつて分類されたクラスに基づいて、 当 該クラスに対応する画像変換演算処理を定め、 その定めた演算処理に より、 上記高解像度の画像信号を生成する演算処理ステップと を有する画像処理方法。  An image conversion operation process corresponding to the class is determined based on the class classified by the class classification step, and the operation process step of generating the high-resolution image signal is performed by the determined operation process. Image processing method.
4 8 . 請求の範囲 4 7において、  4 8. In Claim 4 7,
上記クラス分類ステップは、  The above classifying step includes:
上記クラスタップの特徴を、 上記クラスタップとしての上記複数の 画素の画素値のパターンによってクラス分類する画像処理方法。 4 9 . 請求の範囲 4 7において、  An image processing method for classifying a feature of the class tap according to a pattern of pixel values of the plurality of pixels as the class tap. 4 9. In Claims 4 7,
上記演算処理ステップでは、  In the calculation processing step,
上記クラスタップに対応して、 上記入力画像信号について予め定め られた領域の複数個の画素と、 上記クラス分類部において分類された クラスに応じて予め設定されている上記複数個の画素についての演算 係数との演算を行うことにより、 上記注目画素についての、 上記出力 画像信号を生成する画像処理方法。 A plurality of pixels in a predetermined region of the input image signal corresponding to the class tap and an operation on the plurality of pixels preset according to the class classified by the class classification unit By calculating with a coefficient, the output of the pixel of interest is output An image processing method for generating an image signal.
5 0 . 請求の範囲 4 7において、  5 0. In Claims 4 7,
上記演算処理ステップで用いる上記演算係数は、 予め求められてい る予測係数であって、  The calculation coefficient used in the calculation processing step is a prediction coefficient obtained in advance,
上記出力画像信号と同質である教師信号から、 上記注目画素に対応 する複数個の画素を抽出するステツプと、  Extracting a plurality of pixels corresponding to the pixel of interest from a teacher signal having the same quality as the output image signal;
上記入力画像信号と同質である生徒信号から、 上記注目画素に対応 した位置の複数の画素をクラスタップとして抽出するステップと、 上記クラスタツプの特徴に基づいて、 上記注目画素についての特徴 をクラス分類するステップと、  Extracting a plurality of pixels at positions corresponding to the target pixel as class taps from a student signal having the same quality as the input image signal; and classifying the characteristic of the target pixel based on the characteristic of the cluster tap. Steps and
上記教師信号から抽出された上記注目画素に対応する画素と同質の 出力信号を上記生徒信号から生成するための予測係数を、 上記クラス 分類されたクラス毎に導出するステツプと  A step of deriving, for each of the classes, a prediction coefficient for generating an output signal of the same quality as the pixel corresponding to the pixel of interest extracted from the teacher signal from the student signal;
によって、 上記予測係数として算出する画像処理方法。  An image processing method for calculating as the above prediction coefficient.
5 1 . コンピュータに対して、 入力画像信号より高品質な出力画像信 号を生成する画像処理を実行させるためのプログラムにおいて、 出力画像信号と同質の画像信号を格納手段に格納し、 上記入力画像 信号と格納された画像とを加算することによって、 入力画像より高品 質の第 1の画像信号を生成すると共に、 上記第 1の画像信号を上記格 納手段に格納する第 1の信号処理ステップと、  51. In a program for causing a computer to execute image processing for generating an output image signal higher in quality than the input image signal, the image signal having the same quality as the output image signal is stored in a storage unit, and A first signal processing step of generating a higher quality first image signal than the input image by adding the signal and the stored image, and storing the first image signal in the storage unit; When,
上記出力画像信号中の注目画素位置に応じて、 上記入力画像信号に 基づく特徴を抽出し、 上記特徴によつて上記注目画素を複数のクラス の一つに分類し、 分類された上記クラスに対応して予め定められた演 算方式で、 上記入力画像信号を演算することで、 入力画像より高品質 の第 Iの画像信号を生成する第 1の信号処理ステップと、  The feature based on the input image signal is extracted according to the position of the pixel of interest in the output image signal, and the pixel of interest is classified into one of a plurality of classes according to the characteristic, and the classified pixel corresponds to the class. A first signal processing step of generating the first image signal of higher quality than the input image by calculating the input image signal by a predetermined arithmetic method;
上記第 1 の画像信号と上記第 2の画像信号とに基づいた判定を行い  A determination is made based on the first image signal and the second image signal.
PCT/JP2001/005117 2000-06-15 2001-06-15 Image processing system, image processing method, program, and recording medium WO2001097510A1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US10/049,553 US7085318B2 (en) 2000-06-15 2001-06-15 Image processing system, image processing method, program, and recording medium

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2000179342A JP4470282B2 (en) 2000-06-15 2000-06-15 Image processing apparatus and image processing method
JP2000-179341 2000-06-15
JP2000-179342 2000-06-15
JP2000179341A JP4407015B2 (en) 2000-06-15 2000-06-15 Noise removing apparatus and noise removing method

Publications (1)

Publication Number Publication Date
WO2001097510A1 true WO2001097510A1 (en) 2001-12-20

Family

ID=26593971

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2001/005117 WO2001097510A1 (en) 2000-06-15 2001-06-15 Image processing system, image processing method, program, and recording medium

Country Status (2)

Country Link
KR (1) KR100816593B1 (en)
WO (1) WO2001097510A1 (en)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2004055775A1 (en) * 2002-12-13 2004-07-01 Sony Corporation Image signal processing apparatus, image signal processing method, program for practicing that method, and computer-readable medium in which that program has been recorded
WO2004072898A1 (en) * 2003-02-13 2004-08-26 Sony Corporation Signal processing device, method, and program
WO2004077354A1 (en) * 2003-02-25 2004-09-10 Sony Corporation Image processing device, method, and program
WO2005066897A1 (en) * 2004-01-06 2005-07-21 Sony Corporation Image processing device and method, recording medium, and program
JP2007142633A (en) * 2005-11-16 2007-06-07 Kddi Corp Shot boundary detection apparatus
US7729558B2 (en) 2002-11-20 2010-06-01 Sony Corporation Image signal, processing device and processing method, coefficient data generation device and generation method used for the same, program for executing the methods and computer readable medium containing the program
WO2010064316A1 (en) * 2008-12-05 2010-06-10 オリンパス株式会社 Image processing device, image processing method, and image processing program
US8204336B2 (en) 2008-07-16 2012-06-19 Panasonic Corporation Removing noise by adding the input image to a reference image
US8411205B2 (en) 2007-07-11 2013-04-02 Olympus Corporation Noise reducing image processing apparatus
JP7487611B2 (en) 2020-08-24 2024-05-21 株式会社リコー Image forming apparatus and program

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH01143583A (en) * 1987-11-30 1989-06-06 Nec Corp Method for eliminating noise of picture signal
JPH04101579A (en) * 1990-08-21 1992-04-03 Toshiba Corp Television signal processor
JPH06121194A (en) * 1992-10-08 1994-04-28 Sony Corp Noise removing circuit
JPH114415A (en) * 1997-06-12 1999-01-06 Sony Corp Image converter, image conversion method, learning device, learning method and transmission medium
JP2000059652A (en) * 1998-08-07 2000-02-25 Sony Corp Device and method for removing noise

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0612294A (en) * 1992-06-26 1994-01-21 Sekisui Chem Co Ltd Monitor device

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH01143583A (en) * 1987-11-30 1989-06-06 Nec Corp Method for eliminating noise of picture signal
JPH04101579A (en) * 1990-08-21 1992-04-03 Toshiba Corp Television signal processor
JPH06121194A (en) * 1992-10-08 1994-04-28 Sony Corp Noise removing circuit
JPH114415A (en) * 1997-06-12 1999-01-06 Sony Corp Image converter, image conversion method, learning device, learning method and transmission medium
JP2000059652A (en) * 1998-08-07 2000-02-25 Sony Corp Device and method for removing noise

Cited By (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7729558B2 (en) 2002-11-20 2010-06-01 Sony Corporation Image signal, processing device and processing method, coefficient data generation device and generation method used for the same, program for executing the methods and computer readable medium containing the program
CN100407755C (en) * 2002-12-13 2008-07-30 索尼株式会社 Image signal processing apparatus, image signal processing method, program for practicing that method, and computer-readable medium in which that program has been recorded
WO2004055775A1 (en) * 2002-12-13 2004-07-01 Sony Corporation Image signal processing apparatus, image signal processing method, program for practicing that method, and computer-readable medium in which that program has been recorded
US7595800B2 (en) 2003-02-13 2009-09-29 Sony Corporation Signal processing device, method, and program
US7668393B2 (en) 2003-02-13 2010-02-23 Sony Corporation Signal processing device, method, and program
US7734113B2 (en) 2003-02-13 2010-06-08 Sony Corporation Signal processing device, method, and program
US7576777B2 (en) 2003-02-13 2009-08-18 Sony Corporation Signal processing device, method, and program
US7590304B2 (en) 2003-02-13 2009-09-15 Sony Corporation Signal processing device, method, and program
US7593594B2 (en) 2003-02-13 2009-09-22 Sony Corporation Signal processing device, method, and program
WO2004072898A1 (en) * 2003-02-13 2004-08-26 Sony Corporation Signal processing device, method, and program
US7609292B2 (en) 2003-02-13 2009-10-27 Sony Corporation Signal processing device, method, and program
WO2004077354A1 (en) * 2003-02-25 2004-09-10 Sony Corporation Image processing device, method, and program
US7593601B2 (en) 2003-02-25 2009-09-22 Sony Corporation Image processing device, method, and program
WO2005066897A1 (en) * 2004-01-06 2005-07-21 Sony Corporation Image processing device and method, recording medium, and program
US7899208B2 (en) 2004-01-06 2011-03-01 Sony Corporation Image processing device and method, recording medium, and program for tracking a desired point in a moving image
JP2007142633A (en) * 2005-11-16 2007-06-07 Kddi Corp Shot boundary detection apparatus
JP4510749B2 (en) * 2005-11-16 2010-07-28 Kddi株式会社 Shot boundary detection device
US8411205B2 (en) 2007-07-11 2013-04-02 Olympus Corporation Noise reducing image processing apparatus
US8204336B2 (en) 2008-07-16 2012-06-19 Panasonic Corporation Removing noise by adding the input image to a reference image
WO2010064316A1 (en) * 2008-12-05 2010-06-10 オリンパス株式会社 Image processing device, image processing method, and image processing program
JP7487611B2 (en) 2020-08-24 2024-05-21 株式会社リコー Image forming apparatus and program

Also Published As

Publication number Publication date
KR100816593B1 (en) 2008-03-24
KR20020062274A (en) 2002-07-25

Similar Documents

Publication Publication Date Title
US7265791B2 (en) Method and apparatus for de-interlacing video signal
US7085318B2 (en) Image processing system, image processing method, program, and recording medium
US20100202711A1 (en) Image processing apparatus, image processing method, and program
KR20060047595A (en) Motion vector estimation employing adaptive temporal prediction
NL1027270C2 (en) The interlining device with a noise reduction / removal device.
KR20080033094A (en) Interpolation method for a motion compensated image and device for the implementation of said method
KR20070094796A (en) Spatio-temporal adaptive video de-interlacing
US6930728B2 (en) Scan conversion apparatus
WO2007119183A2 (en) Method and system for creating an interpolated image
JPWO2006025396A1 (en) Image processing apparatus and image processing program
WO2001097510A1 (en) Image processing system, image processing method, program, and recording medium
US8139151B2 (en) Moving image processing apparatus, control method thereof, and program
JP4407015B2 (en) Noise removing apparatus and noise removing method
KR20070094521A (en) Image processing apparatus and method and program
AU2004200237B2 (en) Image processing apparatus with frame-rate conversion and method thereof
JP4746909B2 (en) Auxiliary data processing of video sequences
Park et al. Covariance-based adaptive deinterlacing method using edge map
JP4886479B2 (en) Motion vector correction apparatus, motion vector correction program, interpolation frame generation apparatus, and video correction apparatus
JP2010118940A (en) Image processing apparatus, image processing method, and program
JP3723995B2 (en) Image information conversion apparatus and method
JP4470282B2 (en) Image processing apparatus and image processing method
JPH0730859A (en) Frame interpolation device
JP4250807B2 (en) Field frequency conversion device and conversion method
JP2006186504A (en) Apparatus and method of image processing, recording medium, and program
WO2005013615A1 (en) Adaptive de-interlacing method and apparatus based on phase corrected field, and recording medium storing programs for executing the adaptive de-interlacing method

Legal Events

Date Code Title Description
AK Designated states

Kind code of ref document: A1

Designated state(s): JP KR US

WWE Wipo information: entry into national phase

Ref document number: 1020027001976

Country of ref document: KR

WWP Wipo information: published in national office

Ref document number: 1020027001976

Country of ref document: KR

WWE Wipo information: entry into national phase

Ref document number: 10049553

Country of ref document: US