WO2000056060A1 - Dispositif et procede de traitement d'image, et support enregistre - Google Patents

Dispositif et procede de traitement d'image, et support enregistre Download PDF

Info

Publication number
WO2000056060A1
WO2000056060A1 PCT/JP2000/001586 JP0001586W WO0056060A1 WO 2000056060 A1 WO2000056060 A1 WO 2000056060A1 JP 0001586 W JP0001586 W JP 0001586W WO 0056060 A1 WO0056060 A1 WO 0056060A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
enlarged
component
frequency
frequency component
Prior art date
Application number
PCT/JP2000/001586
Other languages
English (en)
French (fr)
Inventor
Tatsumi Watanabe
Yasuhiro Kuwahara
Akio Kojima
Original Assignee
Matsushita Electric Industrial Co., Ltd.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from JP10470399A external-priority patent/JP4129097B2/ja
Priority claimed from JP17499099A external-priority patent/JP4081926B2/ja
Application filed by Matsushita Electric Industrial Co., Ltd. filed Critical Matsushita Electric Industrial Co., Ltd.
Priority to EP00909658A priority Critical patent/EP1164781A1/en
Publication of WO2000056060A1 publication Critical patent/WO2000056060A1/ja

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • G06T3/403Edge-driven scaling; Edge-based scaling
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • G06T3/4084Scaling of whole images or parts thereof, e.g. expanding or contracting in the transform domain, e.g. fast Fourier transform [FFT] domain scaling

Definitions

  • the present invention reduces the storage size of image data transmitted through a communication means such as a net or image data input by a scanner or an electronic still camera, and outputs the data clearly. And an image processing method.
  • a communication means such as a net or image data input by a scanner or an electronic still camera
  • JPEG Joint Photographic Coding Experts Group
  • the original image is read by the image input means 10 composed of a CCD image sensor or the like.
  • Lossless compression by JPEG is performed on the original image by the compression means 3900. That is, first, the image is transformed by the DCT (Discrete Cosine Transform) conversion means 3906. The image is converted into a signal in the frequency domain by performing a discrete cosine transform, and the obtained transform coefficient is quantized by the quantization means 3907 using the quantization table 3901. The quantized result is converted into a code string based on the entropy coding table 3902 by the entropy coding means 3908, and this code string is stored in the storage medium 15. This processing is performed until the compression processing of all the original images is completed.
  • DCT Discrete Cosine Transform
  • the resolution of the CCD is higher than the resolution of the review display device, as described above, and when displaying the compressed image data stored in the storage medium 15 on these display devices, this compression is used. After decompressing the image data, pixel thinning processing is performed for resolution conversion.
  • the expansion means 3903 in FIG. 39 expands the compressed image data stored in the storage medium 15.
  • the transform coefficients are returned to the quantized transform coefficients by the entropy decoding means 3911 and are returned to the DCT coefficients by the inverse quantization means 3910.
  • the DCT coefficient is subjected to an inverse discrete cosine transform (IDCT) conversion means 3909 to perform an inverse discrete cosine transform, and is expanded to a value of the original image data space.
  • IDCT inverse discrete cosine transform
  • the decompressed image data is output from the original image output means 3912 to a printer CRT or the like in response to a user's instruction signal input from input means such as a mouse (not shown).
  • the pixel thinning means 390 4 thins out pixels from all the image data expanded by the expansion means 390 3 according to the resolution of the reduced display means for review display. The thinned image is reviewed and displayed by the reduced image display means 3905.
  • the interpolated image is likely to be averaged, and edges and the like are likely to be unclear.
  • adjustment of the interpolation pixel position and interpolation data using the edge information extracted from the original original image may be performed. is there.
  • FIG. 42 after the edge information is extracted by the edge extraction means 4600, an enlarged edge is obtained by the edge interpolation means 4201 in accordance with a desired enlargement ratio. Then, by multiplying the enlarged edge information by the result of the interpolated enlarged image of the original image by the inter-pixel interpolation unit 110, a desired enlarged image is generated and output by the estimated enlarged image output unit 501. Has become.
  • interpolation methods such as the nearest neighbor method that uses the value of the closest sample as the interpolation value.
  • the linear interpolation method is smoothed under the effect of applying a low-pass filter (low-pass filter; LPF) because the frequency characteristics of the pass band are suppressed.
  • LPF low-pass filter
  • blurred images tend to be lacking in sharpness and detail of images.
  • the nearest neighbor method has a drawback in that it tends to be distorted due to a large amount of high-frequency leakage, and the distortion appears as a jagged edge on the mozaic edge.
  • the method (2) using the spatial frequency has been proposed.
  • the intent of these methods is that when sampling It aims to improve the quality of the enlarged image by restoring the lost high-frequency components and estimating and restoring the detailed information and edge information of the image.
  • FIG. 40 is a block diagram showing a conventional example of a system for realizing the method (2) using the spatial frequency
  • FIG. 41 is a diagram schematically showing processing steps.
  • an original image (n Xn pixels) in the real space as shown in FIG. 41 (a) is transformed into an image in the frequency space as shown in FIG. (n Xn pixels).
  • the image data in this frequency space is represented by an n Xn matrix, and the matrix after the frequency conversion becomes low-frequency components as it goes to the upper left in the drawing. As it goes down, it becomes a high-frequency component.
  • the “0” component embedding means 4000 a region (snXsn region shown in FIG.
  • n Xn frequency domain shown in Fig. 41 (b) obtained by the above orthogonal transformation is copied into the frequency component domain, and "0" is interpolated into the remaining high frequency component domain.
  • the inverse orthogonal transform means 4001 performs inverse orthogonal transform on the frequency domain of snXsn to obtain image data in the real space multiplied by s as shown in FIG. 41 (d).
  • the enlarged field image estimated by the estimated enlarged image output means 4002 is output.
  • Japanese Patent Application Laid-Open No. 8-294001 is a method in which these problems are taken into consideration, and the processing time and restoration of high-frequency components are devised.
  • frequency information obtained based on a prediction rule prepared in advance is embedded in a high-frequency region of an original image. Therefore, it is necessary to create rules between high-frequency components and other regions based on the majority of images in advance, and it takes time and effort to create an appropriate rule base, which can be created as appropriate rules. Otherwise, there is a concern that sufficient effects cannot be achieved.
  • the size of an image is arbitrary, and the larger the size required for the orthogonal transformation, the longer the processing time. For this reason, in general, orthogonal transform is not performed on the entire image of a specific size at once, but is performed on a block size of about 4 pixels to 16 pixels. At that time, there was also a problem that discontinuity (block distortion) between blocks of the completed enlarged image occurred at the boundary. Disclosure of the invention
  • the present invention has been made in view of the above circumstances, and provides an image processing apparatus and image processing capable of reducing the storage size of image data and realizing a clear and high-quality image enlargement.
  • the aim is to provide a method.
  • the present invention employs the following solutions. First, in order to reduce the storage size of image data, as shown in FIG. 1, the original image obtained from the image input means 10 is subjected to orthogonal transformation by the original image orthogonal transformation means 11 to obtain the original image. A frequency component is generated, and low-frequency component extraction means 100 extracts a low-frequency component from the original image frequency component.
  • high-component encoding means 13 obtains related information between the low-frequency component and the remaining high-frequency component of the original image frequency component, encodes the information, and encodes the information by code synthesizing means 14.
  • the low-frequency component and the related information are combined to generate simple image data.
  • the low-frequency component is extracted by the low-component decoding unit 16
  • the relevant information is extracted by the high-component decoding unit 17
  • the high-frequency component is extracted based on the low-frequency component.
  • the component is decoded, and the original image output means 18 combines the low-frequency component and the high-frequency component and performs an inverse orthogonal transform to restore the original image.
  • the simple image data can be directly input to a means for restoring an image such as a personal computer and processed, but can also be temporarily stored in the storage medium 15. Further, in the simple image data, the data amount of the low-frequency component can be further compressed by the low-component compression means 300 as shown in FIG. 3. In this case, a reversible compression method is used. Is preferred.
  • a frequency corresponding to the reduced size (for example, preview size) defined by the reduced image generating means 101 is used, and inverse orthogonal transformation is performed on the image of the low-frequency component overnight.
  • a reduced image can be generated.
  • the insufficient component estimating means 500 when a specific image is enlarged to a desired size, the insufficient component estimating means 500 as shown in FIG.
  • the frequency component of the specific image and the high frequency component obtained by the shortage component estimating means are combined by the enlarged image output means 501, and the desired orthogonal It is designed to output an image enlarged to the size.
  • the original image orthogonal transformation means 11 performs orthogonal transformation on the image data. An original image frequency component is generated, and a frequency component when the original image is enlarged according to a desired enlargement ratio is estimated from the original image frequency component by the enlargement frequency estimating means 800.
  • the basic component extracting means 800 Based on the frequency components of the original image obtained as described above and the frequency components of the estimated enlarged image, it is necessary for the basic component extracting means 800 to restore the basic image whose size has been designated in advance.
  • the frequency component is extracted as a basic component, and the multiplexed image coding means 802 obtains information relating to the basic component and the frequency component of the estimated enlarged image, and encodes the information.
  • the basic component obtained in this way and the related information are combined by the multiplex code combining means 803 to generate multiplex simplified image data.
  • the basic components and related information are extracted from the multiplex simplified image data generated in this manner, and the image can be restored based on both.
  • the data size can be further reduced by compressing the data amount of the basic component.
  • the image data input from the image input means 10 is interpolated by the inter-pixel interpolation means 110 Interpolation between pixels according to Although the edge portion of the interpolated enlarged image obtained by this becomes unclear, the convolution means 1101 performs convolution calculation for emphasizing the edge portion of the interpolated enlarged image, so that frequency conversion that requires processing time is performed. An enlarged image with a clear edge is generated without going through.
  • the convolution means 1101 performs convolution calculation for emphasizing the edge portion of the interpolated enlarged image, so that frequency conversion that requires processing time is performed. An enlarged image with a clear edge is generated without going through.
  • Estimating means 12 OA estimates frequency components of the enlarged image. Then, the inverse orthogonal transforming means 1213 performs an inverse orthogonal transform corresponding to the enlarged size on the frequency component generated by the enlarged frequency estimating means 12 OA to obtain enlarged image data.
  • the estimation of the frequency component in the expanded frequency estimating means 12 OA is performed using a linear approximation or a radial basis function network. Also, an edge image that is considered to contain many high-frequency components is extracted from the original image, and the high-frequency component of the enlarged image is estimated from the enlarged edge image obtained by the linear transformation using orthogonal transformation. A method is also adopted.
  • the block dividing unit 230 0 divides the input image data into a plurality of blocks, and 02 estimates the frequency component of the enlarged image block for each block.
  • the block dividing unit 230 0 estimates the frequency component of the enlarged image block for each block.
  • an overlap is provided between adjacent blocks, and for the overlapped part in the enlarged block image, the enlarged block generated later is adopted as a block. Reduces distortion between frames.
  • the original image is processed by a conversion function set in advance for each block to reduce discontinuity of the image at the block boundary due to block division.
  • the original image is a color image, as shown in FIG. 28, from among the color components constituting the input color image, a color component which is used as a reference by the reference component selecting means 2800 is used. Is determined, and an enlarged image is generated for the reference color component ( Then, for the remaining color components, the missing component enlarging means 280 05 is linearly converted to the enlarged image of the reference color component using the conversion ratio derived from the color original image by the conversion ratio deriving means 280 01. By performing the conversion, the efficiency of the process for generating the enlarged image data of the color image data is improved.
  • the input image adjustment means 12 interpolates or thins the original image data into Ln / 2 pixels X Lm / 2 pixels (hereinafter collectively referred to as “adjustment”). Then, the input image adjusting unit image enlarged hand stage 2 9 OA on the adjusted image by to generate an enlarged image by applying the method based on wavelet transformation (enlargement process described above is specifically obtained expanded
  • the image adjusted according to the number of pixels of the image, and the vertical edge image, the horizontal edge image, and the diagonal edge image are regarded as the four sub-band images constituting the wavelet transform image. By performing inverse wavelet transform on the subband image, an enlarged image having a desired pixel size is obtained.
  • three edge images obtained from the reduced image of 1Z4 size in the low frequency range of the transformed image data obtained by wavelet transforming the original image data, and the remaining image data in the transformed image data Find the association between the three subband images.
  • the vertical edge image, the horizontal edge image, and the oblique edge image of the image adjusted according to the number of pixels of the enlarged image to be obtained are corrected using the related information.
  • the adjusted image and the corrected three edge images are regarded as four sub-band images constituting the converted image data, and inverse wavelet transform is performed on the sub-band image to obtain a desired pixel.
  • one average edge image data obtained from the 1Z4 size reduced image data in the low frequency range of the converted image data and the remaining edge image data in the converted image data are obtained. Find the association between the three subband image data.
  • one average edge image obtained from an image adjusted according to the number of pixels of the enlarged image data to be obtained is corrected.
  • the adjusted image data and the three image data obtained by the correction are regarded as the four sub-band images constituting the above-described converted image data, and the desired pixel size is enlarged by performing inverse wavelet transform. Ask for an image.
  • the enlargement processing initializing means 3700 sets the original image as the enlargement target image, and the target image enlargement means 370 1 transforms the above enlargement target image into an ⁇ ⁇ ⁇ transform.
  • the multiplex processing determination means 3703 sets the enlarged image obtained by the target image enlargement means 3701 as an enlargement target image, and returns the processing to the target image enlargement means.
  • the enlarged image presenting means 37 02 visually presents the enlarged image obtained by the target image enlarging means C 1301.
  • the image fine-adjustment unit 3704 performs an enlargement process or a reduction process on the enlarged image presented by the enlarged image presentation unit 3702.
  • the above-described enlargement method using the wavelet transform is applied.
  • the enlarged image obtained by the inverse wavelet transform is used as the next target image.
  • the inverse wavelet transform is performed sequentially, the enlargement process to an image with four times the number of pixels is repeated. Then, the operation is stopped when the desired magnification is visually attained, thereby performing the enlargement of the input original image.
  • the basic color component is determined by determining the basic color component among the color components constituting the color image even in the enlarging method using the wavelet transform. Generate an enlarged image for. And The remaining color components are obtained by estimating the enlarged image of the basic color components by performing a linear conversion based on the conversion ratio, thereby streamlining the process of generating an enlarged image of the color image.
  • FIG. 1 is a block diagram showing a configuration of the first, second, and third embodiments of the present invention.
  • FIG. 2 is a schematic diagram illustrating the processing steps according to the first embodiment of the present invention.
  • FIG. 3 is a schematic configuration diagram including an image processing device according to a fourth embodiment of the present invention.
  • FIG. 4 is a schematic diagram showing a procedure of spatial prediction compression used in the fourth embodiment of the present invention.
  • FIG. 5 is a schematic configuration diagram including an image processing device according to a fifth embodiment of the present invention.
  • FIG. 6 is a schematic diagram of the procedure of the shortage component estimating means used in the fifth embodiment of the present invention.
  • FIG. 7 is a block diagram illustrating a configuration of the sixth, seventh, and eighth embodiments of the present invention.
  • FIG. 8 is a schematic diagram illustrating processing steps of a basic component extracting unit and a multiplex encoding unit used in the sixth embodiment of the present invention.
  • FIG. 9 is a schematic configuration diagram including an image processing device according to a ninth embodiment of the present invention.
  • FIG. 10 is a block diagram showing the configuration of the tenth embodiment of the present invention.
  • FIG. 11 is a schematic diagram illustrating processing steps of the image processing apparatus according to the tenth embodiment of the present invention.
  • FIG. 12 is a block diagram illustrating a configuration of an image processing apparatus according to Embodiment 11 of the present invention.
  • FIG. 13 is a diagram schematically illustrating processing steps of the image processing apparatus according to the eleventh embodiment of the present invention.
  • FIG. 14 is a schematic diagram of a radial basis function network.
  • FIG. 15 is a diagram schematically illustrating a relationship between an original image and an enlarged image in the image processing apparatus according to the eleventh embodiment of the present invention.
  • FIG. 16 is a block diagram illustrating a configuration of an image processing apparatus according to Embodiment 12 of the present invention.
  • FIG. 17 is a diagram schematically illustrating processing steps of the image processing apparatus according to the embodiment 12 of the present invention.
  • FIG. 18 is a diagram illustrating an example of a Laplacian fill.
  • FIG. 19 is a block diagram illustrating a configuration of an image processing apparatus according to Embodiment 13 of the present invention.
  • FIG. 20 is a diagram schematically illustrating processing steps of the image processing apparatus according to the embodiment 13 of the present invention.
  • FIG. 21 is a diagram schematically illustrating processing when linear approximation is used in the edge frequency estimating means of the image processing apparatus according to Embodiment 13 of the present invention.
  • FIG. 22 is a diagram schematically illustrating the distortion between enlarged blocks.
  • FIG. 23 is a block diagram illustrating a configuration of an image processing apparatus according to Embodiment 14 of the present invention.
  • FIG. 24 is a diagram illustrating processing steps of the image processing apparatus according to the embodiment 14 of the present invention.
  • FIG. 25 is a block diagram illustrating a configuration of an image processing apparatus according to Embodiment 15 of the present invention.
  • FIG. 26 is a diagram illustrating processing steps of the image processing apparatus according to the embodiment 15 of the present invention.
  • FIG. 27 is a diagram illustrating a process performed by the intra-block data conversion unit of the image processing apparatus according to the embodiment 15 of the present invention.
  • FIG. 28 is a block diagram illustrating a configuration of an image processing apparatus according to Embodiment 16 of the present invention.
  • FIG. 29 is a block diagram illustrating a configuration of an image processing apparatus according to Embodiment 17 of the present invention.
  • FIG. 30 is a diagram illustrating a filtering process in the wavelet transform.
  • FIG. 31 is a diagram schematically illustrating subband components in a converted image.
  • FIG. 32 is a diagram schematically illustrating estimation of a missing subband component in a converted image.
  • FIG. 33 shows an example of a filter applied to edge detection in the vertical, horizontal, and oblique directions.
  • FIG. 34 is a block diagram illustrating a configuration of an image enlargement unit included in the image processing apparatus according to the eighteenth embodiment of the present invention.
  • FIG. 35 is a diagram schematically illustrating estimation and correction of the missing subband component in the converted image.
  • FIG. 36 is a block diagram illustrating a configuration of an image enlargement unit included in the image processing apparatus according to the nineteenth embodiment of the present invention.
  • FIG. 37 is a block diagram illustrating a configuration of an image processing apparatus according to Embodiment 20 of the present invention.
  • FIG. 38 is a block diagram illustrating a configuration of an image processing apparatus according to Embodiment 21 of the present invention.
  • FIG. 39 is a block diagram showing a configuration of a conventional electronic still camera.
  • FIG. 40 is a block diagram illustrating a configuration of a conventional image enlargement device that converts the image into the frequency domain and enlarges the image.
  • FIG. 41 is an explanatory diagram showing an example of conversion to a conventional frequency domain and enlargement.
  • FIG. 42 is a block diagram illustrating a configuration of a conventional image enlargement device that enlarges by pixel interpolation.
  • FIG. 43 is a schematic diagram showing conventional inter-pixel interpolation.
  • the units of the coordinate values are all the same as the distance units between pixels.
  • the original image is an image captured by a scanner, an electronic still camera, or the like will be described as an example.
  • it may be an image or the like transmitted via a communication means such as Internet.
  • an original image having a size of N pixels ⁇ N pixels obtained by an image input unit 10 such as a CCD image sensor is converted into component data (frequency component data) in a frequency space by an original image orthogonal transformation unit 11.
  • orthogonal transform is used, and examples of the transform method include Hadamard transform, Fast Fourier Transform (FFT), Discrete Cosine Transform (DCT), Slant transform, and Haar transform.
  • FFT Fast Fourier Transform
  • DCT Discrete Cosine Transform
  • Slant transform Slant transform
  • Haar transform Discrete Cosine Transform
  • the present invention is not limited to this conversion method, but is also valid when other orthogonal transforms are used.
  • the DCT used here is a two-dimensional DCT, especially for handling images, and its conversion formula is as shown in [Equation 2].
  • F (u, v) is the DCT component at the component position (u, v), and DOc.
  • Y) represents the image data at the pixel position (x, y).
  • K-X indicates the number of pixels in the X direction
  • K-y indicates the number of pixels in the y-direction.
  • the low-component extracting means 100 extracts low-frequency components of the original image as shown in FIG. 2 (b).
  • the high-component encoding means 13 encodes the high-frequency component region (e) remaining when the low-frequency component (c) is removed from the frequency components of the original image in FIG. 2 (b).
  • the region of the low frequency component is divided into small blocks from HI to H5.
  • the region of low frequency component (c) is also divided into L1 to L4 blocks. Then, the frequency components in the blocks HI to H5 of the high frequency component (e) and the blocks L1 to L4 of the low frequency component (f) are associated with each other.
  • a linear expression multiplied by a constant coefficient as shown in [Equation 3] may be used, or a multidimensional function (LI, L2, L3, L4) having the frequency components of blocks L1 to L4 as variables.
  • the frequency components in each block HI to H5 may be approximated.
  • each block it is not necessary to provide the coefficients of the ⁇ rule.
  • a coefficient matrix M_C1 to M—C5 is prepared, and the frequency matrix in the blocks L1 to L4 is calculated.
  • M_C1 to M—C5 which is composed of frequency data in the blocks from ⁇ 1 to ⁇ 5
  • M—U to M_L4 the low-frequency component matrices M—U to M_L4.
  • Either method uses the low-frequency component data shown in Fig. 2 (c) to accurately and rule the remaining high-frequency components shown in Fig. 2 (e), which represent the sharpness and edge information of the image. The data capacity of the components can be reduced.
  • the encoding storage means 14 stores the rule description obtained by the high-component coding means 13 or the low-frequency data obtained from data such as coefficients of the approximate expression used in the high-component coding means 13.
  • a table is provided in the storage medium 15 for the process of reading and restoring next, and the number of stored image data, the size of each image data, and the ratio of the low frequency component data to the total of the stored data are set.
  • the processing performed by the image input means 10 and the original image orthogonal transformation means 11 is The description is omitted because it is the same as the image processing apparatus of the first embodiment.
  • the low-component extraction means 100 extracts low-frequency components corresponding to the number of pixels of the reduced image display means 102 for displaying thumbnail images, and the reduced-image generation means 101 inversely orthogonalizes the low-frequency components. After the conversion, the thumbnail image is displayed on the reduced image display means.
  • the user outputs the simple image data stored in the storage medium 15 by the image processing apparatus of the first embodiment of the present invention to a high-resolution laser printer
  • An instruction signal is given from input means (not shown) such as a keyboard and a mouse in order to extract a desired image to be edited.
  • the low-component decoding unit 16 extracts the central low-frequency component from the storage medium 15.
  • the high-component decoding unit 17 decodes the high-frequency component from the low-frequency component obtained by the low-component decoding unit 16 and information related to the low-frequency component and the high-frequency component in the storage medium 15.
  • Original image output means 18 This low-frequency component data and high-frequency component data are combined, and the inverse orthogonal transform of the corresponding image size is performed, thereby displaying on a CRT, outputting to a printer, etc. It is output as data handled by the image processing device.
  • the processing performed by the original image orthogonal transform means 11, the low component extracting means 100, the high component coding means 13, the code synthesizing means 14, and the storage medium 15 are the same as those of the first embodiment. The description is omitted because it is the same as the image processing apparatus. Considering that the capacity of the low-frequency component data of the original image obtained by the low-component extraction means 100 occupies a large size, and the limitation due to the size of the storage medium, the low-frequency component data is converted to the low-component data. Compress by compression means 300.
  • a compression processing using normal DCT, quantization, and entropy coding (also referred to as a baseline method) called a spatial prediction (Spatial) method in JPEG
  • DPCM differential encoding
  • entropy encoding it is preferable to use a reversible method that does not cause distortion due to compression and decompression.
  • a predicted value is calculated by a predictor using adjacent density values, and the predicted value is subtracted from the encoded density value. For example, seven kinds of relational expressions are prepared.
  • the density value to be coded is Dx, and three adjacent density values are Dl, D2, and D3.
  • the predicted value dDx calculated from these three density values is defined by [Equation 4], and which one is used is described in the header information of the compressed image data.
  • FIG. 4 (b) one prediction formula is selected, Ex is calculated, and this Ex is entropy-encoded. By encoding such a prediction error, the low frequency component is reversibly compressed. It becomes possible.
  • the high-component encoding means 13 calculates the remaining high-frequency components as shown in (Equation 3) as in the first embodiment. Make rules in an appropriate way.
  • the code synthesizing means 14 uses the compressed low-frequency component data and the rule description obtained by the high-component coding means 13 or data such as coefficients of the approximate expression used in the high-component coding means 13.
  • the obtained low frequency component and the code string of the related information of the high frequency component are synthesized and stored in the storage medium 15 as simple image data.
  • the low-frequency component which seems to occupy the largest part in the data capacity of the first device is compressed to a data amount of 1Z2 to 1Z4. It becomes possible. Also, by using a reversible method for this compression, it is possible to store the frequency components of the original image without loss.
  • the low-frequency component data is a reference image for restoring a high-frequency component representing the sharpness of the details of the image
  • the low-frequency component data of the original image is output in order to achieve an image output as clear and clear as possible.
  • a lossless compression method was applied to the low-frequency components, it is also possible to apply the normal JPEG baseline method here.t In this case, loss of image clarity is lost due to lossy compression. Since the amount of data is compressed from about 10 to 1/20, a method that can be used when storing as much image data as possible by minimizing the read image capacity held on the storage medium It is.
  • information relating to the low-frequency component and the high-frequency component obtained by the high-component encoding means 13 in the image processing apparatus according to the present embodiment and the above-mentioned first embodiment, and the The related information of the basic component obtained by the multiplex coding means 802 and the high frequency component of each enlarged image can also be compressed by a reversible compression method such as the above-mentioned Spatial method. (Example 5)
  • the deficient component estimating means 500 has a function of estimating deficient high-frequency component data when the read original image is displayed on a high-resolution CRT or the like when the pixel size is enlarged to a desired pixel size.
  • the enlarged image output means 501 receives the deficient high-frequency components estimated by the deficient component estimation means 500 and the coded data stored in the storage medium 15 by the low-component decoding means 16 and the high-component decoding means 17. By combining the frequency components of the original image decoded from the image data and performing inverse orthogonal transformation means corresponding to the enlarged size, an enlarged image of the read original image is generated.
  • the frequency component data as shown in Fig. 6 (b) obtained by orthogonally transforming the original image having the size of N pixels X N pixels shown in Fig. 6 (a) is converted into the desired enlarged size (sN pixels XsN pixels). It is embedded in the low frequency range of the frequency component of the enlarged image with the coefficient size corresponding to (Fig. 6 (c)). Then, the missing component HI generated at this time is estimated from the frequency component of the original image shown in FIG. 6 (b).
  • the estimation method includes, for example,
  • this insufficient component estimating means 500 accurately detects high-frequency components necessary for generating images with sharp details and clear edges when enlarging.
  • a good estimation method is required, and any method that satisfies the demand can be similarly established.
  • the enlarged image output means 501 performs inverse orthogonal transformation corresponding to the coefficient size of sN X sN as shown in Fig. 6 (d), thereby obtaining the enlarged image estimated by the insufficient component estimating means 500.
  • the frequency components are returned to the real space data and displayed on a CRT or the like, passed to an output device such as a printer, or output as data handled by another image processing device.
  • the frequency components of the original image are used to estimate and compensate for the high-frequency component data required at the time of output of the enlarged image. Can be resolved.
  • the processing performed by the image input means 9 and the original image orthogonal transformation means 11 is the same as that of the first embodiment of the present invention, and therefore the description is omitted.
  • the expansion frequency estimating means 800 estimates frequency component data when the image is enlarged to a plurality of image sizes. This estimating method can employ the same method as the shortage component estimating means 500 in FIG. 5, which is one of the components of the image processing apparatus according to the fifth embodiment of the present invention.
  • basic component extraction processing is performed by the basic component extraction means 807.
  • FIG. 8 schematically shows this processing.
  • Fig. 8 (a) shows the frequency components of the original image
  • Fig. 8 (b) shows the frequency components of the image with the original image size doubled vertically and twice horizontally
  • Fig. 8 (c) shows the vertical size of the original image. Shows the frequency components of the image magnified 3 times and 3 times horizontally. It should be noted that more image sizes may be prepared, and the image size prepared at that time does not need to be an integral multiple.
  • the low-frequency components represent the overall characteristics of the image, and have a qualitative tendency common to each magnification. Therefore, the low-frequency component L00 having a similar tendency is considered as a fundamental component as shown in FIG. 8 (d).
  • the frequency data of the original image shown in FIG. 8 (a) may be regarded as the basic component.
  • the multiplex coding means 800 in FIG. 7 is similar to the high-component coding means 13 in the image processing apparatus according to the first and fourth embodiments of the present invention, and is similar to the basic component L00 and shown in FIG. 8 (b). Associating H13 with each block mi and creating rules (Fig. 8 (e-1)). Similarly, each of the blocks H21 to H25 shown in FIG. 8 (c) can be directly associated with the basic component L00, but here, as shown in FIG. 8 (e-2), FIG. By associating each of the blocks H11 to H13 of FIG. 8 with each of the blocks H21 to H25 of FIG. 8C, the basic component (low frequency component) L00 is associated with each of the blocks H21 to H25 of FIG. Become This is because the quasi-qualitative differences between the blocks with similar frequency domains are smaller, and the accuracy and time required for the association can be reduced.
  • the multiplex code synthesizing unit 803 is similar to the code synthesizing unit 14 in the first and fourth embodiments of the present invention, and includes the extracted basic component, the basic component obtained by the multiplex encoding unit 202, The information related to the frequency component is synthesized, and the storage process is performed on the storage medium 15 as multiplexed simplified image data. At this time, it is necessary to clearly describe the number of enlarged images prepared for multiplexing, the flag signal at the start of data of each size, and the like in the header of the multiplexed simplified image data.
  • an image of a desired enlarged size can be obtained based on the data read from the storage medium. It is possible to shorten the time required for estimating the high frequency component, which is insufficient when outputting, and to improve the user interface.
  • the processing performed by the image input unit 10, the original image orthogonal transformation unit 11, the enlarged frequency estimation unit 800, and the basic component extraction unit 807 is the same as that of the image processing apparatus Description is omitted because it is similar.
  • the basic image generation means 808 performs inverse orthogonal transformation on the basic components extracted by the basic component extraction means 807, and displays the thumbnail images on the basic image display means 809. If the size (coefficient size) of the frequency extracted in the means 807 in the frequency space is larger than the image size of the display for review, the frequency component corresponding to the resolution is further extracted from the lower band of the basic component and displayed. Is generated. Conversely, if the coefficient size of the frequency extracted by the basic component extraction means is smaller than the image size of the display for review, the "0" component embedding as shown in Fig. 41 is embedded in the part lacking the basic component coefficients. To generate a thumbnail image.
  • the user operates the image processing apparatus of the sixth embodiment of the present invention to store
  • the user can select an image to be output and edited from the image data stored in 5 and specify the target image size.
  • selection information according to the image size stored in the storage medium 15 is presented, or an enlargement ratio based on the original image size is input by the user, or the output device has A method of automatically selecting according to the resolution can be considered.
  • the selection information according to the image size stored in the storage medium 15 is presented.
  • the user selects and instructs a desired image and a desired image size using input means (not shown) such as a mouse, and the storage medium 15 transmits the fundamental component decoding means 804 from the multi-frequency data corresponding to the instruction.
  • the target frequency decoding means 805 extracts the expression code string of the high-frequency component data corresponding to the selected image size, and, based on the code string and the basic component, other than the basic component of the target enlarged image size. Is decoded.
  • the target image output means 806 combines the high-frequency component and the basic component, performs an inverse orthogonal transform, and outputs a desired enlarged image.
  • the image size it is also possible to select the image size to be selected smaller than the desired image size and add the missing component to the insufficient component estimating means 500 in the fifth embodiment.
  • a low-frequency component that can be regarded as common to a plurality of enlarged-size frequency components is extracted as a basic component, and the remaining height of each enlarged size is centered on this basic component.
  • By encoding the frequency components it is possible to prepare frequency data of an image for a plurality of enlarged sizes. Therefore, at the time of reproducing an enlarged image of a target image size according to a user's instruction, an enlarged image can be reproduced at a high speed without estimating a high-frequency component insufficient for a desired enlarged size every time an instruction is issued.
  • FIG. 9 the processing up to the image input unit 10, the original image orthogonal transform unit 11, the enlarged frequency estimating unit 800, and the basic component extracting unit 807 are performed by the image processing apparatus of the sixth embodiment of the present invention. The description is omitted because it is the same as that of FIG.
  • the basic component compressing means 1000 compresses the basic component extracted by the basic component extracting means 807.
  • the compression process is performed by the low component compressing means in the image processing apparatus according to the fourth embodiment of the present invention. Since it is the same as 300, the description is omitted. Further, the processing in the multiplex coding means 802, the multiplex code synthesizing means 803 and the storage medium 15 following the basic component compression means 100 is the same as that of the image processing apparatus of the sixth embodiment of the present invention. The description is omitted because it is similar.
  • FIG. 10 is a block diagram showing the configuration.
  • the inter-pixel interpolation means 110 generates an enlarged image.
  • convolution means 1101 repeats convolution processing on the enlarged image to perform pixel enhancement.
  • FIG. 11 shows the steps of the convolution process.
  • image data of the edges cannot be extracted, and it is difficult to perform image enlargement processing in the processing steps shown in Fig. 42. It is.
  • the averaged density value can be easily emphasized.
  • the processing of the convolution means 1101 has the same effect as repeating the processing of the enlarged image by the edge emphasis filter a plurality of times.
  • the convergence determining means 1 102 determines the convergence of the convolution process. It is based on the average value in square of the square error between the density value Dp [Kl] obtained at the (K-1) th time and the density value Dp [K] at the Kth time as shown in [Equation 6]. Is smaller than the convergence judgment value Thred prepared in advance, the convolution is concluded, the convolution process is finished, and the estimated enlarged image output means 1312 outputs the estimated enlarged image. (Equation 6) Thred ⁇ ( ⁇ (Dp [k]-Dp [k-1]) 2 ) / T _ Gaso
  • T-Gaso represents the total number of pixels in ⁇ .
  • the image processing apparatus emphasizes an enlarged image by performing convolution operation processing on interpolated image data, and does not need to perform time-consuming frequency conversion. realizable.
  • an enlarged image having edge information can be easily obtained even for an original image in which edges which are problematic when edge information of the original image is used to eliminate blur of the interpolation image.
  • FIG. 12 shows the configuration of the image processing apparatus according to the embodiment 11.
  • the approximation coefficient deriving means 1 200 of the enlarged frequency estimating means 1 200 A uses the original image data of n pixels x n pixels input to the apparatus by the image input means 10 to calculate the frequency component data of the enlarged image.
  • the expanded frequency estimation means 1 2 OA non-linear estimation means 1 2 0 1 is the weight coefficient vector Vw obtained by approximation coefficient derivation means 1 2 0 0 and the original image obtained by the original image orthogonal transformation means 1 1 1 Using the frequency component data, the frequency component data of the enlarged image is estimated using a radial basis function network, as described later.
  • the image input means 10 reads original image data having a size of n pixels X n pixels to be enlarged.
  • the original image obtained by the image input means 10 is the same as that in the first embodiment until it is converted into component data (frequency component data) in the frequency space by the original image orthogonal transform means 11. Is omitted.
  • the enlarged frequency estimating means 12 OA as shown in FIG.
  • a non-linear but non-linear relationship holds between the two-dimensional DCT component value and its component position (u.V). Therefore, a technique that can accurately approximate this nonlinear relationship with a function is required for image enlargement that is sharp and has no blurred edges. Examples of such methods include a method based on a hierarchical dual neural network learned based on learning data prepared in advance, and a method of fuzzy inference using a rule base extracted from learning data prepared in advance. Can be However, it is indispensable for accurate estimation to prepare many image data for learning in advance.
  • Figure 14 shows the model configuration of the RBFN used here.
  • VP-i is equivalent to the position vector of the frequency component of the original image
  • the number N of RBF functions corresponds to n Xn for the number of pixels in the original image.
  • the RBF function is prepared for the pixels of the original image, and the enlarged frequency component data placed around the component position vector VP—i of P, which is the center of the RBF function, is the overlap of these RBF function outputs.
  • F '(u, V) the distance II between the component position vector VP and VP-i, the center of the i-th RBF function.
  • II VP -VP_i II an example of [Equation 8] is given as an example. (Equation 8)
  • ⁇ '-i in the enlarged frequency domain corresponds to P-i in the frequency domain of the original image. Therefore, the frequency component position (a- i, b- i) of P _i as a frequency component F (a- i, b- i) that put the P _i and! 1 'estimated frequency components in __i F' (u — Vw that minimizes the square error function E (Vw) of (i, v _i) should be the optimal weighting coefficient vector.
  • the estimated components F '(u, V) at (u, V) are arranged from the low band, and the k-th estimated component corresponding to the frequency component position (a-i, b_i) of the original image is FF (k). I do.
  • a matrix MP consisting of the frequency component vector Vy of the estimated enlarged image and the RBF function is defined as [Equation 9].
  • Vy (FF (0), FF (l ⁇ , (N-1)) 'MP ⁇ [MPJj]
  • Vw (MP T ⁇ ⁇ ' ⁇ ⁇ Vf
  • the approximation coefficient deriving means 1200 calculates the approximation weight coefficient Vw using this.
  • the nonlinear estimating means 1 201 estimates the DCT component F ′ (u, V) in (u, v) from [Equation 7] using the weighting coefficient Vw.
  • the inverse orthogonal transform means 1 2 1 3 performs an inverse discrete cosine transform (IDCT) based on the frequency component estimation results of the enlarged image obtained in 101 Then, return to the original image in the real space.
  • the enlarged image output means 1 2 14 displays the enlarged estimated image obtained in 13 on a CRT, etc. Output to a printer or other output device, or output as data handled by another image processing device.
  • the characteristics of the frequency components of the original image can be approximated with high accuracy, and the high-frequency components deleted by sampling the original image can be accurately estimated. It is possible to easily estimate without any need.
  • FIG. 16 shows the configuration of an image processing apparatus according to the embodiment 12, and the operation of this image processing apparatus will be described below.
  • the original image obtained by the image input means 10 is converted by the original image orthogonal transformation means 11 into a frequency component F (u, V).
  • the edge generation means 600 performs edge extraction by the Laplacian filter shown in FIG.
  • the Laplacian filter used here may be either the filter shown in Fig. 18 (a) or (b), or another file may be used. By changing this filter, the accuracy of edge extraction can be improved according to the characteristics of the original image to be handled.
  • the Laplacian filter in Fig. 18 (a) multiplies the density value of the central pixel by 8 Subtract the density values of the eight pixels. In other words, the difference between the density value of the central pixel and the density value of the surrounding pixel is added to the density value of the central pixel, and as a result, the difference between the density value of the center pixel and the surroundings such as edges is obtained. Pixels where the density difference greatly changes are emphasized.
  • the enlarged wedge approximation means 1 6 0 1 of the enlarged wedge estimating means 1 20 B uses the edge image obtained by the edge generating means 1 600 as shown in FIG.
  • (c)) is linearly expanded in accordance with the desired magnification s, and it is necessary to embed interpolated pixels between existing pixels in accordance with the expansion.
  • this is achieved by filling the intermediate point of the edge image data of the existing pixel at the midpoint of the enlarged existing pixel.
  • an existing edge image is enlarged and pixel positions P (x-0, y-0) and Q (x — 0 + dx, y— 0), and if it is necessary to interpolate in the direction according to the number of enlarged pixels during that time, (a) in [Equation 13] is obtained.
  • the data at pixel position P is D (x — 0, y — 0)
  • the data at pixel position Q is D (x — 0 + dx, y—0 + dy)
  • the position to fill the interpolation data Let H be H (x _h, y _h) and the interpolation data to be filled be DH (x—h, y—h).
  • DH (x_h, y_h) (D (x_0, y_0) + D (x_0 + dx, y_0)) / 2
  • DI (xJ, y_i) (D (x_0, y_0)) + D (x_0, y_0 + dy)) / 2
  • the interpolation accuracy can be further improved by further embedding in the y direction using two interpolated pixels adjacent to each other in the y direction (obtained by the above-described interpolation processing in the X direction).
  • the enlarged edge estimating means 120 0 B's edge frequency generating means 1602 transforms the estimated image (Fig. 17 (d)) of the enlarged edge obtained by the enlarging-edge approximating means 1601 into an orthogonal transform. To obtain the frequency component (Fig. 17 (e)).
  • This is mainly due to the fact that such edge images contain a lot of high-frequency components representing the sharpness, detail characteristics, and edges of the image. In other words, the edge-extracted image lacks information of other parts, so high-frequency components appear, but lower-frequency components have weaker levels. Due to the idea that it will only appear in the Therefore, the original original image (Fig. 17)
  • FIG. 19 shows the configuration of the image processing apparatus according to the embodiment 13, and the operation of this image processing apparatus will be described below.
  • the DCT transform is used to derive frequency component data (Fig. 20 (b)) from the original image (Fig. 20 (a)) obtained by the image input means 10, and a Labrasian filter as shown in Fig. 18 is used. Then, an edge image (FIG. 20 (c)) of the original image is generated by the edge generating means 600.
  • the edge image orthogonal transformation means 1900 of the enlarged edge estimation means 120B performs DCT on the edge image to obtain frequency component data (FIG. 20 (d)) of the edge image.
  • RBFN radial basis function network
  • Edge estimation means 1201 The edge frequency estimation means 19001 of B estimates. Then, the low-frequency region of the estimated frequency component data is converted to the frequency obtained from the original image. By replacing the components (Fig. 20 (f)), the frequency component data of the enlarged image to be obtained is obtained.
  • the expanded edge information including a large amount of high-frequency component data of the enlarged image is estimated.
  • the frequency component data of the enlarged edge image is estimated from a simple linear interpolation image of the edge image of the original image, but the interpolation of this embodiment corresponds to nonlinear approximation. Therefore, it seems that the estimation accuracy is better than the linear interpolation method between two samples.
  • the input of the RBFN of the nonlinear estimation means 1221 used in the above-described embodiment 11 does not use the frequency component data of the original image but the frequency of the edge image obtained from the original image. Since the only difference is that the component data is used, the description is omitted.
  • a non-linear estimation method using learning data a method according to the fuzzy rule, a chaotic deterministic prediction method, and the like can be used as the non-linear estimation method. It should be noted that in these cases, it is necessary to prepare a large-scale learning program in advance.
  • the edge frequency estimating means 19001 includes a DCT component of the image sampled from the high frequency side (FIG. 21 (a), n ⁇ 3, The intermediate value between the points n — 2 and n — 1) is found, and the DCT component position is assigned again from the top of the high-frequency component (Fig. 21 (b), n-1 + t-3, n-1) + t-1) The frequency component of the enlarged edge can also be estimated. By doing so, it is also possible to compensate for high-frequency components that give sharpness to the enlarged image.
  • the difference between the interpolation method shown in FIG. 21 and the interpolation method of the embodiment 12 is as follows. It seems that there is not much difference in method. However, when an arbitrary enlarged edge image is created, in Example 12 above, the edge characteristics and the like may change depending on where the interpolation pixels are preferentially inserted between the pixels of the original edge image. Yes, it is necessary to devise the order of interpolation. However, when interpolating with frequency components as shown in FIG. 21, it is sufficient to estimate the frequency components of the enlarged image by embedding the interpolation value of the DCT component preferentially from the high frequency components from the viewpoint of supplementing the high frequency components.
  • FIG. 23 shows the configuration of the image processing apparatus according to the embodiment 14.
  • Figure 22 (a) schematically illustrates the problem.
  • the case where the one-dimensional DCT transform is applied to the density value D (x, y_ 0) (shown by the solid line) of the pixel in the x direction when y y-0 in block Ai take up.
  • the present embodiment is a process for solving this problem.
  • L corresponds to the number of blocks.
  • the DCT for block AO is performed for the interval [0, n + u] (at this time, the interval [0, n + + u] is assumed to be repeated (Fig. 22 (b) dotted line).
  • DCT for block A1 is performed for interval [n, 2nlu-l].
  • the 302 expands the frequency component data of the block Ai to the frequency component data of ((n + u) Xs) ((n + u) Xs). Since the enlargement processing of the first, second, and third embodiments is only performed on a block basis, a description of the enlargement processing is omitted.
  • the intra-block frequency extracting means 2303 extracts the required mxm size data from the low frequency side without using all the frequency component data of the obtained block B The processing for i is performed. Then, the block inverse orthogonal transform means 2304 performs inverse orthogonal transform on C i, and the enlarged image reconstructing means 2305 places the image data generated from the block Ci at the corresponding position. Thus, an enlarged image is finally obtained.
  • FIG. 25 shows the configuration of the image processing apparatus according to the embodiment 15 of the present invention.
  • the in-block data conversion means 2500 is divided by the block dividing means 230
  • the configuration is the same as that of the image processing apparatus according to Embodiment 14 except that the intra-block frequency extracting means 2303 is removed.
  • the block dividing means 2303 divides the block into large blocks so as to have an overlap, extracts frequency component data of a required size from the obtained enlarged block, and enlarges the data again. Replaced with the block frequency data.
  • the present embodiment as shown in FIG.
  • the operation of the image processing apparatus according to Embodiment 15 will be described.
  • Fig. 27 (a) shows the transition of density value D (x, y) in block Ai.
  • a linear expression such as [Equation 15] (Fig. 27 (b)).
  • FIG. 28 shows the configuration of the image processing apparatus according to the embodiment 16.
  • the present embodiment is an invention relating to the efficiency improvement.
  • the reference component selection means 280 00 selects a reference color component.
  • the structure of a color original image is composed of two color components, red, green, and blue. Considering that green data is greatly reflected in luminance information, the reference component is Darin. It is preferred to select the components.
  • the conversion ratio deriving means 28001 determines the simple ratio of the red component to the Darin component, ratio — r, and the simple ratio of the blue component to the green component, rat io — b. There are various methods for obtaining the simple ratio, but here, as shown in [Equation 16], the average value of the ratio of the density of red to green in the target region and the average Bu The average value of the ratio of density to green of roux shall be used (
  • r-ij, g_ij, and b-ij are the densities of the red, green, and blue components at the pixel position (i, j) in the original image, respectively.
  • a matrix R-r composed of the ratio of the red component to the green component in each pixel and the blue
  • R —b composed of simple ratios of the components. In this case, it is possible to reproduce the features of the original color original image rather than using a single ratio coefficient, and it is possible to enlarge the color image with higher accuracy.
  • the enlargement processing is performed by the reference image orthogonal transformation means 280 02 and the reference enlargement frequency estimation means 22 in the same manner as in the image processing apparatus of the above-described Embodiments 11 to 15. 0 3, Reference inverse orthogonal transformation means 2 804 Then, the missing component expansion means 2 205 applies the simple ratios ra tio —r and rat io —b to the expanded green data of the reference inverse orthogonal transformation means 280 4 to obtain the remaining red. Create enlarged data for the blue component.
  • an enlarged image of the color original image can be obtained, and the enlarged image output means 1 2 14 displays it on a CRT or the like, or outputs it to a printer or other output device.
  • the data is passed to a device and processed by another image processing device and output processing is performed.
  • Embodiments 17 to 21 describe an image processing apparatus that enlarges an image using wavelet transform.
  • FIG. 29 illustrates the configuration of the image processing apparatus according to the seventeenth embodiment.
  • the image input means 10 is the same as in the first embodiment, the eleventh embodiment, and the like.
  • the input image adjustment means 12 converts the number of horizontal and vertical pixels of the original image having n pixels X n pixels obtained by the image input means 10 into a desired enlarged image size Ln pixel X Ln pixel 1Z2. Interpolation or thinning (to be collectively referred to as “adjustment”) so that The image enlargement unit 29 OA performs image enlargement using multiple resolution analysis in wavelet transform described later.
  • the enlarged image adjusting means 2 9 13 is a desired enlarged image size obtained by the image enlarging means 29 OA and having an enlarged image having four times the number of pixels of the original image adjusted by the input image adjusting means 12. Adjust to Ln pixel X Ln pixel.
  • the enlarged image output means 1 2 14 displays the enlarged image data estimated by the enlarged image adjustment means 2 9 13 and outputs the data to another device or the like.
  • the image enlarging unit 29 OA includes a vertical edge generating unit 2900 that extracts an edge component image in the vertical direction from the original image adjusted to Ln / 2 pixels X Ln / 2 pixels by the input image adjusting unit 12.
  • a horizontal edge generation unit 2901 for extracting a horizontal edge component image and a diagonal edge generation unit 2902 for extracting a diagonal edge component image are provided. Further, the image enlargement unit 29 OA converts the three edge component images and the original image adjusted to Ln / 2 pixels X Ln / 2 pixels by the input image adjustment unit 12 into Ln pixels X Ln pixels. Level-up means 2903 that generates an enlarged image of Ln pixels X Ln pixels by inverse wavelet transformation, assuming that there are four sub-band components that make up the transformed image when the transformed image is subjected to wavelet transform. Is provided.
  • wavelet transform multi-resolution analysis using wavelet transform is used for image enlargement.
  • Wavelet The conversion is described in many documents such as the “Wavelet beginnerer's Guide” (Susumu Sakakibara, Tokyo Denki University Press), and has been developed as a method of frequency analysis. It is used in many fields, including compression.
  • a wavelet transform When a wavelet transform is applied to an original image to obtain a transformed image, it is composed of several sub-band (partial frequency band) components.
  • Fig. 31 is a diagram showing an example of the arrangement of subband components of a wavelet transform image.
  • the original image is composed of 10 This shows an example of division into subband components.
  • Fig. 30 is a diagram expressing the wavelet transform as shown in Fig. 31 in the form of a filter series, and it is independent of the low-pass filter processing in the vertical direction (y direction) and the horizontal direction (X direction).
  • Downsampling (decimation) processing Low and high-pass fill processing and 1Z2 downsampling processing High consist of a combination of I, ⁇ , and ⁇ stages.
  • High and Low are applied to the original image in the horizontal direction.
  • the result of performing High processing in the vertical direction with respect to the output when the processing of High in the horizontal direction is the HH1 component
  • the result of performing the Low filter processing in the vertical direction is the HL1 component.
  • the result of the low-filter processing in the vertical direction with respect to the output of the low-fill processing in the horizontal direction is LL1
  • the result of the high-fill processing in the vertical direction is the LH1 component. It becomes. This is the result obtained by the first wavelet transform.
  • the result of applying the Low filter processing and the High filter processing in the horizontal direction to the LL 1 component, and applying the High filter processing in the vertical direction to the output when the High processing is performed in the horizontal direction Is HH2, and the result of vertical low filtering is HL2.
  • the result of the Low filter processing in the vertical direction with respect to the output when the low filter processing in the horizontal direction is performed is LL2, and the result of performing the High filter processing in the vertical direction is the LH2 component. Become. This is the result of the second wavelet transform The result.
  • the low-filling process and the high-grain filtering process in the horizontal direction are performed separately for the LL2 component, and the low-filling process and the high-grain filtering process are also performed separately in the vertical direction, thereby achieving HH3 , HL3, LH3, and LL3 are obtained, and the third wavelet transform is performed.
  • the original image is decomposed into four frequency components of LL1, HL1, LH1, and HH1 by the first-stage wavelet transform, and downsampling of 1/2 is performed in both the horizontal and vertical directions.
  • the size of the image representing each component is 1/4 of the original image.
  • LL1 is a low-frequency component extracted from the original image, which is a blurred image of the original image. Most of the information of the original image is included here. Therefore, in the next wavelet transform of the second stage, LL1 is targeted.
  • the HL 1 component represents the image in which the high frequency components in the horizontal direction are strongly extracted in the original image by the filtering process in Fig. 30, and LH1 represents the image in which the high frequency components in the vertical direction are strongly extracted in the original image.
  • HH1 is an image in which high-frequency components are extracted in both the horizontal and vertical directions. In other words, it can be considered as an image in which high-frequency components are extracted in oblique directions.
  • the HL1 component strongly reflects the area where the density value fluctuates greatly in the horizontal direction (edge information pointing in the vertical direction) in the original image.
  • LH1 strongly reflects the area where the density value fluctuates greatly in the vertical direction (edge information pointing in the horizontal direction) in the original image
  • HH1 shows the fluctuation of the density value in both the horizontal and vertical directions. It can be considered that this largely reflects a large area (edge information pointing in an oblique direction).
  • the wavelet transform described above can be said for the components of LL2, HL2, LH2, and HH2 obtained in the second-stage wavelet transform for LL1, and similarly for LL2.
  • About the components of the wavelet transform Holds true.
  • the wavelet transform converts the LL image from which the low-frequency component was extracted from the sub-band component image of the previous stage into four 1/4 resolutions corresponding to the low-frequency component, vertical, horizontal, and oblique frequency components. It can be regarded as decomposing into images.
  • LL2 is restored by combining the four subband component images LL3, HL3, LH3, and HH3, and LL1 is restored by combining LL2, HL2, LH2, and HH2.
  • the original image can be restored using LL1, HLK, LHK, and HH1.
  • the wavelet transform can simultaneously represent multiple subband component images with different resolutions, and is also called multi-resolution analysis.It is noted that by compressing each subband component, efficient data compression can be performed. ing.
  • the original image is regarded as the low-frequency sub-band component LL1 in the previous stage.
  • the image HLl which strongly extracts the remaining high-frequency components in the horizontal direction
  • the image LH1 which strongly extracts the high-frequency components in the vertical direction
  • the image HH1 which extracts the high-frequency components in both the horizontal and vertical directions.
  • This processing is applied to enlarge the original image to a desired image size.
  • the image input unit 10 reads an original image having a size of n pixels X n pixels to be enlarged.
  • the original image obtained by the image input means 10 is subjected to image size adjustment by the input image adjustment means 12. This is because, as described in the multi-resolution analysis of the wavelet transform, when the image to be transformed is once subjected to the wavelet transform, the subband components after the transformation are always 1 Z 2 both in the number of horizontal pixels and the number of vertical pixels before the transformation. Size. Conversely, the pixel size obtained by the inverse wavelet transform is The number of horizontal and vertical pixels of the sub-band component when processing is doubled, that is, quadrupled.
  • the input image adjusting means 12 first adjusts the desired enlarged image size Ln pixel X Ln pixel (that is, the enlargement ratio is L) to be a multiple of 2 dLn pixel x dLn pixel.
  • the original image is adjusted to be dLn / 2 pixels X dLn / 2 pixels.
  • various methods can be used as the adjustment method.
  • the interpolation is performed by using [Equation 1] between pixels, and that pixels are realized by thinning out pixels in an area where pixel variation is small. .
  • the original image is transformed into the frequency domain by orthogonal transformation such as DCT transformation, and the frequency components corresponding to dLn / 2 pixels X dLn / 2 pixels are extracted, or the missing high-frequency components are filled with "0".
  • orthogonal transformation such as DCT transformation
  • the frequency components corresponding to dLn / 2 pixels X dLn / 2 pixels are extracted, or the missing high-frequency components are filled with "0".
  • the complex processing does not seem to be very efficient. It was decided to adopt it.
  • a desired Ln pixel X Ln is obtained by enlarging the original image adjusted to dLn / 2 pixels X dLn / 2 pixels by the input image adjustment unit 12 twice in both the horizontal and vertical directions. Enlarge to an image size close to the pixel.
  • the multi-resolution analysis in the above-described wavelet transform is used.
  • jagged noise was generated at the joint of blocks by dividing into multiple blocks along with processing time. .
  • the wavelet transform has the merit that such noise does not occur because a large image can be handled at once.
  • the image enlarging means 29 OA when the image is regarded as an image adjusted to dLn / 2 pixels X dLn / 2 pixels as the subband component LL1 in FIG. It is necessary to estimate an image of dLn / 2 pixels X dLn / 2 pixels corresponding to the image components HL1, LH1, and HH1.
  • FIG. 32 schematically shows this state.
  • a method is adopted in which three images of the sub-band components HLKLH1 and HH1 are regarded as edge images in three directions of the LU.
  • the HL1 component is the horizontal direction in the enlarged image (LL0) with 4 times the number of pixels of the original image (Fig. 32 (a)) adjusted to dLn / 2 pixels X dLn / 2 pixels.
  • the sub-band component LH1 represents an image in which the high-frequency component in the vertical direction is strongly extracted in the sub-band component LL0.
  • the subband component HH1 is an image in which high-frequency components are extracted in both the horizontal and vertical directions.
  • the subband component HL1 is considered to reflect a portion representing the high frequency component in the horizontal direction in the image of the subband component LL0, that is, the edge information in the vertical direction (Fig. 32 (b)).
  • the subband component LH1 is considered to reflect a portion representing a high frequency component in the vertical direction in the image of the subband component LL0, that is, the edge information in the horizontal direction (FIG. 32 (c)).
  • the subband component HH1 is a portion representing a high frequency component in both the vertical and horizontal directions in the image of the subband component LL0, that is, edge information in an oblique direction (FIG. 32).
  • the edge generating means 290 B having the configuration as shown in FIG. 29 is provided, and the vertical edge generating means 290 0 dLn / 2 pixels adjusted by the input image adjusting means 12
  • the edge component in the vertical direction of the original image adjusted to X dLn / 2 pixels is extracted and regarded as the missing HL 1 component.
  • the horizontal edge generation means 2901 extracts horizontal edge components of the original image adjusted to dLn / 2 pixels x dLn / 2 pixels adjusted by the input image adjustment means 12 and lacks in t
  • oblique edge generation means 2 9 0 2 regarded as to have LH 1 component, Ejji in the oblique direction of the adjusted original image DLN / 2 pixel X DLN / 2 pixels which are adjusted by the input image adjustment unit 1 2 Extract ingredients And consider it as a missing HH1 component.
  • edge detection means for detecting the three directions as shown in Fig. 33 are used for each of the edge generation means 2900, 2900, and 2902, respectively.
  • the example shown in Fig. 33 (a) detects a horizontal edge using a filter with a large weight in the horizontal direction
  • the example shown in Fig. 33 (b) has a weight in the vertical direction.
  • the edges in the vertical and horizontal directions are detected using a filter that increases in size.
  • edges in the diagonal direction are detected using a filter that increases the weight in the diagonal direction. Note that this filter is not uniquely determined, and other filters are also possible.
  • the level-up means 2903 obtains a clear enlarged image having a size of dLn pixels X dLn pixels by performing inverse wavelet transform on the four subband components estimated as described above.
  • the wavelet transform can be represented by filter series processing as shown in FIG. 30, the processing here may be a filter series processing for performing the reverse.
  • the enlarged image obtained by the above-mentioned image enlarging means 29 O A has an image size of a desired size.
  • the enlarged image adjustment means 2913 performs pixel interpolation or thinning so as to compensate for the subtle deviation. Since the processing performed here is at most one pixel, its effect is small if it is processed in a part where the change is small in the image (the gradation change is small and it is not near the edge).
  • the enlarged image obtained through the enlarged image adjusting means 2913 is displayed on the CRT by the enlarged image output means 14 or passed to another device.
  • FIG. 34 is a block diagram showing the configuration of the image enlarging means 290 A in the image processing apparatus according to the embodiment 18 of the present invention. The operation of this image processing apparatus will be described below.
  • the original image obtained by the image input means 10 is converted into a desired enlarged pixel size Ln pixel X Ln pixel by the input image adjustment means 12 as a multiple of 2 for both horizontal and vertical pixels. Is adjusted to dLn pixels X dLn pixels, and the original image is adjusted to dLn / 2 pixels X dLn / 2 pixels that are 1 ⁇ 2 in both vertical and horizontal directions.
  • the level of the original image adjusted to dLn / 2 pixels X dLn / 2 pixels in response to the result of the input image adjustment means 12 is further lowered by one level by the level down means 7101.
  • fine adjustment is made to ddLn pixel X ddLn pixel by adjusting 1 pixel so that dLn / 2 pixel x dLn / 2 pixel is a multiple of 2.
  • the level down means 700 performs wavelet transform on the original image of ddLn pixels X ddLn pixels obtained by the input fine adjustment means 700, and four subbands having an image size of 1/4 Generates components LL2, HL2, LH2, HH2.
  • FIG. 35 schematically shows an outline of the processing in the image enlarging means 290A.
  • an image obtained by enlarging the vertical edge image, the horizontal edge image, and the oblique edge image of the current target image LL1 to four times the current target image is insufficient in the LL0 wavelet conversion image.
  • the subband components HL1, LH1, and HH1 were considered, this is not strictly true in the filter processing shown in FIG.
  • the subband component HL1 is obtained from the subband component LL0 by the fill process, the high frequency component data in the horizontal direction and the vertical The low frequency component data in the direction is extracted as the HL 1 component.
  • the HL1 component a pixel portion having a large value variation in the horizontal direction (an edge portion extending in the vertical direction, etc.) and a pixel portion having a small value variation in the vertical direction are extracted. It is considered that the pixel portion having a large value fluctuation in the horizontal direction, that is, the edge portion extending in the vertical direction has a large effect, and only the edge information in the vertical direction is regarded as the HL 1 component. However, depending on the image to be handled, the effect of the pixel portion with small value fluctuation in the vertical direction may not be ignored.
  • the edge information in the vertical direction includes many pixel portions having large fluctuations in the horizontal direction, but does not exactly match. This is true for the other subband components LH1 and HH1.
  • the current target image is subjected to wavelet transform once to lower the level by one, thereby creating sub-band components LL2, HL2, LH2, and HH2, and producing low-frequency components in the sub-band components.
  • Estimate the corresponding subband components from the three edge images of the original target image from the correlation between the edge images HLe, LHe, HHe in the three directions of the band component LL2 and the actual three subband components HL2, LH2, HH2 The amount of correction dH and dLH and dHH was determined.
  • reference component estimating means 70 A, correction estimating means 70 B, and component estimating means 70 C having the configuration shown in FIG. 34 are provided.
  • the reference HL component generation means 720 pays attention to the LL2 component in the low frequency range of the sub-band components LL2, HL2, LH2, and HH2, which further represents the original image, and obtains FIG.
  • the edge information in the vertical direction is detected by a filter such as). This is referred to as a reference H L component HLe.
  • the HL correction estimating means 705 the correlation between the reference HL component HLe and the HL2 obtained by the level down means 701 is examined.
  • the horizontal Ledge component LHe is used as the reference LH component
  • the horizontal edge information of the LL2 component is selected as the reference HH component HHe
  • the diagonal edge information of the LL2 component is selected as the reference HH component HHe.
  • the HL component estimating means 708, the LH component estimating means 709, and the HH component estimating means 710 add the correction components dHL, dLH, dHH corresponding to the HL1, LHK HH1 in the same manner as in Embodiment 17 above.
  • the HL1 and LHK HH1 components when the original image adjusted to ddLn pixels X d dLn pixels by the input fine adjustment means 700 is regarded as the subband component LL1 are estimated.
  • the pixel size of each corrected image is ddLn pixels X ddLn pixels.
  • the adjustment was performed by interpolating between the pixels according to [Equation 1]. However, this is not unique and other methods such as the conventional method of expanding the pixel size to twice in the horizontal and vertical directions by filling the missing component with 0 in the frequency-converted area can also be applied.
  • the HL component estimating means 708, the LH component estimating means 709, and the HH component estimating means 710 employ a method by linear interpolation as shown in [Equation 1].
  • the processing after the level-up means 2903 is the same as that in the embodiment 17 described above. Note that the estimation processing performed by the HL component estimating means 708, LH component estimating means 709, and HH component estimating means 710 is not limited to the addition of the difference component between the reference component and the actual component as described above.
  • HL correction estimating means 705, LH correction estimating means 706, HH correction estimating means 707 are added to the component values of the vertical edge generator 2900, the horizontal edge generator 2901, and the oblique edge generator 2902
  • Input the result of diagonal edge generating means 2902 and input HL Use a trained neural network model to output estimates of LH, HH
  • FIG. 36 is a block diagram showing a configuration of the image enlarging means 290A in the image processing apparatus according to the embodiment 19 of the present invention. The operation of this image processing apparatus will be described below.
  • the processing in the image input means 10 and the input image adjustment means 12 is the same as in the above-described Embodiment 17, and the processing in the input fine adjustment means 700 is also the same as in the above-described Embodiment 18.
  • the HL component estimating means 708, the LH component estimating means 709, and the HH component estimating means 710 in the subband component image obtained by the level down means 70 1 are obtained from LL2 in the low frequency range.
  • the reference component for obtaining each correction amount used for the estimation in is obtained.
  • the average edge image of LL2 is regarded as a reference component image.
  • the Laplacian filter is often used as a method for detecting edges that are not tied to directionality, instead of detecting edges in a specific direction as shown in Fig. 33.
  • the correction amount as in Embodiment 18 is obtained. By doing so, the frequent edge detection processing which has been a problem in Embodiment 18 can be reduced, and the processing efficiency can be improved.
  • the edge image obtained by the reference component generating means 360 1 and the edge image obtained by the 701 are obtained in the same manner as in Example 18.
  • the respective difference images dHL2, dLH2, and dHH2 from HL2, LH2, and HH2 are obtained (see Fig. 35 (c)). Adjust to
  • the edge generating means 3600 detects an edge image based on Laplacian filter from the original image of ddLn pixels X ddLn pixels adjusted by the input image adjusting means 12 and HL component estimating means 708, LH component estimating means 709, and HH component.
  • the sub-band components HL1 and LHK HH1 are accurately estimated by adding the corrected images in the HL correction estimating means 705, the LH correction estimating means 706, and the HH correction estimating means 707.
  • the HL correction It is also possible to use the result of multiplication of the correction coefficient matrix in the correction amount of the estimating means 705, LH correction estimating means 706, and HH correction estimating means 707, or the result converted by the conversion function. is there.
  • FIG. 37 shows the configuration of the image processing apparatus of the embodiment 20.
  • the gist of the present embodiment is that the number of pixels to be enlarged is not known in advance, and an enlarged image is generated based on the original image while doubling both in the horizontal and vertical directions according to the multi-resolution analysis by the ⁇ avelet transform.
  • the purpose is to have the user determine whether an appropriate enlarged image has been obtained by presenting it to the user.
  • the original image of n pixels X n pixels input by the image input means 10 is first set as an enlargement target image by the enlargement processing initializing means 3700.
  • the target image enlarging means 3701 enlarges the original image of n pixels X n pixels to an image size of twice, that is, four times in both the horizontal and vertical directions.
  • this enlargement processing by applying the image enlargement means described in the image processing apparatuses of the embodiments 17, 18 and 19, it is possible to always enlarge the image to a size having four times as many pixels as the target image.
  • the enlarged image presenting means 13302 presents the current enlarged image obtained by the target image enlarging means 3710 to the user through CRT or the like. If the resolution exceeds that of a CRT, etc., it is possible to determine the appropriateness of the current enlarged image by providing a function that allows the user to move the viewpoint using a cursor or the like and a function that cuts out a specific part. To help.
  • the multiprocessing end determination means 3703 receives an instruction result from the user, and If it is turned off, the process proceeds to the next image fine adjustment means 3704, and if an instruction indicating that it is not appropriate is received, this enlarged image is set as the next target image and the target image enlargement means 3 is set. The processing returns to 70 1.
  • the image fine-tuning means 3704 checks the user to see if fine-tuning is necessary ; this is because the multi-resolution analysis using wavelet transform is used for image enlargement, so it is always four times larger than before the enlargement. It can only be created at the image size. Therefore, when viewed by the user, the previous image may still be small, but this may not be able to be drawn on the CRT at once, and may appear too large. Therefore, the image fine adjustment means 3704 confirms again to the user whether to adjust the image to some extent, and performs pixel interpolation when the image is slightly enlarged. On the other hand, if the image is to be made a little smaller, the image size is adjusted again by thinning out the pixels.
  • the enlarged image output means 1 2 1 4 can display the enlarged image obtained by the image fine adjustment means 3704 on a CRT or the like, output it with a printer, or use other methods. Output processing such as passing data to other devices.
  • the obtained fine enlarged image is presented to the user to determine whether the size / resolution is appropriate. Since it is only necessary to instruct the user to cancel the enlargement, it is not necessary to determine the enlargement ratio of the enlarged image in advance, and the image can be easily enlarged to a size desired by the user.
  • Embodiment 21 of the present invention relates to an improvement in efficiency in estimating an enlarged image of a color original image.
  • FIG. 38 is a block diagram illustrating a configuration of the image processing apparatus according to the present embodiment. The operation of the image processing apparatus will be described below.
  • a green component is selected as a basic color component by the basic component selection means 280 0, and the conversion ratio deriving means 280 01 is selected by the green component.
  • the process for obtaining the simple ratios ra ti 0—r and rat io—b of the red component and the blue component to the components is the same as in the above-described embodiment 16, and therefore the description is omitted.
  • the green component which is the basic color component
  • enlargement processing is performed on the basic component image adjusting means 3802 and the basic This is performed by the image enlargement unit 3803.
  • the obtained enlarged image of the basic color component is adjusted by pixel interpolation or thinning out by the basic enlarged image adjusting means 1504 so that the desired image size becomes Ln pixels X Ln pixels.
  • the missing component enlarging means 380 5 the enlarged green component is multiplied by the simple ratios ra ti 0 — r and ra tio — b to create enlarged data for the remaining red and blue components. I do.
  • the three enlarged components are combined into one by the enlarged color image reconstruction means 380, so that an enlarged image of the original color image can be obtained.
  • the data is displayed on the printer, passed to an output device such as a printer, and processed for output by another image processing device.

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Editing Of Facsimile Originals (AREA)

Description

明細書 画像処理装置、 画像処理方法及び記録媒体 技術分野
本発明は、 スキャナや電子スチルカメラ等で入力された画像データゃィン夕 —ネット等の通信手段を介して伝送される画像データの記憶サイズを低減する とともに、 そのデ一夕を鮮明に出力するための画像処理装置及び画像処理方法 に関するものである。 背景技術
近年、 技術の革新に伴い、 銀塩フィルムに代わって磁気媒体やメモリ等の記 憶媒体に画像を記憶する電子撮像装置が実用に供されるようになった。 特に、 CCD (Charge Coupled Devices) 撮像素子を利用して光の濃淡や色彩を読み取り 半導体メモリ等に記憶する電子スチルカメラではその手軽さや低価格が引き金 となって一般家庭における普及が進んでいる。 また CCD 素子の解像度も 1 0 0 万画素から 2 0 0万画素へと高解像化が進みつつある状況である。 この場合、 CCD における実効画素数によるが、 大体 1 2 8 0画素 X 9 8 0画素程度の解像 度能力は持っており、 CCD撮像素子により読み取られた画像データ容量は非常 に大きなものとなるため、 画像データの圧縮処理は必要であり、 この圧縮処理 としては、 通常、 カラー静止画像符号化標準方式 (J P EG ; Joint Photogra phic Coding Experts Group ) が採用されている。 この J P EGによる圧縮を 行う従来の画像処理装置は図 3 9のようなブロック図で表すことができる。
CCD 撮像素子等で構成される画像入力手段 1 0で原画像が読み取られる。 こ の原画像に対して J P EGによる非可逆圧縮が圧縮手段 3 9 0 0で実行される < すなわち、 まず DCT (Discrete Cosine Transform ) 変換手段 3 9 0 6で画 像に離散コサイン変換を行い周波数領域の信号に変換され、 得られた変換係数 は量子化手段 3 9 0 7で量子化テーブル 3 9 0 1を用いて量子化される。 この 量子化された結果は、 エントロピ一符号化手段 3 9 0 8においてエントロピ一 符号化テーブル 3 9 0 2をもとに符号列に変換され、 この符号列が記憶媒体 1 5に記憶される。 この処理は原画像全ての圧縮処理が終わるまで行われる。 な お、 J P E G圧縮には歪みなく復元することのできる可逆圧縮方式も提案され ている。 しかし圧縮の割合を示す圧縮率が小さいという理由から、 通常は図 3 9のような量子化処理による影響と D C Tによる丸め誤差の影響で、 圧縮され た画像が伸張しても元の原画像には正確に戻らない非可逆圧縮が用いられる。 この非可逆性に関しては上記 2つの要因の内、 特に量子化処理の影響が大きい < ところで、 電子スチルカメラ等の画像処理装置では、 撮影した画像をその場 でレビューしたりデ一夕編集するための検索等のために、 液晶ディスプレイ等 の表示装置を備えていることが一般的である。 その際、 レビュー用の表示装置 の解像度に比べて、 前述のように CCD の解像度は高く、 記憶媒体 1 5に記憶さ れた圧縮画像データをこれらの表示装置に表示する場合には、 この圧縮画像デ —タを伸張した後、 解像度変換のために画素の間引き処理が行われる。
まず、 図 3 9における伸張手段 3 9 0 3が記憶媒体 1 5に記憶された圧縮画 像データの伸張作業を行う。 この過程はエントロピー復号化手段 3 9 1 1で量 子化された変換係数に戻し、 逆量子化手段 3 9 1 0で D C T係数に戻される。 そして、 この D C T係数に I D C T ( Inverse Di scre t e Cos i ne Trans f orm ) 変換手段 3 9 0 9において逆離散コサイン変換が実行され、 元の画像データ空 間の値に伸張される。 この伸張された画像デ一夕は、 図示しないマウス等の入 力手段から入力されるユーザからの指示信号に応じて原画像出力手段 3 9 1 2 よりプリン夕ゃ CRT 等に出力される。
一方、 画素間引き手段 3 9 0 4では、 伸長手段 3 9 0 3で伸張された全画像 データから、 レビュー表示する縮小表示手段での解像度に応じて画素の間引き が行われ、 この間引き画像が縮小画像表示手段 3 9 0 5でレビュー表示される のである。
ところで 2 0 0万画素の CCD 素子を持つ電子スチルカメラを使って A4程度の 原稿を読むことを考えた場合、 その焦点距離等により一該には言えないが、 CC D撮像素子の画素数のみから見積もると、 上記電子スチルカメラは 1 0 0 (do t/i nch) 程度の解像度能力しかないことがわかる。 この解像度は、 銀塩フィ ルムより得られる画像に比して遙に粗く、 自然画像におけるエツジ情報や細部 の鮮明度の描写に関してはまだ不十分である。 このため、
電子スチルカメラで入力された画像を、 レーザープリンタ、 インクジェット プリン夕等の高解像度のプリン夕に出力する際や、 コンピュータに接続する高 解像度ディスプレイに表示しデータ編集を行うためには、 その低い解像度の画 像データを高解像度のデ一夕に変換してやる必要が生じる。 また、 近年インタ —ネット等の通信手段を介した画像データの配信が盛んになっているが、 通信 速度や一度に送信できるデータ量の制限の点から、 画像データを一度低解像度 化して配信されることが多い。 そのため、 配信された画像データを受信側で表 示すると細部が非常にぼやけた画像になりやすい。 そこで、 ユーザより、 イン ターネット等で配信された低解像度画像を精度よく高解像度化する要望が大き くなつている。 なお、 高解像度変換と画像の拡大は同意義であるため、 以下で は精度良い画像拡大を行う従来方法について説明する。
従来の画像の拡大方法として大きく分けると、
( 1 ) 単純に画素間を補間する方法
( 2 ) 特開平 2— 7 6 4 7 2あるいは特開平 5— 1 6 7 9 2 0に記載されるよ うに、 F F T (高速フーリエ変換) や D C T等の直交変換を用いて、 実空間の 画像データを、 周波数空間の画像データに変換した後に拡大する方法 の 2つを挙げることができる。
先ず、 画素間を補間する上記 (1 ) の方法を実現するシステムの従来例とし ては図 4 2に示すようなブロック図を挙げることができる。 画像入力手段 1 0 で得られた原画像に対して、 各画素間に次の 〔数式 1〕 に従い画素を線形補間 するのである。 〔数式 1〕 において、 Daは図 4 3の A点の画素デ一夕を、 Dbは B 点の画素データを、 Dcは C 点の画素データを、 Ddは D 点の画素データを表す。 Deが求める補間点 E の画素デ一夕である。
〔数式 1〕
De = (1- μ)χ(1-ν)χΌα + μ (1-ν)χΌΰ
Figure imgf000006_0001
この場合、 補間画像は平均化されたものとなりやすくエッジ等が不鮮明にな りやすいので、 元の原画像より抽出されたエッジ情報を使った補間画素位置や 補間データの調整処理が行われることがある。 図 42においては、 エッジ抽出 手段 46 0 0でエッジ情報が抽出された後、 エッジ補間手段 4 2 0 1で所望の 拡大率に合わせて拡大エッジを求める。 そして、 この拡大エッジ情報と画素間 補間手段 1 1 0 0による原画像の補間拡大画像の結果を掛け合わせることで、 所望の拡大画像を生成し推定拡大画像出力手段 5 0 1で出力するようになって いる。 この他にも、 最も近いサンプルの値を補間値とする二ァレストネイバ一 法 (nearest neighbor method ) 等の補間方法がある。
しかし、 上記の補間方法において、 線形補間法は通過帯域の周波数特性が抑 制されるために、 低域通過フィルタ (ローパスフィル夕; LPF ) をかけたよう な作用を受けてスム一ジングされ、 画像の鮮明さや細部の表現に不足したぼけ 画像となりやすいという欠点がある。 また、 二ァレストネイバ一法は高周波の 漏れが多いために歪みを起こしやすく、 その歪みがモザィクゃエッジ部のジャ ギ一として現れる欠点がある。
そこで、 上記問題を解決する方法として、 上記空間周波数を用いる (2) の 方法が提案されている。 これらの方法の意図するところは、 サンプリング時に 失われた高周波成分を復元し、 画像の細部情報やエッジ情報を推定し復元する ことで拡大画像の高画質化を図るものである。
図 40は上記空間周波数を用いる (2) の方法を実現するシステムの従来例 を示すブロック図であり、 図 4 1は処理工程を模式的に表した図である。 まず、 図 41 (a) に示すような実空間の原画像 (n Xn 画素) を図 40の原画像直 交変換手段 1 1により、 図 4 1 (b) に示すような周波数空間の画像 (n Xn 画素) に直交変換する。 この際、 この周波数空間の画像デ一夕は n Xn の行列 で表され、 この周波数変換後の行列は、 図面上左上部に行くほど低周波成分と なり、 また、 矢印に沿って右方向及び下方向に行くに従い、 高周波成分となる。 次に" 0" 成分埋め込み手段 4000において、 このように周波数空間の画像 に変換された領域を s 倍した領域 (図 4 1 (c) に示す snXsnの領域) が用意 され、 snXsnの領域における低周波成分の領域部分には、 上記直交変換により 得られた図 4 1 (b) で示される n Xn の周波数領域をコピーし、 残りの高周 波成分の領域部分には" 0" が補間される。 最後に逆直交変換手段 400 1に おいてこの snXsnの周波数領域を逆直交変換することにより、 図 4 1 (d) に 示すように s 倍された実空間の画像データが得られ、 図 40の推定拡大画像出 力手段 4002で推定された拡大圃像が出力されるのである。
このように高周波成分に" 0" を補間する方法以外に、 例えば特開平 6— 5 41 72のように画像データを直交変換を用いて正変換とその逆変換を繰り返 す過程 (Gerchberg- Papoulis反復による方法) で、 高周波成分の復元を行う方 法も提案されている。 また、 特開平 8— 29400 1のように、 原画像の直交 変換成分を低周波領域に埋め込み、 高周波領域は予め準備された予測ルールに 基づいて得られる周波数情報を埋める方法も提案されている。
しかし、 従来の電子スチルカメラ等の画像処理装置では、 1度圧縮され記憶 された画像データをもう 1度伸張してやる必要があり、 しかも圧縮方法として 量子化処理を伴う非可逆圧縮方法を用いるため、 一般に元の原画像には戻るこ とがなく、 ノィズゃ色ずれを多少生じることがあった。
また、 レビュー用に表示される縮小画像 (以下、 サムネイル画像と呼ぶ) 生 成に必要な解像度変換時における間引き処理により色ずれやモアレを生じてし まうという欠点があり、 そのためにメジアンフィル夕や平均値フィルタによる 平滑化処理が不可欠であった。 ところが上記メジアンフィルタや平均値フィル 夕を用いると、 サムネイル画像の鮮明さが失われたり、 これらの平滑化処理に 非常に時間がかかつてしまうというような別の問題点が指摘されていた。 さらに電子スチルカメラによる低解像度の画像をプリントしたりディスプレ ィに表示したりする際に必要とされる従来の画像拡大においては、 次のような 問題点があった。
先ず、 単純に画素間を補間する上記 (1 ) の方法の場合には、 このような低 解像度のデバイスで自然画像を取った場合、 その被写体の持つカラ一バランス によっては、 得られた原画像からの図 4 2に示すシステムにおけるエッジ抽出 が精度良く行われないことが多く、 その結果、 画素補間された位置やその補間 データの調整がうまくできないという問題があった。 これを避けるために、 で きた拡大画像にエツジ強調フィルタによる処理を複数繰り返すことが行われた が、 従来のエッジ強調フィル夕処理の場合、 適正なフィル夕を選ばないと、 そ の繰り返し回数は非常に大きくなつたり、 全くエツジ強調がされない等の欠点 があった。
一方、 高周波領域に" 0 " を埋め込めて拡大する上記 (2 ) の方法の場合に は、 線形補間法や二アレストネイバ一法のような画素間の補間方法に比べれば 良好な拡大画像を得ることができるものの、 サンプリング時に削除された高周 波成分の復元がされていないため、 やはり十分に鮮明な画像が得られないとい う問題があった。
また、 画像を直交変換を用いて正変換と逆変換を繰り返す過程で、 高周波成 分を復元する方法は、 正変換と逆変換を繰り返すために演算処理が多くなり、 処理速度において問題がある。 直交変換、 逆直交変換の演算量は、 拡大率 S が 大きくない場合にはあまり問題がないが、 拡大率 S が大きいと正変換の演算量 に対し逆変換の演算量が s x n にほぼ比例して増えることとなる。 特に、 実際 に行われる 2次元ブロックに対する処理においてはその演算量は s X n の 3乗 にほぼ比例して増える。 特に、 カラー画像の拡大ともなると、 複数カラー成分 に対して拡大処理が必要となり、 さらに処理時間がかかる。 また、 拡大処理の 対象となる画像が低解像度の場合には、 高周波成分の復元が十分には行われな いという問題点があった。
特開平 8— 2 9 4 0 0 1の場合は、 これらの問題点を考慮した方法であり、 処理時間や高周波成分の復元に工夫がなされている。 この方法は、 原画像の高 周波領域に予め準備された予測ルールに基づいて得られる周波数情報を埋める ものである。 従って、 予め大多数の画像をもとに高周波数成分とその他の領域 との間のルール作りを行うことが必要となり、 適切なルールベース作成に手間 がかかる上、 それが適切なルールとして作成できなければ十分な効果を発揮で きない心配がある。
さらに、 一般に画像のサイズは任意であり、 そして直交変換にかかるサイズ が大きくなればなるほど処理時間が長くなる。 このため、 一般には特定のサイ ズの画像全体に対して 1度に直交変換を掛けることはせず、 4画素から 1 6画 素程度のブロックサイズで直交変換が行われる。 その際、 出来上がった拡大画 像のブロック間の不連続性 (ブロック歪み) が境界部分に生じる問題点もあつ た。 発明の開示
本発明は以上のような事情に鑑みてなされたものであり、 画像デー夕の記憶 サイズの低減化ができ、 且つ、 鮮明で高品質な画像拡大が実現可能な、 画像処 理装置及び画像処理方法を提供することを目的とする。 上記の目的を達成するために、 本発明では以下の手段を採用している。 第 1に、 画像データの記憶サイズの低減化のため、 図 1に示すように、 画像 入力手段 1 0より得られる原画像に、 原画像直交変換手段 1 1で直交変換を施 して原画像周波数成分を生成し、 低成分抽出手段 1 0 0で、 該原画像周波数成 分より、 低周波成分を抽出する。 次いで、 高成分符号化手段 1 3で、 上記低周 波成分と、 上記原画像周波数成分の残りの高周波成分との関連情報を求め、 こ れを符号化するとともに、 符号合成手段 1 4で上記低周波成分と上記関連情報 とを合成して簡易画像データを生成するようになっている。
上記のように生成された簡易画像データは、 低成分復号手段 1 6によって低 周波成分を抽出するとともに、 高成分復号手段 1 7によって上記関連情報を取 り出し、 上記低周波成分に基づいて高周波成分を復号し、 原画像出力手段 1 8 によって、 上記低周波成分と高周波成分を結合して逆直交変換を施して原画像 を復元するようになっている。
これによつて、 原画像の画像データよりサイズの小さい簡易画像データを扱 うことができるとともに、 原画像に近い画質の復元画像を得ることができるこ とになる。
上記簡易画像データは直接、 パソコン等の画像を復元できる手段に入力して 処理をすることも可能であるが、 一旦記憶媒体 1 5に記憶させることも可能で ある。 また、 上記簡易画像データにおいて、 上記低周波成分のデータ量を図 3 に示すように低成分圧縮手段 3 0 0で更に圧縮することも可能である力 この 場合可逆性を持つた圧縮方法を用いるのが好ましい。
上記低周波成分として、 縮小画像生成手段 1 0 1で規定される縮小サイズ (例えばプレビューのサイズ) に応じた周波数を用い、 該低周波成分の画像デ 一夕に、 逆直交変換を行うことで縮小画像を生成することができる。
また、 本発明は、 特定の画像を所望のサイズに拡大する際に、 図 5に示すよ うに不足成分推定手段 5 0 0が、 不足する高周波成分を上記画像の周波数成分 を基に推定し、 拡大画像出力手段 5 0 1によって、 上記特定の画像の周波数成 分と、 上記不足成分推定手段により得られた上記高周波成分を結合し、 逆直交 変換を施すことで所望のサイズに拡大した画像を出力するようになっている。 更に、 本発明は図 7に示すように、 画像入力手段 1 0より入力される原画像 を加工する画像処理装置において、 原画像直交変換手段 1 1で、 上記画像デー 夕に直交変換を施して原画像周波数成分を生成するとともに、 該原画像周波数 成分より拡大周波数推定手段 8 0 0により、 原画像を所望の拡大率に応じて拡 大した際の周波数成分を推定する。 上記のようにして得られた原画像周波数成 分と推定拡大画像の周波数成分に基づいて、 基本成分抽出手段 8 0 0が予めサ ィズを指定された基本画像を復元するのに必要となる周波数成分を基本成分と して抽出し、 多重画像符号化手段 8 0 2で、 上記記基本成分と推定拡大画像の 周波数成分との関連情報を求め、 これを符号化する。 このようにして得られた 基本成分と上記関連情報とを多重符号合成手段 8 0 3で合成し、 多重簡易画像 データを生成するようにする。
これによつて、 画像データを符号化する側で複数のサイズに対応する多重簡 易画像データを生成することが可能となる。
このようにして生成された多重簡易画像デ—夕より、 基本成分と関連情報を 抽出し、 この両者に基づいて画像を復元できることになる。
上記多重簡易画像データにおいても、 上記基本成分のデータ量を圧縮するこ とによって、 更に、 データサイズを小さくすることができることになる。 第 2に、 鮮明で高品質な画像拡大を実現するために、 図 1 0に示すように、 画像入力手段 1 0より入力される画像データを画素間補間手段 1 1 0 0が所望 の拡大率に応じて画素間補間する。 これにより得られた補間拡大画像はェッジ 部分が不鮮明になるが、 該補間拡大画像に対して畳み込み手段 1 1 0 1がエツ ジ部分を強調する畳み込み計算を行うことで、 処理時間のかかる周波数変換を 経ずに鮮明なェッジを持つ拡大画像を生成する。 第 3に、 同じく、 鮮明で高品質な画像拡大を実現するために、 図 1 2に示す ように、 上記原画像直交変換手段 1 1で得られた原画像の周波数成分に基づい て、 拡大周波数推定手段 1 2 O Aが拡大画像の周波数成分を推定する。 そして 上記拡大周波数推定手段 1 2 O Aで生成された上記周波数成分に、 逆直交変換 手段 1 2 1 3がその拡大サイズに対応する逆直交変換を施して拡大画像データ を得る。
上記拡大周波数推定手段 1 2 O Aにおける上記周波数成分の推定は、 線形近 似若しくはラジアル基底関数ネットワークを用いて行われる。 また、 原画像か ら、 高周波成分を多く含むとされているエッジ画像を取り出し、 その線形変換 により得られた拡大エッジ画像から直交変換を使って、 拡大された画像の高周 波数成分を推定する方法も採られる。
更に、 取り出された上記エッジ画像の周波数成分に基づいて、 その拡大エツ ジ画像の持つ周波数成分を、 上記線形近似もしくはラジアル基底関数ネットヮ ークを使って精度良く推定する方法も採用される。
次に、 図 2 3に示すように、 上記の直交変換にかかる処理時間を考慮して、 プロック分割手段 2 3 0 0が入力画像データを複数のプロックに分割し、 拡大 ブロック周波数推定手段 2 3 0 2が各ブロック毎に拡大画像ブロックの周波数 成分の推定を行うようにする。 その際、 図 2 4に示すように、 隣り合うプロッ ク間に重なりを持たせ、 拡大後のプロック画像において重なりのある部分につ いては、 後で生成された拡大ブロックを採用することでブロック間の歪みを低 減する。
更に、 原画像に対して、 各ブロック毎に予め設定された変換関数による処理 を行い、 ブロック分割によるブロック境界での画像の不連続性を低減させる。 また、 原画像がカラー画像である場合には、 図 2 8に示すように、 入力され たカラー画像を構成するカラー成分の中から、 基準成分選択手段 2 8 0 0が基 準とするカラー成分を決定し、 その基準カラ一成分に対する拡大画像生成する ( そして、 残りのカラー成分に対しては、 基準カラー成分の拡大画像にカラー原 画像から変換比率導出手段 2 8 0 1が導出した変換比率を用いて、 不足成分拡 大手段 2 8 0 5が線形変換で推定することで、 カラー画像データの拡大画像デ 一夕生成における処理の効率化を図る。
第 4に、 同じく、 鮮明で高品質な画像拡大を実現するために、 ウェーブレツ ト変換における多重解像度解析を利用する。
このために、 図 2 9に示すように、 n 画素 x m 画素の原画像を拡大処理して
Ln画素 X Lm画素の拡大画像を得る場合に、 入力画像調整手段 1 2が上記原画像 データを Ln/2画素 X Lm/2画素に補間又は間引き (以下まとめて 「調整」 とい う) する。 そして、 上記入力画像調整手段により調整された画像に画像拡大手 段 2 9 O Aがウェーブレツト変換に基づく方法を適用して拡大画像を生成する ( 上記の拡大処理は、 具体的には、 求める拡大画像の画素数に応じて調整され た画像と、 その垂直方向のエッジ画像、 水平方向のエッジ画像、 及び斜め方向 のエッジ画像を、 ウェーブレット変換画像を構成する 4つのサブバンド画像と 見なす。 そして、 このサブバンド画像に対して逆ウェーブレット変換を行うこ とにより、 所望とする画素サイズの拡大画像を求めるものである。
また、 上記の拡大処理において、 原画像データをウェーブレット変換した変 換画像データの、 低周波域にある 1 Z 4サイズの縮小画像より得られる 3つの ェッジ画像と、 変換画像デー夕内の残りの 3つのサブバンド画像間の関連を求 める。 ここで、 その関連情報を使って、 求める拡大画像の画素数に応じて調整 された画像の垂直方向エッジ画像、 水平方向エッジ画像、 斜め方向エッジ画像 の各々を補正する。
そして、 調整された画像と補正された 3つのエツジ画像を上記変換画像デー 夕を構成する 4つのサブバンド画像と見なし、 このサブバンド画像に対して逆 ウェーブレット変換を行うことにより、 所望とする画素サイズの拡大画像を求 める。 更に、 上記の拡大処理において、 上記変換画像デ一夕の低周波域にある 1 Z 4サイズ縮小画像データより得られる 1つの平均的なエッジ画像デ一夕と、 変 換画像データ内の残りの 3つのサブバンド画像データ間の関連を求める。 ここ で、 この関連情報を使って、 求める拡大画像データの画素数に応じて調整され た画像から得られる 1つの平均的なエッジ画像を補正する。
そして、 調整された画像デー夕と補正により得られた 3つの画像データを上 記変換画像データを構成する 4つのサブバンド画像と見なし逆ウェーブレツト 変換を行うことにより、 所望とする画素サイズの拡大画像を求める。
また、 図 3 7に示すように、 拡大処理初期化手段 3 7 0 0が拡大対象画像と して原画像を設定し、 対象画像拡大手段 3 7 0 1が上記拡大対象画像にゥエー ブレツ卜変換に基づく方法を適用することにより、 4倍の画素数を持つ拡大画 像を生成する。 そして、 多重処理判定手段 3 7 0 3がこの対象画像拡大手段 3 7 0 1により得られた拡大画像を拡大対象画像として設定し、 対象画像拡大手 段に処理を戻す。 拡大画像提示手段 3 7 0 2は上記対象画像拡大手段 C 1 3 0 1により得られた拡大画像を視覚的に提示する。 更に、 画像微調整手段 3 7 0 4が上記拡大画像提示手段 3 7 0 2により提示された拡大画像に対し、 拡大処 理または縮小処理を行う。
これは具体的には、 拡大したい画像サイズが取り合えず不明の場合に上記の ウエーブレツト変換を用いた拡大方式を適用したものであり、 逆ウエーブレツ ト変換で得られた拡大画像を次の対象画像として、 順次逆ウェーブレット変換 を行うことにより 4倍の画素数を持つ画像への拡大処理を繰り返す。 そして、 視覚的に所望の拡大率になつた時点で作業を止めることで、 入力された原画像 の拡大作業を行うものである。
また、 原画像がカラー画像の場合には、 上記ウェーブレット変換を用いた拡 大方式においても、 上記カラー画像を構成するカラ一成分の中、 基本とする力 ラー成分を決定し、 その基本カラー成分に対する拡大画像を生成する。 そして 残りのカラー成分は、 基本カラー成分の拡大画像に変換比率による線形変換を 行った推定により求めることで、 カラー画像の拡大画像生成における処理を効 率化する。
図面の簡単な説明'
図 1は、 本発明の第 1、 第 2及び第 3の実施の形態の構成を示すブロック図 である。
図 2は、 本発明の第 1の実施の形態の処理工程を表す模式図である。
図 3は、 本発明の第 4の実施の形態である画像処理装置を含む概略構成図で ある。
図 4は、 本発明の第 4の実施の形態に使用する空間予測圧縮の手順を示す模 式図である。
図 5は、 本発明の第 5の実施の形態である画像処理装置を含む概略構成図で ある。
図 6は、 本発明の第 5の実施の形態に使用する不足成分推定手段の手順の模 式図
図 7は、 本発明の第 6、 第 7及び第 8の実施の形態の構成を表すブロック図 である。
図 8は、 本発明の第 6の実施の形態に使用する基本成分抽出手段と多重符号 化手段の処理工程を表す模式図である。
図 9は、 本発明の第 9の実施の形態である画像処理装置を含む概略構成図で ある。
図 1 0は、 本発明の第 1 0の実施の形態の構成を表すブロック図である。 図 1 1は 本発明の第 1 0の実施の形態である画像処理装置の処理工程を表 す模式図である。
図 1 2は、 本発明の実施例 1 1の画像処理装置の構成を表すプロック図であ る。 図 1 3は、 本発明の実施例 1 1の画像処理装置の処理の工程を模式的に表す 図である。
図 1 4は、 ラジアル基底関数ネットワークの概略図である。
図 1 5は、 本発明の実施例 1 1の画像処理装置での原画像と拡大画像の間の 関連を模式的に表す図である。
図 1 6は、 本発明の実施例 1 2の画像処理装置の構成を表すブロック図であ る。
図 1 7は、 本発明の実施例 1 2の画像処理装置の処理工程を模式的に表す図 である。
図 1 8は、 ラプラシアンフィル夕の例を表す図である。
図 1 9は、 本発明の実施例 1 3の画像処理装置の構成を表すブロック図であ る。
図 2 0は、 本発明の実施例 1 3の画像処理装置の処理工程を模式的に表す図 である。
図 2 1は、 本発明の実施例 1 3の画像処理装置のエッジ周波数推定手段で線 形近似を用いた場合の処理を模式的に表す図である。
図 2 2は、 拡大されたブロック間の歪みを模式的に表す図である。
図 2 3は、 本発明の実施例 1 4の画像処理装置の構成を表すブロック図であ る。
図 2 4は、 本発明の実施例 1 4の画像処理装置の処理工程を表す図である。 図 2 5は、 本発明の実施例 1 5の画像処理装置の構成を表すブロック図であ る。
図 2 6は、 本発明の実施例 1 5の画像処理装置の処理工程を説明する図であ る。
図 2 7は、 本発明の実施例 1 5の画像処理装置のブロック内デ一夕変換手段 での処理を表す図である。 図 2 8は、 本発明の実施例 1 6の画像処理装置の構成を表すブロック図であ る。
図 2 9は、 本発明の実施例 1 7の画像処理装置の構成を表すブロック図であ る。
図 3 0は、 ウエーブレット変換におけるフィルタ処理過程を表す図である。 図 3 1は、 変換画像におけるサブバンド成分を模式的に説明する図である。 図 3 2は、 変換画像における不足サブバンド成分の推定を模式的に表す図で ある。
図 3 3は、 垂直方向、 水平方向、 斜め方向エッジ検出に適用されるフィルタ の一例である。
図 3 4は、 本発明の実施例 1 8の画像処理装置を構成する画像拡大手段の構 成を表すブロック図である。
図 3 5は、 変換画像における不足サブバンド成分の推定と補正を模式的に表 す図である。
図 3 6は、 本発明の実施例 1 9の画像処理装置を構成する画像拡大手段の構 成を表すブロック図である。
図 3 7は、 本発明の実施例 2 0の画像処理装置の構成を表すプロック図であ る。
図 3 8は、 本発明の実施例 2 1の画像処理装置の構成を表すブロック図であ る。
図 3 9は、 従来の電子スチルカメラの構成を表すブロック図である。
図 4 0は、 従来の周波数領域に変換して拡大する画像拡大装置の構成を表す ブロック図である。
図 4 1は、 従来の周波数領域に変換して拡大する例を示す説明図である。 図 4 2は、 従来の画素補間により拡大する画像拡大装置の構成を表すブロッ ク図である。 図 43は、 従来の画素間補間を表す模式図である。 発明を実施するための最良の形態
(実施例 1 )
以下、 本発明の実施例について図面を参照しながら説明する。
なお、 これ以降で、 座標値の単位は全て画素間の距離単位と同じとする。 ま た、 以下において、 原画像がスキャナーや電子スチルカメラ等により取り込ま れた画像である場合を例として説明するが、 必ずしもその必要はなく、 磁気デ イスク等に保持されている特定の画像等、 あるいはィン夕ーネット等の通信手 段を介して伝送される画像等であってもよい。
まず、 本発明の実施例 1の画像処理装置について説明する。
図 1において、 CCD 撮像素子などの画像入力手段 1 0で得られた N 画素 XN 画素のサイズを持つ原画像は、 原画像直交変換手段 1 1で周波数空間における 成分データ (周波数成分データ) に変換される。 この際、 直交変換が使用され、 その変換方式としては、 アダマール変換や高速フーリエ変換(FFT; Fast Fouri er Transform) 、 離散コサイン変換(DCT; Discrete Cosine Transform), スラ ント変換、 ハール変換等が挙げられるが、 ここでは、 DCTを使用することと する。 しかし、 本発明はこの変換方式に限ったものではなく、 他の直交変換を 使用した場合にも成立するものである。
更に、 ここで用いるのは DCTの内、 特に画像を扱うため 2次元 DCTにな るが、 その変換式は 〔数式 2〕 のようになる。
〔数式 2〕 F{u,v) = 2c u)c(y)/ ^jK—x K _y
K K
x Σ Σ !J) ( , y) cos((2 + 1)UJC/2K― x ) cos((2y + \)νπ/2Κ _y )]
{0≤u≤K_x-l 0≤v≤K_y-l }
Figure imgf000019_0001
c(K) =1 (K≠0)
ここで、 F(u, v)が成分位置(u, v) における DCT成分であり、 DOc. y)は画素 位置(x, y) における画像データを表す。 また、 は K一 X は X 方向の画素数を、 K— y は y 方向の画素数を表すが、 ここでは N XN の正方形画像を対象として いるので、 K— X = K— y = N となる。
低成分抽出手段 1 00では、 図 2 (b) に示すように原画像の周波数成分デ 一夕の低周波成分を抽出する。
高成分符号化手段 1 3では、 図 2 (b) の原画像の周波数成分から低周波成 分 (c) の分を除いたときに残る、 高周波成分領域 (e) の符号化を行う。 こ こでは、 図 2 (e) に示すように例えば、 上記低周波成分の領域を HIから H5の 小ブロックに分割する。 同様に図 2 (f ) に示すように、 低周波成分 (c) の 領域も L1から L4のブロックに分割する。 そして、 上記高周波成分 (e) の各ブ ロック HIから H5の各ブロック内の周波数成分と低周波成分 ( f ) の各ブロック L1から L4とを相互に関連づけるようにする。 例えば、 〔数式 3〕 のようにある 定数係数を乗算した 1次式の形でも良いし、 各ブロック L1から L4の周波数成分 を変数に持つある多次元関数 (LI, L2, L3, L4) で各ブロック HIから H5内の周波 数成分を近似しても良い。
〔数式 3〕 Hl = a - L2
H2 = L4
H3 = /3 - L3
H4 = L3
H5 = y - L2
また、 各ブロック内においても ^律の係数を持たせる必要はなく、 各ブロック Η1から Η5に対し係数マトリックス M _C 1から M— C5を用意し、 それと L 1から L4 のブロック内の周波数デ一夕より構成され低周波成分マトリックス M—Uから M _L4を使って Η1から Η5のプロック内の周波数データより構成され高周波成分 マトリックス M — Η1から M—Η5を表現することも考えられる。 いずれの手段で も、 図 2 ( c ) の低周波成分データを使って、 画像の鮮明さやエッジ情報を表 す残りの図 2 ( e ) の高周波成分を精度良くかつルール化することで、 高周波 成分のデータ容量を削減できる。
符号化記憶手段 1 4は、 高成分符号化手段 1 3で得られたルール記述、 もし くは該高成分符号化手段 1 3で用いた近似式の係数等のデータより得られる、 上記低周波成分と高周波成分の関連情報の符号列と、 低周波成分抽出手段 1 0 0より得られる原画像の低周波成分デ一夕を合成し、 簡易画像データとして記 憶媒体 1 5に記憶する処理を行う。 なお、 次に読み出して復元する処理のため に、 記憶媒体 1 5内にテーブルを設け、 記憶した画像データ数、 各画像データ のサイズ、 記憶された各データにおける低周波成分デ一夕の占める割合や高周 波成分を表す符号の占める割合等の情報を記述することで、 各データの抽出が 効率的になる。
(実施例 2 )
次に、 本発明の実施例 2の画像処理装置について説明する。
図 1において、 画像入力手段 1 0及び原画像直交変換手段 1 1の行う処理は 実施例 1の画像処理装置と同様なので説明を省略する。 低成分抽出手段 1 0 0 は、 サムネイル画像を表示する縮小画像表示手段 1 0 2の画素数に応じた低周 波成分を抽出し、 縮小画像生成手段 1 0 1で該低周波成分に逆直交変換を施し, サムネイル画像を上記縮小画像表示手段に表示する。
(実施例 3 )
次に、 本発明の実施例 3の画像処理装置について説明する。
図 1において、 ユーザは本発明の実施例 1の画像処理装置により記憶媒体 1 5に記憶された簡易画像データの中から、 高解像度のレーザプリンタゃィンク ジェットプリン夕へ出力したり、 CRT 上で編集を行う所望の画像を取り出すた めに、 図示しないキーボード、 マウス等の入力手段より指示信号を与える。 こ の指示信号をもとに、 まず低成分復号手段 1 6が記憶媒体 1 5より、 中心とな る低周波成分を取り出す。 そして、 高成分復号手段 1 7が該低成分復号手段 1 6で得られた低周波成分と、 記憶媒体 1 5内の該低周波成分と高周波成分との 関連情報より高周波成分を復号する。 そして、 原画像出力手段 1 8力 この低 周波成分データと高周波成分デ一夕を結合し、 対応する画像サイズの逆直交変 換を行うことで、 CRT への表示やプリンタへの出力等、 他の画像処理装置で扱 われるデータとして出力する。
記憶媒体 1 5に記憶されている画像データは、 符号化するときに量子化処理 を受けていないために、 以上の方法により従来より鮮明な原画像を得ることが できる。
(実施例 4 )
次に、 本発明の実施例 4の画像処理装置について説明する。
図 3において、 原画像直交変換手段 1 1、 低成分抽出手段 1 0 0、 高成分符 号化手段 1 3、 符号合成手段 1 4及び記憶媒体 1 5の行う処理は実施例 1の画 像処理装置と同様なので説明を省略する。 低成分抽出手段 1 00で得られた原 画像の低周波数成分データの容量がそれ自身大きなサイズを占めることや、 記 憶媒体の容量サイズによる制限等を考慮して該低周波成分データを低成分圧縮 手段 300により圧縮する。
上記低成分圧縮手段 300の処理方式としては、 J PEGにおける空間的予 測(Spatial) 方式と呼ばれる、 通常の DC Tと量子化、 エントロピ一符号化を 用いた圧縮処理 (ベースライン方式とも呼ぶ) に代わって、 差分符号化 (Diff erential PCM; DPCM) とエントロピー符号化を使用したものであり、 圧縮、 伸張によってひずみが生じない可逆方式を用いるのが好ましい。
この方式では、 隣接する濃度値を用いて予測器によって予測値を計算し、 符 号化する濃度値からその予測値を減ずるものであり、 この予測器には 〔数式 4〕 に示すように、 例えば 7種類の関係式が用意されている。
〔数式 4〕 dDx = D1
dDx = D2
dDx = D3
dDx = D3 + (D2-Dl)
dDx = D3 + (D2-Dl)/2
dDx = D2 + (D3-Dl)/2
dDx = (D2 + D3)/2
図 4 (a) に示すように、 符号化すべき濃度値を Dxとし、 それに隣接する 3つ の濃度値を Dl, D2, D3とする。 このとき、 これら 3つの濃度値より計算される 予測値 dDx は、 〔数式 4〕 で定義され、 いずれの式を使つたかは圧縮された画 像デ一夕のヘッダー情報に記載される。 符号化処理では図 4 (b) に示すよう に、 1つの予測式が選択され、 Exが計算され、 この Exをエントロピ一符号化す る。 このような予測誤差の符号化により、 上記低周波成分を可逆的に圧縮する ことが可能となる。
低成分圧縮手段 3 0 0により圧縮された上記低周波成分データを基に、 高成 分符号化手段 1 3は残りの高周波成分を第一の実施例と同様に 〔数式 3〕 に示 すような方法などでルール化する。
符号合成手段 1 4は圧縮された上記低周波成分データと、 高成分符号化手段 1 3で得られたルール記述、 もしくは該高成分符号化手段 1 3で用いた近似式 の係数等のデータより得られる、 上記低周波成分と高周波成分の関連情報の符 号列とを合成し、 簡易画像データとして記憶媒体 1 5に記憶する処理を行う。 本実施例のようにすることで、 第 1の装置のデータ容量で最もサイズ的に大 きな部分を占めると思われる低周波成分を 1 Z 2から 1 Z 4のデ一夕量に圧縮 することが可能となる。 また、 この圧縮に可逆な方法を用いることで原画像の 持つ周波数成分を損なうことなく記憶することが可能となる。
なお、 ここでは上記低周波成分データは画像の細部の鮮明さを表す高周波成 分を復元するための基準画像であることから、 できるだけ鮮明でエツジの明瞭 な画像出力を実現するために原画像の低周波数成分に可逆な圧縮方法を適用し たが、 ここに通常の J P E Gのベースライン方式を適用することも可能である t この場合は非可逆圧縮であるので画像の鮮明さは失われるが、 データ量はおよ そ 1ノ1 0から 1 / 2 0に圧縮されるので、 記憶メディアにおいて保持される 読み取り画像容量をできるだけ小さくして多くの画像データを記憶したりする ような場合に取り得る方法である。
また本実施例及び上記実施例 1の画像処理装置における高成分符号化手段 1 3により得られる低周波成分と高周波成分の関連情報、 並びに、 後述する実施 例 6及び実施例 9の画像処理装置における多重符号化手段 8 0 2により得られ る基本成分と各拡大画像の高周波成分の関連情報についても、 上記 Spat i a l 方式等の可逆の圧縮方式で圧縮することが可能である。 (実施例 5 )
次に本発明の実施例 5の画像処理装置について説明する。
図 5において、 記憶媒体 1 5、 低成分復号手段 1 6及び高成分復号手段 1 7 までの処理は、 上記実施例 3と同様なので説明を省略する。
不足成分推定手段 500は、 読み取られた原画像を高解像度の CRT 等に表示 する場合において、 所望の画素サイズに拡大した際に不足する高周波成分デー タを推定する機能を備える。 拡大画像出力手段 50 1は不足成分推定手段 50 0で推定された上記不足高周波成分と、 低成分復号手段 1 6及び高成分復号手 段 1 7で記憶媒体 1 5に収納された符号化された画像データより復号された原 画像の周波数成分を結合し、 拡大サイズに対応する逆直交変換手段を行うこと で読み取られた原画像の拡大画像を生成する。
不足成分推定手段 500及び拡大画像出力手段 50 1では、 図 6に示すよう に処理が行われる。 まず図 6 (a) に示す N画素 XN画素のサイズを持つ原画 像を直交変換して得られる図 6 (b) に示すようなの周波数成分データを、 所 望の拡大サイズ(sN 画素 XsN画素) に対応する係数サイズを持つ拡大画像の周 波数成分の低域に埋め込む (図 6 (c) ) 。 そして、 この際に生じる不足成分 HI から を図 6 (b) に示す原画像の周波数成分より推定するのである。 そ の推定方法には、 例えば、
(1) ラジアル基底関数ネットワーク (Radial Base Function Network; RBF N) の非線形近似能力を適用する方法
(2) 原画像のエッジ画像の周波数成分より、 その拡大エッジ画像の持つ周波 数成分を線形近似もしくはラジアル基底関数ネットワークを使つて精度良く推 定することで、 原画像で削除されていた拡大画像の高周波成分を推定する方法
(3) 特開平 8— 29400 1のように、 原画像の直交変換成分を低周波領域 に埋め込み、 高周波領域は予め準備された予測ルールに基づいて得られる周波 数情報を埋める方法 ( 4 ) 特開平 6— 5 4 1 7 2のように画像信号を直交変換を用いて正変換とそ の逆変換を繰り返す過程 (Gerchberg- Papou l i s反復による方法) で、 高周波成 分の復元を行う方法
等が挙げられる ( (1 ) 、 (2 ) については後述する) 。
これ以外にも多くの周波数領域を使つた画像拡大手法があるが、 この不足成 分推定手段 5 0 0では、 拡大時に細部が鮮明でエッジが明瞭な画像の生成に必 要な高周波成分を精度良く推定する手法が求められるのであり、 その要望を満 たす手法であれば同様に成立するものである。
そして、 拡大画像出力手段 5 0 1では図 6 ( d ) に示すように sN X sNの係数 サイズに対応する逆直交変換を行うことで、 不足成分推定手段 5 0 0で推定さ れた拡大画像の周波数成分を実空間デ一夕に戻し、 CRT 等に表示したり、 プリ ン夕等の出力装置に渡したり、 他の画像処理装置で扱われるデータとして出力 する。
以上のような構成により、 原画像の周波数成分を使って拡大画像出力時に必 要とされる高周波成分データを推定し、 補うことで、 従来の画素補間による拡 大時に発生するエッジのボケや細部の不鮮明さを解消することができる。
(実施例 6 )
次に本発明の実施例 6の画像処理装置について、 図 7及び図 8を参照しなが ら説明する。
図 7において、 画像入力手段 9及び原画像直交変換手段 1 1の行う処理は、 本発明の第 1の実施形態と同様なので説明を省略する。 まず原画像直交変換手 段 1 1で得られた原画像の周波数成分を使い、 拡大周波数推定手段 8 0 0では 複数の画像サイズに拡大した際の周波数成分データが推定される。 この推定方 式は、 本発明の実施例 5の画像処理装置の構成要素の 1つである図 5の不足成 分推定手段 5 0 0と同様の手法を取ることができる。 次に基本成分の抽出処理が基本成分抽出手段 8 0 7で行われる。 この処理を 模式的に表したものが図 8である。 図 8 (a) は原画像の周波数成分、 図 8 (b) は原画像サイズを縦に 2倍、 横に 2倍に拡大した画像の周波数成分、 図 8 (c) は原画像サイズを縦に 3倍、 横に 3倍に拡大した画像の周波数成分を 示している。 なお、 さらに多くの画像サイズを用意しても良いし、 その際に用 意される画像サイズも整数倍である必要はない。 図 8 (a) 、 (b) 、 (c) において、 低域の周波数成分は画像の全体的特徴を表すものであり、 各倍率に 共通な定性的な傾向にある。 そこでこの似た傾向のある低域の周波数成分 L00 を図 8 (d) に示すように基本成分と考える。 なお、 処理の簡単化のために図 8 (a) に示す原画像の周波数データを基本成分と見なしても構わない。 図 7における多重符号化手段 8 0 2は、 本発明の第 1及び実施例 4の画像処 理装置における高成分符号化手段 1 3と同様に、 該基本成分 L00と図 8 (b) に示す各ブロック mi から H13 とを関連付け、 ルール化する (図 8 (e- 1)) 。 図 8 (c) に示す各ブロック H21 から H25 についても、 同様に該基本成分 L00 と直接関連付けることも可能であるが、 ここでは図 8 (e-2) に示すように、 図 8 (b) の各ブロック H11 から H13 と図 8 (c ) の各ブロック H21 から H25 を関連付けることで、 該基本成分 (低域の周波数成分) L00と図 8 (c) の各 ブロック H21 から H25 を関連付け、 ルール化する。 これは周波数領域の近いブ 口ック同士の方が定性的な相違が少ないため、 関連付けの精度やその手間を減 少させることができるからである。
多重符号合成手段 803は本発明の第 1及び実施例 4における符号合成手段 1 4と同様に、 抽出された上記基本成分と、 多重符号化手段 8 0 2で得られた 該基本成分と各拡大周波数成分との関連情報を合成し、 多重簡易画像データと して記憶媒体 1 5への記憶処理を行う。 この際、 多重に用意した拡大画像の個 数や各サイズのデータの始まりのフラグ信号等を明確に上記多重簡易画像デー 夕のヘッダ等に記述する必要がある。 以上のように、 予め出力装置の解像度に合わせて複数の画像サイズに応じた 拡大周波数成分を用意しておくことで、 記憶媒体から読み出されたデ一夕を基 に所望の拡大サイズの画像を出力する際に不足する、 高周波数成分の推定にか かる時間を短縮することができ、 ユーザィンターフェースの改善になる。
(実施例 7 )
次に本発明の実施例 7の画像処理装置について説明する。
図 7において、 画像入力手段 1 0、 原画像直交変換手段 1 1、 拡大周波数推 定手段 8 0 0及び基本成分抽出手段 8 0 7の行う処理は、 本発明の実施例 6の 画像処理装置と同様なので説明を省略する。
基本画像生成手段 8 0 8は基本成分抽出手段 8 0 7により抽出された基本成 分に逆直交変換を施し、 サムネイル画像を基本画像表示手段 8 0 9に表示する が、 ここで、 基本成分抽出手段 8 0 7で抽出された周波数の周波数空間におけ るサイズ (係数サイズ) がレビュー用のディスプレイの画像サイズより大きい 場合、 さらに基本成分の低域よりその解像度に合わせた周波数成分が抽出され 表示用の基本画像が生成される。 逆に基本成分抽出手段で抽出された周波数の 係数サイズがレビュー用のディスプレイより画像サイズょり小さい場合には、 基本成分の係数で不足する部分に図 4 1に示すような" 0 " 成分埋め込みを行 つてサムネイル画像を生成することとする。 しかし、 このような場合には、 拡 大周波数推定手段 8 0 0のようにその画像サイズに応じて、 不足分を推定して レビュー用画像サイズに拡大する処理を、 該基本画像生成手段 8 0 8に加える ことも可能である。
(実施例 8 )
次に本発明の実施例 8の画像処理装置について説明する。
図 7において、 ユーザは本発明の実施例 6の画像処理装置により記憶媒体 1 5に記憶された画像データの中から、 出力編集対象の画像を選択するとともに、 対象とする画像サイズを指定することができる。 この際、 記憶媒体 1 5に記憶 された画像サイズに応じた選択情報が提示されるか、 もしくはユーザにより、 原画像サイズを基準とした拡大率が入力されるか、 また出力される機器の持つ 解像度に合わせて自動的に選択する等の手法が考えられる。
先ず、 記憶媒体 1 5に記憶された画像サイズに応じた選択情報が提示される 場合の処理を説明する。 ユーザは、 所望の画像と所望の画像サイズを、 マウス 等の図示しない入力手段により選択指示し、 記憶媒体 1 5から基本成分復号手 段 8 0 4はこの指示に対応した多重周波数データから該画像の基本成分を取り 出す。 次に対象周波数復号手段 8 0 5が選択された該画像サイズに相当する高 周波成分データの表現符号列を取り出し、 該符号列と該基本成分から、 対象と する拡大画像サイズの該基本成分以外の高周波成分を復号する。 対象画像出力 手段 8 0 6では該高周波成分と該基本成分を結合し、 逆直交変換を施して、 所 望の拡大画像を出力する。
次に、 原画像サイズを基準とした拡大率が入力されるか、 また出力される機 器の持つ解像度に合わせて自動的に選択する場合の処理を説明する。 記憶メデ ィァ 1 5に多重的に保持されていない画像サイズの場合には拡大後のサイズに 最も近いサイズの画像デ-タが選択され、 基本成分復号手段 8 0 4、 対象周波 数復号手段 8 0 5及び対象画像出力手段 8 0 6への処理へ移る。 この際、 対象 画像出力手段 8 0 6における逆直交変換時には、 上記の拡大後のサイズに最も 近い画像サイズに対応した逆直交変換処理が取られるものとする。
しかし、 この段階で、 選択される画像サイズを所望の画像サイズより小さめ に選び、 不足した分を実施例 5における不足成分推定手段 5 0 0を加えること も可能である。
以上のように、 複数の拡大サイズの周波数成分の共通と見なせる低周波成分 を基本成分として抽出し、 この基本成分を中心として各拡大サイズの残りの高 周波成分を符号化することで、 複数の拡大サイズに関する画像の周波数データ を用意することができる。 そのため、 ユーザの指示により目的とした画像サイ ズの拡大画像の再生時には、 指示のたびに所望の拡大サイズに不足する高周波 成分を推定することなく高速に拡大画像を再現することができる。
(実施例 9 )
次に本発明の実施例 9の画像処理装置について説明する。
図 9において、 画像入力手段 1 0、 原画像直交変換手段 1 1、 拡大周波数推 定手段 8 0 0及び基本成分抽出手段 8 0 7までの処理は、 本発明の実施例 6の 画像処理装置のものと同様であるので、 説明を省略する。
基本成分圧縮手段 1 0 0 0では、 基本成分抽出手段 8 0 7により抽出された 基本成分を圧縮処理するが、 該圧縮処理の工程は本発明の実施例 4の画像処理 装置における低成分圧縮手段 3 0 0と同様であるので、 説明を省略する。 また、 基本成分圧縮手段 1 0 0 0に続く多重符号化手段 8 0 2、 多重符号合 成手段 8 0 3及び記憶媒体 1 5における処理は、 本発明の実施例 6の画像処理 装置のものと同様であるので、 説明を省略する。
以上のような構成により、 複数の画像サイズを保持する際の問題点である画 像データ容量の低減化を図ることができる。
(実施例 1 0 )
次に本発明の実施例 1 0の画像処理装置について説明する。 図 1 0はその構 成を表すブロック図である。
まず画像入力手段 1 0で読み取られた原画像に図 4 3に示すような補間方式 で画素間を補間することで、 画素間補間手段 1 1 0 0が拡大画像を生成する。 次に該拡大画像に対して畳み込み手段 1 1 0 1が畳み込み処理を繰り返すこと により画素強調を行う。 図 1 1は上記畳み込み処理の工程を表す。 図 1 1 ( b ) に示すようにエッジ が不明瞭な画像の場合、 エッジについての画像デ—夕が抽出できず、 図 4 2に 示すような処理工程で画像の拡大処理を行うことは困難である。 しかし、 本発 明のようにすることで平均化された濃度値を簡単に強調することができる。 な お、 畳み込み手段 1 1 0 1の処理は、 拡大画像にエッジ強調フィル夕による処 理を複数回繰り返すことと同じような効果を持つものである。 従来のエッジ強 調フィルタ処理の場合、 適正なフィル夕を選ばないと、 その繰り返し回数は非 常に大きくなつたり、 全くエッジ強調がされない等の問題があるが、 畳み込み 手段 1 1 0 1では濃度値自身による畳み込みを行うため、 その心配もない。 図 1 1 ( c ) の P点における K 回目の畳み込み処理をする際の濃度値を Dp [K] と すると、 その K+ 1 回目の畳み込み処理による P点の濃度値 Dp [K+ l] は 〔数式 5〕 のように定義する。 これは、 この画素近傍における畳み込み値の平均値を 求めるものである。 ここで、 Ωは畳み込み対象画素の範囲を、 U— Gasoはその Ω内の総画素数を、 qは Ω内の任意画素を表す。
〔数式 5〕
Dp[k +1] = (J (Dp[k] x Dq[k])Y U— Gaso
この処理を拡大補間画像に含まれる画素の集合を Λ (図 1 1 ( c ) の星形全 体) とした場合、 この Λ内の画素全部に処理が行われる。
次に収束判定手段 1 1 0 2では、 この畳み込みによる処理の収束判定が行わ れる。 それは 〔数式 6〕 のように(K- 1) 回目で得られた濃度値 Dp [K-l] と K 回 目の濃度値 Dp [K] の 2乗誤差の Λ内の平均値をもとにそれが、 予め用意された 収束判定値 Thred より小さい場合に、 収束したとして畳み込み処理を終え、 推 定拡大画像出力手段 1 3 1 2で推定拡大画像として出力されるのである。 〔数式 6〕 Thred≥ ( ^ (Dp[k] - Dp[k - 1])2)/T _ Gaso
〔数式 6〕 で T— Gasoは Λ内の総画素数を表す。
以上のように本実施例の画像処理装置は、 補間画像データの畳み込み演算処 理により拡大画像の強調をするものであり、 処理時間のかかる周波数変換を行 う必要がなく、 手軽に拡大画像を実現できる。 また、 補間画像のボケ解消に元 の画像のエッジ情報が使用する際に問題となるエッジが不明瞭な原画像に対し ても、 簡単にエツジ情報を持つ拡大画像を得ることができる。
(実施例 1 1 )
図 1 2に実施例 1 1による画像処理装置の構成を表す。
拡大周波数推定手段 1 2 0 Aの近似係数導出手段 1 2 0 0は、 画像入力手段 1 0により本装置に入力された n 画素 x n 画素の原画像データを使って、 拡大 画像の周波数成分データの推定に使用される非線形補間方式に使用される近似 係数べクトル (重み係数べクトル) Vw= ( w _0, w _1 , . . . , w — N - 1 ) (N = n X n ) を後述する方法により導出する。 拡大周波数推定手段 1 2 O Aの非線 形推定手段 1 2 0 1は近似係数導出手段 1 2 0 0で得られた重み係数べクトル Vwと原画像直交変換手段 1 1で得られた原画像の周波数成分データを使って、 後述するように拡大後の画像の周波数成分デ一夕をラジアル基底関数ネットヮ ークを使って推定する。
以下、 この画像処理装置の動作について説明する。
画像入力手段 1 0において、 拡大すべき n 画素 X n 画素のサイズを持つ原画 像データの読み取りが行われる。 この画像入力手段 1 0で得られた原画像は、 原画像直交変換手段 1 1で周波数空間における成分データ (周波数成分デー 夕) に変換される迄は上記実施例 1と同様であるので、 説明を省略する。 拡大周波数推定手段 1 2 O Aでは、 図 1 3に示すように、 この画像入力手段
1 0からの原画像の濃度データ D(x, y) (x, y=0 n- 1) (図 1 3 (a) ) と 原画像直交変換手段 1 1からの周波数成分データ F(u, v) (u, v=0 π-l) (図
1 3 (b) ) をもとに、 n Xn の原画像を m Xm の拡大画像に拡大した際(n く m=sXn )の、 拡大画像の周波数成分データ F' (u, V) (u, v=0, ... , m-1) (図 1 3 (c) ) の推定を行う。 ここで上記の推定は、 後述するラジアル基底関数ネ ットワーク (Radial Base Function Network: 以下" RBFN"と略す) を使用して 行われる。
一般に、 2次元 DC T成分値とその成分位置(u. V) の間は線形ではなく非線 形な関係が成立する。 そのため、 この非線形関係を精度良く関数近似すること のできる手法が、 鮮明でエッジのぼけのない画像拡大には必要とされる。 この ような手法として、 予め用意された学習データに基づいて学習された階層型二 ユーラルネットワークによる手法や、 予め用意された学習データから抽出され たルールベースを使用したフアジィ推論の手法等が挙げられる。 しかし、 これ らは予め学習用に多くの画像データを用意することが精度良い推定に不可欠で ある。
一方、 これらに対して、 学習デ一夕なしで入力データの特徴を使って自己組 織的に近似関数を獲得することのできる手法がある。 これの例として、 カオス 的に変動する時系列パターンの短期予測を行う手法があり、 ここで使用するラ ジアル基底関数ネットワークもその 1種と考えられる。 ここでは、 与えられた 画像の周波数成分とその対応する位置から、 周波数成分の描く面を RBFNにより 非線形関数近似するのである。
図 1 4はここで使用する RBFNのモデル構成であり、 これには求める成分位置 べクトル VP=(u, V)が入力として与えられ、 中間層でのラジアル基底関数(RBF) φでの変換を介して、 出力層で 1つに統合され、 出力周波数成分 Fout = F' (u, v) が出力される。 これを 〔数 7〕 に示すが、 ここで、 VP— i = (u— i, v .i)は i 番目の RBF 関数の中心を表し、 N は設定された RBF 関数の個数を表す。 〔数式 7〕
Figure imgf000033_0001
{0≤u≤m-l,0≤v≤m-l} 例えば、 図 1 5のように原画像の周波数データ P を中心として拡大する場合 には、 VP— i は原画像の周波数成分の位置ベクトルに相当し、 RBF 関数の個数 N は原画像の画素数分 n Xn に相当する。 つまり、 原画像の画素の分だけ RBF 関数が用意され、 RBF 関数の中心である P の成分位置ベクトル VP— i の周囲に 配置された拡大後の周波数成分データは、 これらの RBF 関数出力の重なりとし て推定されるのである。 なお、 RBF φは出力 Fout=F' (u, V)が成分位置ベクトル VPと、 i 番目の RBF 関数の中心である VP— i の間の距離 II VP -VP_i IIに依存 して変化する関数であり、 〔数式 8〕 のようなものが例として挙げられる。 〔数式 8〕
0(|| P - VP = ψΡ - Ρ」·『+】) log(| P - VP (a) φ{ψΡ - VP = exp( -ψΡ - VP _if/b) (b) ここで(a) はロジスティック関数であり、 b は関数の傾きを制御するパラメ 一夕である。 また、 (b) はガウス関数であり、 k も b と同様に形状を表すパラ ^一夕である。 これ以外にも多くのものが考えられるが、 通常(b) が用いられ ることからここでも(b) を用いることとし、 b=i. O とする。
重み係数べクトル Vw=(w _0, w— 1 w— N-1)T(T:転置) の決定は次のよ うに行われる。
〔数式 8〕 における非線形近似を最適にするためには、 VP=VP — i において 周波数成分の推定値が元の画像から得られた周波数成分値とできるだけ一致す るように重み係数ベクトル Vwを決定してやればよい。 ここでは、 図 1 5のよう に、 拡大後の周波数領域の Ρ'— i は原画像の周波数領域における P —i に対応 する。 そこで、 P _i の周波数成分位置を(a— i, b— i)として、 P _i におけ る周波数成分 F(a— i, b— i)と!1' __i における推定周波数成分 F' (u— i, v _i) の 2乗誤差関数 E(Vw) を最小とする Vwを最適な重み係数べクトルとすれば良い こととなる。
まず(u, V) における推定成分 F' (u, V) を低域から並べ、 原画像の周波数成分 位置(a— i, b _i)に対応する k 番目の推定成分を FF(k) とする。 次に推定拡大 画像の周波数成分ベクトル Vyと RBF 関数より成る行列 MPを 〔数式 9〕 のように 定義する。
〔数式 9〕
Vy = (FF(0),FF(l ··..·. , (N-1))' MP^[MPJj]
Figure imgf000034_0001
これにより 〔数式 10〕 のように表すことができる,
〔数式 10〕 Vy=MP-Vw すると、 評価関数である 2乗誤差関数 E(Vw) は 〔数式 1 1〕 のようになる。 〔数式 1 1〕 でベクトル Vfは原画像の周波数成分 F(a, b) を低域から順番に N= n Xn 個並べたものであり、 原画像が予め与えられれば決まるベクトルである, 〔数式 1 1〕
Figure imgf000035_0001
= (Vf -MP-Vwf ■ (Vf - MP · Vw)
Vf = ( (0,0), (0,1),…-. ,F(N -1,N -l))r そこで 3E(Vw)/5 (Vw)=0に注目して整理すると Vwは [数式 1 2〕 のようにな る。
〔数式 1 2〕
Vw = (MPT · ΜΡΥ'ΜΡ · Vf
これを使って近似重み係数 Vwの計算を近似係数導出手段 1 200が行う。 非線形推定手段 1 20 1では、 上記重み係数 Vwを使って、 〔数式 7〕 より(u, v) における DCT成分 F' (u, V) を推定する。
なお、 〔数式 8〕 で(b) を用いた場合、 k の値の設定として、 予め用意され た多くの画像データを使い、 そのサブサンプリングで作成された縮小画像から 元の原画像を推定する際に、 推定画像と原画像の SN比が最大となる k と、 各原 画像内のデータの分布 (標準偏差、 平均、 分散等) との関連を統計的に導出す ることで、 使用する k の値を決める方法も考えられる。
逆直交変換手段 1 2 1 3では、 1 0 1で得られた拡大後の画像の持つ周波数 成分の推定結果をもとに、 逆離散コサイン変換 (IDCT: Inverse Discrete Cos ine Trans form)を行うことで、 元の実空間における画像デ一夕に戻す。 拡大画 像出力手段 1 2 14では、 1 3で得られた拡大後の推定画像を CRT等に表示 したり、 プリンタ等の出力装置に渡したり、 他の画像処理装置で扱われるデー 夕として出力される。
以上のように、 本実施例によれば、 原画像の周波数成分の特徴を精度良く近 似することができ、 原画像のサンプリングで削除された高周波成分を精度良く. かつ予めルール等を作成することなく手軽に推定することが可能となる。
(実施例 1 2 )
図 1 6は実施例 1 2による画像処理装置の構成を表し、 以下、 この画像処理 装置の動作について説明する。 上記実施例 1 1と同様に、 画像入力手段 1 0で 得られた原画像は原画像直交変換手段 1 1により周波数成分 F (u, V)に変換され る。 これとともに、 エッジ生成手段 6 0 0では、 図 1 8で示されているラプラ シアンフィルタによりエッジ抽出が行われる。
ここで使用するラプラシアンフィル夕は、 図 1 8 (a) 、 (b) のどちらのフィ ル夕でも構わないし、 更に他のフィル夕を用いてもよい。 扱う原画像の特徴に 従い、 このフィルタを変えることでエッジ抽出の精度を良くすることができる t 例えば図 1 8 (a) のラプラシアンフィルタは、 中央の画素の濃度値を 8倍 し、 その周囲の 8つの画素の濃度値を減算する。 つまり上記中央の画素の濃度 値と上記周囲のがその濃度値との差分が、 上記中央の画素のガその濃度値に加 算されることになり、 これによつてエッジのような周囲との濃度差が大きく変 化する画素が強調されるのである。
拡大工ッジ推定手段 1 2 0 Bの拡大工ッジ近似手段 1 6 0 1では、 図 1 7に 示すように上記エッジ生成手段 1 6 0 0で得られたエッジ画像 (図 1 7
( c ) ) を、 所望の拡大率 s に応じて、 線形拡大するものであり、 拡大に合わ せて既存画素間に補間画素を埋め込んでやる必要がある。 ここでは、 拡大され た既存画素の中点に、 既存画素のエッジ画像データの中間値を埋めることで実 現する。 例えば、 既存のエッジ画像を拡大して画素位置 P (x— 0, y— 0)と Q (x — 0+dx, y— 0)となり、 その間に拡大画素数に従レ^方向に補間をする必要があ る場合には、 〔数式 1 3〕 の(a)ようになる。 ここで、 画素位置 Pにおけるデー 夕を D(x — 0, y — 0)、 画素位置 Qにおけるデ一夕を D(x — 0+dx, y— 0+dy) 、 補 間データを埋める位置 H を H(x _h, y _h)、 そして埋める補間データを DH(x— h, y — h)とする。 また、 画素位置 P(x _0,y — 0)と R(x „0, y — 0+dy) の間の y方向に補間をする必要がある場合には、 〔数式 1 3〕 の(b)ようになる。 なお、 (b) において補間データ位置を I(x _i, y — i)、 補間データを DI (x— i, y — i) としている。
〔数式 1 3〕
(a)
DH(x_h,y_h) = (D(x_0,y_0) + D(x_0 + dx,y_0))/2
x h = (x _0 + x _0 + dx) 12
y h = y _0
(b)
DI(xJ,y_i) = (D(x_0,y_0)) + D(x_0,y_0 + dy))/2
x一 i = x_0
Figure imgf000037_0001
なお、 y方向に相互に隣接する 2つの補間画素 (上記 X方向の補間処理によ つて得られる) を使って y方向にさらに埋め込むことで補間精度はさらによく なると考えられる。
拡大エッジ推定手段 1 2 0 Bのエッジ周波数生成手段 1 6 0 2では、 拡大工 ッジ近似手段 1 6 0 1で得られた拡大エッジの推定画像 (図 1 7 (d) ) に直 交変換を施して周波数成分 (図 1 7 (e) ) を求める。 これは、 主に画像の鮮 やかさや細部の特徴、 エッジを表す高周波成分はこのようなエッジ画像に多く 含まれていることに起因する。 即ち、 エッジ抽出した画像では、 その他の部分 の情報が欠如しているため、 高周波成分は現れるが、 より低域成分は弱いレべ ルでしか現れないであろうという考えによる。 そこで、 元の原画像 (図 1 7
(a) ) の全体的な特徴を持つ原画像直交変換手段 1 1で得られた周波数成分 デ一夕 (図 1 7 (b) ) で、 エッジ周波数生成手段 602で得られた拡大エツ ジ画像の周波数成分の低域を置き換える (図 1 7 (e) ) ことで、 拡大画像の 持つ周波数成分を推定するのである。 そして、 逆直交変換手段 1 2 1 3を経て、 実空間データに戻された拡大画像 (図 1 7 (g) ) は拡大画像出力手段 1 2 1 4で CRTに表示されたり、 他の装置への入力になるように出力される。
このようにすることで、 上記実施例 1 1のように RBFNによる方法を用いるこ となく、 簡単に拡大画像を推定できる。 また、 エッジ情報をそのまま継承させ ることで、 元の画像の高周波成分を失うことなく強調することができ画像のぼ けを減少させることができる。
(実施例 1 3 )
図 1 9は実施例 1 3による画像処理装置の構成を表し、 以下、 この画像処理 装置の動作について説明する。
画像入力手段 1 0で得られた原画像 (図 20 (a) ) に DCT変換を使って 周波数成分データ (図 20 (b) ) を導出するとともに、 図 1 8のようなラブ ラシアンフィルタを使って原画像のエッジ画像 (図 20 (c) ) をエッジ生成 手段 600で生成する。 拡大エッジ推定手段 1 20 Bのエッジ画像直交変換手 段 1 900は上記エッジ画像に対して、 DCTを行い、 エッジ画像の周波数成 分データ (図 20 (d) ) を求める。
このエッジ画像の周波数成分デ一夕から、 上記実施例 1 1で使用した非線形 関数近似に優れているラジアル基底関数ネットワーク(RBFN)を使って、 拡大さ れた画像のエッジ部分より得られる周波数成分デ一夕 (図 20 (e) ) を拡大 エッジ推定手段 1 20 Bのエッジ周波数推定手段 1 90 1が推定する。 そして、 この推定された周波数成分データの低域領域を、 元の画像から得られた周波数 成分に置き換える (図 2 0 ( f ) ) ことで求める拡大画像の周波数成分データ を獲得するのである。
こうすることで、 上記実施例 1 2と同様に、 主にエッジ情報に含まれている 画像の高周波成分の特徴から、 拡大画像の高周波成分データを多く含む拡大ェ ッジ情報を推定し、 それを使うことで拡大後の画像に鮮明さを与える高周波成 分をうまく補うことができる。 また、 上記実施例 1 2では、 原画像のエッジ画 像の単純な線形補間画像から拡大エッジ画像の周波数成分データを推定してい たが、 本実施例の補間は非線形近似に相当するものであることから、 単純に 2 つのサンプル間の線形補間方法よりも推定精度が良くなると思われる。
なお、 この非線形推定方法については、 上記実施例 1 1で使用した非線形推 定手段 1 2 0 1の RBFNの入力に、 原画像の周波数成分データではなく、 原画像 から得られたエッジ画像の周波数成分デ一夕を使用する点が異なるのみなので、 説明を省略する。
また、 この非線形推定方法については、 やはり実施例 1 1で説明したように、 学習データを用いたニューラルネットワーク方式ゃフアジィルールに従う方法、 カオス決定論的な予測方式等も使用することが可能である。 そして、 これらの 場合には、 あらかじめ大規模な学習デ一夕を用意することが必要となることに 注意しなければならない。
更に、 エッジ周波数推定手段 1 9 0 1には、 図 2 1に示すように、 拡大率 s に応じて、 高周波側よりサンプルされた画像の D C T成分 (図 2 1 ( a ) , n - 3 , n — 2, n— 1の点) 間の中間値を求め、 改めて D C T成分位置を高周 波成分の先頭側より割り振る (図 2 1 ( b ) , n - 1 + t - 3 , n - 1 + t - 1の点) ことでも拡大エッジの周波数成分を推定することができる。 このよう にすることでも、 拡大後の画像に鮮明さを与える高周波成分を補うことができ る。
この図 2 1に示した補間方法と上記実施例 1 2の補間方法との違いであるが、 手法的にはあまり差がないように思われる。 しかし、 任意の拡大エッジ画像を 作成する際に、 上記実施例 1 2では、 元のエッジ画像の画素間のどこへ優先的 に補間画素を入れるかにより、 エッジの特徴等が変化する可能性があり、 補間 順番に工夫が必要となる。 しかし、 図 2 1のように周波数成分で補間する場合 には、 高周波成分を補うという観点から、 高周波成分から優先的に DCT成分の 補間値を埋め込んで拡大画像の周波数成分を推定すればよい。
(実施例 1 4 )
図 2 3は実施例 1 4による画像処理装置の構成を表す。
画像入力手段 1 0で入力された原画像には数百画素 X数百画素以上の大きさ を占めるものも多く、 この原画像に上記実施例 1 1、 1 2及び 1 3のように 1 度に直交変換をかけた場合、 その処理時間は膨大に大きなものとなる。 そのた め、 通常は、 4画素 X 4画素から 1 6画素 X 1 6画素の大きさのブロックに分 割して各プロックを目的とする画像拡大率 sに応じた画素サイズに拡大し、 そ れを再構成する方法が用いられる。 しかし、 このような場合、 次に示すような 問題が指摘されている。
図 2 2 (a)はその問題を模式的に示したものである。 ここでは、 説明を簡単 にするためにブロック Aiにおいて y=y— 0の時の x方向の画素の濃度値 D (x, y_ 0) (実線に示す) に 1次元 D C T変換をかけた場合を取り上げる。
X方向に 0から n-1個のデジタル画像データ (濃度値) があり、 これに 1次元 D C Tを行うことは、 この n個の画像データの従う関数は X方向に関して nの周 期を持つ周期関数であると仮定して、 n個の周期を持つコサイン関数 cos ( i x π /η) (i =0 n-1)の線形結合で近似することと同意義である。 その結果、 D
(x, y_0) は 〔数式 1 4〕 のように表すことができる。
〔数式 1 4〕 D(x,y_0) cos(i-x-n/n) a_i は、 i番目の DCT成分を表す。 このような場合、 図 22 (a) の点線に 示すように、 区間 [n, 2n- 1]では区間 [0, n-1]と同じデータが繰り返されること を前提としているので、 x=nでの画像データ D(n, y_0) は x=0のデ一夕 D(0, y —0)と同じとなるようにひ— iを決定しょうとする。 このため、 x=n- 1のデータ D(n-1, y_0) と x=nつまり x=0のデータ D(n, y_0)=D(0, y— 0) の間の差が大 きいほど、 この間に埋め込まれる X方向の拡大デ一夕と次の x=nから x=2n-lにお けるブロックより得られる拡大データの x=nの値 D(n, y_0) の間の開きが生ず る。 その結果として D(x, y_0)は X方向においてこの境界付近で不連続となつ てしまうのである。
2次元 DC Tはこのような 1次元 DC Tを y方向に拡張したものであること から、 この不連続性は 2次元 D C Tに拡張した場合にも同様に生じてしまう。 本実施例はこの問題を解消するための処理である。
原画像を n X nのブロック Ai (i=0, ... , L-1)に分割し各ブロックを mXmのブ ロック Bi (i=0, ... , L-1)に拡大することで、 原画像を s=m/nの拡大率で拡大する 場合を考える。 ここで、 Lはブロック数に相当する。 図 23におけるブロック 分割手段 2300がこのブロック分割を行う力 図 24の左図のように nXnで はなく(n+u) X (n+u)のサイズのブロック Ai' (i=0 L-l)のように隣同士のブ ロックが重なるように分割する。
即ち、 図 22 (b) に示すように、 ブロック AOについての DCTは区間 [0, n +u]について行い (このとき、 区間 [π+u+l, 2n+2u]では区間 [0, n+u]と同じデー 夕が繰り返されることを前提としている (図 22 (b) 点線) ) 、 同様にプロ ック A1についての D CTは区間 [n, 2nlu-l]について行う。 このようにすること で、 上記従来の方法を用いた際にプロックの境界において発生した濃度値のギ ヤップ (図 22の枠線 R参照) を抑えることが出来るのである。 つまりこのとき、 図 2 4のブロック AOの端ではノイズ Nが発生し、 この部 分についてはブロック AOのデータは採用せず、 A1のデータを採用するのである < そして、 拡大ブロック周波数推定手段 2 3 0 2がこのブロック Aiの周波数成 分データを((n+u) X s) X ( (n+u) X s)の周波数成分データに拡大する。 この拡大 処理については上記実施例 1、 2及び 3の拡大処理をブロック単位で行うだけ であるので説明を省略する。 なお、 ブロックサイズ n X nであるが、 通常 4画素 X 4画素から 1 6画素 X 1 6画素が使用される。 もし n=8とした場合、 その重 なり領域を作る上記の uとしては u=3を採用するが、 これに限られるものではな い。
ブロック内周波数抽出手段 2 3 0 3では、 得られたブロック B i 'の全周波数 成分データを使用せず、 低周波数の方から必要とする m x mのサイズだけのデー 夕を取り出し、 改めて拡大ブロック C iとする処理を行う。 そして C iに対して、 ブロック逆直交変換手段 2 3 0 4が逆直交変換を施し、 拡大画像再構成手段 2 3 0 5で、 ブロック C iから生成された画像データを対応する位置に配置するこ とで最終的に拡大画像を得るのである。
このようにすることで、 ブロック C iの隣り合うブロック境界付近での補間デ —夕と、 次のブロック C 1の先頭の画像データとの不連続性を避けることがで き、 ブロック歪みを低減することが可能となる。
(実施例 1 5 )
図 2 5に実施例 1 5による画像処理装置の構成を示す。 図 2 5においてプロ ック内データ変換手段 2 5 0 0は、 ブロック分割手段 2 3 0 0で分割された n
X nの画像サイズのブロック Ai ( i =0 L- l )内の画像データに後述する所定の 関数変換を行うことで、 拡大後のブロック画像の歪みが発生しにくいようにす る。 その他は、 上記実施例 1 4による画像処理装置より、 ブロック内周波数抽 出手段 2 3 0 3が外されている以外は同じ構成をとつている。 実施例 1 4による画像処理装置は、 プロック分割手段 2 3 0 0で重なりを持 つように大きめにブロック分割し、 得られた拡大ブロックから必要とするサイ ズの周波数成分データを取り出して再度拡大ブロックの周波数データに置き直 している。 一方、 本実施例では、 ブロック分割 2 3 0 0では図 2 6に示すよう に、 重なりを持たせず nxnのサイズのブ口ック Ai (i=0, L-l)に分割する。 そして、 後述するようにそのブロック内データを変換し、 その変換済みの画像 データから拡大されたブロック B i ( i =0 L- 1 )を推定する点が異なっている, 以上のように構成された実施例 1 5による画像処理装置の動作について説明 する。 原画像をブロックに分割し、 各ブロック Ai (i=0, ... , L-1)における画像 データをブロック内データ変換手段 2 5 0 0が以下のように変換する。
図 2 7 (a) は、 ブロック Aiにおける濃度値 D(x, y)の遷移を表すが、 右図 はこの中の y=y — 0における X方向の遷移 D(x, y_0) を表す。
まず、 x=0における画像データ D(0, y_0) と x=n- 1における画像データ D(n - 1, y_0)を通過する関数 p (X. y — 0)を定義する。 その関数としては多くの例が あるが、 ここでは 〔数式 1 5〕 のような 1次式を定義する (図 2 7 (b) ) 。
〔数式 1 5〕 p(x,y_0) = D(0,y_ ) + (D(n -l,y _0)-D(0,y _0))/η·χ この P (x, y _0)を D(x, y_0) から減算した Φ (χ, y _0)=D(x, y _0)-p (x, y — 0)を計算する (図 2 7 (c) ) 。 これをブロック内全ての y —0に対 して求める。 更に、 x=x — 0を固定した y方向において同様の減算関数 Φ (X— 0, y)=D(x _0, y)-p (x_0, y) を求める。 そして、 これらの減算関数の絶対値 の(x=0 n-1, y=0, ... , η-1) における最大値 Max Φで正規化する (図 2 7
(d) ) 。
この時点におけるデータは X方向でみた場合、 ブロック境界である x=n-lと x= 0つまり x=nにおけるデ一夕がともに 0となり、 かつ全体が- 1から 0の区間に入る ようにされているため、 x=n-lの後に埋め込まれる補間デ一夕と x=nのデ一夕の 間の差は非常に小さくなる。 そのため、 ブロック接続における歪みを抑えるこ とが可能となる。
なお、 ここでは 〔数式 1 5〕 のような 1次式を使用したが、 一般に図 2 7の G点と H点における境界条件を満足するような関数であれば問題ないので、 変換 後の変動を抑えやすいような関数を P (x, y—0)に使用することでより歪みを 抑えることができるとともに、 拡大された周波数成分を精度よく推定すること ができる。
このように原画像デ一夕のブロック毎にブロック境界におけるデータレベル を 0に近づけることで、 直交変換上での補間で行われる拡大画像の推定時のゆ らぎを造るブロック境界の不連続性を低減することが可能となる。
(実施例 1 6 )
図 2 8に実施例 1 6による画像処理装置の構成を示す。
カラーの原画像の拡大画像を推定する際には、 1色の多階調データの拡大処 理よりも拡大処理が膨大となるという問題がある。 本実施例はその効率化に関 する発明である。
画像入力手段 1 0で入力されたカラ一原画像において、 基準とするカラー成 分を基準成分選択手段 2 8 0 0が選択する。 通常、 カラー原画像の構成はレツ ド、 グリーン、 ブルーの 2つのカラ一成分より構成されており、 輝度情報にグ リ一ンデータが大きく反映されることを考慮すると、 基準成分としてはダリ一 ン成分を選択するのが好ましい。 変換比率導出手段 2 8 0 1では、 このダリ一 ン成分に対するレッド成分の単純比率 ra t i o — rと、 グリーン成分に対するブ ル一成分の単純比率 rat i o—bとを求める。 この単純比率を求める方法として は多種多様なものがあるが、 ここでは、 〔数式 1 6〕 のように、 対象とする領 域内のレッドのグリーンに対する濃度の比率の平均値と対象とする領域内のブ ルーのグリーンに対する濃度の比率の平均値を用いることとする (
〔数式 1一一 6〕 ratio
ratio b y "
〔数式 1 6〕 で、 r — i j、 g_i j 、 b —i jはそれぞれ原画像における画素位 置(i, j )のレッド、 グリーン、 ブルー成分の濃度である。 このように 1つの比 率係数を使って拡大された残りの成分を全て推定するのではなく、 各画素にお けるグリーン成分に対するレツド成分の比率より構成されるマトリックス R― rとグリーン成分に対するブルー成分の単純比率より構成されるマトリックス R —bを採用することも可能である。 この場合、 1つの比率係数を使うよりも、 元のカラー原画像の特徴を再現することが可能となり、 より精度良くカラー画 像の拡大を行うことができる。
この基準成分であるグリーン成分に対して、 上記実施例 1 1から実施例 1 5 迄の画像処理装置と同様に、 拡大処理を基準画像直交変換手段 2 8 0 2、 基準 拡大周波数推定手段 2 2 0 3、 基準逆直交変換手段 2 8 0 4で行う。 そして、 不足成分拡大手段 2 2 0 5において、 基準逆直交変換手段 2 8 0 4の拡大され たグリーンデータに対し、 上記単純比率 ra t i o —r、 rat i o —bをかけることで、 残りのレッド、 ブルー成分における拡大データを作成する。 この 3つの拡大成 分を 1つに結合することで、 カラー原画像の拡大画像を得ることができ、 拡大 画像出力手段 1 2 1 4ではそれを C R T等に表示したり、 プリンタ等の出力装 置に渡したり、 他の画像処理装置で扱われるデ一夕と出力処理が行われる。 このような 1成分のみの直交変換を行う処理をとることで、 カラー原画像を 構成する複数成分おのおのに拡大処理をする手間が省け、 処理の簡単化をはか ることが可能となる。 (実施例 1 7 )
実施例 1 7から実施例 2 1迄は、 ウェーブレット変換を用いて画像の拡大を 行う画像処理装置について説明する。
図 2 9は実施例 1 7の画像処理装置の構成を表す。 画像入力手段 1 0は上記 実施例 1、 実施例 1 1等と同様である。 入力画像調整手段 1 2は、 画像入力手 段 1 0で得られた n 画素 X n 画素を持つ原画像の水平、 垂直画素数を所望の拡 大画像サイズ Ln画素 X Ln画素の 1 Z 2になるように補間又は間引き (以下まと めて 「調整」 という) する。 画像拡大手段 2 9 O Aは、 後述するウェーブレツ ト変換における多重解像度解析を利用した画像拡大を行う。 拡大画像調整手段 2 9 1 3は、 画像拡大手段 2 9 O Aで得られる、 入力画像調整手段 1 2で調整 された原画像の 4倍の画素数を持つ拡大画像を所望の拡大画像サイズである Ln 画素 X Ln画素に調整する。 拡大画像出力手段 1 2 1 4は拡大画像調整手段 2 9 1 3で推定された拡大後の画像データを表示したり他の装置等へ出力する。 上記画像拡大手段 2 9 O Aは、 入力画像調整手段 1 2で Ln/2画素 X Ln/2画素 に調整された原画像から垂直方向のエツジ成分画像を取り出す垂直エツジ生成 手段 2 9 0 0と、 水平方向のエッジ成分画像を取り出す水平エッジ生成手段 2 9 0 1と、 斜め方向のエッジ成分画像を取り出す斜めエッジ生成手段 2 9 0 2 とを備える。 更に、 上記画像拡大手段 2 9 O Aは、 上記 3つのエッジ成分画像 と、 入力画像調整手段 1 2で Ln/2画素 X Ln/2画素に調整された原画像を、 Ln画 素 X Ln画素の拡大画像にウェーブレツト変換を行った際の変換画像を構成する サブバンド成分の 4つと見なして、 逆ウェーブレツト変換により Ln画素 X Ln画 素の拡大画像を生成するレベルアップ手段 2 9 0 3とを備える。
以上のように構成された第 1の実施例である画像処理装置では、 ウェーブレ ット変換による多重解像度解析が画像拡大に利用されている。 ウエーブレット 変換は、 「ウエーブレット ビギナーズガイド」 (榊原 進著、 東京電機大学 出版局) 等の多くの文献に記載されており、 周波数解析の方法として開発され たものであり、 信号処理、 画像等のデータ圧縮をはじめとした多くの分野で応 用がなされている。
ウエーブレット変換を原画像に施し変換画像を得た場合、 それはいくつかの サブバンド (部分周波数帯域) 成分より構成されている。 図 3 1はウェーブレ ット変換画像のサブバンド成分の配置例を示す図であり、 原画像を、 LL3、 HL3、 LH3、 HH3、 HL2、 LH2、 HH2、 HL K LH1、 HL 1の 1 0のサブバンド成分に分割した 例を表す。
図 3 0は図 3 1に示すようなウェーブレツト変換をフィル夕系列で表現した 図であり、 垂直方向 (y方向) と水平方向 (X方向) へ各々独立にローパスフィ ル夕処理とともに 1 2にダウンサンプリング (間引き) する処理 Lowとハイ パスフィル夕処理とともに 1 Z 2にダウンサンプリングする処理 H i ghの、 I 、 Π、 ΠΙ段階の組み合わせで構成されている。
先ず、 原画像に水平方向に Hi ghと Lowが行われる。 そして水平方向に H i ghの 処理をした際の出力に対し、 垂直方向に Hi gh処理を行った結果が HH1成分であ り、 垂直方向に Lowフィルタ処理した結果が HL 1成分となる。 次に、 水平方向に Lowのフィル夕処理をした際の出力に対し、 垂直方向に Lowフィルタ処理をした 結果が LL 1であり、 垂直方向に Hi ghのフィル夕処理を施した結果が LH1成分とな る。 ここまでが 1度目のウェーブレット変換で得られる結果である。
更に、 LL 1成分に対し、 水平方向に Lowフィルタ処理と Hi ghフィルタ処理が行 われ、 水平方向に Hi ghの処理をした際の出力に対し垂直方向に H i ghフィル夕処 理をした結果が HH2であり、 垂直方向に Lowフィルタ処理をした結果が HL2であ る。 また、 水平方向に Lowのフィル夕処理をした際の出力に対し、 垂直方向に L owフィルタ処理をした結果が LL2であり、 垂直方向に H i ghのフィルタ処理を施 した結果が LH2成分となる。 ここまでが 2度目のウェーブレツト変換で得られる 結果である。
LL2成分に対しても同様に水平方向への Lowフィル夕処理と Hi ghフィルタ処理 を個別に行い、 垂直方向に対しても Lowフィル夕処理と Hi ghフィル夕処理を個 別に施すことで、 HH3、 HL3、 LH3、 LL3のサブバンド成分が得られ、 3度目のゥ エーブレット変換が行われたこととなる。
このように、 原画像に対する第 1段階のウェーブレット変換により、 LL 1、 H L l、 LH1、 HHlの 4つの周波数成分に分解され、 水平方向及び垂直方向ともに 1 / 2のダウンサンプリングが行われるため、 各成分を表す画像の大きさは原画 像の 1 / 4になる。 LL 1は原画像における低周波成分を抽出したもので、 原画 像のぼやけた画像であるが、 原画像の大部分の情報はここに含まれる。 そのた め、 次の第 2段階のウェーブレット変換では、 この LL 1が対象とされる。
一方、 HL 1成分は図 3 0におけるフィル夕処理により、 原画像において水平 方向における高周波成分を強く抽出した画像を表すこととなり、 LH1は原画像 において垂直方向における高周波成分を強く抽出した画像を表すこととなる。 そして、 HH1は水平方向、 垂直方向ともに高周波な成分を抽出した画像となり 言い換えれば斜め方向における高周波成分を抽出した画像と考えることもでき る。
これは濃度値から考えると、 HL 1成分は原画像において水平方向に対して濃 度値の変動の大きな領域 (垂直方向を向くエッジ情報) を強く反映している。 一方、 LH1は原画像において垂直方向に対して濃度値の変動の大きな領域 (水 平方向を向くエッジ情報) を強く反映しており、 HH1は水平方向、 垂直方向と もに濃度値の変動の大きい領域 (斜め方向を向くエッジ情報) を大きく反映し ていると考えれられるのである。
以上のようなウェーブレツ卜変換による特徴は、 LL 1を対象とした第 2段階 目のウェーブレット変換で得られた LL2、 HL2 , LH2、 HH2の成分に関しても言え ることであり、 同様に LL2を対象画像としたウェーブレツト変換の成分につい ても成立する。 このようにウェーブレット変換は、 1段階前のサブバンド成分 画像において低周波成分を抽出した LL画像を、 低周波成分、 垂直、 水平、 斜め 方向の周波数成分に相当する 4枚の 1 / 4の解像度画像に分解することととら えることができる。
そして、 これらのサブバンド成分画像をフィル夕処理により合成することで 1つ前の段階の画像を復元することができる。 図 3 1で考えると、 4つのサブ バンド成分画像 LL3、 HL3、 LH3、 HH3を合成することで LL2が復元され、 LL2、 HL 2、 LH2、 HH2を合成することで LL 1が復元される。 そして、 LL 1、 HL K LHK HH1 を使うことで、 原画像を復元することができる。
このようにウエーブレット変換では、 解像度の異なる複数のサブバンド成分 画像を同時に表現できるため、 多重解像度解析とも呼ばれ、 各々のサブバンド 成分を圧縮することで効率の良いデータ圧縮が行えるとして注目されている。 本実施例では、 先ず、 原画像を 1つ前の段階における低周波サブバンド成分 LL 1と見なす。 次に、 残りの水平方向における高周波成分を強く抽出した画像 H L l、 垂直方向における高周波成分を強く抽出した画像 LH1、 そして水平方向、 垂直方向ともに高周波な成分を抽出した画像 HH1を推定して、 2倍の拡大画像 を得る。 そして、 この処理を原画像を所望の画像サイズに拡大することに適用 したものである。
以上のことを踏まえて, 本実施例の画像処理装置の動作について説明する。 先ず、 最初に画像入力手段 1 0において、 拡大すべき n画素 X n画素のサイズ を持つ原画像の読み取りが行われる。
上記画像入力手段 1 0で得られた原画像は入力画像調整手段 1 2において、 画像サイズの調整を受ける。 これは、 ウェーブレット変換における多重解像度 解析で述べたように、 変換の対象画像を 1度ウェーブレット変換する場合、 変 換後のサブバンド成分は常に変換前の水平画素数、 垂直画素数ともに 1 Z 2サ ィズとなる。 逆に、 逆ウェーブレット変換により得られる画素サイズはその処 理を行う際のサブバンド成分の水平画素数、 垂直画素数ともに 2倍、 つまり 4 倍の画素数を持つこととなる。
以上のような性質より、 逆ウエーブレツト変換で得られる拡大画素の水平、 垂直画素数は 2の倍数であることが望ましい。 そこで、 入力画像調整手段 1 2 では、 まず所望の拡大画像サイズである Ln画素 X Ln画素 (即ち拡大率が Lであ る) を 2の倍数である dLn画素 x dLn画素になるように調整するとともに、 原画 像を dLn/2画素 X dLn/2画素になるように調整する。 この際、 調整方法としてい ろいろな手法が挙げられるが、 ここでは画素間に 〔数式 1〕 を使って補間する 力、、 画素変動の少ない領域上の画素を間引くことで実現するものとする。 ここで、 原画像を DCT変換等の直交変換により周波数領域に変換し、 dLn/2画 素 X dLn/2画素に対応する周波数成分を取り出したり、 不足する高周波成分を " 0 " で埋め、 それを dLn/2画素 x dLn/2画素に対応する逆直交変換で調整する 方法でも可能である。 しかし、 処理の効率化とこの後、 さらにウエーブレット 変換による方式で拡大することを考えれ合わせると、 ここでの複雑な処理はあ まり効率が良いとは思えないので、 単純な画素補間もしくは間引きを採用する こととした。
画像拡大手段 2 9 O Aでは、 入力画像調整手段 1 2で dLn/2画素 X dLn/2画素 に調整された原画像を水平、 垂直方向ともに 2倍に拡大することで所望の Ln画 素 X Ln画素に近い画像サイズまで拡大することを行う。 この際に、 上述のゥェ 一ブレット変換における多重解像度解析を利用するのである。 従来の、 直交変 換を行い、 周波数領域で不足分を補う方法では、 処理時間とともに、 複数プロ ックへ分割することでブロックのつなぎ目でジャギー状のノィズが発生するこ とが問題であった。 しかし、 ウエーブレット変換では 1度に大きな画像を扱う ことができるのでこのようなノイズは発生しないというメリットを持つ。 また、 上記画像拡大手段 2 9 O Aでは、 図 3 1におけるサブバンド成分 LL 1 として dLn/2画素 X dLn/2画素に調整した画像と見なした場合、 残りの 3つのサ ド成分 HL 1、 LH1、 HH1に相当する dLn/2画素 X dLn/2画素の画像を推定す る必要がある。
図 3 2はその様子を模式的に表したものであるが、 ここではサブバンド成分 HL K LH1 , HH1の 3つの画像を LUの 3方向におけるエッジ画像と見なす方式を 取る。 前述したように、 HL 1成分は dLn/2画素 X dLn/2画素に調整された原画像 (図 3 2 ( a ) ) の 4倍の画素数を持つ拡大画像 (LL0とする) において水平 方向における高周波成分を強く抽出した画像を表すこととなり、 サブバンド成 分 LH1はサブバンド成分 LL0において垂直方向における高周波成分を強く抽出し た画像を表すこととなる。 そして、 サブバンド成分 HH1は水平方向、 垂直方向 ともに高周波な成分を抽出した画像となる。 つまり、 サブバンド成分 HL 1はサ ブバンド成分 LL0の画像において、 水平方向における高い周波数成分を表す部 分、 つまり垂直方向におけるエッジ情報 (図 3 2 ( b ) ) を反映するものとし て考えられる。 一方、 サブバンド成分 LH1はサブバンド成分 LL0の画像において、 垂直方向における高い周波数成分を表す部分、 つまり水平方向におけるエッジ 情報 (図 3 2 ( c ) ) を反映するものとして考えられる。 そして、 サブバンド 成分 HH1は、 サブバンド成分 LL0の画像において、 垂直方向にも水平方向にも高 い周波数成分を表す部分、 つまり斜め方向におけるエッジ情報 (図 3 2
( d ) ) を反映するものとして考えられる。
よって、 本実施例では、 図 2 9に示すような構成のエッジ生成手段 2 9 0 B を設け、 垂直エッジ生成手段 2 9 0 0で、 入力画像調整手段 1 2で調整された dLn/2画素 X dLn/2画素に調整された原画像の垂直方向におけるエツジ成分を抽 出し、 不足している HL 1成分と見なす。 また、 水平エッジ生成手段 2 9 0 1で は、 入力画像調整手段 1 2で調整された dLn/2画素 x dLn/2画素に調整された原 画像の水平方向におけるエッジ成分を抽出し、 不足している LH 1成分と見なす t 同様に斜めエッジ生成手段 2 9 0 2では、 入力画像調整手段 1 2で調整された dLn/2画素 X dLn/2画素に調整された原画像の斜め方向におけるェッジ成分を抽 出し、 不足している HH1成分と見なす。
この際、 上記各エッジ生成手段 2 9 0 0, 2 9 0 1, 2 9 0 2にはそれぞれ、 図 3 3に示すような 3つの方向を検出するためのエツジ検出フィルタを使うこ ととする。 即ち、 図 3 3 (a) に示す例は、 水平方向に重み付けが大きくなる フィルタを使用して水平方向のエッジを検出し、 図 3 3 ( b ) に示す例は、 垂 直方向に重み付けが大きくなるフィル夕を使用して垂直水平方向のエッジを検 出し、 図 3 3 ( c ) に示す例は、 斜め方向に重み付けが大きくなるフィル夕を 使用して斜め方向のエッジを検出する。 なお、 このフィルタは一義的に決まる ものでなく、 これら以外にも可能である。
レベルアップ手段 2 9 0 3では、 以上のように推定された 4つのサブバンド 成分に逆ウェーブレツト変換を行うことで、 dLn画素 X dLn画素のサイズを持つ 鮮明な拡大画像を獲得する。 なお、 この際、 ウェーブレット変換は図 3 0のよ うにフィルタ系列処理で表せるため、 ここでの処理もこの逆を行うフィルタ系 列処理であっても構わない。
上記画像拡大手段 2 9 O Aで得られた拡大画像は、 そのサイズが所望の画像サ ィ
ズ Ln画素 X Ln画素が 2の倍数でない場合 (Ln/ 2の値が整数でない場合) 、 微 妙にずれを生じる。 そこで拡大画像調整手段 2 9 1 3では、 その微妙なずれを 補うように画素補間または間引きを行うのである。 ここで行われる処理は、 高々 1画素であるので画像において変化の小さい部分 (階調変化が少なくエツ ジ付近以外) で処理することでその影響は小さい。
拡大画像調整手段 2 9 1 3を経て得られた拡大画像は拡大画像出力手段 1 4 で C R Tに表示されたり、 他の装置へ渡される。
以上のように、 本実施例によれば、 単純に原画像での画素間を補間したり、 従来装置のように周波数領域で不足分な周波数成分を " 0 " 等で埋めるなどし た際に生じるエッジボケを低減できる。 また、 直交変換方法で問題とされてい たジャギー等のノイズを発生させることがなく鮮明な拡大画像が実現できる。 また予めルール等を作成することなく手軽に拡大画像を推定することも可能と なる。 (実施例 1 8 )
図 3 4は本発明の実施例 1 8の画像処理装置における画像拡大手段 2 9 0 A の構成を示すブロック図であり、 以下、 この画像処理装置の動作について説明 する。
上記実施例 1 7と同様に、 画像入力手段 1 0で得られた原画像は、 入力画像 調整手段 1 2で所望の拡大画素サイズ Ln画素 X Ln画素を水平、 垂直画素数とも に 2の倍数である dLn画素 X dLn画素に調整され、 その垂直、 水平ともに 1ノ 2 のサイズである dLn/2画素 X dLn/2画素に原画像が調整される。
入力微調整手段 7 0 0では、 入力画像調整手段 1 2の結果を受けて dLn/2画 素 X dLn/2画素に調整された原画像から、 レベルダウン手段 7 0 1でさらに 1 レベル下のサブバンド成分を得るために、 dLn/2画素 x dLn/2画素を 2の倍数に なるように 1画素調整して ddLn画素 X ddLn画素に微調整を行う。 そしてレベル ダウン手段 7 0 1では、 入力微調整手段 7 0 0で得られた ddLn画素 X ddLn画素 の原画像を対象としてウェーブレツト変換を行い、 この 1 / 4の画像サイズを 持つ 4つのサブバンド成分 LL2、 HL2、 LH2, HH2を生成する。
図 3 5は画像拡大手段 2 9 0 Aにおける処理の概要を模式的に表している。 上記実施例 1 7の場合、 現対象画像 LL 1の垂直方向のエッジ画像、 水平方向の ェッジ画像、 斜め方向のエツジ画像を現対象画像の 4倍に拡大した画像 LL0の ウエーブレット変換画像において不足していたサブバンド成分 HL 1、 LH1、 HH 1 と見なしていたが、 図 3 0のフィル夕処理では厳密にはこれは成立しない。 例えば、 サブバンド成分 LL0からサブバンド成分 HL 1 をフィル夕処理で求め る場合、 図 3 0のフィル夕処理から水平方向における高周波成分データと垂直 方向における低周波成分データが HL 1成分として抽出されている。 このことよ り HL 1成分には、 水平方向において値変動の大きな画素部分 (垂直方向にのび たエッジ部分等) と、 垂直方向において値変動の少ない画素部分が抽出される 上記実施例 1 7では、 この内の水平方向において値変動の大きな画素部分、 つ まり垂直方向にのびたエッジ部分による影響が大きいと考え、 この垂直方向に おけるエッジ情報のみを HL 1成分と見なした。 しかし、 扱う画像によっては垂 直方向において値変動の少ない画素部分の影響を無視できない場合がある。 ま た、 垂直方向におけるエッジ情報には水平方向において値変動の大きな画素部 分を多く含むが、 厳密には一致しない。 このようなことは、 他のサブバンド成 分 LH1、 HH1についても言える。
以上のことから本実施例では、 現在の対象画像を 1度ウェーブレツト変換し てレベルを 1つ下げることでサブバンド成分 LL2、 HL2、 LH2、 HH2を作成し、 そ のサブバンド成分における低周波域成分 LL2の 3方向におけるエッジ画像 HLe、 LHe、 HHeと実際の 3つのサブバンド成分 HL2、 LH2、 HH2の間の相関より、 元々 の対象画像の 3つのエッジ画像から対応するサブバンド成分を推定するための 補正量 dHし dLH、 dHHを求めることとした。
先ず、 図 3 4に示すような構成の参照成分推定手段 7 0 A、 補正推定手段 7 0 B、 成分推定手段 7 0 Cを設ける。 そして参照 H L成分生成手段 7 0 2では、 このサブバンド成分 LL2、 HL2、 LH2、 HH2の内の低周波域にあり原画像をもっと も表している LL2成分に注目して、 図 3 3 ( b ) のようなフィル夕により垂直 方向のエッジ情報を検出する。 これを参照 H L成分 HLeとする。 H L補正推定 手段 7 0 5においては、 この参照 H L成分 HLeと, 上記レベルダウン手段 7 0 1で得られた HL2の間の相関を調べるのである。
その方法としては様々考えられるが、 ここでは、 図 3 5 ( c ) のように参照 H L成分 HLeと実際の H L成分 HL2の間の差分画像 dHL = HLe - HL2を求めるこ ととする。 参照 L H成分生成手段 7 0 3、 参照 H H成分生成手段 7 0 4でも同 様に参照 L H成分 LHeして LL2成分の水平方向のェッジ情報を、 参照 H H成分 HH eとして LL2成分の斜め方向のエッジ情報を選び、 LH補正推定手段 706にお いて、 この参照 LH成分 LHeと実際の LH成分 LH2の間の差分画像 dLH = LHe - LH2を求め、 HH補正推定手段 707において、 この参照 HH成分 HHeと実際の HH成分 HH2の間の差分画像 dHH = HHe ― HH2を求める。
そして、 HL成分推定手段 708、 LH成分推定手段 709、 HH成分推定 手段 7 1 0では、 上記実施例 1 7と同様に、 上記 HL1、 LHK HH1に対応する補 正成分 dHL、 dLH、 dHHを加算することで、 入力微調整手段 700で ddLn画素 X d dLn画素に調整された原画像をサブバンド成分 LL1と見なした際の HL1、 LHK HH 1成分を推定する。 上記 HL成分推定手段 708、 LH成分推定手段 709、 HH成分推定手段 7 1 0においては、 上記補正成分 dHL、 dLH、 dHHを使用する 際、 各補正画像の画素サイズが ddLn画素 X ddLn画素になるように、 〔数式 1〕 に従い各画素間を補間することで調整した。 しかし、 これは一義的ではなくこ れ以外にも従来の周波数変換された領域で不足成分に 0を埋めることで水平、 垂直方向ともに 2倍の画素サイズに拡大する方法等も適用可能である。
ただし、 処理の効率化と、 このサブバンド成分を使って逆ウェーブレット変 換により拡大処理を行うことを考慮に入れた場合、 単純に画素補間しても、 最 終的に得られた拡大画像の画質に与える影響は小さい。 従ってここでは HL成 分推定手段 708、 LH成分推定手段 709、 HH成分推定手段 7 1 0は、 〔数式 1〕 のような線形補間による方式を採ることとする。
レベルアップ手段 2903以降の処理は上記実施例 1 7と同様である。 なお上記 HL成分推定手段 708、 LH成分推定手段 709、 HH成分推定 手段 7 1 0の行う推定処理としては、 上記のような参照成分と実際の成分間の 差分成分の加算以外にも
(1) HL補正推定手段 70 5、 LH補正推定手段 7 06、 HH補正推定手段 707で得られた補正量にある変換係数マトリクスを乗算した結果を、 それぞ れ、 垂直エッジ生成手段 2900、 水平エッジ生成手段 290 1、 斜めエッジ 生成手段 2902の成分値に加える
(2) HL補正推定手段 70 5、 LH補正推定手段 706、 HH補正推定手段 707で得られた補正量を変換関数により変換した結果を、 それぞれ、 垂直ェ ッジ生成手段 2900、 水平エッジ生成手段 290 1、 斜めエッジ生成手段 2 902結果に加える
(3) HL補正推定手段 70 5、 LH補正推定手段 706、 HH補正推定手段 707、 並びに、 垂直エッジ生成手段 2900、 水平エッジ生成手段 2 90 1. 斜めエッジ生成手段 2902の結果を入力して HL、 LH、 HHの推定値を出 力するように学習されたニューラルネットワークモデルを使う
(4) HL補正推定手段 70 5、 LH補正推定手段 706、 HH補正推定手段 707、 並びに、 垂直エッジ生成手段 2900、 水平エッジ生成手段 290 斜めエッジ生成手段 2902の結果をを入力して、 予め用意されたた大量のデ 一夕ベースやルールベースから HL、 LH、 HH成分を推定する
等の方法を用いることも十分可能である。
以上のようにすることで、 上記実施例 1 7において単純に調整された原画像 の 3方向のエッジ検出を行っただけでは取り出すことのできなかった、 ゥエー ブレツト変換画像における不足サブバンド成分、 特に高周波成分をより精度よ く推定することができ、 画像のぼけを減少させることができる。 また、 ゥエー ブレツト変換を用いることで、 直交変換のようなブロック分割の必要がなく、 従来の直交変換による方法で問題とされていたブロック歪みは発生しない。
(実施例 1 9 )
図 36は本発明の実施例 1 9の画像処理装置における画像拡大手段 290 A の構成を示すブロック図であり、 以下、 この画像処理装置の動作について説明 する。 画像入力手段 1 0、 入力画像調整手段 1 2における処理は上記実施例 1 7と 同様であり、 入力微調整手段 700における処理も上記実施例 1 8と同様であ る。
参照成分生成手段 360 1では、 レベルダウン手段 70 1で得られたサブバ ンド成分画像において、 低周波域にある LL2より、 HL成分推定手段 708、 LH成分推定手段 709、 HH成分推定手段 7 1 0における推定に使用される 各補正量を求めるための参照成分を求める。 ここでは、 LL2に図 1 8 (a)
(b) のようなラプラシアンフィルタを用いることで、 LL2の平均的なエッジ 画像を参照成分画像と見なす。 ラプラシアンフィル夕は、 図 33のように特定 方向のエッジを検出するのではなく、 方向性にとらわれにくいエッジを検出す る方法としてよく使用される。
本実施例では、 これを参照成分画像として、 上記実施例 1 8で行ったような 補正量を求める。 こうすることで、 上記実施例 1 8で問題とされていた頻繁な エッジ検出処理を減らすことができ、 処理の効率化につながる。
上記 HL補正推定手段 70 5、 LH補正推定手段 7 06、 HH補正推定手段 707では、 実施例 1 8と同様に、 参照成分生成手段 360 1で得られたエツ ジ画像と 70 1で得られた HL2、 LH2、 HH2とのそれぞれの差分画像 dHL2、 dLH2, dHH2を求め (図 3 5 (c) 参照) 、 〔数式 1〕 のような線形近似により各差分 画像を ddLn画素 X ddLn画素を持つ画像に調整する。
一方、 エッジ生成手段 3600では入力画像調整手段 1 2で調整された ddLn 画素 X ddLn画素の原画像よりラプラシアンフィル夕によるエツジ画像を検出し , HL成分推定手段 708、 LH成分推定手段 709、 HH成分推定手段 7 1 0 において、 上記 HL補正推定手段 70 5、 LH補正推定手段 706、 HH補正 推定手段 707での補正画像を加えることで各サブバンド成分 HL1、 LHK HH1 を精度良く推定するのである。
こうすることで、 (2XddLn)画素 X (2XddLn)画素の拡大画像を鮮明に推定で き、 これに数画素の補間や間引きを加えることで所望の Ln画素 X Ln画素を持つ 拡大画像を精度良く得ることができる。
なお、 上記実施例 1 8で説明したように、 上記 H L成分推定手段 7 0 8 、 L H成分推定手段 7 0 9、 H H成分推定手段 7 1 0における推定方法としては、 これ以外にも上記 H L補正推定手段 7 0 5、 L H補正推定手段 7 0 6、 H H補 正推定手段 7 0 7の補正量にある変換係数マトリクスを乗算した結果や変換関 数により変換された結果を使用することも可能である。
(実施例 2 0 )
図 3 7は実施例 2 0の画像処理装置の構成を表す。
本実施例の主旨は、 予め拡大する画素数がわかっておらず、 原画像を元にゥ エーブレット変換による多重解像度解析に従い、 水平、 垂直方向ともに 2倍し ながら拡大画像を生成し、 それをユーザに提示することで適切な拡大画像が得 られたかどうかを判定してもらうことにある。
画像入力手段 1 0で入力された n画素 X n画素の原画像は、 まず拡大処理初期 化手段 3 7 0 0で拡大対象画像として設定される。 次に、 対象画像拡大手段 3 7 0 1では、 上記 n画素 X n画素の原画像を水平、 垂直方向ともに 2倍、 つまり 4倍の画像サイズに拡大する。 この拡大処理は、 上記実施例 1 7、 1 8及び 1 9の画像処理装置で説明した画像拡大手段を適用することで、 つねに対象画像 の 4倍の画素を持つサイズに拡大することができる。
拡大画像提示手段 1 3 0 2は上記対象画像拡大手段 3 7 0 1で得られた現在 の拡大画像をユーザに C R T等を通して提示する。 もし C R T等の解像度を越 えた場合には、 カーソル等で視点を動かせるようできる機能や、 特定部分を切 り出す機能を持たせることで、 よりユーザによる現在の拡大画像の適正さを判 断するための助けとなる。
多重処理終了判定手段 3 7 0 3では、 そのユーザからの指示結果を受け、 適 切である場合には次の画像微調整手段 3 7 0 4へ処理が移り、 適切でない旨の 指示を受けた場合には、 この拡大画像を次の対象画像に設定して対象画像拡大 手段 3 7 0 1へ処理が戻る。
画像微調整手段 3 7 0 4では、 ユーザに微調整が必要かどうかの確認をする ; これは、 画像拡大にウェーブレツト変換による多重解像度解析を利用している ため、 常に拡大前の 4倍の画像サイズでしか生成できない。 そのため、 ユーザ が見た場合、 やはり前の画像では小さいが、 これでは C R Tに一度で描画でき ず大きすぎると思われる場合が生じるかもしれない。 そこで画像微調整手段 3 7 0 4では、 再度ユーザにこの画像をいくらか調整するかの確認をとり、 すこ し大きくする場合には画素補間を行う。 一方、 すこし小さくする場合には、 画 素の間引きを行うことで再度画像サイズの調整を行うのである。
なお、 この画素補間を行う場合には、 エッジ以外の濃度値の変動の小さい頜 域を選んで行うようにする。 間引きについても同様である。
ここで、 上述の補間や間引きに代えて、 周波数領域に変換し、 そこで不足成 分の付加や余剰成分を高周波より取り出す手法を取ることも可能であり、 処理 時間や処理を行う C P U能力等に合わせて適切な方法を取ることが考えられる 拡大画像出力手段 1 2 1 4は画像微調整手段 3 7 0 4で得られた拡大画像を C R T等に表示したり、 プリンタで出力したり、 または他の装置へデータとし て渡すなどして出力処理を行う。
以上のように、 本実施例によれば、 得られた精細な拡大画像をユーザに提示 してサイズゃ解像度が適切かどうかの判断をしてもらい、 それが得られた時点 で一連の拡大作業の中止を指示すればよいため、 予め拡大画像の拡大率を決め る必要はなく、 ユーザの好むサイズに簡便に拡大させることが可能となる。
(実施例 2 1 )
最後に本発明の実施例 2 1の画像処理装置について説明する。 本実施例は上 記実施例 1 6と同様、 カラーの原画像の拡大画像を推定する際の効率化に関係 する発明である。
図 3 8は本実施例の画像処理装置の構成を示すブロック図であり、 以下、 こ の画像処理装置の動作について説明する。
先ず、 画像入力手段 1 0で入力されたカラ一原画像から、 基本カラ一成分と してグリーン成分を基本成分選択手段 2 8 0 0が選択し、 変換比率導出手段 2 8 0 1がこのグリーン成分に対するレツド成分、 ブルー成分のの単純比率 ra t i 0— r、 rat i o —bを求める処理は上記実施例 1 6と同様であるので説明を省略 する。
次に、 この基本カラー成分であるグリーン成分に対して、 本発明の実施例 1 7、 1 8及び 1 9の画像処理装置と同様に、 拡大処理を基本成分画像調整手段 3 8 0 2及び基本画像拡大手段 3 8 0 3で行う。 そして、 得られた基本カラー 成分の拡大画像を基本拡大画像調整手段 1 5 0 4で所望の画像サイズ Ln画素 X Ln画素になるように、 画素補間または間引きをして調整する。 更に、 不足成分 拡大手段 3 8 0 5において、 拡大された上記グリーン成分に上記単純比率 ra t i 0 — r、 ra t i o —bを乗算することで、 残りのレッド、 ブル一成分における拡大 データを作成する。
この 3つの拡大成分を拡大カラー画像再構成手段 3 8 0 6が 1つに結合する ことで、 カラー原画像の拡大画像を得ることができ、 拡大画像出力手段 1 2 1 4ではそれを C R T等に表示したり、 プリン夕等の出力装置に渡したり、 他の 画像処理装置で扱われるデ一夕と出力処理が行われる。
このような処理をとることで、 カラー原画像を構成する複数成分 1つ 1つを 拡大処理をする必要がなくなり処理の簡単化、 高速化をはかることが可能とな る。

Claims

請求の範囲
1 . 画像入力手段より入力された画像データを加工する画像処理装置におい て、
上記画像データに直交変換を施して原画像周波数成分を生成する原画像直交 変換手段と、
上記原画像周波数成分より、 低周波成分を抽出する低成分抽出手段と、 上記低周波成分と、 上記原画像周波数成分の残りの高周波成分との関連情報 を求め、 これを符号化する高成分符号化手段と、
上記低周波成分と上記関連情報とを合成し、 簡易画像データを生成する符号 合成手段とを備えることを特徴とする、 画像処理装置。
2 . 上記低周波成分のデータ量を圧縮する低成分圧縮手段と、
該低成分圧縮手段により圧縮された低周波成分と上記関連情報とを合成し、 簡易画像データを生成する上記符号合成手段とを備える、 請求項 1に記載の画 像処理装置。
3 . 上記簡易画像データを記憶する記憶媒体を備える、 請求項 1に記載の画 像処理装置。
4 . 予め指定された縮小サイズに応じた上記低周波成分に、 逆直交変換を施 すことで縮小画像を生成する縮小画像生成手段と、
該縮小画像を表示する縮小画像表示手段とを備える、 請求項 1に記載の画像 処理装置。
5 . 原画像に直交変換を施して得られる原画像周波数成分より抽出された低 周波成分、 及び、 該低周波成分と残りの高周波成分との関連情報とを合成して 得られる簡易画像データより、 該低周波成分を取り出す低成分復号手段と、 上記簡易画像データより上記関連情報を取り出し、 上記低周波成分に基づい て高周波成分を復号する高成分復号手段と、
上記低周波成分と上記高周波成分とを結合し、 逆直交変換を施して原画像を 復元し、 出力する原画像出力手段とを備えることを特徴とする、 画像処理装置
6 . 上記簡易画像データを記憶媒体より取り出す、 請求項 5に記載の画像処 理装置。
7 . 画像入力手段より入力された画像データを加工する画像処理装置におい て、
上記画像データに直交変換を施して原画像周波数成分を生成する原画像直交 変換手段と、
上記原画像周波数成分より、 原画像を所望の拡大率に応じて拡大した際の周 波数成分を推定する不足成分推定手段と、
上記原画像周波数成分と、 推定された上記周波数成分とから、 予めサイズを 指定された基本画像を復元するのに必要となる周波数成分を基本成分として抽 出する基本成分抽出手段と、
上記基本成分と推定された上記周波数成分との関連情報を求め、 これを符号 化する多重画像符号化手段と、
上記基本成分と上記関連情報とを合成し、 多重簡易画像データを生成する多 重符号合成手段とを備えることを特徴とする、 画像処理装置。
8 . 上記基本成分のデータ量を圧縮する基本成分圧縮手段と、
該基本成分圧縮手段により圧縮された基本成分と上記関連情報とを合成し、 簡 易画像データを生成する符号合成手段とを備える、 請求項 7に記載の画像処理
9 . 上記多重簡易画像データを記憶する記憶手段を備える、 請求項 7に記載 の画像処理装置。
1 0 . 上記基本成分に逆直交変換を施すことで基本画像を生成する基本画像 生成手段と、 該基本画像を表示する基本画像表示手段とを備える、 請求項 7に記載の画像 処理装置。
1 1 . 複数の拡大サイズの画像の周波数成分より、 予めサイズを指定された 基本画像を復元するために抽出された基本成分及び、 該基本成分と拡大画像の 残りの高周波成分との関連情報を基に生成した多重簡易画像デ一夕から、 該基 本成分を取り出す基本成分復号手段と、
上記多重簡易画像データから上記基本成分と所望のサイズの拡大画像の高周 波成分との関連情報とを取り出し、 上記基本成分に基づいて上記高周波成分を 復号する対象周波数復号手段と、
上記基本成分と上記高周波成分とを結合し、 逆直交変換を施して上記所望の サイズの拡大画像を復元し、 出力する対象画像出力手段とを備えることを特徴 とする、 画像処理装置。
1 2 . 上記多重簡易画像データを記憶媒体より取り出す、 請求項 1 1に記載 の画像処理装置。
1 3 . ユーザからの指示信号に基づいて上記記憶媒体よりの取り出しを開始 する、 請求項 1 2に記載の画像処理装置。
1 4 . 画像入力手段より入力された画像データを加工する画像処理装置にお いて、
上記画像データを所望の拡大率に応じて画素補間する画素補間手段と、 上記画素補間手段で得られた補間拡大画像の畳み込み処理を行う畳み込み手 段と、
K 回目の畳み込み処理で得られた拡大画像と、 K- 1 回目の畳み込み処理で得 られた拡大画像とにおける畳み込み値の平均値の差に基づいて、 予め設定され た収束条件を満足するか否かの判定を行う収束判定手段と、
上記収束判定手段で収束判定がなされた場合には、 上記 K 回目の畳み込み処 理で得られた拡大画像を出力する拡大画像出力手段とを備えることを特徴とす る、 画像処理装置。
1 5 . 特定の画像の周波数成分より低周波成分を抽出する低成分抽出処理と. 上記低周波成分と残りの高周波成分との関連情報を求める高成分符号化処理 と、
上記低周波成分と上記関連情報とを合成して簡易画像データを生成する簡易 画像合成処理とを備えることを特徴とする、 画像処理方法。
1 6 . 特定の画像の周波数成分より低周波成分を抽出する低成分抽出処理と、 上記低周波成分と残りの高周波成分との関連情報を求める高成分符号化処理 と、
上記低周波成分と上記関連情報とを合成して簡易画像データを生成する合成 処理と、
上記簡易画像データより上記低周波成分及び上記関連情報を復号する復号処 理と、
複合された上記低周波成分及び上記関連情報を結合し、 逆直交変換を施すこ とで上記特定の画像を出力する画像出力処理とを備えることを特徴とする、 画 像処理方法。
1 7 . 特定サイズの画像と該特定サイズの画像を拡大した拡大画像の周波数 成分より、 各サイズの画像に共通と見做せる低周波成分を基本成分として抽出 する基本成分抽出処理と、
上記基本成分と各拡大画像の残りの高周波成分についての関連情報を求める 多重画像符号化処理と、
上記基本成分と上記関連情報とを合成して多重簡易画像データを生成する多 重簡易画像合成処理とを備えることを特徴とする、 画像処理方法。
1 8 . 特定サイズの画像と該特定サイズの画像を拡大した複数の拡大画像の 周波数成分より、 各サイズの画像に共通と見做せる低周波成分を基本成分とし て抽出する基本成分抽出処理と 上記基本成分と各拡大画像の残りの高周波成分についての関連情報を求める 多重符号化処理と、
上記基本成分と上記関連情報とを合成することによって得られた多重簡易画 像デ一夕より、 上記基本成分と上記関連情報とを復号する対象周波数復号処理 と、
複合された上記基本成分と上記関連情報とを結合し、 逆直交変換を施すこと で上記特定の画像を所望のサイズに拡大して出力する画像出力処理とを備える ことを特徴とする、 画像処理方法。
1 9 . 特定の画像の周波数成分より低周波成分を抽出し、 該低周波成分と残 りの高周波成分との関連情報を求め、 上記低周波成分と上記関連情報とを合成 して簡易画像データを生成するプログラムが記録された、 記録媒体。
2 0 . 特定の画像の周波数成分より低周波成分を抽出し、 上記低周波成分と 残りの高周波成分との関連情報を求め、 上記低周波成分と上記関連情報とを合 成して簡易画像データを生成するとともに、 該簡易画像データより上記低周波 成分及び上記関連情報を復号して、 複合された上記低周波成分及び上記関連情 報を結合し、 逆直交変換を施すことで上記特定の画像を出力するプログラムが 記録された、 記録媒体。
2 1 . 特定サイズの画像と該特定サイズの画像を拡大した拡大画像の周波数 成分より、 各サイズの画像に共通と見做せる低周波成分を基本成分として抽出 し、 該基本成分と各拡大画像の残りの高周波成分についての関連情報を求め、 上記基本成分と該関連情報とを合成して多重簡易画像デー夕を生成するプログ ラムが記録された、 記録媒体。
2 2 . 特定サイズの画像と該特定サイズの画像を拡大した複数の拡大画像の 周波数成分より、 各サイズの画像に共通と見做せる低周波成分を基本成分とし て抽出し、 上記基本成分と各拡大画像の残りの高周波成分についての関連情報 を求め、 上記基本成分と該関連情報とを合成することによって得られた多重簡 易画像データより、 上記基本成分と上記関連情報とを復号するとともに、 複合 された上記基本成分と上記関連情報とを結合し、 逆直交変換を施すことで上記 特定の画像を所望のサイズに拡大して出力するプログラムが記録された、 記録 媒体。
2 3 . 特定の画像データを所望の拡大サイズに拡大して拡大画像を得る画像 処理装置において、
上記特定の画像データに直交変換を施して原画像周波数成分を生成する原画 像直交変換手段と、
上記原画像周波数成分に対し、 非線形補間を行って上記拡大画像の周波数成 分を推定する拡大周波数推定手段と、
推定された上記拡大画像の周波数成分に、 上記拡大サイズに対応する逆直交 変換を施して拡大画像信号を得る逆直交変換手段とを備えることを特徴とする 画像処理装置。
2 4 . 特定の画像データを所望の拡大サイズに拡大して拡大画像を得る画像 処理装置において、
上記特定の画像データに直交変換を施して原画像周波数成分を生成する原画 像直交変換手段と、
上記特定の画像デ一夕に所定のエッジ検出処理を施すことで、 該特定の画像 データのエッジ画像データを生成するエッジ生成手段と、
上記エッジ画像データに基づいて拡大エッジ画像の周波数成分を推定する拡 大エッジ推定手段と、
推定された上記拡大エッジ画像の周波数成分の低周波領域を上記原画像周波 数成分で置換して置換周波数成分を生成する低周波置換手段と、
上記置換周波数成分を逆直行変換して上記拡大画像を得る逆直行変換手段と を備えることを特徴とする、 画像処理装置。
2 5 . 上記拡大エッジ推定手段が、 上記ェッジ画像データに線形近似を施すことで上記拡大画像のェッジ画像デ 一夕を推定する拡大エッジ近似手段と、
上記拡大画像のエッジ画像データの周波数成分を直交変換により求めるエツ ジ画像周波数生成手段とを備える、 請求項 2 4に記載の画像処理装置。
2 6 . 上記拡大ェッジ推定手段が、
上記エッジ画像データの周波数成分を直交変換で生成するエッジ画像直交変 換手段と、
生成された上記ェッジ画像デ一夕の周波数成分に基づき、 拡大後のエツジ画 像デー夕の周波数領域を推定するェッジ周波数推定手段とを備える、 請求項 2 4に記載の画像処理装置。
2 7 . 上記原画像直交変換手段で得られたエッジ画像データの周波数成分を 線形補間することで、 上記拡大後のエッジ画像デ一夕の周波数成分を推定する 上記エッジ周波数推定手段を備える、 請求項 2 5に記載の画像処理装置。
2 8 . 上記原画像直交変換手段で得られたエッジ画像データの周波数成分に 対し、 非線形補間手法を適用することで上記拡大後のエツジ画像データの周波 数成分を推定する上記エッジ周波数推定手段を備える、 請求項 2 5に記載の画
2 9 . 特定の画像データを所望の拡大サイズに拡大して拡大画像を得る画像 処理装置において、
上記特定の画像データを複数の重複したプロックに分割するブロック分割手 段と、
上記ブロック分割手段で得られたブロック内画像に直交変換を施してブロッ ク内画像の周波数成分を生成するプロック画像直交変換手段と、
上記プロック内画像の周波数成分に基づいて、 プロック内画像の拡大画像の 周波数成分を推定する拡大ブロック画像周波数推定手段と、
推定された上記周波数成分より、 上記拡大画像に必要なプロック内周波数成 分を抽出するブロック内周波数抽出手段と、
上記プロック内周波数成分に、 該ブロック内周波数成分のサイズに対応する 逆直交変換を施して拡大プロック画像を得るプロック逆直交変換手段と
複数の上記拡大ブロック画像を結合して上記拡大画像を得る拡大画像構成手 段とを備えることを特徴とする、 画像処理装置。
3 0 . 特定の画像データを所望の拡大サイズに拡大して拡大画像を得る画像 処理装置において、
上記特定の画像データを複数の重複のないプロックに分割するプロック分割 手段と、
上記ブロック内の画像デ一夕を所定の変換関数に基づいて、 上記ブロックの 境界上で特定の境界条件を満たすように変換するプロック内データ変換手段と, 変換された上記プロック内の画像データに直交変換を施してプロック内画像 の周波数成分を生成するブロック画像直交変換手段と、
上記プロック内画像の周波数成分に基づいて、 プロック内画像の拡大画像の 周波数成分を推定する拡大プロック画像周波数推定手段と、
推定された上記拡大画像の周波数成分に、 該拡大画像の周波数成分サイズに 対応する逆直交変換を施して拡大プロック画像を得るプロック逆直交変換手段 と
複数の上記拡大プロック画像を結合して上記拡大画像を得る画像構成手段と を備えることを特徴とする、 画像処理装置。
3 1 . 特定のカラ一画像データを所望の拡大サイズに拡大して拡大画像を得 る画像処理装置において、
上記されたカラー画像を構成するカラー成分の中、 基準となるカラー成分で ある基準成分を決定する基準成分選択手段と、
上記基準成分のデータから他のカラー成分のデータを導出する際の変換比率 を導出する変換比率導出手段と、 上記基準成分のデータに直交変換を施して基準成分の周波数成分を生成する 基準画像直交変換手段と、
上記基準成分の周波数成分より、 拡大画像の周波数成分を推定する基準拡大 周波数推定手段と、
上記基準成分の拡大画像の周波数成分に、 該拡大画像の周波数成分のサイズ に対応する逆直交変換を施して基準成分の拡大画像データを得る基準逆直交変 換手段と、
上記基準成分の拡大画像データと上記変換比率とに基づいて上記拡大画像に おける他のカラー成分データを推定する不足成分拡大手段と、
上記基準成分の拡大画像データと、 上記他のカラー成分データを合成するこ とで上記拡大画像を生成する拡大カラ一画像再構成手段とを備えることを特徴 とする、 画像処理装置。
3 2 . 特定の画像データを所望の拡大サイズに拡大して拡大画像を得る画像 処理方法において、
上記特定の画像データに直交変換を施して原画像周波数成分を生成する原画 像直交変換処理と、
上記原画像周波数成分に対し、 非線形補間を行って上記拡大画像の周波数成 分を推定する拡大周波数推定処理と、
推定された上記拡大画像の周波数成分に、 上記拡大サイズに対応する逆直交 変換を施して拡大画像信号を得る逆直交変換処理とを備えることを特徴とする, 画像処理方法。
3 3 . 特定の画像データを所望の拡大サイズに拡大して拡大画像を得る画像 処理方法において、
上記特定の画像データに直交変換を施して原画像周波数成分を生成する原画 像直交変換処理と、
所定の方法により上記特定の画像データのエッジ画像データを生成するエツ ジ生成処理と、
上記ェッジ画像データに線形近似を施すことで上記拡大画像のエツジ画像デ 一夕を推定する拡大エッジ推定処理と、
上記拡大画像のエッジ画像データの周波数成分を直交変換により求めるエツ ジ画像周波数生成処理と、
上記エツジ画像データの周波数成分の低周波数領域を、 上記原画像周波数成 分により置換して置換周波数成分を生成する低周波置換処理と、
上記置換周波数成分を逆直交変換する逆直交変換処理とを備えることを特徴 とする、 画像処理方法。
3 4 . 特定の画像データを所望の拡大サイズに拡大して拡大画像を得る画像 処理方法において、
上記特定の画像データに直交変換を施して原画像周波数成分を生成する原画 像直交変換処理と、
所定の方法により上記特定の画像データのエッジ画像データを生成するエツ ジ生成処理と、
上記エッジ画像データの周波数成分を直交変換で生成するエッジ画像直交変 換処理と、
生成された上記ェッジ画像の周波数成分に基づき、 拡大後のエツジ画像の周 波数領域を推定するエツジ周波数推定処理と、
上記拡大後のエッジ画像の周波数成分の低周波数領域を、 上記原画像周波数 成分により置換する低周波置換処理とを備えることを特徴とする、 画像処理方 法。
3 5 . 上記原画像直交変換処理で得られたエッジ画像データの周波数成分を 線形近似することで、 上記拡大後のエツジ画像データの周波数成分を推定する 上記エッジ周波数推定処理を備える、 請求項 3 4に記載の画像処理方法。
3 6 . 上記原画像直交変換処理で得られたエッジ画像データの周波数成分に 対し、 非線形補間手法を適用することで上記拡大後のエッジ画像データの周波 数成分を推定する上記エッジ周波数推定処理を備える、 請求項 3 4に記載の画 像処理方法。
3 7 . 特定の画像データを所望の拡大サイズに拡大して拡大画像を得る画像 処理方法において、
上記特定の画像データを複数の重複したプロックに分割するプロック分割処 理と、
上記ブロック分割手段で得られたブロック内画像に直交変換を施してブロッ ク内画像の周波数成分を生成するブロック画像直交変換処理と、
上記ブロック内画像の周波数成分に基づいて、 ブロック内画像の拡大画像の 周波数成分を推定する拡大プロック画像周波数推定処理と、
推定された上記周波数成分より、 上記拡大画像に必要なプロック内周波数成 分を抽出するブロック内周波数抽出処理と、
上記ブロック内周波数成分に、 該ブロック内周波数成分のサイズに対応する 逆直交変換を施して拡大ブロック画像を得るブロック逆直交変換処理と
複数の上記拡大プロック画像を結合して上記拡大画像を得る拡大画像構成処 理とを備えることを特徴とする、 画像処理方法。
3 8 . 特定の画像データを所望の拡大サイズに拡大して拡大画像を得る画像 処理方法において、
上記特定の画像デ一夕を複数の重複のないプロックに分割するプロック分割 処理と、
上記プロック内の画像データを所定の変換関数に基づいて、 上記プロックの 境界上で特定の境界条件を満たすように変換するブロック内データ変換処理と , 変換された上記ブロック内の画像データに直交変換を施してブロック内画像 の周波数成分を生成するブロック画像直交変換処理と、
上記プロック内画像の周波数成分に基づいて、 プロック内画像の拡大画像の 周波数成分を推定する拡大プロック画像周波数推定処理と、
推定された上記拡大画像の周波数成分に、 該拡大画像の周波数成分サイズに 対応する逆直交変換を施して拡大プロック画像を得るプロック逆直交変換処理 と
複数の上記拡大プロック画像を結合して上記拡大画像を得る画像構成処理と を備えることを特徴とする、 画像処理方法。
3 9 . 特定のカラー画像データを所望の拡大サイズに拡大して拡大画像を得 る画像処理方法において、
上記特定のカラー画像を構成するカラー成分の内で、 基準となるカラー成分 である基準成分を決定する基準成分選択処理と、
上記基準成分のデータから他のカラ一成分のデータを導出する際の変換比率 を導出する変換比率導出処理と、
上記基準成分のデータに直交変換を施して基準成分の周波数成分を生成する 基準画像直交変換処理と、
上記基準成分の周波数成分より、 拡大画像の周波数成分を推定する基準拡大 周波数推定処理と、
上記基準成分の拡大画像の周波数成分に、 該拡大画像の周波数成分のサイズ に対応する逆直交変換を施して基準成分の拡大画像データを得る基準逆直交変 換処理と、
上記基準成分の拡大画像データと上記変換比率とに基づいて上記拡大画像に おける他のカラ一成分データを推定する不足成分拡大処理と、
上記基準成分の拡大画像デ一夕と、 上記他のカラー成分データを合成するこ とで上記拡大画像を生成する拡大カラー画像再構成処理とを備えることを特徴 とする、 画像処理方法。
4 0 . 特定の画像データを所望の拡大サイズに拡大して拡大画像を得る際に. 該特定の画像データに直交変換を施して原画像周波数成分を生成し、 該原画像 周波数成分に対して非線形補間を行って上記拡大画像の周波数成分を推定し、 推定された上記拡大画像の周波数成分に上記拡大サイズに対応する逆直交変換 を施して上記拡大画像を得るプログラムが記録された、 記録媒体。
4 1 . 特定の画像データを所望の拡大サイズに拡大して拡大画像を得る際に. 該特定の画像デ一夕に直交変換を施して原画像周波数成分を生成するとともに. 所定の方法により該特定の画像デ一夕のエツジ画像デー夕を生成し、 該エッジ 画像データに線形近似を施すことで上記拡大画像のェッジ画像データを推定し , 該拡大画像のエッジ画像データの周波数成分を直交変換により求め、 該周波数 成分の低周波数領域を上記原画像周波数成分により置換して置換周波数成分を 生成し、 該置換周波数成分に逆直交変換を施して上記拡大画像を得るプロダラ ムが記録された、 記録媒体。
4 2 . 特定の画像データを所望の拡大サイズに拡大して拡大画像を得る際に、 該特定の画像データに直交変換を施して原画像周波数成分を生成するとともに、 所定の方法により該特定の画像デー夕のエツジ画像データを生成し、 該ェッジ 画像データの周波数成分を直交変換で生成し、 該エッジ画像の周波数成分に基 づいて拡大後のエツジ画像の周波数領域を推定するとともに、 該拡大後のエツ ジ画像の周波数成分の低周波数領域を、 上記原画像周波数成分により置換する プログラムが記録された、 記録媒体。
4 3 . 特定の画像データを所望の拡大サイズに拡大して拡大画像を得るさい に、 該特定の画像デ一夕を複数の重複したブロックに分割し、 得られたブロッ ク内画像に直交変換を施してブロック内画像の周波数成分を生成し、 該ブロッ ク内画像の周波数成分に基づいて、 ブロック内画像の拡大画像の周波数成分を 推定するとともに、 推定された上記周波数成分より、 上記拡大画像に必要なブ ロック内周波数成分を抽出し、 該ブロック内周波数成分に、 該ブロック内周波 数成分のサイズに対応する逆直交変換を施して拡大ブロック画像を得、 該複数 の上記拡大ブロック画像を結合して上記拡大画像を得るプログラムが記録され た、 記録媒体。
4 4 . 特定の画像デ一夕を所望の拡大サイズに拡大して拡大画像を得る際に 該特定の画像データを複数の重複のないプロックに分割し、 該ブロック内の画 像データを所定の変換関数に基づいて、 該ブロックの境界上で特定の境界条件 を満たすように変換し、 変換された該ブロック内の画像デ一夕に直交変換を施 してプロック内画像の周波数成分を生成するとともに、 該ブロック内画像の周 波数成分に基づいて、 ブロック内画像の拡大画像の周波数成分を推定し、 該拡 大画像の周波数成分に、 該拡大画像の周波数成分サイズに対応する逆直交変換 を施して拡大ブロック画像を得、 該複数の上記拡大ブロック画像を結合して上 記拡大画像を得るプログラムが記録された、 記録媒体
4 5 . 特定のカラー画像データを所望の拡大サイズに拡大して拡大画像を得 る際に、 該特定のカラ一画像を構成するカラー成分の中、 基準となるカラー成 分である基準成分を決定し、 該基準成分のデータから他のカラー成分のデ一夕 を導出する際の変換比率を導出し、 該基準成分のデータに直交変換を施して基 準成分の周波数成分を生成し、 該基準成分の周波数成分より、 拡大画像の周波 数成分を推定するとともに、 該基準成分の拡大画像の周波数成分に、 該拡大画 像の周波数成分のサイズに対応する逆直交変換を施して基準成分の拡大画像デ 一夕を得、 該基準成分の拡大画像デ一夕と上記変換比率とに基づいて上記拡大 画像における他のカラー成分デ一夕を推定することにより上記拡大画像を得る プログラムが記録された、 記録媒体。
4 6 . n画素 x m画素の原画像を拡大処理して Ln画素 X Lm画素の拡大画像を得 る画像処理装置において、
上記原画像を Ln/2画素 X Lm/2画素に補間又は間引き (以下まとめて 「調整」 という) する入力画像調整手段と、
上記入力画像調整手段により調整された画像にウェーブレツト変換に基づく 拡大方法を適用して拡大画像を生成する画像拡大手段とを備えることを特徴と する、 画像処理装置。
4 7 . 原画像を拡大処理して拡大画像を得る画像処理装置において、 拡大対象画像として原画像を設定する拡大処理初期化手段と、
上記拡大対象画像にウェーブレット変換に基づく拡大方法を適用することに より、 4倍の画素数を持つ拡大画像を生成する対象画像拡大手段と、
上記対象画像拡大手段により得られた拡大画像を拡大対象画像に設定し、 対 象画像拡大手段に処理を戻す多重処理終了判定手段と、
上記対象画像拡大手段により得られた拡大画像を視覚的に提示する拡大画像 提示手段と、
上記拡大画像提示手段により提示された拡大画像に対し、 拡大処理または縮 小処理を行う画像調整手段と、
上記画像調整手段により得られた画像を出力する拡大画像出力手段とを備え ることを特徴とする、 画像処理装置。
4 8 . 上記画像拡大手段が、
上記入力画像調整手段により調整された画像の複数の特定方向のエッジ画像 を生成するエッジ生成手段と、
上記各エッジ画像及び、 調整された上記原画像とをウェーブレツト変換にお けるサブバンド成分と見なし、 このサブバンド成分に対して逆ウェーブレツト 変換を施して 4倍の画素数を持つ拡大画像を生成するレベルアップ手段とを備 える、 請求項 4 6及び 4 7に記載の画像処理装置。
4 9 . 上記複数の特定方向が、 垂直、 水平及び斜めの 3方向である、 請求項
4 8に記載の画像処理装置。
5 0 . 上記画像拡大手段が、
調整された上記原画像の水平、 垂直方向画素数が 2の倍数になるように再調 整する入力微調整手段と、
再調整された上記原画像にウェーブレツト変換を施して変換画像を生成する レベルダウン手段と、
上記変換画像の低周波領域に位置する複数のサブバンド成分より上記複数の 特定方向のエツジ画像を生成する参照成分生成手段と、
上記各エッジ画像と、 上記変換画像の上記特定の方向に対応する低周波領域 に属するサブバンド成分との関連を求める補正推定手段と、
上記各エッジ画像を上記補正推定手段の結果により補正してウェーブレツト 変換における各サブバンド成分を推定する成分推定手段と、
上記各サブバンド成分及び再調整された上記原画像に対して逆ウェーブレツ ト変換を施して 4倍の画素数を持つ拡大画像を生成するレベルァップ手段とを 備える、 請求項 4 6及び 4 7に記載の画像処理装置。
5 1 . 上記参照成分生成手段が、 上記変換画像の低周波領域に位置するサブ バンド成分からラプラシフィル夕処理により上記各エッジ画像を求める、 請求 項 5 0に記載の画像処理装置。
5 2 . 上記 Ln/2および Lm/2の値が整数である場合に、 入力された原画像を上 記入力調整手段により調整し、 調整された原画像に対して上記画像拡大手段に より拡大画像を生成し、
Ln/2または Lm/2の少なくとも一方の値が整数でない場合には、 入力された原 画像を上記入力調整手段により調整し、 調整された画像に対して上記画像拡大 手段により拡大画像を生成し、 その後、 上記画像拡大手段で得られた拡大画像 を拡大画像調整手段により Ln画素 X Lm画素に調整する、 請求項 4 6及び 4 7に 記載の画像処理装置。
5 3 . n画素 X m画素のカラー画像を拡大処理して Ln画素 X Lm画素の拡大画像 を得るカラー画像処理装置において、
上記カラ一画像構成成分より基本カラー成分を選択する基本成分選択手段と, 上記基本成分選択手段で選択された基本カラー成分から他のカラー成分を導 出する際の変換比率を導出する変換比率導出手段と、 入力された原画像の基本カラー成分を Ln/2画素 X Lm/2画素に調整する基本成 分画像調整手段と、
調整された上記基本力ラ一成分にウェーブレット変換に基づく方法を適用し て基本拡大画像を生成する基本画像拡大手段と、
上記基本拡大画像を所望の Ln画素 X Lm画素に調整する基本拡大画像調整手段 と、
調整された上記基本拡大画像に上記変換比率を適用することで他のカラ一成 分の拡大画像を推定する不足成分拡大手段と、
上記基本拡大圃像と、 上記他のカラー成分の拡大画像を合成することにより 上記拡大画像を生成する拡大カラー画像再構成手段とを備えることを特徴とす る、 画像処理装置。
5 4 . 上記補正推定手段が、
上記各特定方向のエッジ画像と、 上記変換画像の該各特定方向に対応する低 周波領域に属するサブバンド成分との差分画像を各補正成分画像として求め、 上記成分推定手段が、
上記各補正成分画像を線形補間により 4倍の画素数の画像に拡大し、 対応す るエッジ画像に加えることで補正処理を行う、 請求項 5 0に記載の画像処理装
5 5 . n画素 X m画素の原画像を拡大処理して Ln画素 X Lm画素の拡大画像を得 る画像処理方法において、
上記原画像を Ln/2画素 X Lm/2画素に調整する入力画像調整処理と、 上記入力画像調整手段により調整された画像にウェーブレット変換に基づく 拡大方法を適用して拡大画像を生成する画像拡大処理とを備えることを特徴と する、 画像処理方法。
5 6 . 原画像を拡大処理して拡大画像を得る画像処理方法において、 拡大対象画像として原画像を設定する拡大処理初期化処理と、 上記拡大対象画像にウェーブレツト変換に基づく拡大方法を適用することに より、 4倍の画素数を持つ拡大画像を生成する対象画像拡大処理と、
上記対象画像拡大手段により得られた拡大画像を拡大対象画像に設定し、 対 象画像拡大手段に処理を戻す多重処理終了半 ij定処理と、
上記対象画像拡大手段により得られた拡大画像を視覚的に提示する拡大画像 提示処理と、
上記拡大画像提示手段により提示された拡大画像に対し、 拡大処理または縮 小処理を行う画像調整処理と、
上記画像調整手段により得られた画像を出力する拡大画像出力処理とを備え ることを特徴とする、 画像処理方法。
5 7 . n画素 X III画素の原画像を拡大処理して Ln画素 X Lm画素の拡大画像を得 る際に、 上記原画像を Ln/2画素 X Lm/2画素に調整し、 該調整された画像にゥェ ーブレツト変換に基づく拡大方法を適用して拡大画像を生成するプログラムが 記録された、 記録媒体。
5 8 . 原画像を拡大処理して拡大画像を得る際に、 拡大対象画像として原画 像を設定し、 該拡大対象画像にウェーブレツト変換に基づく拡大方法を適用す ることにより、 4倍の画素数を持つ拡大画像を生成し、 該拡大画像を拡大対象 画像として設定して対象画像拡大手段に処理を戻すとともに、 上記拡大画像を 視覚的に提示し、 該拡大画像に対し拡大処理または縮小処理を行うプログラム が記録された、 記録媒体。
PCT/JP2000/001586 1999-03-15 2000-03-15 Dispositif et procede de traitement d'image, et support enregistre WO2000056060A1 (fr)

Priority Applications (1)

Application Number Priority Date Filing Date Title
EP00909658A EP1164781A1 (en) 1999-03-15 2000-03-15 Image processing device, image processing method, and recorded medium

Applications Claiming Priority (6)

Application Number Priority Date Filing Date Title
JP11/68151 1999-03-15
JP6815199 1999-03-15
JP11/104703 1999-04-13
JP10470399A JP4129097B2 (ja) 1999-04-13 1999-04-13 画像処理装置及び画像処理方法
JP17499099A JP4081926B2 (ja) 1999-06-22 1999-06-22 画像拡大装置
JP11/174990 1999-06-22

Publications (1)

Publication Number Publication Date
WO2000056060A1 true WO2000056060A1 (fr) 2000-09-21

Family

ID=27299651

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2000/001586 WO2000056060A1 (fr) 1999-03-15 2000-03-15 Dispositif et procede de traitement d'image, et support enregistre

Country Status (2)

Country Link
EP (1) EP1164781A1 (ja)
WO (1) WO2000056060A1 (ja)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6549666B1 (en) 1994-09-21 2003-04-15 Ricoh Company, Ltd Reversible embedded wavelet system implementation
US7068851B1 (en) 1999-12-10 2006-06-27 Ricoh Co., Ltd. Multiscale sharpening and smoothing with wavelets
US7120305B2 (en) * 2002-04-16 2006-10-10 Ricoh, Co., Ltd. Adaptive nonlinear image enlargement using wavelet transform coefficients
US8040385B2 (en) 2002-12-02 2011-10-18 Olympus Corporation Image pickup apparatus
EP1569442A4 (en) * 2002-12-02 2009-08-12 Olympus Corp VIEWING DEVICE
EP1615168A1 (en) * 2004-07-09 2006-01-11 STMicroelectronics S.r.l. Colour interpolation in DWT domain
CN102844786A (zh) 2010-03-01 2012-12-26 夏普株式会社 图像放大装置、图像放大程序、存储图像放大程序的存储介质和显示装置
US11265446B2 (en) 2018-10-18 2022-03-01 Sony Corporation Frame handling for ML-based upscaling

Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH03204268A (ja) * 1990-01-05 1991-09-05 Dainippon Printing Co Ltd 高画質画像拡大方法
JPH04229382A (ja) * 1990-12-27 1992-08-18 Ricoh Co Ltd ディジタル画像データの解像度交換装置
JPH04333989A (ja) * 1991-05-10 1992-11-20 Mitsubishi Electric Corp 画像拡大装置
JPH0698175A (ja) * 1992-09-11 1994-04-08 Sanyo Electric Co Ltd 画像・データ多重化回路
JPH07129759A (ja) * 1993-10-29 1995-05-19 Canon Inc 画像処理方法及び装置
JPH07152907A (ja) * 1993-11-29 1995-06-16 Nec Corp 画像拡大方法及び装置
JPH07203439A (ja) * 1993-12-28 1995-08-04 Nec Corp 画像信号復号化装置
JPH08294001A (ja) * 1995-04-20 1996-11-05 Seiko Epson Corp 画像処理方法および画像処理装置
JPH08315129A (ja) * 1995-05-15 1996-11-29 Sharp Corp 画像拡大方式
JPH1031737A (ja) * 1996-07-18 1998-02-03 Fuji Photo Film Co Ltd 画像処理方法
JPH1098611A (ja) * 1996-09-20 1998-04-14 Nec Corp 画像サイズ変換方式
JPH11284840A (ja) * 1998-03-26 1999-10-15 Ricoh Co Ltd 画像形成装置

Patent Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH03204268A (ja) * 1990-01-05 1991-09-05 Dainippon Printing Co Ltd 高画質画像拡大方法
JPH04229382A (ja) * 1990-12-27 1992-08-18 Ricoh Co Ltd ディジタル画像データの解像度交換装置
JPH04333989A (ja) * 1991-05-10 1992-11-20 Mitsubishi Electric Corp 画像拡大装置
JPH0698175A (ja) * 1992-09-11 1994-04-08 Sanyo Electric Co Ltd 画像・データ多重化回路
JPH07129759A (ja) * 1993-10-29 1995-05-19 Canon Inc 画像処理方法及び装置
JPH07152907A (ja) * 1993-11-29 1995-06-16 Nec Corp 画像拡大方法及び装置
JPH07203439A (ja) * 1993-12-28 1995-08-04 Nec Corp 画像信号復号化装置
JPH08294001A (ja) * 1995-04-20 1996-11-05 Seiko Epson Corp 画像処理方法および画像処理装置
JPH08315129A (ja) * 1995-05-15 1996-11-29 Sharp Corp 画像拡大方式
JPH1031737A (ja) * 1996-07-18 1998-02-03 Fuji Photo Film Co Ltd 画像処理方法
JPH1098611A (ja) * 1996-09-20 1998-04-14 Nec Corp 画像サイズ変換方式
JPH11284840A (ja) * 1998-03-26 1999-10-15 Ricoh Co Ltd 画像形成装置

Also Published As

Publication number Publication date
EP1164781A1 (en) 2001-12-19

Similar Documents

Publication Publication Date Title
JP4348768B2 (ja) 画像変換方法
US7155069B2 (en) Image processing apparatus, image processing method, and image processing program
JP2002269556A (ja) デジタル画像からノイズを除去する複数解像度に基づく方法
JP5174238B2 (ja) スパース変換を使用する画像/ビデオ品質向上及び超解像
KR101773279B1 (ko) 업샘플링 및 신호 향상
EP1355271A1 (en) Adaptive nonlinear image enlargement using wavelet transform coefficients
KR101348931B1 (ko) 이산 웨이블릿 변환 기반 초고해상도 영상 획득 방법
Vo et al. Selective data pruning-based compression using high-order edge-directed interpolation
JP3999432B2 (ja) 画像処理方法および装置並びに記録媒体
JPH08294001A (ja) 画像処理方法および画像処理装置
WO2000056060A1 (fr) Dispositif et procede de traitement d&#39;image, et support enregistre
US20100118981A1 (en) Method and apparatus for multi-lattice sparsity-based filtering
US7630568B2 (en) System and method for low-resolution signal rendering from a hierarchical transform representation
JP4081926B2 (ja) 画像拡大装置
JP4598115B2 (ja) 画像処理方法および装置並びに記録媒体
JP4129097B2 (ja) 画像処理装置及び画像処理方法
JP4267159B2 (ja) 画像処理方法および装置並びに記録媒体
JP2000312294A (ja) 画像処理装置
Dumitras et al. Fast and high performance image subsampling using feedforward neural networks
Marsh et al. Removal of Blocking Artifacts from JPEG-Compressed Images Using a Neural Network
Velisavljevic Edge-preservation resolution enhancement with oriented wavelets
JP3750164B2 (ja) 画像処理方法および画像処理装置
JP4526867B2 (ja) 電子透かし埋込装置、及び電子透かし読出装置
JP2000285233A (ja) 画像処理方法および装置並びに記録媒体
Temizel Wavelet Domain Image Resolution Enhancement Methods

Legal Events

Date Code Title Description
AK Designated states

Kind code of ref document: A1

Designated state(s): US

AL Designated countries for regional patents

Kind code of ref document: A1

Designated state(s): DE GB

DFPE Request for preliminary examination filed prior to expiration of 19th month from priority date (pct application filed before 20040101)
121 Ep: the epo has been informed by wipo that ep was designated in this application
WWE Wipo information: entry into national phase

Ref document number: 09936436

Country of ref document: US

WWE Wipo information: entry into national phase

Ref document number: 2000909658

Country of ref document: EP

WWP Wipo information: published in national office

Ref document number: 2000909658

Country of ref document: EP