WO2007083621A1 - Image processing device - Google Patents

Image processing device Download PDF

Info

Publication number
WO2007083621A1
WO2007083621A1 PCT/JP2007/050486 JP2007050486W WO2007083621A1 WO 2007083621 A1 WO2007083621 A1 WO 2007083621A1 JP 2007050486 W JP2007050486 W JP 2007050486W WO 2007083621 A1 WO2007083621 A1 WO 2007083621A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
data
image data
pixel
restored
Prior art date
Application number
PCT/JP2007/050486
Other languages
French (fr)
Japanese (ja)
Inventor
Fuminori Takahashi
Original Assignee
Nittoh Kogaku K.K
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nittoh Kogaku K.K filed Critical Nittoh Kogaku K.K
Priority to JP2007554892A priority Critical patent/JP4885150B2/en
Publication of WO2007083621A1 publication Critical patent/WO2007083621A1/en

Links

Classifications

    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B5/00Adjustment of optical system relative to image or object surface other than for focusing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/68Control of cameras or camera modules for stable pick-up of the scene, e.g. compensating for camera body vibrations
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2101/00Still video cameras

Definitions

  • the present invention relates to an image processing apparatus.
  • a method of moving a lens and a method of circuit processing are known.
  • a method for moving a lens a method is known in which camera shake is detected and correction is performed by moving a predetermined lens in accordance with the detected camera shake (see Patent Document 1).
  • a change in the optical axis of the camera is detected by an angular acceleration sensor, and a transfer function representing a blurring state at the time of photographing is detected and obtained for a photographed image.
  • a method is known in which the transfer function is inversely transformed to restore the image (see Patent Document 2).
  • Patent Document 1 Japanese Patent Laid-Open No. 6-317824 (see abstract)
  • Patent Document 2 JP-A-11 24122 (see abstract)
  • a camera adopting the camera shake correction described in Patent Document 1 requires a hardware space for driving a lens such as a motor, and becomes large.
  • such hardware itself and a drive circuit for operating the hardware are required, which increases costs.
  • the camera shake correction described in Patent Document 2 has the following problems although the above-described problems are eliminated.
  • image restoration is difficult for the following two reasons.
  • the value of the transfer function to be obtained fluctuates greatly due to these slight fluctuations that are very vulnerable to noise information errors.
  • the restored image obtained by the inverse transformation is far from an image taken with no camera shake, and cannot be used in practice.
  • a method of estimating the solution by singular value decomposition etc. of the solution of simultaneous equations can be adopted, but the calculated value for the estimation becomes astronomical size. Therefore, there is a high risk that it will not be solved in practice.
  • an object of the present invention is to provide an image processing apparatus having a realistic circuit processing method while preventing an increase in size of the apparatus when restoring an image.
  • an image processing apparatus includes an image processing apparatus having a processing unit that processes an image, and the processing unit uses data of change factor information that causes an image change.
  • the image data power of an arbitrary image is also generated as a result of this comparison by generating image data of a comparison image and then comparing the image data of the original image to be processed with the image data of the comparison image.
  • the difference data is distributed to the image data of an arbitrary image using the data of the change factor information to generate the image data of the restored image, and whether the image data of the restored image is within the limit value. If the image data limit of the restored image is exceeded and the range of the restored image is exceeded,
  • the limit value is a limit value of the amount of energy that can be stored in a pixel.
  • the correction amount of the correction of the original restored image performed based on the excess data is obtained using the data of the change factor information.
  • the amount of distribution to the original restored image data is determined using the data of the change factor information, so that the restored image data can be efficiently accommodated within the limit value.
  • the distribution of the difference data to the image data of an arbitrary image performed to generate the image data of the restored image is obtained by dividing the difference data by the change factor information.
  • the distribution amount is calculated using the value.
  • the processing unit further performs a process of removing an influence on the unprocessed pixels of the distribution amount of the pixels subjected to the correction / restoration image processing with respect to the unprocessed pixels.
  • the amount of distribution to the original restored image data is determined using the data of the change factor information, so that the restored image data can be efficiently accommodated within the limit value.
  • the present invention when restoring a deteriorated image, it is possible to prevent an increase in size of the apparatus and to provide an image processing apparatus having a realistic circuit processing method.
  • FIG. 1 is a block diagram showing a main configuration of an image processing apparatus according to an embodiment of the present invention.
  • FIG. 2 is an external perspective view showing an outline of the image processing apparatus shown in FIG. 1, and is a view for explaining an arrangement position of angular velocity sensors.
  • FIG. 3 is a processing flow diagram (processing routine) performed by the processing unit of the image processing apparatus shown in FIG. 1 for explaining the basic concept.
  • FIG. 4 is a diagram for explaining the concept of the processing method shown in FIG.
  • FIG. 5 is a diagram for specifically explaining the processing method shown in FIG. 3 using hand shake as an example, and a table showing energy concentration when there is no hand shake.
  • FIG. 6 is a diagram for specifically explaining the processing method shown in FIG. 3 using camera shake as an example, and is a diagram showing image data when there is no camera shake.
  • FIG. 7 is a diagram for specifically explaining the processing method shown in FIG. 3 with an example of camera shake, and is a diagram showing energy dispersion when camera shake occurs.
  • FIG. 8 is a diagram for specifically explaining the processing method shown in FIG. 3 by taking an example of camera shake, and is a diagram for explaining a situation in which image data for comparison is generated with an arbitrary image force.
  • FIG. 9 A diagram for specifically explaining the processing method shown in FIG. 3 using camera shake as an example. Comparison image data is compared with a blurred original image to be processed, and difference data is obtained. It is a figure for demonstrating the condition to produce
  • FIG. 10 is a diagram for specifically explaining the processing method shown in FIG. 3 by taking an example of camera shake, and explains a situation in which restored image data is generated by allocating difference data and adding it to an arbitrary image.
  • FIG. 10 is a diagram for specifically explaining the processing method shown in FIG. 3 by taking an example of camera shake, and explains a situation in which restored image data is generated by allocating difference data and adding it to an arbitrary image.
  • FIG. 11 A diagram for specifically explaining the processing method shown in FIG. 3 by taking an example of camera shake, and generating new comparison image data from the generated restored image data, and the data and processing target It is a figure for demonstrating the condition which produces
  • FIG. 12 A diagram for specifically explaining the processing method shown in FIG. 3 by taking an example of camera shake, and explaining a situation in which newly generated differential data is allocated and new restored image data is generated. It is a figure for doing.
  • FIG. 13 is a processing flow for explaining the distribution of difference data.
  • FIG. 14 is a diagram illustrating the contents of each pixel image data in the image data handled by the image processing apparatus shown in FIG. 1.
  • FIG. 15 is a diagram showing a relationship between corrected pixel image data handled by the image processing apparatus shown in FIG. 1 and pixel image data of comparison image data.
  • FIG. 16 is a diagram for explaining the distribution amount of difference data for pixels after pixel n handled by the image processing apparatus shown in FIG. 1.
  • FIG. 17 A diagram for explaining another processing method using the processing method shown in FIG. 3 or FIG. 13, in which (A) shows data of an original image to be processed, and (B) shows (A) It is a figure which shows the data of the arch IV, and the data.
  • FIG. 18 To explain another processing method using the processing method shown in FIG. 3 or FIG. (A) shows data of an original image to be processed, and (B) shows data obtained by extracting a part of the data of (A).
  • FIG. 19 is a diagram for explaining a modification of the processing method shown in FIG. 18, and is a diagram showing that the data of the original image is divided into four, and a part of the area for iterative processing is extracted from each divided area. It is.
  • Image data base image data
  • the image processing apparatus 1 is a so-called digital camera for consumer use that uses a CCD for the image pickup unit.
  • the image processing device 1 is for a surveillance camera, a TV camera, and an endoscope that use an image pickup device such as a CCD for the image pickup unit. It can also be applied to devices other than cameras, such as cameras for other uses, imaging diagnostic devices for microscopes, binoculars, and NMR imaging.
  • the image processing apparatus 1 includes an imaging unit 2 that captures an image of a person or the like, a control system unit 3 that drives the imaging unit 2, a processing unit 4 that processes an image captured by the imaging unit 2, have.
  • the image processing apparatus 1 according to this embodiment further includes a recording unit 5 that records the image processed by the processing unit 4 and an angular velocity sensor, and detects change factor information that causes a change such as image degradation.
  • a factor information storage unit 7 for storing known change factor information that causes image degradation and the like.
  • the imaging unit 2 is a part that includes an imaging optical system having a lens and an imaging element such as a CCD or C-MOS that converts light that has passed through the lens into an electrical signal.
  • the control system unit 3 controls each unit in the image processing apparatus 1 such as the imaging unit 2, the processing unit 4, the recording unit 5, the detection unit 6, and the factor information storage unit 7.
  • the processing unit 4 is composed of an image processing processor, and is configured by an ASIC (Application Specific
  • the processing unit 4 may store an image serving as a base when generating image data for comparison images (hereinafter referred to as comparison image data), which will be described later.
  • the processing unit 4 may be configured to process with software rather than configured as hardware such as an ASIC.
  • the recording unit 5 may employ magnetic recording means such as a hard disk drive made of semiconductor memory, or optical recording means using a DVD or the like.
  • the detection unit 6 includes two angular velocity sensors that detect the speeds around the X and Y axes that are perpendicular to the Z axis that is the optical axis of the image processing apparatus 1. Is provided. By the way, camera shake when shooting with the camera is the force that also causes movement in the X, Y, and Z directions and rotation around the Z axis. Rotation and rotation around the X axis. These two variations are only a slight variation, and the captured image is greatly blurred. Therefore, in this embodiment, only two angular velocity sensors around the X axis and the Y axis in FIG. 2 are arranged. Z for strength and completeness An additional angular velocity sensor around the axis or a sensor that detects movement in the X or Y direction may be added. In addition, the sensor used may be an angular acceleration sensor that is not an angular velocity sensor.
  • the factor information storage unit 7 is a recording unit that stores change factor information such as known change factor information, such as aberrations of the optical system.
  • the factor information storage unit 7 stores information on aberrations of the optical system and lens distortion. The information is used when restoring blurring of camera shake described later.
  • I is image data of an arbitrary image (hereinafter, arbitrary image data)
  • rim g ′ refers to the captured image, that is, the data of the changed image that has changed due to the change factor, and is the image data of the original image that will be processed in this processing (hereinafter referred to as the original image data).
  • D is difference data between the original image data Img ′ and the comparison image data.
  • kj is the distribution ratio based on the data G of the change factor information.
  • I is optional image data
  • restored image data is the original image data before the change (hereinafter referred to as “basic image data”) that is the basis of the original image data Img ′.
  • basic image data the original image data before the change
  • the relationship between Img and Img ' is expressed by the following equation (1).
  • the difference data D may be a simple difference between corresponding pixels, but in general, it differs depending on the data G of the change factor information and is expressed by the following equation (2).
  • the processing routine of the processing unit 4 first uses the arbitrary image data I as the initial image data I.
  • This initial image data I that is, arbitrary image data
  • Data I may be the original image data Img 'that is the image data of the captured image.
  • step S102 the initial image data I is inserted instead of Img in equation (1), and the change image is displayed.
  • Image data for comparison I ′ which is an image, is obtained.
  • difference data D is calculated (step S103).
  • Steps S102, S103, and S104 are repeated using image data I as initial image data I.
  • step S104 If the difference data D is smaller than the predetermined value in step S104, the process is terminated (step S106). Then, the restored image data I at the end of processing is corrected and the image
  • the recording unit 5 records initial image data I and change factor information data G.
  • Comparison image data (I) is approximate to the original image data Img ′.
  • the angular velocity detection sensor detects the angular velocity every 5 seconds.
  • the value used as a determination criterion for the difference data D is “6” in this embodiment when each data is represented by 8 bits (0 to 255). That is, when it is less than 6, that is, 5 or less, the processing is finished.
  • the shake data detected by the angular velocity detection sensor does not correspond to actual shake when the sensor itself is not calibrated. Therefore, in order to cope with actual blurring, when the sensor is not calibrated, a correction is required to multiply the raw data detected by the sensor by a predetermined magnification.
  • FIG. 3 Next, the details of the processing method shown in FIGS. 3 and 4 will be described with reference to FIGS. 5, 6, 7, 8, 8, 9, 10, 11 and 12.
  • FIG. 5 is a diagrammatic representation of FIGS. 5, 6, 7, 8, 8, 9, 10, 11 and 12.
  • the light energy corresponding to a given pixel is concentrated on that pixel during the exposure time.
  • light energy is dispersed in the blurred pixels during the exposure time.
  • the way the light energy is dispersed during the exposure time can be understood, so that it is possible to produce a blur-free image.
  • “12 0” of the pixel “n ⁇ 3” is the distribution ratio of “0.5”, “0.3”, “0.2” of the data G of the change factor information that is blur information. Accordingly, “60” is distributed to the “n ⁇ 3” pixel, “36” is distributed to the “n ⁇ 2” pixel, and “24” is distributed to the “n ⁇ 1” pixel. Similarly, “60” which is the data of the pixel “n ⁇ 2” is distributed as “30” in “n ⁇ 2”, “18” in “n ⁇ l”, and “12” in “n”.
  • This original image data Img 'and the change factor information data G shown in Fig. 7 will be calculated as an ideal image (base image data Img) with no blurring.
  • step S101 Any initial image data I shown in step S101 can be used.
  • This initial image data I that is, the original image data Img '
  • Use data G of information That is, for example, the “n-3” image of the initial image data I
  • step S103 the difference data D in step S103 is as shown in the bottom column of FIG.
  • step S104 the size of the difference data D is determined in step S104. Specifically, the process is terminated when all the difference data D is 5 or less in absolute value, but the difference data D shown in FIG. 9 does not meet this condition, so the process proceeds to step S105. . That is, the difference data D is allocated to the initial image data I using the data G of the change factor information, and “
  • the restored image data I shown as “next input” is generated. In this case, it is the first time
  • the restored image data I is generated.
  • the restored image data I corresponds to “next input” in the table of FIG.
  • the restored image data I is the input image data in step S102.
  • step S102 is executed.
  • step S102 is executed.
  • Table in Fig. 11 “Input I
  • Minute data D is obtained.
  • the size of the new difference data D is determined in step S104. If it is larger than the predetermined value, the new difference data D is converted to the previous restored image data I in step S105.
  • step S104 the process goes to step S104, and depending on the determination, the process goes to step S105, or the process proceeds to step S106. Such a process is repeated.
  • either or both of the number of processes and the determination reference value of the difference data D can be set in advance.
  • the number of processings can be set to any number such as 20 or 50 times.
  • This set value can be set arbitrarily. If both the number of processing times and the criterion value are entered, the processing is stopped when either one is satisfied. When both settings are possible, the judgment reference value may be prioritized, and if the predetermined number of processes does not fall within the determination reference value, the predetermined number of processes may be repeated.
  • the force that did not use the information stored in the factor information storage unit 7 is a known change factor stored here, such as optical aberration and lens distortion. Data may be used.
  • the blur information and the optical aberration information are combined and regarded as one change factor.
  • the factor information storage unit 7 may not be installed, and the image may be corrected or restored only by dynamic factors during shooting, for example, only blurring.
  • This image processing apparatus 1 adopts the following processing method based on the above-described concept of the processing method. This method will be described with reference to FIGS. This method is intended to optimize the amount of distribution of difference data D to initial image data I.
  • Processing flow S2 01 force S204 is a processing flow corresponding to processing flow S101 to S104 in FIG. That is, the input initial image data I (S201) force also generates comparison image data I '(S2
  • Difference data D for the prime is calculated (S203). Then, the size of the difference data D is determined for each pixel (S204). If the size is appropriate for all the pixels, it is determined that the image has been restored, and the process is terminated (S205).
  • the initial image data I for pixels n ⁇ 3, n ⁇ 2, n ⁇ l, n, n + 1, n + 2,.
  • Is the initial image data I ( b, b, b, b, b, b, b, b,.
  • the light energy of each pixel is a ratio of ⁇ , ⁇ , ⁇ to the pixel in the blur direction. Will be distributed.
  • a-b is dispersed in the pixel n
  • ⁇ -b is dispersed in the pixel n + 1
  • y-b is dispersed in the pixel n + 2.
  • the energy is distributed to the pixels indicated by arrows in the figure according to the data G of the change factor information.
  • b, b, b, b, b, b, b which are initial image data of each pixel (n ⁇ 3, n ⁇ 2, n ⁇ 2, n ⁇ l, n, n + 1, n + 2,...) , b, n-3 n-2 n-1 n n + 1 n + 2 are distributed according to the data G of the change factor information, and b ′, b ′, b are respectively used as comparison image data for each pixel. ', b', b ', b', ...
  • the dispersion amount of ⁇ of the pixel image data b of the pixel n is influenced by the amount of dispersion of ⁇ for pixel image data b of ⁇ .
  • h ' a -b +
  • the pixel image data of the other pixels of the comparison image data I ′ are also changed according to the change factor information data G, according to the change factor information data G (in FIG. This is the content affected by the amount of dispersion of the pixel on the left and the pixel on the left.
  • Figure 9 shows the process that 0 generates.
  • the original image data Img ' is, for example, pixel n n-1 n n + 1
  • the content is influenced by the amount of dispersion corresponding to the proportion of oc in the pixel image data a of its own pixel ⁇ .
  • a ' a -a + ⁇ -a + y -a.
  • the self-pixel, the previous one and the other two previous pixels the pixel on the left in FIG.
  • the content is influenced by the amount of dispersion of the base image data Img corresponding to the pixel on the left.
  • the difference data D which is the difference between the data and the image data of each pixel, becomes ⁇ , ⁇ , ⁇ , ⁇ , ⁇ ,... (S203).
  • an arbitrary distribution amount that is considered to be an appropriate distribution amount is calculated (S206).
  • This distribution amount is calculated as follows. For example, regarding pixel n, pixel image data b ′ is the sum of and
  • the difference data ⁇ ⁇ It also includes the amount of dispersion of the pixel image data a_, a, a force in the base image data Img of -2, n-1, n.
  • the difference data ⁇ includes a′a as the amount of dispersion of the pixel image data a of the base image data Img at the pixel ⁇ and the amount of dispersion of the initial image data I from the pixel image data b. a -b is included. Then, it is considered that the difference data ⁇ includes the dispersion amount of the pixel image data a and the pixel image data b force at a ratio of K (0 ⁇ K ⁇ 1). In other words, it can be considered as the following equation (3).
  • the distribution amount h allocated from the difference data ⁇ to the initial image data b is expressed as ⁇ ⁇ ⁇
  • the value obtained by dividing (dividing) the difference data ⁇ by the data ⁇ of the change factor information is used as the distribution amount h.
  • this distribution amount h K ′ ⁇ ⁇ ⁇ is distributed to the pixel image data b of the pixel n of the initial image data I for n 0 n, and b + ⁇ ⁇ ⁇ ⁇ ⁇ is the pixel image data of the restored image for the pixel ⁇ (S20 7).
  • the pixel image data b + ⁇ ⁇ ⁇ ⁇ ⁇ becomes the pixel image data for the pixel n of the new restored image data I, and the pixel image data
  • the data b + ⁇ ⁇ ⁇ / ⁇ is processed as new initial image data (S105). Thereafter, the process returns to S102, and whether the restored image data I approximates the base image data Img.
  • S207 force and S212 are instructed to determine whether or not the appropriate amount of distribution is ⁇ ⁇ ⁇ ⁇ ⁇ / ⁇ force as the self amount h. If it is not appropriate, correct it so that the appropriate distribution amount is obtained.
  • the determination as to whether the distribution amount ⁇ ⁇ ⁇ ⁇ ⁇ is an appropriate distribution amount is based on whether the pixel image data “b + ⁇ ⁇ ⁇ ⁇ ⁇ ” for the pixel ⁇ obtained in S207 is a pixel of the restored image data This is performed based on the judgment (S208) whether the image data is appropriate. This decision is made as follows.
  • the pixel image data “b + ⁇ ⁇ ⁇ ⁇ ⁇ ” corresponds to an image that approximates the pixel image data a. Therefore, the range of limit values that can be assumed for the pixel image data a (min ⁇ a ⁇ max).
  • the range of the limit value is a limit value of the amount of light energy that can be accumulated in the pixel. For example, if the pixel image data is represented by 8 bits (0 to 255) as the intensity of light energy, the pixel image data a should be within the range of 0 ⁇ a ⁇ 255. .
  • the pixel image data “b + ⁇ ⁇ ⁇ ”that exceeds the limit value range (min ⁇ a ⁇ max) of the pixel image data a is inappropriate as the pixel image data. That is, when the pixel image data “b + ⁇ ⁇ ⁇ ⁇ ” is below the lower limit of the limit value range of the pixel image data a or exceeds the upper limit value, the pixel image data “b + b ⁇ “ ⁇ / H” is determined to be inappropriate as pixel image data. That is, the pixel image data “b If “+ ⁇ ⁇ ⁇ ⁇ ” is inappropriate, it can be determined that the distribution amount ⁇ ⁇ ⁇ ⁇ is inappropriate.
  • ⁇ ⁇ ⁇ is the source of the generation of pixel image data f. Shadow of the distribution amount from the pixel image data b and b for the pixels n ⁇ 1 and n ⁇ 2 of the original restored image data n ⁇ 1 n ⁇ 2
  • N-1 n-2 n-1 n-2 The data b, b is reduced and the amount of distribution to the pixel image data b, b force pixel n is reduced.
  • pixel image data "b + ⁇ ⁇ ⁇ ⁇ " range data (min ⁇ b + ⁇ ⁇ ⁇ Za ⁇ max) amounts exceeding (hereinafter, beyond content data) is calculated e n.
  • the excess data e is considered to be included in ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ , and the excess data e is considered to be the amount of dispersion of the pixel image data b and b force. That is, such a state is considered to be because the pixel image data b and b from which the pixel image data “b + ⁇ ⁇ ⁇ / ⁇ ” is restored are inappropriate.
  • the pixel image data b 1 and b 2 are corrected so that the pixel image data b + ⁇ ⁇ ⁇ ⁇ does not exceed the range (min ⁇ b + ⁇ ⁇ ⁇ / a ⁇ max)! /.
  • This correction amount is determined based on the following concept. As shown in FIG. 15, assuming that the correction amount data of the pixel image data b and b are correction data e and e, respectively, the pixel image data b ′ of the comparison image data at the pixel n is expressed by the equation (5). It is expressed as follows.
  • the restored image data at the pixel n can be set to an appropriate value by setting the correction data e_, e so that the expression (6) is satisfied. That is, it is possible to set ⁇ ⁇ ⁇ Z a that is the distribution amount based on the difference data ⁇ to an appropriate value. it can.
  • the specific setting of the correction data e n 2 based on equation (6), can be considered as follows, for example.
  • correction is performed by adding the correction data e and e set as described above to the pixel image data of the pixels n ⁇ 2 and n ⁇ 1, and pixel image data corrected for the pixels n ⁇ 2 and n ⁇ 1 is generated. (S210).
  • the pixel images of the pixels n ⁇ 2 and n ⁇ l are further displayed.
  • the difference data D is distributed to the initial image data I of each pixel.
  • the image processing apparatus 1 has been described above, various modifications can be made without departing from the gist of the present invention.
  • the processing performed by the processing unit 4 may be configured by hardware composed of components in which a part of processing is shared by each of the forces configured by software.
  • the original image to be processed may be processed such as color-corrected or Fourier-transformed.
  • the comparison image data includes color correction for data generated using the change factor information data G, or Fourier transform. It is also good as data that has been processed.
  • the change factor information data includes information that simply changes the image, and information that improves the image, as opposed to deterioration.
  • the set number of times may be changed by the data G of the change factor information. For example, when the data of a certain pixel is distributed over many pixels due to blurring, the number of iterations may be increased, and when the variance is small, the number of iterations may be decreased.
  • the process may be stopped. For example, a method of judging whether or not the force is diverging can be determined by looking at the average value of the difference data D and determining that the diverging force is greater than the previous value.
  • the process may be stopped. For example, in the case of 8 bits, if the value to be changed exceeds 255, processing is stopped.
  • that value may be used instead of the normal value. For example, let's assume that a value exceeding 255 within the 8-bit range of 0 to 255 is input data. When this happens, it is processed as 255, which is the maximum value.
  • the change factor information data G may generate data that goes out of the area of the image to be restored. .
  • data that protrudes outside the area is input to the opposite side.
  • the data also bring the opposite side force.
  • the difference data D can be directly used as the previous restored image data I, or the corresponding pixel
  • each processing method described above can be automatically selected according to the content of the data G of the change factor information.
  • processing methods (1) a method of allocating difference data D using an allocation ratio k (allocation ratio allocation method), (2) a corresponding pixel difference, or Processing unit program that can execute the three methods of scaling the difference data D (corresponding pixel method) and (3) detecting the center of gravity of the change factor and using the data of the center of gravity (centroid method) 4) Save the data in the analysis, analyze the status of the change factors, and select one of the three methods based on the analysis results. Alternatively, you can select any of the three methods and use them alternately in each routine, or process them in one method for the first few times, and then process them in another method. !
  • the first method is to reduce the data by thinning out the data.
  • thinning for example, as shown in FIG. 17, when the original image data ImgZ force consists of pixels 11-16, 21-26, 31-36, 41-46, 51-56, 61-66, There is a method of thinning out every other pixel to generate a reduced size Img 'of the pixels 11, 13, 15, 31, 33, 35, 51, 53, 55, which is a quarter size.
  • the transfer function of ' is not the transfer function used in the iterative processing of the reduced data. Therefore, the reduced and restored image data I and the reduced Img 'force that is the reduced original image data also calculate the transfer function.
  • the calculated transfer function is enlarged, and the enlarged transfer function is interpolated.
  • the corrected transfer function is used as the transfer function for the original image data Img ′ as the original data. Then, using the modified transfer function, deconvolution calculation is performed in the frequency space (calculation that removes blur by calculating the image group force including blur), and the complete restored image data I
  • the original image data Img ' may be used for further processing.
  • the second method of using reduced data is a method of obtaining reduced data by extracting data of a partial area of original image data Img '.
  • the original image data ImgZ force consists of pixels 11 to 16, 21 to 26, 31 to 36, 41 to 46, 51 to 56, 61 to 66!
  • the entire image area is not restored by iterative processing, but a part of the area is iteratively processed to obtain a good restored image, which is used to obtain a transfer function for that part, and the transfer function itself
  • the entire image is restored using a modified version (enlarged).
  • the area to be extracted must be sufficiently larger than the fluctuation area. In the previous example shown in Fig. 5 etc., it fluctuates over 3 pixels, so it is necessary to extract an area of 3 pixels or more.
  • the original image data Img ' is divided into four parts as shown in Fig. 19, for example. It is possible to make the original whole image by iteratively processing each of the four reduced Ims, restoring each of the four divided areas, and combining the restored four divided images into one.
  • the method is as follows.
  • a subject with a sudden change in contrast uses an iterative restoration process using the processing methods shown in Fig. 3 and Fig. 13, and if it tries to obtain something similar to the original image, the number of iterations is extremely high. And the restored image data that approximates the original subject after processing many times.
  • the data of the original image (blurred image) Img ' ⁇ , the data B of the change factor information at the time of shooting is generated from the data B of the known image, and the data of the blurred image is generated.
  • the superimposed image is restored by the process shown in FIG. 3, and a known added field image is obtained from the result data C as the restored image data I.
  • the base image data Img includes a rapid contrast change, but by adding the data B of a known image, this rapid contrast change can be reduced, and the restoration process is performed. The number of iterations can be reduced.
  • Method of optimizing the distribution of D Method of optimizing the distribution of difference data
  • Method of thinning out data and combining with inverse problem inverse problem thinning out method
  • Extracting the reduced area and inverse problem (7) Method of superimposing a predetermined image and performing an iterative process, and then removing the predetermined image (bad image countermeasure overlay method), (8) Method to remove the calculated error from the restored image including (error extraction method)
  • the processing method program may be stored in the processing unit 4 so that the processing method can be automatically selected according to the user's selection or the type of image.
  • any one of these (1) to (8) is stored in the processing unit 4 and selected by the user.
  • the processing method may be automatically selected according to the type of image. Also
  • the image processing apparatus 1 may have a different processing method in addition to any one or a plurality of (1) to (8) described above.
  • each processing method mentioned above may be programmed.
  • a program may be stored in a storage medium such as a CD, a DVD, or a USB memory so that it can be read by a computer.
  • the image processing apparatus 1 has a reading means for reading a program in the storage medium.
  • the program may be stored in an external server of the image processing apparatus 1, downloaded as necessary, and used.
  • the image processing apparatus 1 has communication means for downloading the program in the storage medium.

Abstract

Provided is a practical circuit processing method which prevents increase of the device size for restoring an image. An image processing device compares image data I0’on a comparison image generated from image data I0 on an arbitrary image to image data Img on an original image to be processed. Difference data D obtained by the comparison is appropriately distributed image data on an arbitrary image so as to generate image data I0+n on the restored image.

Description

明 細 書  Specification
画像処理装置  Image processing device
技術分野  Technical field
[0001] 本発明は、画像処理装置に関する。  [0001] The present invention relates to an image processing apparatus.
背景技術  Background art
[0002] 従来から、カメラ等で撮影した際には、画像劣化が生ずることが知られている。画像 劣化の要因としては撮影時の手ぶれ、光学系の各種の収差、レンズの歪み等がある  [0002] Conventionally, it is known that image degradation occurs when an image is taken with a camera or the like. Causes of image degradation include camera shake during shooting, various aberrations of the optical system, lens distortion, etc.
[0003] 撮影時の手ぶれを補正するためには、レンズを動かす方式と、回路処理する方式と が知られている。たとえば、レンズを動かす方式としては、カメラの手ぶれを検出し、 所定のレンズを、その検出した手ぶれに合わせて動かすことで補正する方式が知ら れている (特許文献 1参照)。 In order to correct camera shake during shooting, a method of moving a lens and a method of circuit processing are known. For example, as a method for moving a lens, a method is known in which camera shake is detected and correction is performed by moving a predetermined lens in accordance with the detected camera shake (see Patent Document 1).
[0004] また、回路処理する方式としては、カメラの光軸の変動を角加速度センサで検出し 、検出した角速度等力 撮影時のぼけ状態を表す伝達関数を取得し、撮影画像に 対し、取得した伝達関数の逆変換を行い、画像を復元する方式が知られている(特 許文献 2参照)。  [0004] Further, as a circuit processing method, a change in the optical axis of the camera is detected by an angular acceleration sensor, and a transfer function representing a blurring state at the time of photographing is detected and obtained for a photographed image. A method is known in which the transfer function is inversely transformed to restore the image (see Patent Document 2).
[0005] 特許文献 1:特開平 6— 317824号公報 (要約書参照)  [0005] Patent Document 1: Japanese Patent Laid-Open No. 6-317824 (see abstract)
特許文献 2:特開平 11 24122号公報 (要約書参照)  Patent Document 2: JP-A-11 24122 (see abstract)
発明の開示  Disclosure of the invention
発明が解決しょうとする課題  Problems to be solved by the invention
[0006] 特許文献 1記載の手ぶれ補正を採用したカメラは、モータ等レンズを駆動するハー ドウエアのスペースが必要となり大型化してしまう。また、そのようなハードウェア自体 やそのハードウェアを動かす駆動回路が必要となり、コストアップとなってしまう。  [0006] A camera adopting the camera shake correction described in Patent Document 1 requires a hardware space for driving a lens such as a motor, and becomes large. In addition, such hardware itself and a drive circuit for operating the hardware are required, which increases costs.
[0007] また、特許文献 2記載の手ぶれ補正の場合は、上述した問題点はなくなるものの、 次のような問題を有する。すなわち、取得した伝達関数の逆変換で画像復元がなさ れることは理論上成り立つが、実際問題として、以下の 2つの理由で、画像復元が困 難である。 [0008] 第 1に、取得する伝達関数は、ノイズゃブレ情報誤差等に非常に弱ぐこれらのわ ずかな変動により、値が大きく変動する。このため、逆変換で得られる復元画像は、 手ぶれがない状態で写した画像とはほど遠いものとなり、実際上は利用できない。第 2に、ノイズ等を考慮した逆変換を行う場合、連立方程式の解の特異値分解等で解 を推定する方法も採用できるが、その推定のための計算値が天文学的な大きさにな り、実際的には解くことができなくなるリスクが高い。 [0007] In addition, the camera shake correction described in Patent Document 2 has the following problems although the above-described problems are eliminated. In other words, it is theoretically possible to perform image restoration by inverse transformation of the acquired transfer function, but as a practical problem, image restoration is difficult for the following two reasons. [0008] First, the value of the transfer function to be obtained fluctuates greatly due to these slight fluctuations that are very vulnerable to noise information errors. For this reason, the restored image obtained by the inverse transformation is far from an image taken with no camera shake, and cannot be used in practice. Secondly, when performing inverse transformation considering noise, etc., a method of estimating the solution by singular value decomposition etc. of the solution of simultaneous equations can be adopted, but the calculated value for the estimation becomes astronomical size. Therefore, there is a high risk that it will not be solved in practice.
[0009] 上述したように、本発明の課題は、画像を復元するに当たり、装置の大型化を防止 すると共に、現実性のある回路処理方式を有する画像処理装置を提供することであ る。  [0009] As described above, an object of the present invention is to provide an image processing apparatus having a realistic circuit processing method while preventing an increase in size of the apparatus when restoring an image.
課題を解決するための手段  Means for solving the problem
[0010] 上記課題を解決するために、本発明の画像処理装置は、画像を処理する処理部を 有する画像処理装置において、処理部は、画像変化の要因となる変化要因情報の データを利用して、任意の画像の画像データ力も比較用画像の画像データを生成し 、その後、処理対象となる原画像の画像データと比較用画像の画像データとを比較 し、この比較の結果として得られた差分のデータを、変化要因情報のデータを利用し て任意の画像の画像データに配分することにより復元画像の画像データを生成し、こ の復元画像の画像データが制限値内にあるかどうかを判断し、復元画像の画像デー タカ 制限値の範囲を越える場合には、復元画像の画像データの生成の元になつてIn order to solve the above problems, an image processing apparatus according to the present invention includes an image processing apparatus having a processing unit that processes an image, and the processing unit uses data of change factor information that causes an image change. Thus, the image data power of an arbitrary image is also generated as a result of this comparison by generating image data of a comparison image and then comparing the image data of the original image to be processed with the image data of the comparison image. The difference data is distributed to the image data of an arbitrary image using the data of the change factor information to generate the image data of the restored image, and whether the image data of the restored image is within the limit value. If the image data limit of the restored image is exceeded and the range of the restored image is exceeded,
V、る元復元画像の画像データを、制限値の範囲を越える越え分のデータに基づ!/、て 補正した補正復元画像の画像データを生成し、その後、補正復元画像の画像デー タを任意の画像の画像データの代わりに使用し、同様の処理を繰り返すことで、変化 する前の本来の画像に近似する復元画像の画像データを生成する処理を行うことと する。 V, based on the data that exceeds the limit value of the original restored image data! / The image data of the corrected and restored image that has been corrected is generated, then the image data of the corrected and restored image is used in place of the image data of any image, and the same processing is repeated, so that the original A process for generating image data of a restored image that approximates the original image is performed.
[0011] この発明によれば、画像を復元するに当たり、装置の大型化を防止すると共に、現 実性のある回路処理方式を有する画像処理装置とすることができる。  [0011] According to the present invention, when restoring an image, it is possible to prevent an increase in size of the apparatus and to provide an image processing apparatus having a practical circuit processing method.
[0012] また、他の発明は、上述の発明に加え、制限値が、画素に蓄積できるエネルギー量 の制限値であることとする。この構成を採用した場合、画素に蓄積できるエネルギー 量を越えた復元画像データが生成されてしまうことを防止することができる。 [0013] さらに、他の発明は、越え分のデータに基づいて行う元復元画像の補正の補正量 は、変化要因情報のデータを利用して求めることとする。この構成を採用した場合、 元復元画像データへ配分の量を変化要因情報のデータを利用して決めることにより 、復元画像データを制限値内に効率的に収まるようにすることができる。 [0012] In addition to the above-described invention, in another invention, the limit value is a limit value of the amount of energy that can be stored in a pixel. When this configuration is adopted, it is possible to prevent the restoration image data exceeding the amount of energy that can be stored in the pixel from being generated. Furthermore, according to another invention, the correction amount of the correction of the original restored image performed based on the excess data is obtained using the data of the change factor information. When this configuration is adopted, the amount of distribution to the original restored image data is determined using the data of the change factor information, so that the restored image data can be efficiently accommodated within the limit value.
[0014] また、さらに、他の発明は、復元画像の画像データを生成するために行う任意の画 像の画像データへの差分のデータの配分は、差分のデータを変化要因情報で除し た値を用いて算出した配分量とすることとする。この構成を採用した場合、差分デー タを効率的に所定値より小さくすることができる。  [0014] Further, in another invention, the distribution of the difference data to the image data of an arbitrary image performed to generate the image data of the restored image is obtained by dividing the difference data by the change factor information. The distribution amount is calculated using the value. When this configuration is adopted, the difference data can be efficiently made smaller than the predetermined value.
[0015] また、他の発明は、処理部は、さらに、未処理画素について、補正復元画像処理を 行った画素の配分量の未処理画素への影響分を取り除く処理を行うこととする。この 構成を採用した場合、元復元画像データへ配分の量を変化要因情報のデータを利 用して決めることにより、復元画像データを制限値内に効率的に収まるようにすること ができる。  [0015] According to another invention, the processing unit further performs a process of removing an influence on the unprocessed pixels of the distribution amount of the pixels subjected to the correction / restoration image processing with respect to the unprocessed pixels. When this configuration is adopted, the amount of distribution to the original restored image data is determined using the data of the change factor information, so that the restored image data can be efficiently accommodated within the limit value.
発明の効果  The invention's effect
[0016] 本発明によれば、劣化した画像を復元するに当たり、装置の大型化を防止できると 共に、現実性のある回路処理方式を有する画像処理装置とすることができる。  According to the present invention, when restoring a deteriorated image, it is possible to prevent an increase in size of the apparatus and to provide an image processing apparatus having a realistic circuit processing method.
図面の簡単な説明  Brief Description of Drawings
[0017] [図 1]本発明の実施の形態に係る画像処理装置の主要構成を示すブロック図である  FIG. 1 is a block diagram showing a main configuration of an image processing apparatus according to an embodiment of the present invention.
[図 2]図 1に示す画像処理装置の概要を示す外観斜視図で、角速度センサの配置位 置を説明するための図である。 FIG. 2 is an external perspective view showing an outline of the image processing apparatus shown in FIG. 1, and is a view for explaining an arrangement position of angular velocity sensors.
[図 3]図 1に示す画像処理装置の処理部で行う処理方法 (処理ルーチン)であって基 本的な考え方を説明するための処理フロー図である。  FIG. 3 is a processing flow diagram (processing routine) performed by the processing unit of the image processing apparatus shown in FIG. 1 for explaining the basic concept.
[図 4]図 3に示す処理方法の概念を説明するための図である。  4 is a diagram for explaining the concept of the processing method shown in FIG.
[図 5]図 3に示す処理方法を、手ぶれを例にして具体的に説明するための図で、手ぶ れのないときのエネルギーの集中を示す表である。  FIG. 5 is a diagram for specifically explaining the processing method shown in FIG. 3 using hand shake as an example, and a table showing energy concentration when there is no hand shake.
[図 6]図 3に示す処理方法を、手ぶれを例にして具体的に説明するための図で、手ぶ れのな 、ときの画像データを示す図である。 [図 7]図 3に示す処理方法を、手ぶれを例にして具体的に説明するための図で、手ぶ れが生じたときのエネルギーの分散を示す図である。 FIG. 6 is a diagram for specifically explaining the processing method shown in FIG. 3 using camera shake as an example, and is a diagram showing image data when there is no camera shake. FIG. 7 is a diagram for specifically explaining the processing method shown in FIG. 3 with an example of camera shake, and is a diagram showing energy dispersion when camera shake occurs.
[図 8]図 3に示す処理方法を、手ぶれを例にして具体的に説明するための図で、任意 の画像力も比較用画像データを生成する状況を説明するための図である。  FIG. 8 is a diagram for specifically explaining the processing method shown in FIG. 3 by taking an example of camera shake, and is a diagram for explaining a situation in which image data for comparison is generated with an arbitrary image force.
[図 9]図 3に示す処理方法を、手ぶれを例にして具体的に説明するための図で、比較 用画像データと、処理対象となるぶれた原画像とを比較して、差分データを生成する 状況を説明するための図である。 [FIG. 9] A diagram for specifically explaining the processing method shown in FIG. 3 using camera shake as an example. Comparison image data is compared with a blurred original image to be processed, and difference data is obtained. It is a figure for demonstrating the condition to produce | generate.
[図 10]図 3に示す処理方法を、手ぶれを例にして具体的に説明するための図で、差 分データを配分し任意の画像に加えることで復元画像データを生成する状況を説明 するための図である。  FIG. 10 is a diagram for specifically explaining the processing method shown in FIG. 3 by taking an example of camera shake, and explains a situation in which restored image data is generated by allocating difference data and adding it to an arbitrary image. FIG.
[図 11]図 3に示す処理方法を、手ぶれを例にして具体的に説明するための図で、生 成された復元画像データから新たな比較用画像データを生成し、そのデータと処理 対象となるぶれた原画像とを比較して差分データを生成する状況を説明するための 図である。  [FIG. 11] A diagram for specifically explaining the processing method shown in FIG. 3 by taking an example of camera shake, and generating new comparison image data from the generated restored image data, and the data and processing target It is a figure for demonstrating the condition which produces | generates difference data by comparing with the blurred original image.
[図 12]図 3に示す処理方法を、手ぶれを例にして具体的に説明するための図で、新 たに生成された差分データを配分し、新たな復元画像データを生成する状況を説明 するための図である。  [FIG. 12] A diagram for specifically explaining the processing method shown in FIG. 3 by taking an example of camera shake, and explaining a situation in which newly generated differential data is allocated and new restored image data is generated. It is a figure for doing.
[図 13]差分データの配分を説明する処理フローである。  FIG. 13 is a processing flow for explaining the distribution of difference data.
[図 14]図 1に示す画像処理装置で扱う画像データ中の各画素画像データの内容を 説明する図である。  FIG. 14 is a diagram illustrating the contents of each pixel image data in the image data handled by the image processing apparatus shown in FIG. 1.
[図 15]図 1に示す画像処理装置で扱う補正された画素画像データと比較用画像デー タの画素画像データの関係を表わす図である。  FIG. 15 is a diagram showing a relationship between corrected pixel image data handled by the image processing apparatus shown in FIG. 1 and pixel image data of comparison image data.
[図 16]図 1に示す画像処理装置で扱う画素 n以降の画素についての差分データの配 分量を説明する図である。  FIG. 16 is a diagram for explaining the distribution amount of difference data for pixels after pixel n handled by the image processing apparatus shown in FIG. 1.
[図 17]図 3や図 13に示す処理方法を利用した他の処理方法を説明するための図で 、 (A)は処理対象となる原画像のデータを示し、 (B)は (A)のデータを間弓 I V、たデ一 タを示す図である。  [FIG. 17] A diagram for explaining another processing method using the processing method shown in FIG. 3 or FIG. 13, in which (A) shows data of an original image to be processed, and (B) shows (A) It is a figure which shows the data of the arch IV, and the data.
[図 18]図 3や図 13に示す処理方法を利用した、さらに他の処理方法を説明するため の図で、 (A)は処理対象となる原画像のデータを示し、 (B)は (A)のデータの一部を 取り出したデータを示す図である。 [FIG. 18] To explain another processing method using the processing method shown in FIG. 3 or FIG. (A) shows data of an original image to be processed, and (B) shows data obtained by extracting a part of the data of (A).
[図 19]図 18に示す処理方法の変形例を説明するための図で、原画像のデータを 4 分割し、各分割領域から、反復処理するための一部の領域を取り出すことを示す図 である。  FIG. 19 is a diagram for explaining a modification of the processing method shown in FIG. 18, and is a diagram showing that the data of the original image is divided into four, and a part of the area for iterative processing is extracted from each divided area. It is.
符号の説明  Explanation of symbols
[0018] 1 画像処理装置 [0018] 1 Image processing apparatus
2 撮像部  2 Imaging unit
3 制御系部  3 Control system
4 処理部  4 Processing section
5 記録部  5 Recording section
6 検出部  6 Detector
7 要因情報保存部  7 Factor information storage
I  I
0 初期画像データ (任意の画像の画像データ)  0 Initial image data (image data of any image)
b 初期画像データ (任意の画像の画像データ)  b Initial image data (image data of any image)
I '  I '
0 比較用画像データ  0 Comparison image data
b 比較用画像データ  b Image data for comparison
G 変化要因情報のデータ  G Change factor information data
Img' 原画像データ (撮影された画像の画像データ)  Img 'original image data (image data of the captured image)
b ' 復元画像データ(復元画像のデータ)  b 'Restored image data (Restored image data)
D 差分データ  D Differential data
k 配分比  k Allocation ratio
I  I
0+n 復元画像データ (復元画像のデータ)  0 + n Restored image data (Restored image data)
Img 劣化のな!、本来の正し ヽ画像のデータ(基画像データ)  Img No degradation! Original correct image data (base image data)
a 劣化のな!、本来の正し!/、画像のデータ(基画像データ)  a No deterioration! Original correctness! /, Image data (base image data)
e 越え分のデータ  e Excess data
発明を実施するための最良の形態  BEST MODE FOR CARRYING OUT THE INVENTION
[0019] 以下、本発明の第 1の実施の形態に係る画像処理装置 1について図を参照しなが ら説明する。なお、この画像処理装置 1は、撮像部に CCDを使用した民生用のいわ ゆるデジタルカメラとしているが、撮像部に CCD等の撮像素子を用いる監視用カメラ 、テレビ用カメラ用、内視鏡用カメラ等、他の用途のカメラとしたり、顕微鏡用、双眼鏡 用、さらには NMR撮影用等の画像診断装置等、カメラ以外の機器にも適用できる。 Hereinafter, the image processing apparatus 1 according to the first embodiment of the present invention will be described with reference to the drawings. Will be explained. The image processing apparatus 1 is a so-called digital camera for consumer use that uses a CCD for the image pickup unit. However, the image processing device 1 is for a surveillance camera, a TV camera, and an endoscope that use an image pickup device such as a CCD for the image pickup unit. It can also be applied to devices other than cameras, such as cameras for other uses, imaging diagnostic devices for microscopes, binoculars, and NMR imaging.
[0020] 画像処理装置 1は、人物等の映像を撮影する撮像部 2と、その撮像部 2を駆動する 制御系部 3と、撮像部 2で撮影された画像を処理する処理部 4と、を有している。また 、この実施の形態に係る画像処理装置 1は、さらに処理部 4で処理された画像を記録 する記録部 5と、角速度センサ等からなり、画像劣化など変化の要因となる変化要因 情報を検知する検出部 6と、画像劣化などを生じさせる既知の変化要因情報を保存 する要因情報保存部 7を有する。  [0020] The image processing apparatus 1 includes an imaging unit 2 that captures an image of a person or the like, a control system unit 3 that drives the imaging unit 2, a processing unit 4 that processes an image captured by the imaging unit 2, have. The image processing apparatus 1 according to this embodiment further includes a recording unit 5 that records the image processed by the processing unit 4 and an angular velocity sensor, and detects change factor information that causes a change such as image degradation. And a factor information storage unit 7 for storing known change factor information that causes image degradation and the like.
[0021] 撮像部 2は、レンズを有する撮影光学系やレンズを通過した光を電気信号に変換 する CCDや C— MOS等の撮像素子を備える部分である。制御系部 3は、撮像部 2、 処理部 4、記録部 5、検出部 6、および要因情報保存部 7等、画像処理装置 1内の各 部を制御するものである。  The imaging unit 2 is a part that includes an imaging optical system having a lens and an imaging element such as a CCD or C-MOS that converts light that has passed through the lens into an electrical signal. The control system unit 3 controls each unit in the image processing apparatus 1 such as the imaging unit 2, the processing unit 4, the recording unit 5, the detection unit 6, and the factor information storage unit 7.
[0022] 処理部 4は、画像処理プロセサで構成されており、 ASIC (Application Specific  [0022] The processing unit 4 is composed of an image processing processor, and is configured by an ASIC (Application Specific
Integrated Circuit)のようなハードウェアで構成されている。この処理部 4には、 後述する比較用画像の画像データ(以下、比較用画像データ)を生成する際の元と なる画像が保管されることもある。処理部 4は、 ASICのようなハードウェアとして構成 されるのではなぐソフトウェアで処理する構成としても良い。記録部 5は、半導体メモ リで構成されている力 ハードディスクドライブ等の磁気記録手段や、 DVD等を使用 する光記録手段等を採用しても良 ヽ。  It is composed of hardware such as (Integrated Circuit). The processing unit 4 may store an image serving as a base when generating image data for comparison images (hereinafter referred to as comparison image data), which will be described later. The processing unit 4 may be configured to process with software rather than configured as hardware such as an ASIC. The recording unit 5 may employ magnetic recording means such as a hard disk drive made of semiconductor memory, or optical recording means using a DVD or the like.
[0023] 検出部 6は、図 2に示すように、画像処理装置 1の光軸である Z軸に対して垂直方 向となる X軸、 Y軸の回りの速度を検出する 2つの角速度センサを備えるものである。 ところで、カメラで撮影する際の手ぶれは、 X方向、 Y方向、 Z方向の各方向への移動 や Z軸回りの回動も生ずる力 各変動により最も大きな影響を受けるのは、 Y軸回りの 回転と X軸回りの回転である。これら 2つの変動は、ほんのわずかに変動しただけで、 その撮影された画像は大きくぼける。このため、この実施の形態では、図 2の X軸回り と Y軸回りの 2つの角速度センサのみを配置している。し力し、より完全を期すため Z 軸回りの角速度センサをさらに付加したり、 X方向や Y方向への移動を検出するセン サを付加しても良い。また、使用するセンサとしては、角速度センサではなぐ角加速 度センサとしても良い。 As shown in FIG. 2, the detection unit 6 includes two angular velocity sensors that detect the speeds around the X and Y axes that are perpendicular to the Z axis that is the optical axis of the image processing apparatus 1. Is provided. By the way, camera shake when shooting with the camera is the force that also causes movement in the X, Y, and Z directions and rotation around the Z axis. Rotation and rotation around the X axis. These two variations are only a slight variation, and the captured image is greatly blurred. Therefore, in this embodiment, only two angular velocity sensors around the X axis and the Y axis in FIG. 2 are arranged. Z for strength and completeness An additional angular velocity sensor around the axis or a sensor that detects movement in the X or Y direction may be added. In addition, the sensor used may be an angular acceleration sensor that is not an angular velocity sensor.
[0024] 要因情報保存部 7は、既知の変化要因情報などの変化要因情報、たとえば光学系 の収差等を保存しておく記録部である。なお、この実施の形態では、要因情報保存 部 7には、光学系の収差やレンズのひずみの情報が保存されている力 後述する手 ぶれのぼけの復元の際にはそれらの情報は、利用して 、な!/、。  [0024] The factor information storage unit 7 is a recording unit that stores change factor information such as known change factor information, such as aberrations of the optical system. In this embodiment, the factor information storage unit 7 stores information on aberrations of the optical system and lens distortion. The information is used when restoring blurring of camera shake described later. Wow! /
[0025] 次に、以上のように構成された画像処理装置 1の処理部 4の処理方法の概要を、図 3に基づいて説明する。  Next, an outline of the processing method of the processing unit 4 of the image processing apparatus 1 configured as described above will be described with reference to FIG.
[0026] 図 3中、「I」は、任意の画像の画像データ(以下、任意画像データ)であって、処理  In FIG. 3, “I” is image data of an arbitrary image (hereinafter, arbitrary image data)
0  0
部 4の記録部に予め保存されている画像のデータである。 ΓΙ 1 」は、その任意画像 This is image data stored in advance in the recording section of section 4. ΓΙ 1 ”is an arbitrary image
0  0
データ Iの変化画像のデータを示し、比較のための比較用画像の画像データ(以下 Shows the data of the change image of data I.
0 0
、比較用画像データ)である。「G」は、検出部 6で検出された変化要因情報(=変化 要因情報(点像関数))のデータで、処理部 4の記録部に保存されるものである。 rim g' 」は、撮影された画像、すなわち変化要因により変化した変化画像のデータを指 し、この処理において処理対象となる原画像の画像データ(以下、原画像データ)で ある。  Comparison image data). “G” is data of change factor information (= change factor information (point spread function)) detected by the detection unit 6 and is stored in the recording unit of the processing unit 4. “rim g ′” refers to the captured image, that is, the data of the changed image that has changed due to the change factor, and is the image data of the original image that will be processed in this processing (hereinafter referred to as the original image data).
[0027] 「D」は、原画像データ Img' と、比較用画像データ との差分のデータである。「  “D” is difference data between the original image data Img ′ and the comparison image data. "
0  0
kjは、変化要因情報のデータ Gに基づく配分比である。「I 」は、任意画像データ I  kj is the distribution ratio based on the data G of the change factor information. "I" is optional image data I
O+n 0 に、差分データ Dを変化要因情報のデータに基づいて配分して新たに生成した復元 画像の画像データ(以下、復元画像データ)である。「Img」は、原画像データ Img' の基となった、変化する前の本来の画像の画像データ(以下、基画像データという) である。ここで、 Imgと Img' の関係は、次の(1)式で現されるとする。  This is image data of a restored image newly generated by distributing the difference data D to O + n 0 based on the data of the change factor information (hereinafter, restored image data). “Img” is the original image data before the change (hereinafter referred to as “basic image data”) that is the basis of the original image data Img ′. Here, the relationship between Img and Img 'is expressed by the following equation (1).
Img, =Img水 G · ·· (1)  Img, = Img water G (1)
「 *」は、重畳積分を表わす演算子である。  “*” Is an operator representing a superposition integral.
なお、差分データ Dは、対応する画素の単純な差分でも良い場合もあるが、一般的 には、変化要因情報のデータ Gにより異なり、次の(2)式で現される。  The difference data D may be a simple difference between corresponding pixels, but in general, it differs depending on the data G of the change factor information and is expressed by the following equation (2).
D=f (Img' , I , G)〜(2) [0028] 処理部 4の処理ルーチンは、まず、任意画像データ Iを初期画像データ Iとして用 D = f (Img ', I, G) ~ (2) [0028] The processing routine of the processing unit 4 first uses the arbitrary image data I as the initial image data I.
0 0 意することから始まる (ステップ S 101)。この初期画像データ I、すなわち任意画像デ  0 0 Starts with the intention (step S 101). This initial image data I, that is, arbitrary image data
0  0
ータ Iとしては、撮影した画像の画像データである原画像データ Img' を用いても良 Data I may be the original image data Img 'that is the image data of the captured image.
0 0
ぐまた、黒ベタ、白ベタ、灰色ベタ、巿松模様等どのような画像のデータを用いても 良い。ステップ S 102で、(1)式の Imgの代わりに初期画像データ Iを入れ、変化画  In addition, any image data such as black solid, white solid, gray solid, and pine pattern may be used. In step S102, the initial image data I is inserted instead of Img in equation (1), and the change image is displayed.
0  0
像である比較用画像データ I ' を求める。次に、原画像のデータ Img' と比較用画  Image data for comparison I ′, which is an image, is obtained. Next, the original image data Img 'and the comparison image
0  0
像データ I ' と比較し、差分データ Dを算出する (ステップ S 103)。  Compared with the image data I ′, difference data D is calculated (step S103).
0  0
[0029] 次に、ステップ S 104で、この差分データ Dが所定値以上である力否かを判断し、所 定値以上であれば、ステップ S 105で新たな初期画像のデータ(=復元画像データ) を生成する処理を行う。すなわち、差分データ Dを変化要因情報のデータ Gに基づ V、て、初期画像データ Iに配分し、復元画像データ I を生成する。その後、復元画  Next, in step S 104, it is determined whether or not the difference data D is greater than or equal to a predetermined value. If it is greater than or equal to the predetermined value, new initial image data (= restored image data) is determined in step S 105. ) Process to generate. That is, the difference data D is allocated to the initial image data I based on the data G of the change factor information V and the restored image data I is generated. Then restore the image
0 O+n  0 O + n
像データ I を初期画像データ Iとして、ステップ S 102, S103, S104を繰り返す。  Steps S102, S103, and S104 are repeated using image data I as initial image data I.
O+n 0  O + n 0
[0030] ステップ S104において、差分データ Dが所定値より小さい場合、処理を終了する( ステップ S106)。そして、処理を終了した時点での復元画像データ I を正し 、画像  [0030] If the difference data D is smaller than the predetermined value in step S104, the process is terminated (step S106). Then, the restored image data I at the end of processing is corrected and the image
O+n  O + n
、すなわち劣化のない基画像データ Imgと推定し、そのデータを記録部 5に記録する 。なお、記録部 5には、初期画像データ Iや変化要因情報のデータ Gを記録しておき  That is, the base image data Img without deterioration is estimated, and the data is recorded in the recording unit 5. The recording unit 5 records initial image data I and change factor information data G.
0  0
、必要により処理部 4に渡すようにしても良い。  If necessary, it may be passed to the processing unit 4.
[0031] 以上の処理方法の考え方をまとめると以下のようになる。すなわち、この処理方法 においては、処理の解を逆問題としては解かず、合理的な解を求める最適化問題と して解くのである。逆問題として解く場合、特許文献 2の記載にもあるように、理論上 は可能であるが、現実問題としては困難である。 [0031] The concept of the above processing method is summarized as follows. In other words, in this processing method, the processing solution is not solved as an inverse problem, but as an optimization problem for obtaining a rational solution. When solving as an inverse problem, it is theoretically possible as described in Patent Document 2, but it is difficult as a real problem.
[0032] 最適化問題として解くということは、次の条件を前提としている。 [0032] Solving as an optimization problem is based on the following conditions.
すなわち、  That is,
(1)入力に対する出力は、一意に決まる。  (1) The output corresponding to the input is uniquely determined.
(2)出力が同じであれば、入力は同じである。  (2) If the output is the same, the input is the same.
(3)出力が同じになるように、入力を更新しながら反復処理することにより、解を収束 させていく。  (3) The solution is converged by iteratively updating the input so that the output is the same.
[0033] このことを換言すれば、図 4 (A) (B)に示すように、原画像データ Img' と近似であ る比較用画像データ (I In other words, as shown in FIGS. 4A and 4B, it is approximate to the original image data Img ′. Comparison image data (I
0 O+n ' )を生成できれば、その生成の元データとなる初期 画像データ Iまたは復元画像データ I は、原画像データ Img' の基となる基画像  If 0 O + n ') can be generated, the initial image data I or the restored image data I that is the original data for that generation is
0 O+n  0 O + n
データ Imgに近似したものとなる。  It approximates the data Img.
[0034] なお、この実施の形態では、角速度検出センサは 5 sec毎に角速度を検出してい る。また、差分データ Dの判定基準となる値は、各データを 8ビット(0〜255)で表わ した場合に、この実施の形態では「6」としている。すなわち、 6より小さい、つまり 5以 下の時は、処理を終了している。また、角速度検出センサで検出したブレの生データ は、センサ自体の校正が不十分なときは、実際のブレとは対応しない。よって実際の ブレに対応させるため、センサが校正されていないときは、センサで検出した生デー タに所定の倍率をかけたりする補正が必要とされる。  In this embodiment, the angular velocity detection sensor detects the angular velocity every 5 seconds. In addition, the value used as a determination criterion for the difference data D is “6” in this embodiment when each data is represented by 8 bits (0 to 255). That is, when it is less than 6, that is, 5 or less, the processing is finished. In addition, the shake data detected by the angular velocity detection sensor does not correspond to actual shake when the sensor itself is not calibrated. Therefore, in order to cope with actual blurring, when the sensor is not calibrated, a correction is required to multiply the raw data detected by the sensor by a predetermined magnification.
[0035] 次に、図 3および図 4に示す処理方法の詳細を、図 5,図 6,図 7,図 8,図 9,図 10 ,図 11および図 12に基づいて説明する。  Next, the details of the processing method shown in FIGS. 3 and 4 will be described with reference to FIGS. 5, 6, 7, 8, 8, 9, 10, 11 and 12. FIG.
[0036] (手ぶれの復元アルゴリズム)  [0036] (Image stabilization algorithm)
手ぶれが無いとき、所定の画素に対応する光エネルギーは、露光時間中、その画 素に集中する。また、手ぶれがある場合、光エネルギーは、露光時間中にぶれた画 素に分散する。さらに、露光時間中のブレがわかれば、露光時間中の光エネルギー の分散の仕方がわ力るため、ぶれた画像力もブレの無い画像を作ることが可能となる  When there is no camera shake, the light energy corresponding to a given pixel is concentrated on that pixel during the exposure time. In addition, when there is camera shake, light energy is dispersed in the blurred pixels during the exposure time. In addition, if the blur during the exposure time is known, the way the light energy is dispersed during the exposure time can be understood, so that it is possible to produce a blur-free image.
[0037] 以下、簡単のため、横一次元で説明する。画素を左から順に、 ···, n— 1, n, n+ 1 , η+ 2, η+ 3, ···,とし、ある画素 ηに注目する。ブレが無いとき、露光時間中の光ェ ネルギ一は、その画素に集中するため、光エネルギーの集中度は「1. 0」である。こ の状態を図 5に示す。このときの撮影結果を、図 6の表に示す。図 6に示すもの力 劣 化しなかった場合の基画像データ Imgとなる。なお、各データは、 8ビット(0〜255) のデータで表わしている。 [0037] Hereinafter, for the sake of simplicity, the description will be made in one horizontal dimension. In order from the left,..., N—1, n, n + 1, η + 2, η + 3,. When there is no blur, the light energy during the exposure time is concentrated on that pixel, so the light energy concentration is “1.0”. Figure 5 shows this state. The table of Fig. 6 shows the shooting results at this time. The basic image data Img when the power shown in Fig. 6 is not deteriorated. Each data is represented by 8-bit data (0 to 255).
[0038] 露光時間中にブレがあり、露光時間中の 50%の時間は n番目の画素に、 30%の 時間は n+ 1番目の画素に、 20%の時間は n+ 2番目の画素に、それぞれぶれてい たとする。光エネルギーの分散の仕方は、図 7に示す表のとおりとなる。これが変化要 因情報のデータ Gとなる。 [0039] ブレは、全ての画素で一様であるので、上ぶれ(縦ぶれ)が無いとすると、ブレの状 況は、図 8に示す表のとおりとなる。図 8中の「理想画像」として示されるデータが、基 画像データ Imgで、「ブレ画像」として示されるデータが、撮影された画像の画像デー タ、すなわち原画像データ Img' となる。具体的には、たとえば「n— 3」の画素の「12 0」は、ぶれ情報である変化要因情報のデータ Gの「0. 5」「0. 3」「0. 2」の配分比に 従い、「n— 3」の画素に「60」、「n— 2」の画素に「36」、「n— 1」の画素に「24」という ように分散する。同様に、「n— 2」の画素のデータである「60」は、「n— 2」に「30」、「 n—l」に「18」、「n」に「12」として分散する。この原画像データ Img' と、図 7に示す 変化要因情報のデータ G力もぶれの無い理想画像 (基画像データ Img)を算出する こととなる。 [0038] There is a blur during the exposure time, 50% of the exposure time is at the nth pixel, 30% is at the n + 1st pixel, 20% is at the n + 2th pixel, Suppose that each was blurred. The way in which light energy is dispersed is as shown in the table in Figure 7. This becomes the data G of the change factor information. [0039] Since blurring is uniform for all pixels, assuming that there is no upper blur (vertical blurring), the blurring situation is as shown in the table in FIG. The data shown as “ideal image” in FIG. 8 is the basic image data Img, and the data shown as “blurred image” is the image data of the photographed image, that is, the original image data Img ′. Specifically, for example, “12 0” of the pixel “n−3” is the distribution ratio of “0.5”, “0.3”, “0.2” of the data G of the change factor information that is blur information. Accordingly, “60” is distributed to the “n−3” pixel, “36” is distributed to the “n−2” pixel, and “24” is distributed to the “n−1” pixel. Similarly, “60” which is the data of the pixel “n−2” is distributed as “30” in “n−2”, “18” in “n−l”, and “12” in “n”. This original image data Img 'and the change factor information data G shown in Fig. 7 will be calculated as an ideal image (base image data Img) with no blurring.
[0040] ステップ S101に示す初期画像データ Iとしては、どのようなものでも採用できるが、  [0040] Any initial image data I shown in step S101 can be used.
0  0
この説明に当たっては、原画像データ Img' を用いる。すなわち、 I =Img' として  In this explanation, the original image data Img ′ is used. That is, I = Img '
0  0
処理を開始する。図 9の表中に「入力」とされたものが初期画像データ Iに相当する。  Start processing. In the table of FIG. 9, “input” corresponds to the initial image data I.
0  0
この初期画像データ Iすなわち原画像データ Img' 〖こ、ステップ S 102で変化要因  This initial image data I, that is, the original image data Img '
0  0
情報のデータ Gを作用させる。すなわち、たとえば、初期画像データ Iの「n—3」の画  Use data G of information. That is, for example, the “n-3” image of the initial image data I
0  0
素の「60」は、 n— 3の画素に「30」が、「n— 2」の画素に「18」が、「n— 1」の画素に「 12」がそれぞれ割り振られる。他の画素についても同様に配分され、「出力 」とし  For the prime “60”, “30” is assigned to the n−3 pixel, “18” is assigned to the “n-2” pixel, and “12” is assigned to the “n-1” pixel. The other pixels are allocated in the same way, and are set as “Output”.
0 て示される比較用画像データ I  0 for comparison I
0 ' が生成される。その結果、ステップ S 103の差分デ ータ Dは、図 9の最下欄に示すようになる。  0 'is generated. As a result, the difference data D in step S103 is as shown in the bottom column of FIG.
[0041] この後、ステップ S104にて差分データ Dの大きさを判断する。具体的には、差分デ ータ Dが全て絶対値で 5以下となった場合に処理を終了するが、図 9に示す差分デ ータ Dは、この条件に合わないため、ステップ S105に進む。すなわち、差分データ D を変化要因情報のデータ Gを使用して、初期画像データ Iに配分して、図 10中の「 [0041] Thereafter, the size of the difference data D is determined in step S104. Specifically, the process is terminated when all the difference data D is 5 or less in absolute value, but the difference data D shown in FIG. 9 does not meet this condition, so the process proceeds to step S105. . That is, the difference data D is allocated to the initial image data I using the data G of the change factor information, and “
0  0
次回入力」として示される復元画像データ I を生成する。この場合、第 1回目である  The restored image data I shown as “next input” is generated. In this case, it is the first time
0+n  0 + n
ため、図 10では、 I と表している。  For this reason, in FIG.
0+ 1  0+ 1
[0042] 差分データ Dの配分は、たとえば「n— 3」の画素のデータ「30」に自分の所(=「n  [0042] The distribution of the difference data D is, for example, the data “30” of the pixel “n−3” (= “n
3」の画素)の配分比である 0. 5をかけた「15」を「n— 3」の画素に配分し、また「n 2」の画素のデータ「15」にその「n— 2」の画素にきているはずの配分比である 0. 3 を力けた「4. 5」を配分し、さらに、「n—l」の画素のデータ「9. 2」に、その「n—l」の 画素にきているはずの配分比である 0. 2をかけた「1. 84」を配分する。「n— 3」の画 素に配分された総量は、「21. 34」となり、この値を初期画像のデータ I (ここでは撮 “15”, which is the distribution ratio of “3” pixel), is distributed to “n—3” pixel “15”, and “n—2” is assigned to “n 2” pixel data “15”. It is the distribution ratio that should have come to the pixels of 0.3 The distribution ratio that should have come to the “n−l” pixel is assigned to the data “9.2” of the “n−l” pixel. Allocate “1. 84” multiplied by 2. The total amount allocated to the “n—3” pixel is “21. 34”, and this value is the initial image data I (here,
0  0
影画像のデータ Img' を使用)にプラスして、復元画像データ I を生成している。こ  Using the shadow image data Img '), the restored image data I is generated. This
0 +1  0 +1
の復元画像データ I は、図 10の表中の「次回入力」に相当するものである。  The restored image data I corresponds to “next input” in the table of FIG.
0 +1  0 +1
[0043] 図 11に示すように、この復元画像データ I がステップ S 102の入力画像のデータ  [0043] As shown in FIG. 11, the restored image data I is the input image data in step S102.
0+ 1  0+ 1
(=初期画像データ I )になり、ステップ S 102が実行される。図 11の表中の「入力 I  (= Initial image data I), and step S102 is executed. In the table in Fig. 11, “Input I
0 0 + 0 0 +
」は、復元画像データ I に相当する。そして、ステップ S 103へと移行し、新しい差"Corresponds to the restored image data I. Then move on to step S103
1 0+ 1 1 0+ 1
分データ Dを得る。この新しい差分データ Dの大きさをステップ S 104で判断し、所定 値より大きい場合、ステップ S 105で新しい差分データ Dを前回の復元画像データ I  Minute data D is obtained. The size of the new difference data D is determined in step S104. If it is larger than the predetermined value, the new difference data D is converted to the previous restored image data I in step S105.
0 + に配分し、新しい復元画像データ I を生成する。この復元画像データ I は、図 1 Allocate to 0 + and generate new restored image data I. This restored image data I is shown in Fig. 1.
1 0+2 0+21 0 + 2 0 + 2
2の表中の「次回入力」に相当するものである。その後、ステップ S102の遂行により、 復元画像データ I This corresponds to “next entry” in the table of 2. After that, by performing step S102, the restored image data I
0+2力も新しい比較用画像データ I  New image data for comparison with 0 + 2 force I
0+2 ' が生成される。このように、 ステップ S102, S103が実行された後、ステップ S104へ行き、そこでの判断によりス テツプ S 105へ行ったり、ステップ S 106へ移行する。このような処理を繰り返す。  0 + 2 'is generated. As described above, after steps S102 and S103 are executed, the process goes to step S104, and depending on the determination, the process goes to step S105, or the process proceeds to step S106. Such a process is repeated.
[0044] この画像処理装置 1では、処理するに当たり、ステップ 104において、事前に処理 回数と、差分データ Dの判断基準値のいずれか一方または両者を設定できる。たと えば処理回数として 20回、 50回等任意の回数を設定できる。また、処理を停止させ る差分データ Dの値を 8ビット(0〜255)中の「5」と設定し、 5以下になったら処理を 終了させたり、「0. 5」と設定し「0. 5」以下になったら処理を終了させることができる。 この設定値を任意に設定できる。処理回数と判断基準値の両者を入力した場合、い ずれか一方が満足されたとき処理は停止される。なお、両者の設定を可能としたとき 、判断基準値を優先し、所定の回数の処理では判断基準値内に入らな力つた場合、 さらに所定回数の処理を繰り返すようにしても良 、。  In this image processing apparatus 1, before processing, in step 104, either or both of the number of processes and the determination reference value of the difference data D can be set in advance. For example, the number of processings can be set to any number such as 20 or 50 times. Also, set the value of the difference data D that stops processing to “5” in 8 bits (0 to 255). When it becomes 5 or less, the processing is terminated, or “0.5” is set to “0”. The process can be terminated when 5 or less. This set value can be set arbitrarily. If both the number of processing times and the criterion value are entered, the processing is stopped when either one is satisfied. When both settings are possible, the judgment reference value may be prioritized, and if the predetermined number of processes does not fall within the determination reference value, the predetermined number of processes may be repeated.
[0045] この実施の形態の説明の中では、要因情報保存部 7に保存されている情報を利用 しなかった力 ここに保存されている既知の変化要因、たとえば光学収差やレンズの ひずみなどのデータを使用するようにしても良い。その場合、たとえば、先の例(図 3) の処理方法では、ブレの情報と光学収差の情報を合わせて 1つの変化要因として捉 えて処理を行うのが好まし!/、が、ブレの情報での処理を終了した後に光学収差の情 報での補正を行うようにしても良い。また、この要因情報保存部 7を設置しないように して、撮影時の動的要因、たとえばブレのみで画像を修正したり復元したりしても良 い。 [0045] In the description of this embodiment, the force that did not use the information stored in the factor information storage unit 7 is a known change factor stored here, such as optical aberration and lens distortion. Data may be used. In this case, for example, in the processing method in the previous example (Fig. 3), the blur information and the optical aberration information are combined and regarded as one change factor. However, it may be preferable to correct the optical aberration information after the blur information processing is completed. Further, the factor information storage unit 7 may not be installed, and the image may be corrected or restored only by dynamic factors during shooting, for example, only blurring.
[0046] この画像処理装置 1は、以上のような処理方法の考え方にカ卩え、以下に示す処理 方法を採用している。この方法を、図 13から図 16を参照しながら説明する。この方法 は、差分データ Dの初期画像データ Iへの配分の量の適正化を図るもので、比較用  This image processing apparatus 1 adopts the following processing method based on the above-described concept of the processing method. This method will be described with reference to FIGS. This method is intended to optimize the amount of distribution of difference data D to initial image data I.
0  0
画像データ (I  Image data (I
0 O+n ' )を原画像データ Img' に速く近似させることができ、その結 果、図 3に示す処理ルーチンの処理回数を減らすことができる。  0 O + n ′) can be quickly approximated to the original image data Img ′, and as a result, the number of processing routines shown in FIG. 3 can be reduced.
[0047] 図 13の処理フローに沿って差分データ Dの配分の方法を説明する。処理フロー S2 01力 S204は、図 3の処理フロー S101から S104に相当する処理フローである。つ まり、入力された初期画像データ I (S201)力も比較用画像データ I ' を生成し (S2 A method for distributing the difference data D will be described along the processing flow of FIG. Processing flow S2 01 force S204 is a processing flow corresponding to processing flow S101 to S104 in FIG. That is, the input initial image data I (S201) force also generates comparison image data I '(S2
0 0  0 0
02)、変化画像データである原画像データ Img' と比較用画像データ I' との各画  02), each image of the original image data Img 'which is the change image data and the comparison image data I'
0  0
素についての差分データ Dを算出する(S203)。そして、各画素について差分デー タ Dの大きさを判断し(S204)、その大きさがすべての画素について適正であれば、 画像が復元されたと判断し、処理を終了する(S205)。  Difference data D for the prime is calculated (S203). Then, the size of the difference data D is determined for each pixel (S204). If the size is appropriate for all the pixels, it is determined that the image has been restored, and the process is terminated (S205).
[0048] S201から S205までの、処理の内容を、図 14に基づいて説明すると次のようになる 。この図は、図 5力ら図 12と同様に、簡単のため、横一次元の画素 n— 3, n-2, n— 1, n, n+1, n+2,…についての処理の内容を表わしている。  The processing contents from S201 to S205 will be described with reference to FIG. This figure is similar to FIG. 5 and FIG. 12, for the sake of simplicity, the processing of the horizontal one-dimensional pixels n− 3, n−2, n−1, n, n + 1, n + 2,. Indicates the contents.
[0049] 先ず、画素 n—3, n-2, n—l, n, n+1, n+2,…について、初期画像データ Iを  First, the initial image data I for pixels n−3, n−2, n−l, n, n + 1, n + 2,.
0 b , b , b , b , b , b ,…とし、 S201、 S202までの処理ルーチン(図 3の n-3 n-2 n-1 n n+1 n+2  0 b, b, b, b, b, b,..., And processing routines up to S201 and S202 (n-3 n-2 n-1 n n + 1 n + 2 in FIG. 3)
S101から S102の処理ルーチンに相当)を実行すると、比較用画像データ I  Equivalent to the processing routine from S101 to S102), the comparison image data I
0 'として b r , b r , b , b , b r , b r ,…を得る。 B r as 0 ', b r, b, b, b r, b r, ... obtained.
n-3 n-2 n-1 n n+1 n+2  n-3 n-2 n-1 n n + 1 n + 2
[0050] この比較用画像データ I ' (=b r , b r , b , b , b r , b … [0050] This comparison image data I ′ (= b r , b r , b, b, b r , b ...
0 n-3 n-2 n-1 n n+1 n+2 0 n-3 n-2 n-1 n n + 1 n + 2
)は、初期画像データ I (=b , b , b , b , b , b , ···)が変化要因情報の ) Is the initial image data I (= b, b, b, b, b, b,.
0 n-3 n-2 n-1 n n+1 n+2  0 n-3 n-2 n-1 n n + 1 n + 2
データ Gにしたがって、自身および他の画素に分散して生成されたものである。ここ では、変化要因情報のデータ Gを α, β, γ (α> β >γ, α + β + γ =1)として説 明をする。つまり、各画素の光エネルギーが α, β, γの割合で、ブレ方向の画素に 分散することになる。 According to data G, it is generated by being distributed to itself and other pixels. Here, the change factor information data G is described as α, β, γ (α>β> γ, α + β + γ = 1). In other words, the light energy of each pixel is a ratio of α, β, γ to the pixel in the blur direction. Will be distributed.
[0051] 例えば、初期画像データ I中の画素 nの画素画像データ bについてみると、画素画  [0051] For example, when the pixel image data b of the pixel n in the initial image data I is considered,
0 n  0 n
像データ bは、 a -bが画素 nに、 β -bが画素 n+1に、 y -bが画素 n+ 2に分散す る。他の画素についても同様に、図中矢印で示す画素に、変化要因情報のデータ G に従ってエネルギーが分散する。したがって、各画素(n—3, n-2, n—2、 n—l、 n , n+1, n+2, ···)の初期画像データである b , b , b , b , b , b ,は、 n-3 n-2 n-1 n n+1 n+2 変化要因情報のデータ Gに従って分散し、各画素の比較用画像データとして、それ ぞれ b ' , b ' , b ' , b ' , b ' , b ' ,…を得ることになる。  In the image data b, a-b is dispersed in the pixel n, β-b is dispersed in the pixel n + 1, and y-b is dispersed in the pixel n + 2. Similarly, the energy is distributed to the pixels indicated by arrows in the figure according to the data G of the change factor information. Therefore, b, b, b, b, b which are initial image data of each pixel (n−3, n−2, n−2, n−l, n, n + 1, n + 2,...) , b, n-3 n-2 n-1 n n + 1 n + 2 are distributed according to the data G of the change factor information, and b ′, b ′, b are respectively used as comparison image data for each pixel. ', b', b ', b', ...
n-3 n-2 n-1 n n+1 n+2  n-3 n-2 n-1 n n + 1 n + 2
[0052] 比較用画像データ I ' (b ' , b ' , b ' , h ' , b ' , b ' , ···)は、  [0052] Comparative image data I ′ (b ′, b ′, b ′, h ′, b ′, b ′,...)
0 n-3 n-2 n-1 n n+1 n+2  0 n-3 n-2 n-1 n n + 1 n + 2
例えば、画素 nの画素画像データ f についてみると、画素 n— 2の画素画像データ b の γ分の分散量と画素 η— 1の画素画像データ b の β分の分散量、さらに自 己の画素 ηの画素画像データ bの α分の分散量の影響を受けた内容となっている。 つまり、 h ' = a -b + |8 -b + γ -b とみることができる。比較用画像データ I ' の他の画素の画素画像データについても同様に、変化要因情報のデータ Gに従つ て、自己の画素、 1つ前および 2つ前の他の画素(図 14において、左隣の画素およ びさらにその左隣の画素)の分散量の影響を受けた内容になつて 、る。  For example, regarding the pixel image data f of the pixel n, the dispersion amount of γ of the pixel image data b of the pixel n−2, the dispersion amount of β of the pixel image data b of the pixel η−1, and the own pixel. The content is influenced by the amount of dispersion of α for pixel image data b of η. In other words, h '= a -b + | 8 -b + γ -b. Similarly, the pixel image data of the other pixels of the comparison image data I ′ are also changed according to the change factor information data G, according to the change factor information data G (in FIG. This is the content affected by the amount of dispersion of the pixel on the left and the pixel on the left.
[0053] 初期画像データ Iから比較用画像データ I '  [0053] Initial image data I to comparison image data I '
0 が生成させる処理については、図 9 Figure 9 shows the process that 0 generates.
0 に おいて説明したのと同様である。初期画像データ I This is the same as described in 0. Initial image data I
0は、図 9の入力 I  0 is the input I in Figure 9
0に相当し、比較 用画像データ は、図 9の出力 に相当する。  This corresponds to 0, and the image data for comparison corresponds to the output in Fig. 9.
0 0  0 0
[0054] 基画像データ Imgの各画素の画素画像データ力 a , a , a , a, a , a n-3 n-2 n-1 n n+1 n+2 [0054] Pixel image data power a, a, a, a, a, a n-3 n-2 n-1 n n + 1 n + 2 of each pixel of the base image data Img
,…であるとき、原画像データ Img' の各画素の画素画像データは、 a ' , a ' n-3 n-2, ..., the pixel image data of each pixel of the original image data Img 'is a', a 'n-3 n-2
, a ' , a ' , a ' , a , a ', a', a ', a
n+2 ',…となる。原画像データ Img' は、例えば、画素 n n-1 n n+1  n + 2 ', ... The original image data Img 'is, for example, pixel n n-1 n n + 1
の画素画像データ a ' についてみると、基画像データ Imgの画素 n— 2の画素画像 データ a の γの割合分の分散量と画素 η— 1の画素画像データ a の βの割合分 の分散量、さらに自己の画素 ηの画素画像データ aの ocの割合分の分散量の影響を 受けた内容となっている。つまり、 a ' = a -a + β -a + y -a とみることができ る。原画像データ Img' の他の画素についても同様に、変化要因情報のデータ Gに 従って、自己の画素、 1つ前および 2つ前の他の画素(図 14において、左隣の画素 およびさらにその左隣の画素)に対応する基画像データ Imgの分散量の影響を受け た内容になっている。 For the pixel image data a ′ of the base image data Img, the dispersion amount for the proportion of γ in the pixel image data a of the pixel n−2 of the base image data I and the dispersion amount of the proportion of β for the pixel image data a of the pixel η—1 Furthermore, the content is influenced by the amount of dispersion corresponding to the proportion of oc in the pixel image data a of its own pixel η. In other words, it can be seen as a '= a -a + β -a + y -a. Similarly for the other pixels of the original image data Img ', the self-pixel, the previous one and the other two previous pixels (the pixel on the left in FIG. In addition, the content is influenced by the amount of dispersion of the base image data Img corresponding to the pixel on the left.
[0055] 原画像データ Img' の各画素の画像データが a ' , a ' , a ' , a ' , a n-3 n-2 n-1 n n+1 [0055] The image data of each pixel of the original image data Img 'is a', a ', a', a ', a n-3 n-2 n-1 n n + 1
' , a ' ,…であるとき、原画像データ Img' の各画素の画像データと比較用画像 n+2 When ', a', ..., the image data of each pixel of the original image data Img 'and the comparison image n + 2
データの各画素の画像データとの差分である差分データ Dは、 δ , δ , δ , δ , δ , δ ,…となる(S203)。そして、 S204において、各画素の差分データ n n+1 n+2  The difference data D, which is the difference between the data and the image data of each pixel, becomes δ, δ, δ, δ, δ, δ,... (S203). In S204, the difference data n n + 1 n + 2 of each pixel
δ , δ , δ , δ , δ , δ ,…のそれぞれが適正な値であるかどうかを n-3 n-2 n-1 n n+1 n+2  Whether each of δ, δ, δ, δ, δ, δ,... is an appropriate value is determined as n-3 n-2 n-1 n n + 1 n + 2
判断し、差分データ Dの大きさが適正でない場合には、以下に説明する S206以降 の処理に移行し、適正であれば、原画像が適正に復元されたと判断し、処理を終了 する(S205)。 S206以降の処理においては、初期画像データ Iへの差分データ Dの  If it is determined that the size of the difference data D is not appropriate, the process proceeds to S206 and subsequent steps described below. If it is appropriate, it is determined that the original image has been properly restored, and the process ends (S205). ). In the processing after S206, the difference data D to the initial image data I
0  0
適正な配分量を設定する。  Set an appropriate distribution amount.
[0056] 先ず、差分データ Dを利用して、適正な配分量と考えられる任意の配分量を算出 する(S206)。この配分量の算出は次のように行なう。例えば、画素 nについてみると 、画素画像データ b ' は、 と |8 'b と a 'bの合計であることから、差分デ ータ δ は、画素 n—2, n-1, nの初期画像データ I中の画素画像データ b , b n 0 n-2 n-1[0056] First, using the difference data D, an arbitrary distribution amount that is considered to be an appropriate distribution amount is calculated (S206). This distribution amount is calculated as follows. For example, regarding pixel n, pixel image data b ′ is the sum of and | 8′b and a′b, so the difference data δ is the initial value of pixels n−2, n-1, and n. Pixel image data in image data I b, bn 0 n-2 n-1
, からの分散量が含まれていることになる。また、原画像データ Img' 中の画素 nに つ 、ての画素画像データ a ' は γ ·& と jS 'a と a 'aの合計であることから、差 分データ δ 〖こは、画素 n—2, n-1, nの基画像データ Img中の画素画像データ a _ , a , a力 の分散量も含まれていることになる。 , And the amount of dispersion from. In addition, for the pixel n in the original image data Img ′, since the previous pixel image data a ′ is the sum of γ · & and jS′a and a′a, the difference data δ 〖 It also includes the amount of dispersion of the pixel image data a_, a, a force in the base image data Img of -2, n-1, n.
[0057] すなわち、差分データ δ ηには、画素 ηにおける基画像データ Imgの画素画像デー タ aの分散量として a 'aと、初期画像データ Iの画素画像データ bからの分散量と して a -bとが含まれていることになる。そして、差分データ δ には、画素画像データ aと画素画像データ b力 の分散量が K(0≤K≤1)の割合で含まれていると考える 。つまり、下記の(3)式のように考えることができる。 That is, the difference data δη includes a′a as the amount of dispersion of the pixel image data a of the base image data Img at the pixel η and the amount of dispersion of the initial image data I from the pixel image data b. a -b is included. Then, it is considered that the difference data δ includes the dispersion amount of the pixel image data a and the pixel image data b force at a ratio of K (0≤K≤1). In other words, it can be considered as the following equation (3).
α ·Ά — a #b =Κ· o ··· \3) α · Ά — a # b = Κ · o ··· \ 3)
この(3)式から、  From this equation (3)
a =b +Κ· δ / α ·'·(4)  a = b + Κδ / α
となる。つまり、差分データ δ から初期画像データ bに配分する配分量 hを、 Κ· δ Z aとする(S206)。ここでは、差分データ δ ηを変化要因情報のデータ αで除算し た (割った)値を用いて、これに Κを積算 (掛けた)した値を配分量 hとしている。そして 、この配分量 h=K' δ Ζ αを初期画像データ Iの画素 nの画素画像データ bに配 n 0 n 分し、 b +Κ· δ Ζ αを画素 ηについて復元画像の画素画像データとして得る(S20 7)。 It becomes. In other words, the distribution amount h allocated from the difference data δ to the initial image data b is expressed as Κ · δ Let it be Z a (S206). Here, the value obtained by dividing (dividing) the difference data δη by the data α of the change factor information is used as the distribution amount h. Then, this distribution amount h = K ′ δ Ζ α is distributed to the pixel image data b of the pixel n of the initial image data I for n 0 n, and b + Κ · δ Ζ α is the pixel image data of the restored image for the pixel η (S20 7).
[0058] 上述した図 3の処理フローにおいては、画素画像データ b +Κ· δ Ζ αが新たな 復元画像データ I の画素 nについての画素画像データとなり、そして、画素画像デ  In the processing flow of FIG. 3 described above, the pixel image data b + Κ · δ Ζ α becomes the pixel image data for the pixel n of the new restored image data I, and the pixel image data
O+n  O + n
ータ b +Κ· δ / αを新たな初期画像データとして処理することになる(S105)。そ の後、 S102に戻り、その復元画像データ I が基画像データ Imgに近似しているか  The data b + Κ · δ / α is processed as new initial image data (S105). Thereafter, the process returns to S102, and whether the restored image data I approximates the base image data Img.
O+n  O + n
どうかの判断の処理フロー(S103, S104)を実行することになる。し力しながら、図 1 3の処理フローにお ヽては、 S207力ら S212にお!/ヽて、酉己分量 hとして Κ· δ / α力 適正な配分量であるかどうかを判断し、適正でない場合は、適正な配分量になるよう に補正を行う。  The processing flow (S103, S104) for determining whether or not is executed. However, in the processing flow in Fig. 13, S207 force and S212 are instructed to determine whether or not the appropriate amount of distribution is と し て · δ / α force as the self amount h. If it is not appropriate, correct it so that the appropriate distribution amount is obtained.
[0059] 配分量 Κ· δ Ζ αが適正な配分量であるかどうかの判断は、 S207において得た 画素 ηについての画素画像データ「b +Κ· δ Ζ α」が、復元画像データの画素画 像データとして適正であるかどうかの判断 (S208)に基づき行う。この判断は、次のよ うに行う。  [0059] The determination as to whether the distribution amount Κ · δ δ α is an appropriate distribution amount is based on whether the pixel image data “b + Κ · δ Ζ α” for the pixel η obtained in S207 is a pixel of the restored image data This is performed based on the judgment (S208) whether the image data is appropriate. This decision is made as follows.
[0060] 画素画像データ「b +Κ· δ Ζ α」は、画素画像データ aに近似する画像に対応 するものであり、したがって、画素画像データ aについて想定できる制限値の範囲( min≤a≤max)に収まるものであることが要求される。この制限値の範囲は、本実施 の形態においては、画素に蓄積できる光エネルギー量の制限値とする。例えば、画 素の画像データを光エネルギーの強さとして、 8ビット(0〜255)で表わすこととした 場合には、画素画像データ aは、 0≤a≤ 255の範囲に収まるべきものと考える。  [0060] The pixel image data “b + Κ · δ Ζ α” corresponds to an image that approximates the pixel image data a. Therefore, the range of limit values that can be assumed for the pixel image data a (min≤a≤ max). In this embodiment, the range of the limit value is a limit value of the amount of light energy that can be accumulated in the pixel. For example, if the pixel image data is represented by 8 bits (0 to 255) as the intensity of light energy, the pixel image data a should be within the range of 0≤a≤255. .
[0061] したがって、画素画像データ aの制限値の範囲(min≤a≤max)を越える画素画 像データ「b +Κ· δ Ζ α」は、画素画像データとして不適切であると判断する。すな わち、画素画像データ「b +Κ· δ Ζ α」が、画素画像データ aの制限値の範囲の 下限を下回る力、あるいは上限値を上回る場合には、画素画像データ「b +Κ· δ / ひ」は、画素画像データとして不適切であると判断する。つまり、画素画像データ「b +Κ· δ Ζα」が不適正であるということは、配分量 Κ· δ Ζαが不適正であると判 断できる。すなわち、(4)式の b +Κ· δ Ζα力 min≤b +Κ· δ Za≤maxの範 囲外となるときは、 Κ· δ 〖こ、画素画像データ f の生成の元となっている元復元画 像データの画素 n— 1, n— 2についての画素画像データ b , b からの分配量の影 n-1 n-2 Accordingly, it is determined that the pixel image data “b +」 · δΖα ”that exceeds the limit value range (min ≦ a ≦ max) of the pixel image data a is inappropriate as the pixel image data. That is, when the pixel image data “b + Κ δ Ζ α” is below the lower limit of the limit value range of the pixel image data a or exceeds the upper limit value, the pixel image data “b + b · “Δ / H” is determined to be inappropriate as pixel image data. That is, the pixel image data “b If “+ Κ · δ Ζα” is inappropriate, it can be determined that the distribution amount Κ · δ Ζα is inappropriate. In other words, when it falls outside the range of b + Κ δ Ζ α force min≤b + Κ δ Za ≤ max in Eq. (4), Κ δ 〖is the source of the generation of pixel image data f. Shadow of the distribution amount from the pixel image data b and b for the pixels n− 1 and n− 2 of the original restored image data n−1 n−2
響が大きく含まれていると考えることができる。  It can be considered that the sound is greatly included.
[0062] そこで、画素画像データ b , b 、力 の分配量を少なくするために、画素画像デ n-1 n-2 Therefore, in order to reduce the distribution amount of the pixel image data b 1, b 2, and force, the pixel image data n−1 n−2
ータ b , b を減らし、画素画像データ b , b 力 画素 nへの分配量が少なくなる n-1 n-2 n-1 n-2  N-1 n-2 n-1 n-2 The data b, b is reduced and the amount of distribution to the pixel image data b, b force pixel n is reduced.
ようにする。そのために、先ず、画素画像データ b , b を減ずる補正量を設定する n-1 n-2  Like that. For this purpose, first, a correction amount for subtracting the pixel image data b and b is set. N-1 n-2
(S209)。この補正量は次のように算出する。  (S209). This correction amount is calculated as follows.
[0063] 画素画像データ「b +Κ· δ Ζα」が範囲(min≤b +Κ· δ Za≤max)を越える 量のデータ(以下、越え分データ) enを算出する。この越え分データ eは、 Κ· δηΖα に含まれていると考え、また、越え分データ eは、画素画像データ b , b 力 の 分散量であると考える。すなわち、このような状態は、画素画像データ「b +Κ· δ / α」の復元の元となっている画素画像データ b , b が不適切であるためと考えら れる。 [0063] pixel image data "b + Κ · δ Ζα" range data (min≤b + Κ · δ Za≤max) amounts exceeding (hereinafter, beyond content data) is calculated e n. The excess data e is considered to be included in Κ · δ η Ζα, and the excess data e is considered to be the amount of dispersion of the pixel image data b and b force. That is, such a state is considered to be because the pixel image data b and b from which the pixel image data “b + Κ · δ / α” is restored are inappropriate.
[0064] したがって、画素画像データ b +Κ· δ Ζαが範囲(min≤b +Κ· δ /a≤max )を越えな!/、ように画素画像データ b , b を補正する。この補正量は、次の考え 方に基づき決定する。図 15に示すように、画素画像データ b , b の補正量のデ ータをそれぞれ補正データ e , e とすると、画素 nにおける比較用画像データの 画素画像データ b ' は、(5)式のように表わされる。  Accordingly, the pixel image data b 1 and b 2 are corrected so that the pixel image data b + Κ · δ Ζα does not exceed the range (min≤b + Κ · δ / a≤max)! /. This correction amount is determined based on the following concept. As shown in FIG. 15, assuming that the correction amount data of the pixel image data b and b are correction data e and e, respectively, the pixel image data b ′ of the comparison image data at the pixel n is expressed by the equation (5). It is expressed as follows.
b ' = γ - (b _ +e _ ) + j8 - (b +e ) + a · (b +e )  b '= γ-(b _ + e _) + j8-(b + e) + a · (b + e)
= yh _2+ β -b _ a -b + γ -e _+ β -e a -e ,··(5) つまり、(5)式において、 = yh _ 2 + β -b _ a -b + γ -e _ + β -ea -e, (5) In other words,
γ -e _ + β -e + a -e =0 ,··(6)  γ -e _ + β -e + a -e = 0, (6)
のとき、画素 nの差分データ δ ηにおける画素画像データ b , b からの分散量の 影響が小さくなつている。したがって、(6)式が成り立つように補正データ e _ , e を設定することにより、画素 nにおける復元画像データを適正な値とすることができる 。すなわち、差分データ δ に基づく配分量である Κ· δ Z aを適正な値とすることが できる。補正データ en 2, の具体的な設定は、(6)式に基づき、例えば、次のよう なものが考えられる。 Of time, the pixel image data b in the differential data [delta] eta pixels n, the influence of the dispersion amount from b and summer small. Therefore, the restored image data at the pixel n can be set to an appropriate value by setting the correction data e_, e so that the expression (6) is satisfied. That is, it is possible to set で · δ Z a that is the distribution amount based on the difference data δ to an appropriate value. it can. The specific setting of the correction data e n 2 , based on equation (6), can be considered as follows, for example.
[0065] (ィ) e =e とした場合。 [0065] (ii) When e = e.
(6)式より、 e _ (γ + j8) = -e · αとなる。したがって、  From Equation (6), e_ (γ + j8) = − e · α. Therefore,
e _2( = e _ ) = - a -e /(γ + β) = - a -e a) ·'·(7) e _ 2 (= e _) =-a -e / (γ + β) =-a -ea)
とすることがでさる。  It can be done.
[0066] (口)越え分データ eへの影響量が変化要因に依存していると考え、 e : e = γ : βとした場合。  [0066] (Mouth) Exceeding data It is assumed that the amount of influence on e depends on the change factor, and e: e = γ: β.
e : e = γ β
Figure imgf000019_0001
e: e = γ β
Figure imgf000019_0001
となる。したがって、(6)式より  It becomes. Therefore, from equation (6)
y #e / β + β -e =— α ·Θ
Figure imgf000019_0002
y # e / β + β -e = — α · Θ
Figure imgf000019_0002
とすることがでさる c C
[0067] (8)式、(9)式は、 α + |8 + γ =1であるので、 j82+ γ 2= (1— α)2と近似し、 e _ =(- α · β/(ΐ- a)Z) -e ---(10) [0067] Since Eq. (8) and Eq. (9) are α + | 8 + γ = 1, they can be approximated as j8 2 + γ 2 = (1— α) 2 and e _ = (-α · β / (ΐ- a) Z ) -e --- (10)
e _ =(- α · γ/(ΐ- α)2) ·Θ 〜(11) e _ = (-α · γ / (ΐ- α) 2 ) · Θ ~ (11)
としてちよい。  As good as.
[0068] (ハ)越え分データ enへの影響が小さ 、画素につ 、て、 enへの影響量を 0とした場合 例えば、 e =0として、 [0068] (c) is small effect on the over amount data e n, pixel Nitsu Te, for example, when set to 0 the effects of the e n, as e = 0,
n-2  n-2
(6)式より、
Figure imgf000019_0003
From equation (6)
Figure imgf000019_0003
とすることがでさる。  It can be done.
[0069] 補正データ e , e の設定方法は、以上の他にもいろいろ考えられる。そして、 画素 n— 2, n— 1の画素画像データに以上のように設定した補正データ e , e を 加える補正を行い、画素 n— 2, n— 1について補正された画素画像データを生成す る(S210)。 In addition to the above, various methods for setting the correction data e 1 and e 3 can be considered. Then, correction is performed by adding the correction data e and e set as described above to the pixel image data of the pixels n−2 and n−1, and pixel image data corrected for the pixels n−2 and n−1 is generated. (S210).
[0070] そして、この S210における処理では、さらに、画素 n— 2, n— 1の画素画像データ が復元画像データの画素画像データとして適正か否かを、 S208と同様〖こ判断する。 すなわち、画素 n— 2については、画素画像データ「b +e 」力 範囲内(min≤ n-2 n-2  In the processing in S210, it is further determined whether or not the pixel image data of the pixels n−2, n−1 is appropriate as the pixel image data of the restored image data, as in S208. That is, for pixel n-2, within the pixel image data "b + e" force range (min≤ n-2 n-2
b +e ≤max)にあるかどうかを判断する。また、画素 n—lについては、画素画 n-2 n-2  b + e ≤max). For pixel n-l, pixel image n-2 n-2
像データ「b _ +e _」が、範囲内(min≤b +e _ ≤ max)にあるかどうかを判断 する。  It is determined whether the image data “b _ + e _” is within the range (min ≤ b + e _ ≤ max).
[0071] そして、補正された画素画像データ「b +e 」, 「b _ +e 」が該範囲内にな いと判断された場合には、さらに、画素 n—2, n—lの画素画像データの元となって いる左方の元復元画像データの画素画像データ、例えば、 b に戻って上記の S20 n-3  If it is determined that the corrected pixel image data “b + e” and “b _ + e” are not within the range, the pixel images of the pixels n−2 and n−l are further displayed. The pixel image data of the original restored image data on the left side that is the source of the data, for example, returning to b and the above S20 n-3
6力も S210の処理を行う(S211)。  6 forces are also processed in S210 (S211).
[0072] 以上に説明した処理を各画素について画素順に全画素について行い、復元画像 データが所定の範囲内に収まるように、初期画像データ Iへの差分データ Dからの [0072] The processing described above is performed for all pixels in the pixel order for each pixel, so that the restored image data falls within a predetermined range from the difference data D to the initial image data I.
0  0
配分量を設定する。これにより、効率的に比較用画像データ I ' (I  Set the allocation amount. As a result, the comparison image data I ′ (I
0 O+n ' )を原画像 データ Img' に速く近似させることができる。  0 O + n ') can be approximated to the original image data Img' quickly.
[0073] なお、画素 n以降の S206から S210の処理を行っていない未処理の画素について の配分量の算出を行う際に、画素の配分量を算出する前に、 bの配分量「Κ· δ / a +e」に基づく影響分を除いておく(S212)。これにより、画素 n以降の画素につい てより適切な配分量を算出することができる。  [0073] Note that when calculating the distribution amount for the unprocessed pixels that have not been subjected to the processing from S206 to S210 after pixel n, before calculating the pixel distribution amount, the distribution amount "b. The influence based on “δ / a + e” is removed (S212). As a result, a more appropriate distribution amount can be calculated for pixels after pixel n.
[0074] すなわち、図 16に示すように、画素 nにおける配分量が(Κ· δ /a)+eであると き、この配分量の画素 n+1への影響分は、 Κ· β · δ α + β -eであり、また、画 素 n + 2への影響分は、 Κ·γ· δ /a + yeと考えることができる。  That is, as shown in FIG. 16, when the distribution amount at pixel n is (Κ · δ / a) + e, the influence of this distribution amount on pixel n + 1 is Κ · β · δ α + β -e, and the influence on the pixel n + 2 can be considered as Κ · γ · δ / a + ye.
[0075] したがって、画素 n+1の差分データ δ から Κ· · δ Ζα + jS'eを取り除き、 n+l n n  [0075] Therefore, 差分 ·· δ Ζα + jS'e is removed from the difference data δ of pixel n + 1, and n + l n n
また、画素 n + 2の差分データ δ から Κ· γ - δ /a + yeを取り除き、これを各 n+2 n n  Also, remove Κ · γ-δ / a + ye from the difference data δ of pixel n + 2, and replace this with each n + 2 n n
画素 n+l, n+2の差分データ δ , δ とする。こうすることにより、画素 η+1, η n+1 n+2  Let the difference data δ and δ for pixels n + l and n + 2. In this way, the pixels η + 1, η n + 1 n + 2
+ 2の画素についてより適切な配分量を算出することができる。画素 n+3, n+4,… についても同様の処理を行うことで、画素 n+2, n+3, n+4,…における差 分データ Dの初期画像データ Iへの配分を適切に行うことができる。これにより、効率  + More appropriate distribution amount can be calculated for 2 pixels. By performing the same process for pixels n + 3, n + 4, ..., the distribution of difference data D to initial image data I at pixels n + 2, n + 3, n + 4, ... It can be carried out. This makes it efficient
0 的に比較用画像データ (I ' )を原画像データ Img' により速く近似させること 0 The comparison image data (I ') is more quickly approximated to the original image data Img'
0 O+n  0 O + n
ができる。  Can do.
[0076] 以上のようにして、各画素の初期画像データ Iに差分データ Dの配分が行われた  As described above, the difference data D is distributed to the initial image data I of each pixel.
0  0
後、 S202に戻り、撮影画像データである原画像データ Img' との比較 (S203)が小 さくなるまで(S204)、上述した S206から S211の処理を繰り返す。  Thereafter, the process returns to S202, and the above-described processes from S206 to S211 are repeated until the comparison (S203) with the original image data Img ′ as the photographed image data becomes small (S204).
[0077] 以上、本発明の実施の形態に係る画像処理装置 1について説明したが、本発明の 要旨を逸脱しない限り種々変更実施可能である。たとえば、処理部 4で行った処理は 、ソフトウェアで構成している力 それぞれ、一部の処理を分担して行うようにした部 品からなるハードウェアで構成しても良い。 Although the image processing apparatus 1 according to the embodiment of the present invention has been described above, various modifications can be made without departing from the gist of the present invention. For example, the processing performed by the processing unit 4 may be configured by hardware composed of components in which a part of processing is shared by each of the forces configured by software.
[0078] また、処理対象となる原画像としては撮影画像の他に、その撮影画像を色補正した り、フーリエ変換したり等、加工を施したものとしても良い。さらに、比較用画像データ としては、変化要因情報のデータ Gを使用して生成したデータ以外に、変化要因情 報のデータ Gを使用して生成したものに色補正をカ卩えたり、フーリエ変換したりしたデ ータとしても良い。また、変化要因情報のデータとしては、変化要因情報のデータの みではなぐ単に画像を変化させる情報や、劣化とは逆に、画像を良くする情報を含 むものとする。 In addition to the captured image, the original image to be processed may be processed such as color-corrected or Fourier-transformed. In addition to the data generated using the change factor information data G, the comparison image data includes color correction for data generated using the change factor information data G, or Fourier transform. It is also good as data that has been processed. In addition, the change factor information data includes information that simply changes the image, and information that improves the image, as opposed to deterioration.
[0079] また、処理の反復回数が画像処理装置 1側で自動的にまたは固定的に設定されて いる場合、その設定された回数を変化要因情報のデータ Gによって変更するようにし ても良い。たとえば、ある画素のデータがブレにより多数の画素に分散している場合 は、反復回数を多くし、分散が少ない場合は反復回数を少なくするようにしても良い。  [0079] When the number of processing iterations is automatically or fixedly set on the image processing apparatus 1, the set number of times may be changed by the data G of the change factor information. For example, when the data of a certain pixel is distributed over many pixels due to blurring, the number of iterations may be increased, and when the variance is small, the number of iterations may be decreased.
[0080] さらに、反復処理中に、差分データ Dが発散してきたら、すなわち大きくなつていつ たら処理を中止させるようにても良い。発散している力否かは、たとえば差分データ D の平均値を見てその平均値が前回より大きくなつたら発散していると判断する方法を 採用できる。また、反復処理中に、入力を異常な値に変更しょうとしたときには、処理 を中止させるようにしても良い。たとえば 8ビットの場合、変更されるようとする値が 255 を越える値であるときには、処理を中止させる。また、反復処理中、新たなデータであ る入力を異常な値に変更しょうとしたとき、その値を使用せず、正常な値とするように しても良い。たとえば、 8ビットの 0〜255の中で、 255を越える値を入力データとしょう とした際は、マックスの値である 255として処理するようにする。 [0080] Furthermore, during the iterative process, if the difference data D diverges, that is, if the difference data D becomes larger, the process may be stopped. For example, a method of judging whether or not the force is diverging can be determined by looking at the average value of the difference data D and determining that the diverging force is greater than the previous value. In addition, during an iterative process, if an attempt is made to change the input to an abnormal value, the process may be stopped. For example, in the case of 8 bits, if the value to be changed exceeds 255, processing is stopped. Also, during an iterative process, when trying to change an input that is new data to an abnormal value, that value may be used instead of the normal value. For example, let's assume that a value exceeding 255 within the 8-bit range of 0 to 255 is input data. When this happens, it is processed as 255, which is the maximum value.
[0081] また、出力画像となる復元画像データを生成する際、変化要因情報のデータ Gによ つては、復元させようとする画像の領域外へ出てしまうようなデータが発生する場合が ある。このような場合、領域外へはみ出るデータは反対側へ入れる。また、領域外か ら入ってくるべきデータがある場合は、そのデータは反対側力も持ってくるようにする のが好ましい。 [0081] Further, when the restored image data to be the output image is generated, the change factor information data G may generate data that goes out of the area of the image to be restored. . In such a case, data that protrudes outside the area is input to the opposite side. Also, if there is data that should come from outside the area, it is preferable that the data also bring the opposite side force.
[0082] また、復元画像データ I を生成するとき、配分比 kを使用せず、対応する画素の  [0082] When the restored image data I is generated, the distribution ratio k is not used, and the corresponding pixel
O+n  O + n
差分データ Dをそのまま前回の復元画像データ I にカ卩えたり、対応する画素の  The difference data D can be directly used as the previous restored image data I, or the corresponding pixel
O+n— 1  O + n— 1
差分データ Dを変倍した後に加えたり、また差分データ Dが割り振られた後のデータ kD (図 10、図 12中の「更新量」として示される値)を変倍して、前回の復元画像デー タ I に加えるようにしても良い。これらの処理方法をうまく活用すると、処理速度が It is added after scaling the difference data D, or the data kD (value indicated as “update amount” in FIGS. 10 and 12) after the difference data D is allocated is scaled to restore the previous restored image. It may be added to data I. If you use these processing methods well, the processing speed will be
O+n— 1 O + n— 1
速くなる。  Get faster.
[0083] また、復元画像データ I を生成するとき、変化要因の重心を算出し、その重心の  [0083] When the restored image data I is generated, the center of gravity of the change factor is calculated, and
O+n  O + n
みの差分、またはその差分の変倍を前回の復元画像データ I  Difference of the image or the magnification of the difference is the previous restored image data I
O+n— 1〖こ加えるようにし ても良い。先の例で言えば、「0. 5」「0. 3」「0. 2」の 3つの重心は、最も値が大きい「 0. 5」の位置であり、自分の位置となる。よって「0. 3」や「0. 2」の割り振りを考慮せず 、差分データ Dの「0. 5」または 0. 5の変倍分のみ自己の位置に割り振るようにするこ ととなる。このような処理は、ブレのエネルギーが集中している場合に好適となる。  O + n— You may add a little more. In the previous example, the three centroids of “0.5”, “0.3”, and “0.2” are the highest value of “0.5”, which is their own position. Therefore, without assigning “0.3” or “0.2”, only “0.5” or 0.5 magnification of difference data D is assigned to its own position. Such a process is suitable when the blur energy is concentrated.
[0084] さらに、変化要因情報のデータ Gの内容によって自動的に上述した各処理方法を 選択させるようにすることもできる。たとえば、処理方法として、図 5〜図 12に示したよ うに、(1)配分比 kを使用して差分データ Dを配分する方法 (配分比配分方式)、 (2) 対応する画素の差分、または差分データ Dを変倍する方法 (対応画素方式)、(3)変 化要因の重心を検出してその重心部分のデータを利用する方法 (重心方法)の 3方 法を実行できるプログラムを処理部 4内に保存しておき、変化要因の状況を分析し、 その分析結果に基づき、その 3つの方法のいずれ力 1つを選択するようにする。また 、 3つの方法のうちいずれか複数を選択し、 1ルーチンの度に交互に利用したり、最 初の数回はある方式で処理し、その後は他の方式で処理するようにしても良!、。  [0084] Furthermore, each processing method described above can be automatically selected according to the content of the data G of the change factor information. For example, as shown in FIGS. 5 to 12, as processing methods, (1) a method of allocating difference data D using an allocation ratio k (allocation ratio allocation method), (2) a corresponding pixel difference, or Processing unit program that can execute the three methods of scaling the difference data D (corresponding pixel method) and (3) detecting the center of gravity of the change factor and using the data of the center of gravity (centroid method) 4) Save the data in the analysis, analyze the status of the change factors, and select one of the three methods based on the analysis results. Alternatively, you can select any of the three methods and use them alternately in each routine, or process them in one method for the first few times, and then process them in another method. !
[0085] さらに、復元処理の高速化を図る意味で、逆問題と組み合わせる方法が存在する。 すなわち、縮小データで反復処理を行い、縮小した原画像から縮小した復元画像デ ータへの伝達関数を算出する。そして算出された伝達関数を拡大、補間し、その拡 大、補間された伝達関数を使って原画像の復元画像データを得る。この処理方法は 大きな画像の処理に有利となる。 [0085] Further, there is a method combined with the inverse problem in order to increase the speed of the restoration process. That is, an iterative process is performed on the reduced data, and a transfer function from the reduced original image to the reduced restored image data is calculated. Then, the calculated transfer function is enlarged and interpolated, and the enlarged and interpolated transfer function is used to obtain restored image data of the original image. This processing method is advantageous for processing large images.
[0086] このような処理方法としては、 2つの方法が考えられる。第 1は、データを間引くこと で縮小データとする方法である。間引く場合、たとえば、図 17に示すように、原画像 のデータ ImgZ 力 画素 11〜16, 21〜26, 31〜36, 41〜46, 51〜56, 61〜66 で構成されて ヽるとき、 1つおきに画素を間引き、画素 11, 13, 15, 31, 33, 35, 51 , 53, 55からなる 4分の 1の大きさの縮小 Img' を生成する方法がある。  [0086] As such a processing method, two methods are conceivable. The first method is to reduce the data by thinning out the data. When thinning, for example, as shown in FIG. 17, when the original image data ImgZ force consists of pixels 11-16, 21-26, 31-36, 41-46, 51-56, 61-66, There is a method of thinning out every other pixel to generate a reduced size Img 'of the pixels 11, 13, 15, 31, 33, 35, 51, 53, 55, which is a quarter size.
[0087] このように、原画像のデータ Img' を間引き、間引かれたデータである縮小 Img' を生成し、その縮小 Img' 用いて、図 3に示す反復処理を行い、充分満足な間引か れた復元画像データ I  [0087] In this way, the original image data Img 'is thinned out, and the reduced Img', which is the thinned data, is generated, and the iterative Img 'is used to perform the iterative process shown in FIG. Retrieved image data I
O+nを得る。縮小復元画像データ I  Get O + n. Reduced image data I
O+nは充分満足なデータでは あるが、あくまで近似である。したがって、復元画像データ I と原画像のデータ Img  O + n is satisfactory, but it is only an approximation. Therefore, the restored image data I and the original image data Img
O+n  O + n
' の伝達関数は、縮小データの反復処理で用いた伝達関数ではない。そこで、縮小 復元画像データ I と縮小した原画像のデータである縮小 Img' 力も伝達関数を算  The transfer function of 'is not the transfer function used in the iterative processing of the reduced data. Therefore, the reduced and restored image data I and the reduced Img 'force that is the reduced original image data also calculate the transfer function.
O+n  O + n
出し、算出した伝達関数を拡大し、拡大した間を補間して、その修正した伝達関数を 、元データとなる原画像のデータ Img' に対する伝達関数とする。そして、その修正 した伝達関数を使用し、周波数空間でデコンボリューシヨン計算(ボケを含む画像群 力も計算によってボケを除去する計算)を行い、完全な復元画像データ I  The calculated transfer function is enlarged, and the enlarged transfer function is interpolated. The corrected transfer function is used as the transfer function for the original image data Img ′ as the original data. Then, using the modified transfer function, deconvolution calculation is performed in the frequency space (calculation that removes blur by calculating the image group force including blur), and the complete restored image data I
O+nを得て、 それを劣化して ヽな ヽ基画像データ Imgと推定する。  O + n is obtained, and it is degraded and estimated to be the correct image data Img.
[0088] なお、この処理の場合、得られた正しい画像と推定された復元画像データ I を図 [0088] In this process, the obtained correct image and the restored image data I estimated are shown in FIG.
O+n O + n
3に示す処理の初期画像のデータ Iとして使用し、変化要因情報のデータ Gと劣化し It is used as initial image data I for the processing shown in Fig.
0  0
た原画像のデータ Img' とを用い、さらに処理するようにしても良い。  The original image data Img 'may be used for further processing.
[0089] 縮小データを利用する方法の第 2は、原画像のデータ Img' の一部の領域のデー タを取り出すことで縮小データとする方法である。たとえば、図 18に示すように、原画 像のデータ ImgZ 力 画素 11〜16, 21〜26, 31〜36, 41~46, 51~56, 61〜6 6で構成されて! /、るとき、その中央の領域である、画素 32, 33, 34, 42, 43, 44力ら なる領域を取り出し、縮小 Img' を生成する方法がある。 [0090] このように、画像領域全体を反復処理で復元せず、領域の一部分を反復処理し良 好な復元画像を求め、それを使ってその部分に対する伝達関数を求め、その伝達関 数自体またはそれを修正 (拡大など)したものを用いて画像全体の復元を行うもので ある。ただし、取り出してくる領域は、変動領域よりも充分大きな領域とする必要があ る。図 5等に示した先の例では、 3画素に渡って変動しているので、 3画素以上の領 域を取り出してくる必要がある。 [0089] The second method of using reduced data is a method of obtaining reduced data by extracting data of a partial area of original image data Img '. For example, as shown in FIG. 18, the original image data ImgZ force consists of pixels 11 to 16, 21 to 26, 31 to 36, 41 to 46, 51 to 56, 61 to 66! There is a method of generating a reduced Img ′ by taking out the area of the pixels 32, 33, 34, 42, 43, and 44, which is the central area, from the area. [0090] In this way, the entire image area is not restored by iterative processing, but a part of the area is iteratively processed to obtain a good restored image, which is used to obtain a transfer function for that part, and the transfer function itself Alternatively, the entire image is restored using a modified version (enlarged). However, the area to be extracted must be sufficiently larger than the fluctuation area. In the previous example shown in Fig. 5 etc., it fluctuates over 3 pixels, so it is necessary to extract an area of 3 pixels or more.
[0091] なお、この縮小領域を取り出してくる方法の場合、原画像のデータ Img' を、たとえ ば図 19に示すように、 4分割し、各分割領域力 一部の領域を取り出し、小さい領域 である 4つの縮小 Im をそれぞれ反復処理し、 4分割された分割区域をそれぞれ 復元し、復元された 4つの分割画像を一つにすることで元の全体画像としても良 、。 なお、複数に分割する際、必ず複数領域に渡って重なる領域 (オーバーラップ領域) を持つようにするのが好ましい。また、各復元された画像のオーバーラップ領域は、 平均値を使ったり、オーバーラップ領域で滑らかにつなぐなどの処理を行うようにする のが好ましい。  [0091] In the method of extracting the reduced area, the original image data Img 'is divided into four parts as shown in Fig. 19, for example. It is possible to make the original whole image by iteratively processing each of the four reduced Ims, restoring each of the four divided areas, and combining the restored four divided images into one. In addition, when dividing into a plurality of regions, it is preferable to always have an overlapping region (overlap region) over a plurality of regions. In addition, it is preferable to perform processing such as using an average value or smoothly connecting the overlap areas of the restored images in the overlap areas.
[0092] さらに、実際に図 3や図 13の処理方法を採用した場合、コントラストの急激な変化 のある画像等については、良好な近似の復元画像への収束が遅いことが判明した。 このように、元の画像である被写体の性質によっては、反復処理の収束スピードが遅 ぐ反復回数を多くしなければならない場合がある。このような被写体の場合、次のよ うな処理方法を採用すると、この問題を解決できると推定される。  [0092] Further, when the processing methods of Figs. 3 and 13 are actually adopted, it has been found that convergence of an image with a sharp change in contrast to a good approximate restored image is slow. Thus, depending on the nature of the subject that is the original image, it may be necessary to increase the number of iterations at which the convergence speed of the iteration process is slow. In the case of such a subject, it is estimated that this problem can be solved by adopting the following processing method.
[0093] その方法とは以下のとおりである。すなわち、コントラストの急激な変化のある被写 体は、図 3や図 13に示す処理方法による復元の反復処理を使用し、元の画像に近 似したものを得ようとすると、反復数が非常に多くなると共に多くの回数の処理を行つ た後も、元の被写体に近似する復元画像データ I  [0093] The method is as follows. In other words, a subject with a sudden change in contrast uses an iterative restoration process using the processing methods shown in Fig. 3 and Fig. 13, and if it tries to obtain something similar to the original image, the number of iterations is extremely high. And the restored image data that approximates the original subject after processing many times.
O+nを生成できな 、。そこで、撮影さ れた原画像 (ブレ画像)のデータ Img' 〖こ、既知の画像のデータ Bから撮影時の変化 要因情報のデータ Gを用いてブレ画像のデータ を生成し、そのデータ を重 ね合わせ、「Img' +Β' 」を作る。その後、重ね合わせた画像を図 3に示す処理に て復元処理し、その復元画像データ I となる結果データ Cから既知の加えた場像  Cannot generate O + n. Therefore, the data of the original image (blurred image) Img '〖こ, the data B of the change factor information at the time of shooting is generated from the data B of the known image, and the data of the blurred image is generated. Negotiate and make "Img '+ Β'". After that, the superimposed image is restored by the process shown in FIG. 3, and a known added field image is obtained from the result data C as the restored image data I.
O+n  O + n
のデータ Bを取り去り、求めたい復元画像の基画像データ Imgを取り出す。 [0094] この方法では、基画像データ Imgは急激なコントラスト変化を含んで 、るが、既知の 画像のデータ Bを加えることで、この急激なコントラスト変化を軽減することができ、復 元処理の反復数を低減する事ができる。 Data B is removed, and base image data Img of the restored image to be obtained is taken out. [0094] In this method, the base image data Img includes a rapid contrast change, but by adding the data B of a known image, this rapid contrast change can be reduced, and the restoration process is performed. The number of iterations can be reduced.
[0095] また、復元の困難な被写体の処理方法および高速な処理方法として、他の処理方 法も採用できる。たとえば、復元処理の反復数を多くすれば良好な復元画像により近 づけることができる力 処理に時間がかかる。そこで、ある程度の反復処理数で得ら れた画像を用いて、そこに含まれる誤差成分を算出し、誤差を含む復元画像から、 算出した誤差を取り去ることで良好な復元画像すなわち復元画像データ I を得るこ  In addition, other processing methods can be adopted as a processing method for a subject that is difficult to restore and a high-speed processing method. For example, if the number of iterations of restoration processing is increased, it takes time to perform force processing that can be brought closer to a good restored image. Therefore, by using the image obtained with a certain number of iterations, the error component included in the image is calculated, and the calculated error is removed from the restored image including the error. Get
O+n とがでさる。  O + n comes out.
[0096] この方法を具体的に以下に説明する。求めた 、正 、画像を Aとし、撮影した原画 像を とし、原画像 から復元した画像を A +Dとし、その復元画像データから 生成したブレた比較用画像データを +D' とする。この「A^ +D' 」に、撮影し た原画像「A 」を付加し、それを復元処理すると、「A+D+A+D + D」となり、これ は「2A+ 3D」であり、また、「2 (Α+ α ) + α」である。「A + D」は前回の復元処理で 求まっているので、「2 (A+D) +D— 2 (A+D)」が計算でき、「D」が求まる。よって「 A + DJから「D」を取り去ることで、求めた!/、正し!/、画像 Aが得られる。  [0096] This method will be specifically described below. Assume that the obtained image is A, the captured original image is A, the image restored from the original image is A + D, and the blurred comparison image data generated from the restored image data is + D ′. If the original image "A" is added to this "A ^ + D '" and restored, it becomes "A + D + A + D + D", which is "2A + 3D" Also, “2 (Α + α) + α”. Since “A + D” has been obtained in the previous restoration process, “2 (A + D) + D− 2 (A + D)” can be calculated, and “D” is obtained. Therefore, by removing “D” from “A + DJ”, the image A can be obtained! /, Correct! /.
[0097] 以上説明した各処理方法、すなわち、(1)配分比 kを使用して差分データ Dを配分 する方法 (基本方式)、(2)対応する画素の差分、または差分データ Dを変倍する方 法 (対応画素方式)、(3)変化要因の重心を検出してその重心部分のデータを利用 する方法 (重心方法)、(4)図 13から図 16を参照しながら説明した差分データ Dの配 分の適正化を図る方法 (差分データの配分の適正化方法)、(5)データを間引き、逆 問題と組み合わせる方法 (逆問題間引き方法)、(6)縮小領域を取り出し、逆問題と 組み合わせる方法 (逆題間領域取り出し方法)、 (7)所定の画像を重ね合わせて反 復処理し、その後、その所定の画像を取り去る方法 (苦手画像対策重ね合わせ方法 )、 (8)誤差を含む復元画像から、算出した誤差を取り去る方法 (誤差取り出し方法) の各処理方法のプログラムを処理部 4に保存しておき、使用者の選択または画像の 種類に応じて自動的に、処理方法を選択できるようにしても良い。  [0097] Each processing method described above, that is, (1) a method of distributing the difference data D using the distribution ratio k (basic method), (2) a corresponding pixel difference, or scaling of the difference data D (3) Method of detecting the centroid of the change factor and using the data of the centroid (centroid method), (4) Difference data explained with reference to FIGS. 13 to 16 Method of optimizing the distribution of D (Method of optimizing the distribution of difference data), (5) Method of thinning out data and combining with inverse problem (inverse problem thinning out method), (6) Extracting the reduced area and inverse problem (7) Method of superimposing a predetermined image and performing an iterative process, and then removing the predetermined image (bad image countermeasure overlay method), (8) Method to remove the calculated error from the restored image including (error extraction method) The processing method program may be stored in the processing unit 4 so that the processing method can be automatically selected according to the user's selection or the type of image.
[0098] また、これら(1)〜(8)のいずれか複数を処理部 4に保存しておき、使用者の選択 または画像の種類に応じて自動的に、処理方法を選択できるようにしても良い。また[0098] Further, any one of these (1) to (8) is stored in the processing unit 4 and selected by the user. Alternatively, the processing method may be automatically selected according to the type of image. Also
、これら 8つの方法のうちいずれ力複数を選択し、 1ルーチンの度に交互または順番 に利用したり、最初の数回はある方式で処理し、その後は他の方式で処理するように しても良い。なお、画像処理装置 1は、上述した(1)〜(8)のいずれか 1つまたは複数 の他に、それらとは異なる処理方法をも有するようにしても良 ヽ。 Select any one of these 8 methods and use them alternately or in sequence for each routine, or process them in one method for the first few times and then process them in another method. Also good. Note that the image processing apparatus 1 may have a different processing method in addition to any one or a plurality of (1) to (8) described above.
また、上述した各処理方法は、プログラム化されても良い。また、プログラム化された ものが記憶媒体、たとえば CD、 DVD、 USBメモリに入れられ、コンピュータによって 読みとり可能とされても良い。この場合、画像処理装置 1は、その記憶媒体内のプロ グラムを読み込む読み込み手段を持つこととなる。さらには、そのプログラム化された ものが画像処理装置 1の外部のサーバに入れられ、必要によりダウンロードされ、使 用されるようにしても良い。この場合、画像処理装置 1は、その記憶媒体内のプロダラ ムをダウンロードする通信手段を持つこととなる。  Moreover, each processing method mentioned above may be programmed. A program may be stored in a storage medium such as a CD, a DVD, or a USB memory so that it can be read by a computer. In this case, the image processing apparatus 1 has a reading means for reading a program in the storage medium. Further, the program may be stored in an external server of the image processing apparatus 1, downloaded as necessary, and used. In this case, the image processing apparatus 1 has communication means for downloading the program in the storage medium.

Claims

請求の範囲 The scope of the claims
[1] 画像を処理する処理部を有する画像処理装置にお!ヽて、  [1] In an image processing device with a processing unit that processes images! In a hurry
上記処理部は、  The processing unit
画像変化の要因となる変化要因情報のデータを利用して、任意の画像の画像デー タカ 比較用画像の画像データを生成し、  Using the data of the change factor information that causes the image change, the image data of the arbitrary image
その後、処理対象となる原画像の画像データと上記比較用画像の画像データとを 比較し、  After that, the image data of the original image to be processed is compared with the image data of the comparison image,
この比較の結果として得られた差分のデータを、上記変化要因情報のデータを利 用して上記任意の画像の画像データに配分することにより復元画像の画像データを 生成し、  The difference data obtained as a result of this comparison is distributed to the image data of the arbitrary image using the data of the change factor information, thereby generating image data of the restored image.
この復元画像の画像データが制限値内にあるかどうかを判断し、  Determine whether the image data of this restored image is within the limit value,
上記復元画像の画像データが、上記制限値の範囲を越える場合には、上記復元 画像の画像データの生成の元になつて ヽる元復元画像の画像データを、上記制限 値の範囲を越える越え分のデータに基づいて補正した補正復元画像の画像データ を生成し、  If the image data of the restored image exceeds the range of the limit value, the image data of the original restored image that is the source of the generation of the image data of the restored image exceeds the range of the limit value. Image data of the corrected restored image corrected based on the minute data,
その後、上記補正復元画像の画像データを上記任意の画像の画像データの代わ りに使用し、同様の処理を繰り返すことで、変化する前の本来の画像に近似する復 元画像の画像データを生成する処理を行うことを特徴とする画像処理装置。  After that, the image data of the corrected restored image is used in place of the image data of the arbitrary image, and the same processing is repeated to generate the image data of the restored image that approximates the original image before the change. An image processing apparatus characterized in that the processing is performed.
[2] 前記制限値は、画素に蓄積できる光エネルギー量の制限値であることを特徴とする 請求項 1に記載の画像処理装置。  2. The image processing apparatus according to claim 1, wherein the limit value is a limit value of an amount of light energy that can be accumulated in a pixel.
[3] 前記越え分のデータに基づいて行う前記元復元画像の補正の補正量は、前記変 化要因情報のデータを利用して求めることを特徴とする請求項 1または請求項 2に記 載の画像処理装置。 [3] The correction amount of the correction of the original restored image performed based on the excess data is obtained using the data of the change factor information. Image processing apparatus.
[4] 前記復元画像の画像データを生成するために行う前記任意の画像の画像データ への前記差分のデータの配分は、前記差分のデータを変化要因情報で除した値を 用いて算出した配分量とすることを特徴とする請求項 1から 3のいずれ力 1項に記載 の画像処理装置。  [4] The distribution of the difference data to the image data of the arbitrary image performed to generate the image data of the restored image is a distribution calculated using a value obtained by dividing the difference data by change factor information. The image processing apparatus according to claim 1, wherein the force is an amount.
[5] 前記処理部は、さらに、未処理画素について、前記補正復元画像処理を行った画 素の配分量の上記未処理画素への影響分を取り除く処理を行うことを特徴とする請 求項 1から 4のいずれか 1項に記載の画像処理装置。 [5] The processing unit further performs processing for the corrected and restored image processing on unprocessed pixels. 5. The image processing device according to any one of claims 1 to 4, wherein a process for removing an influence of an unallocated amount on the unprocessed pixels is performed.
PCT/JP2007/050486 2006-01-18 2007-01-16 Image processing device WO2007083621A1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007554892A JP4885150B2 (en) 2006-01-18 2007-01-16 Image processing device

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2006-009613 2006-01-18
JP2006009613 2006-01-18

Publications (1)

Publication Number Publication Date
WO2007083621A1 true WO2007083621A1 (en) 2007-07-26

Family

ID=38287574

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2007/050486 WO2007083621A1 (en) 2006-01-18 2007-01-16 Image processing device

Country Status (3)

Country Link
JP (1) JP4885150B2 (en)
CN (1) CN101375591A (en)
WO (1) WO2007083621A1 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009060329A (en) * 2007-08-31 2009-03-19 Acutelogic Corp Image processing device, image processing method, and image processing program
JP2009164883A (en) * 2008-01-07 2009-07-23 Nitto Kogaku Kk Signal processing apparatus
WO2009110183A1 (en) * 2008-03-04 2009-09-11 日東光学株式会社 Method for generating change factor information data and signal processing device
WO2009110184A1 (en) * 2008-03-04 2009-09-11 日東光学株式会社 Method of creating data relating to change factor information and signal processor
CN102156968A (en) * 2011-04-11 2011-08-17 合肥工业大学 Color cubic priori based single image visibility restoration method

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1124122A (en) * 1997-07-03 1999-01-29 Ricoh Co Ltd Method and device for correcting camera shake image, and recording medium with recorded program for executing the same method by computer and capable of being read by computer
JP2002300459A (en) * 2001-03-30 2002-10-11 Minolta Co Ltd Image restoring device through iteration method, image restoring method and its program, and recording medium
JP2004235700A (en) * 2003-01-28 2004-08-19 Fuji Xerox Co Ltd Image processing apparatus, image processing method, and program therefor

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003060916A (en) * 2001-08-16 2003-02-28 Minolta Co Ltd Image processor, image processing method, program and recording medium

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1124122A (en) * 1997-07-03 1999-01-29 Ricoh Co Ltd Method and device for correcting camera shake image, and recording medium with recorded program for executing the same method by computer and capable of being read by computer
JP2002300459A (en) * 2001-03-30 2002-10-11 Minolta Co Ltd Image restoring device through iteration method, image restoring method and its program, and recording medium
JP2004235700A (en) * 2003-01-28 2004-08-19 Fuji Xerox Co Ltd Image processing apparatus, image processing method, and program therefor

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009060329A (en) * 2007-08-31 2009-03-19 Acutelogic Corp Image processing device, image processing method, and image processing program
US9516285B2 (en) 2007-08-31 2016-12-06 Intel Corporation Image processing device, image processing method, and image processing program
JP2009164883A (en) * 2008-01-07 2009-07-23 Nitto Kogaku Kk Signal processing apparatus
WO2009110183A1 (en) * 2008-03-04 2009-09-11 日東光学株式会社 Method for generating change factor information data and signal processing device
WO2009110184A1 (en) * 2008-03-04 2009-09-11 日東光学株式会社 Method of creating data relating to change factor information and signal processor
JP2009211337A (en) * 2008-03-04 2009-09-17 Nittoh Kogaku Kk Method for creating data of change factor information, and signal processor
CN102156968A (en) * 2011-04-11 2011-08-17 合肥工业大学 Color cubic priori based single image visibility restoration method

Also Published As

Publication number Publication date
JP4885150B2 (en) 2012-02-29
CN101375591A (en) 2009-02-25
JPWO2007083621A1 (en) 2009-06-11

Similar Documents

Publication Publication Date Title
JP5007241B2 (en) Image processing device
WO2007083621A1 (en) Image processing device
JP3895357B2 (en) Signal processing device
JP4965179B2 (en) Image processing device
JP4602860B2 (en) Image processing device
JP4598623B2 (en) Image processing device
JP2007129354A (en) Image processing apparatus
JP4606976B2 (en) Image processing device
JP4763419B2 (en) Image processing device
JP5247169B2 (en) Image processing apparatus, image processing method, and image processing program
JP4975644B2 (en) Image processing device
JP4629537B2 (en) Image processing device
JP5005319B2 (en) Signal processing apparatus and signal processing method
WO2007032148A1 (en) Image processor
JP4629622B2 (en) Image processing device
JP4763415B2 (en) Image processing device
JP5007234B2 (en) Image processing device
JP4718618B2 (en) Signal processing device
JP5495500B2 (en) Method for generating data of change factor information and signal processing apparatus
JP5005553B2 (en) Signal processing device
JP5057665B2 (en) Image processing device
JP5007245B2 (en) Signal processing device
WO2006137309A1 (en) Image processing apparatus
JPWO2008090858A1 (en) Image processing apparatus and image processing method

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application
WWE Wipo information: entry into national phase

Ref document number: 2007554892

Country of ref document: JP

WWE Wipo information: entry into national phase

Ref document number: 200780003289.0

Country of ref document: CN

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 07706813

Country of ref document: EP

Kind code of ref document: A1