WO2007077733A1 - 画像処理装置 - Google Patents

画像処理装置 Download PDF

Info

Publication number
WO2007077733A1
WO2007077733A1 PCT/JP2006/325330 JP2006325330W WO2007077733A1 WO 2007077733 A1 WO2007077733 A1 WO 2007077733A1 JP 2006325330 W JP2006325330 W JP 2006325330W WO 2007077733 A1 WO2007077733 A1 WO 2007077733A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
data
image data
processing
pixel
Prior art date
Application number
PCT/JP2006/325330
Other languages
English (en)
French (fr)
Inventor
Fuminori Takahashi
Original Assignee
Nittoh Kogaku K.K
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nittoh Kogaku K.K filed Critical Nittoh Kogaku K.K
Priority to JP2007552900A priority Critical patent/JP4975644B2/ja
Priority to US12/159,467 priority patent/US8243148B2/en
Publication of WO2007077733A1 publication Critical patent/WO2007077733A1/ja

Links

Classifications

    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B5/00Adjustment of optical system relative to image or object surface other than for focusing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/73Deblurring; Sharpening
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/68Control of cameras or camera modules for stable pick-up of the scene, e.g. compensating for camera body vibrations
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/68Control of cameras or camera modules for stable pick-up of the scene, e.g. compensating for camera body vibrations
    • H04N23/681Motion detection
    • H04N23/6812Motion detection based on additional sensors, e.g. acceleration sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20172Image enhancement details
    • G06T2207/20201Motion blur correction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2101/00Still video cameras

Definitions

  • the present invention relates to an image processing apparatus.
  • a captured image captured by a camera that uses an image sensor such as a CCD (Charge Coupled Devices) in the image pickup unit is not subject to camera shake during shooting, various aberrations of the shooting optical system, or the shooting optical system. It is known that when there is distortion of the lens constituting the lens, this is a factor and the photographed image deteriorates.
  • CCD Charge Coupled Devices
  • Patent Document 1 Japanese Patent Laid-Open No. 6-317824 (see abstract)
  • Patent Document 2 JP-A-11 24122 (see abstract)
  • a camera adopting the camera shake correction described in Patent Document 1 requires a hardware space for driving a lens such as a motor, and becomes large.
  • such hardware itself and a drive circuit for moving the hardware are required, which increases costs.
  • shooting may be performed with the camera shake speed slowing down in the middle of camera shake or at the position where the exposure ends.
  • the photographed image taken in such a state is an image with a long exposure time in the middle of the camera shake with slow camera shake or at the exposure end position. Therefore, this photographed image has high brightness in the middle of the blur and at the end.
  • it may seem unnatural because the bright part at the middle of the blur locus or at the end appears to have moved to the starting position.
  • the object of the present invention is to restore a captured image that has been exposed such that the exposure time is increased in the middle of the trajectory of the blur of the captured image or at the end portion. It is to provide an image processing device that allows a restored image to be generated with a natural appearance.
  • an image processing apparatus is a restoration that approximates a base image from a processing target image that has been changed with respect to the base image by movement during exposure of the photographing apparatus.
  • the image processing unit In an image processing apparatus having an image processing unit that generates an image, the image processing unit generates a restored image in association with a position having the longest exposure time of the processing target image.
  • the restored image is generated at the position where the exposure time in the processing target image is the longest. Therefore, when the restored image is displayed on the display screen, the display position shift between the processing target image and the restored image.
  • the restored image is displayed with a natural feeling.
  • the position having the longest exposure time is set to the pixel having the largest data value of the change factor information that causes the image change.
  • restoration of a restored image uses comparison factor information data to generate comparison image data from arbitrary image data, and thereafter, The image data of the processing target image to be processed is compared with the comparison image data, and the obtained difference data is distributed to arbitrary image data using the data of the change factor information to generate the restored image data Thereafter, the restored image data is used in place of arbitrary image data, and the same processing is repeated to generate a restored image that approximates the base image before the change.
  • comparison image data is created using the change factor information, and the process of comparing the comparison image data with the image data of the processing target image is repeated. Reconstructed image data close to the base image before the change that is the base is obtained. Therefore, in addition to being able to determine information on the position with the longest exposure time from the data of the change factor information that causes the image change, the generation of restored image data can be a realistic task.
  • the image when restoring an image, when restoring a photographed image that has been exposed so that the exposure time is increased in the middle of the locus of blurring or at the end portion, the image looks natural. A restored image can be generated.
  • FIG. 1 is a block diagram showing a main configuration of an image processing apparatus according to an embodiment of the present invention.
  • FIG. 2 is an external perspective view showing an outline of the image processing apparatus shown in FIG. 1, and is a view for explaining an arrangement position of angular velocity sensors.
  • FIG. 3 is a diagram showing a processing method performed by the processing unit of the image processing apparatus shown in FIG. 1.
  • A is a flowchart for explaining an outline of a basic concept of the processing method
  • B is a diagram. 1 is a flowchart for explaining the processing method in the present embodiment performed by the processing unit of the image processing apparatus shown in FIG. FIG.
  • FIG. 4 is a diagram for explaining the concept of the concept of the processing method shown in FIG. 3 (A).
  • FIG. 5 is a diagram for specifically explaining the outline of the concept of the processing method shown in FIG. 3 (A), taking hand shake as an example, and is a table showing the concentration of light energy when there is no hand shake.
  • FIG. 7 is a table for specifically explaining the outline of the concept of the processing method shown in FIG. 3 (A), taking hand shake as an example, and is a table showing dispersion of light energy when hand shake occurs.
  • FIG. 8 A table for specifically explaining the concept of the processing method shown in FIG. 3 (A) with an example of camera shake, in order to explain the situation in which image data for comparison with arbitrary image power is generated. It is a table.
  • FIG. 9 A table for specifically explaining the concept of the processing method shown in Fig. 3 (A), taking hand shaking as an example. It is a table
  • FIG. 10 A table for specifically explaining the concept of the processing method shown in FIG. 3 (A), using hand shaking as an example. Restored image data is distributed by adding difference data to any image. It is a table
  • ⁇ 11 A table for specifically explaining the concept of the processing method shown in Fig. 3 (A), using hand shake as an example.
  • New comparison image data is generated from the generated restored image data.
  • 10 is a table for explaining a situation in which difference data is generated by comparing the data with a processing target image.
  • FIG. 12 A table for specifically explaining the concept of the processing method shown in Fig. 3 (A), using hand shake as an example. It is a table
  • FIG. 13 In explaining the processing method in the processing section of the image processing apparatus shown in FIG. 1, this is a diagram showing the state of camera shake that is the premise, and the camera shake is delayed later than the start of camera shake. It is a table
  • Fig.14 The change in the n-force of the light energy of 100 pixels due to the dispersion of the light energy shown in Fig. 13. 7 is a table showing the state of light energy of pixels of the image to be processed Img ′ when shaken by the factor information data G.
  • FIG. 15 shows a comparison of the comparison image data and the processing target image data in the first processing flow of the processing method shown in the processing flow (A) of FIG. (B) is a table for explaining the situation to be generated.
  • surface for demonstrating the condition which produces
  • FIG. 16 (A) distributes newly generated difference data and generates new restored image data by the first processing flow of the processing method shown in the processing flow (A) of FIG.
  • (B) shows the newly generated difference data allocated by the first processing flow of the processing method shown in the processing flow (B) in Fig. 3 and newly restored. It is a table
  • FIG. 17 (A) shows a comparison of the comparison image data and the image data to be processed in the second processing flow of the processing method shown in the processing flow (A) of FIG. (B) is a table for explaining the situation to be generated. Compared with the second processing flow of the processing method shown in the processing flow (B) of FIG. It is a table
  • FIG. 18 (A) distributes newly generated difference data and generates new restored image data by the second processing flow of the processing method shown in the processing flow (A) of FIG.
  • (B) shows the newly generated difference data allocated by the second processing flow of the processing method shown in the processing flow (B) of Fig. 3 and newly restored. It is a table
  • FIG. 19 shows a comparison between the comparison image data and the processing target image data in the third processing flow of the processing method shown in the processing flow (A) of FIG. (B) is a table for explaining the situation to be generated.
  • the image data for comparison and the image data to be processed are obtained by the third processing flow of the processing method shown in the processing flow (B) of FIG. It is a table
  • FIG. 20 (A) is the result of the third processing flow of the processing method shown in the processing flow (A) of FIG.
  • FIG. 4B is a table for explaining a situation in which newly generated difference data is allocated and new restored image data is generated.
  • FIG. 3B is a third processing method shown in the processing flow (B) of FIG.
  • FIG. 10 is a table for explaining a situation in which newly generated difference data is generated and new restored image data is generated by the second processing flow.
  • FIG. 22 (A) distributes the newly generated difference data and generates new restored image data by the fourth processing flow of the processing method shown in the processing flow (A) of FIG.
  • (B) shows the newly generated difference data allocated by the fourth processing flow of the processing method shown in the processing flow (B) of Fig. 3 and newly restored. It is a table
  • FIG. 23 shows the difference between the comparison image data and the image data to be processed in the fifth processing flow of the processing method shown in FIG. 3 (A).
  • (B) is a table for explaining the situation to be generated. The image data for comparison and the image data to be processed are obtained by the fifth processing flow of the processing method shown in the processing flow (B) in FIG. It is a table
  • FIG. 24 (A) distributes newly generated difference data and generates new restored image data by the fifth processing flow of the processing method shown in the processing flow (A) of FIG.
  • (B) shows the newly generated difference data allocated by the fifth processing flow of the processing method shown in the processing flow (B) of Fig. 3 and newly restored. It is a table
  • FIG. 25 (A) shows the restored image data in which the processing target image data is ideally restored by repeating the processing flow (A) in FIG. 3, and (B) shows the processing flow (B ) Is repeated, and restored image data in which the processing target image data is ideally restored is shown.
  • the image processing apparatus 1 is a so-called digital camera for consumer use that uses a CCD for the image pickup unit.
  • the image processing device 1 is for a surveillance camera, a TV camera, and an endoscope that use an image pickup device such as a CCD for the image pickup unit. It can also be applied to devices other than cameras, such as cameras for other uses, imaging diagnostic devices for microscopes, binoculars, and NMR imaging.
  • the image processing apparatus 1 includes an imaging unit 2 that captures a subject such as a person, a control system unit 3 that drives the imaging unit 2, and an image processing unit 4 that processes an image captured by the imaging unit 2. And have.
  • the image processing apparatus 1 according to this embodiment further includes a recording unit 5 that records an image processed by the image processing unit 4, an angular velocity sensor, and the like, and causes of changes in captured images such as image degradation.
  • the imaging unit 2 is a photographic optical system having a lens, a CCD or CMOS (Complementary Metal Oxide Semiconductor) that converts light passing through the lens into an electrical signal, and the like. It is a part provided with an image sensor.
  • the control system unit 3 controls each unit in the image processing apparatus 1, such as the imaging unit 2, the image processing unit 4, the recording unit 5, the detection unit 6, and the factor information storage unit 7.
  • the image processing unit 4 is composed of an image processing processor, and is composed of hardware such as an ASIC (Application Specific Integrated Circuit).
  • This image processing unit 4 includes a recording unit (not shown), and the recording unit is an arbitrary source that is used when generating image data having a high frequency component of complex space in processing image data, which will be described later, and comparison image data. The image data of the image is saved.
  • the image processing unit 4 may be configured to process with software rather than configured as hardware such as ASIC.
  • the recording unit 5 is composed of a semiconductor memory, but magnetic recording means such as a hard disk drive, optical recording means using a DVD (Digital Versatile Disk), or the like may be employed.
  • the detection unit 6 includes two angular velocity sensors that detect the speeds around the X and Y axes that are perpendicular to the Z axis, which is the optical axis of the image processing apparatus 1. Is provided.
  • camera shake when shooting with the camera is the force that also causes movement in the X, Y, and Z directions and rotation around the Z axis. Rotation and rotation around the X axis.
  • These two variations are only a slight variation, and the captured image is greatly blurred. Therefore, in this embodiment, only two angular velocity sensors around the X axis and the Y axis in FIG. 2 are arranged.
  • an additional angular velocity sensor around the Z axis or a sensor that detects movement in the X or Y direction may be added.
  • the sensor used may be an angular acceleration sensor that is not an angular velocity sensor.
  • the factor information storage unit 7 is a recording unit that stores change factor information such as known deterioration factor information, such as aberrations of the imaging optical system.
  • the factor information storage unit 7 stores aberration information of the photographing optical system and lens distortion. However, when correcting image deterioration due to camera shake described later, these factors are stored. Information is not used
  • processing flow (A) an overview of the concept of the processing method on which the present invention is based is shown in FIG. ) Processing This will be described based on the flow (hereinafter, processing flow (A)) and FIG.
  • I indicates image data of an arbitrary image (hereinafter referred to as arbitrary image data).
  • 0-change image data which is image data for comparison (hereinafter, comparison image data) for comparison.
  • Img ' refers to the captured image data, that is, the captured image data that has changed due to the change factor, and the image data of the processing target image to be processed (hereinafter referred to as processing target image data). It is.
  • is difference data between the processing target image data Img 'and the comparison image data.
  • K is the distribution ratio based on the change factor information data G.
  • I is an arbitrary image
  • Img is image data of the original image before the change (hereinafter referred to as basic image data), which is the basis of the processing target image data Img ′. That is, it is image data of a photographed image when photographing is performed in a state where there is no image change factor such as camera shake.
  • the relationship between Img and Im is expressed by the following equation (1).
  • the difference data ⁇ may be a simple difference between corresponding pixels, but in general, it differs depending on the change factor information data G and is expressed by the following equation (2).
  • arbitrary image data I is prepared as initial image data.
  • Step S101 This initial image data, that is, arbitrary image data I
  • the processing target image data Img 'that is the image data of the photographed image may be used, and any image data such as black solid, white solid, gray solid, pine pattern, etc. may be used.
  • step S102 input arbitrary image data I instead of Img in equation (1),
  • Image data for comparison I ′ which is an image, is obtained.
  • difference data ⁇ is calculated (step S103).
  • step S 104 it is determined whether or not the difference data ⁇ is greater than or equal to a predetermined value. If the difference data ⁇ is greater than or equal to the predetermined value, restored image data that becomes new initial image data in step S 105. Process to generate. That is, the difference data ⁇ is distributed to the arbitrary image data I based on the change factor information data G, and the restored image data I is generated. Then restore the image
  • image data I is set as step S102, step S103, step
  • step S106 If the difference data ⁇ is smaller than the predetermined value in step S104, the process is terminated (step S106). Then, the restored image data I at the end of processing is corrected and the image
  • the recording unit 5 records arbitrary image data I and change factor information data G,
  • Arbitrary image data I or restored image data I is the base of processing target image data Img '.
  • the angular velocity detection sensor detects the angular velocity every 5 seconds.
  • the data of each pixel is 0 to 25 after it corresponds to the amount of light energy received by the pixel. It is represented by 5 8-bit data. When the data is “0”, the light energy is 0, and when the data is “255”, the amount of light energy that can be received by the pixel is in the maximum state.
  • the data value that is the determination criterion for the difference data ⁇ is, for example, "6". If it is less than 6, that is, 5 or less, the process is terminated.
  • the shake data detected by the angular velocity detection sensor does not correspond to actual shake when the sensor itself is not calibrated. Therefore, in order to cope with actual blurring, when the sensor is not calibrated, correction is required to multiply the raw data detected by the sensor by a predetermined magnification.
  • the light energy corresponding to a given pixel is concentrated on that pixel during the exposure time.
  • the light energy is distributed to the pixels that are blurred during the exposure time.
  • the blur during the exposure time is known, it is possible to know how to disperse the light energy during the exposure time, so that it is possible to create an image with no blurring image force.
  • FIG. 6 shows the shooting results at this time, that is, the shooting results when shooting without shaking.
  • the image shown in Fig. 6 is the basic image data Img when it is assumed that there is no deterioration.
  • the processing target image data Img ′ is image data of an image in which the base image data Img has changed due to blurring as a result of being photographed.
  • the data value “120” of the pixel n ⁇ 3 is assigned to the pixel n ⁇ 3 according to the distribution ratio of “0.5”, “0.3”, and “0.2” of the change factor information data G that is the blur information. 60 ”,“ 36 ”for pixel n ⁇ 2, and“ 24 ”for pixel n ⁇ 1.
  • the change factor information data G is applied to 0, that is, the processing target image data Img ′ in step S102. That is, for example, the data value “60” of pixel n ⁇ 3 of arbitrary image data I is “30” power pixel to pixel n ⁇ 3.
  • Comparison image data 0 indicated as “0” is generated. Then, the difference data ⁇ in step S103 is as shown in the bottom column of FIG.
  • step S104 the size of the difference data ⁇ is determined. Specifically, for example, the process ends when the data values of the difference data ⁇ are all 5 or less in absolute value. However, since the difference data ⁇ shown in FIG. 9 does not meet this condition, the process returns to step S105. move on. That is, the difference data ⁇ is distributed to the arbitrary image data I using the change factor information data G.
  • restored image data I shown as “next input I” in FIG. 10 is generated. This
  • the pixel value ⁇ 3 is multiplied by “15”, which is the data value “30” of itself, and the distribution ratio 0.5.
  • the data value “15” of the pixel n ⁇ 2 is allocated “4.5” which is the distribution ratio 0.3 that should have been to the pixel n ⁇ 2, and the pixel n ⁇ Allocate “1.84” by multiplying the data value “9.2” of 1 by the distribution ratio 0.2 that should have come to this pixel n-1. Therefore, the total amount of data values allocated to pixel n ⁇ 3 is “21.34”, and this value is set to arbitrary image data I (here, it is a captured image).
  • step S102 is executed, and step S1
  • step S104 The size of the new difference data ⁇ is determined in step S104. If it is larger than the predetermined value, the new difference data ⁇ is converted to the previous restored image data I in step S105.
  • the restored image data I force is also changed to the new comparison image data I.
  • step S102 and step S103 are executed.
  • step S104 Go to step S104, and go to step S105 or move to step S106 depending on the judgment. Such a process is repeated.
  • the restored image is processed so as to be generated at a position where exposure of the processing target image is started, that is, a position where photographing is started. ing. Therefore, when the processing target image, which is the captured image displayed on the display screen, is restored to the restored image, it appears that the restored image is moved to the starting position of the blur of the processing target image and restored.
  • the change factor information data G is “0.5, 0.3, 0.2”, and the exposure time of the processing target image is shortened according to the blur direction.
  • the processing target image is an image whose brightness gradually becomes darker according to the blur direction.
  • the blur during the exposure time is at pixel n for the first 20% of the exposure time, at pixel n + 1 for the next 30%, and at pixel n + 2 for the last 50%.
  • the restoration factor image data G is “0, 2, 0, 3, 0.5”.
  • the processing target image is an image in which the brightness increases from the position where the blur starts to the end position.
  • the processing target image data Img ′ of the processing target image is restored by the restoration processing method described above, the restored image is generated at the exposure start position where the brightness of the processing target image is low. For this reason, when viewing the generation of a restored image from the processing target image on the display screen, an illusion that the restored image is generated at a position different from the original imaging position is generated, and unnaturalness is felt. .
  • the processing target image has a direction in which the data value of the change factor information data G decreases from the largest position.
  • the restored image is generated in correspondence with the largest position of the data value of the change factor information data G.
  • processing flow (B) shown in FIG. 3B (hereinafter, processing flow (B)) and FIGS. 13 to 24.
  • the processing flow (B) in FIG. 3 is different in the processing contents of step S102 and step S105 in the processing flow (A) in FIG.
  • the process of step S102 ′ is performed instead of step S102 of the process flow (A) in FIG. 3, and the process of step S105 ′ is performed instead of step S105.
  • steps S101 and 103 and step S104 in the processing flow (B) in FIG. 3 the same processing as in processing flow (A) in FIG. 3 is performed.
  • the tables in (B) (hereinafter referred to as table (B)) in each of FIGS. 15 to 24 show the details of the processing in steps S102 'and S105' in the processing flow (B) in FIG. It is shown in.
  • the table (B) in each figure in Fig. 15 shows the direction of the change factor information data G from the largest pixel to the smaller pixel regardless of the blur direction of the image to be processed. This shows the processing that restores the processing target image data Img 'as the result of blurring.
  • Tables (A) (hereinafter referred to as Table (A)) in FIGS. 15 to 24 show processing for generating restored image data I at the exposure start position. Ratio of processing in Table (B) in each figure of 24
  • the processing in Table (A) in FIGS. 15, 17, 19, 21, and 23 is the processing content of Step S102 in the processing flow (A) in FIG. 3, and the processing in Tables 16, 18, 20, 22, and 24 in FIG.
  • the processing in (A) is the processing content of step S105 in the processing flow (A) in FIG.
  • the base image data Img is assumed to be only for one pixel n, and blurring occurs only in two pixels in the horizontal one dimension, that is, in the pixels n + 1 and n + 2.
  • the restoration process of the processing target image data Img ′ when the blur change factor information data G is “0.2, 0.3, 0.5” will be described.
  • the concentration of the optical energy of the pixel n when the blur is not 1 is 1, the change factor information data G due to the blur is “0.
  • the dispersion method of the light energy to each pixel n, n + 1, n + 2 is 0.2, 0.3, 0.5.
  • the optical energy of pixel n is 100, 30% of the optical energy of pixel n is distributed to pixel n + 1 and 50% is distributed according to change factor information data G.
  • Dispersed in pixel n + 2 20% remains in pixel n, and becomes the processing target image data Img '. That is, in the processing target image data Img ′, the light energy of the pixels n, n + 1, n + 2 is 20, 30, 50.
  • Change factor information data G ' is applied and changed. This change factor information data G ′ is based on the change factor information data G “0.2, 0.3, 0.5”. It is generated as
  • step S102 ′ the processing content of step S102 ′ is as follows.
  • the data of the pixel n ⁇ 3 is distributed with a light energy of 0.5 to its own pixel n ⁇ 3.
  • the light energy distribution of 0.5 is performed on its own pixel n-2, and the light energy distribution of 0.3 is performed on the pixel n-3.
  • the data of pixel n ⁇ l is allocated 0.5 light energy to its own pixel n ⁇ l, 0.3 light energy distribution to pixel n ⁇ 2, and further to pixel n ⁇ 3.
  • 0.2 Light energy distribution is done.
  • light energy is distributed to each pixel and its left pixel in the order of 0.5, 0.3, 0.2.
  • Table (B) in Fig. 15 arbitrary image data I is set to 0.
  • difference data ⁇ from the processing target image data Img ′ is calculated (step S103).
  • This difference data ⁇ is shown in the bottom column of the table ( ⁇ ) in FIG.
  • step S102 when the processing target image data Img 'shown in FIG. 14 is processed by the processing flow (A) in FIG. 3 is described with reference to the table (A) in FIG. explain.
  • This arbitrary image data I is converted to change factor information data G in step S102.
  • This change factor information data G is data corresponding to the blur locus from the exposure start position to the exposure end position. Therefore, the data of the pixel n ⁇ 3 is distributed with the light energy of 0.2 to the pixel n ⁇ 3, the light energy of 0.3 is distributed to the pixel n ⁇ 2, and the pixel n ⁇ A light energy distribution of 0.5 is assigned to 1.
  • the data value of pixel n—2 is distributed to its own pixel n—2 with a light energy distribution of 0.2, and pixel n—1 is 0.3. The light energy is distributed to the pixel n, and 0.5 light energy is distributed to the pixel n .
  • the data value of the pixel n ⁇ 1 is allocated to the pixel n ⁇ 1 having a light energy distribution of 0.2, the pixel n having a light energy distribution of 0.3, and the pixel n + 1 having a data value of 0.5.
  • the light energy is distributed.
  • light energy is distributed to each pixel and its right pixel in the order of 0.2, 0.3, 0.5.
  • Table (A) in Fig. 15 since the arbitrary image data I is set to 0, the output generated by the action of the change factor information data G
  • the contents will be described again in FIG. 17A where the data value of the arbitrary image data is greater than “0”.
  • the bottom column of the table (A) in FIG. 15 shows the calculation result of the difference data ⁇ between the processing target image data I mg ′ and the comparison image I (step S103).
  • step S 104 the size of the difference data ⁇ is determined in step S 104. Then, when the difference data ⁇ becomes equal to or smaller than the predetermined absolute value, the process is terminated. Otherwise, the process proceeds to step S105 ′ where the process shown in the table ( ⁇ ) of FIG. 16 is performed.
  • the distribution process of the difference data ⁇ in step S105 ′ is the distribution ratio of its own location to the data ⁇ 50 '' of pixel n + 2 to its own pixel n + 2. "25" multiplied by 5 is allocated, and "9” is allocated to the data "30" of pixel n + 1 with the allocation ratio 0.3 that should have been to this pixel n + 1.
  • Allocate “4” by multiplying the data value “20” of pixel n by the distribution ratio 0.2 that should have come to this pixel n. Therefore, the total amount of data values allocated to this pixel n + 2 is “38”. And this value is input I which is the initial image data.
  • the second processing flow of the processing flow (B) in FIG. 3 is performed as 0 0 + 1 image data I).
  • the data value of arbitrary image data I is data other than “0”.
  • step S102 The specific processing content of step S102 'in the processing flow (B) of Fig. 3 described with reference to the table (B) of Fig. 15 will be described again with reference to the table (B) of Fig. 17. It becomes as follows. Let's look at pixel n + 2. The data of pixel n + 2 is the restored image data I, which is the initial image data, based on the result of the process of Table (B) in FIG.
  • the restored image data I having the following data values is used. Refer to Table (A) in Figure 15.
  • step S102 in the processing flow (A) of FIG. 3 described above will be described with reference to the table (A) of FIG. Let's look at pixel n.
  • the light energy is distributed, and a light energy distribution of “11.4” corresponding to a ratio of 0.3 is performed on the pixel n + 1. Then, the light energy of “19” corresponding to the ratio of 0.5 is distributed to the pixel n + 2.
  • the other pixels are processed in the same way, and the output I shown in Table (A) in Fig. 17
  • step S104 for the processing flows (A) and (B) in FIG. 3, the same processing as that described above is repeated in step S104 until the difference data ⁇ becomes equal to or smaller than a predetermined value.
  • the table ( ⁇ ) in Fig. 17 and Fig. 18 shows the processing contents of the second processing flow in the processing flow ( ⁇ ) in Fig. 3
  • the table ( ⁇ ) in Fig. 19 and Fig. 20 shows the processing in Fig. 3.
  • the processing contents of the third processing flow of the flow ( ⁇ ), the table ( ⁇ ) of FIG. 21 and FIG. 22 show the processing contents of the fourth processing flow of the processing flow ( ⁇ ) of FIG.
  • the tables ( ⁇ ) in Fig. 23 and Fig. 24 show the processing contents of the fifth processing flow in the processing flow ( ⁇ ) in Fig. 3, respectively.
  • the restored image data I is shown in the table ( ⁇ ) in Fig. 25.
  • Tables (A) in FIG. 17 and FIG. 18 show the processing contents of the second processing flow of the processing flow (A) in FIG. 3, and Tables (A) in FIG. 19 and FIG.
  • the processing contents of the third processing flow in the processing flow (A) in FIG. 21 and the table (A) in FIGS. 21 and 22 are the processing contents of the fourth processing flow in the processing flow (A) in FIG. 23 and 24 (A) show the processing contents of the fifth processing flow of the processing flow (A) in FIG. 3, respectively.
  • the restored image data I is as shown in Table (A) in Fig. 25.
  • the restored image data I so that the data value of pixel n of the restored image data I is 100.
  • the image data Img 'to be processed has the data values of pixels n, n + 1 and n + 2 as “20”, “30” and “50”, respectively, according to the direction of camera shake.
  • the pixel n + 2 at the exposure end position is brighter than the pixel n at the exposure start position.
  • the restored image data I which is obtained by restoring the image at the position of the pixel n + 2 at the exposure end position, which is brighter than the position of the pixel n at the exposure start position, by the processing flow (A) in FIG.
  • processing target image data Img '1S with the center of brightness at pixel n + 2 is restored to pixel n, and restored image data I is restored from processing target image data Img' to the viewer who sees it on the display screen. Gives unnaturalness.
  • the restored image data I obtained by restoring the processing target image data Img ′ according to the processing flow (B) in FIG. 3 is the table in FIG. 16, FIG. 18, FIG. 20, FIG. Bottom column in B)
  • the restored image data I is an image having n + 2, which is the brightness center of the processing target image data Img '.
  • the restored image data I is restored from the processing target image data Img '.
  • the change factor information data G instead of the change factor information data G, the change factor information data G ′ indicating that blurring has occurred due to the high pixel power of the pixel with a high pixel power distribution and a low pixel power is used.
  • the target image data Img ' To restore the target image data Img '. In this way, even when a processing target image (captured image) with a longer exposure time is restored in the middle of the blur locus or at the exposure end position than the exposure start position, a restored image is generated on the display screen. Can be seen in a natural sense.
  • step S102 instead of determining the size of the difference data ⁇ in step 104, the processing from step S102 to step S105 is performed.
  • Set the number of times to restore the restored image data Data I can be approximated to the base image data Img. In other words, restore the processing count
  • the process may be stopped when either one is satisfied.
  • priority is given to the determination of the size of the difference data ⁇ , and if the predetermined number of processes does not fall within the determination reference value, the process is repeated a predetermined number of times. Also good.
  • the information stored in the factor information storage unit 7 is not used.
  • known deterioration factors stored here such as optical aberrations and lens distortions, are not stored.
  • Such data may be used.
  • the correction with the optical aberration information may be performed.
  • the factor information storage unit 7 may not be installed, and the image may be corrected or restored only by dynamic factors during shooting, for example, only blurring.
  • Each processing method described above may be programmed.
  • the program may be stored in a storage medium, for example, a CD (Compact Disc), a DVD, or a USB (Universal Serial Bus) memory so that it can be read by a computer.
  • the image processing apparatus 1 has reading means for reading the program in the storage medium.
  • the program may be stored in an external server of the image processing apparatus 1, downloaded as necessary, and used.
  • the image processing apparatus 1 has communication means for downloading the program in the storage medium.
  • the information stored in the factor information storage unit 7 is not used.
  • known deterioration factors (change factors) stored here such as optical aberration and lens, Data such as strain may be used.
  • the blur information and optical aberration information are combined into one change factor information data (degradation factor information).
  • the factor information storage unit 7 may not be installed, and an image may be restored using dynamic factor at the time of shooting, for example, change factor information data relating only to blurring.
  • the change factor information data “G” includes not only a function of deterioration factors but also a simple change of an image and an item that improves an image contrary to deterioration.
  • the angular velocity detection sensor detects the angular velocity every 5 seconds, for example. Also, the blur data detected by the angular velocity detection sensor does not correspond to actual blur when the sensor itself is not calibrated. Therefore, in order to cope with actual blurring, when the sensor is not calibrated, correction is required to multiply the raw data detected by the sensor by a predetermined magnification.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Theoretical Computer Science (AREA)
  • Image Processing (AREA)
  • Studio Devices (AREA)

Abstract

 画像を復元するに当たり、撮影画像のぶれの軌跡の途中や終端部において露光時間が長くなるような露光が行われた撮影画像を復元する場合に、見た目で自然な感じに復元画像が生成されるようにする画像処理装置を提供すること。  撮影装置の露光中の移動により、基画像に対して変化させられた処理対象画像から、基画像に近似する復元画像を生成する画像処理部を有する画像処理装置において、画像処理部は、復元画像を、処理対象画像の露光時間が最も長い位置に対応させて生成することを特徴とする画像処理装置。

Description

明 細 書
画像処理装置
技術分野
[0001] 本発明は、画像処理装置に関する。
背景技術
[0002] 従来から、撮像部に CCD (Charge Coupled Devices)などの撮像素子を使用 するカメラにより撮影を行った撮影画像は、撮影時の手ぶれ、撮影光学系の各種の 収差、あるいは撮影光学系を構成するレンズの歪み等がある場合は、これが要因と なり、撮影画像が劣化することが知られている。
[0003] このような撮影画像の劣化を防ぐ手段として、撮影画像の劣化の要因のうち、撮影 時の手ぶれに関しては、レンズを動かす方式と撮影した画像を回路処理する方式の 2つの方式が知られている。例えば、レンズを動かす方式としては、カメラの手ぶれを 検出し、撮影光学系の中の所定のレンズを、検出した手ぶれによるカメラの移動に合 わせて動かすことにより、撮像素子上における結像位置の移動を抑制する方式が知 られている (特許文献 1参照)。
[0004] また、回路処理する方式としては、カメラの撮影光学系の光軸の変動を角加速度セ ンサ等により検出し、検出した角速度等力 撮影時のぼけ状態を表す伝達関数を取 得し、撮影画像に対し、取得した伝達関数の逆変換を行い、劣化のない画像を復元 する方式が知られて!/ヽる (特許文献 2参照)。
[0005] 特許文献 1:特開平 6— 317824号公報 (要約書参照)
特許文献 2:特開平 11 24122号公報 (要約書参照)
発明の開示
発明が解決しょうとする課題
[0006] 特許文献 1記載の手ぶれ補正を採用したカメラは、モータ等のレンズを駆動するハ 一ドウエアのスペースが必要となり大型化してしまう。また、そのようなハードウェア自 体やそのハードウェアを動かす駆動回路が必要となり、コストアップとなってしまう。
[0007] また、特許文献 2記載の手ぶれ補正の場合は、上述した問題点はなくなるものの、 次のような問題を有する。
[0008] 手ぶれにより劣化した撮影画像を画像表示装置の表示画面で見ると、撮影の開始 時である露光開始時力 撮影の終了時である露光終了時までの間に手ぶれをして力 メラが移動した軌跡に沿ってぶれた撮影画像になって ヽる。この劣化した撮影画像を 伝達関数に基づいて表示画面上で復元すると、復元画像は、ぶれた撮影画像が露 光開始時の位置に収束するように生成されるように見える。
[0009] ところが、手ぶれの仕方によっては、手ぶれの途中や露光を終了する位置におい て、手ぶれの速さが遅くなる状態で撮影を行ってしまうことがある。このような状態で 撮影した撮影画像は、手ぶれの速さが遅くなつた手ぶれの途中や露光を終了位置 において、露光時間の長い画像になっている。そのため、この撮影画像は、ぶれの 途中や終端部の明るさが高いものとなっている。そして、このような撮影画像を復元 すると、ぶれの軌跡の途中や終端部の明るい部分が、撮影開始時の位置へ移動し たように見えるため、不自然さを感じることがある。
[0010] そこで、本発明の課題は、画像を復元するに当たり、撮影画像のぶれの軌跡の途 中や終端部において露光時間が長くなるような露光が行われた撮影画像を復元する 場合に、見た目で自然な感じに復元画像が生成されるようにする画像処理装置を提 供することである。
課題を解決するための手段
[0011] 上記課題を解決するために、本発明の画像処理装置は、撮影装置の露光中の移 動により、基画像に対して変化させられた処理対象画像から、基画像に近似する復 元画像を生成する画像処理部を有する画像処理装置において、画像処理部は、復 元画像を、処理対象画像の露光時間が最も長い位置に対応させて生成することとし ている。
[0012] 本発明によれば、処理対象画像における露光時間が一番長い位置に復元画像を 生成するため、復元画像を表示画面に表示する際に、処理対象画像と復元画像の 表示位置のずれが少なくなり、自然な感じで復元画像が表示すされることになる。
[0013] また、他の発明は、上述の発明に加え、露光時間が最も長い位置を、画像変化の 要因となる変化要因情報のデータのデータ値の最も大きい画素とすることとした。 [0014] この構成を採用した場合、画像変化の要因となる変化要因情報のデータに基づい て露光時間が最も長い位置を判断することしたため、露光時間が最も長い位置に関 する情報を容易に得ることができる。
[0015] また、他の発明は、上述の発明に加え、復元画像の復元は、変化要因情報のデー タを利用して、任意の画像データから比較用画像データを生成し、その後、処理対 象となる処理対象画像の画像データと比較用画像データとを比較し、得られた差分 のデータを変化要因情報のデータを利用して任意の画像データに配分することで復 元画像データを生成し、その後、この復元画像データを任意の画像データの代わり に使用し、同様の処理を繰り返すことで、変化する前の基画像に近似する復元画像 を生成する処理を行うこととする。
[0016] この構成を採用した場合、変化要因情報を利用して比較用画像データを作り、この 比較用画像データと処理対象画像の画像データを比較するという処理を繰り返し、 徐々に処理対象画像の基となる変化前の基画像に近い復元画像データを得る。そ のため、露光時間が最も長い位置に関する情報を、画像変化の要因となる変化要因 情報のデータから判断できることに加えて、復元画像データの生成を現実的な作業 とすることができる。
発明の効果
[0017] 本発明によれば、画像を復元するに当たり、ぶれの軌跡の途中や終端部において 露光時間が長くなるような露光が行われた撮影画像を復元する場合に、見た目で自 然な感じに復元画像を生成することができる。
図面の簡単な説明
[0018] [図 1]本発明の実施の形態に係る画像処理装置の主要構成を示すブロック図である
[図 2]図 1に示す画像処理装置の概要を示す外観斜視図で、角速度センサの配置位 置を説明するための図である。
[図 3]図 1に示す画像処理装置の処理部で行う処理方法を示す図で、(A)は、処理 方法の基本的な考え方の概要を説明するためのフロー図で、(B)は、図 1に示す画 像処理装置の処理部で行う本実施の形態における処理方法を説明するためのフロ 一図である。
[図 4]図 3 (A)に示す処理方法の考え方の概念を説明するための図である。
[図 5]図 3 (A)に示す処理方法の考え方の概要を、手ぶれを例にして具体的に説明 するための図で、手ぶれのないときの光エネルギの集中を示す表である。
[図 6]図 3 (A)に示す処理方法の考え方の概要を、手ぶれを例にして具体的に説明 するための図で、手ぶれのないときの基画像データを示す表である。
[図 7]図 3 (A)に示す処理方法の考え方の概要を、手ぶれを例にして具体的に説明 するための図で、手ぶれが生じたときの光エネルギの分散を示す表である。
[図 8]図 3 (A)に示す処理方法の考え方の概要を、手ぶれを例にして具体的に説明 するための表で、任意の画像力 比較用画像データを生成する状況を説明するため の表である。
[図 9]図 3 (A)に示す処理方法の考え方の概要を、手ぶれを例にして具体的に説明 するための表で、比較用画像データと、処理対象画像とを比較して、差分のデータを 生成する状況を説明するための表である。
[図 10]図 3 (A)に示す処理方法の考え方の概要を、手ぶれを例にして具体的に説明 するための表で、差分のデータを配分し任意の画像に加えることで復元画像データ を生成する状況を説明するための表である。
圆 11]図 3 (A)に示す処理方法の考え方の概要を、手ぶれを例にして具体的に説明 するための表で、生成された復元画像データから新たな比較用画像データを生成し 、そのデータと処理対象画像とを比較して差分のデータを生成する状況を説明する ための表である。
[図 12]図 3 (A)に示す処理方法の考え方の概要を、手ぶれを例にして具体的に説明 するための表で、新たに生成された差分のデータを配分し、新たな復元画像データ を生成する状況を説明するための表である。
[図 13]図 1に示す画像処理装置の処理部での処理方法を説明するに当たって、その 前提となる手ぶれの状態を示す図で、手ぶれの始まりより後の方が遅くなるように手 ぶれが生じたときの光エネルギの分散を示す表である。
[図 14]図 13に示す光エネルギの分散によって、光エネルギが 100の画素 n力 変化 要因情報データ Gによりぶれたときの処理対象画像 Img' の画素の光エネルギの状 態を表わす表である。
[図 15] (A)は、図 3の処理フロー (A)に示す処理方法の第 1回目の処理フローにより 、比較用画像データと、処理対象画像データとを比較して、差分のデータを生成する 状況を説明するための表で、(B)は、図 3の処理フロー(B)に示す処理方法の第 1回 目の処理フローにより、比較用画像データと、処理対象画像データとを比較して、差 分のデータを生成する状況を説明するための表である。
[図 16] (A)は、図 3の処理フロー (A)に示す処理方法の第 1回目の処理フローにより 、新たに生成された差分のデータを配分し、新たな復元画像データを生成する状況 を説明するための表で、(B)は、図 3の処理フロー(B)に示す処理方法の第 1回目の 処理フローにより、新たに生成された差分のデータを配分し、新たな復元画像データ を生成する状況を説明するための表である。
[図 17] (A)は、図 3の処理フロー (A)に示す処理方法の第 2回目の処理フローにより 、比較用画像データと、処理対象画像データとを比較して、差分のデータを生成する 状況を説明するための表で、(B)は、図 3の処理フロー(B)に示す処理方法の第 2回 目の処理フローにより、比較用画像データと、処理対象画像データとを比較して、差 分のデータを生成する状況を説明するための表である。
[図 18] (A)は、図 3の処理フロー (A)に示す処理方法の第 2回目の処理フローにより 、新たに生成された差分のデータを配分し、新たな復元画像データを生成する状況 を説明するための表で、(B)は、図 3の処理フロー(B)に示す処理方法の第 2回目の 処理フローにより、新たに生成された差分のデータを配分し、新たな復元画像データ を生成する状況を説明するための表である。
[図 19] (A)は、図 3の処理フロー (A)に示す処理方法の第 3回目の処理フローにより 、比較用画像データと、処理対象画像データとを比較して、差分のデータを生成する 状況を説明するための表で、(B)は、図 3の処理フロー(B)に示す処理方法の第 3回 目の処理フローにより、比較用画像データと、処理対象画像データとを比較して、差 分のデータを生成する状況を説明するための表である。
[図 20] (A)は、図 3の処理フロー (A)に示す処理方法の第 3回目の処理フローにより 、新たに生成された差分のデータを配分し、新たな復元画像データを生成する状況 を説明するための表で、(B)は、図 3の処理フロー(B)に示す処理方法の第 3回目の 処理フローにより、新たに生成された差分のデータを配分し、新たな復元画像データ を生成する状況を説明するための表である。
[図 21] (A)は、図 3の処理フロー (A)に示す処理方法の第 4回目の処理フローにより 、比較用画像データと、処理対象画像データとを比較して、差分のデータを生成する 状況を説明するための表で、(B)は、図 3の処理フロー(B)に示す処理方法の第 4回 目の処理フローにより、比較用画像データと、処理対象画像データとを比較して、差 分のデータを生成する状況を説明するための表である。
[図 22] (A)は、図 3の処理フロー (A)に示す処理方法の第 4回目の処理フローにより 、新たに生成された差分のデータを配分し、新たな復元画像データを生成する状況 を説明するための表で、(B)は、図 3の処理フロー(B)に示す処理方法の第 4回目の 処理フローにより、新たに生成された差分のデータを配分し、新たな復元画像データ を生成する状況を説明するための表である。
[図 23] (A)は、図 3の処理フロー (A)に示す処理方法の第 5回目の処理フローにより 、比較用画像データと、処理対象画像データとを比較して、差分のデータを生成する 状況を説明するための表で、(B)は、図 3の処理フロー(B)に示す処理方法の第 5回 目の処理フローにより、比較用画像データと、処理対象画像データとを比較して、差 分のデータを生成する状況を説明するための表である。
[図 24] (A)は、図 3の処理フロー (A)に示す処理方法の第 5回目の処理フローにより 、新たに生成された差分のデータを配分し、新たな復元画像データを生成する状況 を説明するための表で、(B)は、図 3の処理フロー(B)に示す処理方法の第 5回目の 処理フローにより、新たに生成された差分のデータを配分し、新たな復元画像データ を生成する状況を説明するための表である。
[図 25] (A)は、図 3の処理フロー (A)を繰り返し行い、処理対象画像データが理想的 に復元された復元画像データを示し、(B)は、図 3の処理フロー(B)を繰り返し行い、 処理対象画像データが理想的に復元された復元画像データを示す。
符号の説明 [0019] 1 画像処理装置
2 撮影部
3 制御系部
4 処理部
5 記録部
6 検出部
7 要因情報保存部
I
0 任意画像データ (初期画像データ)
I
0 ' 比較用画像データ
G 変化要因情報データ
Img 基画像
Img' 撮影画像データ (撮影された画像)
h フィードバック関数
I
O+n 復元画像データ
発明を実施するための最良の形態
[0020] 以下、本発明の第 1の実施の形態に係る画像処理装置 1について図を参照しなが ら説明する。なお、この画像処理装置 1は、撮像部に CCDを使用した民生用のいわ ゆるデジタルカメラとしているが、撮像部に CCD等の撮像素子を用いる監視用カメラ 、テレビ用カメラ用、内視鏡用カメラ等、他の用途のカメラとしたり、顕微鏡用、双眼鏡 用、さらには NMR撮影用等の画像診断装置等、カメラ以外の機器にも適用できる。
[0021] 画像処理装置 1は、人物等の被写体を撮影する撮像部 2と、その撮像部 2を駆動す る制御系部 3と、撮像部 2で撮影された画像を処理する画像処理部 4と、を有している 。また、この実施の形態に係る画像処理装置 1は、さらに画像処理部 4で処理された 画像を記録する記録部 5と、角速度センサ等からなり、画像劣化等の撮影画像の変 化の要因となる変化要因情報を検知する検出部 6と、画像劣化等を生じさせる既知 の変化要因情報を保存する要因情報保存部 7を有する。
[0022] 撮像部 2は、レンズを有する撮影光学系やレンズを通過した光を電気信号に変換 する CCDや C MOS (Complementary Metal Oxide Semiconductor)等の 撮像素子を備える部分である。制御系部 3は、撮像部 2,画像処理部 4、記録部 5、検 出部 6および要因情報保存部 7等、画像処理装置 1内の各部を制御するものである。
[0023] 画像処理部 4は、画像処理プロセッサで構成されており、 ASIC(Application Spe cific Integrated Circuit)のようなハードウェアで構成されている。この画像処理 部 4は図示外の記録部を備え、この記録部に後述する処理用画像データにおける複 素空間の高周波成分を有する画像データや、比較用画像データを生成する際の元 となる任意の画像の画像データが保存されている。画像処理部 4は、 ASICのような ハードウェアとして構成されるのではなぐソフトウェアで処理する構成としても良い。 記録部 5は、半導体メモリで構成されているが、ハードディスクドライブ等の磁気記録 手段や、 DVD (Digital Versatile Disk)等を使用する光記録手段等を採用しても 良い。
[0024] 検出部 6は、図 2に示すように、画像処理装置 1の光軸である Z軸に対して垂直方 向となる X軸、 Y軸の回りの速度を検出する 2つの角速度センサを備えるものである。 ところで、カメラで撮影する際の手ぶれは、 X方向、 Y方向、 Z方向の各方向への移動 や Z軸回りの回動も生ずる力 各変動により最も大きな影響を受けるのは、 Y軸回りの 回転と X軸回りの回転である。これら 2つの変動は、ほんのわずかに変動しただけで、 その撮影された画像は大きくぼける。このため、この実施の形態では、図 2の X軸回り と Y軸回りの 2つの角速度センサのみを配置している。し力し、より完全を期すため Z 軸回りの角速度センサをさらに付加したり、 X方向や Y方向への移動を検出するセン サを付加しても良い。また、使用するセンサとしては、角速度センサではなぐ角加速 度センサとしても良い。
[0025] 要因情報保存部 7は、既知の劣化要因情報などの変化要因情報、例えば撮影光 学系の収差等を保存しておく記録部である。なお、この実施の形態では、要因情報 保存部 7には、撮影光学系の収差やレンズのひずみの情報が保存されているが、後 述する手ぶれによる画像の劣化を補正する際にはそれらの情報は、利用していない
[0026] 次に、以上のように構成された画像処理装置 1の画像処理部 4の処理方法を説明 するに先立ち、先ず、本発明の基になる処理方法の考え方の概要を図 3 (A)の処理 フロー(以下、処理フロー (A) )および図 4に基づ 、て説明する。
[0027] 図 3の処理フロー (A)中、「I」は、任意の画像の画像データ(以下、任意画像デー
0
タ)であって、画像処理部 4の記録部に予め保存されている画像のデータである。「I
0
' 」は、その任意画像データ I
0の変化画像のデータを示し、比較のための比較用画 像の画像データ(以下、比較用画像データ)である。「G」は、検出部 6で検出された 変化要因情報(=変化要因情報 (点像関数) )のデータで、画像処理部 4の記録部に 保存されるものである。「Img' 」は、撮影された画像、すなわち変化要因により変化 した撮影画像のデータを指し、この処理にお!ヽて処理対象となる処理対象画像の画 像データ(以下、処理対象画像データ)である。
[0028] 「 δ」は、処理対象画像データ Img' と、比較用画像データ との差分のデータ
0
である。「k」は、変化要因情報データ Gに基づく配分比である。「I 」は、任意画像
O+n
データ Iに、差分データ δを変化要因情報データ Gに基づいて配分して新たに生成
0
した復元画像の画像データ(以下、復元画像データ)である。「Img」は、処理対象画 像データ Img' の基となる、変化する前の本来の画像の画像データ(以下、基画像 データという)である。すなわち、手ぶれ等の画像の変化要因がない状態で撮影が行 われたとたしたときの撮影画像の画像データである。ここで、 Imgと Im の関係は、 次の(1)式で現されるとする。
Img, =Img水 G · ·· (1)
「 *」は、重畳積分を表わす演算子である。
なお、差分データ δは、対応する画素の単純な差分でも良い場合もあるが、一般 的には、変化要因情報データ Gにより異なり、次の(2)式で現される。
δ =f ( , Img, Gト - (2)
[0029] 図 3の処理フロー (A)は、まず、任意画像データ Iを初期画像データとして用意す
0
ることから始まる (ステップ S 101)。この初期画像データ、すなわち任意画像データ I
0 としては、撮影した画像の画像データである処理対象画像データ Img' を用いても 良ぐまた、黒ベタ、白ベタ、灰色ベタ、巿松模様等どのような画像のデータを用いて も良い。ステップ S102で、(1)式の Imgの代わりに任意画像データ Iを入れ、変化画
0
像である比較用画像データ I ' を求める。次に、処理対象画像データ Img' と比較 用画像データ I ' と比較し、差分データ δを算出する (ステップ S103)。
0
[0030] 次に、ステップ S 104で、この差分データ δが所定値以上である力否かを判断し、 所定値以上であれば、ステップ S 105で新たな初期画像データとなる復元画像デー タを生成する処理を行う。すなわち、差分データ δを変化要因情報データ Gに基づ V、て、任意画像データ Iに配分し、復元画像データ I を生成する。その後、復元画
0 Ο+η
像データ I を新たな初期画像データとして、ステップ S 102,ステップ S 103,ステツ
Ο+η
プ SI 04を繰り返す。
[0031] ステップ S104において、差分データ δが所定値より小さい場合、処理を終了する( ステップ S106)。そして、処理を終了した時点での復元画像データ I を正し 、画像
Ο+η
、すなわち劣化のない基画像データ Imgと推定し、そのデータを記録部 5に記録する 。なお、記録部 5には、任意画像データ Iや変化要因情報データ Gを記録しておき、
0
必要により画像処理部 4に渡すようにしても良 ヽ。
[0032] 以上の処理方法の考え方をまとめると以下のようになる。すなわち、この処理方法 においては、処理の解を逆問題としては解かず、合理的な解を求める最適化問題と して解くのである。逆問題として解く場合、特許文献 2の記載にもあるように、理論上 は可能であるが、現実問題としては困難である。
[0033] 最適化問題として解くということは、次の条件を前提としている。
すなわち、
(1)入力に対する出力は、一意に決まる。
(2)出力が同じであれば、入力は同じである。
(3)出力が同じになるように、入力を更新しながら反復処理することにより、解を収束 させていく。
[0034] このことを換言すれば、図 4 (A) (B)に示すように、処理対象画像データ Img' と近 似である比較用画像データ (I ' )を生成できれば、その生成の元データとな
0 O+n
る任意画像データ Iまたは復元画像データ I は、処理対象画像データ Img' の基
0 O+n
となる基画像データ Imgに近似したものとなる。
[0035] なお、この実施の形態では、角速度検出センサは 5 sec毎に角速度を検出してい る。また、各画素のデータは、画素が受ける光エネルギの量に対応させてから 0〜25 5の 8ビットのデータで表わしている。データが「0」のときは、光エネルギが 0であり、デ ータが「255」のときは画素に受容可能な光エネルギ量が最大の状態になっているこ とを示す。
[0036] 差分データ δの判定基準となるデータ値は、例えば「6」とし、 6より小さい、つまり 5以 下の時は、処理を終了することとする。また、角速度検出センサで検出したブレの生 データは、センサ自体の校正が不十分なときは、実際のブレとは対応しない。よって 実際のブレに対応させるため、センサが校正されていないときは、センサで検出した 生データに所定の倍率をかけたりする補正が必要とされる。
[0037] 次に、図 3の処理フロー (Α)および図 4に示す処理方法の詳細を、図 5,図 6,図 7, 図 8,図 9,図 10,図 11および図 12に基づいて説明する。
[0038] (手ぶれの復元アルゴリズム)
手ぶれが無いとき、所定の画素に対応する光エネルギは、露光時間中、その画素 に集中する。また、手ぶれがある場合、光エネルギは、露光時間中にぶれた画素に 分散する。さらに、露光時間中のブレがわかれば、露光時間中の光エネルギの分散 の仕方がわかるため、ぶれた画像力もブレの無い画像を作ることが可能となる。
[0039] 以下、簡単のため、横一次元で説明する。画素を左から順に、 η- 1, η, η+ 1, η
+ 2, η+ 3, ···,とし、ある画素 ηに注目する。ブレが無いとき、露光時間中の光エネ ルギは、その画素に集中するため、光エネルギの集中度は「1. 0」である。この状態 を図 5に示す。このときの撮影結果、すなわち手ぶれない状態で撮影したときの撮影 結果を、図 6の表に示す。図 6に示すものが、劣化しなカゝつたとした場合の基画像デ ータ Imgとなる。
[0040] 露光時間中にブレがあり、露光時間中の最初の 50%の時間は画素 nに、次の 30 %の画素 n+ 1に、終わりの 20%の時間は画素 n+ 2に、それぞれぶれていたとする 。光エネルギの分散の仕方は、図 7に示す表のとおりとなる。これが変化要因情報デ ータ Gとなる。
[0041] ブレは、全ての画素で一様であるので、上ぶれ(縦ぶれ)が無いとすると、ブレの状 況は、図 8に示す表のとおりとなる。処理対象画像データ Img' は、撮影された結果 、基画像データ Imgがブレにより変化した画像の画像データである。具体的には、た とえば画素 n— 3のデータ値「120」は、ぶれ情報である変化要因情報データ Gの「0 . 5」「0. 3」「0. 2」の配分比に従い、画素 n— 3に「60」、画素 n— 2に「36」、画素 n— 1に「24」というように分散する。同様に、画素 n— 2のデータ値「60」は、画素 n—2に 「30」、画素 n—1に「18」、画素 nに「12」として分散する。この処理対象画像データ I mg' と、図 7に示す変化要因情報データ G力 ぶれの無い撮影結果を算出すること となる。
[0042] ステップ S101に示す初期画像データとしての任意画像データ Iとしては、どのよう
0
なものでも採用できる力 この説明に当たっては、処理対象画像データ Img' を用い る。すなわち、 I =Img' として処理を開始する。図 9の表中に「入力 I」とされたもの
0 0
が任意画像データ I
0に相当する。この任意画像データ I
0、すなわち処理対象画像デ ータ Img' に、ステップ S 102で変化要因情報データ Gを作用させる。すなわち、たと えば、任意画像データ Iの画素 n— 3のデータ値「60」は、画素 n— 3に「30」力 画素
0
n—2に「18」力 画素 n—lに「12」がそれぞれ割り振られる。他の画素についても同 様に配分され、「出力 I ' I '
0 」として示される比較用画像データ 0 が生成される。そし て、ステップ S103の差分データ δは、図 9の最下欄に示すようになる。
[0043] この後、ステップ S 104にて差分データ δの大きさを判断する。具体的には、例えば 、差分データ δのデータ値が全て絶対値で 5以下となった場合に処理を終了するが 、図 9に示す差分データ δは、この条件に合わないため、ステップ S105に進む。す なわち、差分データ δを変化要因情報データ Gを使用して、任意画像データ Iに配
0 分して、図 10中の「次回入力 I 」として示される復元画像データ I を生成する。こ
0+1 0+η
の場合、第 1回目であるため、図 10では η= 1として I と表している。
0+ 1
[0044] 差分データ δの配分は、たとえば、画素 η— 3についてみると、画素 η— 3に、自分 の所のデータ値「30」に配分比である 0. 5をかけた「15」を配分し、また、画素 n—2 のデータ値「15」に、この画素 n—2にきているはずの配分比 0. 3を力けた「4. 5」を 配分し、さらに、画素 n— 1のデータ値「9. 2」に、この画素 n— 1にきているはずの配 分比 0. 2をかけた「1. 84」を配分する。したがって、画素 n— 3に配分されたデータ 値の総量は、「21. 34」となり、この値を任意画像データ I (ここでは撮影画像である
0
処理対象画像データ Img' を使用)にプラスして、復元画像データ I を生成してい る。この復元画像データ I は、図 10の表中の「次回入力 I 」に相当するものであ
0+1 0+1
る。
[0045] 図 11に示すように、入力 I である復元画像データ I 力 ステップ S 102の入力
0+1 0+ 1
画像のデータ(=任意画像データ I )になり、ステップ S 102が実行され、ステップ S1
0
03へと移行し、新しい差分データ δを得る。この新しい差分データ δの大きさをステ ップ S104で判断し、所定値より大きい場合、ステップ S 105で新しい差分データ δを 前回の復元画像データ I
0+1に配分し、新しい復元画像データ I
0+2を生成する。この 復元画像データ I は、図 12の表中の「次回入力 I 」に相当するものである。その
0+2 0+2
後、ステップ S102の遂行により、復元画像データ I 力も新しい比較用画像データ I
0 + 2
' が生成される。このように、ステップ S102,ステップ S103が実行された後、ステ
0 + 2
ップ S 104へ行き、そこでの判断によりステップ S 105へ行ったり、ステップ S 106へ移 行する。このような処理を繰り返す。
[0046] ところで、上述した画像の復元方法の基本的な考え方によれば、復元画像は、処 理対象画像の露光が開始された位置、すなわち撮影が開始された位置に生成する ように処理されている。したがって、表示画面に表示された撮影画像である処理対象 画像が復元画像に復元されるのを見ると、処理対象画像のぶれの始点位置に復元 画像が移動して復元されるように見える。
[0047] 先に説明した処理対象画像については、変化要因情報データ Gが「0. 5, 0. 3, 0 . 2」であり、処理対象画像の露光時間は、ぶれの方向に従って短くなつている。つま り、処理対象画像は、ブレの方向に従って徐々に明るさが暗くなる画像である。この 処理対象画像の処理対象画像データ Img' を上述の処理方法により復元すると、露 光時間が一番長い位置でもある露光開始位置に復元画像が生成されるように見える 。つまり、処理対象画像の明るい部分に復元画像が復元されるように見える。そのた め、ぶれた処理対象画像力 復元画像が生成されるのを表示画面において見てい ても、不自然さは感じない。
[0048] しかしながら、露光時間中のブレが、露光時間中の最初の 20%の時間は画素 nに 、次の 30%の時間は画素 n+ 1に、終わりの 50%の時間は画素 n+ 2にあるといった ように、変化要因情報データ Gが「0. 2, 0. 3, 0. 5」である処理対象画像から復元画 像が生成されるのを表示画面において見た場合には、不自然を感じることになる。つ まり、処理対象画像は、ぶれの始まる位置から終端位置に向力つて、明るさが高くな る画像となっている。そして、この処理対象画像の処理対象画像データ Img' を上述 の復元処理方法により復元すると、復元画像は、処理対象画像の明るさが低い露光 開始位置に生成されることになる。そのため、処理対象画像から復元画像が生成さ れるのを表示画面において見た場合に、復元画像が、本来の撮像位置とは異なる位 置に生成されるような錯覚を起こし、不自然さを感じる。
[0049] そこで、本発明においては、処理対象画像の実際の露光開始と露光終了の位置に 関わらず、処理対象画像は、変化要因情報データ Gのデータ値が一番大きな位置か ら小さくなる方向にぶれが生じたものとして、変化要因情報データ Gのデータ値の一 番大きな位置に対応させて復元画像を生成するようにした。
[0050] このように処理することにより、処理対象画像の一番明るい部分に復元画像が生成 されることになるため、処理対象画像の露光開始位置と変化要因情報データ Gのデ ータ値の一番大き ヽ位置とがずれて ヽても、処理対象画像から復元画像が生成され るのを表示画面にぉ 、て見た場合に、不自然さを感じることがな 、。
[0051] 具体的な処理について、図 3 (B)で示す処理フロー(B) (以下、処理フロー(B) )、 および図 13から図 24を参照しながら説明する。図 3の処理フロー(B)は、図 3の処理 フロー(A)のステップ S102とステップ S105の処理内容が異なるものである。図 3の 処理フロー (A)のステップ S 102の代わりにステップ S102' の処理を行い、また、ス テツプ S105の代わりにステップ S105' の処理を行う。図 3の処理フロー(B)のステ ップ S101, 103,ステップ S104については、図 3の処理フロー(A)と同様の処理を 行う。
[0052] 図 15から図 24の各図の(B)の表(以下、表(B) )は、図 3の処理フロー(B)のステツ プ S102' ,ステップ S105' の処理内容を具体的に示したものである。つまり、図 15 力も図 24の各図の表 (B)は、処理対象画像のブレの方向に関わらず、変化要因情 報データ Gのデータ値が一番大きな画素から、小さくなる画素の方向にぶれが生じた ものとして、処理対象画像データ Img' の復元処理を行う処理を示すものである。
[0053] 図 15, 17, 19, 21, 23の表(B)の処理の内容は、図 3の処理フロー(B)のステツ プ S102' の内容である。また、図 16, 18, 20, 22, 24の表(B)の処理の内容は、 図 3の処理フロー(B)のステップ S105' の内容である。
[0054] 図 15から図 24の各図の (A)の表(以下、表 (A) )は、露光開始位置に復元画像デ ータ I を生成する処理を示すもので、図 15から図 24の各図の表(B)の処理との比
O+n
較のために記載している。すなわち、図 15, 17, 19, 21, 23の表 (A)の処理は、図 3の処理フロー(A)のステップ S102の処理内容であり、図 16, 18, 20, 22, 24の表 (A)の処理は、図 3の処理フロー (A)のステップ S105の処理内容である。
[0055] この実施の形態においては、簡単のため、基画像データ Imgは、一つの画素 nだけ のものとし、横一次元に 2画素分、つまり、画素 n+ 1, n+ 2にだけブレが発生し、こ のブレの変化要因情報データ Gが「0. 2, 0. 3, 0. 5」であるときの処理対象画像デ ータ Img' の復元処理について説明することにする。
[0056] つまり、図 13の表〖こ示すよう〖こ、ブレがないとしたときの、画素 nの光エネノレギの集 中度を 1としたとき、ブレによる変化要因情報データ Gが「0. 2, 0. 3, 0. 5」のときは 、各画素 n, n+ 1, n+ 2への光エネルギの分散の仕方は、 0. 2, 0. 3, 0. 5となる。 そして、図 14の表に示すように、画素 nの光エネルギが 100としたとき、変化要因情 報データ Gに従い、画素 nの光エネルギのうち 30%が画素 n+ 1に分散し、 50%が画 素 n+ 2に分散し、画素 nには 20%が残り、処理対象画像データ Img' となる。つまり 、処理対象画像データ Img' は、画素 n, n+ 1, n+ 2の光エネルギが 20, 30, 50と なっている。
[0057] このような処理対象画像データ Img' について図 3の処理フロー(B)により処理を 行う。先ず、ステップ S101に示す任意画像データ Iとして、ここでは簡単のため、 I
0 0
=0として処理を開始する。つまり、各画素のデータ値を「0」として処理を開始する。 図 15の表(B)中の Iの欄は「0」となる。この任意画像データ Iを、ステップ S102' で
0 0
変化要因情報データ G' を作用させ変化させる。この変化要因情報データ G' は、 変化要因情報データ G「0. 2, 0. 3, 0. 5」に基づいて、光エネルギの分散の高い画 素から低!、画素にぶれが生じたデータとして生成されて 、る。
[0058] すなわち、変化要因情報データ Gは、画素 nから画素 n+ 1、そして画素 n+ 2の順 にブレが生じたデータとなっている力 変化要因情報データ G' は、画素 nから画素 n— 1、そして画素 n— 2にブレが生じたデータに変換されている。したがって、この変 化要因情報データ G' を任意画像データ I =0に作用させたときの具体的な処理内
0
容、つまり、ステップ S102' の処理内容は次のようになる。
[0059] 画素 n— 3のデータは、自身の画素 n— 3に 0. 5の光エネルギ配分がされる。画素 n
2のデータは、自身の画素 n— 2に 0. 5の光エネルギ配分がされ、画素 n— 3に 0. 3の光エネルギ配分がされる。画素 n—lのデータは、自身の画素 n—lに 0. 5の光 エネルギ配分がされ、そして、画素 n— 2に 0. 3の光エネルギ配分がされ、さらに、画 素 n— 3に 0. 2の光エネルギ配分がされる。他の画素 nから n+4についても同様に、 各画素自身とその左側の画素に、順に 0. 5, 0. 3, 0. 2の割合で光エネルギ配分が なされる。図 15の表(B)においては、任意画像データ I =0としているため、変化要
0
因情報データ G' が作用して生成される出力 I ' (比較用画像データ I ' )の欄は全
0 0
て「0」となる。この図 15の表(B)は、任意画像データ Iのデータ値を「0」としているた
0
め、変化要因情報データ G' を任意画像データ Iに作用させたときの具体的な処理
0
内容が判りにくいものとなっている。任意画像データ Img' に変化要因情報データ G ' を作用させたときの処理内容については、任意画像データ Img' のデータ値が「0 」より大きな値となる図 17 (B)において改めて説明することとする。
[0060] 次に、処理対象画像データ Img' との差分データ δを算出する (ステップ S103)。
この差分データ δが図 15の表(Β)の最下欄に示される。
[0061] ここで、比較のため図 14に示す処理対象画像データ Img' を図 3の処理フロー(A) により処理した場合のステップ S102の処理内容を図 15の表 (A)を参照しながら説 明する。先ず、ステップ S101に示す任意画像データ Iとして、図 3の処理フロー(B)
0
と同様に、ここでは簡単のため、 I =0として処理を開始する。つまり、図 15の表 (A)
0
中の I力 となる。この任意画像データ Iを、ステップ S102で変化要因情報データ G
0 0
を作用させ変化させる。この変化要因情報データ Gは、露光開始位置から露光終了 位置までのぶれの軌跡に対応したデータとなっている。したがって、画素 n— 3のデ ータは、自身の画素 n— 3に 0. 2の光エネルギ配分がされ、画素 n— 2に 0. 3の光ェ ネルギ配分がされ、さらに、画素 n— 1に 0. 5の光エネルギ配分がされる。画素 n—2 のデータ値は、自身の画素 n— 2に 0. 2の光エネルギ配分がされ、画素 n— 1に 0. 3 の光エネルギ配分がされ、そして、画素 nに 0. 5の光エネルギ配分がされる。また、 画素 n— 1のデータ値は、自身の画素 n— 1に 0. 2の光エネルギ配分がされ、画素 n に 0. 3の光エネルギ配分がされ、そして、画素 n+ 1に 0. 5の光エネルギ配分がされ る。他の画素 nから n+4についても同様に、各画素自身とその右側の画素に、順に 0 . 2, 0. 3, 0. 5の割合で光エネルギ配分がなされる。図 15の表 (A)においては、任 意画像データ I =0としているため、変化要因情報データ Gが作用して生成される出
0
力 I ' (比較用画像データ I ' )の欄は全て「0」となる。この図 15の表 (A)は、任意画
0 0
像データ Iのデータ値を「0」としているため、変化要因情報データ Gを任意画像デー
0
タ Iに作用させたときの具体的な処理内容が判りにくいものとなっている。この処理内
0
容については、任意画像データのデータ値が「0」より大きな値となる図 17 (A)にお いて改めて説明することとする。図 15の表 (A)の最下欄には、処理対象画像データ I mg' と比較用画像 Iの差分データ δの算出 (ステップ S103)結果が示されている。
0
[0062] 図 3の処理フロー (Β)に戻って、ステップ S 104にて差分データ δの大きさを判断す る。そして、差分データ δが所定の絶対値以下となった場合に処理を終了し、そうで ない場合は、図 16の表(Β)で示す処理を行うステップ S105' に進む。このステップ S105' の差分データ δの配分の処理は、たとえば、画素 n+ 2についてみると、自 身の画素 n+ 2に、画素 n+ 2のデータ「50」に自身の所の配分比である 0. 5をかけ た「25」を配分し、また、画素 n+ 1のデータ「30」に、この画素 n+ 1にきているはずの 配分比 0. 3をかけた「9」を配分し、さらに、画素 nのデータ値「20」に、この画素 nにき ているはずの配分比 0. 2をかけた「4」を配分する。したがって、この画素 n+ 2に配分 されたデータ値の総量は、「38」となる。そして、この値を初期画像データである入力 I
0 (任意画像データ I )
0 に加算して次回入力 I
0+1 (復元画像データ I )
0+1 を生成する。画 素 n— 3から n+4の全画素について、配分量の総量を算出し、この総量を任意画像 データ Iに加算して復元画像データ I 生成する。その結果が、図 16の表 (B)の最
0 0+ 1
下欄に示される。ここまでで図 3の処理フロー(B)の 1回目の処理フローが終了する。
[0063] 比較のため、図 3の処理フロー(A)のステップ S105における差分のデータ δの配 分の処理内容にについて図 16の表 (Α)を参照しながら説明する。図 3の処理フロー (Α)のステップ S 105の差分データ δの配分の処理は、たとえば、画素 ηについてみ ると、自身の画素 nに、画素 nのデータ「20」に自身の所の配分比である 0. 2をかけた 「4」を配分し、また、画素 n+ 1のデータ「30」に、この画素 n+ 1にきているはずの配 分比 0. 3をかけた「9」を配分し、さらに、画素 n+ 2のデータ値「50」に、この画素 n+ 2にきているはずの配分比 0. 5をかけた「25」を配分する。したがって、この画素 nに 配分されたデータ値の総量は、「38」となる。そして、この値を初期画像データである 入力 I
0 (任意画像データ I )
0 に加算して次回入力 I
0+ 1 (復元画像データ I )
0+ 1 を生成す る。画素 n— 3から n+4の全画素について、配分量の総量を算出し、この総量を任意 画像データ Iに加算して復元画像データ I 生成する。その結果が、図 16の表 (A)
0 0+ 1
の最下欄に示される。ここまでで図 3の処理フロー(A)の 1回目の処理フローが終了 する。
[0064] 次に、任意画像データ Iを図 16の表 (B)の最下欄に示される次回入力 I (復元
0 0 + 1 画像データ I )とする図 3の処理フロー(B)の 2回目の処理フローが行われる。この
0+ 1
2回目の処理フローにお!/、ては、任意画像データ Iのデータ値に「0」以外のデータ
0
値を有する復元画像データ I
0 + 1を用いている。
[0065] 図 15の表(B)を参照しながら説明した図 3の処理フロー(B)のステップ S102' の 具体的な処理内容を、図 17の表 (B)を参照しながら改めて説明すると次のようになる 。画素 n+2についてみることとする。画素 n+ 2のデータは、上述の図 16の表(B)の 処理の結果より初期画像データである復元画像データ I
0 + 1のデータ「38」となって ヽ る。したがって、自身の画素 n+ 2に 0. 5の割合分の「19」の光エネルギ配分がされ、 画素 n+ 1に 0. 3の割合分の「11. 4」の光エネルギ配分がされる。そして、画素 nに 0 . 2の割合分の「7. 6」の光エネルギが配分されることになる。他の画素についても、 同様に処理を行い、図 17の表 (B)に示される出力 I
0+ 1 ' 比較用画像データ I
0+ 1 ' が 生成される。
[0066] 比較のため、図 3の処理フロー(A)についての 2回目の処理フローについても説明 する。この 2回目の処理フローにおいては、任意画像データ Iのデータ値に「0」以外
0
のデータ値を有する復元画像データ I を用いている。図 15の表 (A)を参照しなが
0+ 1
ら説明した図 3の処理フロー(A)のステップ S102の具体的な処理内容について、図 17の表 (A)を参照しながら説明する。画素 nについてみることとする。画素 nのデータ は、上述の図 16の表 (A)の処理の結果より初期画像データである復元画像データ I
0 のデータ「38」となっている。したがって、自身の画素 nに 0. 2の割合分の「7. 6」の
+ 1
光エネルギ配分がされ、画素 n+ 1に 0. 3の割合分の「11. 4」の光エネルギ配分が される。そして、画素 n+ 2に 0. 5の割合分の「19」の光エネルギが配分されることに なる。他の画素についても、同様に処理を行い、図 17の表 (A)に示される出力 I
0+ 1
' (比較用画像データ I ' )
0+ 1 が生成される。
[0067] 以下、図 3の処理フロー (A) (B)につ 、て、それぞれ上述した処理と同様の処理を 、ステップ S104において、差分データ δが所定値以下になるまで繰り返し行うことに なる。つまり、図 17および図 18の表(Β)は、図 3の処理フロー(Β)の 2回目の処理フ ローの処理内容を、図 19および図 20の表(Β)は、図 3の処理フロー(Β)の 3回目の 処理フローの処理内容を、また、図 21および図 22の表(Β)は、図 3の処理フロー(Β )の 4回目の処理フローの処理内容を、そして、図 23および図 24の表(Β)は、図 3の 処理フロー (Β)の 5回目の処理フローの処理内容をそれぞれ示して!/、る。さらに図 3 の処理フロー(Β)が繰り返えされると、復元画像データ I は、図 25の表(Β)に示さ
0+η
れるような、復元画像データ I の画素 n+ 2のデータ値が 100となるような復元画像
0+n
データ I
0+nに近づいていく。
[0068] また、図 17および図 18の表(A)は、図 3の処理フロー(A)の 2回目の処理フローの 処理内容を、図 19および図 20の表(A)は、図 3の処理フロー(A)の 3回目の処理フ ローの処理内容を、また、図 21および図 22の表(A)は、図 3の処理フロー(A)の 4回 目の処理フローの処理内容を、そして、図 23および図 24の表(A)は、図 3の処理フ ロー(A)の 5回目の処理フローの処理内容をそれぞれ示して!/、る。さらに図 3の処理 フロー (A)が繰り返えされると、復元画像データ I は、図 25の表 (A)に示されるよう
0+n
な、復元画像データ I の画素 nのデータ値が 100となるような復元画像データ I
0+n 0+n に近づいていく。
[0069] ここで、図 3の処理フロー(A)により生成した復元画像データ I と図 3の処理フロ
0+n
一 (B)により生成した復元画像データ I のデータの分散の仕方につ!、て比較して
0+n
みると次のことが判る。すなわち、処理対象画像データ Img' は画素 n, n+ 1, n+ 2 のデータ値は、手ぶれの方向に従って、それぞれ、「20」, 「30」, 「50」となっていて 、露光開始位置の画素 nの位置より露光終了位置の画素 n+ 2の位置の方が明るい 画像になっている。
[0070] このような露光開始位置の画素 nの位置より露光終了位置の画素 n+ 2の位置の方 が明るい画像を図 3の処理フロー (A)により復元した復元画像データ I ,は、図 16
0 + 1
、図 18、図 20、図 22、図 24、図 25の各表 (A)における最下欄の次回入力(復元画 像) I ' I ' · · ·に示すように、画素 nの明るさが高い画像となって復元され、最
0 + 1 0 + 2
終的に画素 nに復元されることが判る。すなわち、画素 n+ 2に明るさの中心がある処 理対象画像データ Img' 1S 画素 nに復元され、処理対象画像データ Img' から、 復元画像データ I が復元されるのを表示画面で見る者に不自然さを与える。
O+n
[0071] 一方、処理対象画像データ Img' を図 3の処理フロー(B)により復元した復元画像 データ I は、図 16、図 18、図 20、図 22、図 24、図 25の各表(B)における最下欄
0+n
の次回入力(復元画像) I , 1 , · · ·に示すように、画素 n+ 2の明るさが高い画像
0+ 1 0+ 2
となって復元され、最終的に画素 n+ 2に復元されることが判る。すなわち、復元画像 データ I は、処理対象画像データ Img' の明るさの中心である n+ 2がある画像に
O+n
復元され、処理対象画像データ Img' から、復元画像データ I が復元されるのを
O+n
表示画面で見る者に不自然さを与えな!/、。
[0072] このように、本実施の形態においては、変化要因情報データ Gに代えて、画素の光 エネルギ配分の高い画素力 低い画素に向力つてブレが生じたとする変化要因情報 データ G' を用いて処理対象画像データ Img' を復元する。このようにすると、露光 開始位置よりブレの軌跡の途中や露光終了位置の方が露光時間が長い処理対象画 像 (撮影画像)を復元する場合でも、表示画面上において、復元画像が生成されるの を自然な感覚で見ることができる。
[0073] 変化要因情報データ Gに代えて変化要因情報データ を用いることは言い換え れば、点像関数の原点を、点像の分布の一番集中している位置に変換することと同 義である。
[0074] なお、上述の実施の形態で説明した図 3の処理フロー(B)においては、ステップ 10 4において、差分データ δの大きさを判断する代わりに、ステップ S 102からステップ S 105の処理の回数を設定し、設定した回数の処理を実行したときの復元画像デー タ I を基画像データ Imgに近似したもとすることもできる。つまり、処理回数を、復元
O+n
画像データ I が基画像データ Imgに近似したと推定できる回数以上に設定するこ
O+n
とにより、差分データ δの大きさの判断を行うことなく復元画像データ I を求めること
O+n
ができる。また。差分データ δの大きさの判断と処理回数による判断の両者による判 断を可能にした場合、いずれか一方が満足されたときに処理が停止するようにしても よい。なお、両者の設定を可能としたとき、差分データ δの大きさの判断を優先し、所 定の回数の処理では判断基準値内に入らなかった場合、さらに所定回数の処理を 繰り返すようにしても良い。
[0075] また、以上の説明においては、要因情報保存部 7に保存されている情報を利用しな かったが、ここに保存されている既知の劣化要因、たとえば光学収差やレンズのひず みなどのデータを使用するようにしても良い。その場合、たとえば、先の例(図 3の処 理フロー(Β) )の処理方法では、ブレの情報と光学収差の情報を合わせて 1つの劣 化要因として捉えて処理を行うのが好まし ヽが、ブレの情報での処理を終了した後に 光学収差の情報での補正を行うようにしても良い。また、この要因情報保存部 7を設 置しないようにして、撮影時の動的要因、たとえばブレのみで画像を修正したり復元 したりしても良い。
[0076] また、上述した各処理方法は、プログラム化されても良 、。また、プログラム化された ものが記憶媒体、例えば CD (Compact Disc) , DVD, USB (Universal Serial B us)メモリに入れられ、コンピュータによって読みとり可能とされても良い。この場合、 画像処理装置 1は、その記憶媒体内のプログラムを読み込む読み込み手段を持つこ ととなる。さらには、そのプログラム化されたものが画像処理装置 1の外部のサーバに 入れられ、必要によりダウンロードされ、使用されるようにしても良い。この場合、画像 処理装置 1は、その記憶媒体内のプログラムをダウンロードする通信手段を持つこと となる。
[0077] 以上の説明においては、要因情報保存部 7に保存されている情報を利用しなかつ たが、ここに保存されている既知の劣化要因 (変化要因)、例えば、光学収差やレン ズのひずみなどのデータを使用するようにしても良い。その場合、例えば、ブレの情 報と光学収差の情報を合わせて 1つの変化要因情報データ (劣化要因情報)として 捉えて計算を行うのが好ましいが、ブレの情報による変化要因情報データでの計算 を終了した後に光学収差の情報による変化要因情報データでの計算を行うようにし ても良い。また、この要因情報保存部 7を設置しないようにして、撮影時の動的要因、 例えばブレのみに関する変化要因情報データにより画像を復元しても良い。
なお、変化要因情報データ「G」としては、劣化要因の関数のみではなぐ単に画像 を変化させるものや、劣化とは逆に、画像を良くするものを含むものとする。また、角 速度検出センサは、例えば、 5 sec毎に角速度を検出する。また、角速度検出セン サで検出したブレの生データは、センサ自体の校正が不十分なときは、実際のブレと は対応しない。よって実際のブレに対応させるため、センサが校正されていないとき は、センサで検出した生データに所定の倍率をかけたりする補正が必要とされる。

Claims

請求の範囲
[1] 撮影装置の露光中の移動により、基画像に対して変化させられた処理対象画像か ら、基画像に近似する復元画像を生成する画像処理部を有する画像処理装置にお いて、
上記画像処理部は、上記復元画像を、処理対象画像の露光時間が最も長い位置 に対応させて生成することを特徴とする画像処理装置。
[2] 前記露光時間が最も長い位置は、画像変化の要因となる変化要因情報のデータ のデータ値の最も大き!/ヽ画素とすることを特徴とする請求項 1に記載の画像処理装 置。
[3] 前記復元画像の復元は、前記変化要因情報のデータを利用して、任意の画像デ ータから比較用画像データを生成し、その後、処理対象となる前記処理対象画像の 画像データと上記比較用画像データとを比較し、得られた差分のデータを前記変化 要因情報のデータを利用して上記任意の画像データに配分することで復元画像デ ータを生成し、その後、この復元画像データを上記任意の画像データの代わりに使 用し、同様の処理を繰り返すことで、変化する前の基画像に近似する復元画像を生 成する処理を行うことを特徴とする請求項 2に記載の画像処理装置。
PCT/JP2006/325330 2005-12-28 2006-12-20 画像処理装置 WO2007077733A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2007552900A JP4975644B2 (ja) 2005-12-28 2006-12-20 画像処理装置
US12/159,467 US8243148B2 (en) 2005-12-28 2006-12-20 Image processing device

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2005378587 2005-12-28
JP2005-378587 2005-12-28

Publications (1)

Publication Number Publication Date
WO2007077733A1 true WO2007077733A1 (ja) 2007-07-12

Family

ID=38228089

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2006/325330 WO2007077733A1 (ja) 2005-12-28 2006-12-20 画像処理装置

Country Status (3)

Country Link
US (1) US8243148B2 (ja)
JP (1) JP4975644B2 (ja)
WO (1) WO2007077733A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2009110184A1 (ja) * 2008-03-04 2009-09-11 日東光学株式会社 変化要因情報のデータの生成法および信号処理装置

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4986965B2 (ja) * 2008-09-30 2012-07-25 キヤノン株式会社 画像処理方法、画像処理装置、画像処理プログラム及び撮像装置

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002300459A (ja) * 2001-03-30 2002-10-11 Minolta Co Ltd 反復法による画像復元装置、画像復元方法、プログラム及び記録媒体
JP2003060916A (ja) * 2001-08-16 2003-02-28 Minolta Co Ltd 画像処理装置、画像処理方法、プログラム及び記録媒体

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS4831941A (ja) * 1971-08-27 1973-04-26
JP3348461B2 (ja) 1993-05-06 2002-11-20 株式会社ニコン 手ぶれ補正カメラ
JPH1124122A (ja) 1997-07-03 1999-01-29 Ricoh Co Ltd 手ぶれ画像補正方法および手ぶれ画像補正装置並びにその方法をコンピュータに実行させるためのプログラムを記録したコンピュータ読み取り可能な記録媒体
JP4345940B2 (ja) 1999-04-13 2009-10-14 株式会社リコー 手ぶれ画像補正方法、記録媒体及び撮像装置

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002300459A (ja) * 2001-03-30 2002-10-11 Minolta Co Ltd 反復法による画像復元装置、画像復元方法、プログラム及び記録媒体
JP2003060916A (ja) * 2001-08-16 2003-02-28 Minolta Co Ltd 画像処理装置、画像処理方法、プログラム及び記録媒体

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2009110184A1 (ja) * 2008-03-04 2009-09-11 日東光学株式会社 変化要因情報のデータの生成法および信号処理装置
JP2009211337A (ja) * 2008-03-04 2009-09-17 Nittoh Kogaku Kk 変化要因情報のデータの生成法および信号処理装置

Also Published As

Publication number Publication date
US8243148B2 (en) 2012-08-14
US20100220203A1 (en) 2010-09-02
JPWO2007077733A1 (ja) 2009-06-11
JP4975644B2 (ja) 2012-07-11

Similar Documents

Publication Publication Date Title
JP5007241B2 (ja) 画像処理装置
JP2009100373A (ja) ノイズ低減処理装置、ノイズ低減処理方法、及び電子機器
TWI692965B (zh) 影像處理方法、電子裝置及非暫態電腦可讀取記錄媒體
JP4965179B2 (ja) 画像処理装置
WO2007077733A1 (ja) 画像処理装置
JP4753856B2 (ja) 動き検出装置及び方法並びに撮像装置
WO2007083621A1 (ja) 画像処理装置
JP5497420B2 (ja) 画像処理装置及び撮像装置
JP4606976B2 (ja) 画像処理装置
JP4598623B2 (ja) 画像処理装置
JP4629537B2 (ja) 画像処理装置
JP4763419B2 (ja) 画像処理装置
JPWO2007091422A1 (ja) 信号処理装置
EP2180692A1 (en) Method of and a device for producing a digital picture
JP5663989B2 (ja) 撮像装置、および画像合成プログラム
JP5057665B2 (ja) 画像処理装置
JP4948159B2 (ja) 点像関数の測定方法、点像関数の生成方法、点像関数測定装置および画像処理装置
WO2007032148A1 (ja) 画像処理装置
JP4869971B2 (ja) 画像処理装置および画像処理方法
JP5656598B2 (ja) 撮像装置、その制御方法、プログラム及び画像処理装置
JP2007116332A (ja) 画像処理装置
JPWO2008090858A1 (ja) 画像処理装置および画像処理方法
JP5005553B2 (ja) 信号処理装置
JP2015204489A (ja) 画像処理装置および画像処理方法
JP4982484B2 (ja) 信号処理装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application
WWE Wipo information: entry into national phase

Ref document number: 2007552900

Country of ref document: JP

WWE Wipo information: entry into national phase

Ref document number: 12159467

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 06835000

Country of ref document: EP

Kind code of ref document: A1