WO2011145296A1 - 撮像装置、画像処理装置、画像処理方法、および画像処理プログラム - Google Patents

撮像装置、画像処理装置、画像処理方法、および画像処理プログラム Download PDF

Info

Publication number
WO2011145296A1
WO2011145296A1 PCT/JP2011/002636 JP2011002636W WO2011145296A1 WO 2011145296 A1 WO2011145296 A1 WO 2011145296A1 JP 2011002636 W JP2011002636 W JP 2011002636W WO 2011145296 A1 WO2011145296 A1 WO 2011145296A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
blur
blur kernel
size
camera shake
Prior art date
Application number
PCT/JP2011/002636
Other languages
English (en)
French (fr)
Inventor
育規 石井
物部 祐亮
Original Assignee
パナソニック株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by パナソニック株式会社 filed Critical パナソニック株式会社
Priority to US13/697,624 priority Critical patent/US9071754B2/en
Priority to CN201180025062.2A priority patent/CN102907083B/zh
Priority to JP2012515734A priority patent/JP5596138B2/ja
Priority to EP11783235.2A priority patent/EP2574038B1/en
Publication of WO2011145296A1 publication Critical patent/WO2011145296A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/68Control of cameras or camera modules for stable pick-up of the scene, e.g. compensating for camera body vibrations
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/68Control of cameras or camera modules for stable pick-up of the scene, e.g. compensating for camera body vibrations
    • H04N23/681Motion detection
    • H04N23/6811Motion detection based on the image signal
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/68Control of cameras or camera modules for stable pick-up of the scene, e.g. compensating for camera body vibrations
    • H04N23/682Vibration or motion blur correction
    • H04N23/683Vibration or motion blur correction performed by a processor, e.g. controlling the readout of an image memory

Definitions

  • the present invention relates to an imaging apparatus, an image processing apparatus, an image processing method, and an image processing program that generate a restored image in which blur caused by camera shake during imaging is reduced.
  • noise When an image is acquired (captured) with a digital camera, noise may be added to the image due to the characteristics of the CCD (Charge-Coupled Device) or CMOS readout circuit and the characteristics of the transmission path.
  • image blur due to out of focus (out-of-focus) at the time of imaging or blur due to camera shake or the like occurs.
  • the image is deteriorated due to the noise caused by the artificial operation at the time of photographing being added to the noise due to the characteristic unique to the captured image.
  • the blurring of the image due to the movement of the camera during shooting (exposure) may be referred to as “motion blur”.
  • the noise is also amplified. Therefore, the signal is buried in the noise, and the image occupies most of the noise in many cases.
  • the exposure time by increasing the exposure time, a lot of light generated on the spot is accumulated and an image with less noise can be obtained. In this case, the signal is not buried with noise, but there is a problem that the image is likely to be blurred due to camera shake.
  • optical camera shake correction such as lens shift and sensor shift.
  • the other is a method (restoration method by signal processing) in which the direction / magnitude of blur is obtained by the obtained image or sensor and the image is restored therefrom by signal processing.
  • the restoration method by signal processing is disclosed in, for example, Patent Document 1, Non-Patent Document 1, Non-Patent Document 2, and the like.
  • a restoration method by signal processing will be described.
  • the luminance distribution of the image formed on the imaging surface of the imaging element is represented by I (x, y).
  • the coordinates (x, y) are two-dimensional coordinates indicating the position of the pixel (photosensitive cell) on the imaging surface.
  • x and y are integers that satisfy the relationship of 0 ⁇ x ⁇ M ⁇ 1 and 0 ⁇ y ⁇ N ⁇ 1, respectively.
  • the position of each pixel constituting the image can be specified by coordinates (x, y).
  • the origin of coordinates (0, 0) is placed at the upper left corner of the image, and the x axis extends in the vertical direction and the y axis extends in the horizontal direction.
  • the method of taking the coordinates is arbitrary.
  • the luminance distribution of an image without blur is L (x, y), and PSF that defines blur, that is, a “Point Spread Function” is PSF (x, y).
  • PSF a “Point Spread Function”
  • the noise is n (x, y)
  • the following formula 1 is established.
  • the symbol “*” indicates a two-dimensional convolution operation (convolution).
  • the camera shake point spread function PSF (x, y) depends on the camera shake trajectory during shooting (exposure). Since the locus of camera shake differs for each camera shot, PSF (x, y) also changes for each camera shot.
  • the PSF convolution operation that defines blur due to camera shake is performed by a linear filter.
  • a linear filter for a two-dimensional convolution operation is usually represented by an integration kernel (kernel) consisting of coefficient rows having a size of N ⁇ N pixels.
  • N is an integer of 3 or more.
  • the PSF that defines blur can be expressed by a blur kernel. In order to restore an image with reduced blur (including an image from which blur is removed) from a blurred image, it is necessary to estimate a blur kernel that defines the blur.
  • Non-Patent Document 1 discloses that a multi-scale estimation scheme is used when a blur kernel and a restored image are estimated from a blurred image. ing.
  • a blur kernel having a size of 3 ⁇ 3 pixels is first estimated using a degraded image with low resolution. Then, by gradually increasing the resolution of the deteriorated image used for estimation, the resolution of the blur kernel is also increased.
  • 18A to 18H are diagrams for explaining the method disclosed in Non-Patent Document 1.
  • FIG. The upper part of FIG. 18A shows a blur kernel of 3 ⁇ 3 pixels, and the lower part shows a restored image having a corresponding resolution. The same applies to FIGS. 18B to 18H, but the resolution is gradually improved.
  • the final blur kernel size is set to a fixed value in advance. Therefore, in order to correctly perform restoration processing on a degraded image with a large degree of blurring, it is necessary to set the blur kernel size to a large value. Degraded images that contain large blurs that exceed the size of the set blur kernel cannot be restored correctly.
  • zoom magnification in this specification means the ratio of the focal length at the time of photographing to the minimum (wide-angle side) focal length of the optical system in the imaging apparatus. Therefore, when the focal length at the time of photographing is the minimum focal length, the zoom magnification is assumed to be 1.
  • the “zoom magnification” in this specification does not mean the ratio of the focal length on the telephoto side to the focal length on the wide-angle side as generally used.
  • Patent Document 1 discloses performing blur kernel calculation and restoration processing on an image containing blur exceeding a preset size of a blur kernel while reducing the pixel size. As a result, an image with a large degree of blur can be correctly restored by the blur kernel having the set size. According to this method, the pixel size is not reduced for an image with a small degree of blur, and the pixel size is reduced only for an image with a large degree of blur, so the size of the blur kernel can be kept low. .
  • An object of the present invention is to reduce the amount of calculation required for the restoration process when the degree of blurring of the degraded image is small, and even when the degree of blurring of the degraded image is large, the quality of the restored image is not degraded.
  • the object is to provide an image restoration technique that does not occur.
  • An imaging apparatus is an imaging apparatus that generates a restored image in which blur caused by camera shake during imaging is reduced, and includes an imaging element, an optical system that forms an image on an imaging surface of the imaging element, and the imaging element And an image processing unit for processing the signal acquired by.
  • the image processing unit reduces a blur due to camera shake from the image using the blur kernel determining unit that determines a blur kernel that defines blur due to camera shake of an image acquired by the imaging device.
  • An image restoration unit that generates the restored image, and the blur kernel determination unit determines the size of the blur kernel based on information that affects a degree of blur of the image.
  • the blur kernel determining unit changes the size of the blur kernel according to the zoom magnification of the optical system.
  • the imaging apparatus further includes a conversion table that defines a correspondence relationship between a zoom magnification of the optical system and a size of the blur kernel, and the blur kernel determination unit is configured to perform the conversion based on the conversion table. Determine the size of the blur kernel.
  • the conversion table defines a correspondence relationship between a zoom magnification of the optical system and a magnification from a reference size of the blur kernel.
  • the blur kernel determining unit determines the size of the blur kernel based on information on both the zoom magnification and the exposure time of the optical system.
  • the imaging apparatus further includes a conversion table that defines a correspondence relationship between a combination of the zoom magnification and the exposure time of the optical system and the size of the blur kernel
  • the blur kernel determination unit includes: The size of the blur kernel is determined based on the conversion table.
  • the blur kernel determining unit changes the size of the blur kernel according to an exposure time.
  • the imaging apparatus further includes a conversion table that defines a correspondence relationship between the exposure time and the size of the blur kernel, and the blur kernel determination unit is configured to determine the blur kernel based on the conversion table. Determine the size.
  • the conversion table defines a correspondence relationship between the exposure time and a magnification from a reference size of the blur kernel.
  • the imaging apparatus further includes a camera shake detection unit that detects a size of camera shake at the time of imaging, and the blur kernel determination unit is based on the size of the camera shake detected by the camera shake detection unit. Determine the size of the blur kernel.
  • the camera shake detection unit is a gyro sensor.
  • An image processing apparatus is an image processing apparatus that generates a restored image in which blurring due to camera shake is reduced from an image acquired by an imaging apparatus.
  • the image processing apparatus has an image acquisition unit that acquires an image and information that affects a degree of blur of the image, and a blur kernel determination unit that determines a blur kernel that defines blur due to camera shake of the image.
  • An image restoration unit that generates a restored image in which blur due to camera shake is reduced from the image using the blur kernel.
  • the blur kernel determining unit determines the size of the blur kernel based on information that affects a degree of blur of the image.
  • the imaging information is at least one of information indicating a zoom magnification of an optical system, an exposure time, and a magnitude of camera shake at the time of imaging.
  • the image processing program is a program for generating a restored image in which blur caused by camera shake is reduced from an image acquired by an imaging apparatus.
  • the program obtains, from a computer, information that affects an image and a degree of blurring of the image, and blurring due to camera shake based on the information that affects the degree of blurring of the image. Determining a size of a blur kernel, determining the blur kernel, and generating a restored image in which blur due to camera shake is reduced from the image using the determined blur kernel.
  • the information that affects the degree of blurring of the image is at least one of information indicating the zoom magnification of the optical system, the exposure time, and the magnitude of camera shake at the time of imaging.
  • the image processing method is an image processing method for generating a restored image in which blur due to camera shake is reduced from an image acquired by an imaging apparatus.
  • the image processing method includes obtaining an image and information that affects the degree of blur of the image, and a blur that defines blur due to camera shake based on the information that affects the degree of blur of the image. Determining a size of a kernel; determining the blur kernel; and generating a restored image with reduced blur due to camera shake from the image using the determined blur kernel.
  • the information that affects the degree of blurring of the image is at least one of information indicating the zoom magnification of the optical system, the exposure time, and the magnitude of camera shake at the time of imaging.
  • the present invention it is possible to suppress the amount of calculation required for the restoration process when the degree of blurring of the degraded image is small, and even when the degree of blurring of the degraded image is large, the quality of the restored image is not degraded. Image restoration that does not occur is possible.
  • FIG. 2 It is a figure which shows an example of schematic structure of the imaging device of this invention. It is a figure which shows an example of schematic structure of the image processing apparatus of this invention. It is a flowchart which shows the outline of the flow of the image restoration process by an image processing part or an image processing apparatus.
  • A) is a figure which shows an example of the blur kernel which has a size of 3x3 pixel
  • (b) is a figure which shows the example of an arrangement
  • (A) is a figure which shows an example of the coefficient matrix of a 9 * 9 pixel blur kernel
  • (b) is a black value which fills the element which has a non-zero value among the coefficients shown to (a), and is a zero value
  • (A) is a figure which shows the change of the blur kernel size with respect to zoom magnification exemplarily, (b) becomes the extent of the blurring of an image, so that a zoom magnification becomes large, when a camera rotates at a certain angle. It is a figure which shows this schematically.
  • FIG. 1 is a block diagram illustrating a schematic configuration of an imaging apparatus according to Embodiment 1.
  • FIG. 2 is a diagram schematically illustrating a schematic configuration of an imaging element 10, a photographing lens 20, and an optical system driving unit 40 in the imaging unit 100.
  • FIG. 2 is a schematic top view of an imaging surface 10a of the imaging element 10.
  • FIG. It is a block diagram which shows the structural example of the image process part 220 shown in FIG.
  • FIG. 6 is a flowchart illustrating an example of a restoration process executed in the first embodiment.
  • (A) is a figure which shows an example of the conversion table regarding exposure time
  • (b) is a figure which shows the other example of the conversion table regarding exposure time.
  • (A) is a figure which shows an example of the conversion table regarding the combination of zoom magnification and exposure time
  • (b) is a figure which shows the other example of the conversion table regarding the combination of zoom magnification and exposure time.
  • 6 is a block diagram illustrating a schematic configuration of an imaging apparatus according to Embodiment 2.
  • FIG. 10 It is a figure which shows an example of the conversion table in Embodiment 2. 10 is a flowchart illustrating an example of restoration processing executed in the second embodiment. (A)-(h) is a figure for demonstrating the method currently disclosed by the nonpatent literature 1. FIG.
  • size of an image or blur kernel is used in the same meaning as “number of pixels” or “pixel size”.
  • FIG. 1A is a diagram illustrating an example of a schematic configuration of an imaging apparatus of the present invention.
  • the imaging apparatus includes an imaging unit 100 having the imaging element 10 and the optical system 20, and an image processing unit 220 that processes an image signal acquired by the imaging element 10.
  • the image processing unit 220 includes a blur kernel determining unit 227 that determines a blur kernel that defines blurring of an image acquired by the image sensor 10, and an image restoring unit 224 that generates a restored image.
  • the blur kernel determining unit 227 may change the size of the blur kernel based on information that affects the degree of blurring of the image, such as zoom magnification and exposure time (hereinafter sometimes referred to as “imaging information”). it can.
  • FIG. 1B is a diagram showing an example of a schematic configuration of the image processing apparatus of the present invention.
  • the image processing device 250 includes an image acquisition unit 223 that acquires an image acquired by the imaging device and imaging information such as a zoom magnification and an exposure time at the time of imaging, and a blur kernel determination unit that determines a blur kernel that defines image blurring. 227 and an image restoration unit 224 that generates a restored image.
  • the blur kernel determination unit 227 can change the size of the blur kernel based on imaging information such as zoom magnification and exposure time.
  • FIG. 1C is a flowchart illustrating an example of the flow of image restoration processing by the image processing unit 220 or the image processing device 250.
  • step S101 a deteriorated image and imaging information acquired by the imaging device are acquired.
  • step 102 a blur kernel size that defines the degree of blurring of the degraded image is determined.
  • step S103 a blur kernel is determined.
  • step 104 a restored image is generated using the determined blur kernel.
  • FIG. 2A shows an example of a blur kernel having a size of 3 ⁇ 3 pixels.
  • This blur kernel defines an example of blurring when the camera moves by 3 pixels in the horizontal direction due to camera shake during exposure.
  • FIG. 2B is a diagram illustrating an arrangement example of pixel values of an image without blur. This unblurred image is assumed to have a size of 5 ⁇ 5 pixels.
  • the 25 numerical values shown in FIG. 2B are examples of luminance values of pixels constituting the image.
  • the degraded image is subjected to a two-dimensional convolution operation by the blur kernel of FIG. 2A on the image of FIG. It is obtained by doing.
  • an image (degraded image) I acquired by photographing is expressed by the following Expression 2.
  • Three of the nine coefficients in the blur kernel have values of 0.2, 0.4, and 0.4, while the other six elements have values of zero.
  • the coefficients of 0.2, 0.4, and 0.4 are the positions (2, 1), (2, 2), and (2, 3) in the image, respectively.
  • the sum is obtained by multiplying by the pixel value.
  • the coefficients of 0.2, 0.4, and 0.4 are respectively located at positions (2, 2), (2, 3), and (2, 4) in the image. The sum is obtained by multiplying the pixel values.
  • an image after the convolution operation that is, an image having blur due to camera shake (degraded image) ) Will be determined.
  • FIG. 4A shows an example of a 9 ⁇ 9 pixel blur kernel coefficient matrix. Of this coefficient matrix, the sum of coefficients that are not zero is standardized to be equal to one.
  • FIG. 4B is a diagram in which elements having non-zero values among the coefficients shown in FIG. 4A are painted black and elements having zero values are painted white.
  • the set of black elements in FIG. 4B corresponds to a hand movement locus.
  • the set of black elements in FIG. 4B has different patterns depending on the hand movement trajectory during the exposure.
  • the trajectory is constituted by a straight line or a curve connecting the start point and the end point.
  • a “curve” included in a part thereof is also obtained by connecting two pixels with a straight line.
  • the size of the blur kernel is not set in advance before shooting, but is adaptively determined based on the assumed degree of blurring of the image.
  • the size of the blur kernel is determined based on, for example, the zoom magnification and the exposure time.
  • FIG. 5A is a graph illustrating the relationship between the degree of image blurring and the zoom magnification. As shown in the figure, generally, the greater the zoom magnification, the greater the degree of image blurring.
  • FIG. 5B is a diagram schematically showing that the degree of blurring of an image when a camera shake occurs changes depending on the zoom magnification.
  • the triangle ⁇ ABB ′ when the zoom magnification is low and the triangle ⁇ ACC ′ when the zoom magnification is high are similar to each other.
  • FIG. 6A shows the size of the blur kernel in an image with a relatively small degree of blurring. This corresponds to, for example, a case where the zoom magnification is small or an exposure time is short. At this time, the size of the blur kernel is set to a relatively small size.
  • FIG. 6B shows an example of the size of the blur kernel in an image with a relatively large degree of blur. This corresponds to, for example, when the zoom magnification is large or when the exposure time is long. At this time, the size of the blur kernel is set to a relatively large size.
  • the size of the blur kernel adapted to the assumed degree of blur is set based on information that affects the degree of blur of the image, such as the zoom magnification and the exposure time.
  • information that affects the degree of blur of the image such as the zoom magnification and the exposure time.
  • the information that affects the degree of image blur is not limited to the zoom magnification or the exposure time. For example, as will be described later, it may be information indicating the magnitude of camera shake detected by a camera shake detection mechanism mounted on the imaging apparatus.
  • FIG. 7 is a block diagram showing a schematic configuration of the imaging apparatus of the present embodiment.
  • the imaging device of the present embodiment is a digital electronic camera, and includes an imaging unit 100, a signal processing unit 200 that performs various signal processing, an imaging display unit 300 that displays an image acquired by imaging, and image data.
  • a recording medium 400 for recording and a system control unit 500 for controlling each unit are provided.
  • the imaging unit 100 includes an imaging device (image sensor) 10 including a plurality of photosensitive cells (photodiodes) arranged on the imaging surface, a shutter 15 having a diaphragm function, and an image on the imaging surface of the imaging device 10. And a photographic lens 20 for forming.
  • the imaging unit 100 includes an optical system driving unit 40 that drives the shutter 15 and the photographing lens 20, and an imaging device driving unit 30 that drives the imaging device 10.
  • a typical example of the image sensor 10 is a CCD or CMOS sensor.
  • the photographic lens 20 in the present embodiment has a known configuration, and is actually a lens unit that includes a plurality of lenses.
  • the optical system driving unit 40 is composed of an LSI such as a lens driver, for example, and drives the shutter 15 and the photographing lens 20 and is necessary for optical zooming, automatic exposure (AE: Auto Exposure), and automatic focus (AF: Auto Focus). Run the action.
  • the image sensor drive unit 30 is configured by an LSI such as a CCD driver, for example. The image sensor drive unit 30 drives the image sensor 10 to read an analog signal from the image sensor 10 and convert it into a digital signal.
  • the signal processing unit 200 includes an image processing unit (image processor) 220, a memory 240, an interface (IF) unit 260, and a conversion table 280.
  • the conversion table 280 is a table that defines the relationship between the zoom magnification at the time of shooting and the size of the blur kernel. Based on the information in the conversion table 280, the image processing unit 220 changes the size of the blur kernel.
  • the conversion table 280 may be stored in the memory 240 or another recording medium. Hereinafter, the information recorded in the conversion table is referred to as “conversion table information”.
  • the signal processing unit 200 is connected to a display unit 300 such as a liquid crystal display panel and a recording medium 400 such as a memory card. The recording medium can be removed from the imaging device.
  • the image processing unit 220 performs various signal processes necessary for operations such as color correction, resolution change, automatic exposure, automatic focus, and data compression, and also performs a degraded image restoration process according to the present invention.
  • the image processing unit 220 is preferably realized by a combination of hardware such as a known digital signal processor (DSP) and software that executes image processing including image restoration processing according to the present invention.
  • DSP digital signal processor
  • the memory 240 is configured by a DRAM or the like. The memory 240 records the image data obtained from the imaging unit 100 and temporarily records the image data subjected to various image processing by the image processing unit 220 and the compressed image data. These image data are converted into analog signals and then displayed on the display unit 300 or recorded on the recording medium 400 via the interface unit 260 as digital signals.
  • a system control unit 500 including a central processing unit (CPU) (not shown) and a flash memory.
  • CPU central processing unit
  • the imaging apparatus of the present embodiment may include known components such as a viewfinder, a power source (battery), and a flashlight, but a description thereof is omitted because it is not particularly necessary for understanding the present invention.
  • FIG. 8 schematically shows a schematic configuration of the imaging element 10, the lens 20, and the optical system driving unit 40 in the imaging unit 100.
  • the image sensor 10 has an imaging surface 10a.
  • a plurality of photosensitive cells are arranged on the imaging surface 10a.
  • the lens 20 can move in the direction perpendicular to the imaging surface based on a signal from the optical system driving unit 40, thereby changing the focal length and changing the zoom magnification.
  • the lens 20 is drawn as if it were one lens for simplicity, but in actuality, it may be composed of a combination of a plurality of lenses.
  • FIG. 9 is a top view schematically showing the imaging surface 10a.
  • the photosensitive cells 11 are arranged in a matrix.
  • sequence form of the photosensitive cell 11 is not restricted to the example shown in figure,
  • the planar shape of each photosensitive cell is not limited to a square.
  • a primary color filter or a complementary color filter is typically disposed on each photosensitive cell 11.
  • a configuration in which three image sensors are provided and light is separated into three colors of RGB, for example, and then each color light is received by separate image sensors may be employed.
  • the imaging unit 100 sends the image acquired by imaging and information (zoom information) indicating the zoom magnification at the time of imaging to the signal processing unit 200.
  • FIG. 10 is a block diagram illustrating a schematic configuration of the image processing unit 220.
  • the image processing unit 220 acquires a deteriorated image, zoom information, and conversion table information, and outputs a restored image in which blur due to camera shake is reduced from the deteriorated image.
  • the image processing unit 220 includes an image acquisition unit 223, a kernel size determination unit 221, an initial kernel setting unit 222, an image restoration unit 224, a kernel estimation unit 226, and a parameter update unit 228.
  • the image acquisition unit 223 acquires a deteriorated image and zoom information from the imaging unit 100.
  • the kernel size determination unit 221 determines the size of the blur kernel based on the zoom information acquired from the imaging unit 100 and the conversion table information recorded in the conversion table 280. Specifically, the “blur kernel magnification” corresponding to the zoom magnification at the time of acquiring the deteriorated image is obtained from the conversion table, and a value obtained by multiplying the obtained blur kernel magnification by the reference size is determined as the size of the blur kernel.
  • the “reference size” means the size of the blur kernel when the zoom magnification is 1 ⁇ .
  • the reference size may be set in advance in the imaging apparatus as a fixed value, or may be manually set by the user.
  • the size of the blur kernel is manually set by the user, it is possible to set a more preferable reference size in consideration of the difference in the degree of blur due to the difference in user. Alternatively, a different size may be determined for each shooting based on various shooting parameters at the time of image acquisition. Details of the conversion table will be described later.
  • the initial kernel setting unit 222 sets an initial blur kernel necessary for restoration processing.
  • the initial blur kernel may be set manually or may be set in advance as a fixed coefficient matrix. Alternatively, a different initial blur kernel may be determined for each shooting based on various shooting parameters at the time of image acquisition. From the viewpoint of reducing the time required for image processing, the initial blur kernel is preferably close to the actual blur kernel, but the restoration process is possible even if it is not necessarily close.
  • the size of the initial blur kernel can be set to a different value depending on the restoration algorithm described later. For example, when the algorithm disclosed in Non-Patent Document 1 is used, the size of the initial blur kernel is set to a relatively small value such as 3 ⁇ 3 pixels. When an algorithm that does not change the size of the blur kernel is used in the restoration process, the size of the initial blur kernel is set to a size determined by the kernel size determination unit 221.
  • the image restoration unit 224 generates a restored image from the deteriorated image using the initial blur kernel.
  • the kernel estimation unit 226 performs blur kernel estimation based on the degraded image and the restored image generated by the image restoration unit 224.
  • the parameter update unit 228 updates the initial blur kernel with the blur kernel estimated by the kernel estimation unit 226.
  • the updated initial blur kernel is given to the image restoration unit 224, and the above processing is repeatedly executed.
  • the configuration shown in FIG. 10 shows an example of functional blocks of the image processing unit 220, and the image processing unit 220 can be divided into other functional blocks.
  • the image processing unit 220 is also preferably realized by, for example, incorporating image processing software into known hardware.
  • the kernel size determination unit 221 and the kernel estimation unit 226 in FIG. 10 are collectively referred to as a blur kernel determination unit 227.
  • FIG. 11A is a diagram illustrating an example of a conversion table in the present embodiment.
  • the conversion table defines the correspondence between the zoom magnification range and the blur kernel magnification.
  • the kernel size determination unit 221 determines that the blur kernel magnification should be set to A1 when the zoom magnification is in a range from z1 times to z2 times, for example. know.
  • FIG. 11B is a diagram illustrating another example of the conversion table. As in this example, it may be specified that the size of the blur kernel is directly determined according to the zoom magnification. In this case, it is not necessary to set the reference size of the blur kernel described above.
  • the size of the blur kernel is set to N1 ⁇ N1 (N1: an integer equal to or greater than 3). Since the zoom magnification is adjusted by changing the focal length of the optical system, “focal length” may be defined instead of “zoom magnification” in the conversion table.
  • the conversion table is not limited to the above table, and may be any table as long as it shows the correspondence between the zoom magnification of the optical system and the size of the blur kernel.
  • the conversion table is created in advance as advance information.
  • an example of a conversion table creation method will be described.
  • the imaging apparatus may have a function of learning a tendency of image blurring in shooting performed by the user in the past and rewriting the conversion table according to the user.
  • the user points the imaging device at the subject and selects a desired zoom magnification.
  • the subject is focused by the autofocus operation.
  • “exposure” is started.
  • an image of the subject is formed on the imaging surface of the image sensor 10. If the image pickup apparatus moves unstablely by the user during exposure, the image moves on the image pickup surface of the image pickup device 10, and blur due to camera shake is added to the image.
  • the imaging unit 100 sends the acquired image (degraded image) and information indicating the zoom magnification (zoom information) to the image processing unit 220 in the signal processing unit 200.
  • the image processing unit 220 acquires a deteriorated image in step S1. Similarly, zoom information is acquired in step S2. Note that step S1 and step S2 may be opposite to each other.
  • step S3 the size of the blur kernel is determined by the kernel size determination unit 221.
  • the kernel size determination unit 221 determines the size of the blur kernel corresponding to the zoom magnification with reference to the conversion table information.
  • an initial blur kernel is determined by the initial blur kernel setting unit 222 in step S4.
  • step S5 the image restoration unit 224 executes image restoration processing using the degraded image acquired in step S1 and the initial blur kernel set in step S4.
  • This image restoration process is executed by the image restoration unit 224 using a known restoration algorithm.
  • the image restoration unit 224 once records the obtained restored image in the memory 240.
  • step S6 the kernel estimation unit 226 estimates a blur kernel from the restored image, and the parameter update unit 228 updates the previous blur kernel with the estimated blur kernel.
  • step S7 it is determined whether or not the blur kernel before and after the update and the change in the restored image before and after the update are smaller than a predetermined threshold. If the change is greater than or equal to the threshold value, the process of step S5 is performed again, and thereafter steps S5 to S7 are repeated until the change becomes smaller than the threshold value. If the change is smaller than the threshold value, it is determined that the process has converged, and the restoration result is stored in the memory 240 in step S8.
  • Non-Patent Document 2 an image restoration method based on a signal processing method disclosed in Non-Patent Document 2 will be described.
  • first image restoration is performed based on the initial blur kernel set in step S4.
  • the blur kernel at this stage does not necessarily match the true blur kernel (correct answer), but the restored result is closer to the original image than the degraded image.
  • the blur kernel is estimated from the first restored image that is the result of the first image restoration. Since the first restored image is closer to the original image than the degraded image, the estimated blur kernel approaches the correct answer.
  • the second image restoration is performed using the blur kernel estimated here, that is, the initial blur kernel is updated with the next blur kernel.
  • the image restoration unit 224 restores an image based on a given blur kernel (initial value is an initial value, and then an updated value) and a degraded image.
  • I is a degraded image
  • L is an unblurred image L
  • f is a blur kernel.
  • the variables wk, ⁇ 1, and ⁇ 2 are “weights” set manually.
  • is a set of operators that define what differentiation is applied to the image. Specifically, ⁇ is the sum of zero differentiation, one differentiation (each in x and y directions), two differentiations (twice in the x direction, twice in the y direction, and once in the x and y directions). Has 6 differential parameters.
  • d * is a differential operator.
  • ⁇ d 0 , d x , dy , d xx , d xy , d yy ⁇ .
  • M is a two-dimensional mask, and has a “1” element in a pixel included in a flat area in an image, that is, a local smooth area ( ⁇ ), and a “0” element in other pixels. is doing.
  • p is a p-norm operator.
  • ⁇ (x) is a function that approximately represents the relationship between the luminance gradient x in a naturally observed image and its distribution density (logarithmic display).
  • the first term on the right side of Equation 3 is a term indicating the difference (distance) between the image obtained by convolving the restored image L and the blur kernel f and the degraded image I.
  • Equation 3 The second term on the right side of Equation 3 is a term indicating the property of the luminance gradient in the image (called “heavy tail”).
  • ⁇ (d x L) and ⁇ (d y L) are histograms of the luminance gradient of the restored image, a sharp peak of the appearance probability appears near the gradient, and the appearance probability decreases as the gradient increases. It has a statistical property.
  • the distance from the distribution showing the above statistical properties is calculated for each of the gradient in the x direction and the gradient in the y direction. This statistical property is also used in the method disclosed in Non-Patent Document 1.
  • Equation 3 The third term on the right side of Equation 3 is a term for evaluating the flatness using the mask M, the differentially degraded image, and the differentially restored image.
  • the gradient value of the luminance is close between the degraded image and the restored image. Therefore, an error in gradient values in the x and y directions is used as an evaluation value.
  • the restored image L can be obtained by obtaining L that minimizes the right side of Equation 3 (optimization of L).
  • a specific calculation method for optimization of L is disclosed in Non-Patent Document 2.
  • the blur kernel estimation is a problem of estimating the blur kernel f using the restored image L and the degraded image I obtained by the image restoration unit 224.
  • the blur kernel f can be obtained (optimization of f).
  • the first term on the right side of Equation 4 corresponds to the first term on the right side of Equation 3, and gives an evaluation criterion indicating whether or not the convolution of the restored image L and the blur kernel f is close to the degraded image I.
  • the second term on the right side of Equation 4 is the 1 norm of the blur kernel f.
  • the second term is a term based on a concept called sparse coding. This optimization term is used because most elements in the row example of the blur kernel f are 0 (no motion). In the present embodiment, optimization by “interor point method” is performed as in Non-Patent Document 2, and overall optimization can be realized.
  • image restoration procedure is not limited to the above example.
  • the method disclosed in Non-Patent Document 1 and other blind deconvolution methods can be used.
  • An important point in the image restoration in the present embodiment is to change the size of the blur kernel in accordance with the change in zoom magnification. Accordingly, the size of the blur kernel is set to a large value at the time of zooming at a high magnification at which image blurring is likely to occur, so that the size of the blur kernel can be prevented from exceeding a preset size. On the other hand, the size of the blur kernel is set to a small value at the time of low magnification zoom shooting, so that it is possible to prevent the calculation amount from being increased more than necessary. Further, according to the imaging apparatus of the present embodiment, since the process of reducing the pixel size of the deteriorated image is not included in the process of the restoration process, the image can be restored without reducing the resolution.
  • the size of the blur kernel is determined based on the zoom magnification.
  • the size of the blur kernel may be determined based on the exposure time instead of the zoom magnification.
  • the conversion table 280 defines the relationship between the exposure time and the size of the blur kernel.
  • the image processing unit 220 acquires information indicating the exposure time at the time of image acquisition from the imaging unit 100.
  • the kernel size determination unit 221 can determine the optimum size of the blur kernel from the exposure time obtained from the imaging unit 100 and the information of the conversion table.
  • FIG. 13 shows an example of a conversion table that can be used in a configuration in which the size of the blur kernel is changed according to a change in exposure time.
  • FIG. 13A shows an example of a conversion table that defines the relationship between the exposure time range and the blur kernel magnification
  • FIG. 13B defines the relationship between the exposure time range and the blur kernel size.
  • An example of a conversion table is shown. The optimum size can be determined in accordance with the exposure time using either of the conversion tables shown in FIGS. 13 (a) and 13 (b). For example, when the conversion table shown in FIG. 13A is used, if the exposure time at the time of image acquisition is within the range from T1 to T2, the blur kernel magnification is set to B1.
  • the imaging device may change the size of the blur kernel according to changes in both the zoom magnification and the exposure time.
  • both the conversion table regarding the zoom magnification and the conversion table regarding the exposure time may be recorded in the imaging apparatus.
  • the size of the blur kernel is determined by multiplying the reference size by the magnification obtained from each table based on the zoom magnification and the exposure time. For example, when the conversion table relating to the zoom magnification shown in FIG. 11A and the conversion table relating to the exposure time shown in FIG. 13A are recorded in the imaging apparatus, the zoom magnification ranges from z2 to z3. When the exposure time is within the range from T10 to T11, the size of the blur kernel is set to a size obtained by multiplying the reference size by (A2 ⁇ B10).
  • FIG. 14 is a diagram illustrating an example of a table in which these pieces of information are integrated.
  • FIG. 14A shows an example of a conversion table that defines the correspondence between the combination of zoom magnification and exposure time and the blur kernel magnification.
  • FIG. 14B shows an example of a conversion table that defines the correspondence between the combination of zoom magnification and exposure time and the blur kernel size.
  • the optimum blur kernel size can be determined by taking into account both the zoom magnification and the exposure time. For example, when the conversion table shown in FIG. 14A is used, when the zoom magnification is in the range from z2 to z3 and the exposure time is in the range from T2 to T3, the blur kernel magnification is Set to C22.
  • the conversion table is not necessarily used as long as the size of the blur kernel can be appropriately changed according to changes in the zoom magnification and the exposure time.
  • the same processing can be performed by using a function representing the relationship between the zoom magnification, the exposure time, and the blur kernel size.
  • a known photographing target is photographed in advance while changing the zoom magnification and exposure time, and blur kernel sizes at various zoom magnifications and exposure times are acquired.
  • the acquired data is plotted in a two-dimensional space with the zoom magnification and exposure time on the horizontal axis and the blur kernel size on the vertical axis.
  • the image restoration process of the present embodiment can also be executed by an image processing apparatus independent of the imaging apparatus.
  • the degradation image acquired by the imaging device, zoom information, exposure time information, and the like are input to the image processing device, and the program that defines the processing shown in FIG. 12 is executed by the computer in the image processing device. An image can be obtained.
  • the blur kernel size is determined based on the relationship between the change in zoom magnification and the change in blur kernel size, as in the imaging apparatus of the first embodiment.
  • the imaging device of the present embodiment determines the size of the blur kernel based on information from a camera shake detection unit provided in the imaging device.
  • FIG. 15 is a diagram illustrating a schematic configuration of the imaging apparatus according to the present embodiment.
  • the imaging unit 100 includes a camera shake detection unit 50.
  • the camera shake detection unit 50 is an angular velocity sensor such as a gyro sensor, for example, and generates information (camera shake information) indicating the movement amount of the camera by detecting the angular velocity of the imaging device at the time of shooting.
  • the camera shake detection unit 50 may be any known sensor as long as it can detect the magnitude of the camera shake.
  • the camera shake information is given to the image processing unit 220 in the signal processing unit 200 together with the deteriorated image and the zoom information.
  • the conversion table 280 in the present embodiment includes information on the amount of movement of the camera in addition to information on the zoom magnification.
  • FIG. 16 is a diagram illustrating an example of such a conversion table 280.
  • the amount of movement of the camera can be defined as a numerical value indicating, for example, the maximum number of pixels that the image moves due to camera shake occurring during exposure.
  • the conversion table 280 is not limited to the above example, and a conversion table related to zoom magnification and a conversion table related to the magnitude of camera shake may be recorded individually. In that case, the blur kernel magnification can be determined by multiplying the magnification obtained from each table.
  • FIG. 17 is a flowchart showing the flow of image processing in the image processing unit 220 in the present embodiment.
  • steps S11 and S12 a deteriorated image and zoom information are acquired as in steps S1 and S2 in the first embodiment.
  • the kernel size determination unit 221 acquires the camera shake information generated by the camera shake detection unit 50.
  • step S14 the kernel size determination unit 221 determines the size of the blur kernel based on the zoom magnification, camera shake information, and conversion table information.
  • the processes after step S15 are the same as those in the first embodiment.
  • a blur kernel may be estimated by a known method using information obtained from the camera shake detection unit 50, and the estimated blur kernel may be set as an initial blur kernel.
  • a method for estimating a blur kernel from information of a camera shake detection unit is disclosed in, for example, Japanese Patent Application Laid-Open No. 2006-129236.
  • a restored image may be obtained by a non-blind deconvolution method such as a known Wiener filter method or Richardson Lucy (RL) method instead of steps S16 to S18.
  • the creation method of the conversion table in the present embodiment is almost the same as the creation method in the first embodiment. However, it is necessary to perform measurement in consideration of not only the zoom magnification (focal length) but also information from the camera shake detection unit.
  • the size of the blur kernel can be determined in consideration of the size of the camera shake that has actually occurred. Therefore, the size of the blur kernel can be set to a more suitable value as compared with the imaging apparatus of the first embodiment.
  • the size of the blur kernel is determined based on the zoom magnification and camera shake information, but the present invention is not limited to such a determination method.
  • the size of the blur kernel may be determined using information indicating the exposure time. Further, information indicating the zoom magnification is not used, and information indicating the exposure time may be used instead.
  • a restored image can also be obtained by inputting a deteriorated image, zoom information, camera shake information, or the like acquired by the imaging apparatus to the image processing apparatus and causing the image processing apparatus to execute a program that defines the processing shown in FIG. Can do.
  • the imaging apparatus of the present invention has high industrial applicability when applied to an imaging apparatus in which blurring may occur due to camera shake. Since both the PSF and the restored image can be estimated under a situation where the PSF is unknown, it is possible to obtain an image with less blur without providing a special camera shake prevention mechanism or together with such a camera shake prevention mechanism. become.
  • the image processing apparatus of the present invention does not need to be built in the imaging apparatus, and can be configured to receive and process image data acquired by the imaging apparatus.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Studio Devices (AREA)
  • Image Processing (AREA)
  • Adjustment Of Camera Lenses (AREA)

Abstract

 撮像装置は、撮像時の手振れによるぼやけを減少させた復元画像を生成する。撮像装置は、撮像素子10と、光学系20と、撮像素子10によって取得された画像信号を処理する画像処理部220とを備えている。画像処理部220は、取得された画像の手振れによるぼやけを規定するブラーカーネルを決定するブラーカーネル決定部と、復元画像を生成する画像復元部とを有している。ブラーカーネル決定部は、光学系20のズーム倍率などの画像のぼやけの程度に影響を及ぼす情報に基づいてブラーカーネルのサイズを変化させる。

Description

撮像装置、画像処理装置、画像処理方法、および画像処理プログラム
 本発明は、撮像時の手振れによるぼやけを減少させた復元画像を生成する撮像装置、画像処理装置、画像処理方法、および画像処理プログラムに関する。
 デジタルカメラで画像の取得(撮像)を行うと、CCD(Charge-Coupled Device)、あるいはCMOSの読み出し回路の特性や伝送路の特性により画像にノイズが加わることがある。また、撮像時にフォーカスが合っていないこと(焦点外れ:out-of-focus)による画像のぼやけ(ブラー:blur)や、手振れ(camera shake)などによる画像のぼやけが発生する。このように撮像画像には、撮像画像固有の特性によるノイズに、撮影時の人為的な操作を起因とするぼやけが加わることにより、画像が劣化することになる。これらの「ぼやけ」のうち、撮影(露光)中におけるカメラの運動による画像のぼやけを「ブレ(motion blur)」と称する場合がある。
 近年、特に高感度撮影の需要が増大していることにより、ぼやけによって劣化した画像(以下、「劣化画像」という)を元の画像(以下、「理想画像」という)にできるだけ近い画像に復元することが必要となる。高感度撮影に要求される、明るくノイズやぼやけのない画像を実現するために、大別して感度をあげるという考え方と、露光時間を長くするという考え方がある。
 しかしながら、感度を高めるとノイズも増幅してしまう、そのため、信号がノイズに埋もれてしまい、ノイズが大半を占める画像になることが多い。一方で露光時間を長くすることで、その場で生じる光を多く蓄積し、ノイズの少ない画像が得られる。この場合、信号がノイズで埋もれることはないが、手振れによって画像にブレが生じ易いという問題がある。
 そこで、従来、2通りの考え方で露光時間を長くする場合の対処法がとられていた。一つは、レンズシフトやセンサシフトといった光学式手振れ補正である。他方は、得られた画像やセンサによってブレの方向/大きさを求め、そこから信号処理によって画像を復元するという方法(信号処理による復元方法)である。
 光学式手振れ補正では、補正の範囲に限界がある。露光時間を長くすると、手振れが発生しやすくなるため、レンズやセンサの稼動範囲を大きくする必要がある。しかし、稼動範囲が大きくなるとレンズやセンサの移動の際に時間遅れが生じるという問題がある。また、大型化にはサイズの物理的な限界がある。
 信号処理による復元方法は、例えば特許文献1、非特許文献1、非特許文献2などに開示されている。以下、信号処理による復元方法を説明する。
 ここでは、撮像素子の撮像面に形成される画像の輝度分布をI(x,y)で表すことにする。座標(x,y)は、撮像面の画素(光感知セル)の位置を示す2次元座標である。画像が例えば行列状に配列されたM×N個の画素からなる場合において、xおよびyが、それぞれ、0≦x≦M-1、0≦y≦N-1の関係を満足する整数であるとすると、画像を構成する個々の画素の位置を座標(x,y)によって特定することができる。ここでは、座標の原点(0、0)を画像の左上隅に置き、x軸は垂直方向、y軸は水平方向に延びるものとする。ただし、座標のとり方は、任意である。
 ぼやけ(blur)のない画像(理想画像または元画像)の輝度分布をL(x,y)とし、ぼやけを規定するPSF、すなわち「点広がり関数(Point Spread Function)」をPSF(x,y)、ノイズをn(x,y)とすると、以下の式1が成立する。
Figure JPOXMLDOC01-appb-M000001
ここで、記号「*」は、2次元の畳み込み演算(コンボリューション)を示している。
 手振れの点広がり関数PSF(x,y)は、撮影(露光)中における手振れの軌跡に依存する。手振れの軌跡はカメラ撮影毎に異なるため、PSF(x,y)もカメラ撮影毎に変化する。
 撮影中の手振れの軌跡がジャイロセンサなどによって検出され、PSF(x,y)が既知の場合は、このPSF(x,y)を用いて逆畳み込み演算(デコンボリューション)を行うことにより、劣化画像I(x、y)から画像L(x、y)を復元することが可能になる。一方、PSF(x,y)が既知ではない場合は、劣化画像I(x、y)からPSF(x,y)を推定し、画像L(x,y)を復元する必要がある。前者を「ノンブラインド・デコンボリューション」、後者を「ブラインド・デコンボリューション」と称する。ブラインド・デコンボリューションでは、PSF(x,y)および画像L(x,y)の両方を劣化画像I(x,y)から推定する必要があるため、ノンブラインド・デコンボリューションよりもぼやけの低減が難しくなる。
 手振れによるぼやけを規定するPSFの畳み込み演算は、線形フィルタによって行われる。2次元畳み込み演算の線形フィルタは、通常、N×N画素のサイズを有する係数行例からなる積分核(カーネル)によって表される。ここで、Nは3以上の整数である。ぼやけを規定するPSFは、ブラーカーネル(blur kernel)によって表現され得る。ぼやけのある画像から、ぼやけを低減した画像(ぼやけを除去した画像を含む)を復元するには、ぼやけを規定するブラーカーネルを推定する必要がある。
 信号処理による画像復元として、例えば非特許文献1は、ぼやけのある1枚の画像からブラーカーネルおよび復元画像を推定する場合において、多重スケール推定法(multi-scale inference scheme)を用いることを開示している。この多重スケール推定法では、最初に解像度の低い劣化画像を用いて3×3画素のサイズを有するブラーカーネルを推定している。そして、推定に用いる劣化画像の解像度を徐々に高めることにより、ブラーカーネルの解像度も高めていく。図18(a)~(h)は、非特許文献1に開示されている方法を説明するための図である。図18(a)の上段は3×3画素のブラーカーネルを示し、下段は対応する解像度の復元画像を示している。図18(b)~(h)も同様であるが、徐々に解像度が向上している。
 解像度の低い劣化画像では、画素数が少ないため、手振れによるぼやけの画素サイズも小さくなる。その結果、解像度の低い劣化画像では、ブラーカーネルのサイズも小さくなり、ブラーカーネルを推定するために必要な計算量も少なくなる。また、最初から画素数の大きな高解像度の劣化画像を用いてブラーカーネルの推定を行うと、真のブラーカーネルとは異なるブラーカーネル(局所解:local minima)に収束が生じてしまう可能性がある。多重スケール推定法によれば、ブラーカーネルの推定精度を高めることができる。
特開2009-111596号公報
Rob Fergus et al., "Removing camera shake from a single image", Barun Singh Aaron Hertzmann, SIGGRAPH 2006 "High-quality Motion Deblurring from a Single Image", Qi Shan, Jiaya Jia, and Aseem Agarwala, SIGGRAPH 2008
 非特許文献1、2に開示された方法によれば、最終的なブラーカーネルのサイズは予め固定値に設定される。そのため、ブレの程度が大きい劣化画像に対して正しく復元処理を行うためには、ブラーカーネルのサイズを大きい値に設定しておく必要がある。設定されたブラーカーネルのサイズを超える大きなブレを含む劣化画像は正しく復元できない。
 特に、遠くの被写体を撮影するために光学系のズーム倍率(または焦点距離)を大きくする場合、ズーム倍率が小さい場合よりも、画像のブレの程度は大きくなる。したがって、遠くのシーンを撮影するためにズーム倍率を大きくする場合、予めブラーカーネルのサイズを大きい値に設定しておく必要がある。なお、本明細書における「ズーム倍率」とは、撮像装置における光学系の最小(広角側)焦点距離に対する撮影時の焦点距離の割合を意味するものとする。従って、撮影時の焦点距離が最小焦点距離であるとき、ズーム倍率が1倍であるものとする。本明細書における「ズーム倍率」は、一般に用いられているような、広角側の焦点距離に対する望遠側の焦点距離の割合を意味するものではない。
 また、暗い環境で撮影するときは、十分な受光量を確保するために、露光時間を長くする必要がある。露光時間を長くすると、カメラの動きに起因する画像のブレの程度は一般に大きくなる。従って、暗いシーンを撮影するために露光時間を長くする場合も、予めブラーカーネルのサイズを大きい値に設定しておく必要がある。
 しかしながら、ブラーカーネルのサイズを大きくすると、ブレの程度が小さい画像に対しても、大きいサイズを有するブラーカーネルによる復元処理が行われるため、復元処理に要する計算量が多くなるという課題がある。例えば、ブラーカーネルのサイズが100×100画素に設定されているとき、そのうちの10×10画素でブレを規定できる画像を復元する場合、100×100-10×10=9900画素に対する計算が不必要に発生する。
 特許文献1は、予め設定されたブラーカーネルのサイズを超えるブレを含む画像に対して、画素サイズを縮小した上でブラーカーネルの算出および復元処理を行うことを開示している。これにより、ブレの程度が大きい画像に対しても、設定されたサイズのブラーカーネルによって正しく復元することができる。この方法によれば、ブレの程度が小さい画像では画素サイズの縮小を行わず、ブレの程度が大きい画像に対してだけ画素サイズの縮小が行われるため、ブラーカーネルのサイズを低く抑えることができる。
 しかしながら、特許文献1に開示された技術では、ブレの程度が大きい画像に対して、画素サイズを縮小してから復元処理を行うため、復元された画像も縮小されたものとなる。復元された画像は、元画像と同じ画素サイズになるように拡大されるため、最終的に得られる画像は、元画像と比較して画質が劣化したものとなる。
 本発明は、上記従来技術の課題を解決するためになされたものである。本発明の目的は、劣化画像のブレの程度が小さい場合に復元処理に要する計算量を抑えることができ、かつ、劣化画像のブレの程度が大きい場合であっても復元画像の画質の劣化が生じない画像復元技術を提供することにある。
 本発明による撮像装置は、撮像時の手振れによるぼやけを減少させた復元画像を生成する撮像装置であって、撮像素子と、前記撮像素子の撮像面に像を形成する光学系と、前記撮像素子によって取得された信号を処理する画像処理部とを備える。前記画像処理部は、前記撮像素子によって取得された画像の手振れによるぼやけを規定するブラーカーネルを決定するブラーカーネル決定部と、決定された前記ブラーカーネルを用いて前記画像から手振れによるぼやけを減少させた復元画像を生成する画像復元部とを有し、前記ブラーカーネル決定部は、前記画像のぼやけの程度に影響を及ぼす情報に基づいて、前記ブラーカーネルのサイズを決定する。
 ある実施形態において、前記ブラ―カーネル決定部は、前記光学系のズーム倍率に応じて、前記ブラ―カーネルのサイズを変化させる。
 ある実施形態において、撮像装置は、前記光学系のズーム倍率と前記ブラーカーネルのサイズとの間の対応関係を規定する変換テーブルをさらに備え、前記ブラーカーネル決定部は、前記変換テーブルに基づいて前記ブラーカーネルのサイズを決定する。
 ある実施形態において、前記変換テーブルは、前記光学系のズーム倍率と、前記ブラーカーネルの基準サイズからの倍率との間の対応関係を規定する。
 ある実施形態において、前記ブラーカーネル決定部は、前記光学系のズーム倍率および露光時間の両方の情報に基づいて前記ブラーカーネルのサイズを決定する。
 ある実施形態において、撮像装置は、前記光学系のズーム倍率および前記露光時間の組み合わせと、前記ブラ―カーネルのサイズとの対応関係を規定する変換テーブルをさらに備え、前記ブラ―カーネル決定部は、前記変換テーブルに基づいて前記ブラ―カーネルのサイズを決定する。
 ある実施形態において、前記ブラ―カーネル決定部は、露光時間に応じて前記ブラ―カーネルのサイズを変化させる。
 ある実施形態において、撮像装置は、前記露光時間と前記ブラーカーネルのサイズとの間の対応関係を規定する変換テーブルをさらに備え、前記ブラーカーネル決定部は、前記変換テーブルに基づいて前記ブラーカーネルのサイズを決定する。
 ある実施形態において、前記変換テーブルは、前記露光時間と、前記ブラーカーネルの基準サイズからの倍率との間の対応関係を規定する。
 ある実施形態において、撮像装置は、撮像時の手振れの大きさを検知する手振れ検知部をさらに備え、前記ブラーカーネル決定部は、前記手ぶれ検知部によって検知された前記手ぶれの大きさに基づいて前記ブラーカーネルのサイズを決定する。
 ある実施形態において、前記手振れ検知部は、ジャイロセンサである。
 本発明による画像処理装置は、撮像装置によって取得された画像から手振れによるぼやけを減少させた復元画像を生成する画像処理装置である。前記画像処理装置は、画像および前記画像のぼやけの程度に影響を及ぼす情報を取得する画像取得部と、前記画像の手振れによるぼやけを規定するブラーカーネルを決定するブラーカーネル決定部と、決定された前記ブラーカーネルを用いて前記画像から手振れによるぼやけを減少させた復元画像を生成する画像復元部とを備えている。前記ブラーカーネル決定部は、前記前記画像のぼやけの程度に影響を及ぼす情報に基づいて、前記ブラーカーネルのサイズを決定する。
 ある実施形態において、前記撮像情報は、撮像時の光学系のズーム倍率、露光時間、手振れの大きさを示す情報の少なくとも1つである。
 本発明による画像処理プログラムは、撮像装置によって取得された画像から手振れによるぼやけを減少させた復元画像を生成するためのプログラムである。前記プログラムは、コンピュータに対し、画像および前記画像のぼやけの程度に影響を及ぼす情報を取得するステップと、前記画像のぼやけの程度に影響を及ぼす情報に基づいて、前記画像の手振れによるぼやけを規定するブラーカーネルのサイズを決定するステップと、前記ブラーカーネルを決定するステップと、決定された前記ブラーカーネルを用いて前記画像から手振れによるぼやけを減少させた復元画像を生成するステップとを実行させる。
 ある実施形態において、前記画像のぼやけの程度に影響を及ぼす情報は、撮像時の光学系のズーム倍率、露光時間、および手振れの大きさを示す情報の少なくとも1つである。
 本発明による画像処理方法は、撮像装置によって取得された画像から手振れによるぼやけを減少させた復元画像を生成する画像処理方法ある。前記画像処理方法は、画像および前記画像のぼやけの程度に影響を及ぼす情報を取得するステップと、前記画像のぼやけの程度に影響を及ぼす情報に基づいて、前記画像の手振れによるぼやけを規定するブラーカーネルのサイズを決定するステップと、前記ブラーカーネルを決定するステップと、決定された前記ブラーカーネルを用いて前記画像から手振れによるぼやけを減少させた復元画像を生成するステップと、を含む。
 ある実施形態において、前記画像のぼやけの程度に影響を及ぼす情報は、撮像時の光学系のズーム倍率、露光時間、および手振れの大きさを示す情報の少なくとも1つである。
 本発明によれば、劣化画像のブレの程度が小さい場合に復元処理に要する計算量を抑えることができ、かつ、劣化画像のブレの程度が大きい場合であっても復元画像の画質の劣化が生じない画像復元が可能になる。
本発明の撮像装置の概略構成の一例を示す図である。 本発明の画像処理装置の概略構成の一例を示す図である。 画像処理部あるいは画像処理装置による画像復元処理の流れの概略を示すフロー図である。 (a)は、3×3画素のサイズを有するブラーカーネルの一例を示す図であり、(b)は、ぼやけの無い画像の画素値の配列例を示す図である。 図2(b)の画像における位置(x,y)=(2,2)の画素に対する畳み込み演算結果を示す図である。 図2(b)の画像における位置(x,y)=(2,3)の画素に対する畳み込み演算結果を示している。 (a)は、9×9画素のブラーカーネルの係数行列の一例を示す図であり、(b)は、(a)に示す係数のうち、ゼロでない値を有する要素を黒く塗りつぶし、ゼロの値を有する要素を白く塗りつぶした図である。 (a)は、ズーム倍率に対するブラーカーネルサイズの変化を例示的に示す図であり、(b)は、カメラがある角度で回転したときに、ズーム倍率が大きいほど画像のブレの程度が大きくなることを模式的に示す図である。 (a)は、想定される手振れが小さい場合に、ブラーカーネルのサイズが小さい値に設定されることを示す図であり、(b)は、想定される手振れが大きい場合に、ブラーカーネルのサイズが大きい値に設定されることを示す図である。 実施形態1における撮像装置の概略構成を示すブロック図である。 撮像部100における撮像素子10、撮影レンズ20、光学系駆動部40の概略構成を模式的に示す図である。 撮像素子10の撮像面10aの模式的な上面図である。 図6に示す画像処理部220の構成例を示すブロック図である。 (a)は実施形態1における変換テーブルの一例を示す図であり、(b)は実施形態1における変換テーブルの他の例を示す図である。 実施形態1において実行される復元処理の例を示すフローチャートである。 (a)は露光時間に関する変換テーブルの一例を示す図であり、(b)は露光時間に関する変換テーブルの他の例を示す図である。 (a)はズーム倍率および露光時間の組み合わせに関する変換テーブルの一例を示す図であり、(b)はズーム倍率および露光時間の組み合わせに関する変換テーブルの他の例を示す図である。 実施形態2における撮像装置の概略構成を示すブロック図である。 実施形態2における変換テーブルの一例を示す図である。 実施形態2において実行される復元処理の例を示すフローチャートである。 (a)~(h)は、非特許文献1に開示されている方法を説明するための図である。
 以下、本発明の好ましい実施形態を説明する前に、本発明の基本的原理を説明する。なお、本明細書では、画像またはブラーカーネルの「サイズ」を、それらの「画素数」または「画素サイズ」と同じ意味で使用する。
 図1Aは、本発明の撮像装置の概略構成の一例を示す図である。撮像装置は、撮像素子10および光学系20を有する撮像部100と、撮像素子10によって取得された画像信号を処理する画像処理部220とを備えている。画像処理部220は、撮像素子10によって取得された画像のブレを規定するブラーカーネルを決定するブラーカーネル決定部227と、復元画像を生成する画像復元部224とを有している。ブラーカーネル決定部227は、ズーム倍率や露光時間などの画像のブレの程度に影響を及ぼす情報(以下、「撮像情報」と呼ぶことがある。)に基づいてブラーカーネルのサイズを変化させることができる。
 図1Bは、本発明の画像処理装置の概略構成の一例を示す図である。画像処理装置250は、撮像装置によって取得された画像および撮像時のズーム倍率や露光時間などの撮像情報を取得する画像取得部223と、画像のブレを規定するブラーカーネルを決定するブラーカーネル決定部227と、復元画像を生成する画像復元部224とを備えている。ブラーカーネル決定部227は、ズーム倍率や露光時間などの撮像情報に基づいてブラーカーネルのサイズを変化させることができる。
 図1Cは、画像処理部220あるいは画像処理装置250による画像復元処理の流れの一例を示すフローチャートである。まず、ステップS101において、撮像装置によって取得された劣化画像および撮像情報が取得される。次に、ステップ102において、劣化画像のブレの程度を規定するブラ―カーネルサイズが決定される。続いて、ステップS103において、ブラ―カーネルが決定される。そして、ステップ104において、決定したブラ―カーネルを用いて復元画像が生成される。以上の処理により、劣化画像からブレが除去された復元画像が得られる。本発明によれば、画像のブレの程度に影響を及ぼす情報に基づいてブラ―カーネルのサイズを適切に決定することにより、演算量を抑えながら高精度の復元が可能となる。各処理の詳細については後述する。
 次に、図2を参照しながら、本発明のブラーカーネルを具体的に説明する。
 図2(a)は、3×3画素のサイズを有するブラーカーネルの一例を示している。このブラーカーネルは、露光中の手振れにより、カメラが水平方向に3画素だけ移動した場合のぼやけの一例を規定している。図2(b)は、ぼやけのない画像の画素値の配列例を示す図である。このぼやけのない画像は、5×5画素のサイズを有しているものとする。図2(b)に示される25個の数値は、画像を構成する画素の輝度値の例である。
 図2(a)に示すブラーカーネルで表される手振れによるぼやけが発生した場合、劣化画像は、図2(a)のブラーカーネルによる2次元畳み込み演算を図2(b)の画像に対して実行することによって得られる。
 ブラーカーネルをK、元画像をL、ノイズをNとすると、撮影によって取得された画像(劣化画像)Iは、以下の式2によって表される。
Figure JPOXMLDOC01-appb-M000002
 図3Aは、図2(b)の画像における位置(x,y)=(2,2)の画素に対する畳み込み演算結果を示している。この演算は、図3Aの左端の画像における破線の矩形に囲まれた3×3画素=9個の画素値に対して行われる。ブラーカーネルにおける9つの係数のうちの3つの要素は、0.2、0.4、0.4の値を有しているが、他の6つの要素はゼロの値を有している。このブラーカーネルを用いた畳み込み演算を行うと、0.2、0.4、0.4の係数は、それぞれ、画像内の位置(2,1)、(2,2)、(2,3)の画素値にかけられ、総和が求められる。その結果、18×0.2+19×0.4+21×0.4=19.6の値が得られ、この値が演算後の画素値として位置(2,2)に格納される。
 一方、図3Bは、図2(b)の画像における位置(x,y)=(2,3)の画素に対する畳み込み演算結果を示している。この演算は、図3Bの左端の画像における破線の矩形に囲まれた3×3画素=9個の画素値に対して行われる。ブラーカーネルを用いた畳み込み演算を行うと、0.2、0.4、0.4の係数は、それぞれ、画像内に位置(2,2)、(2,3)、(2,4)の画素値にかけられ、総和が求められる。その結果、19×0.2+21×0.4+18×0.4=19.4の値が得られ、この値が演算後の画素値として位置(2,3)に格納される。
 与えられた解像度(画素数)の画像の画素値に対してブラーカーネルの中心位置をシフトさせながら上記の計算を行うことにより、畳み込み演算後の画像、すなわち、手振れによるぼやけを有する画像(劣化画像)が定まることになる。
 劣化画像から、ぼやけの無い画像を復元するためには、劣化の原因となるブラーカーネルの係数行列を推定する必要がある。ブラーカーネルが推定されれば、逆畳み込み演算によって劣化前の画像を得ること(復元)ができる。
 図4(a)は、9×9画素のブラーカーネルの係数行列の一例を示している。この係数行列のうち、ゼロでない係数の総和は1に等しくなるように規格化されている。図4(b)は、図4(a)に示す係数のうち、ゼロでない値を有する要素を黒く塗りつぶし、ゼロの値を有する要素を白く塗りつぶした図である。図4(b)の黒い要素の集合は、手振れの軌跡に対応している。露光中における手振れの軌跡に応じて、図4(b)の黒い要素の集合は、異なるパターンを有する。
 手振れは、露光中におけるカメラの動きによって生じるため、その軌跡は、始点と終点とを結ぶ直線または曲線によって構成される。図4(b)に示すように、有限のサイズを有するブラーカーネルによって表現される手振れ軌跡では、その一部に含まれる「曲線」も、2つの画素を直線で結ぶことによって得られる。
 本発明において、ブラーカーネルのサイズは、撮影前に予め設定されるのではなく、想定される画像のブレの程度の大きさに基づいて適応的に決定される。ブラーカーネルのサイズは、例えば、ズームの倍率や露光時間などに基づいて決定される。
 図5(a)は、画像のブレの程度とズーム倍率との関係を例示的に示すグラフである。図示されるように、一般にズーム倍率が大きくなるほど、画像のブレの程度は大きくなる。図5(b)は、手振れ発生時の画像のブレの程度がズーム倍率によって変化することを模式的に示す図である。ここで、露光中に撮像装置が手振れによってある角度で回転したときの、撮像装置の重心Aと、回転前後における光軸上の対応点同士を結ぶ線分とによって形成される三角形を考える。ズーム倍率が小さい場合の三角形△ABB´と、ズーム倍率が大きい場合の三角形△ACC´とは、互いに相似である。図示されるように、ズーム倍率が大きいほど形成される三角形は大きくなるため、画像のブレの程度も大きくなることがわかる。単純に考えれば、相似な関係にある2つの三角形において、1辺がm倍(m:正の数)されたとき、残りの辺もm倍されるため、画像のブレの程度は、ズーム倍率に比例して大きくなる。ただし、実際には、露光時間中の撮像装置は一定の角速度で動くわけではなく、不規則な動きをするため、露光時間が長くなるほどズーム倍率とブレの程度との間の関係は単純な比例関係からずれることとなる。
 同様のことは撮影時の露光時間を長くするときにも発生する。一般に、ズーム倍率が一定であっても、露光時間が長いほど手振れによるぼやけが多く蓄積されるため、画像のブレの程度は大きくなる。
 以下、本発明において設定され得るブラーカーネルのサイズの例を示す。図6(a)は、ブレの程度が比較的小さい画像におけるブラーカーネルのサイズを示している。これは、例えばズーム倍率が小さい場合や露光時間が短い場合などに対応する。このとき、ブラーカーネルのサイズは、比較的小さいサイズに設定される。図6(b)は、ブレの程度が比較的大きい画像におけるブラーカーネルのサイズの例を示している。これは、例えばズーム倍率が大きい場合や露光時間が長い場合などに対応する。このとき、ブラーカーネルのサイズは、比較的大きいサイズに設定される。
 このように、本発明によれば、ズーム倍率や露光時間などの、画像のブレの程度に影響を及ぼす情報に基づき、想定されるブレの程度に適合したブラーカーネルのサイズが設定される。その結果、ブレの程度が小さい画像に対する復元処理において、必要以上に計算量が多くなることを防ぐことができる。また、特許文献1に開示された技術とは異なり、元画像の画素サイズの縮小および復元画像の画素サイズの拡大処理を伴わないため、最終的な復元画像の解像度が低下することはない。その結果、高画質の復元画像を得ることが可能となる。なお、本発明において、画像のブレの程度に影響を及ぼす情報とは、ズーム倍率や露光時間に限定されない。例えば、後述するように、撮像装置に搭載された手振れ検知機構によって検知した手振れの大きさを示す情報であってもよい。
 以下、図7から図17を参照しながら本発明の好ましい実施形態を説明する。以下の説明において、同一の構成要素には同じ参照符号を付している。
 (実施形態1)
 まず、図7から図14を参照しながら本発明の第1の実施形態を説明する。
 図7は、本実施形態の撮像装置の概略構成を示すブロック図である。本実施形態の撮像装置は、デジタル式の電子カメラであり、撮像部100と、各種信号処理を行う信号処理部200と、撮像によって取得した画像を表示する撮像表示部300と、画像のデータを記録する記録媒体400と、各部を制御するシステム制御部500とを備える。
 撮像部100は、撮像面上に配列された複数の光感知セル(フォトダイオード)を備える撮像素子(イメージセンサ)10と、絞り機能を有するシャッタ15と、撮像素子10の撮像面上に像を形成するための撮影レンズ20とを有している。また、撮像部100は、シャッタ15および撮影レンズ20を駆動する光学系駆動部40と、撮像素子10を駆動する撮像素子駆動部30とを有している。撮像素子10の典型例は、CCDまたはCMOSセンサである。本実施形態における撮影レンズ20は、公知の構成を有しており、現実には複数のレンズから構成されたレンズユニットである。光学系駆動部40は、例えばレンズドライバなどのLSIから構成され、シャッタ15および撮影レンズ20を駆動し、光学ズーミング、自動露光(AE:Auto Exposure)、自動焦点(AF:Auto Focus)に必要な動作を実行させる。撮像素子駆動部30は、例えばCCDドライバなどのLSIから構成されている。撮像素子駆動部30は、撮像素子10を駆動することにより、撮像素子10からアナログ信号を読み出してデジタル信号に変換する。
 信号処理部200は、画像処理部(イメージプロセッサ)220、メモリ240、インターフェース(IF)部260、および変換テーブル280を備えている。変換テーブル280は、撮影時のズーム倍率と、ブラーカーネルのサイズとの関係を規定するテーブルである。変換テーブル280の情報に基づいて、画像処理部220は、ブラーカーネルのサイズを変化させる。なお、変換テーブル280は、メモリ240や他の記録媒体に格納されていてもよい。以下、変換テーブルに記録された情報を「変換テーブル情報」と呼ぶ。また、信号処理部200は、液晶表示パネルなどの表示部300、および、メモリカードなどの記録媒体400に接続されている。記録媒体は撮像装置から取り外し可能である。
 画像処理部220は、色調補正、解像度変更、自動露光、自動焦点、データ圧縮などの動作に必要な各種信号処理を行うほか、本発明による劣化画像の復元処理を実行する。画像処理部220は、公知のデジタル信号処理プロセッサ(DSP)などのハードウェアと、本発明に係る画像復元の処理を含む画像処理を実行するソフトウェアとの組合せによって好適に実現される。メモリ240は、DRAMなどによって構成される。このメモリ240は、撮像部100から得られた画像データを記録するとともに、画像処理部220によって各種の画像処理を受けた画像データや、圧縮された画像データを一時的に記録する。これらの画像データは、アナログ信号に変換された後、表示部300によって表示されたり、デジタル信号のままインターフェース部260を介して記録媒体400に記録される。
 上記の構成要素は、不図示の中央演算処理ユニット(CPU)およびフラッシュメモリを含むシステム制御部500によって制御される。なお、本実施形態の撮像装置は、ビューファインダ、電源(電池)、フラッシュライトなどの公知の構成要素を備え得るが、それらの説明は本発明の理解に特に必要でないため省略する。
 次に図8および図9を参照しながら、撮像部100の構成を説明する。
 図8は、撮像部100における撮像素子10、レンズ20、および光学系駆動部40の概略構成を模式的に示している。図示されるように、撮像素子10は、撮像面10aを有している。撮像面10a上には、複数の光感知セルが配列されている。レンズ20は、光学系駆動部40からの信号に基づいて撮像面に垂直な方向に移動することにより、焦点距離を変化させ、ズーム倍率を変化させることができる。なお、図8では、簡単のためレンズ20は1つのレンズであるかのように描かれているが、実際には、複数のレンズの組み合わせで構成され得る。
 図9は、撮像面10aを模式的に表す上面図である。この例では、光感知セル11が行列状に配列されている。なお、光感知セル11の配列形態は、図示されている例に限られず、個々の光感知セルの平面形状も正方形に限定されない。カラーの画像信号を生成するため、典型的には、原色カラーフィルタまたは補色カラーフィルタが個々の光感知セル11の上に配置されている。ただし、3つの撮像素子を備え、例えばRGBの3色に光を分離した後、それぞれの色の光を別々の撮像素子で受ける構成を採用してもよい。
 以上の構成により、撮像部100は、撮像により取得した画像および撮像時のズーム倍率を示す情報(ズーム情報)を信号処理部200に送出する。
 次に、図10を参照しながら画像処理部220の構成を説明する。
 図10は、画像処理部220の概略構成を示すブロック図である。画像処理部220は、劣化画像、ズーム情報、変換テーブル情報を取得し、劣化画像から手振れによるぼやけが低減された復元画像を出力する。画像処理部220は、画像取得部223、カーネルサイズ決定部221、初期カーネル設定部222、画像復元部224、カーネル推定部226、パラメータ更新部228を含んでいる。
 画像取得部223は、撮像部100から劣化画像およびズーム情報を取得する。
 カーネルサイズ決定部221は、撮像部100から取得したズーム情報および変換テーブル280に記録された変換テーブル情報に基づいてブラーカーネルのサイズを決定する。具体的には、劣化画像取得時のズーム倍率に対応する「ブラーカーネル倍率」を変換テーブルから求め、求めたブラーカーネル倍率を基準サイズに掛けた値をブラーカーネルのサイズとして決定する。なお、「基準サイズ」とは、ズーム倍率が1倍であるときのブラーカーネルのサイズを意味するものとする。基準サイズは、予め固定値として撮像装置に設定されていてもよいし、ユーザによって手動で設定されてもよい。ブラーカーネルのサイズがユーザによって手動で設定される場合、ユーザの違いによるブレの程度の違いを考慮した、より好ましい基準サイズを設定することができる。あるいは、画像取得時の各種の撮影パラメータに基づいて撮影ごとに異なるサイズが決定されてもよい。変換テーブルの詳細については後述する。
 初期カーネル設定部222は、復元処理に必要な初期ブラーカーネルを設定する。初期ブラーカーネルは、手動で設定してもよいし、予め固定の係数行列として設定されていてもよい。あるいは、画像取得時の各種の撮影パラメータに基づいて撮影ごとに異なる初期ブラーカーネルが決定されてもよい。画像処理に要する時間を短縮するという観点から、初期ブラーカーネルは、実際のブラーカーネルに近いことが好ましいが、必ずしも近くなくても復元処理は可能である。なお、初期ブラーカーネルのサイズは、後述する復元アルゴリズムによって異なる値に設定され得る。例えば、非特許文献1に開示されたアルゴリズムを用いる場合、初期ブラーカーネルのサイズは、3×3画素などの比較的小さい値に設定される。また、復元過程でブラーカーネルのサイズの変化を伴わないアルゴリズムを用いる場合、初期ブラーカーネルのサイズは、上記のカーネルサイズ決定部221によって決定されるサイズに設定される。
 画像復元部224は、初期ブラーカーネルを用いて劣化画像から復元画像を生成する。カーネル推定部226は、劣化画像、および画像復元部224によって生成された復元画像に基づいてブラーカーネルの推定を行う。パラメータ更新部228は、カーネル推定部226によって推定されたブラーカーネルで初期ブラーカーネルを更新する。更新された初期ブラーカーネルは、画像復元部224に与えられ、上記の処理が繰り返し実行される。
 図10に示される構成は、画像処理部220の機能ブロックの一例を示すものであり、画像処理部220は他の機能ブロックに分割され得る。画像処理部220は、例えば公知のハードウェアに画像処理のソフトウェアを組み込むことによっても好適に実現される。なお、図10におけるカーネルサイズ決定部221およびカーネル推定部226を合わせて、ブラーカーネル決定部227と呼ぶ。
 次に、本実施形態における変換テーブルを説明する。図11(a)は、本実施形態における変換テーブルの一例を示す図である。この例では、変換テーブルには、ズーム倍率の範囲とブラーカーネル倍率との間の対応関係が規定されている。このような変換テーブルを参照することにより、カーネルサイズ決定部221は、例えばズーム倍率がz1倍からz2倍までの範囲内にあるとき、ブラーカーネルの倍率をA1倍に設定すべきであることを知る。図11(b)は、変換テーブルの他の例を示す図である。この例のように、ズーム倍率に応じてブラーカーネルのサイズが直接決定されるように規定されていてもよい。この場合、上述のブラーカーネルの基準サイズを設定する必要はない。例えばズーム倍率がz1倍からz2倍までの範囲内にあるとき、ブラーカーネルのサイズは、N1×N1(N1:3以上の整数)に設定される。なお、ズーム倍率は、光学系の焦点距離を変化させることによって調整されるため、変換テーブルにおいて「ズーム倍率」の変わりに、「焦点距離」が規定されていてもよい。変換テーブルは、上記のものに限らず、光学系のズーム倍率とブラーカーネルのサイズとの間の対応関係を示すものであれば、どのようなテーブルであってもよい。
 変換テーブルは、予め事前情報として作成される。以下、変換テーブルの作成方法の一例を説明する。
 まず、あるズーム倍率に設定された状態で、複数人が複数回にわたって目印となる物体(画像内で移動距離が計測できるようなチャートや点光源など)を撮影し、移動量をそれぞれ計測する。次に、他のズーム倍率についても同様の計測を行い、ズーム倍率ごとに移動量の平均を求める。このようにして得られた平均移動量とズーム倍率との関係を示す情報が変換テーブルに記録される。
 なお、変換テーブルに格納された情報は、必要に応じて書き換えられてもよい。例えば、撮像装置は、ユーザが過去に行った撮影における画像のブレの傾向を学習し、当該ユーザに合わせて変換テーブルを書き換える機能を備えていてもよい。
 次に、本実施形態の撮像装置を使用して撮影を行う際の概略手順の例を説明する。
 まず、ユーザは被写体に撮像装置を向け、所望のズーム倍率を選択する。次に、ユーザがシャッタボタンを半押しすると、自動焦点動作により被写体に焦点が合う。ユーザがシャッタボタンを深く押し込むと、「露光」が開始される。このとき、撮像素子10の撮像面に被写体の像が形成される。露光中にユーザによって撮像装置が不安定に動くと、撮像素子10の撮像面上を像が移動するため、手振れによるぼやけが画像に付加されることになる。露光が終了すると、撮像部100は、取得した画像(劣化画像)およびズーム倍率を示す情報(ズーム情報)を信号処理部200における画像処理部220に送出する。
 次に、図12を参照しながら画像処理部220における動作の手順を説明する。
 画像処理部220は、ステップS1において、劣化画像を取得する。同様に、ステップS2において、ズーム情報を取得する。なお、ステップS1とステップS2とは互いに逆であってもよい。次に、ステップS3において、カーネルサイズ決定部221によってブラーカーネルのサイズが決定される。このとき、カーネルサイズ決定部221は、変換テーブル情報を参照してズーム倍率に対応するブラーカーネルのサイズを決定する。続いて、ステップS4において初期ブラーカーネル設定部222によって初期ブラーカーネルが決定される。
 次に、ステップS5において、画像復元部224は、ステップS1で取得された劣化画像とステップS4で設定された初期ブラーカーネルとを用いて画像復元処理を実行する。この画像復元処理は、画像復元部224によって、公知の復元アルゴリズムによって実行される。画像復元部224は、得られた復元画像をいったんメモリ240に記録する。ステップS6では、カーネル推定部226が復元画像からブラーカーネルの推定を行い、パラメータ更新部228が、推定されたブラーカーネルによって以前のブラーカーネルを更新する。
 続いてステップS7において、更新前後のブラーカーネル、および、更新前後の復元画像の変化が所定の閾値よりも小さいか否かを判定する。変化が閾値以上である場合は、再びステップS5の処理が行われ、以後、変化が閾値よりも小さくなるまでステップS5~S7が繰り返される。変化が閾値よりも小さくなった場合は処理が収束したと判断し、ステップS8において、復元結果をメモリ240に格納する。
 以下、ステップS5、S6で行われ得るブラーカーネルの推定および画像復元の詳細を説明する。
 ここでは、非特許文献2に開示されている信号処理法による画像復元方法を説明する。非特許文献2の信号処理法による場合、まずステップS4で設定された初期ブラーカーネルに基づいて、第1の画像復元が行われる。この段階のブラーカーネルは、必ずしも真のブラーカーネル(正解)に一致しているものではないが、復元される結果は、劣化画像に比べると元画像に近づいたものとなる。
 続いて、第1の画像復元の結果である第1の復元画像からブラーカーネルの推定を行う。第1の復元画像が劣化画像よりも元画像に近づいているため、推定されるブラーカーネルは正解に近づく。ここで推定したブラーカーネルを用いて、すなわち、初期ブラーカーネルを次のブラーカーネルで更新して、第2の画像復元を行う。この処理をブラーカーネルの変化、および、画像復元結果の変化がなくなるまで繰り返し行うことにより、ブラーカーネル推定と画像復元を同時に行う。
 以下、画像復元処理の更に具体的な方法を述べる。
 画像復元部224は、与えられたブラーカーネル(最初は初期値、次からは更新値)と劣化画像により、画像の復元を行う。この処理に使用する評価式ELを式3に示す。
Figure JPOXMLDOC01-appb-M000003

ここで、Iは劣化画像、Lはぼやけのない画像L、fはブラーカーネルである。変数wk、λ1、λ2は手動で設定される「重み」である。Θは、どのような微分を画像に施すかを規定する演算子のセットである。Θは、具体的には、0回微分、1回微分(x、y方向それぞれ)、2回微分(x方向に2回、y方向に2回、xとy方向に1回ずつ)の合計6個の微分パラメータを持つ。d*は、微分演算子である。d*を用いてΘを表現すると、Θ={d0、dx、dy、dxx、dxy、dyy}と表される。d*により、輝度情報とエッジ情報の両方を用いた処理を行うことが可能になり、輝度だけでは得られない情報も得ることができる。Mは、2次元のマスクであり、画像中の平坦な領域、すなわち局所的なスムーズな領域(Ω)に含まれる画素では「1」の要素、それ以外の画素では「0」の要素を有している。||・||pは、pノルム演算子である。Φ(x)は、自然に観察される画像中の輝度勾配xとその分布密度(対数表示)との関係を近似的に示す関数である。
 式3の右辺における第1項は、復元画像Lとブラーカーネルfとの畳み込みを行って得られる画像と劣化画像Iとの差(距離)を示す項である。画像に対して6個の微分パラメータによる演算を施すことにより、輝度以外の情報に基づいて画像の近似度を評価できる。
 式3の右辺における第2項は、画像内の輝度勾配の性質(「heavy tail」と呼ばれる)を示す項である。Φ(dxL)、Φ(dyL)は、復元画像の輝度勾配をヒストグラム化したときに、勾配が0付近に出現確率の急激なピークが現れ、勾配が大きくなるにつれ出現確率が小さくなるという、統計的性質を持つ。第2項では、x方向の勾配とy方向の勾配のそれぞれに対して、上記の統計的性質を示す分布からの距離を算出している。この統計的性質は、非特許文献1に開示されている方法でも利用されている。
 式3の右辺における第3項は、マスクMと微分劣化画像と微分復元画像を用いて、平坦度の評価を行う項である。平坦な領域では、劣化画像と復元画像との間で輝度の勾配値が近い値を持つ。そのため、x、y方向の勾配値の誤差を評価値として用いる。
 式3の右辺を最小化するLを求めることにより、復元画像Lを求めることができる(Lの最適化)。Lの最適化の具体的な計算方法は、非特許文献2に開示されている。
 次に、復元画像Lが得られた後に行う、カーネル推定部226による処理を詳しく説明する。
 ブラーカーネル推定は、画像復元部224で得られた復元画像Lと劣化画像Iとを用いてブラーカーネルfを推定する問題である。fは、以下の式4の右辺を最小化するようにfを決定することにより、ブラーカーネルfを求めることができる(fの最適化)。
Figure JPOXMLDOC01-appb-M000004
 式4の右辺における第1項は、式3の右辺における第1項に相当し、復元画像Lとブラーカーネルfとの畳み込みが劣化画像Iに近いか否かを示す評価基準を与える。式4の右辺における第2項は、ブラーカーネルfの1ノルムである。第2項は、スパースコーディングと呼ばれる考え方に基づく項である。ブラーカーネルfの行例における大部分の要素が0(動きがない)であることから、この最適化項が用いられる。本実施形態では、非特許文献2と同様に「interior point method」による最適化を行い、全体最適化を実現できる。
 なお、画像復元の手順は、上記の例に限定されない。例えば、非特許文献1に開示された方法や、その他のブラインド・デコンボリューション法を用いることができる。
 本実施形態における画像復元で重要な点は、ズーム倍率の変化に応じてブラーカーネルのサイズを変化させることにある。これにより、画像のブレが生じ易い高倍率のズーム撮影時にはブラーカーネルのサイズは大きい値に設定されるため、ブラーカーネルのサイズが予め設定されたサイズを超えることを防止できる。逆に、低倍率のズーム撮影時にはブラーカーネルのサイズは小さい値に設定されるため、計算量が必要以上に多くなることを防止できる。また、本実施形態の撮像装置によれば、復元処理の過程で劣化画像の画素サイズを縮小する処理は含まれないため、解像度を低下させることなく画像を復元できる。
 なお、上記の説明において、ブラーカーネルのサイズはズーム倍率に基づいて決定されるが、ズーム倍率の代わりに露光時間に基づいてブラーカーネルのサイズを決定してもよい。その場合、変換テーブル280には、露光時間とブラーカーネルのサイズとの間の関係が規定される。また、画像処理部220は、画像取得時の露光時間を示す情報を撮像部100から取得する。このような構成により、カーネルサイズ決定部221は、撮像部100から得た露光時間と、変換テーブルの情報とから、ブラーカーネルの最適なサイズを決定することができる。
 図13は、露光時間の変化に応じてブラーカーネルのサイズを変化させる構成において用いられ得る変換テーブルの例を示している。図13(a)は、露光時間の範囲とブラーカーネル倍率との関係を規定する変換テーブルの例を示し、図13(b)は、露光時間の範囲とブラーカーネルのサイズとの関係を規定する変換テーブルの例を示している。図13(a)、図13(b)のいずれの変換テーブルを用いても露光時間に応じて最適なサイズを決定することができる。例えば、図13(a)に示す変換テーブルが用いられるとき、画像取得時の露光時間がT1からT2までの範囲内であった場合、ブラーカーネル倍率はB1に設定される。
 さらに、撮像装置は、ズーム倍率および露光時間の両方の変化に応じてブラーカーネルのサイズを変化させてもよい。この場合、ズーム倍率に関する変換テーブルおよび露光時間に関する変換テーブルの両方が撮像装置に記録されていればよい。このとき、ズーム倍率および露光時間に基づいて各テーブルから得られる倍率を基準サイズに掛け合わせることによってブラーカーネルのサイズが決定される。例えば、図11(a)に示すズーム倍率に関する変換テーブルと図13(a)に示す露光時間に関する変換テーブルとが撮像装置に記録されている場合において、ズーム倍率がz2からz3までの間の範囲内にあり、露光時間がT10からT11までの範囲内にあるとき、ブラーカーネルのサイズは、基準サイズに(A2×B10)を掛けたサイズに設定される。
 また、ズーム倍率に関する変換テーブルと露光時間に関する変換テーブルとは、1つのテーブルに統合されていてもよい。図14は、これらの情報が統合されたテーブルの例を示す図である。図14(a)は、ズーム倍率および露光時間の組み合わせと、ブラ―カーネル倍率との対応関係を規定する変換テーブルの例を示している。図14(b)は、ズーム倍率および露光時間の組み合わせと、ブラ―カーネルサイズとの対応関係を規定する変換テーブルの例を示している。図14(a)、図14(b)のいずれの変換テーブルを用いても、ズーム倍率および露光時間の両方の情報を加味して最適なブラ―カーネルのサイズを決定することができる。例えば、図14(a)に示す変換テーブルを用いた場合、ズーム倍率がz2からz3までの間の範囲内にあり、露光時間がT2からT3までの範囲内にあるとき、ブラ―カーネル倍率はC22に設定される。
 なお、本実施形態において、ズーム倍率や露光時間などの変化に応じてブラーカーネルのサイズを適切に変化させることができれば、必ずしも変換テーブルを用いる必要はない。例えば、ズーム倍率や露光時間とブラーカーネルサイズとの関係を表す関数を用いれば同様の処理が可能となる。この場合、まず、予め既知の撮影対象をズーム倍率や露光時間を変えながら撮影し、様々なズーム倍率や露光時間におけるブラーカーネルサイズを取得する。次に、ズーム倍率や露光時間を横軸とし、ブラーカーネルサイズを縦軸とする二次元空間に取得したデータをプロットする。続いて、プロットされたデータに対して線形回帰や曲線当てはめを行い、ズーム倍率や露光時間とブラーカーネルサイズとの間の関係を多次元関数として表す。このようにして多次元関数が求まれば、撮影時に得られるズーム倍率や露光時間を、求めた多次元関数に入力することにより、ブラーカーネルサイズが得られる。このような方法によれば変換テーブルは不要である。
 なお、本実施形態の画像復元処理は、撮像装置とは独立した画像処理装置によっても実行され得る。例えば、撮像装置によって取得された劣化画像、ズーム情報、露光時間情報などを画像処理装置に入力し、図12に示す処理を規定するプログラムをその画像処理装置内のコンピュータに実行させることによっても復元画像を得ることができる。
 (実施形態2)
 次に、図15から図17を参照しながら本発明の第2の実施形態を説明する。本実施形態の撮像装置においても、実施形態1の撮像装置と同様、ズーム倍率の変化とブラーカーネルサイズの変化との関係に基づいてブラーカーネルサイズが決定される。ただし、本実施形態の撮像装置は、実施形態1の撮像装置とは異なり、撮像装置に設けられた手振れ検知部の情報に基づいてブラーカーネルのサイズが決定される。以下、本実施形態の撮像装置と実施形態1の撮像装置との間の相違点を説明し、重複部分についての説明は省略する。
 図15は、本実施形態の撮像装置の概略構成を示す図である。図示されるように、撮像部100は手振れ検知部50を備えている。手振れ検知部50は、例えばジャイロセンサなどの角速度センサであり、撮影時の撮像装置の角速度を検知することによってカメラの移動量を示す情報(手振れ情報)を生成する。ここで、手振れ検知部50は、手振れの大きさを検知できるものであれば公知のどのようなセンサであってもよい。手振れ情報は、劣化画像およびズーム情報とともに信号処理部200における画像処理部220に与えられる。
 本実施形態における変換テーブル280は、ズーム倍率に関する情報に加え、カメラの移動量に関する情報が含まれている。図16は、そのような変換テーブル280の例を示す図である。例えば、ズーム倍率がz1からz2の範囲内にあり、かつ手振れ情報から得られるカメラの移動量がM2からM3の範囲内にあるとき、ブラーカーネル倍率はA12に設定される。ここで、カメラの移動量とは、例えば、露光中に発生した手振れに起因して像が最大何画素移動するかを示す数値として定義することができる。なお、変換テーブル280は、上記の例に限らず、ズーム倍率に関する変換テーブルと、手振れの大きさに関する変換テーブルとが個別に記録されていてもよい。その場合、各テーブルから得られる倍率をかけ合わせることによってブラーカーネル倍率を決定することができる。
 図17は、本実施形態における画像処理部220における画像処理の流れを示すフロー図である。ステップS11、S12では、実施形態1におけるステップS1、S2と同様、劣化画像およびズーム情報が取得される。S13において、カーネルサイズ決定部221は、手振れ検知部50によって生成された手振れ情報を取得する。続いて、ステップS14において、カーネルサイズ決定部221は、ブラーカーネルのサイズを、ズーム倍率、手振れ情報、および変換テーブル情報に基づいて決定する。ステップS15以降の処理は、実施形態1と同様の処理が実行される。
 なお、ステップS15においては、手振れ検知部50から得られる情報を用いて公知の方法によってブラーカーネルを推定し、推定されたブラーカーネルを初期ブラーカーネルとして設定してもよい。手振れ検知部の情報からブラーカーネルを推定する方法は、例えば、特開2006-129236に開示されている。このようにして初期ブラーカーネルを設定した場合、ステップS16~S18の代わりに公知のウィーナーフィルタ法やリチャードソン・ルーシー(RL)法などのノンブラインド・デコンボリューション法によって復元画像を得てもよい。
 本実施形態における変換テーブルの作成方法は、実施形態1における作成方法とほぼ同様である。ただし、ズーム倍率(焦点距離)だけではなく、手振れ検知部からの情報も考慮して計測を行う必要がある。
 本実施形態の撮像装置によれば、手振れ検知部50による情報を利用するため、実際に発生した手振れの大きさを考慮してブラーカーネルのサイズを決定することができる。そのため、実施形態1の撮像装置と比較して、ブラーカーネルのサイズを、さらに適した値に設定することができる。
 本実施形態においては、ズーム倍率および手振れ情報に基づいてブラーカーネルのサイズを決定するが、本発明は、このような決定の仕方に限られない。例えば、実施形態1と同様、さらに露光時間を示す情報を用いてブラーカーネルのサイズを決定してもよい。また、ズーム倍率を示す情報は利用せず、代わりに露光時間を示す情報を用いてもよい。さらに、ズーム倍率や露光時間に関する情報を用いず、手振れ検知部50から得られる情報のみに基づいてブラーカーネルのサイズを決定することも可能である。このような構成は、特にズームレンズを有さず焦点距離が固定された単焦点レンズを有する撮像装置において有用である。
 なお、本実施形態の復元処理も、撮像装置とは独立した画像処理装置によって実行され得る。例えば、撮像装置によって取得された劣化画像、ズーム情報、手振れ情報などを画像処理装置に入力し、図17に示す処理を規定するプログラムをその画像処理装置に実行させることによっても復元画像を得ることができる。
 本発明の撮像装置は、手振れによってぼやけが生じ得る撮像装置に適用して高い産業上の利用可能性がある。PSFが未知の状況下でPSFおよび復元画像の両方を推定することができるため、特別の手振れ防止機構を設けることなく、あるいは、そのような手振れ防止機構とともに、ぼやけの少ない画像を得ることが可能になる。
 本発明の画像処理装置は、撮像装置に内蔵される必要は無く、撮像装置によって取得された画像のデータを受け取り、処理するように構成され得る。
10  撮像素子
11  光感知セル
15  絞り機能を有するシャッタ
20  撮影レンズ
30  撮像素子駆動部
40  光学系駆動部
50  手振れ検知部
100 撮像部
200 信号処理部
220 画像処理部
221 カーネルサイズ決定部
222 初期カーネル推定部
223 画像取得部
224 画像復元部
226 カーネル推定部
227 ブラーカーネル決定部
228 パラメータ更新部
240 メモリ
250 画像処理装置
260 インターフェース(IF)
280 変換テーブル
300 表示部
400 記録媒体
500 システム制御部

Claims (17)

  1.  撮像時の手振れによるぼやけを減少させた復元画像を生成する撮像装置であって、
     撮像素子と、
     前記撮像素子の撮像面に像を形成する光学系と、
     前記撮像素子によって取得された信号を処理する画像処理部と、
    を備え、
     前記画像処理部は、
     前記撮像素子によって取得された画像の手振れによるぼやけを規定するブラーカーネルを決定するブラーカーネル決定部と、
     決定された前記ブラーカーネルを用いて前記画像から手振れによるぼやけを減少させた復元画像を生成する画像復元部と、
    を有し、
     前記ブラーカーネル決定部は、前記画像のぼやけの程度に影響を及ぼす情報に基づいて、前記ブラーカーネルのサイズを決定する、
    撮像装置。
  2.  前記ブラ―カーネル決定部は、前記光学系のズーム倍率に応じて、前記ブラ―カーネルのサイズを変化させる、請求項1に記載の撮像装置。
  3.  前記光学系のズーム倍率と前記ブラーカーネルのサイズとの間の対応関係を規定する変換テーブルをさらに備え、
     前記ブラーカーネル決定部は、前記変換テーブルに基づいて前記ブラーカーネルのサイズを決定する、請求項2に記載の撮像装置。
  4.  前記変換テーブルは、前記光学系のズーム倍率と、前記ブラーカーネルの基準サイズからの倍率との間の対応関係を規定する、請求項3に記載の撮像装置。
  5.  前記ブラーカーネル決定部は、前記光学系のズーム倍率および露光時間の両方の情報に基づいて前記ブラーカーネルのサイズを決定する、請求項2に記載の撮像装置。
  6.  前記光学系のズーム倍率および前記露光時間の組み合わせと、前記ブラ―カーネルのサイズとの対応関係を規定する変換テーブルをさらに備え、
     前記ブラ―カーネル決定部は、前記変換テーブルに基づいて前記ブラ―カーネルのサイズを決定する、
    請求項5に記載の撮像装置。
  7.  前記ブラ―カーネル決定部は、露光時間に応じて前記ブラ―カーネルのサイズを変化させる、請求項1に記載の撮像装置。
  8.  前記露光時間と前記ブラーカーネルのサイズとの間の対応関係を規定する変換テーブルをさらに備え、
     前記ブラーカーネル決定部は、前記変換テーブルに基づいて前記ブラーカーネルのサイズを決定する、請求項7に記載の撮像装置。
  9.  前記変換テーブルは、前記露光時間と、前記ブラーカーネルの基準サイズからの倍率との間の対応関係を規定する、請求項8に記載の撮像装置。
  10.  撮像時の手振れの大きさを検知する手振れ検知部をさらに備え、
     前記ブラーカーネル決定部は、前記手ぶれ検知部によって検知された前記手ぶれの大きさに基づいて前記ブラーカーネルのサイズを決定する、請求項1から9のいずれかに記載の撮像装置。
  11.  前記手振れ検知部は、ジャイロセンサである、請求項10に記載の撮像装置。
  12.  撮像装置によって取得された画像から手振れによるぼやけを減少させた復元画像を生成する画像処理装置であって、
     画像および前記画像のぼやけの程度に影響を及ぼす情報を取得する画像取得部と、
     前記画像の手振れによるぼやけを規定するブラーカーネルを決定するブラーカーネル決定部と、
     決定された前記ブラーカーネルを用いて前記画像から手振れによるぼやけを減少させた復元画像を生成する画像復元部と、
    を備え、
     前記ブラーカーネル決定部は、前記前記画像のぼやけの程度に影響を及ぼす情報に基づいて、前記ブラーカーネルのサイズを決定する、画像処理装置。
  13.  前記撮像情報は、撮像時の光学系のズーム倍率、露光時間、手振れの大きさを示す情報の少なくとも1つである、請求項12に記載の画像処理装置。
  14.  撮像装置によって取得された画像から手振れによるぼやけを減少させた復元画像を生成するためのプログラムであって、
     コンピュータに対し、
     画像および前記画像のぼやけの程度に影響を及ぼす情報を取得するステップと、
     前記画像のぼやけの程度に影響を及ぼす情報に基づいて、前記画像の手振れによるぼやけを規定するブラーカーネルのサイズを決定するステップと、
     前記ブラーカーネルを決定するステップと、
     決定された前記ブラーカーネルを用いて前記画像から手振れによるぼやけを減少させた復元画像を生成するステップと、
    を実行させるプログラム。
  15.  前記画像のぼやけの程度に影響を及ぼす情報は、撮像時の光学系のズーム倍率、露光時間、および手振れの大きさを示す情報の少なくとも1つである、請求項14に記載の画像処理装置。
  16.  撮像装置によって取得された画像から手振れによるぼやけを減少させた復元画像を生成する画像処理方法であって、
     画像および前記画像のぼやけの程度に影響を及ぼす情報を取得するステップと、
     前記画像のぼやけの程度に影響を及ぼす情報に基づいて、前記画像の手振れによるぼやけを規定するブラーカーネルのサイズを決定するステップと、
     前記ブラーカーネルを決定するステップと、
     決定された前記ブラーカーネルを用いて前記画像から手振れによるぼやけを減少させた復元画像を生成するステップと、
    を含む画像処理方法。
  17.  前記画像のぼやけの程度に影響を及ぼす情報は、撮像時の光学系のズーム倍率、露光時間、および手振れの大きさを示す情報の少なくとも1つである、請求項16に記載の画像処理装置。
PCT/JP2011/002636 2010-05-21 2011-05-11 撮像装置、画像処理装置、画像処理方法、および画像処理プログラム WO2011145296A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
US13/697,624 US9071754B2 (en) 2010-05-21 2011-05-11 Image capturing apparatus, image processing apparatus, image processing method, and image processing program
CN201180025062.2A CN102907083B (zh) 2010-05-21 2011-05-11 摄像装置、图像处理装置及图像处理方法
JP2012515734A JP5596138B2 (ja) 2010-05-21 2011-05-11 撮像装置、画像処理装置、画像処理方法、および画像処理プログラム
EP11783235.2A EP2574038B1 (en) 2010-05-21 2011-05-11 Image capturing apparatus, image processing apparatus, image processing method, and image processing program

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2010-117676 2010-05-21
JP2010117676 2010-05-21
JP2010119384 2010-05-25
JP2010-119384 2010-05-25

Publications (1)

Publication Number Publication Date
WO2011145296A1 true WO2011145296A1 (ja) 2011-11-24

Family

ID=44991418

Family Applications (2)

Application Number Title Priority Date Filing Date
PCT/JP2011/002636 WO2011145296A1 (ja) 2010-05-21 2011-05-11 撮像装置、画像処理装置、画像処理方法、および画像処理プログラム
PCT/JP2011/002637 WO2011145297A1 (ja) 2010-05-21 2011-05-11 撮像装置、画像処理装置、画像処理方法、および画像処理プログラム

Family Applications After (1)

Application Number Title Priority Date Filing Date
PCT/JP2011/002637 WO2011145297A1 (ja) 2010-05-21 2011-05-11 撮像装置、画像処理装置、画像処理方法、および画像処理プログラム

Country Status (5)

Country Link
US (2) US9071754B2 (ja)
EP (2) EP2574038B1 (ja)
JP (2) JP5756099B2 (ja)
CN (2) CN102907082B (ja)
WO (2) WO2011145296A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016532367A (ja) * 2013-07-29 2016-10-13 株式会社ニコン 画像デコンボリューション用多重位相方法
KR101844332B1 (ko) * 2012-03-13 2018-04-03 삼성전자주식회사 블러 영상 및 노이즈 영상으로 구성된 멀티 프레임을 이용하여 비균일 모션 블러를 제거하는 방법 및 장치

Families Citing this family (39)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2574038B1 (en) * 2010-05-21 2018-10-24 Panasonic Intellectual Property Corporation of America Image capturing apparatus, image processing apparatus, image processing method, and image processing program
KR101896026B1 (ko) * 2011-11-08 2018-09-07 삼성전자주식회사 휴대 단말기에서 움직임 블러를 생성하는 장치 및 방법
KR101810876B1 (ko) * 2012-03-13 2018-01-26 삼성전자주식회사 타일 단위를 기반으로 큰 입력 영상의 비균일 모션 블러를 제거하는 방법 및 장치
US9143687B2 (en) * 2012-03-14 2015-09-22 University Of Dayton Method of analyzing motion blur using double discrete wavelet transform
US8917330B1 (en) * 2012-06-01 2014-12-23 Gopro, Inc. Cinematic image blur in digital cameras based on exposure timing manipulation
CN104662435A (zh) 2012-09-27 2015-05-27 Metaio有限公司 确定与用于捕获至少一个图像的捕获装置关联的装置的位置和方向的方法
CN104969545B (zh) * 2013-02-05 2018-03-20 富士胶片株式会社 图像处理装置、摄像装置、图像处理方法以及程序
WO2014144820A1 (en) 2013-03-15 2014-09-18 The Regents Of The University Of Colorado 3-d localization and imaging of dense arrays of particles
WO2015015966A1 (ja) * 2013-08-01 2015-02-05 富士フイルム株式会社 撮像装置、撮像方法及び画像処理装置
US9918021B2 (en) * 2013-08-30 2018-03-13 Nikon Corporation Image processing device that changes extent of image altering by first and second image processing
US9066014B2 (en) * 2013-10-11 2015-06-23 Facebook, Inc. Applying video stabilization to a multimedia clip
US9299132B2 (en) * 2013-10-23 2016-03-29 Adobe Systems Incorporated Automatically determining the size of a blur kernel
CN103839233B (zh) * 2014-01-20 2017-05-10 左旺孟 一种相机抖动造成的模糊图像复原方法
WO2015191998A1 (en) * 2014-06-12 2015-12-17 Duke University Systyem and method for improved computational imaging
US9646365B1 (en) 2014-08-12 2017-05-09 Amazon Technologies, Inc. Variable temporal aperture
US9749532B1 (en) 2014-08-12 2017-08-29 Amazon Technologies, Inc. Pixel readout of a charge coupled device having a variable aperture
US9787899B1 (en) 2014-08-12 2017-10-10 Amazon Technologies, Inc. Multiple captures with a variable aperture
US9749534B2 (en) * 2014-12-31 2017-08-29 Canon Kabushiki Kaisha Devices, systems, and methods for estimation of motion blur from a single image
US9684970B2 (en) * 2015-02-27 2017-06-20 Qualcomm Incorporated Fast adaptive estimation of motion blur for coherent rendering
CN106033595B (zh) * 2015-03-13 2021-06-22 中国科学院西安光学精密机械研究所 一种基于局部约束的图像盲去模糊方法
KR101596203B1 (ko) 2015-06-16 2016-02-22 중앙대학교 산학협력단 모션 블러 이미지 복원 방법 및 장치
JP6789620B2 (ja) * 2015-10-08 2020-11-25 キヤノン株式会社 画像処理装置及びその制御方法、コンピュータプログラム
US10007990B2 (en) * 2015-12-24 2018-06-26 Intel Corporation Generating composite images using estimated blur kernel size
US10311560B2 (en) * 2016-09-07 2019-06-04 Huazhong University Of Science And Technology Method and system for estimating blur kernel size
CN108665417B (zh) * 2017-03-30 2021-03-12 杭州海康威视数字技术股份有限公司 一种车牌图像去模糊方法、装置及系统
CN108881703B (zh) * 2017-05-09 2020-07-21 杭州海康威视数字技术股份有限公司 防抖控制方法和装置
CN107395961A (zh) * 2017-07-07 2017-11-24 青岛海信移动通信技术股份有限公司 一种图像数据的复原方法和装置
JP2020115607A (ja) * 2019-01-17 2020-07-30 日本電気株式会社 画像処理装置、画像処理方法、プログラム
US11475571B2 (en) * 2019-03-13 2022-10-18 Canon Kabushiki Kaisha Apparatus, image processing apparatus, and control method
JP7292145B2 (ja) * 2019-08-06 2023-06-16 キヤノン株式会社 回転半径演算装置および回転半径演算方法
US11120538B2 (en) * 2019-12-27 2021-09-14 Zoox, Inc. Sensor degradation detection and remediation
TW202143101A (zh) * 2020-05-11 2021-11-16 大陸商上海耕岩智能科技有限公司 用於成像系統的模糊函數處理方法及裝置、圖像採集設備、儲存介質、圖像處理方法及裝置、成像設備
US20220012853A1 (en) * 2020-07-09 2022-01-13 Technoimaging, Llc Joint minimum entropy method for simultaneous processing and fusion of multi-physics data and images
US11449979B2 (en) * 2020-10-09 2022-09-20 Applied Materials Israel Ltd. Measuring a pattern
CN113347352B (zh) * 2021-05-21 2023-10-03 Oppo广东移动通信有限公司 拍摄参数调整方法及装置、电子设备、计算机存储介质
WO2023003556A1 (en) * 2021-07-22 2023-01-26 Google Llc Joint video stabilization and motion deblurring
CN113870134B (zh) * 2021-09-28 2023-04-07 南京诺源医疗器械有限公司 手持式摄像镜数据处理方法及装置
US11425304B1 (en) * 2021-12-06 2022-08-23 Black Sesame Technologies Inc. Reducing global motion and rolling shutter in a dual camera system
CN114928694A (zh) * 2022-04-25 2022-08-19 深圳市慧鲤科技有限公司 图像获取方法和装置、设备、介质

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005064851A (ja) * 2003-08-12 2005-03-10 Fuji Photo Film Co Ltd デジタルカメラ及び固体撮像装置
JP2006129236A (ja) 2004-10-29 2006-05-18 Sanyo Electric Co Ltd リンギング除去装置およびリンギング除去プログラムを記録したコンピュータ読み取り可能な記録媒体
JP2008061217A (ja) * 2006-07-31 2008-03-13 Ricoh Co Ltd 画像処理装置、撮像装置、画像処理方法、および画像処理プログラム
JP2008099025A (ja) * 2006-10-12 2008-04-24 Kyocera Corp 撮像装置、ぶれ補正方法及び撮像方法
JP2009111596A (ja) 2007-10-29 2009-05-21 Sanyo Electric Co Ltd 撮像装置

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6429895B1 (en) * 1996-12-27 2002-08-06 Canon Kabushiki Kaisha Image sensing apparatus and method capable of merging function for obtaining high-precision image by synthesizing images and image stabilization function
JP4298752B2 (ja) 2004-09-14 2009-07-22 富士通株式会社 画像処理装置、画像処理方法及び画像処理プログラム
US7643062B2 (en) 2005-06-08 2010-01-05 Hewlett-Packard Development Company, L.P. Method and system for deblurring an image based on motion tracking
CN101366270B (zh) * 2005-11-29 2011-07-13 京瓷株式会社 成像设备和成像方法
JP4916862B2 (ja) * 2005-12-27 2012-04-18 京セラ株式会社 撮像装置およびその方法
JP2008011424A (ja) 2006-06-30 2008-01-17 Eastman Kodak Co 画像処理装置及び画像処理プログラム
CN100550996C (zh) * 2006-07-31 2009-10-14 株式会社理光 图像处理装置,成像装置以及图像处理方法
US7796872B2 (en) * 2007-01-05 2010-09-14 Invensense, Inc. Method and apparatus for producing a sharp image from a handheld device containing a gyroscope
US8306348B2 (en) 2007-04-24 2012-11-06 DigitalOptics Corporation Europe Limited Techniques for adjusting the effect of applying kernels to signals to achieve desired effect on signal
US20090086174A1 (en) 2007-09-28 2009-04-02 Sanyo Electric Co., Ltd. Image recording apparatus, image correcting apparatus, and image sensing apparatus
JP4661922B2 (ja) * 2008-09-03 2011-03-30 ソニー株式会社 画像処理装置、撮像装置、固体撮像素子、画像処理方法およびプログラム
KR101574733B1 (ko) * 2008-11-19 2015-12-04 삼성전자 주식회사 고화질 컬러 영상을 획득하기 위한 영상 처리 장치 및 방법
JP5179398B2 (ja) * 2009-02-13 2013-04-10 オリンパス株式会社 画像処理装置、画像処理方法、画像処理プログラム
JP5499050B2 (ja) * 2009-12-22 2014-05-21 パナソニック株式会社 画像処理装置、撮像装置、及び画像処理方法
EP2574038B1 (en) * 2010-05-21 2018-10-24 Panasonic Intellectual Property Corporation of America Image capturing apparatus, image processing apparatus, image processing method, and image processing program

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005064851A (ja) * 2003-08-12 2005-03-10 Fuji Photo Film Co Ltd デジタルカメラ及び固体撮像装置
JP2006129236A (ja) 2004-10-29 2006-05-18 Sanyo Electric Co Ltd リンギング除去装置およびリンギング除去プログラムを記録したコンピュータ読み取り可能な記録媒体
JP2008061217A (ja) * 2006-07-31 2008-03-13 Ricoh Co Ltd 画像処理装置、撮像装置、画像処理方法、および画像処理プログラム
JP2008099025A (ja) * 2006-10-12 2008-04-24 Kyocera Corp 撮像装置、ぶれ補正方法及び撮像方法
JP2009111596A (ja) 2007-10-29 2009-05-21 Sanyo Electric Co Ltd 撮像装置

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
QI SHAN; JIAYA JIA; ASEEM AGARWALA: "High-quality Motion Deblurring from a Single Image", SIGGRAPH, 2008
ROB FERGUS ET AL.: "SIGGRAPH", 2006, article "Removing Camera Shake from a Single Image"
See also references of EP2574038A4

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101844332B1 (ko) * 2012-03-13 2018-04-03 삼성전자주식회사 블러 영상 및 노이즈 영상으로 구성된 멀티 프레임을 이용하여 비균일 모션 블러를 제거하는 방법 및 장치
JP2016532367A (ja) * 2013-07-29 2016-10-13 株式会社ニコン 画像デコンボリューション用多重位相方法

Also Published As

Publication number Publication date
CN102907083B (zh) 2016-09-28
US20130057714A1 (en) 2013-03-07
JPWO2011145297A1 (ja) 2013-07-22
JP5756099B2 (ja) 2015-07-29
WO2011145297A1 (ja) 2011-11-24
EP2574039B1 (en) 2018-05-02
JP5596138B2 (ja) 2014-09-24
EP2574039A4 (en) 2014-04-23
EP2574039A1 (en) 2013-03-27
US9036032B2 (en) 2015-05-19
US9071754B2 (en) 2015-06-30
CN102907082A (zh) 2013-01-30
CN102907082B (zh) 2016-05-18
EP2574038A4 (en) 2014-04-23
US20130063616A1 (en) 2013-03-14
JPWO2011145296A1 (ja) 2013-07-22
CN102907083A (zh) 2013-01-30
EP2574038B1 (en) 2018-10-24
EP2574038A1 (en) 2013-03-27

Similar Documents

Publication Publication Date Title
JP5596138B2 (ja) 撮像装置、画像処理装置、画像処理方法、および画像処理プログラム
JP5468404B2 (ja) 撮像装置および撮像方法、ならびに前記撮像装置のための画像処理方法
JP5909540B2 (ja) 画像処理表示装置
JP5237978B2 (ja) 撮像装置および撮像方法、ならびに前記撮像装置のための画像処理方法
JP4186699B2 (ja) 撮像装置および画像処理装置
CN111667416A (zh) 图像处理方法、装置、学习模型制造方法和图像处理系统
JP4454657B2 (ja) ぶれ補正装置及び方法、並びに撮像装置
JP5499050B2 (ja) 画像処理装置、撮像装置、及び画像処理方法
JP5184574B2 (ja) 撮像装置、画像処理装置、および画像処理方法
JP2009177332A (ja) ぶれ検出装置、ぶれ補正装置及び撮像装置
US9007471B2 (en) Digital photographing apparatus, method for controlling the same, and computer-readable medium
JP2017173920A (ja) 画像処理装置、画像処理方法、画像処理プログラム、および記録媒体
JP2016201600A (ja) 画像処理装置、撮像装置、画像処理方法、画像処理プログラム、および、記憶媒体
JP6548409B2 (ja) 画像処理装置、その制御方法、および制御プログラム、並びに撮像装置
JP2017224906A (ja) 画像処理方法およびそれを用いた撮像装置、画像処理装置、画像処理プログラム
JP2013005222A (ja) 撮像装置及びその制御方法、並びにプログラム

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 201180025062.2

Country of ref document: CN

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 11783235

Country of ref document: EP

Kind code of ref document: A1

DPE1 Request for preliminary examination filed after expiration of 19th month from priority date (pct application filed from 20040101)
WWE Wipo information: entry into national phase

Ref document number: 2012515734

Country of ref document: JP

WWE Wipo information: entry into national phase

Ref document number: 13697624

Country of ref document: US

WWE Wipo information: entry into national phase

Ref document number: 2011783235

Country of ref document: EP

NENP Non-entry into the national phase

Ref country code: DE