WO2015156152A1 - 画像処理装置、撮像装置、画像処理方法及びプログラム - Google Patents

画像処理装置、撮像装置、画像処理方法及びプログラム Download PDF

Info

Publication number
WO2015156152A1
WO2015156152A1 PCT/JP2015/059627 JP2015059627W WO2015156152A1 WO 2015156152 A1 WO2015156152 A1 WO 2015156152A1 JP 2015059627 W JP2015059627 W JP 2015059627W WO 2015156152 A1 WO2015156152 A1 WO 2015156152A1
Authority
WO
WIPO (PCT)
Prior art keywords
filter
image data
sharpening
unit
condition
Prior art date
Application number
PCT/JP2015/059627
Other languages
English (en)
French (fr)
Inventor
杉本 雅彦
林 健吉
洋介 成瀬
入江 公祐
Original Assignee
富士フイルム株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 富士フイルム株式会社 filed Critical 富士フイルム株式会社
Priority to CN201580019026.3A priority Critical patent/CN106464798B/zh
Priority to JP2016512668A priority patent/JP6042034B2/ja
Publication of WO2015156152A1 publication Critical patent/WO2015156152A1/ja
Priority to US15/287,886 priority patent/US9633418B2/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/73Deblurring; Sharpening
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/20Image enhancement or restoration using local operators
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20004Adaptive image processing
    • G06T2207/20008Globally adaptive

Definitions

  • the present invention relates to an image processing apparatus, an imaging apparatus, an image processing method, and a program, and more particularly to a sharpening process.
  • a sharpening process is generally performed to improve the image quality of image data captured and acquired by an imaging apparatus such as a digital camera.
  • the sharpening process is a process for eliminating blurring or the like of an image by applying a sharpening filter to image data.
  • a sharpening filter For example, an edge enhancement process or a point image restoration process is known.
  • an image restoration process using an image restoration filter such as a Wiener filter is performed.
  • image restoration processing is performed to reduce the phase degradation component of an image using an image restoration filter based on the optical transfer function of the imaging system.
  • a spatial frequency component that enhances sharpness is extracted from an image, and the extracted component is set using parameters (such as gain) set based on MTF (Modulation Transfer Function) data of the imaging optical system.
  • MTF Modulation Transfer Function
  • the sharpening filter to be applied to the image data to be sharpened is determined according to shooting conditions and optical characteristics of the optical system.
  • sharpening processing is performed using a sharpening filter that supports shooting conditions that differ from the actual shooting conditions, or a sharpening filter that supports optical characteristics that differ from the optical characteristics of the optical system used for shooting, sufficient sharpening processing is performed. In addition to not being able to obtain an effect, the image quality may be deteriorated.
  • image restoration information (image restoration filter) is transmitted from the lens unit.
  • image processing method of Patent Document 2 a distance (state difference amount) is calculated in an imaging state space between an actual imaging state and a plurality of imaging states in which an image restoration filter is stored, and the position of the position with the shortest distance is calculated.
  • An image restoration filter is selected.
  • parameters for image sharpening processing are set using MTF data of an optical system corresponding to a spatial frequency included in an image.
  • the optical characteristics of the optical system and other shooting conditions may not be acquired.
  • an optical transfer function or a sharpening filter stored in the lens unit or the camera body is usually used, but either the lens unit or the camera body is used.
  • the optical transfer function and the sharpening filter of the lens unit (optical system) actually used are not stored.
  • the lens unit used for shooting does not support the camera body and does not have a communication function with the camera body. There is. In this case, the camera body cannot acquire shooting conditions from the lens unit. Even if the lens unit used for shooting has a communication function with the camera body, communication failure occurs due to the use environment (impact, temperature, etc.), and the camera body cannot acquire shooting conditions from the lens unit. There is also a case. Even when the lens unit used for shooting has a communication function with the camera body and communication failure does not occur, there are cases where not all shooting conditions are obtained and only some shooting conditions can be acquired.
  • the optical transfer function and shooting conditions of the optical system may not be acquired due to various factors, but it is desirable to perform the sharpening process as appropriately as possible even under such conditions. There is a request.
  • the present invention has been made in view of the above circumstances, and is based on imaging conditions such as an aperture value and a focal length that can be acquired even when the optical transfer function and imaging conditions of the optical system cannot be acquired. It is an object of the present invention to provide a technique that makes it possible to obtain a sharpening filter with high accuracy.
  • One embodiment of the present invention is based on an information acquisition unit that acquires shooting information of original image data acquired by shooting a subject image using an optical system, and is sharp based on at least a first shooting condition and a second shooting condition.
  • a filter acquisition unit that acquires a sharpening filter, and a filter processing unit that applies the sharpening filter acquired by the filter acquisition unit to the original image data and acquires sharp image data.
  • the sharpening filter associated with the first shooting condition included in the shooting information is the second shooting.
  • the present invention relates to an image processing apparatus that acquires a sharpening filter associated with a representative condition of a condition.
  • the sharpening filter cannot be appropriately acquired because the first shooting condition is included in the shooting information but the second shooting condition is not included, the first obtainable A sharpening filter with high accuracy can be acquired based on the imaging conditions.
  • one of the first photographing condition and the second photographing condition is an aperture value, and the other is a focal length.
  • a highly accurate sharpening filter can be acquired based on the acquireable aperture value or focal length information. it can.
  • the sharpening filter is a filter based on the optical transfer function of the optical system.
  • optical Transfer Function includes a point spread function (Point Spread Function: PSF), a modulation transfer function (Modulation Transfer Function: MTF), and a phase transfer function (Phase Transfer PT).
  • the sharpening filter is a filter that is not based on the optical transfer function of the optical system.
  • the filter acquisition unit acquires a plurality of sharpening filters associated with a plurality of image heights, and the filter processing unit applies the sharpening filter to the original image data according to the image height.
  • the filter acquisition unit stores a plurality of sharpening filters determined according to at least the first imaging condition and the second imaging condition, and a plurality of sharpening filters stored in the filter storage unit A filter selection unit that selects a sharpening filter based on the imaging information.
  • a sharpening filter can be acquired from a plurality of sharpening filters stored in the filter storage unit.
  • the filter acquisition unit includes a function acquisition unit that acquires a plurality of optical transfer functions determined according to at least the first imaging condition and the second imaging condition, and a plurality of optical transfer functions acquired by the function acquisition unit.
  • a filter generation unit that generates and obtains a sharpening filter from an optical transfer function selected from among the optical transfer functions based on imaging information.
  • the representative condition of the second imaging condition is determined based on the spatial frequency characteristics of each of the plurality of sharpening filters associated with the first imaging condition.
  • the representative condition of the second imaging condition is determined based on the spatial frequency characteristics of each of the plurality of sharpening filters, and the sharpening filter associated with the representative condition can be obtained with high accuracy.
  • the spatial frequency characteristics of the sharpening filter may be determined based on, for example, a response that represents a ratio for each spatial frequency of the image data after applying the sharpening filter to the image data before applying the sharpening filter. Therefore, the representative condition of the second imaging condition may be determined based on the response characteristics of each of the plurality of sharpening filters associated with the first imaging condition. In this case, the representative condition of the second imaging condition The sharpening filter associated with can be acquired with high accuracy.
  • the representative condition of the second imaging condition is a plurality of sharpening filters associated with the first imaging condition, and each of the plurality of sharpening filters associated with the plurality of second imaging conditions.
  • the maximum value of the response representing the ratio of the image data for each spatial frequency after applying the sharpening filter to the image data before applying the sharpening filter is determined as a reference.
  • the representative condition of the second imaging condition is determined based on the maximum value of the response of the sharpening filter, and the sharpening filter associated with the representative condition can be obtained with high accuracy.
  • the representative condition of the second imaging condition is a plurality of sharpening filters associated with the first imaging condition, and each of the plurality of sharpening filters associated with the plurality of second imaging conditions.
  • the function representing the response for each spatial frequency the area of the range showing a response larger than the first threshold is defined as a reference.
  • the representative condition of the second imaging condition is determined based on the response magnitude of the sharpening filter, and the sharpening filter associated with the representative condition can be acquired with high accuracy.
  • the first threshold value is 1 or more.
  • the representative condition of the second imaging condition is determined based on the response portion larger than 1 of the sharpening filter, and the sharpening filter associated with the representative condition can be obtained with high accuracy.
  • the image processing apparatus further includes a frequency analysis unit that analyzes a spatial frequency characteristic of the original image data, and the filter acquisition unit is a component amount in a specific spatial frequency range of the original image data from an analysis result by the frequency analysis unit. Is determined to be greater than or equal to the second threshold, after applying the sharpening filter to the image data before applying the sharpening filter, rather than the sharpening filter associated with the representative condition of the second imaging condition A sharpening filter having a small response indicating the ratio of the image data for each spatial frequency is acquired.
  • the image processing apparatus further includes a frequency analysis unit that analyzes a spatial frequency characteristic of the original image data, and the filter processing unit is configured to determine a component amount in a specific spatial frequency range of the original image data from an analysis result by the frequency analysis unit. Is determined to be greater than or equal to the second threshold, the gain is controlled to reduce the increment of the sharp image data relative to the original image data.
  • a frequency analysis unit that analyzes a spatial frequency characteristic of the original image data
  • the filter processing unit is configured to determine a component amount in a specific spatial frequency range of the original image data from an analysis result by the frequency analysis unit. Is determined to be greater than or equal to the second threshold, the gain is controlled to reduce the increment of the sharp image data relative to the original image data.
  • the image processing apparatus further includes a frequency analysis unit that analyzes the spatial frequency characteristics of the original image data, and the filter processing unit acquires the filtering image data by applying the sharpening filter acquired by the filter acquisition unit to the original image data.
  • a gain control unit that acquires sharp image data by controlling the gain of the filtering image data with respect to the original image data based on the imaging information.
  • the gain control unit is analyzed by the frequency analysis unit.
  • the image processing apparatus further includes a saturated pixel analysis unit that analyzes saturated pixels of the original image data, and the filter acquisition unit adds a pixel value greater than or equal to a third threshold value to the original image data from the analysis result by the saturated pixel analysis unit.
  • the sharpening filter for the image data before applying the sharpening filter is applied rather than the sharpening filter associated with the representative condition of the second imaging condition.
  • a sharpening filter having a small response representing the ratio of the subsequent image data for each spatial frequency is acquired.
  • a sharpening filter with a small response is acquired for original image data including saturated pixels.
  • the image processing apparatus further includes a saturated pixel analyzing unit that analyzes saturated pixels of the original image data, and the filter processing unit adds a pixel value equal to or greater than a third threshold value to the original image data from the analysis result by the saturated pixel analyzing unit.
  • the increment amount of the sharp image data with respect to the original image data is reduced by controlling the gain.
  • the image processing apparatus further includes a saturated pixel analysis unit that analyzes saturated pixels of the original image data, and the filter processing unit acquires the filtering image data by applying the sharpening filter acquired by the filter acquisition unit to the original image data.
  • a gain control unit that acquires sharp image data by controlling the gain of the filtering image data with respect to the original image data based on the photographing information, and the gain control unit is based on the saturated pixel analysis unit.
  • gain control is performed on the original image data including the saturated pixels, and the increment amount of the sharp image data with respect to the original image data is reduced.
  • the “case where it is determined that the original image data includes a saturated pixel” is not limited to the case where the pixel itself that is subjected to the sharpening process by the sharpening filter is a saturated pixel.
  • a case where the peripheral pixel of the pixel to be processed is a saturated pixel may also be included.
  • the image processing apparatus further includes a ringing acquisition unit that acquires a ringing amount of sharp image data, and the filter acquisition unit is a representative condition of the second imaging condition when the ringing amount is equal to or greater than a fourth threshold value.
  • a sharpening filter having a smaller response than the sharpening filter associated with the image data before applying the sharpening filter to the spatial frequency of the image data after applying the sharpening filter is obtained.
  • the image processing apparatus further includes a ringing acquisition unit that acquires a ringing amount of sharp image data, and the filter processing unit controls the gain by controlling the gain when the ringing amount is equal to or greater than a fourth threshold value. Decrease the increment of sharp image data relative to the data.
  • the image processing apparatus further includes a ringing acquisition unit that acquires the ringing amount of the sharp image data, and the filter processing unit acquires the filtering image data by applying the sharpening filter acquired by the filter acquisition unit to the original image data.
  • a gain control unit that acquires sharp image data by controlling the gain of the filtering image data with respect to the original image data based on the imaging information, and the gain control unit has a fourth ringing amount. In the case where it is equal to or greater than the threshold value, the gain is controlled, and the increment of the sharp image data relative to the original image data may be made smaller than when the gain is controlled based on the photographing information.
  • the method for acquiring the ringing amount of the sharp image data is not particularly limited, and the ringing acquisition unit may acquire the ringing amount based on a predetermined condition.
  • the ringing amount may be acquired by comparing the original image data with the sharp image data, or the image characteristics such as the frequency characteristics of the sharp image data are analyzed, and the analysis result is set to a predetermined condition.
  • the ringing amount may be acquired (estimated) depending on whether or not this is the case.
  • the ringing amount may be acquired (estimated) depending on whether or not the acquisition of the original image data was performed under a predetermined acquisition condition.
  • information on the optical system used for photographing for acquiring the original image data Can be included in the acquisition conditions here.
  • the optical system information here may include at least one of a lens type, an aperture value, and a zoom value of the optical system used for photographing to acquire the original image data.
  • the ringing amount may be acquired (estimated) depending on whether or not the analysis result satisfies a predetermined condition.
  • the original image data The ringing amount may be acquired (estimated) according to the presence or absence of saturated pixels in.
  • the image processing apparatus further includes an increment value acquisition unit that acquires an increment value of the sharp image data with respect to the original image data with respect to a specific spatial frequency range, and the filter acquisition unit has an increment value equal to or greater than a fifth threshold value.
  • the ratio for each spatial frequency of the image data after applying the sharpening filter to the image data before applying the sharpening filter rather than the sharpening filter associated with the representative condition of the second imaging condition. Obtain a sharpening filter that represents a small response.
  • the image processing apparatus further includes an increment value acquisition unit that acquires an increment value of the sharp image data with respect to the original image data with respect to a specific spatial frequency range, and the filter processing unit has an increment value equal to or greater than a fifth threshold value.
  • the increment amount of the sharp image data with respect to the original image data is reduced by controlling the gain.
  • the image processing apparatus further includes an increment value acquisition unit that acquires an increment value of the sharp image data with respect to the original image data with respect to a specific spatial frequency range, and the filter processing unit generates the original sharpening filter acquired by the filter acquisition unit.
  • a filter application unit that obtains filtered image data by applying to the image data; and a gain control unit that obtains sharp image data by controlling the gain of the filtered image data with respect to the original image data based on the shooting information.
  • the control unit controls the gain so that the increment amount of the sharp image data with respect to the original image data is smaller than when the gain is controlled based on the shooting information. Also good.
  • the range of the specific spatial frequency is 1/8 or more and 1/4 or less of the sampling frequency of the original image data.
  • Another aspect of the present invention relates to an imaging device that includes an imaging device and the above-described image processing device, and in which original image data is acquired by the imaging device.
  • Another aspect of the present invention is to acquire shooting information of original image data acquired by shooting an object image using an optical system, and to add a sharpening filter based on at least the first shooting condition and the second shooting condition.
  • the present invention relates to an image processing method for obtaining a sharpening filter associated with a first imaging condition included in imaging information and associated with a representative condition of a second imaging condition.
  • Another aspect of the present invention is a method for acquiring shooting information of original image data acquired by shooting a subject image using an optical system, and sharpening based on at least a first shooting condition and a second shooting condition.
  • the second imaging condition is not included, a sharpening filter associated with the first imaging condition included in the imaging information and associated with the representative condition of the second imaging condition is acquired.
  • the sharpening filter cannot be appropriately acquired because the first shooting condition is included in the shooting information but the second shooting condition is not included, the first obtainable A sharpening filter with high accuracy can be acquired based on the imaging conditions.
  • FIG. 16 is a diagram illustrating an example of a restoration processing flow by the restoration processing block illustrated in FIG. 15. It is a figure which shows the example of decompression
  • FIG. 1 is a block diagram showing an outline of a digital camera connected to a computer.
  • the digital camera 10 includes a replaceable lens unit 12 and a camera body 14 having an image sensor 26.
  • the lens unit 12 and the camera body 14 are electrically connected via the lens unit input / output unit 22 of the lens unit 12 and the camera body input / output unit 30 of the camera body 14.
  • the lens unit 12 includes an optical system including a lens 16, a diaphragm 17, and the like, and an optical system operation unit 18 that controls the optical system.
  • the optical system operation unit 18 includes a lens unit controller 20 connected to the lens unit input / output unit 22 and an actuator (not shown) that operates the optical system.
  • the lens unit controller 20 controls the optical system via an actuator based on a control signal sent from the camera body 14 via the lens unit input / output unit 22, for example, focus control or zoom control by lens movement, aperture
  • the aperture value (aperture amount) of 17 is controlled.
  • the imaging element 26 of the camera body 14 includes a condensing microlens, a color filter such as RGB (red green blue), and an image sensor (photodiode: CMOS (Complementary Metal Oxide Semiconductor), CCD (Charge-Coupled Device), etc.).
  • CMOS Complementary Metal Oxide Semiconductor
  • CCD Charge-Coupled Device
  • the image sensor 26 converts the light of the subject image irradiated through the optical system (lens 16, aperture 17, etc.) of the lens unit 12 into an electrical signal, and sends the image signal (captured image data) to the main body controller 28. . That is, the image sensor 26 of this example receives a subject image that has passed through an optical system (lens 16, aperture 17, etc.) and generates photographed image data (hereinafter referred to as “image data”). The data is transmitted to the controller 28 (“image processing unit 36” described later).
  • FIG. 2 is a block diagram showing an outline of the functional configuration of the main body controller 28.
  • the main body controller 28 includes a device control unit 34 and an image processing unit (image processing apparatus) 36, and controls the camera main body 14 in an integrated manner.
  • the device control unit 34 controls the output of image data from the image sensor 26 or generates a control signal for controlling the lens unit 12 and the lens unit 12 (lens) via the camera body input / output unit 30. Sent to the unit controller 20) and sent to external devices (computer 80, etc.) connected via the input / output interface 32 before and after image processing (RAW data, JPEG (Joint Photographic Experts Group) data, etc.) To do. Further, the device control unit 34 of this example includes a display control unit 37 that controls a display unit 38 provided in the camera body 14. Further, the device control unit 34 appropriately controls other devices included in the digital camera 10.
  • the image processing unit 36 can perform arbitrary image processing on the image data from the image sensor 26 as necessary. For example, sensor correction processing, demosaicing (synchronization) processing, pixel interpolation processing, color correction processing (offset correction processing, white balance processing, color matrix processing, gamma conversion processing, etc.), RGB image processing (tone correction processing, exposure correction) Various image processes such as RGB / YCrCb conversion process and image compression process are appropriately performed in the image processing unit 36. In addition, the image processing unit 36 of this example performs a “sharpening process” described later.
  • the image data that has been subjected to image processing in the main body controller 28 is stored in an image storage unit 29 constituted by a flash memory or the like.
  • the image data stored in the image storage unit 29 is sent to a computer 80 or the like connected to the input / output interface 32 (see FIG. 1).
  • the image storage unit 29 is detachable from the camera body 14
  • the image data stored in the image storage unit 29 is sent to the computer 80 or the like connected to the image storage unit 29 removed from the camera body 14.
  • the format of the image data sent from the digital camera 10 (image storage unit 29) to the computer 80 or the like is not particularly limited, and may be any format such as RAW, JPEG, TIFF (Tagged Image File Format).
  • the main body controller 28 has a plurality of header information (shooting information (shooting date / time, model, number of pixels, aperture value, etc.)), main image data, thumbnail image data, etc., as in the so-called Exif (Exchangeable Image File Format).
  • the related data may be associated with each other and configured as one image file, and the image file may be transmitted to the computer 80.
  • the computer 80 is connected to the digital camera 10 via the input / output interface 32 and the computer input / output unit 81 of the camera body 14, and receives data such as image data sent from the camera body 14.
  • the computer controller 82 controls the computer 80 in an integrated manner, performs image processing on image data from the digital camera 10, and communicates with a server 85 or the like connected to the computer input / output unit 81 via a network 84 such as the Internet. Or control.
  • the computer 80 has a display 83, and the processing contents in the computer controller 82 are displayed on the display 83 as necessary.
  • the user operates the input means (not shown) such as a keyboard while confirming the display on the display 83 to input data and commands to the computer controller 82 to control the computer 80 or connect to the computer 80.
  • the like digital camera 10, server 85
  • the server 85 includes a server input / output unit 86 and a server controller 87.
  • the server input / output unit 86 constitutes a transmission / reception connection unit with external devices such as the digital camera 10 and the computer 80, and is connected to the main body controller 28 of the digital camera 10 and the computer input / output unit 81 of the computer 80 via the network 84. Is done.
  • the server controller 87 cooperates with the main body controller 28 and the computer controller 82 in response to control instruction signals from the digital camera 10 and the computer 80, and transmits and receives data to and from the main body controller 28 and the computer controller 82 as necessary.
  • the data is downloaded to the digital camera 10 or the computer 80, or the calculation process is performed and the calculation result is transmitted to the digital camera 10 or the computer 80.
  • Each controller includes circuits necessary for control processing, such as an arithmetic processing circuit (CPU (Central Processing Unit), etc.), a memory, and the like. It comprises. Further, communication between the digital camera 10, the computer 80, and the server 85 may be wired or wireless. Further, the computer 80 and the server 85 may be configured integrally, and the computer 80 and / or the server 85 may be omitted. Alternatively, the digital camera 10 may have a communication function with the server 85 so that data can be directly transmitted and received between the digital camera 10 and the server 85.
  • CPU Central Processing Unit
  • image data before sharpening processing is referred to as “original image data”, and image data after sharpening processing is referred to as “sharp image data”.
  • the sharpening process is performed in the camera body 14 (main body controller 28)
  • all or part of the sharpening process is performed by another controller (the lens unit controller 20, the computer controller 82, It can also be implemented in the server controller 87 or the like.
  • the sharpening process performed by the image processing unit 36 will be described.
  • the image processing unit 36 performs various types of image processing other than the sharpening process before and / or after the sharpening process. Is called. Description and illustration of a processing unit related to image processing other than the sharpening processing performed in the image processing unit 36 are omitted.
  • FIG. 3 is a block diagram illustrating a functional configuration example of the image processing unit 36 according to the first embodiment.
  • the image processing unit 36 of this example includes an information acquisition unit 40, a filter acquisition unit 42, and a filter processing unit 44.
  • the information acquisition unit 40 acquires shooting information of original image data acquired by shooting a subject image using an optical system (lens 16, aperture 17, etc.).
  • the method for acquiring shooting information by the information acquisition unit 40 is not particularly limited. For example, when shooting information of original image data is stored in a memory (not shown) provided in the image processing unit 36, the information acquisition unit 40 accesses the memory. Then, the shooting information may be acquired. In addition, when shooting information is added as tag information (meta information) to the original image data, the information acquisition unit 40 may read the shooting information added to the original image data.
  • the filter acquisition unit 42 acquires a sharpening filter based on the shooting information of the original image data acquired by the information acquisition unit 40.
  • the filter acquisition unit 42 of the present embodiment acquires a sharpening filter based on at least the aperture value and the focal length (first imaging condition and second imaging condition).
  • first imaging condition and second imaging condition first imaging condition and second imaging condition.
  • the filter processing unit 44 applies the sharpening filter acquired by the filter acquisition unit 42 to the original image data, and acquires sharp image data.
  • the sharpening filter is not particularly limited, and may be a filter based on the optical transfer function of the optical system or a filter not based on the optical transfer function of the optical system. That is, a filter created based on an optical transfer function (OTF) including a point spread function (PSF), a modulation transfer function (MTF), and a phase transfer function (PTF) may be used as a “sharpening filter”.
  • OTF optical transfer function
  • PSF point spread function
  • MTF modulation transfer function
  • PTF phase transfer function
  • a contour correction filter or the like determined irrespective of the optical transfer function may be used as the sharpening filter.
  • the acquisition method of the sharpening filter by the filter acquisition unit 42 is not particularly limited.
  • a sharpening filter may be selected from a plurality of sharpening filters stored in advance based on shooting information of original image data, or applied to original image data based on shooting information of original image data.
  • a sharpening filter may be created.
  • FIG. 4 is a block diagram illustrating an example of a functional configuration of the filter acquisition unit 42.
  • the filter acquisition unit 42 of this example includes a filter selection unit 46 and a filter storage unit 48.
  • the filter storage unit 48 stores a plurality of sharpening filters that are determined according to at least the aperture value and the focal length (first imaging condition and second imaging condition).
  • the filter selection unit 46 selects a sharpening filter from a plurality of sharpening filters stored in the filter storage unit 48 based on the photographing information of the original image data sent from the information acquisition unit 40, and the filter The data is sent to the processing unit 44.
  • the plurality of sharpening filters stored in the filter storage unit 48 are filters corresponding to optical characteristics such as an optical transfer function of an optical system (lens 16, aperture 17, etc.) used for capturing and acquiring original image data.
  • optical characteristics such as an optical transfer function of an optical system (lens 16, aperture 17, etc.) used for capturing and acquiring original image data.
  • a sharpening filter that can be used in a plurality of types of optical systems such as a highly versatile contour correction filter, may be stored in the filter storage unit 48.
  • Such a highly versatile sharpening filter can also be used in sharpening processing of original image data captured and acquired using a lens unit 12 that is not officially compatible with the camera body 14.
  • FIG. 5 is a block diagram illustrating another example of the functional configuration of the filter acquisition unit 42.
  • the filter acquisition unit 42 of this example includes a function acquisition unit 50 and a filter generation unit 52.
  • the function acquisition unit 50 acquires imaging information including a plurality of optical transfer functions determined according to at least the aperture value and the focal length (first imaging condition and second imaging condition) from the information acquisition unit 40.
  • the filter generation unit 52 is an optical transfer function selected from a plurality of optical transfer functions acquired by the function acquisition unit 50, and is based on imaging information (aperture value, focal length, etc.) of original image data. To generate and obtain a sharpening filter.
  • the sharpening filter generated by the filter generation unit 52 is sent to the filter processing unit 44.
  • the method for applying the sharpening filter to the original image data in the filter processing unit 44 is not particularly limited.
  • a common sharpening filter may be applied to all the pixels of the original image data, or the applied sharpening filter may be changed for each pixel or area of the original image data.
  • the sharpening filter is applied to each pixel or area of the original image data according to the image height. May be changed.
  • the filter acquisition unit 42 acquires a plurality of sharpening filters associated with a plurality of image heights
  • the filter processing unit 44 uses the plurality of sharpening filters acquired by the filter acquisition unit 42 to obtain an image height. Accordingly, a sharpening filter may be applied to the original image data.
  • the information acquisition unit 40 may be caused by a case in which either one or both of the aperture value and the focal length are not included in the photographing information sent from the information acquisition unit 40 to the filter acquisition unit 42, communication failure, or the like. May not be able to acquire shooting information.
  • the filter acquisition unit 42 cannot use information on the aperture value and / or the focal length when the original image data is captured and acquired.
  • one of the aperture value and the focal length is included in the imaging information acquired by the information acquisition unit 40, but the other (second imaging condition) is included. If not, the sharpening filter associated with the aperture value or focal length (first imaging condition) included in the imaging information, and the aperture value or focal length (second imaging condition) not included in the imaging information. The sharpening filter associated with the “representative condition” is acquired.
  • the “basic for selecting a sharpening filter” is insufficient.
  • “Representative conditions” are used for “information”. For example, when the imaging information sent from the information acquisition unit 40 to the filter acquisition unit 42 includes only “aperture value” information and does not include “focal length” information, the filter acquisition unit 42 uses Select a plurality of sharpening filters associated with the “aperture value” information included in the shooting information from a plurality of possible sharpening filters, and select the “focal length” from the selected plurality of sharpening filters.
  • a sharpening filter corresponding to the representative condition is selected.
  • the filter acquisition unit 42 selects a plurality of sharpening filters associated with the “focal length” information included in the shooting information from the plurality of available sharpening filters, and selects “ A sharpening filter corresponding to the representative condition of “aperture value” is selected.
  • the “representative condition” of the aperture value or focal length (second shooting condition) not included in the shooting information is determined from various viewpoints.
  • the representative condition is determined based on the spatial frequency characteristics of each of the plurality of sharpening filters associated with the imaging condition included in the imaging information (in this example, aperture value or focal length: first imaging condition). May be.
  • each of the plurality of sharpening filters associated with each of the “photographing conditions (aperture value or focal length: second imaging condition)” Based on the maximum value of the response representing the ratio for each spatial frequency of the image data, a representative condition of a shooting condition (aperture value or focal length: second shooting condition) that is not included in the shooting information may be determined.
  • FIG. 6 is a diagram illustrating an example of a response for each spatial frequency of the sharpening filter.
  • the horizontal axis of FIG. 6 represents the spatial frequency
  • the representative condition of the photographing condition (aperture value or focal length: second photographing condition) that is not included in the photographing information is determined based on the maximum value of the response. Can do.
  • the sharpening filter having the smallest response maximum value among the plurality of sharpening filters associated with the photographing condition (aperture value or focal length: first photographing condition) included in the photographing information is used as the representative filter. Therefore, the “photographing condition not included in the photographing information (aperture value or focal length: second photographing condition)” corresponding to the “sharpening filter with the smallest maximum response value” may be used as the representative condition.
  • the sharpening filter having the largest response maximum value among the plurality of sharpening filters associated with the photographing condition (aperture value or focal length: first photographing condition) included in the photographing information is used as the representative filter. Therefore, the “photographing condition not included in the photographing information (aperture value or focal length: second photographing condition)” corresponding to the “sharpening filter with the largest response maximum value” may be used as the representative condition.
  • representative of the shooting conditions corresponding to the moderate sharpening filter with an average degree of image quality change is preferable to use conditions. Therefore, among the plurality of sharpening filters associated with the photographing condition (aperture value or focal length: first photographing condition) included in the photographing information, the sharpening filter whose response maximum value indicates the median value is used as the representative filter. Therefore, the “shooting condition not included in the shooting information (aperture value or focal length: second shooting condition)” corresponding to this “sharpening filter whose maximum response value indicates the median value” is used as a representative condition. Also good.
  • the “representative condition of the imaging condition (aperture value or focal length: second imaging condition) not included in the imaging information” may be determined based on information other than the maximum value of the sharpening filter response.
  • FIG. 7 is a diagram illustrating an example of a response for each spatial frequency of the sharpening filter.
  • a plurality of sharpening filters associated with a shooting condition included in the shooting information.
  • the sharpening filter having the smallest area in the range showing a response larger than the “first threshold” in the coordinate system of “spatial frequency-response” is preferably used as the representative filter. Therefore, “imaging conditions not included in the imaging information (aperture value or focus value) corresponding to this“ sharpening filter having the smallest area in the range showing a response larger than the first threshold in the spatial frequency-response coordinate system ”. “Distance: second imaging condition)” may be used as a representative condition.
  • a plurality of sharpnesses associated with the photographing condition (aperture value or focal length: first photographing condition) included in the photographing information is used as the representative filter. Therefore, the “shooting condition not included in the shooting information (aperture value or focus value) corresponding to the“ sharpening filter having the largest area in the range showing a response larger than the first threshold in the spatial frequency-response coordinate system ”. “Distance: second imaging condition)” may be used as a representative condition.
  • the shooting conditions (aperture value or focal length: first shooting condition) included in the shooting information are satisfied.
  • a sharpening filter having a median value in a range showing a response larger than the “first threshold” in the “spatial frequency-response” coordinate system is used as a representative filter.
  • imaging conditions not included in the imaging information (aperture value) corresponding to this“ sharpening filter in which the area of the range showing a response larger than the first threshold value in the coordinate system of the spatial frequency-response indicates the median value Alternatively, the focal length: second imaging condition) ”may be used as the representative condition.
  • the “representative condition of shooting conditions (aperture value or focal length: second shooting condition) not included in the shooting information” may be determined based on other information.
  • “representative conditions of imaging conditions (aperture value or focal length: second imaging conditions) not included in the imaging information” may be determined from information such as usage frequency.
  • “a condition of high use frequency” obtained from statistical information may be set as “a representative condition of an imaging condition (aperture value or focal length: second imaging condition) not included in the imaging information”.
  • the “shooting condition not included in the shooting information” is the focal length
  • the minimum focal length or the maximum focal length may be set as the “representative condition”.
  • the “shooting condition not included in the shooting information” is an aperture value
  • a frequently used aperture may be obtained in advance, and the aperture value obtained in advance may be used as a representative condition.
  • FIG. 8 is a flowchart showing an example of the flow of the sharpening process.
  • shooting information of the original image data is acquired by the information acquisition unit 40, and the filter acquisition unit 42 determines whether or not the acquired shooting information includes aperture value and focal length data when the original image data is acquired. Is determined.
  • the shooting information includes only aperture value data and does not include focal length data (Y in S11 in FIG. 8), it corresponds to “aperture value data included in shooting information” and “representative condition of focal length”.
  • the sharpening filter to be acquired is acquired by the filter acquisition unit 42 (S12).
  • the focal length data included in the shooting information and the aperture value data is not included (N in S11, Y in S14)
  • “the focal length data included in the shooting information” and “representative conditions of the aperture value” Is acquired by the filter acquisition unit 42 (S15).
  • a sharpening filter corresponding to “the aperture value and focal length data included in the shooting information” is provided. Obtained by the filter obtaining unit 42 (S17).
  • the sharpening filter acquired by the filter acquisition unit 42 is used, the filter processing unit 44 performs the sharpening process on the original image data, and the sharp image data is acquired (S13).
  • the sharpening process when the shooting information does not include both aperture value and focal length data, or when the information acquisition unit 40 cannot acquire the shooting information (N in S16), the sharpening process (S13). Is skipped and no sharpening process is performed. However, in this case (N in S16), the sharpening process may be performed using a sharpening filter corresponding to each representative condition of a predetermined aperture value and focal length without skipping the sharpening process.
  • the sharpening is performed based on the representative condition.
  • a filter can be selected and sharpening can be performed with high accuracy.
  • the filter processing unit 44 when a defect is likely or likely to occur due to the sharpening process, a change in image quality due to the sharpening process is suppressed.
  • the filter processing unit 44 performs a sharpening process using a sharpening filter having a sharpening effect weaker than that of the originally used sharpening filter.
  • the filter processing unit 44 has a method of reducing the increment of the sharp image data with respect to the original image data by controlling the gain.
  • FIG. 9 is a block diagram illustrating an example of a functional configuration of the filter processing unit 44.
  • the filter processing unit 44 of this example includes a filter application unit 60 and a gain control unit 62.
  • the filter application unit 60 acquires the filtering image data by applying the sharpening filter acquired by the filter acquisition unit 42 to the original image data.
  • the gain control unit 62 acquires the sharp image data by controlling the gain of the filtering image data with respect to the original image data based on the photographing information acquired by the information acquisition unit 40.
  • FIG. 10 is a block diagram illustrating a specific example of the functional configuration of the filter processing unit 44.
  • the filter processing unit 44 includes a filter application unit 60, a gain adjustment unit 63, and a data adjustment unit 64 (gain control unit 62).
  • the gain adjustment unit 63 of this example performs multiplication of the restoration intensity magnification U on “filtering image data obtained by applying a sharpening filter to original image data” acquired by the filter application unit 60. First adjustment image data is acquired.
  • the data adjustment unit 64 multiplies the “original image data” before the sharpening filter is applied by the filter application unit 60 by the magnification (1-U) to obtain second adjusted image data.
  • the data adjustment unit 64 can acquire sharp image data by adding the second adjustment image data and the first adjustment image data acquired by the gain adjustment unit 63.
  • the filter processing unit 44 may adopt another technique equivalent to the above technique instead of the above technique. For example, after obtaining “filtered image data obtained by applying a sharpening filter to original image data”, the filter application unit 60 calculates image increase / decrease data, and the gain adjustment unit 63 calculates the increase / decrease data. The gain control may be performed by multiplying by the restored intensity magnification U.
  • the data adjustment unit 64 uses the “original image data” before the sharpening filter is applied by the filter application unit 60 and the “increase / decrease data multiplied by the restoration strength magnification U acquired by the gain adjustment unit 63”. ”Can be added to obtain sharp image data.
  • the sharpening filter having a weak sharpening effect is used in the above-described filter application unit 60 or the gain control in the gain control unit 62 is adjusted for sharpening. By reducing the effect, it is possible to suppress a change in image quality due to the sharpening process.
  • the “specific spatial frequency range” preferably includes a spatial frequency range in which data is changed by the sharpening filter. For example, it is 1/8 or more and 1/4 or less of the sampling frequency of the original image data. Included in the range.
  • FIG. 11 is a block diagram illustrating a functional configuration example of the image processing unit 36 according to the first mode.
  • the image processing unit 36 of this example further includes a frequency analysis unit 66 that analyzes the spatial frequency characteristics of the original image data. Data relating to the spatial frequency characteristics of the original image data analyzed by the frequency analysis unit 66 is sent to the filter acquisition unit 42 and the filter processing unit 44.
  • the filter acquisition unit 42 determines whether or not the component amount in the specific spatial frequency range of the original image data is greater than or equal to the second threshold from the analysis result by the frequency analysis unit 66. When it is determined that the component amount in the specific spatial frequency range of the original image data is smaller than the second threshold, the filter acquisition unit 42 acquires a sharpening filter by a normal process.
  • the filter acquisition unit 42 captures imaging conditions (not included in the imaging information acquired by the information acquisition unit 40) ( For each spatial frequency of the image data after applying the sharpening filter to the image data before applying the sharpening filter rather than the sharpening filter associated with the representative condition of the aperture value or focal length (second imaging condition) A sharpening filter with a small response indicating the ratio may be acquired.
  • the gain control in the filter processing unit 44 may be adjusted instead of the filter acquisition processing in the filter acquisition unit 42 described above or together with the filter acquisition processing in the filter acquisition unit 42 described above. That is, the gain control unit 62 (see FIGS. 9 and 10) of the filter processing unit 44 determines whether the component amount in the specific spatial frequency range of the original image data is greater than or equal to the second threshold based on the analysis result by the frequency analysis unit 66. Determine whether or not. When it is determined that the component amount in the specific spatial frequency range of the original image data is smaller than the second threshold value, the gain control unit 62 performs normal gain control.
  • the gain control unit 62 controls the gain and is based on the shooting information acquired by the information acquisition unit 40. Therefore, the increment of the sharp image data relative to the original image data may be made smaller than when the gain is controlled.
  • ⁇ Second mode> a case where the original image data includes saturated pixels is determined as a “case in which defects are likely to occur due to the sharpening process”, and image quality changes due to the sharpening process are suppressed.
  • the “saturated pixel” here is a pixel having a high pixel value, and a pixel value having a high possibility that the pixel value becomes the maximum value by the sharpening process.
  • a pixel that represents 90% or more of the representable pixel value can be set as a “saturated pixel”, and when the pixel value can be represented by “0 to 255”, for example, “230 to 255”.
  • a pixel having a pixel value of may be treated as a saturated pixel.
  • FIG. 12 is a block diagram illustrating a functional configuration example of the image processing unit 36 according to the second mode.
  • the image processing unit 36 of this example further includes a saturated pixel analysis unit 68 that analyzes saturated pixels of the original image data. Data relating to saturated pixels of the original image data analyzed by the saturated pixel analysis unit 68 is sent to the filter acquisition unit 42 and the filter processing unit 44.
  • the filter acquisition unit 42 determines whether or not a saturated pixel having a pixel value equal to or greater than a third threshold (for example, “233”) is included in the original image data from the analysis result by the saturated pixel analysis unit 68. When it is determined that the original image data does not include a saturated pixel having a pixel value equal to or greater than the third threshold, the filter acquisition unit 42 acquires a sharpening filter by a normal process. On the other hand, if it is determined that the original image data includes a saturated pixel having a pixel value equal to or greater than the third threshold, the filter acquisition unit 42 captures images that are not included in the imaging information acquired by the information acquisition unit 40.
  • a third threshold for example, “233”
  • the gain control in the filter processing unit 44 may be adjusted instead of the filter acquisition processing in the filter acquisition unit 42 described above or together with the filter acquisition processing in the filter acquisition unit 42 described above. That is, the gain control unit 62 (see FIGS. 9 and 10) of the filter processing unit 44 includes, from the analysis result by the saturated pixel analysis unit 68, saturated pixels having a pixel value equal to or greater than the third threshold value in the original image data. It is determined whether or not. If it is determined that the original image data does not include a saturated pixel having a pixel value equal to or greater than the third threshold, the gain control unit 62 performs normal gain control.
  • the gain control unit 62 controls the gain and is acquired by the information acquisition unit 40
  • the increment amount of the sharp image data relative to the original image data may be made smaller than when the gain is controlled based on the photographing information.
  • ⁇ Third mode> In this mode, if the possibility of ringing occurring in the image data after sharpening processing (sharp image data) is high or if it occurs, it is determined as “a case in which a defect is likely to occur due to the sharpening processing or a case in which it occurs” Changes in image quality due to sharpening processing are suppressed.
  • FIG. 13 is a block diagram illustrating a functional configuration example of the image processing unit 36 according to the third mode.
  • the image processing unit 36 of this example further includes a ringing acquisition unit 70 that acquires the ringing amount of sharp image data. Data on the ringing amount acquired by the ringing acquisition unit 70 is sent to the filter acquisition unit 42 and the filter processing unit 44.
  • the acquisition method of the ringing amount is not particularly limited, and the ringing acquisition unit 70 may acquire the ringing amount based on, for example, a predetermined condition.
  • the ringing acquisition unit 70 may acquire the ringing amount by comparing the original image data and the sharp image data, or analyze the image characteristics such as the frequency characteristics of the sharp image data, and the analysis result is The ringing amount may be acquired (estimated) depending on whether or not a predetermined condition is met. Further, the ringing acquisition unit 70 may acquire (estimate) the amount of ringing depending on whether or not the acquisition of the original image data is performed according to a predetermined acquisition condition.
  • the ringing acquisition unit 70 is used for imaging for acquiring the original image data.
  • the obtained optical system information can be included in the acquisition condition referred to here.
  • Various elements that may affect the sharpening accuracy and side effects (ringing, etc.) of the sharpening process may be included in the “acquisition conditions”.
  • the optical system information here may include at least one of a lens type, an aperture value, and a zoom value of the optical system used for photographing to acquire the original image data.
  • the ringing acquisition unit 70 analyzes image characteristics such as frequency characteristics of the original image data, and acquires (estimates) the ringing amount according to whether or not the analysis result satisfies a predetermined condition. For example, the ringing amount may be acquired (estimated) according to the presence or absence of saturated pixels in the original image data.
  • the ringing acquisition unit 70 acquires the ringing amount by comparing the original image data and the sharp image data.
  • the filter acquisition unit 42 determines whether or not the ringing amount is equal to or greater than the fourth threshold from the analysis result by the ringing acquisition unit 70. When the ringing amount is smaller than the fourth threshold value, the sharpening process is not performed again, and the sharp image data after the sharpening process by the filter processing unit 44 is output from the ringing acquisition unit 70. On the other hand, when it is determined that the ringing amount is equal to or larger than the fourth threshold value, the sharpening process is performed again.
  • the filter acquisition unit 42 includes an imaging condition (aperture value or focal length: second imaging) that is not included in the imaging information acquired by the information acquisition unit 40.
  • the sharpening filter having a smaller response than the sharpening filter associated with the representative condition in (Condition) indicates a ratio for each spatial frequency of the image data after applying the sharpening filter to the image data before applying the sharpening filter. May be obtained.
  • the gain control in the filter processing unit 44 may be adjusted instead of the filter acquisition processing in the filter acquisition unit 42 described above or together with the filter acquisition processing in the filter acquisition unit 42 described above. That is, the gain control unit 62 (see FIGS. 9 and 10) of the filter processing unit 44 acquires the information acquisition unit 40 by controlling the gain when it is determined that the ringing amount is equal to or greater than the fourth threshold value. The increment amount of the sharp image data relative to the original image data may be made smaller than when the gain is controlled based on the photographing information.
  • the “specific spatial frequency range” preferably includes a spatial frequency range in which data is changed by the sharpening filter. For example, it is 1/8 or more and 1/4 or less of the sampling frequency of the original image data. Included in the range.
  • FIG. 14 is a block diagram illustrating a functional configuration example of the image processing unit 36 according to the fourth mode.
  • the image processing unit 36 of this example includes an increment value acquisition unit that acquires an increment value of sharp image data with respect to the original image data with respect to a specific spatial frequency range. 72 is further provided. Data regarding the increment value acquired by the increment value acquisition unit 72 is sent to the filter acquisition unit 42 and the filter processing unit 44.
  • the filter acquisition unit 42 determines whether or not the increment value of the sharp image data with respect to the original image data is greater than or equal to the fifth threshold with respect to the specific spatial frequency range from the processing result of the increment value acquisition unit 72.
  • the increment value is smaller than the fifth threshold value, the sharpening process is not performed again, and the sharp image data after the sharpening process by the filter processing unit 44 is output from the ringing acquisition unit 70.
  • the sharpening process is performed again.
  • the filter acquisition unit 42 determines that the increment value is greater than or equal to the fifth threshold value
  • the filter condition (aperture value or focal length: second imaging) that is not included in the imaging information acquired by the information acquisition unit 40
  • the sharpening filter having a smaller response than the sharpening filter associated with the representative condition in (Condition) indicates a ratio for each spatial frequency of the image data after applying the sharpening filter to the image data before applying the sharpening filter. May be obtained.
  • the gain control in the filter processing unit 44 may be adjusted instead of the filter acquisition processing in the filter acquisition unit 42 described above or together with the filter acquisition processing in the filter acquisition unit 42 described above. That is, when the gain control unit 62 (see FIGS. 9 and 10) of the filter processing unit 44 determines that the increment value is greater than or equal to the fifth threshold, the gain is controlled and the information acquisition unit 40 acquires the gain.
  • the increment amount of the sharp image data relative to the original image data may be made smaller than when the gain is controlled based on the photographing information.
  • the sharpening filter is specified based on the aperture value and the focal length information.
  • other shooting conditions subject distance, brightness (exposure, histogram, saturation), etc.
  • Similar effects can be obtained when the sharpening filter is specified based on the above.
  • each functional configuration described above can be realized by arbitrary hardware, software, or a combination of both.
  • the present invention can be applied to a computer that can install the program.
  • the sharpening process in the above-described embodiment includes a restoration process considering an optical transfer function.
  • This restoration process is an image that restores the original subject image by restoring and correcting point spread (point image blur) according to specific shooting condition information (for example, aperture value, focal length, lens type, zoom magnification, etc.).
  • specific shooting condition information for example, aperture value, focal length, lens type, zoom magnification, etc.
  • the sharpening process which can apply this invention is not limited to the decompression
  • the present invention also applies to restoration processing for image data captured and acquired by an optical system (such as a photographing lens) having an expanded depth of field (focal depth) (EDoF: Extended Depth of Field (Focus)).
  • Such restoration processing can be applied.
  • High-resolution image data in a wide range of focus by performing restoration processing on the image data of a blurred image captured and acquired with the depth of field (depth of focus) expanded by the EDoF optical system Can be restored.
  • it is a restoration filter based on the optical transfer function (PSF, OTF, MTF, PTF, etc.) of the EDoF optical system, and good image restoration is possible within the range of the expanded depth of field (depth of focus).
  • a restoration process using a restoration filter having a filter coefficient set so as to be performed is performed.
  • restoration processing is performed on a luminance signal (Y data) obtained from image data (RGB data) after demosaic processing
  • Y data luminance signal
  • RGB data image data
  • restoration processing may be performed on “image data before demosaic processing (mosaic image data)” or “image data after demosaic processing and before luminance signal conversion processing (demosaic image data)”.
  • FIG. 15 is a block diagram illustrating an embodiment of the imaging module 101 including the EDoF optical system.
  • the imaging module (digital camera or the like) 101 of this example includes an EDoF optical system (lens unit) 110, an imaging element 112, an AD conversion unit 114, and a restoration processing block (image processing unit 36) 120.
  • FIG. 16 is a diagram illustrating an example of the EDoF optical system 110.
  • the EDoF optical system 110 of this example includes a photographic lens 110A having a fixed focal point and an optical filter 111 disposed at the pupil position.
  • the optical filter 111 modulates the phase, and converts the EDoF optical system 110 (the photographing lens 110A) to EDoF so that an enlarged depth of field (depth of focus) (EDoF) is obtained.
  • the photographing lens 110A and the optical filter 111 constitute a lens unit that modulates the phase and expands the depth of field.
  • the EDoF optical system 110 includes other components as necessary.
  • a diaphragm (not shown) is disposed in the vicinity of the optical filter 111.
  • the optical filter 111 may be one sheet or a combination of a plurality of sheets.
  • the optical filter 111 is merely an example of an optical phase modulation unit, and the EDoF conversion of the EDoF optical system 110 (the photographing lens 110A) may be realized by other units.
  • the EDoF optical system 110 may be realized as EDoF by the photographing lens 110A designed to have a function equivalent to that of the optical filter 111 of this example.
  • the EDoF conversion of the EDoF optical system 110 can be realized by various means for changing the wavefront of the image formed on the light receiving surface of the image sensor 112.
  • optical element whose thickness changes “optical element whose refractive index changes (refractive index distributed wavefront modulation lens, etc.)”, “optical element whose thickness and refractive index change due to coding on the lens surface (wavefront) "Modulation hybrid lens, optical element formed as a phase plane on the lens surface, etc.)” and “liquid crystal element capable of modulating light phase distribution (liquid crystal spatial phase modulation element, etc.)” into EDoF optical system 110 of EDoF It can be adopted as a means.
  • the present invention can also be applied to a case that can be formed by the photographic lens 110A itself without using a modulation element.
  • the EDoF optical system 110 shown in FIG. 16 can be reduced in size because a focus adjustment mechanism that performs mechanical focus adjustment can be omitted, and can be suitably mounted on a mobile phone with a camera or a portable information terminal.
  • the optical image after passing through the EDoF-converted EDoF optical system 110 is formed on the image sensor 112 shown in FIG. 15, and is converted into an electrical signal here.
  • the image sensor 112 is composed of a plurality of pixels arranged in a matrix using a predetermined pattern arrangement (Bayer arrangement, G stripe R / G complete checkered pattern, X-Trans arrangement, honeycomb arrangement, etc.).
  • a lens, a color filter (in this example, an RGB color filter), and a photodiode are included.
  • the optical image incident on the light receiving surface of the image sensor 112 via the EDoF optical system 110 is converted into signal charges in an amount corresponding to the amount of incident light by the photodiodes arranged on the light receiving surface.
  • the R, G, and B signal charges accumulated in each photodiode are sequentially output as a voltage signal (image signal) for each pixel.
  • the AD converter 114 converts the analog R, G, B image signals output from the image sensor 112 for each pixel into digital RGB image signals.
  • the digital image signal converted into a digital image signal by the AD conversion unit 114 is added to the restoration processing block 120.
  • the restoration processing block 120 includes, for example, a black level adjustment unit 122, a white balance gain unit 123, a gamma processing unit 124, a demosaic processing unit 125, an RGB / YCrCb conversion unit 126, and a Y signal restoration processing unit 127. Including.
  • the black level adjustment unit 122 performs black level adjustment on the digital image signal output from the AD conversion unit 114.
  • a known method can be adopted for black level adjustment. For example, when attention is paid to a certain effective photoelectric conversion element, an average of dark current amount acquisition signals corresponding to each of a plurality of OB photoelectric conversion elements included in the photoelectric conversion element row including the effective photoelectric conversion element is obtained, and the effective The black level is adjusted by subtracting this average from the dark current amount acquisition signal corresponding to the photoelectric conversion element.
  • the white balance gain unit 123 performs gain adjustment according to the white balance gain of each RGB color signal included in the digital image signal in which the black level data is adjusted.
  • the gamma processing unit 124 performs gamma correction that performs gradation correction such as halftone so that the R, G, and B image signals that have undergone white balance adjustment have desired gamma characteristics.
  • the demosaic processing unit 125 performs demosaic processing on the R, G, and B image signals after the gamma correction. Specifically, the demosaic processing unit 125 performs a color interpolation process on the R, G, and B image signals, thereby generating a set of image signals (R signal, G signal) output from each light receiving pixel of the image sensor 112. , B signal). That is, before the color demosaicing process, the pixel signal from each light receiving pixel is one of the R, G, and B image signals, but after the color demosaicing process, the R, G, B signal corresponding to each light receiving pixel is displayed. A set of three pixel signals is output.
  • the RGB / YCrCb converter 126 converts the demosaic R, G, and B signals for each pixel into a luminance signal Y and color difference signals Cr and Cb, and outputs the luminance signal Y and the color difference signals Cr and Cb for each pixel. To do.
  • the Y signal restoration processing unit 127 performs restoration processing on the luminance signal Y from the RGB / YCrCb conversion unit 126 based on a restoration filter stored in advance.
  • the restoration filter corresponding to the optical filter 111 is stored in a memory (not shown) (for example, a memory provided with the Y signal restoration processing unit 127). Further, the kernel size of the deconvolution kernel is not limited to 7 ⁇ 7.
  • the Y signal restoration processing unit 127 has a sharpening process function in the image processing unit 36 described above.
  • FIG. 17 is a diagram showing an example of a restoration processing flow by the restoration processing block 120 shown in FIG.
  • a digital image signal is added from the AD conversion unit 114 to one input of the black level adjustment unit 122, black level data is added to the other input, and the black level adjustment unit 122 receives the digital image signal.
  • the black level data is subtracted from the digital image signal, and the digital image signal from which the black level data is subtracted is output to the white balance gain unit 123 (step S21).
  • the black level component is not included in the digital image signal, and the digital image signal indicating the black level becomes zero.
  • the image data after the black level adjustment is sequentially processed by the white balance gain unit 123 and the gamma processing unit 124 (steps S22 and S23).
  • the R, G, and B signals subjected to gamma correction are demosaiced by the demosaic processing unit 125, and then converted into the luminance signal Y and the color difference signals Cr and Cb by the RGB / YCrCb conversion unit 126 (step S24).
  • the Y signal restoration processing unit 127 performs restoration processing for applying the deconvolution processing for the phase modulation of the optical filter 111 of the EDoF optical system 110 to the luminance signal Y (step S25).
  • the Y signal restoration processing unit 127 stores a luminance signal (in this case, a luminance signal of 7 ⁇ 7 pixels) corresponding to a predetermined unit pixel group centered on an arbitrary pixel to be processed, and is stored in a memory or the like in advance.
  • the deconvolution process (deconvolution calculation process) is performed with the restoration filter (7 ⁇ 7 deconvolution kernel and its calculation coefficient).
  • the Y signal restoration processing unit 127 performs restoration processing for removing image blur of the entire image by repeating the deconvolution processing for each pixel group of a predetermined unit so as to cover the entire area of the imaging surface.
  • the restoration filter is determined according to the position of the center of the pixel group to be subjected to the deconvolution process. That is, a common restoration filter is applied to adjacent pixel groups. Further, in order to simplify the restoration process, it is preferable to apply a common restoration filter to all the pixel groups.
  • the point image (optical image) of the luminance signal after passing through the EDoF optical system 110 is formed on the image sensor 112 as a large point image (blurred image).
  • a small point image (high resolution image) is restored as shown in FIG.
  • the restoration process As described above, by applying the restoration process to the luminance signal after the demosaic process, it is not necessary to have the parameters of the restoration process separately for RGB, and the restoration process can be speeded up.
  • R, G, and B image signals corresponding to the R, G, and B pixels at the skipped positions are not collectively deconvoluted into one unit, but the luminance signals of adjacent pixels are set to a predetermined unit.
  • the deconvolution process is performed by applying a common restoration filter to the unit, the accuracy of the restoration process is improved. Note that the color difference signals Cr and Cb are acceptable in terms of image quality even if the resolution is not increased by restoration processing due to the visual characteristics of human eyes.
  • the color difference signal is compressed at a higher compression rate than the luminance signal, so that there is little need to increase the resolution by restoration processing.
  • it is possible to achieve both improvement in restoration accuracy and simplification and speeding up of processing.
  • the point image restoration process according to the above-described embodiment can be applied to the restoration process of the EDoF system as described above.
  • the aspect to which the present invention can be applied is not limited to a digital camera and a computer (server).
  • the cameras whose main function is imaging functions other than imaging (call function)
  • the present invention can be applied to mobile devices having a communication function and other computer functions.
  • Other modes to which the present invention can be applied include, for example, a mobile phone having a camera function, a smartphone, a PDA (Personal Digital Assistants), and a portable game machine.
  • a smartphone to which the present invention can be applied will be described.
  • FIG. 19 is a diagram illustrating an appearance of the smartphone 201.
  • a smartphone 201 illustrated in FIG. 19 includes a flat housing 202, and a display input in which a display panel 221 serving as a display unit and an operation panel 222 serving as an input unit are integrated on one surface of the housing 202. Part 220 is provided.
  • the housing 202 includes a speaker 231, a microphone 232, an operation unit 240, and a camera unit 241. Note that the configuration of the housing 202 is not limited to this, and, for example, a configuration in which the display unit and the input unit are independent, or a configuration having a folding structure or a slide mechanism may be employed.
  • FIG. 20 is a block diagram showing a configuration of the smartphone 201 shown in FIG.
  • the main components of the smartphone include a wireless communication unit 210, a display input unit 220, a call unit 230, an operation unit 240, a camera unit 241, a storage unit 250, and an external input / output unit. 260, a GPS (Global Positioning System) receiving unit 270, a motion sensor unit 280, a power supply unit 290, and a main control unit 200 (including the main body controller 28 described above).
  • a wireless communication function for performing mobile wireless communication via the base station device BS and the mobile communication network NW is provided as a main function of the smartphone 201.
  • the wireless communication unit 210 performs wireless communication with the base station apparatus BS accommodated in the mobile communication network NW according to an instruction from the main control unit 200. Using such wireless communication, transmission / reception of various file data such as audio data and image data, e-mail data, and reception of Web data, streaming data, and the like are performed.
  • the display input unit 220 displays images (still images and moving images), character information, and the like visually under the control of the main control unit 200, visually transmits information to the user, and detects a user operation on the displayed information.
  • This is a so-called touch panel, and includes a display panel 221 and an operation panel 222.
  • the display panel 221 uses an LCD (Liquid Crystal Display), an OELD (Organic Electro-Luminescence Display), or the like as a display device.
  • the operation panel 222 is a device that is placed so that an image displayed on the display surface of the display panel 221 is visible and detects one or a plurality of coordinates operated by a user's finger or stylus.
  • a detection signal generated due to the operation is output to the main control unit 200.
  • the main control unit 200 detects an operation position (coordinates) on the display panel 221 based on the received detection signal.
  • the display panel 221 and the operation panel 222 of the smartphone 201 illustrated as an embodiment of the imaging apparatus of the present invention integrally constitute a display input unit 220.
  • the arrangement 222 covers the display panel 221 completely.
  • the operation panel 222 may have a function of detecting a user operation even in an area outside the display panel 221.
  • the operation panel 222 includes a detection area (hereinafter referred to as a display area) for an overlapping portion that overlaps the display panel 221 and a detection area (hereinafter, a non-display area) for an outer edge portion that does not overlap the other display panel 221. May be included).
  • the operation panel 222 may include two sensitive regions of the outer edge portion and the other inner portion. Further, the width of the outer edge portion is appropriately designed according to the size of the housing 202 and the like. Furthermore, examples of the position detection method adopted by the operation panel 222 include a matrix switch method, a resistance film method, a surface acoustic wave method, an infrared method, an electromagnetic induction method, and a capacitance method. You can also
  • the call unit 230 includes a speaker 231 and a microphone 232, converts user's voice input through the microphone 232 into voice data that can be processed by the main control unit 200, and outputs the voice data to the main control unit 200, or a wireless communication unit 210 or the audio data received by the external input / output unit 260 is decoded and output from the speaker 231.
  • the speaker 231 can be mounted on the same surface as the surface on which the display input unit 220 is provided, and the microphone 232 can be mounted on the side surface of the housing 202.
  • the operation unit 240 is a hardware key using a key switch or the like, and receives an instruction from the user.
  • the operation unit 240 is mounted on the side surface of the housing 202 of the smartphone 201 and is turned on when pressed by a finger or the like, and is turned off by a restoring force such as a spring when the finger is released. It is a push button type switch.
  • the storage unit 250 includes control programs and control data of the main control unit 200, application software, address data in which names and telephone numbers of communication partners are associated, transmitted / received e-mail data, Web data downloaded by Web browsing, The downloaded content data is stored, and streaming data and the like are temporarily stored.
  • the storage unit 250 includes an internal storage unit 251 built in the smartphone and an external storage unit 252 having a removable external memory slot.
  • Each of the internal storage unit 251 and the external storage unit 252 constituting the storage unit 250 includes a flash memory type, a hard disk type, a multimedia card micro type, a multimedia card micro type, This is realized using a storage medium such as a card type memory (for example, MicroSD (registered trademark) memory), a RAM (Random Access Memory), a ROM (Read Only Memory), or the like.
  • a card type memory for example, MicroSD (registered trademark) memory
  • RAM Random Access Memory
  • ROM Read Only Memory
  • the external input / output unit 260 serves as an interface with all external devices connected to the smartphone 201, and communicates with other external devices (for example, universal serial bus (USB), IEEE 1394, etc.) or a network.
  • external devices for example, universal serial bus (USB), IEEE 1394, etc.
  • a network for example, Internet, wireless LAN, Bluetooth (registered trademark), RFID (Radio Frequency Identification), Infrared Data Association (IrDA) (registered trademark), UWB (Ultra Wideband) (registered trademark) ZigBee) (registered trademark, etc.) for direct or indirect connection.
  • an external device connected to the smartphone 201 for example, a wired / wireless headset, a wired / wireless external charger, a wired / wireless data port, a memory card (Memory card) connected via a card socket, or a SIM (Subscriber).
  • Identity Module Card / UIM User Identity Module Card
  • external audio / video equipment connected via audio / video I / O (Input / Output) terminal
  • external audio / video equipment connected wirelessly yes / no
  • the external input / output unit can transmit data received from such an external device to each component inside the smartphone 201 and can transmit data inside the smartphone 201 to the external device.
  • the GPS receiving unit 270 receives GPS signals transmitted from the GPS satellites ST1 to STn according to instructions from the main control unit 200, executes positioning calculation processing based on the received plurality of GPS signals, A position consisting of longitude and altitude is detected.
  • the GPS receiving unit 270 can acquire position information from the wireless communication unit 210 or the external input / output unit 260 (for example, a wireless LAN), the GPS receiving unit 270 can also detect the position using the position information.
  • the motion sensor unit 280 includes, for example, a three-axis acceleration sensor, and detects the physical movement of the smartphone 201 in accordance with an instruction from the main control unit 200. By detecting the physical movement of the smartphone 201, the moving direction and acceleration of the smartphone 201 are detected. The detection result is output to the main control unit 200.
  • the power supply unit 290 supplies power stored in a battery (not shown) to each unit of the smartphone 201 in accordance with an instruction from the main control unit 200.
  • the main control unit 200 includes a microprocessor, operates according to a control program and control data stored in the storage unit 250, and controls each unit of the smartphone 201 in an integrated manner.
  • the main control unit 200 includes a mobile communication control function for controlling each unit of the communication system and an application processing function in order to perform voice communication and data communication through the wireless communication unit 210.
  • the application processing function is realized by the main control unit 200 operating according to the application software stored in the storage unit 250.
  • Application processing functions include, for example, an infrared communication function for controlling external input / output unit 260 to perform data communication with an opposite device, an e-mail function for sending and receiving e-mails, and a web browsing function for browsing web pages. .
  • the main control unit 200 also has an image processing function such as displaying video on the display input unit 220 based on image data (still image or moving image data) such as received data or downloaded streaming data.
  • the image processing function refers to a function in which the main control unit 200 decodes the image data, performs image processing on the decoding result, and displays an image on the display input unit 220.
  • the main control unit 200 executes display control for the display panel 221 and operation detection control for detecting a user operation through the operation unit 240 and the operation panel 222.
  • the main control unit 200 By executing the display control, the main control unit 200 displays an icon for starting application software, a software key such as a scroll bar, or a window for creating an e-mail.
  • a software key such as a scroll bar, or a window for creating an e-mail.
  • the scroll bar refers to a software key for accepting an instruction to move a display portion of an image such as a large image that cannot fit in the display area of the display panel 221.
  • the main control unit 200 detects a user operation through the operation unit 240 or receives an operation on the icon or an input of a character string in the input field of the window through the operation panel 222. Or a display image scroll request through a scroll bar.
  • the main control unit 200 causes the operation position with respect to the operation panel 222 to overlap with the display panel 221 (display area) or other outer edge part (non-display area) that does not overlap with the display panel 221.
  • a touch panel control function for controlling the sensitive area of the operation panel 222 and the display position of the software key.
  • the main control unit 200 can also detect a gesture operation on the operation panel 222 and execute a preset function according to the detected gesture operation.
  • Gesture operation is not a conventional simple touch operation, but an operation of drawing a trajectory with at least one position from a plurality of positions by drawing a trajectory with a finger or the like, or specifying a plurality of positions simultaneously. means.
  • the camera unit 241 is a CMOS (Complementary Metal Oxide). This is a digital camera that performs electronic photography using an imaging element such as a semiconductor (CCD) or a charge-coupled device (CCD). In addition, the camera unit 241 converts image data obtained by imaging into compressed image data such as JPEG (Joint Photographic Coding Experts Group) under the control of the main control unit 200, and records the data in the storage unit 250 or externally. The data can be output through the input / output unit 260 and the wireless communication unit 210. In the smartphone 201 shown in FIG.
  • CMOS Complementary Metal Oxide
  • the camera unit 241 is mounted on the same surface as the display input unit 220, but the mounting position of the camera unit 241 is not limited to this and may be mounted on the back surface of the display input unit 220. Alternatively, a plurality of camera units 241 may be mounted. Note that in the case where a plurality of camera units 241 are mounted, the camera unit 241 used for shooting can be switched to perform shooting alone, or a plurality of camera units 241 can be used for shooting simultaneously.
  • the camera unit 241 can be used for various functions of the smartphone 201.
  • an image acquired by the camera unit 241 can be displayed on the display panel 221, or the image of the camera unit 241 can be used as one of operation inputs of the operation panel 222.
  • the GPS receiving unit 270 detects the position, the position can also be detected with reference to an image from the camera unit 241.
  • the optical axis direction of the camera unit 241 of the smartphone 201 can be determined without using the triaxial acceleration sensor or in combination with the triaxial acceleration sensor. It is also possible to determine the current usage environment.
  • the image from the camera unit 241 can also be used in the application software.
  • the position information acquired by the GPS receiving unit 270 to the image data of the still image or the moving image, the voice information acquired by the microphone 232 (the text information may be converted into voice information by the main control unit or the like), Posture information and the like acquired by the motion sensor unit 280 can be added and recorded in the storage unit 250, or can be output through the external input / output unit 260 and the wireless communication unit 210.
  • the image processing unit 36 described above can be realized by the main control unit 200, for example.
  • SYMBOLS 10 Digital camera, 12 ... Lens unit, 14 ... Camera body, 16 ... Lens, 17 ... Aperture, 18 ... Optical system operation part, 20 ... Lens unit controller, 22 ... Lens unit input / output part, 26 ... Imaging element, 28 DESCRIPTION OF SYMBOLS ... Main body controller, 29 ... Image memory

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Image Processing (AREA)
  • Facsimile Image Signal Circuits (AREA)
  • Studio Devices (AREA)

Abstract

取得可能な絞り値や焦点距離等の撮影条件に基づいて精度の高い鮮鋭化フィルタを取得することを可能にする画像処理装置、撮像装置、画像処理方法及びプログラムを提供する。画像処理部36は、情報取得部40、フィルタ取得部42及びフィルタ処理部44を備える。情報取得部40は、光学系を用いた被写体像の撮影により取得される原画像データの撮影情報を取得する。フィルタ取得部42は、撮影情報に第1の撮影条件が含まれるが第2の撮影条件が含まれない場合に、第1の撮影条件に関連付けられた鮮鋭化フィルタであって第2の撮影条件の代表条件に関連付けられた鮮鋭化フィルタを取得する。フィルタ処理部44は、フィルタ取得部42が取得した鮮鋭化フィルタを原画像データに適用して鮮鋭画像データを取得する。

Description

画像処理装置、撮像装置、画像処理方法及びプログラム
 本発明は画像処理装置、撮像装置、画像処理方法及びプログラムに係り、特に鮮鋭化処理に関する。
 デジタルカメラ等の撮像装置によって撮影取得された画像データの画質を改善するために、鮮鋭化処理が一般的に行われている。鮮鋭化処理は、画像データに鮮鋭化フィルタを適用することで画像のボケ等を解消する処理であり、例えば輪郭強調処理や点像復元処理等が知られている。
 例えば特許文献1に開示のカメラユニットでは、ウィーナーフィルタ等の画像回復フィルタを用いた画像回復処理が行われる。
 また特許文献2に開示の画像処理方法では、撮像系の光学伝達関数に基づく画像回復フィルタを用いて、画像の位相劣化成分を低減するための画像回復処理が行われる。
 また特許文献3の撮像システムでは、鮮鋭度を高める空間周波数成分が画像から抽出され、撮影光学系のMTF(Modulation Transfer Function)データに基づいて設定されるパラメータ(ゲイン等)を使って抽出成分を増幅する鮮鋭化処理が行われる。
特開2011-119874号公報 特開2011-123589号公報 特開2002-344798号公報
 鮮鋭化処理の対象となっている画像データに適用する鮮鋭化フィルタは、撮影条件や光学系の光学特性に応じて定められることが好ましい。実際の撮影条件とは異なる撮影条件に対応する鮮鋭化フィルタや、撮影に使用した光学系の光学特性とは異なる光学特性に対応する鮮鋭化フィルタを用いて鮮鋭化処理を行うと、十分な鮮鋭化効果が得られないだけではなく、却って画質を悪化させることがある。
 そのため鮮鋭化処理を行う場合には、撮影条件や光学系の光学特性を正確に把握して適切なフィルタの選定を行うことが好ましい。特に、光学伝達関数(点拡がり関数等)に基づいて鮮鋭化フィルタを作成する場合には、撮影に使用した光学系の光学特性や他の撮影条件(絞り値(F値)、焦点距離等)に応じた適切な光学伝達関数を特定することが求められる。
 例えば特許文献1のカメラユニットは、レンズユニットから画像回復情報(画像回復フィルタ)が送信される。また特許文献2の画像処理方法では、実際の撮像状態と画像回復フィルタが格納された複数の撮像状態との間の撮像状態空間で距離(状態相違量)を算出し、最も距離の短い位置の画像回復フィルタが選択される。また特許文献3の撮像システムでは、画像に含まれる空間周波数に対応した光学系のMTFデータを用いて画像の鮮鋭化処理のためのパラメータが設定される。
 これらの特許文献1~3に記載の装置では、それぞれの装置において必要とされる画像回復処理(鮮鋭化処理)のための情報が適切に取得される場合には処理を適切に行うことができるが、処理に必要な情報の一部が取得できない場合には処理を遂行することができない。
 実際の鮮鋭化処理では、光学系の光学特性や他の撮影条件を取得することができない場合がある。例えば光学伝達関数に基づく鮮鋭化処理をデジタルカメラにおいて行う場合、通常は、レンズユニットやカメラ本体に保存されている光学伝達関数や鮮鋭化フィルタが利用されるが、レンズユニット及びカメラ本体のいずれにも実際に使用したレンズユニット(光学系)の光学伝達関数や鮮鋭化フィルタが保存されていない場合がある。
 また絞り値や焦点距離等の撮影条件をレンズユニットとの通信によってカメラ本体が取得するケースでは、撮影に使用したレンズユニットがカメラ本体に対応しておらずカメラ本体との通信機能を持たない場合がある。この場合、カメラ本体はレンズユニットから撮影条件を取得することができない。また撮影に使用したレンズユニットがカメラ本体との通信機能を持つ場合であっても、使用環境(衝撃、温度等)によって通信不良が生じ、カメラ本体がレンズユニットから撮影条件を取得することができないケースもある。また撮影に使用したレンズユニットがカメラ本体との通信機能を持ち通信不良も生じない場合であっても、全ての撮影条件は得られず一部の撮影条件しか取得できないケースもある。
 上述のように様々な要因によって光学系の光学伝達関数や撮影条件を取得することができない場合がある一方で、そのような条件下であっても鮮鋭化処理を可能な限り適切に実施したいとの要望がある。
 本発明は上述の事情に鑑みてなされたものであり、光学系の光学伝達関数や撮影条件を取得することができない場合であっても、取得可能な絞り値や焦点距離等の撮影条件に基づいて精度の高い鮮鋭化フィルタを取得することを可能にする技術を提供することを目的とする。
 本発明の一態様は、光学系を用いた被写体像の撮影により取得される原画像データの撮影情報を取得する情報取得部と、少なくとも第1の撮影条件及び第2の撮影条件に基づいて鮮鋭化フィルタを取得するフィルタ取得部と、フィルタ取得部が取得した鮮鋭化フィルタを原画像データに適用し、鮮鋭画像データを取得するフィルタ処理部と、を備え、フィルタ取得部は、情報取得部が取得する撮影情報に第1の撮影条件が含まれるが第2の撮影条件が含まれない場合に、撮影情報に含まれる第1の撮影条件に関連付けられた鮮鋭化フィルタであって第2の撮影条件の代表条件に関連付けられた鮮鋭化フィルタを取得する画像処理装置に関する。
 本態様によれば、撮影情報に第1の撮影条件が含まれるが第2の撮影条件が含まれていないために鮮鋭化フィルタを適切に取得できない場合であっても、取得可能な第1の撮影条件に基づいて精度の高い鮮鋭化フィルタを取得することができる。
 望ましくは、第1の撮影条件及び第2の撮影条件のうち、一方は絞り値であり、他方は焦点距離である。
 本態様によれば、原画像データの絞り値又は焦点距離の情報が取得できない場合であっても、取得可能な絞り値又は焦点距離の情報に基づいて精度の高い鮮鋭化フィルタを取得することができる。
 望ましくは、鮮鋭化フィルタは、光学系の光学伝達関数に基づくフィルタである。
 本態様によれば、光学系の光学伝達関数に基づいて定められる鮮鋭化フィルタを取得することができる。なお光学伝達関数(Optical Transfer Function:OTF)には、点拡がり関数(Point Spread Function:PSF)、変調伝達関数(Modulation Transfer Function:MTF)及び位相伝達関数(Phase Transfer Function:PTF)が含まれる。
 望ましくは、鮮鋭化フィルタは、光学系の光学伝達関数に基づかないフィルタである。
 本態様によれば、光学系の光学伝達関数とは無関係に定められる鮮鋭化フィルタを取得することができる。
 望ましくは、フィルタ取得部は、複数の像高に関連付けられた複数の鮮鋭化フィルタを取得し、フィルタ処理部は、像高に応じて、原画像データに鮮鋭化フィルタを適用する。
 本態様によれば、像高に応じた高い精度の鮮鋭化フィルタを取得することができる。
 望ましくは、フィルタ取得部は、少なくとも第1の撮影条件及び第2の撮影条件に応じて定められる複数の鮮鋭化フィルタを記憶するフィルタ記憶部と、フィルタ記憶部に記憶される複数の鮮鋭化フィルタの中から、撮影情報に基づく鮮鋭化フィルタを選択するフィルタ選択部と、を有する。
 本態様によれば、フィルタ記憶部に記憶されている複数の鮮鋭化フィルタの中から鮮鋭化フィルタを取得することができる。
 望ましくは、フィルタ取得部は、少なくとも第1の撮影条件及び第2の撮影条件に応じて定められる複数の光学伝達関数を取得する関数取得部と、関数取得部が取得した複数の光学伝達関数の中から選択される光学伝達関数であって、撮影情報に基づく光学伝達関数から鮮鋭化フィルタを生成して取得するフィルタ生成部と、を有する。
 本態様によれば、撮影情報に基づいて光学伝達関数から生成される鮮鋭化フィルタを取得することができる。
 望ましくは、第2の撮影条件の代表条件は、第1の撮影条件に関連付けられた複数の鮮鋭化フィルタの各々の空間周波数特性に基づいて定められる。
 本態様によれば、複数の鮮鋭化フィルタの各々の空間周波数特性に基づいて、第2の撮影条件の代表条件が定められ、代表条件に関連付けられた鮮鋭化フィルタを精度良く取得できる。
 鮮鋭化フィルタの空間周波数特性は、例えば鮮鋭化フィルタを適用する前の画像データに対する鮮鋭化フィルタを適用した後の画像データの空間周波数毎の比率を表すレスポンスに基づいて定められてもよい。したがって第2の撮影条件の代表条件は、第1の撮影条件に関連付けられた複数の鮮鋭化フィルタの各々のレスポンス特性に基づいて定められてもよく、この場合、第2の撮影条件の代表条件に関連付けられた鮮鋭化フィルタを精度良く取得できる。
 望ましくは、第2の撮影条件の代表条件は、第1の撮影条件に関連付けられた複数の鮮鋭化フィルタであって、複数の第2の撮影条件に関連付けられた複数の鮮鋭化フィルタの各々に関し、鮮鋭化フィルタを適用する前の画像データに対する鮮鋭化フィルタを適用した後の画像データの空間周波数毎の比率を表すレスポンスの最大値を基準に定められる。
 本態様によれば、鮮鋭化フィルタのレスポンスの最大値を基準に第2の撮影条件の代表条件が定められ、代表条件に関連付けられた鮮鋭化フィルタを精度良く取得できる。
 望ましくは、第2の撮影条件の代表条件は、第1の撮影条件に関連付けられた複数の鮮鋭化フィルタであって、複数の第2の撮影条件に関連付けられた複数の鮮鋭化フィルタの各々に関し、横軸の基準を空間周波数とし、縦軸の基準を、鮮鋭化フィルタを適用する前の画像データに対する鮮鋭化フィルタを適用した後の画像データの空間周波数毎の比率を表すレスポンスとした座標系における、空間周波数毎のレスポンスを表す関数において、第1の閾値よりも大きなレスポンスを示す範囲の面積を基準に定められる。
 本態様によれば、鮮鋭化フィルタのレスポンスの大きさを基準に第2の撮影条件の代表条件が定められ、代表条件に関連付けられた鮮鋭化フィルタを精度良く取得できる。
 望ましくは、第1の閾値は1以上の値である。
 本態様によれば、鮮鋭化フィルタの1よりも大きいレスポンス部分を基準に第2の撮影条件の代表条件が定められ、代表条件に関連付けられた鮮鋭化フィルタを精度良く取得できる。
 望ましくは、画像処理装置は、原画像データの空間周波数特性を解析する周波数解析部を更に備え、フィルタ取得部は、周波数解析部による解析結果から原画像データの特定の空間周波数の範囲の成分量が第2の閾値以上と判定される場合には、第2の撮影条件の代表条件に関連付けられた鮮鋭化フィルタよりも、鮮鋭化フィルタを適用する前の画像データに対する鮮鋭化フィルタを適用した後の画像データの空間周波数毎の比率を表すレスポンスが小さい鮮鋭化フィルタを取得する。
 本態様によれば、原画像データの特定の空間周波数の範囲の成分量が大きい場合には、レスポンスの小さい鮮鋭化フィルタが取得される。
 望ましくは、画像処理装置は、原画像データの空間周波数特性を解析する周波数解析部を更に備え、フィルタ処理部は、周波数解析部による解析結果から原画像データの特定の空間周波数の範囲の成分量が第2の閾値以上と判定される場合には、ゲインをコントロールすることにより原画像データに対する鮮鋭画像データの増分量を小さくする。
 例えば画像処理装置は、原画像データの空間周波数特性を解析する周波数解析部を更に備え、フィルタ処理部は、フィルタ取得部が取得した鮮鋭化フィルタを原画像データに適用してフィルタリング画像データを取得するフィルタ適用部と、撮影情報に基づいて、原画像データに対するフィルタリング画像データのゲインをコントロールすることにより鮮鋭画像データを取得するゲイン制御部とを有し、ゲイン制御部は、周波数解析部による解析結果から原画像データの特定の空間周波数の範囲の成分量が第2の閾値以上と判定される場合には、ゲインをコントロールし、撮影情報に基づいてゲインをコントロールする場合よりも、原画像データに対する鮮鋭画像データの増分量を小さくしてもよい。
 本態様によれば、原画像データの特定の空間周波数の範囲の成分量が大きい場合には、ゲインコントロールが行われ、原画像データに対する鮮鋭画像データの増分量が小さくされる。
 望ましくは、画像処理装置は、原画像データの飽和画素を解析する飽和画素解析部を更に備え、フィルタ取得部は、飽和画素解析部による解析結果から原画像データに第3の閾値以上の画素値を有する飽和画素が含まれると判定される場合には、第2の撮影条件の代表条件に関連付けられた鮮鋭化フィルタよりも、鮮鋭化フィルタを適用する前の画像データに対する鮮鋭化フィルタを適用した後の画像データの空間周波数毎の比率を表すレスポンスが小さい鮮鋭化フィルタを取得する。
 本態様によれば、飽和画素が含まれる原画像データに関しては、レスポンスの小さい鮮鋭化フィルタが取得される。
 望ましくは、画像処理装置は、原画像データの飽和画素を解析する飽和画素解析部を更に備え、フィルタ処理部は、飽和画素解析部による解析結果から原画像データに第3の閾値以上の画素値を有する飽和画素が含まれると判定される場合には、ゲインをコントロールすることにより原画像データに対する鮮鋭画像データの増分量を小さくする。
 例えば画像処理装置は、原画像データの飽和画素を解析する飽和画素解析部を更に備え、フィルタ処理部は、フィルタ取得部が取得した鮮鋭化フィルタを原画像データに適用してフィルタリング画像データを取得するフィルタ適用部と、撮影情報に基づいて、原画像データに対するフィルタリング画像データのゲインをコントロールすることにより鮮鋭画像データを取得するゲイン制御部とを有し、ゲイン制御部は、飽和画素解析部による解析結果から原画像データに第3の閾値以上の画素値を有する飽和画素が含まれると判定される場合には、ゲインをコントロールすることにより、撮影情報に基づいてゲインをコントロールする場合よりも、原画像データに対する鮮鋭画像データの増分量を小さくしてもよい。
 本態様によれば、飽和画素が含まれる原画像データに関しては、ゲインコントロールが行われ、原画像データに対する鮮鋭画像データの増分量が小さくされる。
 なお「原画像データに飽和画素が含まれると判定されるケース」は、鮮鋭化フィルタによって鮮鋭化処理の対象になっている画素自身が飽和画素であるケースだけには限定されず、その鮮鋭化処理の対象になっている画素の周辺画素が飽和画素であるケースも含まれうる。
 望ましくは、画像処理装置は、鮮鋭画像データのリンギング量を取得するリンギング取得部を更に備え、フィルタ取得部は、リンギング量が第4の閾値以上の場合には、第2の撮影条件の代表条件に関連付けられた鮮鋭化フィルタよりも、鮮鋭化フィルタを適用する前の画像データに対する鮮鋭化フィルタを適用した後の画像データの空間周波数毎の比率を表すレスポンスが小さい鮮鋭化フィルタを取得する。
 本態様によれば、鮮鋭画像データにおけるリンギング量が大きい場合には、レスポンスの小さい鮮鋭化フィルタが取得される。
 望ましくは、画像処理装置は、鮮鋭画像データのリンギング量を取得するリンギング取得部を更に備え、フィルタ処理部は、リンギング量が第4の閾値以上の場合には、ゲインをコントロールすることにより原画像データに対する鮮鋭画像データの増分量を小さくする。
 例えば画像処理装置は、鮮鋭画像データのリンギング量を取得するリンギング取得部を更に備え、フィルタ処理部は、フィルタ取得部が取得した鮮鋭化フィルタを原画像データに適用してフィルタリング画像データを取得するフィルタ適用部と、撮影情報に基づいて、原画像データに対するフィルタリング画像データのゲインをコントロールすることにより鮮鋭画像データを取得するゲイン制御部とを有し、ゲイン制御部は、リンギング量が第4の閾値以上の場合には、ゲインをコントロールし、撮影情報に基づいてゲインをコントロールする場合よりも、原画像データに対する鮮鋭画像データの増分量を小さくしてもよい。
 本態様によれば、鮮鋭画像データにおけるリンギング量が大きい場合には、ゲインコントロールが行われ、原画像データに対する鮮鋭画像データの増分量が小さくされる。
 なお、鮮鋭画像データのリンギング量の取得手法は特に限定されず、リンギング取得部は、予め定められた条件に基づいてリンギング量を取得してもよい。例えば、原画像データと鮮鋭画像データとを比較することによりリンギング量が取得されてもよいし、鮮鋭画像データの周波数特性等の画像特性を解析して、その解析結果が予め定められた条件に該当するか否かに応じてリンギング量が取得(推定)されてもよい。また原画像データの取得が予め定められた取得条件において行われたか否かに応じてリンギング量が取得(推定)されてもよく、例えば原画像データを取得する撮影に用いられた光学系の情報がここでいう取得条件に含まれうる。鮮鋭化処理の鮮鋭化精度や副作用(リンギング等)に影響を及ぼしうる各種要素が「取得条件」に含まれうる。例えば、ここでいう光学系の情報は、原画像データを取得する撮影に用いられた光学系のレンズ種類、絞り値、ズーム値のうち少なくともいずれか1つを含みうる。また原画像データの周波数特性等の画像特性を解析して、その解析結果が予め定められた条件に該当するか否かに応じてリンギング量が取得(推定)されてもよく、例えば原画像データにおける飽和画素の有無に応じてリンギング量が取得(推定)されてもよい。
 望ましくは、画像処理装置は、特定の空間周波数の範囲に関して原画像データに対する鮮鋭画像データの増分値を取得する増分値取得部を更に備え、フィルタ取得部は、増分値が第5の閾値以上の場合には、第2の撮影条件の代表条件に関連付けられた鮮鋭化フィルタよりも、鮮鋭化フィルタを適用する前の画像データに対する鮮鋭化フィルタを適用した後の画像データの空間周波数毎の比率を表すレスポンスが小さい鮮鋭化フィルタを取得する。
 本態様によれば、特定の空間周波数の範囲に関して原画像データに対する鮮鋭画像データの増分値が大きい場合には、レスポンスの小さい鮮鋭化フィルタが取得される。
 望ましくは、画像処理装置は、特定の空間周波数の範囲に関して原画像データに対する鮮鋭画像データの増分値を取得する増分値取得部を更に備え、フィルタ処理部は、増分値が第5の閾値以上の場合には、ゲインをコントロールすることにより原画像データに対する鮮鋭画像データの増分量を小さくする。
 例えば画像処理装置は、特定の空間周波数の範囲に関して原画像データに対する鮮鋭画像データの増分値を取得する増分値取得部を更に備え、フィルタ処理部は、フィルタ取得部が取得した鮮鋭化フィルタを原画像データに適用してフィルタリング画像データを取得するフィルタ適用部と、撮影情報に基づいて、原画像データに対するフィルタリング画像データのゲインをコントロールし鮮鋭画像データを取得するゲイン制御部とを有し、ゲイン制御部は、増分値が第5の閾値以上の場合には、ゲインをコントロールして、撮影情報に基づいてゲインをコントロールする場合よりも、原画像データに対する鮮鋭画像データの増分量を小さくしてもよい。
 本態様によれば、特定の空間周波数の範囲に関して原画像データに対する鮮鋭画像データの増分値が大きい場合には、ゲインコントロールが行われ、原画像データに対する鮮鋭画像データの増分量が小さくされる。
 望ましくは、特定の空間周波数の範囲は、原画像データのサンプリング周波数の1/8以上であって1/4以下の範囲に含まれる。
 本発明の他の態様は、撮像素子と、上記の画像処理装置とを備え、原画像データは撮像素子によって取得される撮像装置に関する。
 本発明の他の態様は、光学系を用いた被写体像の撮影により取得される原画像データの撮影情報を取得し、少なくとも第1の撮影条件及び第2の撮影条件に基づいて鮮鋭化フィルタを取得し、鮮鋭化フィルタを原画像データに適用して鮮鋭画像データを取得する画像処理方法であって、撮影情報に第1の撮影条件が含まれるが第2の撮影条件が含まれない場合に、撮影情報に含まれる第1の撮影条件に関連付けられた鮮鋭化フィルタであって第2の撮影条件の代表条件に関連付けられた鮮鋭化フィルタを取得する画像処理方法に関する。
 本発明の他の態様は、光学系を用いた被写体像の撮影により取得される原画像データの撮影情報を取得する手順と、少なくとも第1の撮影条件及び第2の撮影条件に基づいて鮮鋭化フィルタを取得する手順と、鮮鋭化フィルタを原画像データに適用して鮮鋭画像データを取得する手順とをコンピュータに実行させるためのプログラムであって、撮影情報に第1の撮影条件が含まれるが第2の撮影条件が含まれない場合に、撮影情報に含まれる第1の撮影条件に関連付けられた鮮鋭化フィルタであって第2の撮影条件の代表条件に関連付けられた鮮鋭化フィルタを取得するプログラムに関する。
 本発明によれば、撮影情報に第1の撮影条件が含まれるが第2の撮影条件が含まれていないために鮮鋭化フィルタを適切に取得できない場合であっても、取得可能な第1の撮影条件に基づいて精度の高い鮮鋭化フィルタを取得することができる。
コンピュータに接続されるデジタルカメラの概略を示すブロック図である。 カメラ本体コントローラの機能構成の概略を示すブロック図である。 第1実施形態に係る画像処理部の機能構成例を示すブロック図である。 フィルタ取得部の機能構成の一例を示すブロック図である。 フィルタ取得部の機能構成の他の例を示すブロック図である。 鮮鋭化フィルタの空間周波数毎のレスポンスの一例を示す図である。 鮮鋭化フィルタの空間周波数毎のレスポンスの一例を示す図である。 鮮鋭化処理の流れの一例を示すフローチャートである。 フィルタ処理部の機能構成の一例を示すブロック図である。 フィルタ処理部の機能構成の具体例を示すブロック図である。 第2実施形態の第1のモードに係る画像処理部の機能構成例を示すブロック図である。 第2実施形態の第2のモードに係る画像処理部の機能構成例を示すブロック図である。 第2実施形態の第3のモードに係る画像処理部の機能構成例を示すブロック図である。 第2実施形態の第4のモードに係る画像処理部の機能構成例を示すブロック図である。 EDoF光学系を備える撮像モジュールの一形態を示すブロック図である。 EDoF光学系の一例を示す図である。 図15に示す復元処理ブロックによる復元処理フローの一例を示す図である。 EDoF光学系を介して取得された画像の復元例を示す図であり、(a)は復元処理前のボケた画像を示し、(b)は復元処理後のボケが解消された画像(点像)を示す。 スマートフォンの外観を示す図である。 図19に示すスマートフォンの構成を示すブロック図である。
 添付図面を参照して本発明の実施形態について説明する。以下の説明では、一例として、コンピュータ(PC:パーソナルコンピュータ)に接続可能なデジタルカメラ(撮像装置)に本発明を適用する例について説明する。
 図1は、コンピュータに接続されるデジタルカメラの概略を示すブロック図である。
 デジタルカメラ10は、交換可能なレンズユニット12と、撮像素子26を具備するカメラ本体14とを備える。レンズユニット12とカメラ本体14とは、レンズユニット12のレンズユニット入出力部22とカメラ本体14のカメラ本体入出力部30とを介して電気的に接続される。
 レンズユニット12は、レンズ16及び絞り17等を含む光学系と、この光学系を制御する光学系操作部18とを具備する。光学系操作部18は、レンズユニット入出力部22に接続されるレンズユニットコントローラ20と、光学系を操作するアクチュエータ(図示省略)とを含む。レンズユニットコントローラ20は、レンズユニット入出力部22を介してカメラ本体14から送られてくる制御信号に基づき、アクチュエータを介して光学系を制御し、例えば、レンズ移動によるフォーカス制御やズーム制御、絞り17の絞り値(絞り量)の制御、等を行う。
 カメラ本体14の撮像素子26は、集光用マイクロレンズ、RGB(赤緑青)等のカラーフィルタ、及びイメージセンサ(フォトダイオード:CMOS(Complementary Metal Oxide Semiconductor)、CCD(Charge-Coupled Device)等)を有する。この撮像素子26は、レンズユニット12の光学系(レンズ16、絞り17等)を介して照射される被写体像の光を電気信号に変換し、画像信号(撮影画像データ)を本体コントローラ28に送る。すなわち本例の撮像素子26は、光学系(レンズ16、絞り17等)を通過した被写体像を受光して撮影画像データ(以下、「画像データ」と称する)を生成し、その画像データを本体コントローラ28(後述の「画像処理部36」)に送信する。
 図2は、本体コントローラ28の機能構成の概略を示すブロック図である。
 本体コントローラ28は、デバイス制御部34と画像処理部(画像処理装置)36とを有し、カメラ本体14を統括的に制御する。
 デバイス制御部34は、例えば、撮像素子26からの画像データの出力を制御したり、レンズユニット12を制御するための制御信号を生成してカメラ本体入出力部30を介してレンズユニット12(レンズユニットコントローラ20)に送信したり、入出力インターフェース32を介して接続される外部機器類(コンピュータ80等)に画像処理前後の画像データ(RAWデータ、JPEG(Joint Photographic Experts Group)データ等)を送信したりする。また本例のデバイス制御部34は、カメラ本体14に設けられる表示部38を制御する表示制御部37を含む。さらにデバイス制御部34は、デジタルカメラ10が具備する他のデバイス類を適宜制御する。
 一方、画像処理部36は、撮像素子26からの画像データに対し、必要に応じた任意の画像処理を行うことができる。例えば、センサ補正処理、デモザイク(同時化)処理、画素補間処理、色補正処理(オフセット補正処理、ホワイトバランス処理、カラーマトリクス処理、ガンマ変換処理、等)、RGB画像処理(トーン補正処理、露出補正処理、等)、RGB/YCrCb変換処理及び画像圧縮処理、等の各種の画像処理が、画像処理部36において適宜行われる。加えて、本例の画像処理部36は、後述の「鮮鋭化処理」を行う。
 本体コントローラ28において画像処理が施された画像データは、フラッシュメモリ等によって構成される画像記憶部29に保存される。画像記憶部29に保存された画像データは、入出力インターフェース32(図1参照)に接続されるコンピュータ80等に送られる。また画像記憶部29がカメラ本体14から着脱自在の場合には、カメラ本体14から取り外された画像記憶部29に接続されるコンピュータ80等に、画像記憶部29に保存された画像データが送られる。デジタルカメラ10(画像記憶部29)からコンピュータ80等に送られる画像データのフォーマットは特に限定されず、RAW、JPEG、TIFF(Tagged Image File Format)等の任意のフォーマットとしうる。したがって本体コントローラ28は、いわゆるExif(Exchangeable Image File Format)のように、ヘッダ情報(撮影情報(撮影日時、機種、画素数、絞り値等)等)、主画像データ及びサムネイル画像データ等の複数の関連データを相互に対応付けて1つの画像ファイルとして構成し、この画像ファイルをコンピュータ80に送信してもよい。
 コンピュータ80は、カメラ本体14の入出力インターフェース32及びコンピュータ入出力部81を介してデジタルカメラ10に接続され、カメラ本体14から送られてくる画像データ等のデータ類を受信する。コンピュータコントローラ82は、コンピュータ80を統括的に制御し、デジタルカメラ10からの画像データを画像処理したり、インターネット等のネットワーク84を介してコンピュータ入出力部81に接続されるサーバ85等との通信制御をしたりする。コンピュータ80はディスプレイ83を有し、コンピュータコントローラ82における処理内容等がディスプレイ83に必要に応じて表示される。ユーザは、ディスプレイ83の表示を確認しながらキーボード等の入力手段(図示省略)を操作することにより、コンピュータコントローラ82に対してデータやコマンドを入力し、コンピュータ80を制御したり、コンピュータ80に接続される機器類(デジタルカメラ10、サーバ85)を制御したりすることができる。
 サーバ85は、サーバ入出力部86及びサーバコントローラ87を有する。サーバ入出力部86は、デジタルカメラ10やコンピュータ80等の外部機器類との送受信接続部を構成し、ネットワーク84を介してデジタルカメラ10の本体コントローラ28やコンピュータ80のコンピュータ入出力部81に接続される。サーバコントローラ87は、デジタルカメラ10やコンピュータ80からの制御指示信号に応じ、本体コントローラ28やコンピュータコントローラ82と協働し、本体コントローラ28やコンピュータコントローラ82との間で必要に応じてデータ類の送受信を行い、データ類をデジタルカメラ10やコンピュータ80にダウンロードしたり、演算処理を行ってその演算結果をデジタルカメラ10やコンピュータ80に送信したりする。
 なお、各コントローラ(レンズユニットコントローラ20、本体コントローラ28、コンピュータコントローラ82、サーバコントローラ87)は、制御処理に必要な回路類を備え、例えば演算処理回路(CPU(Central Processing Unit)等)やメモリ等を具備する。また、デジタルカメラ10、コンピュータ80及びサーバ85間の通信は有線であってもよいし無線であってもよい。また、コンピュータ80及びサーバ85を一体的に構成してもよく、またコンピュータ80及び/又はサーバ85が省略されてもよい。また、デジタルカメラ10にサーバ85との通信機能を持たせ、デジタルカメラ10とサーバ85との間で直接的にデータ類の送受信が行われるようにしてもよい。
 次に、図2に示す本体コントローラ28(画像処理部36)において行われる画像データの鮮鋭化処理について説明する。
 以下の説明において、鮮鋭化処理前の画像データを「原画像データ」と呼び、鮮鋭化処理後の画像データを「鮮鋭画像データ」と呼ぶ。
 なお以下の例では、カメラ本体14(本体コントローラ28)において鮮鋭化処理が実施される例について説明するが、鮮鋭化処理の全部又は一部を他のコントローラ(レンズユニットコントローラ20、コンピュータコントローラ82、サーバコントローラ87等)において実施することも可能である。また以下では、画像処理部36で行われる鮮鋭化処理について説明するが、上述のように画像処理部36においては鮮鋭化処理以外の各種の画像処理が鮮鋭化処理の前及び/又は後で行われる。画像処理部36において行われる鮮鋭化処理以外の画像処理に関する処理部の説明及び図示は省略する。
 <第1実施形態>
 図3は、第1実施形態に係る画像処理部36の機能構成例を示すブロック図である。
 本例の画像処理部36は、情報取得部40、フィルタ取得部42及びフィルタ処理部44を有する。
 情報取得部40は、光学系(レンズ16、絞り17等)を用いた被写体像の撮影により取得される原画像データの撮影情報を取得する。情報取得部40による撮影情報の取得手法は特に限定されず、例えば画像処理部36に設けられる図示しないメモリに原画像データの撮影情報が保存されている場合、情報取得部40はそのメモリにアクセスして撮影情報を取得してもよい。また原画像データに撮影情報がタグ情報(メタ情報)として付加されている場合には、情報取得部40は原画像データに付加された撮影情報を読み出してもよい。
 フィルタ取得部42は、情報取得部40が取得した原画像データの撮影情報に基づいて鮮鋭化フィルタを取得する。特に本実施形態のフィルタ取得部42は、少なくとも絞り値及び焦点距離(第1の撮影条件及び第2の撮影条件)に基づいて鮮鋭化フィルタを取得する。以下では、「絞り値」及び「焦点距離」という2つの撮影条件によって鮮鋭化フィルタが特定される例について説明する。
 フィルタ処理部44は、フィルタ取得部42が取得した鮮鋭化フィルタを原画像データに適用して鮮鋭画像データを取得する。
 <鮮鋭化フィルタ>
 鮮鋭化フィルタは特に限定されず、光学系の光学伝達関数に基づくフィルタであってもよいし、光学系の光学伝達関数に基づかないフィルタであってもよい。すなわち点拡がり関数(PSF)、変調伝達関数(MTF)、位相伝達関数(PTF)を含む光学伝達関数(OTF)に基づいて作成されたフィルタが「鮮鋭化フィルタ」として使用されてもよいし、光学伝達関数とは関係なく定められた輪郭補正用のフィルタ等が鮮鋭化フィルタとして使用されてもよい。
 フィルタ取得部42による鮮鋭化フィルタの取得手法は特に限定されない。例えば、予め記憶されている複数の鮮鋭化フィルタの中から、原画像データの撮影情報に基づいて鮮鋭化フィルタが選択されてもよいし、原画像データの撮影情報に基づいて原画像データに適用する鮮鋭化フィルタが作成されてもよい。
 図4は、フィルタ取得部42の機能構成の一例を示すブロック図である。本例のフィルタ取得部42は、フィルタ選択部46及びフィルタ記憶部48を有する。フィルタ記憶部48は、少なくとも絞り値及び焦点距離(第1の撮影条件及び第2の撮影条件)に応じて定められる複数の鮮鋭化フィルタを記憶する。フィルタ選択部46は、フィルタ記憶部48に記憶されている複数の鮮鋭化フィルタの中から、情報取得部40から送られてくる原画像データの撮影情報に基づいて鮮鋭化フィルタを選択し、フィルタ処理部44に送る。
 フィルタ記憶部48に記憶されている複数の鮮鋭化フィルタは、原画像データの撮影取得に使用した光学系(レンズ16、絞り17等)の光学伝達関数等の光学特性に対応するフィルタであることが好ましいが、必ずしも光学系の光学特性に対応している必要はない。例えば汎用性が高い輪郭補正用のフィルタなどのように複数種類の光学系に使用可能な鮮鋭化フィルタがフィルタ記憶部48に記憶されていてもよい。このような汎用性の高い鮮鋭化フィルタは、カメラ本体14に正式には対応していないレンズユニット12を使って撮影取得された原画像データの鮮鋭化処理においても使用可能である。
 図5は、フィルタ取得部42の機能構成の他の例を示すブロック図である。本例のフィルタ取得部42は、関数取得部50及びフィルタ生成部52を有する。関数取得部50は、少なくとも絞り値及び焦点距離(第1の撮影条件及び第2の撮影条件)に応じて定められる複数の光学伝達関数を含む撮影情報を情報取得部40から取得する。フィルタ生成部52は、関数取得部50が取得した複数の光学伝達関数の中から選択される光学伝達関数であって、原画像データの撮影情報(絞り値、焦点距離等)に基づく光学伝達関数から、鮮鋭化フィルタを生成して取得する。そしてフィルタ生成部52において生成された鮮鋭化フィルタがフィルタ処理部44に送られる。
 フィルタ処理部44における原画像データに対する鮮鋭化フィルタの適用手法は、特に限定されない。例えば原画像データの全画素に共通の鮮鋭化フィルタを適用してもよいし、適用する鮮鋭化フィルタを原画像データの画素毎或いはエリア毎に変えてもよい。一般に光学系の光軸中心部と周縁部とでは収差等の光学特性が相違して光学伝達関数が異なるため、像高に応じて、原画像データの画素毎或いはエリア毎に適用する鮮鋭化フィルタが変えられてもよい。この場合、フィルタ取得部42は、複数の像高に関連付けられた複数の鮮鋭化フィルタを取得し、フィルタ処理部44は、フィルタ取得部42が取得した複数の鮮鋭化フィルタを使って、像高に応じて、原画像データに鮮鋭化フィルタを適用してもよい。
 <必要な条件が取得できない場合の鮮鋭化フィルタの取得手法について>
 例えば図4に示す例のように、絞り値及び焦点距離に基づいて定められる複数の鮮鋭化フィルタをフィルタ取得部42が保持する場合、フィルタ取得部42は、情報取得部40から送られてくる撮影情報に原画像データを撮影取得した際の絞り値及び焦点距離の情報が含まれていれば適正な鮮鋭化フィルタを選択取得することができる。また図5に示す例のように、フィルタ取得部42が光学伝達関数から鮮鋭化フィルタを生成する場合も同様である。すなわち、フィルタ取得部42が絞り値及び焦点距離に基づいて定められる適正な光学伝達関数を保持可能な場合、フィルタ取得部42は、情報取得部40から送られてくる撮影情報に原画像データを撮影取得した際の絞り値及び焦点距離の情報が含まれていれば適正な鮮鋭化フィルタを選択取得することができる。
 一方、これらの場合に情報取得部40からフィルタ取得部42に送られてくる撮影情報に絞り値及び焦点距離のいずれか一方又は両方が含まれていないケースや、通信不良等により情報取得部40が撮影情報を取得できないケースもある。これらのケースでは、原画像データを撮影取得した際の絞り値及び/又は焦点距離の情報をフィルタ取得部42は利用できない。
 本実施形態のフィルタ取得部42は、情報取得部40が取得する撮影情報に絞り値及び焦点距離のうちの一方(第1の撮影条件)が含まれるが他方(第2の撮影条件)が含まれない場合、撮影情報に含まれる絞り値又は焦点距離(第1の撮影条件)に関連付けられた鮮鋭化フィルタであって、撮影情報に含まれない絞り値又は焦点距離(第2の撮影条件)の「代表条件」に関連付けられた鮮鋭化フィルタを取得する。
 すなわち複数の鮮鋭化フィルタを利用可能な状況下で、鮮鋭化フィルタを選定するための基礎情報(撮影条件)の一部のみしか利用できない場合に、不足する「鮮鋭化フィルタを選定するための基礎情報」については「代表条件」が用いられる。例えば情報取得部40からフィルタ取得部42に送られる撮影情報に「絞り値」の情報のみが含まれており「焦点距離」の情報が含まれていない場合には、フィルタ取得部42は、利用可能な複数の鮮鋭化フィルタの中から撮影情報に含まれる「絞り値」の情報に関連付けられている複数の鮮鋭化フィルタを選定し、その選定した複数の鮮鋭化フィルタの中から「焦点距離」の代表条件に対応する鮮鋭化フィルタを選定する。同様に、例えば情報取得部40からフィルタ取得部42に送られる撮影情報に「焦点距離」の情報のみが含まれており「絞り値」の情報が含まれていない場合には、フィルタ取得部42は、利用可能な複数の鮮鋭化フィルタの中から撮影情報に含まれる「焦点距離」の情報に関連付けられている複数の鮮鋭化フィルタを選定し、その選定した複数の鮮鋭化フィルタの中から「絞り値」の代表条件に対応する鮮鋭化フィルタを選定する。
 撮影情報に含まれない絞り値又は焦点距離(第2の撮影条件)の「代表条件」は様々な観点から決められる。
 例えば代表条件は、撮影情報に含まれている撮影条件(本例では絞り値又は焦点距離:第1の撮影条件)に関連付けられた複数の鮮鋭化フィルタの各々の空間周波数特性に基づいて定められてもよい。
 この場合、例えば、撮影情報に含まれている撮影条件(絞り値又は焦点距離:第1の撮影条件)に関連付けられた複数の鮮鋭化フィルタであって、複数の「撮影情報に含まれていない撮影条件(絞り値又は焦点距離:第2の撮影条件)」の各々に関連付けられた複数の鮮鋭化フィルタの各々に関し、鮮鋭化フィルタを適用する前の画像データに対する鮮鋭化フィルタを適用した後の画像データの空間周波数毎の比率を表すレスポンスの最大値を基準に、撮影情報に含まれていない撮影条件(絞り値又は焦点距離:第2の撮影条件)の代表条件が定められてもよい。
 図6は、鮮鋭化フィルタの空間周波数毎のレスポンスの一例を示す図である。図6の横軸は空間周波数を示し、縦軸は「レスポンス=鮮鋭化フィルタを適用した後の画像データ/鮮鋭化フィルタを適用する前の画像データ」を示す。即ちレスポンスは、鮮鋭化フィルタを適用する前の画像データに対する鮮鋭化フィルタを適用した後の画像データの空間周波数毎の比率を表す。したがって画像データのうち、「レスポンス=1.0」の空間周波数の成分は鮮鋭化フィルタの適用前後において値は変わらず、「レスポンス>1.0」の空間周波数の成分は鮮鋭化フィルタの適用前よりも適用後の方が値が大きくなり、「レスポンス<1.0」の空間周波数の成分は鮮鋭化フィルタの適用前よりも適用後の方が値が小さくなる。このような「空間周波数-レスポンス」特性に基づいて、レスポンスの最大値を基準に、撮影情報に含まれていない撮影条件(絞り値又は焦点距離:第2の撮影条件)の代表条件を定めることができる。
 例えば鮮鋭化処理の結果として画質劣化を招くことを防ぐ観点からは、画質の変更の程度が最も弱い鮮鋭化フィルタに対応する撮影条件を代表条件とすることが好ましい。したがって、撮影情報に含まれている撮影条件(絞り値又は焦点距離:第1の撮影条件)に関連付けられた複数の鮮鋭化フィルタのうちレスポンスの最大値が最も小さい鮮鋭化フィルタを代表フィルタとするため、この「レスポンスの最大値が最も小さい鮮鋭化フィルタ」に対応する「撮影情報に含まれていない撮影条件(絞り値又は焦点距離:第2の撮影条件)」を代表条件としてもよい。
 一方、鮮鋭化処理の結果として可能な限り高い鮮鋭化効果を得る観点からは、画質の変更の程度が最も強い鮮鋭化フィルタに対応する撮影条件を代表条件とすることが好ましい。したがって、撮影情報に含まれている撮影条件(絞り値又は焦点距離:第1の撮影条件)に関連付けられた複数の鮮鋭化フィルタのうちレスポンスの最大値が最も大きい鮮鋭化フィルタを代表フィルタとするため、この「レスポンスの最大値が最も大きい鮮鋭化フィルタ」に対応する「撮影情報に含まれていない撮影条件(絞り値又は焦点距離:第2の撮影条件)」を代表条件としてもよい。
 また鮮鋭化処理の結果として画質劣化の回避と鮮鋭化効果の確保とをバランス良く両立させる観点からは、画質の変更の程度が平均的である中庸的な鮮鋭化フィルタに対応する撮影条件を代表条件とすることが好ましい。したがって、撮影情報に含まれている撮影条件(絞り値又は焦点距離:第1の撮影条件)に関連付けられた複数の鮮鋭化フィルタのうちレスポンスの最大値が中央値を示す鮮鋭化フィルタを代表フィルタとするため、この「レスポンスの最大値が中央値を示す鮮鋭化フィルタ」に対応する「撮影情報に含まれていない撮影条件(絞り値又は焦点距離:第2の撮影条件)」を代表条件としてもよい。
 また「撮影情報に含まれていない撮影条件(絞り値又は焦点距離:第2の撮影条件)の代表条件」は、鮮鋭化フィルタのレスポンスの最大値以外の情報に基づいて定められてもよい。
 図7は、鮮鋭化フィルタの空間周波数毎のレスポンスの一例を示す図である。図7の横軸及び縦軸の基準は図6と同じであり、横軸は空間周波数を示し、縦軸は「レスポンス=鮮鋭化フィルタを適用した後の画像データ/鮮鋭化フィルタを適用する前の画像データ」を示す。
 撮影情報に含まれている撮影条件(絞り値又は焦点距離:第1の撮影条件)に関連付けられた複数の鮮鋭化フィルタであって、撮影情報に含まれていない撮影条件(絞り値又は焦点距離:第2の撮影条件)の複数条件に関連付けられた複数の鮮鋭化フィルタの各々に関し、図7に示す「空間周波数-レスポンス」の座標系において「第1の閾値」よりも大きなレスポンスを示す範囲の面積を基準に、撮影情報に含まれていない撮影条件(絞り値又は焦点距離:第2の撮影条件)の代表条件が定められてもよい。ここでいう「第1の閾値」は1以上の値であることが好ましく、図7の斜線部は「第1の閾値=1.0」とした場合における「レスポンス≧第1の閾値(=1.0)」を満たす範囲を示す。
 例えば鮮鋭化処理の結果として画質劣化を招くことを防ぐ観点からは、撮影情報に含まれている撮影条件(絞り値又は焦点距離:第1の撮影条件)に関連付けられた複数の鮮鋭化フィルタのうち、「空間周波数-レスポンス」の座標系において「第1の閾値」よりも大きなレスポンスを示す範囲の面積が最も小さい鮮鋭化フィルタを代表フィルタとすることが好ましい。したがって、この「空間周波数-レスポンスの座標系において第1の閾値よりも大きなレスポンスを示す範囲の面積が最も小さい鮮鋭化フィルタ」に対応する「撮影情報に含まれていない撮影条件(絞り値又は焦点距離:第2の撮影条件)」を代表条件としてもよい。
 一方、鮮鋭化処理の結果として可能な限り高い鮮鋭化効果を得る観点からは、撮影情報に含まれている撮影条件(絞り値又は焦点距離:第1の撮影条件)に関連付けられた複数の鮮鋭化フィルタのうち、「空間周波数-レスポンス」の座標系において「第1の閾値」よりも大きなレスポンスを示す範囲の面積が最も大きい鮮鋭化フィルタを代表フィルタとすることが好ましい。したがって、この「空間周波数-レスポンスの座標系において第1の閾値よりも大きなレスポンスを示す範囲の面積が最も大きい鮮鋭化フィルタ」に対応する「撮影情報に含まれていない撮影条件(絞り値又は焦点距離:第2の撮影条件)」を代表条件としてもよい。
 また鮮鋭化処理の結果として画質劣化の回避と鮮鋭化効果の確保とをバランス良く両立させる観点からは、撮影情報に含まれている撮影条件(絞り値又は焦点距離:第1の撮影条件)に関連付けられた複数の鮮鋭化フィルタのうち、「空間周波数-レスポンス」の座標系において「第1の閾値」よりも大きなレスポンスを示す範囲の面積が中央値を示す鮮鋭化フィルタを代表フィルタとすることが好ましい。したがって、この「空間周波数-レスポンスの座標系において第1の閾値よりも大きなレスポンスを示す範囲の面積が中央値を示す鮮鋭化フィルタ」に対応する「撮影情報に含まれていない撮影条件(絞り値又は焦点距離:第2の撮影条件)」を代表条件としてもよい。
 また「撮影情報に含まれていない撮影条件(絞り値又は焦点距離:第2の撮影条件)の代表条件」は、他の情報に基づいて定められてもよい。例えば使用頻度等の情報から「撮影情報に含まれていない撮影条件(絞り値又は焦点距離:第2の撮影条件)の代表条件」が定められてもよい。例えば統計的な情報から求められる「使用頻度が高い条件」を「撮影情報に含まれていない撮影条件(絞り値又は焦点距離:第2の撮影条件)の代表条件」としてもよい。例えば「撮影情報に含まれていない撮影条件」が焦点距離の場合には最小焦点距離や最大焦点距離を「代表条件」としてもよい。また「撮影情報に含まれていない撮影条件」が絞り値の場合には使用頻度の高い絞りを予め求めておき、その予め求められる絞り値を代表条件としてもよい。
 次に、鮮鋭化処理フローについて説明する。
 図8は、鮮鋭化処理の流れの一例を示すフローチャートである。
 まず情報取得部40によって原画像データの撮影情報が取得され、取得された撮影情報に原画像データを撮影取得した際の絞り値及び焦点距離のデータが含まれているか否かがフィルタ取得部42において判定される。
 撮影情報に絞り値のデータのみが含まれ焦点距離のデータが含まれない場合(図8のS11のY)、「撮影情報に含まれる絞り値のデータ」及び「焦点距離の代表条件」に対応する鮮鋭化フィルタがフィルタ取得部42によって取得される(S12)。一方、撮影情報に焦点距離のデータのみが含まれ絞り値のデータが含まれない場合(S11のN、S14のY)、「撮影情報に含まれる焦点距離のデータ」及び「絞り値の代表条件」に対応する鮮鋭化フィルタがフィルタ取得部42によって取得される(S15)。また撮影情報に絞り値及び焦点距離の両方のデータが含まれる場合(S14のN、S16のY)、「撮影情報に含まれている絞り値及び焦点距離のデータ」に対応する鮮鋭化フィルタがフィルタ取得部42によって取得される(S17)。
 そして、フィルタ取得部42によって取得された鮮鋭化フィルタが用いられてフィルタ処理部44により原画像データに鮮鋭化処理が施され、鮮鋭画像データが取得される(S13)。
 なお本例では、撮影情報に絞り値及び焦点距離の両方のデータが含まれていない場合や情報取得部40が撮影情報を取得することができない場合(S16のN)、鮮鋭化処理(S13)がスキップされて鮮鋭化処理は行われない。ただしこの場合(S16のN)、鮮鋭化処理をスキップせずに、予め定められる絞り値及び焦点距離の各々の代表条件に対応する鮮鋭化フィルタを使って鮮鋭化処理が行われてもよい。
 以上説明したように本実施形態によれば、鮮鋭化フィルタを特定するための条件(絞り値及び焦点距離)の一部を取得することができない場合であっても、代表条件に基づいて鮮鋭化フィルタを選定して鮮鋭化処理を精度良く行うことができる。
 <第2実施形態>
 本実施形態において、上述の第1実施形態と同一又は類似の構成及び作用については、詳細な説明を省略する。
 本実施形態では、鮮鋭化処理によって不具合が生じやすい場合又は生じる場合には、鮮鋭化処理による画質変化が抑制される。鮮鋭化処理による画質変化を抑制する手法として、フィルタ処理部44は、例えば本来使用する鮮鋭化フィルタよりも鮮鋭化効果が弱い鮮鋭化フィルタを用いて鮮鋭化処理を行う手法がある。またフィルタ処理部44は、ゲインをコントロールすることにより原画像データに対する鮮鋭画像データの増分量を小さくする手法がある。
 図9は、フィルタ処理部44の機能構成の一例を示すブロック図である。本例のフィルタ処理部44は、フィルタ適用部60及びゲイン制御部62を有する。フィルタ適用部60は、フィルタ取得部42が取得した鮮鋭化フィルタを原画像データに適用してフィルタリング画像データを取得する。ゲイン制御部62は、情報取得部40が取得した撮影情報に基づいて、原画像データに対するフィルタリング画像データのゲインをコントロールして鮮鋭画像データを取得する。
 これらの鮮鋭化フィルタの適用やゲインコントロールの具体的な手法は特に限定されず、任意の方法により原画像データから鮮鋭画像データを取得することが可能である。図10は、フィルタ処理部44の機能構成の具体例を示すブロック図である。図10に示す例において、フィルタ処理部44は、フィルタ適用部60、ゲイン調整部63及びデータ調整部64(ゲイン制御部62)を含む。本例のゲイン調整部63は、フィルタ適用部60において取得された「原画像データに鮮鋭化フィルタを適用することにより得られるフィルタリング画像データ」に対して復元強度倍率Uの乗算を行うことにより、第1の調整画像データを取得する。一方、データ調整部64は、フィルタ適用部60において鮮鋭化フィルタが適用される前の「原画像データ」に対して倍率(1-U)を乗算して第2の調整画像データを取得する。そしてデータ調整部64は、この第2の調整画像データと、ゲイン調整部63において取得された第1の調整画像データとを加算することにより、鮮鋭画像データを取得することができる。
 なおフィルタ処理部44は、上記手法の代わりに上記手法と等価な他の手法を採用してもよい。例えばフィルタ適用部60は、「原画像データに鮮鋭化フィルタを適用することにより得られるフィルタリング画像データ」を取得した後に、画像の増減分データを算出し、ゲイン調整部63は、この増減分データと復元強度倍率Uとの乗算を行うことによりゲインコントロールを行ってもよい。この場合、データ調整部64は、フィルタ適用部60において鮮鋭化フィルタが適用される前の「原画像データ」と、ゲイン調整部63において取得された「復元強度倍率Uが乗算された増減分データ」とを加算することにより、鮮鋭画像データを取得することができる。
 「鮮鋭化処理によって不具合が生じやすいケース又は生じるケース」では、鮮鋭化効果が弱い鮮鋭化フィルタを上述のフィルタ適用部60において使用したり、ゲイン制御部62におけるゲインコントロールを調整することにより鮮鋭化効果を低減したりすることにより、鮮鋭化処理による画質変化を抑制することができる。
 「鮮鋭化処理によって不具合が生じやすいケース又は生じるケース」は特に限定されないが、具体的なケースについて以下の各モードで説明する。
 <第1のモード>
 本モードでは、原画像データの特定の空間周波数の範囲の成分量に基づいて「鮮鋭化処理によって不具合が生じやすいケース」と判定される場合には、鮮鋭化処理による画質変化が抑制される。ここでいう「特定の空間周波数の範囲」は、鮮鋭化フィルタによってデータ変更される空間周波数の範囲を含むことが好ましく、例えば原画像データのサンプリング周波数の1/8以上であって1/4以下の範囲に含まれる。
 本例では、鮮鋭化フィルタによってデータ変更される空間周波数の範囲を含む「特定の空間周波数の範囲」における原画像データの成分量が大きい場合(すなわち第2の閾値以上の場合)には、鮮鋭化処理による画質変化が抑制される。
 図11は、第1のモードに係る画像処理部36の機能構成例を示すブロック図である。本例の画像処理部36は、情報取得部40、フィルタ取得部42及びフィルタ処理部44に加え、原画像データの空間周波数特性を解析する周波数解析部66を更に備える。周波数解析部66によって解析された原画像データの空間周波数特性に関するデータは、フィルタ取得部42及びフィルタ処理部44に送られる。
 フィルタ取得部42は、周波数解析部66による解析結果から、原画像データの特定の空間周波数の範囲の成分量が第2の閾値以上か否かを判定する。原画像データの特定の空間周波数の範囲の成分量が第2の閾値よりも小さいと判定される場合には、フィルタ取得部42は、通常通りの処理により鮮鋭化フィルタを取得する。一方、原画像データの特定の空間周波数の範囲の成分量が第2の閾値以上と判定される場合、フィルタ取得部42は、情報取得部40が取得した撮影情報に含まれていない撮影条件(絞り値又は焦点距離:第2の撮影条件)の代表条件に関連付けられた鮮鋭化フィルタよりも、鮮鋭化フィルタを適用する前の画像データに対する鮮鋭化フィルタを適用した後の画像データの空間周波数毎の比率を表すレスポンスが小さい鮮鋭化フィルタを取得してもよい。
 また上述のフィルタ取得部42におけるフィルタ取得処理の代わりに、或いは上述のフィルタ取得部42におけるフィルタ取得処理と共に、フィルタ処理部44におけるゲインコントロールを調整してもよい。すなわち、フィルタ処理部44のゲイン制御部62(図9及び図10参照)は、周波数解析部66による解析結果から、原画像データの特定の空間周波数の範囲の成分量が第2の閾値以上か否かを判定する。原画像データの特定の空間周波数の範囲の成分量が第2の閾値よりも小さいと判定される場合には、ゲイン制御部62は、通常通りのゲインコントロールを行う。一方、原画像データの特定の空間周波数の範囲の成分量が第2の閾値以上と判定される場合、ゲイン制御部62は、ゲインをコントロールして、情報取得部40が取得した撮影情報に基づいてゲインをコントロールする場合よりも、原画像データに対する鮮鋭画像データの増分量を小さくしてもよい。
 <第2のモード>
 本モードでは、原画像データが飽和画素を含む場合を「鮮鋭化処理によって不具合が生じやすいケース」と判定して、鮮鋭化処理による画質変化が抑制される。ここでいう「飽和画素」は、画素値が高い画素であり、鮮鋭化処理によって画素値が最大値となる可能性が高い画素値を有する画素である。例えば表現可能な画素値の90%以上の画素値を示す画素を「飽和画素」とすることが可能であり、画素値を「0~255」により表現可能な場合には例えば「230~255」の画素値を有する画素を飽和画素として扱ってもよい。
 図12は、第2のモードに係る画像処理部36の機能構成例を示すブロック図である。本例の画像処理部36は、情報取得部40、フィルタ取得部42及びフィルタ処理部44に加え、原画像データの飽和画素を解析する飽和画素解析部68を更に備える。飽和画素解析部68によって解析された原画像データの飽和画素に関するデータは、フィルタ取得部42及びフィルタ処理部44に送られる。
 フィルタ取得部42は、飽和画素解析部68による解析結果から、原画像データに第3の閾値(例えば「233」)以上の画素値を有する飽和画素が含まれるか否かを判定する。原画像データに第3の閾値以上の画素値を有する飽和画素が含まれていないと判定される場合には、フィルタ取得部42は、通常通りの処理により鮮鋭化フィルタを取得する。一方、原画像データに第3の閾値以上の画素値を有する飽和画素が含まれていると判定される場合、フィルタ取得部42は、情報取得部40が取得した撮影情報に含まれていない撮影条件(絞り値又は焦点距離:第2の撮影条件)の代表条件に関連付けられた鮮鋭化フィルタよりも、鮮鋭化フィルタを適用する前の画像データに対する鮮鋭化フィルタを適用した後の画像データの空間周波数毎の比率を表すレスポンスが小さい鮮鋭化フィルタを取得してもよい。
 また上述のフィルタ取得部42におけるフィルタ取得処理の代わりに、或いは上述のフィルタ取得部42におけるフィルタ取得処理と共に、フィルタ処理部44におけるゲインコントロールを調整してもよい。すなわち、フィルタ処理部44のゲイン制御部62(図9及び図10参照)は、飽和画素解析部68による解析結果から、原画像データに第3の閾値以上の画素値を有する飽和画素が含まれるか否かを判定する。原画像データに第3の閾値以上の画素値を有する飽和画素が含まれていないと判定される場合には、ゲイン制御部62は、通常通りのゲインコントロールを行う。一方、原画像データに第3の閾値以上の画素値を有する飽和画素が含まれていると判定される場合には、ゲイン制御部62は、ゲインをコントロールして、情報取得部40が取得した撮影情報に基づいてゲインをコントロールする場合よりも、原画像データに対する鮮鋭画像データの増分量を小さくしてもよい。
 <第3のモード>
 本モードでは、鮮鋭化処理後の画像データ(鮮鋭画像データ)においてリンギングが発生する可能性が高い場合又は発生する場合を「鮮鋭化処理によって不具合が生じやすいケース又は生じるケース」と判定して、鮮鋭化処理による画質変化が抑制される。
 図13は、第3のモードに係る画像処理部36の機能構成例を示すブロック図である。本例の画像処理部36は、情報取得部40、フィルタ取得部42及びフィルタ処理部44に加え、鮮鋭画像データのリンギング量を取得するリンギング取得部70を更に備える。リンギング取得部70によって取得されたリンギング量に関するデータは、フィルタ取得部42及びフィルタ処理部44に送られる。
 なおリンギング量の取得手法は特に限定されず、リンギング取得部70は、例えば予め定められた条件に基づいてリンギング量を取得してもよい。例えば、リンギング取得部70は、原画像データと鮮鋭画像データとを比較することによりリンギング量を取得してもよいし、鮮鋭画像データの周波数特性等の画像特性を解析して、その解析結果が予め定められた条件に該当するか否かに応じてリンギング量を取得(推定)してもよい。またリンギング取得部70は、原画像データの取得が予め定められた取得条件により行われたか否かに応じてリンギング量を取得(推定)してもよく、例えば原画像データを取得する撮影に用いられた光学系の情報がここでいう取得条件に含まれうる。鮮鋭化処理の鮮鋭化精度や副作用(リンギング等)に影響を及ぼしうる各種要素が「取得条件」に含まれうる。例えば、ここでいう光学系の情報は、原画像データを取得する撮影に用いられた光学系のレンズ種類、絞り値、ズーム値のうち少なくともいずれか1つを含みうる。またリンギング取得部70は、原画像データの周波数特性等の画像特性を解析して、その解析結果が予め定められた条件に該当するか否かに応じてリンギング量を取得(推定)してもよく、例えば原画像データにおける飽和画素の有無に応じてリンギング量を取得(推定)してもよい。
 以下では、リンギング取得部70が原画像データと鮮鋭画像データとを比較することによりリンギング量を取得する例について説明する。
 フィルタ取得部42は、リンギング取得部70による解析結果から、リンギング量が第4の閾値以上か否かを判定する。リンギング量が第4の閾値よりも小さい場合には、鮮鋭化処理のやり直しは行われずにフィルタ処理部44による鮮鋭化処理後の鮮鋭画像データがリンギング取得部70から出力される。一方、リンギング量が第4の閾値以上であると判定される場合には、鮮鋭化処理のやり直しが行われる。
 例えばフィルタ取得部42は、リンギング量が第4の閾値以上であると判定される場合、情報取得部40が取得した撮影情報に含まれていない撮影条件(絞り値又は焦点距離:第2の撮影条件)の代表条件に関連付けられた鮮鋭化フィルタよりも、鮮鋭化フィルタを適用する前の画像データに対する鮮鋭化フィルタを適用した後の画像データの空間周波数毎の比率を表すレスポンスが小さい鮮鋭化フィルタを取得してもよい。
 また上述のフィルタ取得部42におけるフィルタ取得処理の代わりに、或いは上述のフィルタ取得部42におけるフィルタ取得処理と共に、フィルタ処理部44におけるゲインコントロールを調整してもよい。すなわち、フィルタ処理部44のゲイン制御部62(図9及び図10参照)は、リンギング量が第4の閾値以上であると判定される場合、ゲインをコントロールして、情報取得部40が取得した撮影情報に基づいてゲインをコントロールする場合よりも、原画像データに対する鮮鋭画像データの増分量を小さくしてもよい。
 <第4のモード>
 本モードでは、鮮鋭化処理によって特定の空間周波数の範囲に関して「原画像データに対する鮮鋭画像データの増分値」が大きい場合には、「鮮鋭化処理によって不具合が生じやすいケース又は生じるケース」と判定して、鮮鋭化処理による画質変化が抑制される。ここでいう「特定の空間周波数の範囲」は、鮮鋭化フィルタによってデータ変更される空間周波数の範囲を含むことが好ましく、例えば原画像データのサンプリング周波数の1/8以上であって1/4以下の範囲に含まれる。
 図14は、第4のモードに係る画像処理部36の機能構成例を示すブロック図である。本例の画像処理部36は、情報取得部40、フィルタ取得部42及びフィルタ処理部44に加え、特定の空間周波数の範囲に関して原画像データに対する鮮鋭画像データの増分値を取得する増分値取得部72を更に備える。増分値取得部72によって取得された増分値に関するデータは、フィルタ取得部42及びフィルタ処理部44に送られる。
 フィルタ取得部42は、増分値取得部72の処理結果から、特定の空間周波数の範囲に関して原画像データに対する鮮鋭画像データの増分値が第5の閾値以上か否かを判定する。増分値が第5の閾値よりも小さい場合には、鮮鋭化処理のやり直しは行われずにフィルタ処理部44による鮮鋭化処理後の鮮鋭画像データがリンギング取得部70から出力される。一方、増分値が第5の閾値以上であると判定される場合には、鮮鋭化処理のやり直しが行われる。
 例えばフィルタ取得部42は、増分値が第5の閾値以上であると判定される場合、情報取得部40が取得した撮影情報に含まれていない撮影条件(絞り値又は焦点距離:第2の撮影条件)の代表条件に関連付けられた鮮鋭化フィルタよりも、鮮鋭化フィルタを適用する前の画像データに対する鮮鋭化フィルタを適用した後の画像データの空間周波数毎の比率を表すレスポンスが小さい鮮鋭化フィルタを取得してもよい。
 また上述のフィルタ取得部42におけるフィルタ取得処理の代わりに、或いは上述のフィルタ取得部42におけるフィルタ取得処理と共に、フィルタ処理部44におけるゲインコントロールを調整してもよい。すなわち、フィルタ処理部44のゲイン制御部62(図9及び図10参照)は、増分値が第5の閾値以上であると判定される場合、ゲインをコントロールして、情報取得部40が取得した撮影情報に基づいてゲインをコントロールする場合よりも、原画像データに対する鮮鋭画像データの増分量を小さくしてもよい。
 <他の変形例>
 上述の実施形態及び変形例のうち任意の形態同士が組み合わされてもよい。また上述の実施形態は例示に過ぎず、他の構成に本発明を適用してもよい。
 また上述の実施形態では、鮮鋭化フィルタが絞り値及び焦点距離の情報に基づいて特定される例について説明したが、他の撮影条件(被写体距離、明るさ(露出、ヒストグラム、飽和度)等)に基づいて鮮鋭化フィルタが特定される場合にも同様の作用効果を得ることができる。
 また上述の各機能構成は、任意のハードウェア、ソフトウェア、或いは両者の組み合わせによって実現可能である。例えば、上述の各装置及び処理部(画像処理部36等)における画像処理方法(画像処理手順)をコンピュータに実行させるプログラム、そのプログラムを記憶したコンピュータ読み取り可能な記憶媒体(非一時的記憶媒体)、或いはそのプログラムをインストール可能なコンピュータに対しても本発明を適用することができる。
 <EDoFシステムへの応用例>
 上述の実施形態における鮮鋭化処理は光学伝達関数を考慮した復元処理を含む。この復元処理は、特定の撮影条件情報(例えば、絞り値、焦点距離、レンズ種類、ズーム倍率など)に応じて点拡がり(点像ボケ)を回復修正することにより本来の被写体像を復元する画像処理であるが、本発明を適用可能な鮮鋭化処理は上述の実施形態における復元処理に限定されるものではない。例えば、拡大された被写界(焦点)深度(EDoF:Extended Depth of Field(Focus))を有する光学系(撮影レンズ等)によって撮影取得された画像データに対する復元処理に対しても、本発明に係る復元処理を適用することが可能である。EDoF光学系によって被写界深度(焦点深度)が拡大された状態で撮影取得されるボケ画像の画像データに対して復元処理を行うことにより、広範囲でピントが合った状態の高解像度の画像データを復元生成することができる。この場合、EDoF光学系の光学伝達関数(PSF、OTF、MTF、PTF、等)に基づく復元フィルタであって、拡大された被写界深度(焦点深度)の範囲内において良好な画像復元が可能となるように設定されたフィルタ係数を有する復元フィルタを用いた復元処理が行われる。
 以下に、EDoF光学系を介して撮影取得された画像データの復元に関するシステム(EDoFシステム)の一例について説明する。なお、以下に示す例では、デモザイク処理後の画像データ(RGBデータ)から得られる輝度信号(Yデータ)に対して復元処理を行う例について説明するが、復元処理を行うタイミングは特に限定されず、例えば「デモザイク処理前の画像データ(モザイク画像データ)」や「デモザイク処理後であって輝度信号変換処理前の画像データ(デモザイク画像データ)」に対して復元処理が行われてもよい。
 図15は、EDoF光学系を備える撮像モジュール101の一形態を示すブロック図である。本例の撮像モジュール(デジタルカメラ等)101は、EDoF光学系(レンズユニット)110と、撮像素子112と、AD変換部114と、復元処理ブロック(画像処理部36)120とを含む。
 図16は、EDoF光学系110の一例を示す図である。本例のEDoF光学系110は、単焦点の固定された撮影レンズ110Aと、瞳位置に配置される光学フィルタ111とを有する。光学フィルタ111は、位相を変調させるもので、拡大された被写界深度(焦点深度)(EDoF)が得られるようにEDoF光学系110(撮影レンズ110A)をEDoF化する。このように、撮影レンズ110A及び光学フィルタ111は、位相を変調して被写界深度を拡大させるレンズ部を構成する。
 なお、EDoF光学系110は必要に応じて他の構成要素を含み、例えば光学フィルタ111の近傍には絞り(図示省略)が配設されている。また、光学フィルタ111は、1枚でもよいし、複数枚を組み合わせたものでもよい。また、光学フィルタ111は、光学的位相変調手段の一例に過ぎず、EDoF光学系110(撮影レンズ110A)のEDoF化は他の手段によって実現されてもよい。例えば、光学フィルタ111を設ける代わりに、本例の光学フィルタ111と同等の機能を有するようにレンズ設計された撮影レンズ110AによってEDoF光学系110のEDoF化を実現してもよい。
 すなわち、撮像素子112の受光面への結像の波面を変化させる各種の手段によって、EDoF光学系110のEDoF化を実現することが可能である。例えば、「厚みが変化する光学素子」、「屈折率が変化する光学素子(屈折率分布型波面変調レンズ等)」、「レンズ表面へのコーディング等により厚みや屈折率が変化する光学素子(波面変調ハイブリッドレンズ、レンズ面上に位相面として形成される光学素子、等)」、「光の位相分布を変調可能な液晶素子(液晶空間位相変調素子等)」を、EDoF光学系110のEDoF化手段として採用しうる。このように、光波面変調素子(光学フィルタ111(位相板))によって規則的に分散した画像形成が可能なケースだけではなく、光波面変調素子を用いた場合と同様の分散画像を、光波面変調素子を用いずに撮影レンズ110A自体によって形成可能なケースに対しても、本発明は応用可能である。
 図16に示すEDoF光学系110は、メカ的に焦点調節を行う焦点調節機構を省略することができるため小型化が可能であり、カメラ付き携帯電話機や携帯情報端末に好適に搭載可能である。
 EDoF化されたEDoF光学系110を通過後の光学像は、図15に示す撮像素子112に結像され、ここで電気信号に変換される。
 撮像素子112は、所定のパターン配列(ベイヤー配列、GストライプR/G完全市松、X-Trans配列、ハニカム配列、等)を用いてマトリクス状に配置された複数画素によって構成され、各画素はマイクロレンズ、カラーフィルタ(本例ではRGBカラーフィルタ)及びフォトダイオードを含んで構成される。EDoF光学系110を介して撮像素子112の受光面に入射した光学像は、その受光面に配列された各フォトダイオードにより入射光量に応じた量の信号電荷に変換される。そして、各フォトダイオードに蓄積されたR、G、Bの信号電荷は、画素毎の電圧信号(画像信号)として順次出力される。
 AD変換部114は、撮像素子112から画素毎に出力されるアナログのR、G、B画像信号をデジタルのRGB画像信号に変換する。AD変換部114によりデジタルの画像信号に変換されたデジタル画像信号は、復元処理ブロック120に加えられる。
 復元処理ブロック120は、例えば、黒レベル調整部122と、ホワイトバランスゲイン部123と、ガンマ処理部124と、デモザイク処理部125と、RGB/YCrCb変換部126と、Y信号復元処理部127とを含む。
 黒レベル調整部122は、AD変換部114から出力されたデジタル画像信号に黒レベル調整を施す。黒レベル調整には、公知の方法が採用されうる。例えば、ある有効光電変換素子に着目した場合、その有効光電変換素子を含む光電変換素子行に含まれる複数のOB光電変換素子の各々に対応する暗電流量取得用信号の平均を求め、その有効光電変換素子に対応する暗電流量取得用信号からこの平均を減算することにより、黒レベル調整が行われる。
 ホワイトバランスゲイン部123は、黒レベルデータが調整されたデジタル画像信号に含まれるRGB各色信号のホワイトバランスゲインに応じたゲイン調整を行う。
 ガンマ処理部124は、ホワイトバランス調整されたR、G、B画像信号が所望のガンマ特性となるように中間調等の階調補正を行うガンマ補正を行う。
 デモザイク処理部125は、ガンマ補正後のR、G、B画像信号にデモザイク処理を施す。具体的には、デモザイク処理部125は、R、G、Bの画像信号に色補間処理を施すことにより、撮像素子112の各受光画素から出力される一組の画像信号(R信号、G信号、B信号)を生成する。すなわち、色デモザイク処理前は、各受光画素からの画素信号はR、G、Bの画像信号のいずれかであるが、色デモザイク処理後は、各受光画素に対応するR、G、B信号の3つの画素信号の組が出力されることとなる。
 RGB/YCrCb変換部126は、デモザイク処理された画素毎のR、G、B信号を、輝度信号Yと色差信号Cr、Cbに変換し、画素毎の輝度信号Y及び色差信号Cr、Cbを出力する。
 Y信号復元処理部127は、予め記憶された復元フィルタに基づいて、RGB/YCrCb変換部126からの輝度信号Yに復元処理を行う。復元フィルタは、例えば、7×7のカーネルサイズを有するデコンボリューションカーネル(M=7、N=7のタップ数に対応)と、そのデコンボリューションカーネルに対応する演算係数(復元ゲインデータ、フィルタ係数に対応)とからなり、光学フィルタ111の位相変調分のデコンボリューション処理(逆畳み込み演算処理)に使用される。なお、復元フィルタは、光学フィルタ111に対応するものが図示しないメモリ(例えばY信号復元処理部127が付随的に設けられるメモリ)に記憶される。また、デコンボリューションカーネルのカーネルサイズは、7×7のものに限らない。なお、Y信号復元処理部127は、上述した画像処理部36における鮮鋭化処理の機能を有する。
 次に、復元処理ブロック120による復元処理について説明する。図17は、図15に示す復元処理ブロック120による復元処理フローの一例を示す図である。
 黒レベル調整部122の一方の入力には、AD変換部114からデジタル画像信号が加えられており、他の入力には黒レベルデータが加えられており、黒レベル調整部122は、デジタル画像信号から黒レベルデータを減算し、黒レベルデータが減算されたデジタル画像信号をホワイトバランスゲイン部123に出力する(ステップS21)。これにより、デジタル画像信号には黒レベル成分が含まれなくなり、黒レベルを示すデジタル画像信号は0になる。
 黒レベル調整後の画像データに対し、順次、ホワイトバランスゲイン部123、ガンマ処理部124による処理が施される(ステップS22及びステップS23)。
 ガンマ補正されたR、G、B信号は、デモザイク処理部125によりデモザイク処理された後に、RGB/YCrCb変換部126において輝度信号Yと色差信号Cr、Cbに変換される(ステップS24)。
 Y信号復元処理部127は、輝度信号Yに、EDoF光学系110の光学フィルタ111の位相変調分のデコンボリューション処理を適用する復元処理を行う(ステップS25)。すなわち、Y信号復元処理部127は、任意の処理対象の画素を中心とする所定単位の画素群に対応する輝度信号(ここでは7×7画素の輝度信号)と、予めメモリなどに記憶されている復元フィルタ(7×7のデコンボリューションカーネルとその演算係数)とのデコンボリューション処理(逆畳み込み演算処理)を行う。Y信号復元処理部127は、この所定単位の画素群毎のデコンボリューション処理を撮像面の全領域をカバーするよう繰り返すことにより画像全体の像ボケを取り除く復元処理を行う。復元フィルタは、デコンボリューション処理を施す画素群の中心の位置に応じて定められている。すなわち、近接する画素群には、共通の復元フィルタが適用される。さらに復元処理を簡略化するためには、全ての画素群に共通の復元フィルタが適用されることが好ましい。
 図18(a)に示すように、EDoF光学系110を通過後の輝度信号の点像(光学像)は、大きな点像(ボケた画像)として撮像素子112に結像されるが、Y信号復元処理部127におけるデコンボリューション処理により、図18(b)に示すように小さな点像(高解像度の画像)に復元される。
 上述のようにデモザイク処理後の輝度信号に復元処理を適用することにより、復元処理のパラメータをRGB別々に持つ必要がなくなり、復元処理を高速化することができる。また、飛び飛びの位置にあるR、G、Bの画素に対応するR、G、Bの画像信号をそれぞれ1単位にまとめてデコンボリューション処理するのでなく、近接する画素の輝度信号同士を所定の単位にまとめ、その単位には共通の復元フィルタを適用してデコンボリューション処理するため、復元処理の精度が向上する。なお、色差信号Cr、Cbについては、人の目による視覚の特性上、復元処理により解像度を上げなくても画質的には許容される。また、JPEGのような圧縮形式により画像を記録する場合、色差信号は輝度信号よりも高い圧縮率により圧縮されるので、復元処理により解像度を上げる必要性が乏しい。こうして、復元精度の向上と処理の簡易化及び高速化を両立できる。
 以上説明したようなEDoFシステムの復元処理に対しても、上述の実施形態に係る点像復元処理を適用することが可能である。
 また、本発明を適用可能な態様はデジタルカメラ及びコンピュータ(サーバ)には限定されず、撮像を主たる機能とするカメラ類の他に、撮像機能に加えて撮像以外の他の機能(通話機能、通信機能、その他のコンピュータ機能)を備えるモバイル機器類に対しても本発明を適用することが可能である。本発明を適用可能な他の態様としては、例えば、カメラ機能を有する携帯電話機やスマートフォン、PDA(Personal Digital Assistants)、携帯型ゲーム機が挙げられる。以下、本発明を適用可能なスマートフォンの一例について説明する。
 <スマートフォンへの応用例>
 図19は、スマートフォン201の外観を示す図である。図19に示すスマートフォン201は、平板状の筐体202を有し、筐体202の一方の面に表示部としての表示パネル221と、入力部としての操作パネル222とが一体となった表示入力部220を備えている。また、係る筐体202は、スピーカ231と、マイクロホン232、操作部240と、カメラ部241とを備えている。なお、筐体202の構成はこれに限定されず、例えば、表示部と入力部とが独立した構成を採用したり、折り畳み構造やスライド機構を有する構成を採用することもできる。
 図20は、図19に示すスマートフォン201の構成を示すブロック図である。図20に示すように、スマートフォンの主たる構成要素として、無線通信部210と、表示入力部220と、通話部230と、操作部240と、カメラ部241と、記憶部250と、外部入出力部260と、GPS(Global Positioning System)受信部270と、モーションセンサ部280と、電源部290と、主制御部200(上述の本体コントローラ28が含まれる)とを備える。また、スマートフォン201の主たる機能として、基地局装置BSと移動通信網NWとを介した移動無線通信を行う無線通信機能を備える。
 無線通信部210は、主制御部200の指示にしたがって、移動通信網NWに収容された基地局装置BSに対し無線通信を行うものである。係る無線通信を使用して、音声データ、画像データ等の各種ファイルデータ、電子メールデータなどの送受信や、Webデータやストリーミングデータなどの受信を行う。
 表示入力部220は、主制御部200の制御により、画像(静止画像及び動画像)や文字情報などを表示して視覚的にユーザに情報を伝達し、表示した情報に対するユーザ操作を検出する、いわゆるタッチパネルであって、表示パネル221と、操作パネル222とを備える。
 表示パネル221は、LCD(Liquid Crystal Display)、OELD(Organic Electro-Luminescence Display)などを表示デバイスとして用いたものである。操作パネル222は、表示パネル221の表示面上に表示される画像を視認可能に載置され、ユーザの指や尖筆によって操作される一又は複数の座標を検出するデバイスである。係るデバイスをユーザの指や尖筆によって操作すると、操作に起因して発生する検出信号を主制御部200に出力する。次いで、主制御部200は、受信した検出信号に基づいて、表示パネル221上の操作位置(座標)を検出する。
 図19に示すように、本発明の撮像装置の一実施形態として例示しているスマートフォン201の表示パネル221と操作パネル222とは一体となって表示入力部220を構成しているが、操作パネル222が表示パネル221を完全に覆うような配置となっている。係る配置を採用した場合、操作パネル222は、表示パネル221外の領域についても、ユーザ操作を検出する機能を備えてもよい。換言すると、操作パネル222は、表示パネル221に重なる重畳部分についての検出領域(以下、表示領域と称する)と、それ以外の表示パネル221に重ならない外縁部分についての検出領域(以下、非表示領域と称する)とを備えていてもよい。
 なお、表示領域の大きさと表示パネル221の大きさとを完全に一致させてもよいが、両者を必ずしも一致させる必要はない。また、操作パネル222が、外縁部分と、それ以外の内側部分の2つの感応領域を備えていてもよい。更に、外縁部分の幅は、筐体202の大きさなどに応じて適宜設計されるものである。更にまた、操作パネル222により採用される位置検出方式としては、マトリクススイッチ方式、抵抗膜方式、表面弾性波方式、赤外線方式、電磁誘導方式、静電容量方式などが挙げられ、いずれの方式を採用することもできる。
 通話部230は、スピーカ231やマイクロホン232を備え、マイクロホン232を通じて入力されたユーザの音声を主制御部200にて処理可能な音声データに変換して主制御部200に出力したり、無線通信部210或いは外部入出力部260により受信された音声データを復号してスピーカ231から出力するものである。また、図19に示すように、例えば、スピーカ231を表示入力部220が設けられた面と同じ面に搭載し、マイクロホン232を筐体202の側面に搭載することができる。
 操作部240は、キースイッチなどを用いたハードウェアキーであって、ユーザからの指示を受け付けるものである。例えば、図19に示すように、操作部240は、スマートフォン201の筐体202の側面に搭載され、指などにより押下されるとオンとなり、指を離すとバネなどの復元力によってオフ状態となる押しボタン式のスイッチである。
 記憶部250は、主制御部200の制御プログラムや制御データ、アプリケーションソフトウェア、通信相手の名称や電話番号などを対応付けたアドレスデータ、送受信した電子メールのデータ、WebブラウジングによりダウンロードしたWebデータや、ダウンロードしたコンテンツデータを記憶し、またストリーミングデータなどを一時的に記憶するものである。また、記憶部250は、スマートフォン内蔵の内部記憶部251と着脱自在な外部メモリスロットを有する外部記憶部252により構成される。なお、記憶部250を構成するそれぞれの内部記憶部251と外部記憶部252は、フラッシュメモリタイプ(flash memory type)、ハードディスクタイプ(hard disk type)、マルチメディアカードマイクロタイプ(multimedia card micro type)、カードタイプのメモリ(例えば、MicroSD(登録商標)メモリ等)、RAM(Random Access Memory)、ROM(Read Only Memory)などの格納媒体を用いて実現される。
 外部入出力部260は、スマートフォン201に連結される全ての外部機器とのインターフェースの役割を果たすものであり、他の外部機器に通信等(例えば、ユニバーサルシリアルバス(USB)、IEEE1394など)又はネットワーク(例えば、インターネット、無線LAN、ブルートゥース(Bluetooth)(登録商標)、RFID(Radio Frequency Identification)、赤外線通信(Infrared Data Association:IrDA)(登録商標)、UWB(Ultra Wideband)(登録商標)、ジグビー(ZigBee)(登録商標)など)により直接的又は間接的に接続するためのものである。
 スマートフォン201に連結される外部機器としては、例えば、有/無線ヘッドセット、有/無線外部充電器、有/無線データポート、カードソケットを介して接続されるメモリカード(Memory card)やSIM(Subscriber Identity Module Card)/UIM(User Identity Module Card)カード、オーディオ・ビデオI/O(Input/Output)端子を介して接続される外部オーディオ・ビデオ機器、無線接続される外部オーディオ・ビデオ機器、有/無線接続されるスマートフォン、有/無線接続されるパーソナルコンピュータ、有/無線接続されるPDA、有/無線接続されるパーソナルコンピュータ、イヤホンなどがある。外部入出力部は、このような外部機器から伝送を受けたデータをスマートフォン201の内部の各構成要素に伝達することや、スマートフォン201の内部のデータを外部機器に伝送することが可能である。
 GPS受信部270は、主制御部200の指示にしたがって、GPS衛星ST1~STnから送信されるGPS信号を受信し、受信した複数のGPS信号に基づく測位演算処理を実行し、スマートフォン201の緯度、経度、高度からなる位置を検出する。GPS受信部270は、無線通信部210や外部入出力部260(例えば、無線LAN)から位置情報を取得できる時には、その位置情報を用いて位置を検出することもできる。
 モーションセンサ部280は、例えば、3軸の加速度センサなどを備え、主制御部200の指示にしたがって、スマートフォン201の物理的な動きを検出する。スマートフォン201の物理的な動きを検出することにより、スマートフォン201の動く方向や加速度が検出される。係る検出結果は、主制御部200に出力される。
 電源部290は、主制御部200の指示にしたがって、スマートフォン201の各部に、バッテリ(図示しない)に蓄えられる電力を供給する。
 主制御部200は、マイクロプロセッサを備え、記憶部250が記憶する制御プログラムや制御データにしたがって動作し、スマートフォン201の各部を統括して制御する。また、主制御部200は、無線通信部210を通じて、音声通信やデータ通信を行うために、通信系の各部を制御する移動通信制御機能と、アプリケーション処理機能を備える。
 アプリケーション処理機能は、記憶部250が記憶するアプリケーションソフトウェアにしたがって主制御部200が動作することにより実現する。アプリケーション処理機能としては、例えば、外部入出力部260を制御して対向機器とデータ通信を行う赤外線通信機能や、電子メールの送受信を行う電子メール機能、Webページを閲覧するWebブラウジング機能などがある。
 また、主制御部200は、受信データやダウンロードしたストリーミングデータなどの画像データ(静止画像や動画像のデータ)に基づいて、映像を表示入力部220に表示する等の画像処理機能を備える。画像処理機能とは、主制御部200が、上記画像データを復号し、係る復号結果に画像処理を施して、画像を表示入力部220に表示する機能のことをいう。
 更に、主制御部200は、表示パネル221に対する表示制御と、操作部240、操作パネル222を通じたユーザ操作を検出する操作検出制御を実行する。
 表示制御の実行により、主制御部200は、アプリケーションソフトウェアを起動するためのアイコンや、スクロールバーなどのソフトウェアキーを表示したり、或いは電子メールを作成するためのウィンドウを表示する。なお、スクロールバーとは、表示パネル221の表示領域に収まりきれない大きな画像などについて、画像の表示部分を移動する指示を受け付けるためのソフトウェアキーのことをいう。
 また、操作検出制御の実行により、主制御部200は、操作部240を通じたユーザ操作を検出したり、操作パネル222を通じて、上記アイコンに対する操作や、上記ウィンドウの入力欄に対する文字列の入力を受け付けたり、或いは、スクロールバーを通じた表示画像のスクロール要求を受け付ける。
 更に、操作検出制御の実行により主制御部200は、操作パネル222に対する操作位置が、表示パネル221に重なる重畳部分(表示領域)か、それ以外の表示パネル221に重ならない外縁部分(非表示領域)かを判定し、操作パネル222の感応領域や、ソフトウェアキーの表示位置を制御するタッチパネル制御機能を備える。
 また、主制御部200は、操作パネル222に対するジェスチャ操作を検出し、検出したジェスチャ操作に応じて、予め設定された機能を実行することもできる。ジェスチャ操作とは、従来の単純なタッチ操作ではなく、指などによって軌跡を描いたり、複数の位置を同時に指定したり、或いはこれらを組み合わせて、複数の位置から少なくとも1つについて軌跡を描く操作を意味する。
 カメラ部241は、CMOS(Complementary Metal Oxide
 Semiconductor)やCCD(Charge-Coupled Device)などの撮像素子を用いて電子撮影するデジタルカメラである。また、カメラ部241は、主制御部200の制御により、撮像によって得た画像データを例えばJPEG(Joint Photographic coding Experts Group)などの圧縮した画像データに変換し、記憶部250に記録したり、外部入出力部260や無線通信部210を通じて出力することができる。図19に示すにスマートフォン201において、カメラ部241は表示入力部220と同じ面に搭載されているが、カメラ部241の搭載位置はこれに限らず、表示入力部220の背面に搭載されてもよいし、或いは、複数のカメラ部241が搭載されてもよい。なお、複数のカメラ部241が搭載されている場合、撮影に供するカメラ部241を切り替えて単独にて撮影したり、或いは、複数のカメラ部241を同時に使用して撮影することもできる。
 また、カメラ部241はスマートフォン201の各種機能に利用することができる。例えば、表示パネル221にカメラ部241において取得した画像を表示することや、操作パネル222の操作入力のひとつとして、カメラ部241の画像を利用することができる。また、GPS受信部270が位置を検出する際に、カメラ部241からの画像を参照して位置を検出することもできる。更には、カメラ部241からの画像を参照して、3軸の加速度センサを用いずに、或いは、3軸の加速度センサと併用して、スマートフォン201のカメラ部241の光軸方向を判断することや、現在の使用環境を判断することもできる。勿論、カメラ部241からの画像をアプリケーションソフトウェア内において利用することもできる。
 その他、静止画又は動画の画像データにGPS受信部270により取得した位置情報、マイクロホン232により取得した音声情報(主制御部等により、音声テキスト変換を行ってテキスト情報となっていてもよい)、モーションセンサ部280により取得した姿勢情報等などを付加して記憶部250に記録したり、外部入出力部260や無線通信部210を通じて出力することもできる。
 上述の画像処理部36は、例えば主制御部200によって実現可能である。
 本発明は上述した実施形態に限定されず、本発明の精神を逸脱しない範囲で種々の変形が可能であることは言うまでもない。
 10…デジタルカメラ、12…レンズユニット、14…カメラ本体、16…レンズ、17…絞り、18…光学系操作部、20…レンズユニットコントローラ、22…レンズユニット入出力部、26…撮像素子、28…本体コントローラ、29…画像記憶部、30…カメラ本体入出力部、32…入出力インターフェース、34…デバイス制御部、36…画像処理部、37…表示制御部、38…表示部、40…情報取得部、42…フィルタ取得部、
44…フィルタ処理部、46…フィルタ選択部、48…フィルタ記憶部、50…関数取得部、52…フィルタ生成部、60…フィルタ適用部、62…ゲイン制御部、63…ゲイン調整部、64…データ調整部、66…周波数解析部、68…飽和画素解析部、70…リンギング取得部、72…増分値取得部、80…コンピュータ、81…コンピュータ入出力部、82…コンピュータコントローラ、83…ディスプレイ、84…ネットワーク、85…サーバ、86…サーバ入出力部、87…サーバコントローラ、101…撮像モジュール、110…EDoF光学系、110A…撮影レンズ、111…光学フィルタ、112…撮像素子、114…AD変換部、120…復元処理ブロック、122…黒レベル調整部、123…ホワイトバランスゲイン部、124…ガンマ処理部、125…デモザイク処理部、126…YCrCb変換部、127…Y信号復元処理部、200…主制御部、201…スマートフォン、202…筐体、210…無線通信部、220…表示入力部、221…表示パネル、222…操作パネル、230…通話部、231…スピーカ、232…マイクロホン、240…操作部、241…カメラ部、250…記憶部、251…内部記憶部、252…外部記憶部、260…外部入出力部、270…GPS受信部、280…モーションセンサ部、290…電源部

Claims (23)

  1.  光学系を用いた被写体像の撮影により取得される原画像データの撮影情報を取得する情報取得部と、
     少なくとも第1の撮影条件及び第2の撮影条件に基づいて鮮鋭化フィルタを取得するフィルタ取得部と、
     前記フィルタ取得部が取得した前記鮮鋭化フィルタを前記原画像データに適用し、鮮鋭画像データを取得するフィルタ処理部と、を備え、
     前記フィルタ取得部は、前記情報取得部が取得する前記撮影情報に前記第1の撮影条件が含まれるが前記第2の撮影条件が含まれない場合に、前記撮影情報に含まれる前記第1の撮影条件に関連付けられた前記鮮鋭化フィルタであって前記第2の撮影条件の代表条件に関連付けられた前記鮮鋭化フィルタを取得する画像処理装置。
  2.  前記第1の撮影条件及び前記第2の撮影条件のうち、一方は絞り値であり、他方は焦点距離である請求項1に記載の画像処理装置。
  3.  前記鮮鋭化フィルタは、前記光学系の光学伝達関数に基づくフィルタである請求項1又は2に記載の画像処理装置。
  4.  前記鮮鋭化フィルタは、前記光学系の光学伝達関数に基づかないフィルタである請求項1又は2に記載の画像処理装置。
  5.  前記フィルタ取得部は、複数の像高に関連付けられた複数の前記鮮鋭化フィルタを取得し、
     前記フィルタ処理部は、像高に応じて、前記原画像データに前記鮮鋭化フィルタを適用する請求項1~4のいずれか一項に記載の画像処理装置。
  6.  前記フィルタ取得部は、
     少なくとも前記第1の撮影条件及び前記第2の撮影条件に応じて定められる複数の前記鮮鋭化フィルタを記憶するフィルタ記憶部と、
     前記フィルタ記憶部に記憶される複数の前記鮮鋭化フィルタの中から、前記撮影情報に基づく前記鮮鋭化フィルタを選択するフィルタ選択部と、を有する請求項1~5のいずれか一項に記載の画像処理装置。
  7.  前記フィルタ取得部は、
     少なくとも前記第1の撮影条件及び前記第2の撮影条件に応じて定められる複数の光学伝達関数を取得する関数取得部と、
     前記関数取得部が取得した前記複数の光学伝達関数の中から選択される光学伝達関数であって、前記撮影情報に基づく光学伝達関数から前記鮮鋭化フィルタを生成して取得するフィルタ生成部と、を有する請求項1~6のいずれか一項に記載の画像処理装置。
  8.  前記第2の撮影条件の前記代表条件は、前記第1の撮影条件に関連付けられた複数の前記鮮鋭化フィルタの各々の空間周波数特性に基づいて定められる請求項1~7のいずれか一項に記載の画像処理装置。
  9.  前記第2の撮影条件の前記代表条件は、
     前記第1の撮影条件に関連付けられた複数の前記鮮鋭化フィルタであって、複数の前記第2の撮影条件に関連付けられた複数の前記鮮鋭化フィルタの各々に関し、前記鮮鋭化フィルタを適用する前の画像データに対する前記鮮鋭化フィルタを適用した後の画像データの空間周波数毎の比率を表すレスポンスの最大値を基準に定められる請求項8に記載の画像処理装置。
  10.  前記第2の撮影条件の前記代表条件は、
     前記第1の撮影条件に関連付けられた複数の前記鮮鋭化フィルタであって、複数の前記第2の撮影条件に関連付けられた複数の前記鮮鋭化フィルタの各々に関し、横軸の基準を空間周波数とし、縦軸の基準を、前記鮮鋭化フィルタを適用する前の画像データに対する前記鮮鋭化フィルタを適用した後の画像データの空間周波数毎の比率を表すレスポンスとした座標系における、空間周波数毎のレスポンスを表す関数において、
      第1の閾値よりも大きなレスポンスを示す範囲の面積を基準に定められる請求項8に記載の画像処理装置。
  11.  前記第1の閾値は1以上の値である請求項10に記載の画像処理装置。
  12.  前記原画像データの空間周波数特性を解析する周波数解析部を更に備え、
     前記フィルタ取得部は、前記周波数解析部による解析結果から前記原画像データの特定の空間周波数の範囲の成分量が第2の閾値以上と判定される場合には、前記第2の撮影条件の前記代表条件に関連付けられた前記鮮鋭化フィルタよりも、前記鮮鋭化フィルタを適用する前の画像データに対する前記鮮鋭化フィルタを適用した後の画像データの空間周波数毎の比率を表すレスポンスが小さい前記鮮鋭化フィルタを取得する請求項1~11のいずれか一項に記載の画像処理装置。
  13.  前記原画像データの空間周波数特性を解析する周波数解析部を更に備え、
     前記フィルタ処理部は、前記周波数解析部による解析結果から前記原画像データの特定の空間周波数の範囲の成分量が第2の閾値以上と判定される場合には、ゲインをコントロールすることにより前記原画像データに対する前記鮮鋭画像データの増分量を小さくする請求項1~11のいずれか一項に記載の画像処理装置。
  14.  前記原画像データの飽和画素を解析する飽和画素解析部を更に備え、
     前記フィルタ取得部は、前記飽和画素解析部による解析結果から前記原画像データに第3の閾値以上の画素値を有する飽和画素が含まれると判定される場合には、前記第2の撮影条件の前記代表条件に関連付けられた前記鮮鋭化フィルタよりも、前記鮮鋭化フィルタを適用する前の画像データに対する前記鮮鋭化フィルタを適用した後の画像データの空間周波数毎の比率を表すレスポンスが小さい前記鮮鋭化フィルタを取得する請求項1~11のいずれか一項に記載の画像処理装置。
  15.  前記原画像データの飽和画素を解析する飽和画素解析部を更に備え、
     前記フィルタ処理部は、前記飽和画素解析部による解析結果から前記原画像データに第3の閾値以上の画素値を有する飽和画素が含まれると判定される場合には、ゲインをコントロールすることにより前記原画像データに対する前記鮮鋭画像データの増分量を小さくする請求項1~11のいずれか一項に記載の画像処理装置。
  16.  前記鮮鋭画像データのリンギング量を取得するリンギング取得部を更に備え、
     前記フィルタ取得部は、前記リンギング量が第4の閾値以上の場合には、前記第2の撮影条件の前記代表条件に関連付けられた前記鮮鋭化フィルタよりも、前記鮮鋭化フィルタを適用する前の画像データに対する前記鮮鋭化フィルタを適用した後の画像データの空間周波数毎の比率を表すレスポンスが小さい前記鮮鋭化フィルタを取得する請求項1~11のいずれか一項に記載の画像処理装置。
  17.  前記鮮鋭画像データのリンギング量を取得するリンギング取得部を更に備え、
     前記フィルタ処理部は、前記リンギング量が第4の閾値以上の場合には、ゲインをコントロールすることにより前記原画像データに対する前記鮮鋭画像データの増分量を小さくする請求項1~11のいずれか一項に記載の画像処理装置。
  18.  特定の空間周波数の範囲に関して前記原画像データに対する前記鮮鋭画像データの増分値を取得する増分値取得部を更に備え、
     前記フィルタ取得部は、前記増分値が第5の閾値以上の場合には、前記第2の撮影条件の前記代表条件に関連付けられた前記鮮鋭化フィルタよりも、前記鮮鋭化フィルタを適用する前の画像データに対する前記鮮鋭化フィルタを適用した後の画像データの空間周波数毎の比率を表すレスポンスが小さい前記鮮鋭化フィルタを取得する請求項1~11のいずれか一項に記載の画像処理装置。
  19.  特定の空間周波数の範囲に関して前記原画像データに対する前記鮮鋭画像データの増分値を取得する増分値取得部を更に備え、
     前記フィルタ処理部は、前記増分値が第5の閾値以上の場合には、ゲインをコントロールすることにより前記原画像データに対する前記鮮鋭画像データの増分量を小さくする請求項1~11のいずれか一項に記載の画像処理装置。
  20.  前記特定の空間周波数の範囲は、前記原画像データのサンプリング周波数の1/8以上であって1/4以下の範囲に含まれる請求項12、13、18及び19のいずれか一項に記載の画像処理装置。
  21.  撮像素子と、
     請求項1~20のいずれか一項に記載の画像処理装置と、を備え、
     前記原画像データは前記撮像素子によって取得される撮像装置。
  22.  光学系を用いた被写体像の撮影により取得される原画像データの撮影情報を取得し、
     少なくとも第1の撮影条件及び第2の撮影条件に基づいて鮮鋭化フィルタを取得し、
     前記鮮鋭化フィルタを前記原画像データに適用して鮮鋭画像データを取得する画像処理方法であって、
     前記撮影情報に前記第1の撮影条件が含まれるが前記第2の撮影条件が含まれない場合に、前記撮影情報に含まれる前記第1の撮影条件に関連付けられた前記鮮鋭化フィルタであって前記第2の撮影条件の代表条件に関連付けられた前記鮮鋭化フィルタを取得する画像処理方法。
  23.  光学系を用いた被写体像の撮影により取得される原画像データの撮影情報を取得する手順と、
     少なくとも第1の撮影条件及び第2の撮影条件に基づいて鮮鋭化フィルタを取得する手順と、
     前記鮮鋭化フィルタを前記原画像データに適用して鮮鋭画像データを取得する手順とをコンピュータに実行させるためのプログラムであって、
     前記撮影情報に前記第1の撮影条件が含まれるが前記第2の撮影条件が含まれない場合に、前記撮影情報に含まれる前記第1の撮影条件に関連付けられた前記鮮鋭化フィルタであって前記第2の撮影条件の代表条件に関連付けられた前記鮮鋭化フィルタを取得するプログラム。
PCT/JP2015/059627 2014-04-11 2015-03-27 画像処理装置、撮像装置、画像処理方法及びプログラム WO2015156152A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
CN201580019026.3A CN106464798B (zh) 2014-04-11 2015-03-27 图像处理装置、摄像装置、图像处理方法以及记录介质
JP2016512668A JP6042034B2 (ja) 2014-04-11 2015-03-27 画像処理装置、撮像装置、画像処理方法及びプログラム
US15/287,886 US9633418B2 (en) 2014-04-11 2016-10-07 Image processing device, imaging apparatus, image processing method, and program

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2014082135 2014-04-11
JP2014-082135 2014-04-11

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US15/287,886 Continuation US9633418B2 (en) 2014-04-11 2016-10-07 Image processing device, imaging apparatus, image processing method, and program

Publications (1)

Publication Number Publication Date
WO2015156152A1 true WO2015156152A1 (ja) 2015-10-15

Family

ID=54287729

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2015/059627 WO2015156152A1 (ja) 2014-04-11 2015-03-27 画像処理装置、撮像装置、画像処理方法及びプログラム

Country Status (4)

Country Link
US (1) US9633418B2 (ja)
JP (1) JP6042034B2 (ja)
CN (1) CN106464798B (ja)
WO (1) WO2015156152A1 (ja)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015146364A1 (ja) * 2014-03-28 2015-10-01 富士フイルム株式会社 画像処理装置、撮影装置、画像処理方法、及びプログラム
JP6042043B2 (ja) * 2014-09-30 2016-12-14 富士フイルム株式会社 画像処理装置、画像処理方法、プログラム及び記録媒体
JP6486097B2 (ja) * 2014-12-19 2019-03-20 キヤノン株式会社 位置検出装置、レンズ装置、撮像システム、工作装置、位置検出方法、プログラム、および、記憶媒体
JP6619638B2 (ja) * 2015-12-09 2019-12-11 Eizo株式会社 画像処理装置及びプログラム
US11176643B1 (en) * 2020-05-04 2021-11-16 Apple Inc. Circuit for correcting chromatic aberration through sharpening

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2011122283A1 (ja) * 2010-03-31 2011-10-06 キヤノン株式会社 画像処理装置、およびそれを用いた撮像装置
JP2013172213A (ja) * 2012-02-17 2013-09-02 Canon Inc 画像処理装置、撮像装置、画像処理方法、および、プログラム
WO2014030390A1 (ja) * 2012-08-23 2014-02-27 富士フイルム株式会社 画像処理装置、撮像装置、コンピュータ、画像処理方法及びプログラム

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5696850A (en) * 1995-12-21 1997-12-09 Eastman Kodak Company Automatic image sharpening in an electronic imaging system
JP2002344798A (ja) 2001-05-16 2002-11-29 Canon Inc 撮像システム
JP5230456B2 (ja) * 2009-01-09 2013-07-10 キヤノン株式会社 画像処理装置および画像処理方法
JP2011119874A (ja) 2009-12-01 2011-06-16 Canon Inc カメラユニット、及びレンズユニット
JP5546229B2 (ja) 2009-12-09 2014-07-09 キヤノン株式会社 画像処理方法、画像処理装置、撮像装置および画像処理プログラム
WO2012001648A2 (en) * 2010-06-30 2012-01-05 Medic Vision - Imaging Solutions Ltd. Non-linear resolution reduction for medical imagery

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2011122283A1 (ja) * 2010-03-31 2011-10-06 キヤノン株式会社 画像処理装置、およびそれを用いた撮像装置
JP2013172213A (ja) * 2012-02-17 2013-09-02 Canon Inc 画像処理装置、撮像装置、画像処理方法、および、プログラム
WO2014030390A1 (ja) * 2012-08-23 2014-02-27 富士フイルム株式会社 画像処理装置、撮像装置、コンピュータ、画像処理方法及びプログラム

Also Published As

Publication number Publication date
CN106464798A (zh) 2017-02-22
US20170024863A1 (en) 2017-01-26
CN106464798B (zh) 2018-01-05
JPWO2015156152A1 (ja) 2017-04-13
JP6042034B2 (ja) 2016-12-14
US9633418B2 (en) 2017-04-25

Similar Documents

Publication Publication Date Title
JP5779724B2 (ja) 画像処理装置、撮像装置、コンピュータ及びプログラム
JP5752866B2 (ja) 画像処理装置、撮像装置、画像処理方法及びプログラム並びに記録媒体
JP5759085B2 (ja) 画像処理装置、撮像装置、画像処理方法及びプログラム並びに記録媒体
JP5851650B2 (ja) 復元フィルタ生成装置及び方法、画像処理装置、撮像装置、復元フィルタ生成プログラム並びに記録媒体
US9866750B2 (en) Image processing device, imaging device, image processing method, and image processing program
JP5844940B2 (ja) 復元フィルタ生成装置及び方法、画像処理装置及び方法、撮像装置、プログラム、並びに記録媒体
JP5830186B2 (ja) 画像処理装置、撮像装置、画像処理方法及びプログラム
WO2014125659A1 (ja) 画像処理装置、撮像装置、フィルタ生成装置、画像復元方法及びプログラム
JP6096382B2 (ja) 画像処理装置、撮像装置、画像処理方法及びプログラム
JP5903529B2 (ja) 撮像装置、撮像方法及び画像処理装置
JP5870231B2 (ja) 画像処理装置、撮像装置、画像処理方法、及びプログラム
US9892495B2 (en) Image processing device, imaging device, image processing method, and image processing program
US9633418B2 (en) Image processing device, imaging apparatus, image processing method, and program
JPWO2014155814A1 (ja) 撮像装置
CN108141530B (zh) 图像处理装置、图像处理方法及介质
WO2014050191A1 (ja) 画像処理装置、撮像装置、画像処理方法、及びプログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 15777131

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2016512668

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 15777131

Country of ref document: EP

Kind code of ref document: A1